[置顶] openclaw接入qq机器人

摘要: openclaw接入qq机器人 相比较飞书配置,qq机器人配置简直不要太简单了 一、提前接入本地或云端模型 提前搭建好openclaw,当配置模型时,可以通过配置向导使用qwen模型,快捷调用 注:选择Qwen,使用浏览器访问其生成的链接,注册千问账号并授权链接权限 二、申请qq key https 阅读全文

posted @ 2026-03-10 21:11 赛博狗尾草 阅读(13) 评论(0) 推荐(0)

[置顶] 在云主机上使用openclaw

摘要: 联通云免费的云主机和AI服务来学习openlcaw 背景: openclaw很火爆,各运营商开始加盟,推出免费的云主机和ai服务 现状: 使用联通云提供的云主机可开箱即用openclaw,配合其提供的免费api,即可搭建属于自己的ai智能体 云主机及ai服务注册 现在厂商每个月都会刷新额度,如果本月 阅读全文

posted @ 2026-03-05 20:52 赛博狗尾草 阅读(129) 评论(0) 推荐(0)

2026年3月18日

openclaw配置文件说明

摘要: 刚开始使用openclaw配置提供商、模型时,都是通过命令设置的,命令太多,不太好记。当有个性化的需求时,可以直接改配置文件来添加模型等新的需求 演示内容: 模型选择,此处使用了千问供应商千问两个模型、ollama本地搭建的本地模型和在线模型、还有使用联通云供应商提供的glm、minimax、dee 阅读全文

posted @ 2026-03-18 15:21 赛博狗尾草 阅读(24) 评论(0) 推荐(0)

2026年3月11日

openclaw接入飞书机器人

摘要: 飞书配置跟qq机器人一样,一键部署的感觉 官方文档:https://www.feishu.cn/content/article/7613711414611463386 具体操作 0、安装飞书app,注册一个账号,个人账号也可以,也可以创建不用认证的公司组织 1、在openclaw主机上执行命令 np 阅读全文

posted @ 2026-03-11 21:26 赛博狗尾草 阅读(8) 评论(0) 推荐(0)

openclaw调用ollama本地模型

摘要: 环境: 需要互联网,需要从互联网下载openclaw包,及模型api调用。或者先下载工具和模型,离线导入使用,后面有说明 操作系统:Kylin Linux Advanced Server release V11 2503/(Swan25)-x86_64-Build20/20250715 Kernel 阅读全文

posted @ 2026-03-11 11:10 赛博狗尾草 阅读(211) 评论(0) 推荐(0)

openclaw-cn部署

摘要: 友好的中文版openclaw-cn使用 说明:安装过程和web界面为中文,使用和配置起来友好些。 目前新的openclaw已添加语言设置,可切换不同语言,更方便了 环境: 操作系统:Kylin Linux Advanced Server release V11 2503/(Swan25)-x86_6 阅读全文

posted @ 2026-03-11 11:07 赛博狗尾草 阅读(71) 评论(0) 推荐(0)

lvm快照使用补充说明

摘要: lvm快照使用补充说明 1、lvm快照可理解为逻辑卷某个时刻的状态,常用于备份、系统回滚或测试 2、lvm快照并非保存原始逻辑卷中所有数据,而是保存着原始逻辑卷发生变化的那部分内容。如当原始逻辑卷内新增一个文件,快照即把这个文件保存起来。要与lvm镜像作区分。(快照仅存储“创建后原始lv的数据变更” 阅读全文

posted @ 2026-03-11 11:00 赛博狗尾草 阅读(7) 评论(0) 推荐(0)

linux网卡掩码位数和10进制点分位的补充

摘要: 在linux系统中,网卡文件中表示ip地址掩码有两种格式,分别为10进制点分格式和掩码位数,如255.255.255.0和24 1、在Debian系列中期版本采用的配置文件有/etc/network/interfaces 如ens32的部分配置 iface ens32 inet static add 阅读全文

posted @ 2026-03-11 10:48 赛博狗尾草 阅读(4) 评论(0) 推荐(0)

2026年3月10日

使用win10上自带的ssh

摘要: 在win10上使用自带的ssh工具 自从win10开始,有了powershell后,加入了不少linux命令,如ls等,对经常使用linux来说更友好,功能也更强大了 其中ssh比较实用,直接可以连接linux主机,还有其他的scp,sftp,ssh-kegen等等命令 对于部分阉割的系统,可能没有 阅读全文

posted @ 2026-03-10 21:50 赛博狗尾草 阅读(6) 评论(0) 推荐(0)

2026年3月5日

ollama实现本地模型部署和使用

摘要: 介绍 Ollama 是一个开源的大型语言模型(LLM)本地运行和管理工具,旨在简化在个人计算机或服务器上部署、运行和切换各种开源 AI 模型的过程‌。(AI) 简单说,它提供了千问、kimi等模型的离线包,可以在本地和离线环境下实现ai问答 工具使用 下载地址 注:由于下载速度慢,已将win和lin 阅读全文

posted @ 2026-03-05 20:57 赛博狗尾草 阅读(55) 评论(0) 推荐(0)

导航