摘要: 1、copaw要支持ollama模型要采用下面的命令安装: curl -fsSL https://copaw.agentscope.io/install.sh | bash -s -- --extras ollama 2、启动,局域网可访问 copaw app --host 0.0.0.0 阅读全文
posted @ 2026-03-19 11:21 河在谈 阅读(3) 评论(0) 推荐(0)
摘要: 1、下载 wget https://developer.download.nvidia.com/compute/cuda/13.2.0/local_installers/cuda_13.2.0_595.45.04_linux.run 2、安装gcc 11 #11版本 sudo apt install 阅读全文
posted @ 2026-03-18 14:29 河在谈 阅读(3) 评论(0) 推荐(0)
摘要: 1、到套件中心安装 Virtual Machine Manager 2、打开上传下载的 ImmortalWrt 套件.img格式的,X86-64的:https://immortalwrt.kyarucloud.moe/releases/24.10.4/targets/x86/64/immortalw 阅读全文
posted @ 2026-03-13 13:48 河在谈 阅读(28) 评论(0) 推荐(0)
摘要: https://trevoreyre.com/portfolio/excel-datepicker/ 阅读全文
posted @ 2026-03-07 22:49 河在谈 阅读(2) 评论(0) 推荐(0)
摘要: 1、下载对应版本的程序 /opt/ollama# wget https://github.com/ollama/ollama/releases/download/v0.15.5-rc3/ollama-linux-amd64.tar.zst 2、解压 # tar -I zstd -xvf ollama 阅读全文
posted @ 2026-02-11 08:10 河在谈 阅读(154) 评论(0) 推荐(0)
摘要: 镜像太大,服务器1费好大劲下载完了,可以直接导出导入到服务器2、3、4 在服务器1 docker save -o vllm-openai.tar vllm/vllm-openai 然后拷贝到别的服务器 scp vllm-openai.tar 172.24.193.68:/opt/vllm/ 在服务器 阅读全文
posted @ 2026-01-29 13:38 河在谈 阅读(9) 评论(0) 推荐(0)
摘要: 创建虚拟环境,里面的python版本就是当前python3的版本,没法指定,不如conda灵活 python3 -m venv .hf-env 激活环境,想进环境都要做 source .hf-env/bin/activate 升级基础工具(避免安装问题) pip install --upgrade 阅读全文
posted @ 2026-01-29 10:00 河在谈 阅读(13) 评论(0) 推荐(0)
摘要: 下载引导 https://github.com/fbelavenuto/arpl/releases 上传解压的两个文件,会变成一个。 创建虚拟机,选这个操作系统,不然出不来SATA硬盘。 删除已有硬盘和光驱,新加已有硬盘,选择上传的文件,修改硬盘控制器为sata,所有的硬盘都设置为sata。 现在这 阅读全文
posted @ 2026-01-07 16:05 河在谈 阅读(121) 评论(0) 推荐(0)
摘要: 1、在linux下启动rsync服务 安装 apt install rsync 配置文件 vim /etc/rsyncd.conf —————————————— # 全局配置 uid = root gid = root use chroot = no max connections = 10 tim 阅读全文
posted @ 2025-12-24 08:49 河在谈 阅读(35) 评论(0) 推荐(0)
摘要: 1、公式的插入,如果是问大模型的公式,让输出latex格式,然后采用GrindEQ Math一键转换为word公式。 2、但是word公式不专业,字体啥的不符合要求,要转换为mathtype格式。整篇文档还是当前所选内容,按需选择。但是我的mathtype7整篇转换有问题,只能几段几段选中转换。 2 阅读全文
posted @ 2025-09-27 17:39 河在谈 阅读(402) 评论(0) 推荐(0)