02 2025 档案
摘要:本地配置: cpu i3 10105 内存 DDR4 16G 无显卡 ollama 安装在C盘 anythingLLM 模型如下: deepseek_r1:8b bge-M3 可以上传,但RAG不行。 bge-large 对文档要求高,格式不对上传不成功 bge-large-zh-v1.5:late
阅读全文
摘要:感谢网上分享代码的同学 原理是ollama在pull 模型时,开始的一段时间会快,后面的时间速度就降下去了,代码的作用就是下载60秒,中断一下,再接着开始下载,变相保持下载速率 我这里速度现在能接受,改成120秒了。 while ($true) { # 检查模型是否已下载完成 $modelExist
阅读全文