02 2025 档案

摘要:本地配置: cpu i3 10105 内存 DDR4 16G 无显卡 ollama 安装在C盘 anythingLLM 模型如下: deepseek_r1:8b bge-M3 可以上传,但RAG不行。 bge-large 对文档要求高,格式不对上传不成功 bge-large-zh-v1.5:late 阅读全文
posted @ 2025-02-13 16:22 金皮相 阅读(18) 评论(0) 推荐(0) 编辑
摘要:感谢网上分享代码的同学 原理是ollama在pull 模型时,开始的一段时间会快,后面的时间速度就降下去了,代码的作用就是下载60秒,中断一下,再接着开始下载,变相保持下载速率 我这里速度现在能接受,改成120秒了。 while ($true) { # 检查模型是否已下载完成 $modelExist 阅读全文
posted @ 2025-02-13 16:06 金皮相 阅读(201) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示