摘要: 如何在服务器上通过ollama部署本地大模型 第一步:下载离线的ollama安装包 curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz 第二步:加压安装包到指定的目录 sudo ta 阅读全文
posted @ 2024-10-21 14:19 实习小生 阅读(777) 评论(0) 推荐(0) 编辑