会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
实习小生
博客园
首页
新随笔
联系
订阅
管理
2024年10月21日
如何在服务器上通过ollama部署本地大模型
摘要: 如何在服务器上通过ollama部署本地大模型 第一步:下载离线的ollama安装包 curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz 第二步:加压安装包到指定的目录 sudo ta
阅读全文
posted @ 2024-10-21 14:19 实习小生
阅读(310)
评论(0)
推荐(0)
编辑