会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
flameking 的博客
这里是flameking😜,专注于 Java 领域知识分享的野生博主,如果您对 Java 和算法感兴趣,欢迎关注我😘
博客园
首页
新随笔
联系
订阅
管理
2024年11月4日
如何在离线的Linux服务器上部署 Ollama,并使用 Ollama 管理运行 Qwen 大模型
摘要: 手动安装 Ollama 根据Linux的版本下载对应版本的 Ollama 查看Linux CPU型号,使用下面的命令 #查看Linux版本号 cat /proc/version #查看cpu架构 lscpu x86_64 CPU选择下载ollama-linux-amd64;aarch64|arm64
阅读全文
posted @ 2024-11-04 17:27 flameking
阅读(1220)
评论(0)
推荐(4)
编辑