会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
flameking 的博客
这里是flameking😜,专注于 Java 领域知识分享的野生博主,如果您对 Java 和算法感兴趣,欢迎关注我😘
博客园
首页
新随笔
联系
订阅
管理
随笔 - 1
文章 - 1
评论 - 0
阅读 -
15648
随笔分类 -
AI
/
LLM
如何在离线的Linux服务器上部署 Ollama,并使用 Ollama 管理运行 Qwen 大模型
摘要:手动安装 Ollama 根据Linux的版本下载对应版本的 Ollama 查看Linux CPU型号,使用下面的命令 #查看Linux版本号 cat /proc/version #查看cpu架构 lscpu x86_64 CPU选择下载ollama-linux-amd64;aarch64|arm64
阅读全文
posted @
2024-11-04 17:27
flameking
阅读(15639)
评论(0)
推荐(5)
编辑
<
2025年3月
>
日
一
二
三
四
五
六
23
24
25
26
27
28
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
随笔分类
(1)
AI(1)
LLM(1)
随笔档案
(1)
2024年11月(1)
文章分类
(1)
AI(0)
flameking的算法总结(1)
阅读排行榜
1. 如何在离线的Linux服务器上部署 Ollama,并使用 Ollama 管理运行 Qwen 大模型(15636)
点击右上角即可分享