会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
perfectbullet
博客园
首页
新随笔
联系
订阅
管理
随笔 - 4
文章 - 0
评论 - 0
阅读 -
475
07 2024 档案
Linux下Ollama命令
摘要:一些简单步骤: 启动Ollama:在命令行中输入ollama命令来启动Ollama。 部署模型:使用ollama run gemma:2b命令来部署Gemma模型。这将从Ollama的模型库中下载并安装Gemma模型的最新版本。 使用模型:模型安装完成后,你可以通过命令行输入相应的命令来使用Gemm
阅读全文
posted @
2024-07-02 09:57
飞雪如歌
阅读(397)
评论(0)
推荐(0)
编辑
公告
昵称:
飞雪如歌
园龄:
1年7个月
粉丝:
0
关注:
1
+加关注
<
2025年3月
>
日
一
二
三
四
五
六
23
24
25
26
27
28
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
我的标签
llamafactory
(1)
fastapi
(1)
离线环境
(1)
叮
(1)
随笔档案
2024年8月(2)
2024年7月(1)
2024年1月(1)
阅读排行榜
1. Linux下Ollama命令(397)
2. fastapi无网络环境部署 JavaScript 和 CSS(48)
3. llamafactory使用记录(22)
4. 叮(7)
点击右上角即可分享