Ollama 安装 DeepSeek 扫盲
DeepSeek安装扫盲
一 、下载 Ollama 应用程序
[https://ollama.com/download/OllamaSetup.exe]
(一)要将 Ollama 应用程序安装在不同于用户目录的位置,请使用以下标志启动安装程序:
cmd下运行:
cd C:\Users\Admin\Downloads
.\OllamaSetup.exe /DIR="C:\Programs\Ollamas"
(二)修改存储模型的路径
cmd管理员运行:
setx OLLAMA_MODELS "C:\Programs\Ollamas\models" /M
setx OLLAMA_HOST "127.0.0.1:11434" /M
setx OLLAMA_ORIGINS "*" /M
- 启动设置(Windows 11)或控制面板(Windows 10)应用程序,并搜索 环境变量。
- 点击 编辑账户环境变量。
- 编辑或创建一个新的用户账户变量 OLLAMA_MODELS ,设置为你希望存储模型的路径。
- 点击确定/应用以保存。
- 如果你已经更改了 OLLAMA_MODELS 位置,安装程序不会移除你下载的模型
- 设置OLLAMA_HOST来允许Ollama通过IP地址访问其接口
- 右下角选择小羊图标右键关闭,再重新启动。
其他参数
参数 | 标识与配置 |
---|---|
OLLAMA_MODELS | 表示模型文件的存放目录,默认目录为当前用户目录即 C:\Users%username%.ollama\models Windows 系统 建议不要放在C盘,可放在其他盘(如 E:\ollama\models) |
OLLAMA_HOST | 表示ollama 服务监听的网络地址,默认为127.0.0.1 如果想要允许其他电脑访问 Ollama(如局域网中的其他电脑),建议设置成 0.0.0.0 |
OLLAMA_PORT | 表示ollama 服务监听的默认端口,默认为11434 如果端口有冲突,可以修改设置成其他端口(如8080等) |
OLLAMA_ORIGINS | 表示HTTP 客户端的请求来源,使用半角逗号分隔列表 如果本地使用不受限制,可以设置成星号 * |
OLLAMA_KEEP_ALIVE | 表示大模型加载到内存中后的存活时间,默认为5m即 5 分钟 (如纯数字300 代表 300 秒,0 代表处理请求响应后立即卸载模型,任何负数则表示一直存活) 建议设置成 24h ,即模型在内存中保持 24 小时,提高访问速度 |
OLLAMA_NUM_PARALLEL | 表示请求处理的并发数量,默认为1 (即单并发串行处理请求) 建议按照实际需求进行调整 |
OLLAMA_MAX_QUEUE | 表示请求队列长度,默认值为512 建议按照实际需求进行调整,超过队列长度的请求会被抛弃 |
OLLAMA_DEBUG | 表示输出 Debug 日志,应用研发阶段可以设置成1 (即输出详细日志信息,便于排查问题) |
OLLAMA_MAX_LOADED_MODELS | 表示最多同时加载到内存中模型的数量,默认为1 (即只能有 1 个模型在内存中) |
(三)模型安装
支持的模型列表: [https://ollama.com/library]
以deepseek模型为例:[https://ollama.com/library/deepseek-r1]
根据硬盘情况,选择相应的模型拷贝并运行安装命令:
模型名称 | 模型大小 | 运行命令 | 硬件配置 |
---|---|---|---|
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | ollama run deepseek-r1:1.5b | 最低配置:8GB RAM,无显卡加速;适合老旧设备 |
DeepSeek-R1-Distill-Qwen-7B | 7B | ollama run deepseek-r1:7b | 最低配置:16GB RAM,8GB显存(GPU加速) |
DeepSeek-R1-Distill-Llama-8B | 8B | ollama run deepseek-r1:8b | 最低配置:16GB RAM,8GB显存(GPU加速) |
DeepSeek-R1-Distill-Qwen-14B | 14B | ollama run deepseek-r1:14b | 最低配置:32GB RAM,26GB显存(GPU加速) |
DeepSeek-R1-Distill-Qwen-32B | 32B | ollama run deepseek-r1:32b | 最低配置:64GB RAM,64GB显存(GPU加速) |
DeepSeek-R1-Distill-Llama-70B | 70B | ollama run deepseek-r1:70b | 最低配置:128GB RAM,140GB显存(GPU加速) |
DeepSeek-R1 | 671B | ollama run deepseek-r1:671b | 需要极高的硬件配置,显存需求超过336GB |
推荐原因:
我们在开源 DeepSeek-R1-Zero 和 DeepSeek-R1 两个 660B 模型的同时,通过 DeepSeek-R1 的输出,蒸馏了 6 个小模型开源给社区,其中 32B 和 70B 模型在多项能力上实现了对标 OpenAI o1-mini 的效果。
参考链接: [https://api-docs.deepseek.com/zh-cn/news/news250120]
(四)查看版本号/模型列表/删除模型
## 版本查询
ollama -v
## 模型列表
ollama list
## 运行模型
ollama rm <model_name>
## 运行模型并返回token测速信
ollama run deepseek-r1:7b --verbose
## 以某个模型为版本创建自定义模型
1. 创建文件,没有格式:Modelfile
2. 输入如下内容:
FROM deepseek-r1:7b
# set the temperature to 1 [higher is more creative, lower is more coherent]
PARAMETER temperature 0.8
# set the system message
SYSTEM """
这里输入你的智能体信息
"""
3. ollama create [新模型名称] -f ./Modelfile
(五)AI工具插件
- 工具
- Cherry Studio (推荐)[https://cherry-ai.com/download]
- chatbox [https://chatboxai.app/zh#download]
- VSCode
- Open WebUI
- 浏览器插件 page_assist
常见问题解答
-
查看运行状态 : [http://127.0.0.1:11434]
-
使用Nvidia独显GPU加速:[https://blog.csdn.net/qq_42869414/article/details/144966813]
-
使用 ollama ps 命令查看当前加载到内存中的模型。
NAME ID SIZE PROCESSOR UNTIL deepseek-r1:8b 28f8fd6cdc67 6.5 GB 100% CPU 3 minutes from now Processor 列将显示模型加载到的内存: * 100% GPU 表示模型完全加载到 GPU * 100% CPU 表示模型完全加载到系统内存 * 48%/52% CPU/GPU 表示模型部分加载到 GPU 和系统内存
-
关闭Windows下Ollama开机自启动
删除该路径下得ollama图标C:\Users\Administrator\AppData\Roaming\Microsoft\Windows\Start Menu\Programs\Startup
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律