Ollama 安装 DeepSeek 扫盲

DeepSeek安装扫盲

一 、下载 Ollama 应用程序

[https://ollama.com/download/OllamaSetup.exe]

(一)要将 Ollama 应用程序安装在不同于用户目录的位置,请使用以下标志启动安装程序:

cmd下运行:

cd C:\Users\Admin\Downloads

.\OllamaSetup.exe /DIR="C:\Programs\Ollamas"

(二)修改存储模型的路径

cmd管理员运行:

setx OLLAMA_MODELS "C:\Programs\Ollamas\models" /M

setx OLLAMA_HOST "127.0.0.1:11434" /M

setx OLLAMA_ORIGINS "*" /M

  1. 启动设置(Windows 11)或控制面板(Windows 10)应用程序,并搜索 环境变量。
  2. 点击 编辑账户环境变量。
  3. 编辑或创建一个新的用户账户变量 OLLAMA_MODELS ,设置为你希望存储模型的路径。
  4. 点击确定/应用以保存。
  5. 如果你已经更改了 OLLAMA_MODELS 位置,安装程序不会移除你下载的模型
  6. 设置OLLAMA_HOST来允许Ollama通过IP地址访问其接口
  7. 右下角选择小羊图标右键关闭,再重新启动。

其他参数

参数 标识与配置
OLLAMA_MODELS 表示模型文件的存放目录,默认目录为当前用户目录即 C:\Users%username%.ollama\models
Windows 系统 建议不要放在C盘,可放在其他盘(如 E:\ollama\models)
OLLAMA_HOST 表示ollama 服务监听的网络地址,默认为127.0.0.1
如果想要允许其他电脑访问 Ollama(如局域网中的其他电脑),建议设置成 0.0.0.0
OLLAMA_PORT 表示ollama 服务监听的默认端口,默认为11434
如果端口有冲突,可以修改设置成其他端口(如8080等)
OLLAMA_ORIGINS 表示HTTP 客户端的请求来源,使用半角逗号分隔列表
如果本地使用不受限制,可以设置成星号 *
OLLAMA_KEEP_ALIVE 表示大模型加载到内存中后的存活时间,默认为5m即 5 分钟
(如纯数字300 代表 300 秒,0 代表处理请求响应后立即卸载模型,任何负数则表示一直存活)
建议设置成 24h ,即模型在内存中保持 24 小时,提高访问速度
OLLAMA_NUM_PARALLEL 表示请求处理的并发数量,默认为1 (即单并发串行处理请求)
建议按照实际需求进行调整
OLLAMA_MAX_QUEUE 表示请求队列长度,默认值为512
建议按照实际需求进行调整,超过队列长度的请求会被抛弃
OLLAMA_DEBUG 表示输出 Debug 日志,应用研发阶段可以设置成1 (即输出详细日志信息,便于排查问题)
OLLAMA_MAX_LOADED_MODELS 表示最多同时加载到内存中模型的数量,默认为1 (即只能有 1 个模型在内存中)

(三)模型安装

支持的模型列表: [https://ollama.com/library]

以deepseek模型为例:[https://ollama.com/library/deepseek-r1]

根据硬盘情况,选择相应的模型拷贝并运行安装命令:

模型名称 模型大小 运行命令 硬件配置
DeepSeek-R1-Distill-Qwen-1.5B 1.5B ollama run deepseek-r1:1.5b 最低配置:8GB RAM,无显卡加速;适合老旧设备
DeepSeek-R1-Distill-Qwen-7B 7B ollama run deepseek-r1:7b 最低配置:16GB RAM,8GB显存(GPU加速)
DeepSeek-R1-Distill-Llama-8B 8B ollama run deepseek-r1:8b 最低配置:16GB RAM,8GB显存(GPU加速)
DeepSeek-R1-Distill-Qwen-14B 14B ollama run deepseek-r1:14b 最低配置:32GB RAM,26GB显存(GPU加速)
DeepSeek-R1-Distill-Qwen-32B 32B ollama run deepseek-r1:32b 最低配置:64GB RAM,64GB显存(GPU加速)
DeepSeek-R1-Distill-Llama-70B 70B ollama run deepseek-r1:70b 最低配置:128GB RAM,140GB显存(GPU加速)
DeepSeek-R1 671B ollama run deepseek-r1:671b 需要极高的硬件配置,显存需求超过336GB

推荐原因:

我们在开源 DeepSeek-R1-Zero 和 DeepSeek-R1 两个 660B 模型的同时,通过 DeepSeek-R1 的输出,蒸馏了 6 个小模型开源给社区,其中 32B 和 70B 模型在多项能力上实现了对标 OpenAI o1-mini 的效果。
参考链接: [https://api-docs.deepseek.com/zh-cn/news/news250120]

(四)查看版本号/模型列表/删除模型

## 版本查询

ollama -v

## 模型列表

ollama list

## 运行模型
ollama rm <model_name>

## 运行模型并返回token测速信

ollama run deepseek-r1:7b --verbose

## 以某个模型为版本创建自定义模型

1.  创建文件,没有格式:Modelfile
2.  输入如下内容:

FROM deepseek-r1:7b

# set the temperature to 1 [higher is more creative, lower is more coherent]
PARAMETER temperature 0.8

# set the system message
SYSTEM """
  这里输入你的智能体信息
"""

3. ollama create [新模型名称] -f ./Modelfile

(五)AI工具插件

常见问题解答

  1. 查看运行状态 : [http://127.0.0.1:11434]

  2. 使用Nvidia独显GPU加速:[https://blog.csdn.net/qq_42869414/article/details/144966813]

  3. 使用 ollama ps 命令查看当前加载到内存中的模型。

    NAME ID SIZE PROCESSOR UNTIL
    deepseek-r1:8b 28f8fd6cdc67 6.5 GB 100% CPU 3 minutes from now

    Processor 列将显示模型加载到的内存: * 100% GPU 表示模型完全加载到 GPU * 100% CPU 表示模型完全加载到系统内存 * 48%/52% CPU/GPU 表示模型部分加载到 GPU 和系统内存

  4. 关闭Windows下Ollama开机自启动
    删除该路径下得ollama图标

    C:\Users\Administrator\AppData\Roaming\Microsoft\Windows\Start Menu\Programs\Startup
    
posted @   PengRay  阅读(25)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
点击右上角即可分享
微信分享提示