Windows安装与配置Ollama

Windows安装与配置Ollama

简介

本节学习如何在 Windows 系统中完成 Ollama 的安装与配置,主要分为以下几个部分:

  • 访问官网直接完成下载
  • 环境变量配置
  • 运行 Ollama
  • 验证安装成功🎉

一、访问官网直接完成下载

  1. 访问官网主页

    Ollama 下载:https://ollama.com/download

    Ollama 官方主页:https://ollama.com

    Ollama 官方 GitHub 源代码仓库:https://github.com/ollama/ollama/

    在这里插入图片描述

  2. 等待浏览器下载文件 OllamaSetup.exe,完成后双击该文件,出现如下弹窗,点击 Install 等待下载完成即可。

    在这里插入图片描述

  3. 安装完成后,可以看到 Ollama 已经默认运行了。

二、环境变量配置

Ollma可以像其他软件一样在电脑上完成一键安装,不同的是,建议按照实际需求配置下系统环境变量参数

参数标识与配置
OLLAMA_MODELS 表示模型文件的存放目录,默认目录为当前用户目录C:\Users%username%.ollama\models
Windows 系统 建议不要放在C盘,可放在其他盘(如 E:\ollama\models
OLLAMA_HOST 表示ollama 服务监听的网络地址,默认为127.0.0.1
如果想要允许其他电脑访问 Ollama(如局域网中的其他电脑),建议设置0.0.0.0
OLLAMA_PORT 表示ollama 服务监听的默认端口,默认为11434
如果端口有冲突,可以修改设置成其他端口(如8080等)
OLLAMA_ORIGINS 表示HTTP 客户端的请求来源,使用半角逗号分隔列表
如果本地使用不受限制,可以设置成星号 *
OLLAMA_KEEP_ALIVE 表示大模型加载到内存中后的存活时间,默认为5m即 5 分钟
(如纯数字300 代表 300 秒,0 代表处理请求响应后立即卸载模型,任何负数则表示一直存活)
建议设置成 24h ,即模型在内存中保持 24 小时,提高访问速度
OLLAMA_NUM_PARALLEL 表示请求处理的并发数量,默认为1 (即单并发串行处理请求)
建议按照实际需求进行调整
OLLAMA_MAX_QUEUE 表示请求队列长度,默认值为512
建议按照实际需求进行调整,超过队列长度的请求会被抛弃
OLLAMA_DEBUG 表示输出 Debug 日志,应用研发阶段可以设置成1 (即输出详细日志信息,便于排查问题)
OLLAMA_MAX_LOADED_MODELS 表示最多同时加载到内存中模型的数量,默认为1 (即只能有 1 个模型在内存中)

默认的模型保存路径在C盘,我们把路径更改到有更多可用空间的分区或目录,可以更好地管理存储空间。

  • 添加 OLLAMA_MODELS 环境变量改变模型存储的位置。例如 E:\ollama\models
  • 设置完成后重启 ollamaPowerShell,即可完成更改。

三、运行Ollama

  • 命令行语句启动
ollama serve
 

启动 Ollama 时会报错如下,因为 Windows 系统安装 Ollama 时会默认开机启动Ollama 服务默认是 http://127.0.0.1:11434

Error: listen tcp 127.0.0.1:11434: bind: Only one usage of each socket address (protocol/network address/port) is normally permitted.

  • 解决方法:
  1. 快捷键 Win+X 打开任务管理器,点击 启动,禁用 Ollama,并在进程中结束 Ollama 的任务。

    在这里插入图片描述

  2. 再次使用 ollama serve打开 Ollama。

  • 验证成功启动:
  1. 快捷键 Win+R,输入 cmd,打开命令行终端。
  2. 输入 netstat -aon|findstr 11434 查看占用端口11434的进程。
netstat -aon|findstr 11434
 

输出: TCP 127.0.0.1:11434 0.0.0.0:0 LISTENING 17556

显示11434端口被17556进程占用

  1. 查看该进程运行的情况,发现 Ollama 已经启动。
tasklist|findstr "17556"
 

输出如下:ollama.exe 17556 Console 1 31,856 K

四、验证安装成功🎉

  • 终端输入:
ollama -h
 

输出如下:即表示安装成功🎉


Large language model runner

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information
 
  • 终端使用Ollama :

library (ollama.com) 这里是ollama的模型库,搜索你想要的模型,然后直接启动!

ollama run qwen2.5:3b
 

下载速度取决于你的带宽,下载完毕即可使用✌记得使用 control + D 退出聊天

在这里插入图片描述

 

2025-02-14 17:37:54【出处】:https://deepseek.blog.csdn.net/article/details/145275600

=======================================================================================

posted on   jack_Meng  阅读(1625)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· DeepSeek “源神”启动!「GitHub 热点速览」
· 微软正式发布.NET 10 Preview 1:开启下一代开发框架新篇章
· C# 集成 DeepSeek 模型实现 AI 私有化(本地部署与 API 调用教程)
· DeepSeek R1 简明指南:架构、训练、本地部署及硬件要求
· NetPad:一个.NET开源、跨平台的C#编辑器
历史上的今天:
2023-02-14 用 shell 脚本做命令行工具扩展----服务器客户端之间文件传输
2023-02-14 从 Newtonsoft.Json 迁移到 System.Text.Json
2023-02-14 .NET为什么推荐RabbitMQ消息队列作为首选开发工具
2023-02-14 C#网络爬虫开发
2023-02-14 Typora 最后一个免费版本
2023-02-14 批处理取文本文件的行数
2017-02-14 C# 使用API检查域用户名和密码是否正确

导航

< 2025年2月 >
26 27 28 29 30 31 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 1
2 3 4 5 6 7 8
点击右上角即可分享
微信分享提示

喜欢请打赏

扫描二维码打赏

支付宝打赏

主题色彩