Ollama环境搭建
首先我们需要安装Ollama,Ollama是一个用于本地管理和运行大模型的工具,能够简化模型的下载和调度操作。
进入Ollama官网(https://ollama.com)。
https://www.ollama.com/
https://github.com/ollama/ollama/releases/download/v0.5.7/OllamaSetup.exe
下载ollama框架
选择要安装的模型
接着返回Ollama官网,点击右上角的【Models】,再选择【deepseek-r1】。
然后命令行下载ollama模型中的deepseek-r1
下拉可以看到多个参数版本,数字越大,模型参数越多,性能越强,对显存要求越高。
安装模型
在Windows系统中,按下【Win+R】弹出如下窗口👇
输入【cmd】,点击【确定】,打开命令行
在命令行中粘贴刚才复制的命令,按下回车键后,系统会自动开始下载模型。
等待下载完成即可。
下载过程中若发现速度突然变慢,试着关闭命令行再重新打开。
模型默认存储在c:\user\用户\.ollama|下面
已经可以开始对话了
接下来可以考虑安装 Open-WebUI(需要docker环境)、安装 cherry-ai.com/download 、安装 https://anythingllm.com/desktop 三种都可以选择
cherry-ai.com
可以添加自己的知识库 ollama pull shaw/dmeta-embedding-zh
anythingllm
Ollama Embedding Model 选择 nomic-embed-text:latest
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· 三行代码完成国际化适配,妙~啊~
· .NET Core 中如何实现缓存的预热?
· 如何调用 DeepSeek 的自然语言处理 API 接口并集成到在线客服系统