本地部署DeepSeek并用Python调用
需要下载的软件
- OllamaSetup.exe(Ollama是一个管理和运行大语言模型的开源工具)
- Hollama_0.25.1-win-x64.exe【可选】(Hollama是一个Ollama的可视化工具)
- python-3.13.1-amd64.exe
- VSCodeUserSetup-x64-1.96.4.exe【可选】
安装步骤
安装Ollama并运行模型DeepSeek
从官网下载相应的版本,这里使用的是Windows版本,双击执行安装文件默认会安装到C盘,可通过如下方式指定安装路径:
OllamaSetup.exe /DIR=your path
安装完毕后运行Ollama.exe即可,可通过命令ollama help
查看参数。其中,应先了解以下参数:
- serve,用来启动ollama(windows上通过安装包安装的Ollama会开机自动启动,启动后可以在浏览器中查看,地址为:http://127.0.0.1:11434/)
- run 运行一个模型(初次运行,会自动下载模型)
- list 列出所有模型
- cp 列出正在运行的模型
- rm 删除模型
- help 帮助
安装完毕并启动Ollama后,可通过执行以下命令下载并运行DeepSeek:
ollama run deepseek-r1:1.5b
更多模型请见 https://ollama.com/search, 我电脑配置低,故选的是1.5b。
如果一切正常,DeepSeek运行起来后是这样的:
这时候可以发一些文字并得到反馈了:
可输入/?
看到帮助信息
安装Hollama
Hollama也是一个开源软件,它和ollama的关系类似于Navicat和Mysql,有了它,就不用在黑糊糊的CMD下面和模型交互了,类似的软件有还有很多,请参见:https://github.com/ollama/ollama
运行起来的效果如下:
试用python调用
这里列出了可以调用Ollama服务的很多类库:https://github.com/ollama/ollama。 暂使用Python测试:
先安装模块:
pip install ollama
用VS Code编写代码如下:
import ollama
if __name__ == '__main__':
res = ollama.chat(model='deepseek-r1:1.5b', stream=False, messages=[{'role': 'user', 'content':'how are you'}])
print(res)
执行结果:
欢迎转载,转载请注明出处
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)