本地部署DeepSeek并用Python调用

需要下载的软件

  1. OllamaSetup.exe(Ollama是一个管理和运行大语言模型的开源工具)
  2. Hollama_0.25.1-win-x64.exe【可选】(Hollama是一个Ollama的可视化工具)
  3. python-3.13.1-amd64.exe
  4. VSCodeUserSetup-x64-1.96.4.exe【可选】

安装步骤

安装Ollama并运行模型DeepSeek

从官网下载相应的版本,这里使用的是Windows版本,双击执行安装文件默认会安装到C盘,可通过如下方式指定安装路径:
OllamaSetup.exe /DIR=your path

安装完毕后运行Ollama.exe即可,可通过命令ollama help查看参数。其中,应先了解以下参数:

  • serve,用来启动ollama(windows上通过安装包安装的Ollama会开机自动启动,启动后可以在浏览器中查看,地址为:http://127.0.0.1:11434/)
  • run 运行一个模型(初次运行,会自动下载模型)
  • list 列出所有模型
  • cp 列出正在运行的模型
  • rm 删除模型
  • help 帮助

安装完毕并启动Ollama后,可通过执行以下命令下载并运行DeepSeek:
ollama run deepseek-r1:1.5b
更多模型请见 https://ollama.com/search, 我电脑配置低,故选的是1.5b。

如果一切正常,DeepSeek运行起来后是这样的:
image

这时候可以发一些文字并得到反馈了:
image

可输入/?看到帮助信息

安装Hollama

Hollama也是一个开源软件,它和ollama的关系类似于Navicat和Mysql,有了它,就不用在黑糊糊的CMD下面和模型交互了,类似的软件有还有很多,请参见:https://github.com/ollama/ollama

运行起来的效果如下:
image

试用python调用

这里列出了可以调用Ollama服务的很多类库:https://github.com/ollama/ollama。 暂使用Python测试:

先安装模块:

pip install ollama

用VS Code编写代码如下:

import ollama

if  __name__ == '__main__':
    res = ollama.chat(model='deepseek-r1:1.5b', stream=False, messages=[{'role': 'user', 'content':'how are you'}])
    print(res)

执行结果:
image

posted @   会长  阅读(3383)  评论(1编辑  收藏  举报
相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
点击右上角即可分享
微信分享提示