Ollama 是一个基于 Go 语言的本地大语言模型运行框架,类 Docker 产品(支持 list,pull,push,run 等命令),事实上它保留了 Docker 的操作习惯,支持上传大语言模型仓库 (有 deepseek、llama 2,mistral,qwen 等模型,你也可以自定义模型上传)。

在管理模型的同时,它还提供了一些 Api 接口,让你能够像调用 OpenAI 提供的接口那样进行交互。

一、下载安装 Ollama

Ollama 支持多平台部署,你可以在官网,选择适合的安装包。

image

下载地址:https://ollama.com

运行之后,访问 localhost:11434,查看是否正常运行:

image

二、AI 模型管理

ollama 安装之后,其同时还是一个命令,与模型交互就是通过命令来进行的。

  • ollama list:显示模型列表。
  • ollama show:显示模型的信息
  • ollama pull:拉取模型
  • ollama push:推送模型
  • ollama cp:拷贝一个模型
  • ollama rm:删除一个模型
  • ollama run:运行一个模型

官方提供了一个模型仓库,https://ollama.com/library, 你可以搜索你想要的模型。

官方建议:应该至少有 8 GB 可用 RAM 来运行 7 B 型号,16 GB 来运行 13 B 型号,32 GB 来运行 33 B 型号。

在这里我选择下载目前最火的开源 deepseek-r1 模型来做演示。模型地址为:https://ollama.com/library/deepseek-r1 ,因我的电脑有 32G,所以选择了 14b 的模型来调试。

    ollama run deepseek-r1:14b

执行命令,如果本地没有该模型,则会先下载模型再运行。首次运行启动可能略慢。

三、简单交互

模型运行之后,会默认进入到交互状态,你可以按下 Ctrl + D 退出交互,但此时模型并不会退出,仍旧可以正常通过 Api 接口交互。

终端交互示例:

image

接口请求参考官方文档的介绍 API 文档,下边是简单的示例:

curl http://localhost:11434/api/generate -d "{\"model\":\"deepseek-r1:14b\", \"prompt\":\"介绍下JeecgBoot是什么项目\", \"stream\": false}"

image

接口请求支持 stream 模式,上边这个请求响应 10s 左右,如果使用 stream 模式,体验会提升不少。

四、通过 Web 界面调用大模型

这里介绍几个 UI 框架可以直接与 ollama 大模型对接。

项目一 :ollama-webui-lite

项目地址: https://github.com/ollama-webui/ollama-webui-lite

此项目是 open-webui 的简化版,注意需:node >= 16。

git clone https://github.com/ollama-webui/ollama-webui-lite.git
cd ollama-webui-lite
yarn
yarn dev

运行之后,你可以对连接信息进行设置,默认是连接本机的 http://localhost:11434/api,如果你也是本机部署,那就不用更改。然后界面选择启动的模型,就可以对话了。

image

项目二 :lobe-chat

项目地址:https://github.com/lobehub/lobe-chat

这是一个集成多种模型能力的对话聊天 UI,部署简单,界面酷炫。

Docker 部署命令:

docker run -itd --name=lobechat -p 3210:3210 registry.cn-hangzhou.aliyuncs.com/jeecgdocker/lobe-chat

如果你是本地 ollama 部署,启动之后,就可以在 web 界面进行交互了。 目前最新版还不支持 deepseek v3,可以先用其他大模型测试下

image

posted on 2025-02-12 13:55  zhangdaiscott  阅读(668)  评论(0编辑  收藏  举报