【ollama】手把手教你布置本地大语言模型 以及各种常见用途#如何加载guff模型到ollama #如何更改ollama目录

image

ollama介绍

Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。

以下是其主要特点和功能概述:

  1. 简化部署:Ollama 目标在于简化在 Docker 容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。

  2. 轻量级与可扩展:作为轻量级框架,Ollama 保持了较小的资源占用,同时具备良好的可扩展性,允许用户根据需要调整配置以适应不同规模的项目和硬件条件。

  3. API支持:提供了一个简洁的 API,使得开发者能够轻松创建、运行和管理大型语言模型实例,降低了与模型交互的技术门槛。

  4. 预构建模型库:包含一系列预先训练好的大型语言模型,用户可以直接选用这些模型应用于自己的应用程序,无需从头训练或自行寻找模型源。

运行界面:image

配合ChatBOX使用可以更加舒适
image

安装与使用

软件下载

整合包地址:https://ousnb-my.sharepoint.com/:f:/g/personal/main_bgx_ink/Ek-I7CLsv5JEj6BhIc0MUCkBsexEsqxLFH-7dpER1pY06A?e=i2hGla

如果地址失效请分别到ollama和chatbox的官网下载安装包:
ollama:https://ollama.com/
chatbox:https://chatboxai.app/zh

安装

下载完毕后进行解压,可以得到以下两个文件
image
分别打开进行安装
image
image

安装完成

待安装完毕后,打开命令行输入ollama -v,若返回版本号,则说明ollama安装成功
image

ollama的配置与使用

我们上ollama的官方网站仓库里面

image
可以看到许多的模型,点击自己喜欢的模型,并选择所需要的版本
这里以llama3.1模型8B为例子:

image
复制右上方的代码ollama run llama3.1至命令行内,模型会自行开始下载
image
(由于镜像站在境外,所以连接比较弱,速度慢可以重试几次,正常下载速度绝不止100kb/s)

ollama使用

等下载完毕之后我们在命令行输入ollama list查看模型是否下载完成
image

若看到大概如上,我们便可以进入下一步,我们在命令行输入ollama run <模型名称>,我这里用llama3做示范:ollama run llama3.1:8b
image
看到这个界面便是大功告成了!

chatbox使用

chatbox打开后界面如下
image
我们点进去左下角的设置
image
将模型提供方设置为ollama本地
api默认
模型设置为所需模型

image
点击保存
便可以开始对话,轻松简单
image

关于ollama的那些事

我在黄面下载了gguf模型,如何把gguf模型加载到ollama里面呢?

我们下面以opengpt4为例:
我有一个文件名字为open_gpt4_8x7b.Q2_K.gguf的模型
这时我们在同一个目录下新建一个文本文档,
在里面写入FROM ./<gguf文件名字>,比如我这里是:
FROM ./open_gpt4_8x7b.Q2_K.gguf
保存后将名字改为open_gpt4_8x7b.Q2_K,将txt后缀改为modelfile
即:open_gpt4_8x7b.Q2_K.modelfile
image

然后我们在命令行输入:ollama create open_gpt4_8x7b.Q2_K -f open_gpt4_8x7b.Q2_K.modelfile
成功的话会提示success
image

更改模型目录

更改默认的模型目录其实很简单
在想要用来储存的盘新建一个文件夹,并复制地址,
image
在系统设置里面新建系统环境变量:
image
完成后点击确定 再点击上一层的确定。
image
然后关闭ollama,再开启就可以更改模型目录了

posted @ 2024-07-29 22:09  ous  阅读(166)  评论(0编辑  收藏  举报