种心收默

统信UOS 1071本地大模型配置手册


1. OS版本确认

1.1. 版本查看

要求:计算机,属性,查看版本(1070,构建号>= 101.100

 

2. UOS AI版本确认

UOS AI,设置,点击添加,查看是否有:自定义,功能菜单(因为此操作需进行自定义配置)

 

3. 安装模型管理工具Ollama

3.1. Ollama简介

Ollama是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型,包括如Llama 3Phi 3MistralGemma等开源的大型语言模型。官网:https://ollama.com/

3.2. Ollama安装

快速命令安装:curl -fsSL https://ollama.com/install.sh | sh

其它更多安装方式,可参照:https://github.com/ollama/ollama

4. 选择并安装模型

使用llama3.1模型:ollama run llama3.1

更多模型选择:https://ollama.com/library

5. Ollama服务确认

systemctl status ollama

其它常用命令:

启动Ollama
#ollama server
下载模型
#ollama pull XXX(模型名称)
运行模型
#ollama run XXX(模型名称)
查看已下载模型
#ollama list
查看Ollama版本
#ollama --version

6. UOS AI关联配合模型

UOS AI,设置,点击添加,自定义

 

 

7. 测试

UOS AI本地大模型测试:

 

 

8. 其它

1、Ollama服务关闭开机启动:systemctl disable ollama

2、其它的可以参照:systemctl 的命令

综上:UOS 1070U1 AI配置本地大模型。后续将进一步更新本地模型学习等内容。

posted on 2024-09-24 11:23  samcao  阅读(26)  评论(0编辑  收藏  举报

导航