Ollama系列---【如何离线安装ollama?】
1.环境
本文以centos7.9安装ollama为例
2.下载ollama安装包
官网地址:https://ollama.com/download/linux
GitHub手动安装文档地址:https://github.com/ollama/ollama/blob/main/docs/linux.md
安装包下载地址:https://ollama.com/download/ollama-linux-amd64.tgz
3.上传到服务器并解压
这里我以上传到/opt/app/middles/ollama
目录为例
tar -xzf ollama-linux-amd64.tgz
4.创建ollama.service文件
vi /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/opt/app/middles/ollama/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3
Environment="PATH=$PATH"
#指定模型存储位置,可以直接在外网下载好模型,打包解压到内网的ollama的模型目录下,就能实现离线安装了
Environment="OLLAMA_MODELS=/opt/app/middles/ollama/models"
#解决ollama无法访问的问题
Environment="OLLAMA_HOST=0.0.0.0:11434"
[Install]
WantedBy=default.target
#修改完之后,刷新
systemctl daemon-reload
5.ollama启动相关命令
systemctl enable ollama
systemctl start ollama
systemctl status ollama
systemctl stop ollama
systemctl restart ollama
6.配置全局环境变量
vi /etc/profile.d/ollama.sh
#ollama.sh内容如下
PATH=$PATH:/opt/app/middles/ollama/bin
export PATH
#刷新
source /etc/profile
7.验证是否启动成功
下面命令能正常执行,不报错,出现下面的内容就说明安装成功了
NAME ID SIZE MODIFIED
ollama ls
愿你走出半生,归来仍是少年!
分类:
【AI】 / 【Ollama】
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
2021-01-08 idea系列---【如何去掉idea最上面的工具栏?】