ollama 模型离线加载的配置简单说明
ollama 对于离线模型的支持可以是GGUF format 的(通过modelfile 进行构建),实际上还有一种就是对于下载好的模型直接
进行打包,然后通过配置进行加载(OLLAMA_MODELS 环境变量)
下载的模型数据
- 模型数据结构
- 通过直接复制加载的模型
参考服务配置
- systemd 服务配置
注意对于OLLAMA_MODELS 定义的文件夹的权限的配置
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_MODELS=/opt/models"
Environment="PATH=/root/.local/bin:/root/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin"
[Install]
WantedBy=default.target
参考资料
https://github.com/ollama/ollama/blob/main/docs/import.md
https://github.com/ollama/ollama/blob/main/docs/modelfile.md
https://github.com/ggerganov/llama.cpp/blob/master/README.md#prepare-and-quantize
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
2020-07-18 super-expressive 可以基于js 直接编写正则
2020-07-18 monio 的一些安全实践
2020-07-18 minio+ nginx rewrite 实现saas租户的个性化管理
2019-07-18 scylladb docker-compose 用户密码认证配置
2019-07-18 jaeger 使用scylladb作为后端存储
2018-07-18 hydra nodejs 微服务框架简单试用
2018-07-18 Rotor envoy control plane 简单试用