ollama 最快方式部署管理大模型
github:https://github.com/ollama/ollama
模型地址:https://ollama.com/library/llama3.1
linux: 安装
1.下载安装脚本
curl -fsSL https://ollama.com/install.sh | sh
2.修改启动环境变量
如果是root 用户记得改为root
vim /etc/systemd/system/ollama.service [Unit] Description=Ollama Service After=network-online.target [Service] ExecStart=/usr/local/bin/ollama serve User=root Group=root Restart=always RestartSec=3 Environment="PATH=/root/.nvm/versions/node/v18.20.4/bin:/home/miniconda3/bin:/home/miniconda3/condabin:/usr/lib64/qt-3.3/bin:/root/perl5/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin:/usr/local/mysql/bin" Environment="OLLAMA_DEBUG=1" Environment="OLLAMA_HOST=0.0.0.0:11434" Environment=" OLLAMA_KEEP_ALIVE=5h" Environment="OLLAMA_MAX_LOADED_MODELS=10" #export OLLAMA_MAX_QUEUE=100 Environment="OLLAMA_MODELS=/home/data/llm/ollama/models/" [Install] WantedBy=default.target
2.相关命令
(base) [root@ceph1 ~]# ollama Usage: ollama [flags] ollama [command] Available Commands: serve Start ollama create Create a model from a Modelfile show Show information for a model run Run a model pull Pull a model from a registry push Push a model to a registry list List models ps List running models cp Copy a model rm Remove a model help Help about any command Flags: -h, --help help for ollama -v, --version Show version information Use "ollama [command] --help" for more information about a command.
3. 执行模型运行
o ollama run llama3.1:70b
首次执行会下载模型到 环境变量Environment="OLLAMA_MODELS=/home/data/llm/ollama/models/"
第二次就不用了下载执行 开始运行
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 记一次.NET内存居高不下排查解决与启示
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
2019-08-29 java的多线程:java安全问题产生的原因与JMM的关系