本地运行大模型 之Ollama完全指南
自我介绍:
ollama 是目前最流行的本地大模型集合管理器,ollama 用于安装各大模型,然后再安装一个UI展示页面,目前比较流行的是 open-webui
技术栈选型:open webui+ollama
安装方式#
1. 本地安装#
- 官网下载安装包,一键安装即可
2. docker 安装(推荐使用这种方式)#
拉取镜像
docker pull ollama/ollama
启动命令
仅仅使用cpu
docker run -d -v ~\ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
使用gpu
docker run -d --gpus=all -v ~\ollama::/root/.ollama -p 11434:11434 --name ollama --restart=always ollama/ollama
目前国内最流行的版本:
语言模型#
阿里通义千问模型
ollama run qwen2.5:7b
质谱轻言 chatglm模型
ollama pull glm4
参考地址:
https://www.53ai.com/news/OpenSourceLLM/2024072585037.html
本文来自博客园,作者:快乐小王子帅气哥哥,转载请注明原文链接:https://www.cnblogs.com/alex-oos/p/18643365
合集:
AI 大模型
Buy me a cup of coffee ☕.
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)