本地运行大模型 之Ollama完全指南

自我介绍:
ollama 是目前最流行的本地大模型集合管理器,ollama 用于安装各大模型,然后再安装一个UI展示页面,目前比较流行的是 open-webui

技术栈选型:open webui+ollama

安装方式#

1. 本地安装#

  1. 官网下载安装包,一键安装即可

2. docker 安装(推荐使用这种方式)#

拉取镜像

docker pull ollama/ollama

启动命令
仅仅使用cpu

docker run -d -v ~\ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

使用gpu

docker run -d --gpus=all -v ~\ollama::/root/.ollama -p 11434:11434 --name ollama --restart=always ollama/ollama

目前国内最流行的版本:

语言模型#

阿里通义千问模型

ollama run qwen2.5:7b

质谱轻言 chatglm模型

ollama pull glm4

参考地址:
https://www.53ai.com/news/OpenSourceLLM/2024072585037.html

作者:快乐小王子

出处:https://www.cnblogs.com/alex-oos/p/18643365

版权:本作品采用「署名-非商业性使用-相同方式共享 4.0 国际」许可协议进行许可。

posted @   快乐小王子帅气哥哥  阅读(806)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
点击右上角即可分享
微信分享提示
more_horiz
keyboard_arrow_up dark_mode palette
选择主题
menu