随笔分类 -  机器学习

LLM,AI
摘要:在有GPU的环境启动一个ollama大模型,非常简单: 注意,ollama启动时默认监听在127.0.0.1:11434上,可以通过配置OLLAMA_HOST环境变量修改 点击查看代码 export OLLAMA_HOST="0.0.0.0:11434" ollama serve& ollama r 阅读全文
posted @ 2025-01-09 09:36 JaneySJ 阅读(9302) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示