摘要: Ollama本地部署Qwen2.5 14B(使用docker实现Nvidia GPU支持) 通过docker部署支持Nvidia GPU加速的本地大模型 阅读全文
posted @ 2024-11-27 10:49 Chenleader 阅读(212) 评论(1) 推荐(0) 编辑