Fork me on GitHub
摘要: 0 前言 M芯片Mac想跑大模型,强烈推荐LM Studio。因为它支持专门为M系列芯片优化过的模型文件,运行速度快了不止亿点点!intel mac 不支持哦! 本地运行大模型的工具中,LM Studio和Ollama是最受欢迎的两款。最近LM Studio新增了对MLX的支持。 1 MLX是啥? 阅读全文
posted @ 2024-11-05 23:55 公众号-JavaEdge 阅读(100) 评论(0) 推荐(0) 编辑