Fork me on GitHub
摘要: 1 运行 Ollama 与 qwen2:0.5b 聊天 ollama run qwen2:0.5b 启动成功后,ollama 在本地 11434 端口启动了一个 API 服务,可通过 http://localhost:11434 访问。 2 Dify 中接入 Ollama 2.1 添加模型 在 设置 阅读全文
posted @ 2025-02-07 16:39 公众号-JavaEdge 阅读(1314) 评论(0) 推荐(0) 编辑
摘要: 0 为啥本地部署? 在本地运行 AI 模型具有以下优势: 隐私:你的数据保留在你的机器上 — — 不存在共享敏感信息的风险 成本: DeepSeek R1 可免费使用,无需订阅费或使用费 控制:无需外部依赖即可进行微调和实验 1 使用Ollama 1.1 下载并运行应用程序 直达官网: 1.2 选择 阅读全文
posted @ 2025-02-07 13:22 公众号-JavaEdge 阅读(612) 评论(0) 推荐(0) 编辑
点击右上角即可分享
微信分享提示