本地部署大模型

使用软件

  1. Ollama
  2. Cherry Studio

声明:

本地部署的大模型非常依赖本地硬件配置,我部署的deepseek 7b的模型,测试发现非常傻瓜,属于不可用状态。

步骤

安装Ollama

  1. 访问Ollama下载ollama客户端
  2. 默认安装并启动
  3. 验证ollama安装是否成功
	ollama -v
  1. 修改ollama 模型下载位置(可选,C盘空间大的可不忽略)
    • D盘中新建Ollama和Ollama_models两个文件夹
    • 将C:\Users\xxx\AppData\Local\Programs\Ollama中的文件移动到D:\Ollama下
    • 将C:\Users\xxx.ollama 下的文件夹移动到D:\Ollama_models 下
    • 修改用户系统变量
      • Path变量中将C:\Users\xxx\AppData\Local\Programs\Ollama改为D:\Ollama
      • 新建OLLAMA_MODELS变量值维护为D:\ollama_models\models

      注:修改完系统变量记得重启系统生效

    • 输入命令行验证调整是否正常

根据配置选择合适的模型

  1. 访问Ollama Search 确定需要安装的模型,当前常用的模型有deepseek R1、Qwen 2.5等,可按需选择

    可按照本地GPU显存(GB) >= 大模型参数(B)/2

  2. 确认需要安装的模型之后,在命令行上运行run命令等待模型下载安装

配置Cherry Studio

在设置中添加ollama的模型


助手中选择7b模型,即可开始对话

posted @   LingC_C  阅读(21)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异
· 三行代码完成国际化适配,妙~啊~
点击右上角即可分享
微信分享提示