What?废柴, 还在本地部署DeepSeek吗?Are you kidding?
前言
DeepSeek推出更强大的推理模型DeepSeek R1后一发不可收拾,迅速火遍全球,用户暴增,但巨大的流量以及一些不可控因素,DeepSeek官网变得极不稳定,经常出现“网络繁忙”。
最近,各大厂商包括阿里在内的各种大模型应用纷纷接入DeepSeek,一方面为自己的用户提供更加极致的体验,另一方面也为“Deepseek难民”提供了又快又稳的新通道。
就在近日,国内知名的厂商阿里云宣布接入DeepSeek-R1,具体版本是“DeepSeek R1 671B”,这可是DeepSeek-R1的联网满血版本,双核驱动效果1+1>2,体验上比原版更胜一筹。四种方案让你零门槛,即刻拥有DeepSeek-R1满血版。趁热乎感觉挑选一个适合自己的方案来尝尝鲜吧!
产品介绍 DeepSeek 是热门的推理模型,能在少量标注数据下显著提升推理能力,尤其擅长数学、代码和自然语言等复杂任务。 本方案涵盖云上调用满血版 DeepSeek 的 API 及部署各尺寸模型的方式,无需编码,最快 5 分钟、最低 0 元即可部署实现。 解决方案链接: https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616
1.一睹为快(四种方案)
先跟随宏哥一起来看看有那四种方案,如下图所示:
通过上图我们都大致了解了,有这四种解决方案。那接下来跟随宏哥的脚步来逐个体验一下吧!
2.二尝为鲜
2.1方案一:基于百炼 API 调用满血版(开箱即用)
2.1.1准备账号
-
如果您还没有阿里云账号,请访问阿里云账号注册页面,根据页面提示完成注册。
-
如果是首次使用阿里云百炼,请先开通百炼模型服务,登录阿里云百炼大模型服务平台,根据下图提示进行开通,进行备用,如下图所示:
如果顶部显示如下消息,您需要开通百炼的模型服务,以获得免费额度。
百炼平台通过API调用DeepSeek系列模型的方法 。其中 deepseek-r1 与 deepseek-v3 分别有 100万的免费 Token,部分蒸馏模型限时免费体验。
这里只推荐使用deepseek-r1 与 deepseek-v3,其他效果略差。有人会问,你都没有试用了,怎么知道呢?呵呵,看价格啊,就知道了。如下图所示:
2.1.2获取百炼 API-KEY
-
登录阿里云百炼大模型服务平台。
-
鼠标悬停于页面右上角的
图标上,在下拉菜单中单击API-KEY。如下图所示:
-
在左侧导航栏,选择全部API-KEY或我的API-KEY,然后创建或查看 API-KEY,最后复制 API-KEY 以便在下一步骤中使用。
2.1.3使用 Chatbox 客户端配置 百炼 API 进行对话
-
访问 Chatbox 下载地址下载并安装客户端,本方案以 macOS 为例,如下图所示:
-
运行并配置百炼 API ,单击设置,如下图所示:
-
在弹出的看板中按照如下表格进行配置,如下图所示:
-
最终配置如下图所示,然后单击保存,如下图所示:
-
在文本输入框中可以进行对话交互。输入问题
你是谁?
或者其他指令后,调用模型服务获得相应的响应,如下图所示:
到此,第一种方案就已经体验完成,是不是很简单,不到五分钟就完事了。
2.2方案二:基于人工智能平台 PAI 部署
2.2.1准备账号
-
如果您还没有阿里云账号,请访问阿里云账号注册页面,根据页面提示完成注册。
2.2.2部署 DeepSeek-R1 模型
Model Gallery 集成了众多AI开源社区中优质的预训练模型,方便用户快速选择和应用所需模型。在Model Gallery 中选中合适的模型并点击部署,系统将触发 PAI-EAS 的部署流程。PAI-EAS 支持将模型服务部署在公共资源组或专属资源组,实现基于异构硬件(如 CPU 和 GPU )的模型加载和数据请求的实时响应。
-
登录PAI 控制台,首次登录需要开通服务,选择暂不绑定 OSS Bucket 至 PAI 默认工作空间,然后点击一键开通按钮,如下图所示:
-
开通成功后,点击进入控制台按钮,如下图所示:
-
在工作空间页面的左侧导航栏选择 Model Gallery,如下图所示:
-
在搜索框中输入
DeepSeek-R1
,在搜索结果中选择DeepSeek-R1-Distill-Qwen-7B,如下图所示:
-
点击DeepSeek-R1-Distill-Qwen-7B 进入模型详情页,然后点击右上角部署按钮,如下图所示:
-
在弹出的部署面板中,部署方式选择加速部署,加速方式选择vLLM,资源规格选择推荐使用GPU:
ml.gu7i.c8m30.1-gu30,如下图所示:
-
其余配置项保持默认不变,点击左下角部署按钮。弹窗提示计费提醒,点击确定按钮,如下图所示:
-
部署完成后,如下图所示:
-
单击查看调用信息,在弹出的看板中选择公网地址调用,复制保存访问地址和 Token ,如下图所示:
2.2.3使用 Chatbox 客户端配置 vLLM API 进行对话
-
访问 Chatbox 下载地址下载并安装客户端,本方案以 macOS 为例,如下图所示:
-
运行并配置 vLLM API ,单击设置,如下图所示:
-
在弹出的看板中按照如下表格进行配置,如下图所示:
-
最终配置如下图所示,然后单击保存,如下图所示:
-
在文本输入框中可以进行对话交互。输入问题
你是谁?
或者其他指令后,调用模型服务获得相应的响应,如下图所示:
2.2.4PAI-EAS 管理模型服务
-
点击PAI 控制台左侧导航栏中的模型在线服务 (EAS)可以看到当前部署的服务,如下图所示:
-
点击服务名称,进入服务详情页。通过 PAI-EAS 可以全面管理模型服务,包括但不限于查看服务状态、在线调试服务、扩缩容实例,以及实时监控服务性能。
2.2.5清理资源(牢记)
若不用于生产环境,建议在体验后按提示清理资源,避免继续产生费用。
-
删除 1 个 PAI-EAS 模型服务:点击PAI 控制台左侧导航栏中的模型在线服务 (EAS)。找到目标服务,单击右侧操作列的删除,如下图所示:
2.3基于函数计算FC一键部署
2.3.1准备账号
-
如果您还没有阿里云账号,请访问阿里云账号注册页面,根据页面提示完成注册。
2.3.4访问示例应用
-
应用部署完成之后按照下图找到访问地址,如下图所示:
-
点击访问地址,即可打开示例应用,如下图所示:
2.3.5与模型对话
1.在文本输入框中可以进行对话交互。输入问题你是谁?
或者其他指令后,调用模型服务获得相应的响应,如下图所示:

2.3.6修改 Ollama 模型服务配置(可选)
1.按照下图所示,通过修改模型服务预留实例数的配置,来实现实例伸缩,如下图所示:

2.3.7使用 Chatbox 客户端配置 Ollama API 进行对话(可选)
-
获取 API 接入地址,按照下图所示,复制访问地址。
-
访问 Chatbox 下载地址下载并安装客户端,本方案以 macOS 为例,如下图所示:
-
运行并配置 Ollama API ,单击设置。
-
下拉选择模型提供方
Ollama API
,填写 API 域名(步骤 1 中获取的访问地址),下拉选择模型cap-deepseek-r1:latest
,最后单击保存,如下图所示: -
在文本输入框中可以进行对话交互。输入问题
你是谁?
或者其他指令后,调用模型服务获得相应的响应,如下图所示:
2.3.8清理资源(牢记)
在本方案中,您创建了 1 个云原生应用开发平台 CAP 项目,测试完方案后,您可以参考以下规则处理对应产品的实例,避免继续产生费用:
-
删除云原生应用开发平台 CAP 项目:
登录云原生应用开发平台 CAP 控制台,在左侧导航栏,选择项目,找到部署的目标项目,在操作列单击删除,然后根据页面提示删除项目。
2.4基于GPU 云服务器部署
2.4.1准备账号
-
如果您还没有阿里云账号,请访问阿里云账号注册页面,根据页面提示完成注册。
2.4.2创建专有网络 VPC 和交换机
您需要创建专有网络 VPC 和交换机,为云服务器 ECS 实例构建云上的私有网络。
-
登录专有网络管理控制台。
-
在顶部菜单栏,选择华东 1(杭州)地域。
-
在左侧导航栏,单击专有网络。
-
在专有网络页面,单击创建专有网络。
-
在创建专有网络页面,配置 1 个专有网络和 1 台交换机。配置交换机时,请确保交换机所属的可用区的 ECS 处于可用状态。
2.4.3创建安全组
您已经创建了专有网络 VPC 和交换机。接下来您需要创建 1 个安全组,用于限制该专有网络 VPC 下交换机的网络流入和流出。
-
在左侧导航栏,选择网络与安全>安全组。
-
在顶部菜单栏,选择华东 1(杭州)地域。
-
在安全组页面,单击创建安全组。
-
在创建安全组页面,创建 1 个安全组。
2.4.4创建 GPU 云服务器
您已经创建好专有网络 VPC 和交换机等资源。接下来您需要创建 1 台 GPU 云服务器实例,用于部署应用程序。
-
在左侧导航栏,选择实例与镜像 > 实例。
-
在顶部菜单栏,选择华东 1(杭州)地域。
-
在实例页面,单击创建实例。
-
下表中未说明的参数,在本方案中可使用默认值。
2.4.5登录服务器
-
登录 ECS管理控制台。
-
在左侧导航栏,选择实例与镜像>实例。
-
在顶部菜单栏,选择华东1(杭州)地域。
-
部署示例应用程序。
-
在实例页面,找到前面步骤中创建的 ECS 实例,查看IP 地址列,记录公网 IP ,然后在其右侧操作列,单击远程连接。
-
在远程连接对话框的通过 Workbench 远程连接区域,单击立即登录,然后根据页面提示登录。
-
-
输入密码并点击确定按钮,通过 Workbench 远程连接至 ECS 控制台。
-
如图所示 GPU 驱动尚未完成安装,请等待 10-20 分钟,安装完成后实例将自动重启,如下图所示:
-
驱动安装完成如下图所示,请刷新页面重新连接至 ECS 控制台,如下图所示:
2.4.6部署模型
-
执行以下命令等待部署完成,如下图所示:
/bin/bash -c "$(curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/vllm_install.sh)" -- deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
-
如下图所示,说明模型部署完成,复制保存好 vLLM API TOKEN ,如下图所示:
2.4.7访问示例应用
在浏览器中访问http://<ECS公网IP>:8080
,访问 Open WebUI,如下图所示:

2.4.8与模型对话
在文本输入框中可以进行对话交互。输入问题你是谁?
或者其他指令后,调用模型服务获得相应的响应,如下图所示:

2.4.9使用 Chatbox 客户端配置 vLLM API 进行对话(可选)
-
访问 Chatbox 下载地址下载并安装客户端,本方案以 macOS 为例,如下图所示:
-
运行并配置 vLLM API ,单击设置,如下图所示:
-
在弹出的看板中按照如下表格进行配置。
-
最终配置如下图所示,然后单击保存,如下图所示:
-
在文本输入框中可以进行对话交互。输入问题
你是谁?
或者其他指令后,调用模型服务获得相应的响应。
2.4.10清理资源(牢记)
若不用于生产环境,建议在体验后按提示清理资源,避免继续产生费用。
-
释放 1 台 GPU 云服务器实例:登录ECS 控制台,在实例页面,找到目标实例,然后在操作列选择
>释放,根据界面提示释放实例。
-
删除 1 个安全组:登录ECS 控制台,在安全组页面,选择目标安全组,然后在操作列单击删除。
-
释放 1 台交换机:登录专有网络控制台,在交换机页面,找到目标交换机,然后在操作列单击删除,按照界面提示释放实例。
-
释放 1 个专有网络 VPC:登录专有网络控制台,在专有网络页面,找到目标 VPC,然后在操作列单击删除,按照界面提示释放实例。
以上是我根据官方文档实践的过程和部分截图,总体感觉还行。
3.DeepSeek 模型部署解决方案评测报告
3.1部署文档准确性检查
在按照【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案的部署文档进行操作时,步骤指引准确,逻辑清晰。在函数计算、模型在线服务以及百炼模型服务的开通过程中,未遇到报错或异常,整体流程顺畅。
3.2引导与文档帮助评价
部署过程中,文档提供了详尽的步骤说明和截图指引,对于初次使用者来说非常友好。然而,在部分高级配置选项的说明上略显简略,建议增加更多实例和详细解释,以帮助用户更好地理解并做出选择。建议细化一些关键性步骤,要考虑照顾大部分小白和初入门的工程师,毕竟人人都不是大佬。
3.3方案理解与优势认知
部署完成后,我对DeepSeek的多种使用方式有了较为深入的理解。方案描述清晰,突出了DeepSeek在少量标注数据下显著提升推理能力的优势,尤其在数学、代码和自然语言等复杂任务上的表现。但在某些技术细节上,如模型调优和性能监控方面,建议增加更多说明。
3.4最适合的使用方式推荐
在体验过程中,我认为通过API调用DeepSeek模型的方式最适合我的需求。这种方式无需关心底层模型部署和运维,只需关注业务逻辑和数据处理,大大提高了开发效率。同时,API调用方式灵活,易于集成到现有系统中。
3.5方案满足度与采用意愿
本解决方案提供的DeepSeek模型使用方式基本满足了我的实际需求。通过云上调用和部署,降低了模型应用的门槛,提高了开发效率。我愿意采用本方案来使用DeepSeek模型,并期待在未来能够提供更多高级功能和优化选项,以满足不断变化的业务需求。
综上所述,DeepSeek模型部署解决方案在部署流程、文档引导、方案理解和实际应用等方面均表现出色,值得推荐。
感谢您花时间阅读此篇文章,如果您觉得这篇文章你学到了东西也是为了犒劳下博主的码字不易不妨打赏一下吧,让博主能喝上一杯咖啡,在此谢过了!
如果您觉得阅读本文对您有帮助,请点一下左下角“推荐”按钮,您的
本文版权归作者和博客园共有,来源网址:https://www.cnblogs.com/du-hong 欢迎各位转载,但是未经作者本人同意,转载文章之后必须在文章页面明显位置给出作者和原文连接,否则保留追究法律责任的权利!
公众号(关注宏哥) 客服微信


【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 一个费力不讨好的项目,让我损失了近一半的绩效!
· 清华大学推出第四讲使用 DeepSeek + DeepResearch 让科研像聊天一样简单!
· 实操Deepseek接入个人知识库
· CSnakes vs Python.NET:高效嵌入与灵活互通的跨语言方案对比
· Plotly.NET 一个为 .NET 打造的强大开源交互式图表库