02 2025 档案
摘要:使用软件 Ollama Cherry Studio 声明: 本地部署的大模型非常依赖本地硬件配置,我部署的deepseek 7b的模型,测试发现非常傻瓜,属于不可用状态。 步骤 安装Ollama 访问Ollama下载ollama客户端 默认安装并启动 验证ollama安装是否成功 ollama -v
阅读全文
摘要:声明:本文主要进行的是演示,实际项目中的应用还需要大家的探索 前置条件: 1. vscode 安装abap的插件 2. 注册deepseek的api key 或者 硅基流动的 apikey (最近deepseek遭受攻击不太稳定,推荐使用硅基流动的deepseek模型) deepseek api平台
阅读全文