摘要:deepseek(只要接口兼容OpenAI接口的都可以使用这个方法)只需在messages一并提交上次返回的历史记录就可以: procedure TLargeModelFrm.LoadLargeModelAPI(question,urls,APIkey,modelName:string); var
阅读全文
随笔分类 - AI大模型
摘要:ollama安装位置默认为C:\Users\用户名\AppData\Local\Ollama,模型文件存放:C:\Users\用户名\AppData\Local\Ollama\.ollama,c盘一般不会很大,但AI的模型库文件比较大,很容易就将C盘撑爆,因此最好将模型文件移到其他盘。操作步骤:1、
阅读全文
摘要:使用了opensslsockets, fphttpclient, fpjson, jsonparse,cef4delphi,synedit,fpc_Markdown等单元,实现DeepSeek(只要兼容OpenAI接口就可以)或ollama本地部署的API Chat接口的流式接收的程序。程序运行时的
阅读全文
摘要:安装 要安装 Ollama,请运行以下命令: curl -fsSL https://ollama.com/install.sh | sh 手动安装 注意 如果要从以前的版本升级,则应使用 first 删除旧库。sudo rm -rf /usr/lib/ollama 下载并解压缩包: curl -L
阅读全文
摘要:为方便使用ollama已部署的大模型,建议使用Cherry-Studio这个开源软件。在https://cherry-ai.com/官网下载并完成安装Cherry-Studio。1、点左下“设置”-->选择"ollama"-->填写API地址-->点右下角的“管理”添加已部署的大模型 下图列出的4个
阅读全文
摘要:用ollama部署大模型后API的调用demo。注意:ollama默认只能用127.0.0.1这个IP访问。解除这个限制的步骤:1、打开/etc/systemd/system/ollama.service在[Service]添加: Environment="OLLAMA_HOST=0.0.0.0:1
阅读全文
摘要:昨天测试本地部署deepseek-r1:8b模型,今天安装qwen2.5-coder模型,看哪个更适合代码编写。一、安装qwen2.5-code: 1.如没安装过ollama,请下载并安装ollama安装脚本,如果已安装,请直接跳到第3步。如果没安装curl,请先安装(sudo apt instal
阅读全文
摘要:借助ollama的脚本安装DeepSeek变得轻而易举,这是一个免费的开源工具,任何人都可以在自己的计算机上运行大型语言模型 (LLM)。 2025-03-04: ollama绿色版,虚拟机太大了,我分享一个wndows版本,解压后设置系统环境变量 OLLAMA_MODELS=x:\ollama\m
阅读全文
摘要:使用lazarus自带fphttpclient(注意:访问https要加opensslsockets这个单元)现实DeepSeek API的调用,Demo的代码只是简单使用API。2025-02-19更新:发现国内的大模型基本是兼容OpenAI的API,只需要更换一下就可以使用,如果使用kimi(m
阅读全文