摘要:
特别提醒:在linux第一次使用fpcupdeluxe需要安装依赖环境,在终端执行: sudo apt install git make binutils build-essential subversion zip unzip libx11-dev libgtk2.0-dev libgdk-pix 阅读全文
摘要:
ollama安装位置默认为C:\Users\用户名\AppData\Local\Ollama,模型文件存放:C:\Users\用户名\AppData\Local\Ollama\.ollama,c盘一般不会很大,但AI的模型库文件比较大,很容易就将C盘撑爆,因此最好将模型文件移到其他盘。操作步骤:1、 阅读全文
摘要:
使用了opensslsockets, fphttpclient, fpjson, jsonparse,cef4delphi,synedit,fpc_Markdown等单元,实现DeepSeek(只要兼容OpenAI接口就可以)或ollama本地部署的API Chat接口的流式接收的程序。程序运行时的 阅读全文
摘要:
这2天在学习在本地部署大模型,大模型输出的答案大部分是markdown格式,怎样才能将markdown格式转为HTML然后在浏览器显示呢? 经过搜索,发现用fpc_markdown+Synedit+THtmlViewer或CEF4DELPHI(添加TSynEdit/TSynExporterHTML/ 阅读全文
摘要:
安装 要安装 Ollama,请运行以下命令: curl -fsSL https://ollama.com/install.sh | sh 手动安装 注意 如果要从以前的版本升级,则应使用 first 删除旧库。sudo rm -rf /usr/lib/ollama 下载并解压缩包: curl -L 阅读全文
摘要:
为方便使用ollama已部署的大模型,建议使用Cherry-Studio这个开源软件。在https://cherry-ai.com/官网下载并完成安装Cherry-Studio。1、点左下“设置”-->选择"ollama"-->填写API地址-->点右下角的“管理”添加已部署的大模型 下图列出的4个 阅读全文
摘要:
用ollama部署大模型后API的调用demo。注意:ollama默认只能用127.0.0.1这个IP访问。解除这个限制的步骤:1、打开/etc/systemd/system/ollama.service在[Service]添加: Environment="OLLAMA_HOST=0.0.0.0:1 阅读全文
摘要:
昨天测试本地部署deepseek-r1:8b模型,今天安装qwen2.5-coder模型,看哪个更适合代码编写。一、安装qwen2.5-code: 1.如没安装过ollama,请下载并安装ollama安装脚本,如果已安装,请直接跳到第3步。如果没安装curl,请先安装(sudo apt instal 阅读全文
摘要:
借助ollama的脚本安装DeepSeek变得轻而易举,这是一个免费的开源工具,任何人都可以在自己的计算机上运行大型语言模型 (LLM)。 2025-02-19:经试用发现,如果以代码编写为主,建议安装deepseek-coder-v2(8.9GB),电脑内存建议用16GB),速度比较快。 olla 阅读全文
摘要:
使用lazarus自带fphttpclient(注意:访问https要加opensslsockets这个单元)现实DeepSeek API的调用,Demo的代码只是简单使用API。2025-02-19更新:发现国内的大模型基本是兼容OpenAI的API,只需要更换一下就可以使用,如果使用kimi(m 阅读全文
摘要:
lazarus 显示(中文)点阵字符要带2个字体文件,想用res/lrs来摆脱hzk16.bin和asc16.bin,尝试用lazarus lrs/res资源文(读lrs部分得到“禁卫军”帮助),用以下方法都可以实现:一、读取lrs资源文件1、生成lrs文件:将Hzk16.bin和asc16.bin 阅读全文