秋·风

  博客园 :: 首页 :: 博问 :: 闪存 :: 新随笔 :: 联系 :: 订阅 订阅 :: 管理 ::
  273 随笔 :: 0 文章 :: 302 评论 :: 19万 阅读
< 2025年2月 >
26 27 28 29 30 31 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 1
2 3 4 5 6 7 8

摘要: 特别提醒:在linux第一次使用fpcupdeluxe需要安装依赖环境,在终端执行: sudo apt install git make binutils build-essential subversion zip unzip libx11-dev libgtk2.0-dev libgdk-pix 阅读全文
posted @ 2024-08-17 20:35 秋·风 阅读(1756) 评论(7) 推荐(0) 编辑

2025年2月25日

摘要: ollama安装位置默认为C:\Users\用户名\AppData\Local\Ollama,模型文件存放:C:\Users\用户名\AppData\Local\Ollama\.ollama,c盘一般不会很大,但AI的模型库文件比较大,很容易就将C盘撑爆,因此最好将模型文件移到其他盘。操作步骤:1、 阅读全文
posted @ 2025-02-25 10:55 秋·风 阅读(27) 评论(0) 推荐(0) 编辑

2025年2月24日

摘要: 使用了opensslsockets, fphttpclient, fpjson, jsonparse,cef4delphi,synedit,fpc_Markdown等单元,实现DeepSeek(只要兼容OpenAI接口就可以)或ollama本地部署的API Chat接口的流式接收的程序。程序运行时的 阅读全文
posted @ 2025-02-24 21:08 秋·风 阅读(61) 评论(0) 推荐(0) 编辑

2025年2月21日

摘要: 这2天在学习在本地部署大模型,大模型输出的答案大部分是markdown格式,怎样才能将markdown格式转为HTML然后在浏览器显示呢? 经过搜索,发现用fpc_markdown+Synedit+THtmlViewer或CEF4DELPHI(添加TSynEdit/TSynExporterHTML/ 阅读全文
posted @ 2025-02-21 18:56 秋·风 阅读(58) 评论(0) 推荐(0) 编辑

2025年2月20日

摘要: 安装 要安装 Ollama,请运行以下命令: curl -fsSL https://ollama.com/install.sh | sh 手动安装 注意 如果要从以前的版本升级,则应使用 first 删除旧库。sudo rm -rf /usr/lib/ollama 下载并解压缩包: curl -L 阅读全文
posted @ 2025-02-20 14:42 秋·风 阅读(318) 评论(0) 推荐(0) 编辑

摘要: 为方便使用ollama已部署的大模型,建议使用Cherry-Studio这个开源软件。在https://cherry-ai.com/官网下载并完成安装Cherry-Studio。1、点左下“设置”-->选择"ollama"-->填写API地址-->点右下角的“管理”添加已部署的大模型 下图列出的4个 阅读全文
posted @ 2025-02-20 10:24 秋·风 阅读(335) 评论(0) 推荐(0) 编辑

2025年2月19日

摘要: 用ollama部署大模型后API的调用demo。注意:ollama默认只能用127.0.0.1这个IP访问。解除这个限制的步骤:1、打开/etc/systemd/system/ollama.service在[Service]添加: Environment="OLLAMA_HOST=0.0.0.0:1 阅读全文
posted @ 2025-02-19 22:08 秋·风 阅读(82) 评论(0) 推荐(0) 编辑

2025年2月17日

摘要: 昨天测试本地部署deepseek-r1:8b模型,今天安装qwen2.5-coder模型,看哪个更适合代码编写。一、安装qwen2.5-code: 1.如没安装过ollama,请下载并安装ollama安装脚本,如果已安装,请直接跳到第3步。如果没安装curl,请先安装(sudo apt instal 阅读全文
posted @ 2025-02-17 20:29 秋·风 阅读(151) 评论(0) 推荐(0) 编辑

2025年2月15日

摘要: 借助ollama的脚本安装DeepSeek变得轻而易举,这是一个免费的开源工具,任何人都可以在自己的计算机上运行大型语言模型 (LLM)。 2025-02-19:经试用发现,如果以代码编写为主,建议安装deepseek-coder-v2(8.9GB),电脑内存建议用16GB),速度比较快。 olla 阅读全文
posted @ 2025-02-15 20:45 秋·风 阅读(1020) 评论(0) 推荐(0) 编辑

摘要: 使用lazarus自带fphttpclient(注意:访问https要加opensslsockets这个单元)现实DeepSeek API的调用,Demo的代码只是简单使用API。2025-02-19更新:发现国内的大模型基本是兼容OpenAI的API,只需要更换一下就可以使用,如果使用kimi(m 阅读全文
posted @ 2025-02-15 19:24 秋·风 阅读(145) 评论(5) 推荐(0) 编辑

2025年2月13日

摘要: lazarus 显示(中文)点阵字符要带2个字体文件,想用res/lrs来摆脱hzk16.bin和asc16.bin,尝试用lazarus lrs/res资源文(读lrs部分得到“禁卫军”帮助),用以下方法都可以实现:一、读取lrs资源文件1、生成lrs文件:将Hzk16.bin和asc16.bin 阅读全文
posted @ 2025-02-13 20:50 秋·风 阅读(62) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示