秋·风

  博客园 :: 首页 :: 博问 :: 闪存 :: 新随笔 :: 联系 :: 订阅 订阅 :: 管理 ::
  278 随笔 :: 0 文章 :: 308 评论 :: 20万 阅读
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
1 2 3 4 5 ··· 28 下一页

摘要: 特别提醒:在linux第一次使用fpcupdeluxe需要安装依赖环境,在终端执行: sudo apt install git make binutils build-essential subversion zip unzip libx11-dev libgtk2.0-dev libgdk-pix 阅读全文
posted @ 2024-08-17 20:35 秋·风 阅读(1844) 评论(7) 推荐(0) 编辑

2025年3月11日

摘要: lazarus使用unidac交叉编译时可能出现链接错误: Debug: D:\fpcupdeluxe4\cross\bin\loongarch64-linux\loongarch64-unknown-linux-gnu-ld.exe: D:\fpcupdeluxe4\demo\LargeModel 阅读全文
posted @ 2025-03-11 15:10 秋·风 阅读(25) 评论(0) 推荐(0) 编辑

2025年3月7日

摘要: 一、安装编译环境:1、下载gdb源码(Index of /gnu/gdb)最新的源码2、下载msys64安装包(MSYS2)3、安装msys644、安装后运行mingw64.exe5、在mingw64里安装编译环境: pacman -Syu pacman -S mingw-w64-x86_64-to 阅读全文
posted @ 2025-03-07 14:01 秋·风 阅读(50) 评论(0) 推荐(0) 编辑

2025年3月4日

摘要: 这篇参考了禁卫军的博客lazarus远程调试linux程序存在的主要问题是自带的gdb.exe默认只有win64和win32两个版本,缺少aarch64/loongarch64/x86_64等linux平台的版本(以fpcupdeluxe安装的lazarus为例)一、下载各平台对应的gdb.exe并 阅读全文
posted @ 2025-03-04 14:17 秋·风 阅读(82) 评论(2) 推荐(0) 编辑

2025年3月1日

摘要: deepseek(只要接口兼容OpenAI接口的都可以使用这个方法)只需在messages一并提交上次返回的历史记录就可以: procedure TLargeModelFrm.LoadLargeModelAPI(question,urls,APIkey,modelName:string); var 阅读全文
posted @ 2025-03-01 14:45 秋·风 阅读(101) 评论(0) 推荐(0) 编辑

2025年2月27日

摘要: 简单介绍怎样使用fpcupdeluxe安装lazarus及配置交叉编译环境。首先下载fpcupdeluxefpcupdeluxe下载网址:https://github.com/LongDirtyAnimAlf/fpcupdeluxe/releases/ 下载适合的安装包,在这里我以windows x 阅读全文
posted @ 2025-02-27 10:56 秋·风 阅读(158) 评论(1) 推荐(1) 编辑

2025年2月25日

摘要: ollama安装位置默认为C:\Users\用户名\AppData\Local\Ollama,模型文件存放:C:\Users\用户名\AppData\Local\Ollama\.ollama,c盘一般不会很大,但AI的模型库文件比较大,很容易就将C盘撑爆,因此最好将模型文件移到其他盘。操作步骤:1、 阅读全文
posted @ 2025-02-25 10:55 秋·风 阅读(102) 评论(0) 推荐(0) 编辑

2025年2月24日

摘要: 使用了opensslsockets, fphttpclient, fpjson, jsonparse,cef4delphi,synedit,fpc_Markdown等单元,实现DeepSeek(只要兼容OpenAI接口就可以)或ollama本地部署的API Chat接口的流式接收的程序。程序运行时的 阅读全文
posted @ 2025-02-24 21:08 秋·风 阅读(161) 评论(0) 推荐(0) 编辑

2025年2月21日

摘要: 这2天在学习在本地部署大模型,大模型输出的答案大部分是markdown格式,怎样才能将markdown格式转为HTML然后在浏览器显示呢? 经过搜索,发现用fpc_markdown+Synedit+THtmlViewer或CEF4DELPHI(添加TSynEdit/TSynExporterHTML/ 阅读全文
posted @ 2025-02-21 18:56 秋·风 阅读(90) 评论(0) 推荐(0) 编辑

2025年2月20日

摘要: 安装 要安装 Ollama,请运行以下命令: curl -fsSL https://ollama.com/install.sh | sh 手动安装 注意 如果要从以前的版本升级,则应使用 first 删除旧库。sudo rm -rf /usr/lib/ollama 下载并解压缩包: curl -L 阅读全文
posted @ 2025-02-20 14:42 秋·风 阅读(1080) 评论(0) 推荐(0) 编辑

摘要: 为方便使用ollama已部署的大模型,建议使用Cherry-Studio这个开源软件。在https://cherry-ai.com/官网下载并完成安装Cherry-Studio。1、点左下“设置”-->选择"ollama"-->填写API地址-->点右下角的“管理”添加已部署的大模型 下图列出的4个 阅读全文
posted @ 2025-02-20 10:24 秋·风 阅读(650) 评论(0) 推荐(0) 编辑

1 2 3 4 5 ··· 28 下一页
点击右上角即可分享
微信分享提示