会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
ckxkexing
君子性非异也,善假于物也。 追求极致的软件开发效能!
博客园
首页
新随笔
联系
订阅
管理
2024年3月19日
基于GPU在本地部署llama.cpp
摘要: 基于GPU在本地部署ggerganov/llama.cpp: LLM inference in C/C++ (github.com) 下载llama.cpp git clone git@github.com:ggerganov/llama.cpp.git cd llama.cpp 编译GPU环境的程
阅读全文
posted @ 2024-03-19 12:47 ckxkexing
阅读(2147)
评论(0)
推荐(0)
编辑
公告