docker部署codegeex4实现本地IDE编程助手
实现了使用docker运行的ollama作为VSC或者其他IDE的编程助手,实现本地化的AI推理
环境
debian12
docker
ollama
环境配置
ollama
参考 ollama在docker中使用 可以实现在docker中使用ollama
- 支持GPU,但是需要配置Nvidia container toolkit
使用指令启动服务
docker run --rm -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
如果出现端口被占用的情况,就更换一个端口
当ollama在docker中启动的时候,启动指令就是ollama serve
我的11434端口处于占用,所以,使用了11432端口
测试ollama是否启用
使用docker ps
指令检查容器的状态
在浏览器中打开对于的IP+port可以检查ollama serve是否启动,处于可以被外部访问的状态.
模型
模型下载
ollama pull codegeex4
测试模型
终端访问
使用docker exec -it ollama /bin/bash
进入容器内部
在终端中运行模型测试效果
ollama run codegeex4
效果如下
API调用
参考 API官方文档
curl http://localhost:11434/api/chat -d '{
"model": "codegeex4",
"messages": [
{
"role": "user",
"content": "写一段JS代码,输出hello world!"
}
]
}'
效果如图
VSC设置
参考github的配置方式
我设置地址为http://192.168.1.106:11432/v1/chat/completions, 模型名字为codegeex4
之后会显示已连接代表成功
测试效果
成功可以补全代码了
- 对性能要求不高, 感觉很适合本地化部署和使用
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 展开说说关于C#中ORM框架的用法!