ollama部署本地模型的一些坑
1.ollama pull时进度回退:不知是否最近太多人下载导致服务器问题,下载大点的模型经常进度条往回退,解决方法就是每隔一会关闭进程重新下载,断点续传可以继续下载
# 用法:python .\run.py 模型名字 import subprocess import time import os import sys import signal def run_command(model): while True: # 要执行的命令和参数 command = ['ollama', 'pull', model] # 启动命令进程 process = subprocess.Popen(command) try: # 等待 60 秒 time.sleep(60) # 尝试在 60 秒后终止进程 if process.poll() is None: # 如果进程仍在运行 os.kill(process.pid, signal.SIGTERM) print("Process terminated") except Exception as e: print(f"An error occurred: {e}") finally: process.wait() # 确保进程关闭 print("Looping again...") if __name__ == '__main__': run_command(sys.argv[1])
2.切换gpu执行而不是cpu
> ollama ps NAME ID SIZE PROCESSOR UNTIL llava:latest 8dd30f6b0cb1 5.7 GB 25%/75% CPU/GPU 4 minutes from now
运行模型后通过ps查看,发现进程分配一部分给cpu,一部分给gpu,但是通过进程管理器查看发现几乎都是cpu在跑,有点卡
暂时不知道怎么强制gpu执行
3.联网搜索
通过chatbox执行的deepseek-r1不支持联网搜索,感觉被废了一样,信息都很旧,看看要怎么才能联网搜索
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 记一次.NET内存居高不下排查解决与启示
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了