ollama部署本地模型的一些坑

1.ollama pull时进度回退:不知是否最近太多人下载导致服务器问题,下载大点的模型经常进度条往回退,解决方法就是每隔一会关闭进程重新下载,断点续传可以继续下载

复制代码
# 用法:python .\run.py 模型名字

import subprocess
import time
import os
import sys
import signal

def run_command(model):
    while True:
        # 要执行的命令和参数
        command = ['ollama', 'pull', model]
        
        # 启动命令进程
        process = subprocess.Popen(command)
        
        try:
            # 等待 60 秒
            time.sleep(60)
            
            # 尝试在 60 秒后终止进程
            if process.poll() is None:  # 如果进程仍在运行
                os.kill(process.pid, signal.SIGTERM)
                print("Process terminated")
        except Exception as e:
            print(f"An error occurred: {e}")
        finally:
            process.wait()  # 确保进程关闭
        print("Looping again...")

if __name__ == '__main__':
    run_command(sys.argv[1])
复制代码

 

2.切换gpu执行而不是cpu

> ollama ps
NAME            ID              SIZE      PROCESSOR          UNTIL
llava:latest    8dd30f6b0cb1    5.7 GB    25%/75% CPU/GPU    4 minutes from now

运行模型后通过ps查看,发现进程分配一部分给cpu,一部分给gpu,但是通过进程管理器查看发现几乎都是cpu在跑,有点卡

 暂时不知道怎么强制gpu执行

 

3.联网搜索

通过chatbox执行的deepseek-r1不支持联网搜索,感觉被废了一样,信息都很旧,看看要怎么才能联网搜索

posted @   JeasonBoy  阅读(1364)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 记一次.NET内存居高不下排查解决与启示
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
点击右上角即可分享
微信分享提示