模型的命名方式:模型名称_用户名称_仓库名称.gguf
DeepSeek-R1-Distill-Llama-8B-Q2_K_L_unsloth_DeepSeek-R1-Distill-Llama-8B-GGUF.gguf
问他问题,他一直回复:“请告诉我问题和需求,请给我细节”,教我怎么使用,却不告诉我答案,不知道该如何使用它
shuttle-jaguar-Q4_K_S_shuttleai_shuttle-jaguar.gguf
无法起服务,因为不知道名为flux的模型架构
Model-7.6B-Q4_0_openbmb_MiniCPM-o-2_6-gguf.gguf
中文版chatgpt,差不多能用。还有翻译功能,中英日均可
Violet_Twilight-v0.2.IQ1_S_Epiculous_Violet_Twilight-v0.2-GGUF_en.gguf
英文版chatgpt,只会说英文。
import subprocess
os.chdir('llama-server/s/directory')
os.environ['CUDA_VISIBLE_DEVICES']='-1'
# subprocess.run('llama-server.exe --model "C:/Users/tellw/Downloads/Violet_Twilight-v0.2.IQ1_S_Epiculous_Violet_Twilight-v0.2-GGUF_en.gguf" -c 2048 -ngl 200 -a Violet_Twilight-v0.2.IQ1_S_Epiculous_Violet_Twilight-v0.2-GGUF_en.gguf" --host 127.0.0.1 --port 8080 -np 1 --metrics --slots -fa --no-mmap',shell=True)
subprocess.run('llama-server.exe --model "C:/Users/tellw/Downloads/Model-7.6B-Q4_0_openbmb_MiniCPM-o-2_6-gguf.gguf" -c 2048 -ngl 200 -a Model-7.6B-Q4_0_openbmb_MiniCPM-o-2_6-gguf.gguf" --host 127.0.0.1 --port 8080 -np 1 --metrics --slots -fa --no-mmap',shell=True)
创建于2501312314,修改于2501312314
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 25岁的心里话
· 按钮权限的设计及实现