ollama 跨设备访问,轻松搞定远程调用
## ollama 跨设备访问,轻松搞定远程调用
用 Ollama API 调用本地大模型,通过 `localhost:11434` 就能搞定。但是,想在其他电脑上用 IP 地址调用,可能会存在问题。
网上搜了搜,要么是 Linux 环境下的设置,要么是调整 windows 环境变量。st, Windows 下也能这么操作。
`ollama -h` 看下帮助,然后
`ollama serve -h`,看下帮助
window 下面可以设置 `OLLAMA_HOST`
所以 cmd 里面命令如下:
`set OLLAMA_HOST=0.0.0.0:11434`
bat 脚本则可以这么写:
```bat
@echo off
set OLLAMA_HOST=0.0.0.0:11434
set OLLAMA_ORIGINS=app://obsidian.md*
ollama serve
```
中间 3 句是方便 obsidian 访问的,没有需要的话可以不写
吐槽csdn
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· winform 绘制太阳,地球,月球 运作规律
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人