刚刚学到一项非常硬核的“黑”科技,只要几个关键词,就能实现 Ollama 自由。
全世界几万台高性能带显卡的电脑供你使用。
 
 
添加图片注释,不超过 140 字(可选)
看看这个页面,美国,中国,德国,英国....一个独立 IP 背后就是一台电脑,有些可能还是服务器
我实测了,随便找一个都可以使用,几乎是百发百中!
快速测试的方法。
打开 ChatWise 在设置->Ollama->Providers,直接粘贴 IP 地址就可以了。
 
 
添加图片注释,不超过 140 字(可选)
IP 地址输入之后,软件会自动检查是否可用。如果显示 Ready 就证明可以使用。
回到主界面,切换模型,就可以看到具体的模型了。
 
 
添加图片注释,不超过 140 字(可选)
我手气好,一上来就抽到了 32BDeepSeek R1,这起码是 RTX3090 或者 RTX4090 的机器。
 
 
添加图片注释,不超过 140 字(可选)
还有一位台湾的朋友在跑70BLlama3.3。这个模型的大小大概 43GB 左右,他这台电脑肯定也价值不菲了。
为什么会这样,其实原理很简单。
如果你配置了远程使用 Ollama。
那么,只要别人拿到你电脑的IP 地址,就能使用你的Ollama,也就是燃烧你的显卡GPU,为别人干活。
默认情况下,也无需其他授权。
这个时候刚好有一个程序在疯狂扫描IP和端口,然后记录这些信息,并提供了一个搜索功能。
你只要输入准确的关键词,就可以找到一堆开了 Ollama 的电脑。
所以,如果你配置了 Ollama 的环境变量,允许所有 IP 访问,就要小心点咯!
你的宝贝显卡,可能偷偷被别人玩了。
万幸的是,中国人独立IP少。
内网开的服务,一般不会被扫描到。
使用了公网IP 和在服务器上跑的要注意了!!!
 
posted @ 2025-02-14 21:25 托尼不是塔克 阅读(270) 评论(0) 推荐(0) 编辑
摘要: 最近DeepSeek 确实挺忙,网页繁忙,API资源紧张。 添加图片注释,不超过 140 字(可选) 开源模型也很忙,被下载了 267万次!!! 添加图片注释,不超过 140 字(可选) 但是,我的 DeepSeek 要越来越闲了。 腾讯云的接口刚用上,讯飞星火的又来了。 添加图片注释,不超过 14 阅读全文
posted @ 2025-02-14 21:07 托尼不是塔克 阅读(255) 评论(0) 推荐(0) 编辑
摘要: DeepSeek R1虽然免费,但是基本到了无法使用的状态。一两轮对话后,就开始服务忙了。 好在这是一个开源模型,大量的第三方平台开始上线了。 上一篇我们就讲过硅基流动。 最近听闻腾讯云也上线了 DeepSeek-V3、DeepSeek-R1 满血版模型。 而且可以免费不限量使用。 具体规则如下: 阅读全文
posted @ 2025-02-13 23:39 托尼不是塔克 阅读(676) 评论(0) 推荐(0) 编辑
摘要: 使用Ollama本地运行, 使用Ollama+ChatWise可视化运行, 使用Ollama+ChatWise在Macbook Air M1 上运行。 今天再来说一个方案。 这个方案不是完全离线,但是模型能力会比离线的强。 可以完全免费尝试,有几百到几千万的Token可以用。 可以缓解DeepSee 阅读全文
posted @ 2025-02-13 23:34 托尼不是塔克 阅读(632) 评论(0) 推荐(0) 编辑
摘要: 过年了,就带了一台 macbook air 8g,DeepSeekR1的消息还是铺天盖地的来,我就想着在这台电脑上也装一个吧。 经过简单的配置,最终也运行起来了,速度还可以。 我这是首款M系列笔记本,也是现在最低配的 M 系列笔记本。 这也就意味着所有M系列的苹果电脑都可以轻松运行DeepSeekR 阅读全文
posted @ 2025-02-13 23:26 托尼不是塔克 阅读(354) 评论(0) 推荐(0) 编辑
摘要: 昨天使用Ollama在本地运行了DeepSeek R1这个可以深度思考的AI模型。通过这种方式可以快速体验模型,但是要长期高频使用的话,通过命令行这种方式终究是不太方便。 所以今天来分享一个可视的软件ChatWise。 添加图片注释,不超过 140 字(可选) 这是一个独立开发者开发的软件,界面简介 阅读全文
posted @ 2025-01-24 21:29 托尼不是塔克 阅读(2080) 评论(0) 推荐(0) 编辑
摘要: 这段时间国内外讨论DeepSeek的人都比较多,我印象比较深的是,Deepseek用较低的成本训练了一个不错的模型。另一个是说最近的R1可以匹敌chatgpt的o1。 对比chatgpt的模型很多,我也不知道是宣传而已,还是真的这么牛逼。所以准备本地运行一下看看。因为ollama上已经有这个模型了, 阅读全文
posted @ 2025-01-24 21:24 托尼不是塔克 阅读(7039) 评论(0) 推荐(0) 编辑
摘要: 最强“小钢炮”MiniCPM-o 2.6的本地安装部署已经讲过了。 但是还是有一些问题,比如我在RTX3060上可以运行,但是要实时视频和语音非常卡,主要是因为需要18G显存,这个需求远超我本地显存,所以使用到了内存共享,速度自然慢很多。 当时的是原版模型,没用使用量化模型。今天来记录下INT4量化 阅读全文
posted @ 2025-01-24 21:08 托尼不是塔克 阅读(58) 评论(0) 推荐(0) 编辑
摘要: 上一篇中,大致聊了下国产小钢炮MiniCPM的特性,看起来很不错,可玩性很高。 今天,主要来说一下,如何在本地运行这个项目。 添加图片注释,不超过 140 字(可选) 配置过程花了一些时间,最终还是成功了,可以正常进行视频通话,语音通话,和聊天机器人。安装和测试过程中遇到了几个棘手的问题。下面就完整 阅读全文
posted @ 2025-01-24 20:51 托尼不是塔克 阅读(155) 评论(0) 推荐(0) 编辑
摘要: 天命人,请允许我先蹭个热点! 原始声音: 播放 克隆声音: 播放 文章写了一半,被《黑神话悟空》刷屏了。突发奇想,用里面的声音来做个素材试试看。 B站捞了一点声音素材,随便剪一剪,训练一把过,没有调优,就直接拿来用了。 情绪还差点意思,音色克隆的还不错。 下面进入正题! 声音克隆项目迎来2.0版本了 阅读全文
posted @ 2024-08-22 21:51 托尼不是塔克 阅读(1676) 评论(0) 推荐(0) 编辑
点击右上角即可分享
微信分享提示