上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 150 下一页
摘要: Gemma 3 270M是 Google 推出的一款虽小但能力惊人的开放模型。它属于 Gemma 家族,本质上是将 Gemini 模型中使用的相同技术带入了轻量级、可定制的形式中。 你可以在 不到一小时内完成微调,并将其大小压缩到 300MB 以下,让他直接在你的浏览器中运行。 在这篇文章中,我将展 阅读全文
posted @ 2025-12-20 22:50 deephub 阅读(15) 评论(0) 推荐(0)
摘要: 在深度学习落地过程中,有一个常见的误区:一旦推理速度不达标,大家的第一反应往往是拿着模型开到,比如:做剪枝、搞蒸馏、甚至牺牲精度换小模型。 实际上生产环境中的 Python 推理链路隐藏着巨大的“工程红利”。很多时候你的模型本身并不慢,慢的是低效的数据搬运、混乱的线程争用以及不合理的 Runtime 阅读全文
posted @ 2025-12-19 19:17 deephub 阅读(17) 评论(0) 推荐(0)
摘要: Scikit-Learn 1.8.0 更新引入了实验性的 Array API 支持。这意味着 CuPy 数组或 PyTorch 张量现在可以直接在 Scikit-Learn 的部分组件中直接使用了,且计算过程能保留在 GPU 上。 https://avoid.overfit.cn/post/ab7e 阅读全文
posted @ 2025-12-18 21:28 deephub 阅读(10) 评论(0) 推荐(0)
摘要: llama.cpp server在 2025年12月11日发布的版本中正式引入了 router mode(路由模式),如果你习惯了 Ollama 那种处理多模型的方式,那这次 llama.cpp 的更新基本就是对标这个功能去的,而且它在架构上更进了一步。 https://avoid.overfit. 阅读全文
posted @ 2025-12-17 21:46 deephub 阅读(12) 评论(0) 推荐(0)
摘要: 开发过程中,这种报错堆栈大家应该都不陌生: Traceback (most recent call last): File "app.py", line 10, in <module\> ZeroDivisionError: division by zero 程序崩溃,服务中断,用户体验归零。 但 阅读全文
posted @ 2025-12-16 22:28 deephub 阅读(7) 评论(0) 推荐(0)
摘要: 目前来看Google 是唯一一家在 AI 价值链上实现端到端垂直整合的公司。从基础模型 (Gemini)、应用层 (ImageFX, Search with Gemini, NotebookLM),到云架构 (Google Cloud, Vertex AI) 以及硬件 (TPUs),几乎全都有所布局 阅读全文
posted @ 2025-12-15 22:06 deephub 阅读(13) 评论(0) 推荐(0)
摘要: 打开交易图表,堆上十个技术指标,然后对着屏幕发呆不知道下一步怎么操作——这场景对交易员来说太熟悉了。如果把历史数据丢给计算机,告诉它“去试错”。赚了有奖励,亏了有惩罚。让它在不断的尝试和失败中学习,最终迭代出一个不说完美、但至少能逻辑自洽的交易策略。 这就是 TensorTrade 的核心逻辑。 T 阅读全文
posted @ 2025-12-14 19:24 deephub 阅读(20) 评论(0) 推荐(0)
摘要: 过去2年,整个行业仿佛陷入了一场参数竞赛,每一次模型发布的叙事如出一辙:“我们堆了更多 GPU,用了更多数据,现在的模型是 1750 亿参数,而不是之前的 1000 亿。” 这种惯性思维让人误以为智能只能在训练阶段“烘焙”定型,一旦模型封装发布,能力天花板就被焊死了。 但到了 2025 年,这个假设 阅读全文
posted @ 2025-12-13 22:50 deephub 阅读(7) 评论(0) 推荐(0)
摘要: 做 A/B 测试或者分析转化率的时候,经常会碰到那个老生常谈的问题: “这数据的波动到底是干预引起的,还是仅仅是相关性?” 传统的分析手段和机器学习擅长告诉你什么能预测结果,但预测不等于因果。而在做决策,不管是干预、优化还是调整业务逻辑时,我们需要的是因果关系。 今天介绍一下 PyCausalSim 阅读全文
posted @ 2025-12-12 21:29 deephub 阅读(17) 评论(0) 推荐(0)
摘要: 贝叶斯优化(Bayesian Optimization, BO)虽然是超参数调优的利器,但在实际落地中往往会出现收敛慢、计算开销大等问题。很多时候直接“裸跑”标准库里的 BO,效果甚至不如多跑几次 Random Search。 所以要想真正发挥 BO 的威力,必须在搜索策略、先验知识注入以及计算成本 阅读全文
posted @ 2025-12-11 21:32 deephub 阅读(11) 评论(0) 推荐(0)
上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 150 下一页