上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 151 下一页
摘要: 传统AI智能体有个老问题:部署之后就"定住了"。工程师手工打磨的提示词和规则,遇到新场景就容易失灵,性能曲线到达某个点后趋于平缓。而自我进化智能体(Self-Evolving Agent)的思路就是打破这种静态模式,让智能体在运行过程中持续收集反馈,自动调整自身策略,形成一个闭环:执行任务 → 获取 阅读全文
posted @ 2025-11-29 22:46 deephub 阅读(16) 评论(0) 推荐(0)
摘要: 微软的GraphRAG算得上是最早一批成熟的GraphRAG系统,它把索引阶段(抽取实体、关系、构建层级社区并生成摘要)和查询阶段的高级能力整合到了一起。这套方案的优势在于,可以借助预先计算好的实体、关系、社区摘要来回答那些宏观的、主题性的问题,这恰恰是传统RAG系统基于文档检索难以做到的。 本文的 阅读全文
posted @ 2025-11-28 21:39 deephub 阅读(14) 评论(0) 推荐(0)
摘要: 很多人第一次看到 AI Agent 自己编辑文件、跑代码、修 bug,还能一直运行下去的时候,都觉得挺神奇。其实远没有想象中那么复杂。这里没什么秘密算法,也没有什么"智能体大脑"这种玄学概念。 AI Agent核心就三件事:循环 + LLM + 工具函数。 如果你会写个 while True 循环? 阅读全文
posted @ 2025-11-27 21:20 deephub 阅读(15) 评论(0) 推荐(0)
摘要: 如果你再维护线上的聊天系统,那么提示注入(Prompt Injection)是绕不开的话题。这不是一个普通漏洞而是OWASP LLM Top 10榜单上的头号风险,它的影响范围覆盖所有部署大语言模型的组织。 本文会详细介绍什么是提示注入,为什么它和传统注入攻击有本质区别,以及为什么不能指望用更好的过 阅读全文
posted @ 2025-11-26 20:24 deephub 阅读(34) 评论(0) 推荐(0)
摘要: 如果一个项目的核心不是分类准确率,而是概率估计的质量。换句话说,需要的是一个校准良好的模型。这里校准的定义是:如果模型给一批样本都预测了25%的正例概率,那这批样本中实际的正例比例应该接近25%。这就是校准。 解决这个校准问题单看ROC-AUC不够,要用Brier score或者Log-loss来保 阅读全文
posted @ 2025-11-25 21:28 deephub 阅读(23) 评论(0) 推荐(0)
摘要: 开发过多模态 AI 应用的人都应该遇到过这个问题,其实最头疼的不是算法而是基础设施。 向量数据库需要存 embeddings;SQL 数据库需要元数据管理;大文件还要放到对象存储上,不仅邀单独跑个 pipeline 做 chunking,还要再写个脚本调模型推理,最后还得套个 agent 框架把这些 阅读全文
posted @ 2025-11-24 21:12 deephub 阅读(16) 评论(0) 推荐(0)
摘要: JAX 是 Google 和 NVIDIA 联合开发的高性能数值计算库,这两年 JAX 生态快速发展,周边工具链也日益完善了。如果你用过 NumPy 或 PyTorch,但还没接触过 JAX,这篇文章能帮助你快速上手。 围绕 JAX 已经涌现出一批好用的库:Flax 用来搭神经网络,Optax 处理 阅读全文
posted @ 2025-11-23 19:43 deephub 阅读(17) 评论(0) 推荐(0)
摘要: 检索增强生成(RAG)早已不是简单的向量相似度匹配加 LLM 生成这一套路。LongRAG、Self-RAG 和 GraphRAG 代表了当下工程化的技术进展,它们各可以解决不同的实际问题。 传统 RAG 的核心限制 标准的 RAG 流程大概是这样的:把文档分割成小块、向量化、通过余弦相似度检索、喂 阅读全文
posted @ 2025-11-22 23:26 deephub 阅读(13) 评论(0) 推荐(0)
摘要: CrewAI是一个可以专门用来编排自主 AI 智能体(Autonomous AI Agents) 的Python 框架,你可以把它理解为在代码层面组建一个“虚拟团队”,给每个 Agent 分配特定的角色、目标,让它们协同处理那些单个 LLM 搞不定的复杂任务。 https://avoid.overf 阅读全文
posted @ 2025-11-21 19:49 deephub 阅读(16) 评论(0) 推荐(0)
摘要: 深度学习模型参数量和训练数据集的爆炸式增长,以 Llama 3.1 为例:4050 亿参数、15.6 万亿 token 的训练量,如果仅靠单 GPU可能需要数百年才能跑完,或者根本无法加载模型。 并行计算(Parallelism)通过将训练任务分发到多个 GPU(单机多卡或多机多卡),并利用通信原语 阅读全文
posted @ 2025-11-20 21:59 deephub 阅读(15) 评论(0) 推荐(0)
上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 151 下一页