上一页 1 ··· 56 57 58 59 60 61 62 63 64 ··· 152 下一页
摘要: 在本文中,我们将介绍使用私有数据优化检索增强生成(RAG)的四种策略,可以提升生成任务的质量和准确性。通过使用一些优化策略,可以有效提升检索增强生成系统的性能和输出质量,使其在实际应用中能够更好地满足需求。 RAG简单回顾 RAG主要有两个过程。第一个是“数据收集过程”,它收集来自不同来源的数据,将 阅读全文
posted @ 2024-06-28 11:43 deephub 阅读(237) 评论(0) 推荐(0)
摘要: Theta方法整合了两个基本概念:分解时间序列和利用基本预测技术来估计未来的价值。 每个数据科学爱好者都知道,时间序列是按一定时间间隔收集或记录的一系列数据点。例如,每日温度或经济指标的月值。把时间序列想象成不同成分的组合,趋势(数据移动的一般方向),季节性(随时间重复的规律模式)和噪声(不能归因于 阅读全文
posted @ 2024-06-27 10:24 deephub 阅读(152) 评论(0) 推荐(0)
摘要: 知识图谱(关系网络)可以用简单的形状和线条显示复杂的系统,帮助我们理解数据之间的联系。我们今天将介绍15个很好用的免费工具,可以帮助我们绘制网络图。 NetworkX NetworkX是一个用于处理网络的Python工具。许多人在Python中处理图数据时使用NetworkX。它也是许多图AI工具的 阅读全文
posted @ 2024-06-26 11:41 deephub 阅读(185) 评论(0) 推荐(0)
摘要: 大语言模型(LLMs)在近年来取得了快速发展。本文总结了2024年6月上半月发布的一些最重要的LLM论文,可以让你及时了解最新进展。 LLM进展与基准测试 1、WildBench: Benchmarking LLMs with Challenging Tasks from Real Users in 阅读全文
posted @ 2024-06-25 12:18 deephub 阅读(68) 评论(0) 推荐(0)
摘要: 在机器学习和数据科学的世界里,数据的质量是建模成功与否的关键所在。这就是特征工程和数据预处理发挥作用的地方。本文总结的这些关键步骤可以显著提高模型的性能,获得更准确的预测,我们将深入研究处理异常值、缺失值、编码、特征缩放和特征提取的各种技术。 https://avoid.overfit.cn/pos 阅读全文
posted @ 2024-06-24 11:02 deephub 阅读(117) 评论(0) 推荐(0)
摘要: 6月还有一周就要结束了,我们今天来总结2024年6月上半月发表的最重要的论文,重点介绍了计算机视觉领域的最新研究和进展。 Diffusion Models 1、Autoregressive Model Beats Diffusion: Llama for Scalable Image Generat 阅读全文
posted @ 2024-06-23 11:17 deephub 阅读(122) 评论(0) 推荐(0)
摘要: 虽然有许多用于目标跟踪的算法,包括较新的基于深度学习的算法,但对于这项任务,粒子滤波仍然是一个有趣的算法。所以在这篇文章中,我们将介绍视频中的目标跟踪:预测下一帧中物体的位置。在粒子滤波以及许多其他经典跟踪算法的情况下,我们根据估计的动态进行预测,然后使用一些测量值更新预测。 我们从数学理论开始。粒 阅读全文
posted @ 2024-06-22 11:03 deephub 阅读(72) 评论(0) 推荐(0)
摘要: 推理被高度认可为生成人工智能的下一个前沿领域。通过推理,我们可以将任务分解为更小的子集并单独解决这些子集。例如以前的论文:思维链、思维树、思维骨架和反射,都是最近解决LLM推理能力的一些技术。此外推理还涉及一些外围功能,例如访问外部数据或工具。在最近的几年里,我们已经看到模型在特定的推理技术中表现得 阅读全文
posted @ 2024-06-21 11:01 deephub 阅读(62) 评论(0) 推荐(0)
摘要: 深度强化学习可以将深度学习与强化学习相结合:深度学习擅长从原始数据中学习复杂的表示,强化学习则使代理能够通过反复试验在给定环境中学习最佳动作。通过DRL,研究人员和投资者可以开发能够分析历史数据的模型,理解复杂的市场动态,并对股票购买、销售或持有做出明智的决策。 下面我们一边写代码一边介绍这些相关的 阅读全文
posted @ 2024-06-20 11:28 deephub 阅读(122) 评论(0) 推荐(0)
摘要: LLMs(大型语言模型)能够记忆并重复它们的训练数据,这可能会带来隐私和版权风险。为了减轻记忆现象,论文作者引入了一种名为"goldfish loss"的微妙修改,在训练过程中,随机抽样的一部分标记被排除在损失计算之外。这些被舍弃的标记不会被模型记忆,从而防止模型完整复制训练集中的一整个标记序列。 阅读全文
posted @ 2024-06-19 10:50 deephub 阅读(45) 评论(0) 推荐(0)
上一页 1 ··· 56 57 58 59 60 61 62 63 64 ··· 152 下一页