上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 101 下一页
摘要: 在机器学习和数据科学的世界里,数据的质量是建模成功与否的关键所在。这就是特征工程和数据预处理发挥作用的地方。本文总结的这些关键步骤可以显著提高模型的性能,获得更准确的预测,我们将深入研究处理异常值、缺失值、编码、特征缩放和特征提取的各种技术。 https://avoid.overfit.cn/pos 阅读全文
posted @ 2024-06-24 11:02 deephub 阅读(31) 评论(0) 推荐(0) 编辑
摘要: 6月还有一周就要结束了,我们今天来总结2024年6月上半月发表的最重要的论文,重点介绍了计算机视觉领域的最新研究和进展。 Diffusion Models 1、Autoregressive Model Beats Diffusion: Llama for Scalable Image Generat 阅读全文
posted @ 2024-06-23 11:17 deephub 阅读(24) 评论(0) 推荐(0) 编辑
摘要: 虽然有许多用于目标跟踪的算法,包括较新的基于深度学习的算法,但对于这项任务,粒子滤波仍然是一个有趣的算法。所以在这篇文章中,我们将介绍视频中的目标跟踪:预测下一帧中物体的位置。在粒子滤波以及许多其他经典跟踪算法的情况下,我们根据估计的动态进行预测,然后使用一些测量值更新预测。 我们从数学理论开始。粒 阅读全文
posted @ 2024-06-22 11:03 deephub 阅读(14) 评论(0) 推荐(0) 编辑
摘要: 推理被高度认可为生成人工智能的下一个前沿领域。通过推理,我们可以将任务分解为更小的子集并单独解决这些子集。例如以前的论文:思维链、思维树、思维骨架和反射,都是最近解决LLM推理能力的一些技术。此外推理还涉及一些外围功能,例如访问外部数据或工具。在最近的几年里,我们已经看到模型在特定的推理技术中表现得 阅读全文
posted @ 2024-06-21 11:01 deephub 阅读(14) 评论(0) 推荐(0) 编辑
摘要: 深度强化学习可以将深度学习与强化学习相结合:深度学习擅长从原始数据中学习复杂的表示,强化学习则使代理能够通过反复试验在给定环境中学习最佳动作。通过DRL,研究人员和投资者可以开发能够分析历史数据的模型,理解复杂的市场动态,并对股票购买、销售或持有做出明智的决策。 下面我们一边写代码一边介绍这些相关的 阅读全文
posted @ 2024-06-20 11:28 deephub 阅读(19) 评论(0) 推荐(0) 编辑
摘要: LLMs(大型语言模型)能够记忆并重复它们的训练数据,这可能会带来隐私和版权风险。为了减轻记忆现象,论文作者引入了一种名为"goldfish loss"的微妙修改,在训练过程中,随机抽样的一部分标记被排除在损失计算之外。这些被舍弃的标记不会被模型记忆,从而防止模型完整复制训练集中的一整个标记序列。 阅读全文
posted @ 2024-06-19 10:50 deephub 阅读(7) 评论(0) 推荐(0) 编辑
摘要: 现有的RAG解决方案可能因为最相关的文档的嵌入可能在嵌入空间中相距很远,这样会导致检索过程变得复杂并且无效。为了解决这个问题,论文引入了多头RAG (MRAG),这是一种利用Transformer的多头注意层的激活而不是解码器层作为获取多方面文档的新方案。 MRAG 不是利用最后一个前馈解码器层为最 阅读全文
posted @ 2024-06-18 10:24 deephub 阅读(20) 评论(0) 推荐(0) 编辑
摘要: 机器学习运维(MLOps)是一组用于自动化和简化机器学习(ML)工作流程和部署的实践。所选择的部署策略可以显著影响系统的性能和效用。所以需要根据用例和需求,采用不同的部署策略。在这篇文章中,我们将探讨三种常见的模型部署策略:批处理、实时和边缘计算。 https://avoid.overfit.cn/ 阅读全文
posted @ 2024-06-17 12:34 deephub 阅读(15) 评论(0) 推荐(0) 编辑
摘要: 在快速发展的人工智能领域,ViTs已成为各种计算机视觉任务的基础模型。ViTs通过将图像划分为小块并将这些小块作为标记来处理图像。6月刚发布一篇论文,引入了一种新颖的方法,即像素级Transformers,它通过将单个像素视为令牌来挑战这种范式。本文将讨论Pixel Transformer的复杂性, 阅读全文
posted @ 2024-06-16 09:56 deephub 阅读(18) 评论(0) 推荐(0) 编辑
摘要: 近年来,深度学习一直在时间序列预测中追赶着提升树模型,其中新的架构已经逐渐为最先进的性能设定了新的标准。 这一切都始于2020年的N-BEATS,然后是2022年的NHITS。2023年,PatchTST和TSMixer被提出,最近的iTransformer进一步提高了深度学习预测模型的性能。 这是 阅读全文
posted @ 2024-06-15 10:50 deephub 阅读(101) 评论(0) 推荐(0) 编辑
上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 101 下一页