上一页 1 ··· 96 97 98 99 100 101 102 103 104 ··· 109 下一页
摘要: 本文不是 NLP 研究的完整列表,因为太多了无法总结的这么完整!但是本文对影响NLP研究的一些重要的模型进行总结,并尽量让它简约而不是简单,如果你刚刚进入NLP领域,本文可以作为深入研究该领域的起点。 Bag of Words (BOW) [1954]:计算文档中每个单词的出现次数并将其用作特征。 阅读全文
posted @ 2022-02-16 11:01 deephub 阅读(43) 评论(0) 推荐(0) 编辑
摘要: EfficientNetV2是由 Google Research,Brain Team发布在2021 ICML的一篇论文,它结合使用NAS和缩放,优化训练速度和参数效率。并且模型中使用新操作(如 Fused-MBConv)在搜索空间中进行搜索。EfficientNetV2 模型比EfficientN 阅读全文
posted @ 2022-02-16 11:00 deephub 阅读(661) 评论(0) 推荐(0) 编辑
摘要: 机器学习模型的生命周期可以分为以下步骤: 数据采集 数据预处理 特征工程 特征选择 建筑模型 超参数调整 模型部署 要构建模型就必须要对数据进行预处理。特征转换是这个过程中最重要的任务之一。在数据集中,大多数时候都会有不同大小的数据。为了使更好的预测,必须将不同的特征缩小到相同的幅度范围或某些特定的 阅读全文
posted @ 2022-02-15 11:31 deephub 阅读(281) 评论(0) 推荐(0) 编辑
摘要: 牛顿迭代法(Newton's method)又称为牛顿-拉夫逊(拉弗森)方法(Newton-Raphson method),它是牛顿在17世纪提出的一种在实数域和复数域上近似求解方程的方法。 以 Isaac Newton 和 Joseph Raphson 命名的 Newton-Raphson 方法在 阅读全文
posted @ 2022-02-14 10:22 deephub 阅读(485) 评论(0) 推荐(0) 编辑
摘要: 聚类是一种无监督机器学习方法,可以从数据本身中识别出相似的数据点。对于一些聚类算法,例如 K-means,需要事先知道有多少个聚类。如果错误地指定了簇的数量,则结果的效果就会变得很差(参见图 1)。 这种情况下,s 变为负数,接近 -1。 在许多情况下,不知道数据中有多少个簇。但是弄清楚有多少簇可能 阅读全文
posted @ 2022-02-13 11:09 deephub 阅读(429) 评论(0) 推荐(0) 编辑
摘要: 大多数图神经网络通常在所有节点都可用的特征假设下运行。但是在现实世界的中,特征通常只有部分可用(例如,在社交网络中,只有一小部分用户可以知道年龄和性别)。本文种展示的特征传播是一种用于处理图机器学习应用程序中缺失的特征的有效且可扩展的方法。它很简单,但效果出奇地好。 图神经网络 (GNN) 模型通常 阅读全文
posted @ 2022-02-12 10:14 deephub 阅读(95) 评论(0) 推荐(0) 编辑
摘要: 时间序列数据随处可见,要进行时间序列分析,我们必须先对数据进行预处理。时间序列预处理技术对数据建模的准确性有重大影响。 在本文中,我们将主要讨论以下几点: 时间序列数据的定义及其重要性。 时间序列数据的预处理步骤。 构建时间序列数据,查找缺失值,对特征进行去噪,并查找数据集中存在的异常值。 首先,让 阅读全文
posted @ 2022-02-11 10:56 deephub 阅读(483) 评论(0) 推荐(0) 编辑
摘要: 在进行数据科学时,可能会浪费大量时间编码并等待计算机运行某些东西。所以我选择了一些 Python 库,可以帮助你节省宝贵的时间。 1、Optuna Optuna 是一个开源的超参数优化框架,它可以自动为机器学习模型找到最佳超参数。 最基本的(也可能是众所周知的)替代方案是 sklearn 的 Gri 阅读全文
posted @ 2022-02-10 10:45 deephub 阅读(44) 评论(0) 推荐(0) 编辑
摘要: 在本文中,我们将介绍熵、交叉熵和 Kullback-Leibler Divergence [2] 的概念,并了解如何将它们近似为相等。 尽管最初的建议使用 KL 散度,但在构建生成对抗网络 [1] 时,在损失函数中使用交叉熵是一种常见的做法。这常常给该领域的新手造成混乱。当我们有多个概率分布并且我们 阅读全文
posted @ 2022-02-09 10:58 deephub 阅读(117) 评论(0) 推荐(0) 编辑
摘要: 机器学习模型已经变得越来越大,即使使用经过训练的模型当硬件不符合模型对它应该运行的期望时,推理的时间和内存成本也会飙升。为了缓解这个问题是使用蒸馏可以将网络缩小到合理的大小,同时最大限度地减少性能损失。 我们在以前的文章中介绍过 DistilBERT [1] 如何引入一种简单而有效的蒸馏技术,该技术 阅读全文
posted @ 2022-02-08 10:46 deephub 阅读(155) 评论(0) 推荐(0) 编辑
上一页 1 ··· 96 97 98 99 100 101 102 103 104 ··· 109 下一页