上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 109 下一页
摘要: 异常通常被定义为数据集中与大多数其他项目非常不同的项目。或者说任何与所有其他记录(或几乎所有其他记录)显著不同的记录,并且与其他记录的差异程度超出正常范围,都可以合理地被认为是异常。 例如上图显示的数据集中,我们有四个簇(A、B、C和D)和三个位于这些簇之外的点:P1、P2和P3可能被视为异常,因为 阅读全文
posted @ 2024-08-22 11:39 deephub 阅读(24) 评论(0) 推荐(0) 编辑
摘要: 自助抽样可以根据收集的样本推断总体的统计特征(如均值、十分位数、置信区间)。泊松自助抽样(Poisson Bootstrap Sampling)是一种用于统计分析中的重采样技术,特别是在机器学习和数据科学中用于模型评估和误差估计。这种方法的一个特点是保留了样本中数据点出现的自然波动,而不是像传统的自 阅读全文
posted @ 2024-08-21 10:08 deephub 阅读(24) 评论(0) 推荐(0) 编辑
摘要: 在统计学和机器学习中,理解变量之间的关系对于构建预测模型和分析数据至关重要。探索这些关系的一种基本技术是双变量投影 bivariate projection。它依赖于二元正态分布的概念,所以又被称为二元投影。这种技术允许我们根据另一个变量来检验和预测一个变量的行为,利用它们之间的依赖结构,所以在本文 阅读全文
posted @ 2024-08-20 11:45 deephub 阅读(21) 评论(0) 推荐(0) 编辑
摘要: 深度神经网络在识别模式和进行预测方面表现出色,但在涉及图像识别任务时,它们常常难以区分相似个体的图像。三元组损失是一种强大的训练技术,可以解决这个问题,它通过学习相似度度量,在高维空间中将相似图像准确地嵌入到彼此接近的位置。 在这篇文章中,我们将以简单的技术术语解析三元组损失及其变体批量三元组损失, 阅读全文
posted @ 2024-08-19 10:31 deephub 阅读(45) 评论(0) 推荐(0) 编辑
摘要: 变分自编码器(VAEs)是一种生成式人工智能,因其能够创建逼真的图像而备受关注,它们不仅可以应用在图像上,也可以创建时间序列数据。标准VAE可以被改编以捕捉时间序列数据的周期性和顺序模式,然后用于生成合成数据。本文将使用一维卷积层、策略性的步幅选择、灵活的时间维度和季节性依赖的先验来模拟温度数据。 阅读全文
posted @ 2024-08-17 10:14 deephub 阅读(63) 评论(0) 推荐(0) 编辑
摘要: LLM可以处理长达100,000个token的输入,但在生成超过2,000词的适度长度输出时仍然面临困难,因为模型的有效生成长度本质上受到其在监督微调(SFT)过程中所见样本的限制。 为解决这个问题,本文的作者引入了AgentWrite,这是一个基于代理的流程,它将超长生成任务分解为子任务,使现成的 阅读全文
posted @ 2024-08-16 10:08 deephub 阅读(19) 评论(0) 推荐(0) 编辑
摘要: SAM2(Segment Anything 2)是Meta开发的一个新模型,可以对图像中的任何物体进行分割,而不局限于特定的类别或领域。这个模型的独特之处在于其训练数据的规模:1100万张图像和110亿个掩码。这种广泛的训练使SAM2成为训练新图像分割任务的强大起点。 如果SAM可以分割任何东西,为 阅读全文
posted @ 2024-08-15 10:18 deephub 阅读(230) 评论(0) 推荐(0) 编辑
摘要: 根据定义,声音去噪是从音频信号中去除不需要的噪音或干扰,以提高其质量和清晰度的过程。这涉及识别和隔离噪音成分(通常以不规则或高频元素为特征),并将其过滤掉,同时保持原始声音的完整性。 声音去噪目标是改善聆听体验以及音频分析和处理的准确性。过滤掉噪音对于高保真音频来说非常重要,不仅是为了聆听,也是为了 阅读全文
posted @ 2024-08-14 11:02 deephub 阅读(55) 评论(0) 推荐(0) 编辑
摘要: PyTorch提供了几种张量乘法的方法,每种方法都是不同的,并且有不同的应用。我们来详细介绍每个方法,并且详细解释这些函数有什么区别: https://avoid.overfit.cn/post/2ce5023db7634886b602e7eb6ce4abb7 阅读全文
posted @ 2024-08-13 10:05 deephub 阅读(41) 评论(0) 推荐(0) 编辑
摘要: 以Vision Transformer (ViT)的发现为先导的基于transformer的架构在计算机视觉领域引发了一场革命。对于广泛的应用,ViT及其各种变体已经有效地挑战了卷积神经网络(CNN)作为最先进架构的地位。尽管取得了一些成功,但是ViT需要更长的训练时间,并且对于小型到中型输入数据大 阅读全文
posted @ 2024-08-12 11:50 deephub 阅读(33) 评论(0) 推荐(0) 编辑
上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 109 下一页