09 2022 档案
摘要:本周收获 总结一下本周学习内容: 1、《深度学习》第九章:计算机视觉 :car:博客: 深度学习:计算机视觉 下周计划 我的下周学习计划是: 1、:triangular_flag_on_post:《深度学习》第十章:自然语言处理 10.1 词嵌入 ~ 10.8 textCNN
阅读全文
摘要:1、图像增广 ==图像增广==(image augmentation)技术通过对训练图像做一系列随机改变,来产生相似但又不同的训练样本,从而扩大训练数据集的规模。 图像增广的另一种解释是,随机改变训练样本可以降低模型对某些属性的依赖,从而提高模型的泛化能力。 例如,我们可以对图像进行不同方式的裁剪,
阅读全文
摘要:本周收获 总结一下本周学习内容: 1、《深度学习》第七章:优化算法 7.1 优化与深度学习 ~ 7.8 Adam算法 :car:博客: 深度学习:优化算法 2、《深度学习》第八章:计算性能 8.1 优化与深度学习 ~ 8.4 多GPU计算的简洁实现 :car:博客: 深度学习:计算性能 下周计划 我
阅读全文
摘要:1、命令式和符号式混合编程 ==命令式编程==,它使用编程语句改变程序状态: def add(a, b): return a + b def fancy_func(a, b, c, d): e = add(a, b) f = add(c, d) g = add(e, f) return g fanc
阅读全文
摘要:1 梯度下降 为什么梯度下降算法可以优化目标函数? 考虑一类连续可微实值函数, 利用泰勒展开,我们可以得到 $$f(x + \epsilon) = f(x) + \epsilon f'(x) + \mathcal{O}(\e
阅读全文
摘要:本周收获 总结一下本周学习内容: 1、:《机器学习》第16章:强化学习 16.1 任务与奖赏 16.2 K-摇臂赌博机 16.3 有模型学习 16.4 免模型学习 16.5 值函数近似 16.6 模仿学习 :car:博客: 机器学习:强化学习 2、《深度学习》第六章:循环神经网络 6.6 通过时间反
阅读全文
摘要:一些经典的RNN模型... 1、门控循环神经网络 :star: 门控循环神经网络可以更好地捕获时间步距离很长的序列上的依赖关系。 重置门有助于捕获序列中的短期依赖关系。 更新门有助于捕获序列中的长期依赖关系。 重置门打开时,门控循环单元包含基本循环神经网络;更新门打开时,门控循环单元可以跳过子序列。
阅读全文
摘要:本周收获 总结一下本周学习内容: 1、《机器学习》第15章:规则学习 15.1 基本概念 15.2 序贯覆盖 15.3 剪枝优化 15.4 一阶规则学习 15.5 归纳逻辑程序设计 :car:博客: 机器学习:规则学习 2、《深度学习》第六章:循环神经网络 6.1 语言模型 6.2 循环神经网络 6
阅读全文
摘要:1、语言模型 语言模型(language model)是自然语言处理的重要技术。 自然语言处理中最常见的数据是文本数据。 我们可以把一段自然语言文本看作一段离散的时间序列。 假设一段长度为的文本中的词依次为,那么在离散的时间序列中,($1
阅读全文
摘要:1. 基本概念 机器学习中的“规则”(rule)通常是指语义明确、能描述数据分布所隐含的客观规律或领域概念、可写成“若……,则……”形式的逻辑规则. “规则学习” (rule learning)是从训练数据中学习出一组能用于对未见示例进行判别的规则。 解决冲突的办法称为“冲突消解”(conflict
阅读全文