摘要:
之前的网络都面临梯度消失和过拟合问题 残差网络可以解决这个问题增加网络深度。 极大节约参数 网络结构图里面实线和虚线的区别 resnet 网络结构图 BN 层 训练时设为true 验证时false 迁移学习 使用别人预训练的模型训练自己的数据 使用迁移学习的优势: 1.能够快速的训练出一个理想的结果 阅读全文
摘要:
2014年提出 3* 3 替换5* 5的卷积核和7 * 7 的卷积核 感受野拓展 节省网络训练所需参数 7的卷积核 49C²计算量 三个3 的卷积核 只要27C² 阅读全文
摘要:
模型结构图 网络亮点 (1)首次利用GPU进行网络加速训练。 (2)使用了ReLU激活函数,而不是传统的Sigmoid激活函数以及Tanh激活函数。 RELU激活函数,收敛更快,不容易梯度消失 (3)使用了LRN局部响应归一化。 (4)在全连接层的前两层中使用了Dropout随机失活神经元操作,以减 阅读全文
摘要:
Pytorch示例demo LeNet Pytorch 安装 官方网站:pytorch.org 直接安装 pytorch tensor的通道顺序[batch,channel,height,width] Conv2d(self, in_channels, # 输入通道 out_channels, # 阅读全文
摘要:
卷积神经网络基础 卷积神经网络 LeNet第一次提出 卷积神经网络CNN的发展历史 1986 Rumelhart和Hinton等人提出了反向传播(Back Propagation,BP)算法。 1998 LeCun的利用BP算法训练LeNet5网络,标志着CNN的真正面世。(硬件跟不上) 2006 阅读全文
摘要:
概论 未来人类和人工智能一起工作,相互理解,彼此预测行为和意图。 以人为中心的人工智能(HCAI)是这个远景的主要因素。 人工智能将需要在上下文中解释人类行为,以便更好地与用户互动,理解他们的行为,预测他们的选择,并最终在人类直接执行的行为和授权给人工智能的行为之间进行协调。 目前研究方法,复制神经 阅读全文
摘要:
背景 目前我们模仿人类开发的很多人工智能来进行工作 我们主要关注建模系统与人类的交互,既模型输出怎么让人类理解和使用。 关注以人为中心的人工智能或者是混合智能 五大依赖关系 目前人类和AI已经在很多领域形成相互依赖关系。 1.以缺陷为导向:人工智能用于增强人的注意力,弥补注意力、注意力或身心耐力的不 阅读全文
摘要:
向量 PVector pv; pv = new PVector(20,20); 初始化向量 pv.x pv.y ; 调用方法 add() 加 sub() 减 坐标转换 rectMode(CENTER); translate(x,y); 改变原点位置 三角函数 sin() cos() processi 阅读全文
摘要:
数据类型 int 整数 float 浮点型 boolean 布尔型 支持 数组 注意:定义变量的时候在setup()上面,做全局变量,不然无法调用。 鼠标交互 mouseX, 鼠标的x坐标 mouseY, 鼠标的y坐标 基础编程语法 for 循环 if else while map映射 y = ma 阅读全文
摘要:
基础语法 初始化设置 void setup() //初始化 { size(400,800); //窗口尺寸 background(255,2,100); //设置背景颜色 fullScreen(); //满屏 } size(x,y) 单位为像素 background(x) : 灰度值 0-255 b 阅读全文