摘要: d3d12龙书阅读 数学基础 向量代数、矩阵代数、变换 directx 采用左手坐标系 点积与叉积 点积与叉积的正交化 使用点积进行正交化 使用叉积进行正交化 矩阵与矩阵乘法 转置矩阵 单位矩阵 逆矩阵 矩阵行列式 变换 旋转矩阵 坐标变换 利用DirectXMath库进行向量运算、矩阵运算以及空间 阅读全文
posted @ 2024-02-01 20:09 dyccyber 阅读(132) 评论(0) 推荐(1) 编辑
摘要: 透视深度插值矫正与抗锯齿分析 深度插值的差错原因 透视深度插值公式推导 games101中的错误 msaa与ssaa简要定义 games101中ssaa的实现 games101中msaa的实现 深度插值的差错原因 当投影的图形与投影的平面不平行时,这时进行透视投影,从上图中可以看出,投影平面上的线段 阅读全文
posted @ 2023-12-03 16:42 dyccyber 阅读(436) 评论(1) 推荐(0) 编辑
摘要: 在学习了一些games101的课程之后,我还是有点困惑,尤其是对于课程讨论的空间的变换,幸而最近在做games101的第五次作业时,查询资料找到了scratchpixel这个网站,看了一些文章,终于把脑子里的一团乱麻组织起来了,也就有了这篇关于图形学的第一篇博客。 想要更好的理解这篇博客,强烈推荐先 阅读全文
posted @ 2023-11-02 20:39 dyccyber 阅读(458) 评论(0) 推荐(1) 编辑
摘要: 这节课中介绍了循环神经网络的第二部分,主要引入了注意力机制,介绍了注意力机制的应用以及如何理解,在此基础上建立了注意力层以及transformer架构 注意力机制 注意力机制 应用与理解 注意力层 transformer 注意力机制 上次我们没有提到sequence to sequence的RNN结 阅读全文
posted @ 2023-10-31 11:16 dyccyber 阅读(239) 评论(0) 推荐(0) 编辑
摘要: 这节课中介绍了循环神经网络的第一部分,主要介绍了循环神经网络的基本概念,vanilla循环网络架构,RNN的一些应用,vanilla架构的问题,更先进的rnn架构比如GRU和LSTM 循环神经网络基本知识 vanilla循环网络架构 应用与理解 vanilla架构的问题 LSTM vanilla循环 阅读全文
posted @ 2023-10-30 16:56 dyccyber 阅读(356) 评论(0) 推荐(1) 编辑
摘要: 这节课中介绍了训练神经网络的第二部分,包括学习率曲线,超参数优化,模型集成,迁移学习 训练神经网络2 学习率曲线 超参数优化 模型集成 迁移学习 学习率曲线 在训练神经网络时,一个常见的思路就是刚开始迭代的时候学习率较大,然后随着迭代次数的增加,学习率逐渐下降,下面我们就来介绍几种学习率下降的方法: 阅读全文
posted @ 2023-10-28 19:18 dyccyber 阅读(227) 评论(0) 推荐(1) 编辑
摘要: 这节课中介绍了训练神经网络的第一部分,包括激活函数的选择,权重初始化,数据预处理以及正则化方法 训练神经网络1 激活函数 数据预处理 权重初始化 正则化方法 激活函数 这部分主要讨论我们之前提到的几种激活函数的利弊: 首先我们看sigmoid函数,这种激活函数有着激活函数中常见的优点与缺点: 优点方 阅读全文
posted @ 2023-10-28 11:36 dyccyber 阅读(264) 评论(0) 推荐(0) 编辑
摘要: 矩阵微分基础知识 定义 重要结论 应用 定义 (1) 向量对标量求导 矩阵对标量求导 我们可以看到上述求导过程实际上就是不同函数对变量求导,然后按照向量或者矩阵的形式排列,注意这里结果的结构应该与函数的结构保持一致 (2)标量对向量求导 标量对矩阵求导 这里的理解使同一个函数对不同的变量求导,然后注 阅读全文
posted @ 2023-10-22 10:43 dyccyber 阅读(49) 评论(0) 推荐(0) 编辑
摘要: 这节课中主要讨论了卷积神经网络的发展历史以及几种经典结构是如何构建的 卷积网络经典结构 AlexNet VGG GoogleNet Residual Network AlexNet 在2012年的时候,Alexnet神经网络提出,这时网络的架构比如说各个层之间要如何排列组合,使用多少卷积层池化层,每 阅读全文
posted @ 2023-10-21 21:00 dyccyber 阅读(279) 评论(0) 推荐(0) 编辑
摘要: 这节课中介绍了卷积网络的基本组成部分(全连接层,激活函数,卷积层,池化层,标准化等),下节课讨论了卷积神经网络的发展历史以及几种经典结构是如何构建的 卷积网络组成部分 前言 卷积层 池化层 normalization 前言 在之前提到的全连接神经网络中,我们直接把一个比如说32 * 32 * 3的图 阅读全文
posted @ 2023-10-21 13:27 dyccyber 阅读(267) 评论(0) 推荐(1) 编辑
点击右上角即可分享
微信分享提示
🚀
回顶
收起
  1. 1 404 not found REOL
404 not found - REOL
00:00 / 00:00
An audio error has occurred.