摘要: 前向操作符重载自动微分实现 在这篇文章里,ZOMI会介绍是怎么实现自动微分的,因为代码量非常小,也许你也可以写一个玩玩。前面的文章当中,已经把自动微分的原理深入浅出的讲了一下,也引用了非常多的论文。有兴趣的可以顺着综述A survey这篇深扒一下。 【自动微分原理】01. 原理介绍 【自动微分原理】 阅读全文
posted @ 2022-05-26 19:58 ZOMI酱酱 阅读(242) 评论(0) 推荐(0) 编辑
摘要: 第一篇自动微分原理文章中我们大概初步谈了谈从手动微分到自动微分的过程,第二篇自动微分正反模式中深入了自动微分的正反向模式具体公式和推导。 实际上第二章了解到正反向模式只是自动微分的原理模式,在实际代码实现的过程,正方向模式只是提供一个原理性的指导,在真正编码过程会有很多细节需要打开,例如如何解析表达 阅读全文
posted @ 2022-05-26 09:29 ZOMI酱酱 阅读(1358) 评论(0) 推荐(0) 编辑
摘要: 自动微分的两种模式 上一篇文章我们简单了解了计算机中常用的几种微分方式。 本章将深入介绍AI框架离不开的核心功能自动微分,而自动微分则是分为前向微分和后向微分两种实现模式,不同的实现模式有不同的机制和计算逻辑,而无论哪种模式都离不开雅克比矩阵,所以我们也会深入了解一下雅克比矩阵的原理。 雅克比矩阵 阅读全文
posted @ 2022-05-22 20:27 ZOMI酱酱 阅读(779) 评论(0) 推荐(0) 编辑
摘要: 自动微分原理 自动微分(Automatic Differentiation,AD)是一种对计算机程序进行高效准确求导的技术,一直被广泛应用于计算流体力学、大气科学、工业设计仿真优化等领域。而近年来,机器学习技术的兴起也驱动着对自动微分技术的研究进入一个新的阶段。随着自动微分和其他微分技术研究的深入, 阅读全文
posted @ 2022-05-22 15:03 ZOMI酱酱 阅读(1024) 评论(0) 推荐(1) 编辑
摘要: Vision Transformer(ViT)简介 近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大的促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型 阅读全文
posted @ 2022-05-13 13:18 ZOMI酱酱 阅读(779) 评论(0) 推荐(1) 编辑
摘要: 模型压缩明珠:二值化网络 二值化网络跟低比特量化一样,目的是让模型更小,小到有着最为极端的压缩率和极低的计算量。那什么是二值呢?二值指的是仅仅使用+1和-1(或者是0和1)两个值,来表示权重和激活的神经网络。相比于全精度(FP32)表示的神经网络,二值化可以用XNOR(逻辑电路中的异或非门)或者是简单的计数操作(pop Count),极其简单的组合来代替FP32的乘和累加等复杂的运算来实现卷积操作,从而节省了大量的内存和计算,大大方便了模型在资源受限设备上的部署。 阅读全文
posted @ 2022-01-14 09:13 ZOMI酱酱 阅读(1685) 评论(0) 推荐(1) 编辑
摘要: 机器学习和深度学习的区别 现在搞传统机器学习相关的研究论文确实占比不太高,有的人吐槽深度学习就是个系统工程而已,没有数学含金量。但是无可否认的是深度学习是在太好用啦,极大地简化了传统机器学习的整体算法分析和学习流程,更重要的是在一些通用的领域任务刷新了传统机器学习算法达不到的精度和准确率。深度学习这几年特别火,就像5年前的大数据一样,不过深度学习其主要还是属于机器学习的范畴领域内,所以这篇文章里面我们来唠一唠机器学习和深度学习的算法流程区别。 阅读全文
posted @ 2022-01-10 19:54 ZOMI酱酱 阅读(1017) 评论(1) 推荐(1) 编辑
摘要: AI系统——梯度累积算法 在深度学习训练的时候,数据的batch size大小受到GPU内存限制,batch size大小会影响模型最终的准确性和训练过程的性能。在GPU内存不变的情况下,模型越来越大,那么这就意味着数据的batch size智能缩小,这个时候,梯度累积(Gradient Accumulation)可以作为一种简单的解决方案来解决这个问题。 阅读全文
posted @ 2022-01-08 21:28 ZOMI酱酱 阅读(652) 评论(0) 推荐(1) 编辑
点击右上角即可分享
微信分享提示