05 2019 档案

摘要:Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算。TensorFlow的运行机制属于“定义”和“运行”相分离。模型的构建只是相当于定义了一个图结构(代表一个计算任务),图中有多个操作节点,每个节点可以有一个或多个tensor作为输入,也会输出1个或多个tensor,只有通过 阅读全文
posted @ 2019-05-30 23:03 喂你在哪 阅读(377) 评论(0) 推荐(0) 编辑
摘要:内容是本人通过查阅网上资料和阅读相关书籍以及自己的思考整理的一些东西,其中可能会存在一些不足的地方 1.什么是深度学习(深度学习与深(多)层神经网络)? 基维百科解释为:一类通过多层非线性变换对高复杂性数据建模算法的合集。(注意深度学习的两个重要特征:多层、非线性)。因为深层神经网络是实现“多层非线 阅读全文
posted @ 2019-05-29 22:29 喂你在哪 阅读(1207) 评论(0) 推荐(0) 编辑
摘要:以下内容是个人通过查阅网上相关资料总结出的内容 具体说明数据不均衡会带来的问题: 1)在一个二分类问题中,训练集中class 1的样本数比class 2的样本数是60:1。使用逻辑回归进行分类,最后训练出的模型可能会忽略了class 2,即模型可能会将所有的训练样本都分类为class 1。 2)在分 阅读全文
posted @ 2019-05-26 10:32 喂你在哪 阅读(883) 评论(0) 推荐(0) 编辑
摘要:对于卷积神经网络的详细介绍和一些总结可以参考以下博文: https://www.cnblogs.com/pinard/p/6483207.html https://blog.csdn.net/guoyunfei20/article/details/78055192 这里记录的是结合网上资料的一些总结 阅读全文
posted @ 2019-05-19 14:22 喂你在哪 阅读(676) 评论(0) 推荐(0) 编辑
摘要:主要是对《Attention is all you need》的分析 结合:http://www.cnblogs.com/robert-dlut/p/8638283.html 以及自己的一些东西 先是最基础的单元放缩点积注意力机制 放缩即为在点积注意力机制的基础上只是多除了一个(每个头的维度)起到调 阅读全文
posted @ 2019-05-19 13:02 喂你在哪 阅读(760) 评论(0) 推荐(0) 编辑
摘要:主要是阅读以下博文的总结: https://zhuanlan.zhihu.com/p/31547842 https://www.zhihu.com/question/68482809/answer/264632289 https://blog.csdn.net/thriving_fcl/articl 阅读全文
posted @ 2019-05-18 15:37 喂你在哪 阅读(1970) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示