11 2019 档案

摘要:原文地址:https://jingyan.baidu.com/article/90bc8fc8be67bcf653640cfa.html Win10中的Cortana是微软开发的一款个人AI助理,集聊天、通讯、提醒、娱乐和查询等等十八般武艺于一身。小娜虽然很厉害,但一些传统的Windows用户可能觉 阅读全文
posted @ 2019-11-25 20:37 瘋子朱磊 阅读(6371) 评论(0) 推荐(0) 编辑
摘要:一直用一个微软家的蓝牙鼠标,饱受鼠标卡顿困扰,今天找到了一个解决方案,用了下,效果显著。具体操作见下文。 原文地址:https://jingyan.baidu.com/article/c85b7a64690dab003bac95ae.html 相比2.4GHz无线鼠标,蓝牙鼠标基本上不用配备信号接收 阅读全文
posted @ 2019-11-24 20:41 瘋子朱磊 阅读(21290) 评论(4) 推荐(1) 编辑
摘要:原文地址:https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650728746&idx=1&sn=61e9cb824501ec7c505eb464e8317915&scene=0#wechat_redirect 近日,Dishashree  阅读全文
posted @ 2019-11-19 22:36 瘋子朱磊 阅读(288) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://www.matongxue.com/madocs/244.html 简单来说,“仿射变换”就是:“线性变换”+“平移”。 先看什么是线性变换? 1 线性变换 线性变换从几何直观有三个要点: 变换前是直线的,变换后依然是直线 直线比例保持不变 变换前是原点的,变换后依然是原点 阅读全文
posted @ 2019-11-17 22:23 瘋子朱磊 阅读(1529) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://www.cnblogs.com/shine-lee/p/10950963.html 写在前面 2D图像常见的坐标变换如下图所示:这篇文章不包含透视变换(projective/perspective transformation),而将重点放在仿射变换(affine tran 阅读全文
posted @ 2019-11-17 18:58 瘋子朱磊 阅读(709) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://blog.csdn.net/happyrocking/article/details/83657993 RNN(Recurrent Neural Network)是一类用于处理序列数据的神经网络。什么是序列呢?序列是一串有顺序的数据,比如某一条数据为 [x1,x2,x3,x 阅读全文
posted @ 2019-11-14 17:37 瘋子朱磊 阅读(1286) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://www.jianshu.com/p/72481d794a6b 大家好,这是专栏《AI不惑境》的第二篇文章,讲述模型深度与模型性能的关系。 进入到不惑境界,就是向高手迈进的开始了,在这个境界需要自己独立思考。如果说学习是一个从模仿,到追随,到创造的过程,那么到这个阶段,应该跃 阅读全文
posted @ 2019-11-14 12:59 瘋子朱磊 阅读(763) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://datascience.stackexchange.com/questions/23183/why-convolutions-always-use-odd-numbers-as-filter-size The convolution operation, simply pu 阅读全文
posted @ 2019-11-14 10:46 瘋子朱磊 阅读(306) 评论(0) 推荐(0) 编辑
摘要:原文地址:http://www.sohu.com/a/298275731_468638 如果你听过深度学习中不同的卷积类型,包括: 2D/3D/1*1/Ttransposed/Dilated/Spatially Separable/Depthwise Separable/Flattened/Grou 阅读全文
posted @ 2019-11-14 10:15 瘋子朱磊 阅读(891) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://zhuanlan.zhihu.com/p/24833574 一.前言 CNN作为一个著名的深度学习领域的“黑盒”模型,已经在计算机视觉的诸多领域取得了极大的成功,但是,至今没有人能够“打开”这个“黑盒”,从数学原理上予以解释。这对理论研究者,尤其是数学家来说当然是不可接受的 阅读全文
posted @ 2019-11-13 23:03 瘋子朱磊 阅读(700) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://blog.csdn.net/luoluonuoyasuolong/article/details/81750190 AlexNet论文:《ImageNet Classification with Deep Convolutional Neural Networks》第一个典 阅读全文
posted @ 2019-11-13 23:01 瘋子朱磊 阅读(595) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://zhuanlan.zhihu.com/p/27642620 如果要提出一个新的神经网络结构,首先就需要引入像循环神经网络中“时间共享”这样的先验知识,降低学习所需要的训练数据需求量。 而卷积神经网络同样也引入了这样的先验知识:“空间共享”。下面就让我们以画面识别作为切入点, 阅读全文
posted @ 2019-11-13 17:30 瘋子朱磊 阅读(592) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://blog.csdn.net/xys430381_1/article/details/82529397 feature map、卷积核、卷积核个数、filter、channel的概念解释 feather map的理解 在cnn的每个卷积层,数据都是以三维形式存在的。你可以把它 阅读全文
posted @ 2019-11-13 16:45 瘋子朱磊 阅读(1610) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://baijiahao.baidu.com/s?id=1590121601889191549&wfr=spider&for=pc 今天要说的是CNN最后一层了,CNN入门就要讲完啦。。。。。 先来一段官方的语言介绍全连接层(Fully Connected Layer) 全连接层 阅读全文
posted @ 2019-11-13 15:53 瘋子朱磊 阅读(3538) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://www.jianshu.com/p/f864bac6cb7a 拉普拉斯矩阵是图论中用到的一种重要矩阵,给定一个有n个顶点的图 G=(V,E),其拉普拉斯矩阵被定义为 L = D-A,D其中为图的度矩阵,A为图的邻接矩阵。例如,给定一个简单的图,如下(例子来自wiki百科): 阅读全文
posted @ 2019-11-09 23:16 瘋子朱磊 阅读(2805) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650754422&idx=4&sn=0dc881487f362322a875b4ce06e645f7&chksm=871a8908b06d001ef7386ccc752827c2 阅读全文
posted @ 2019-11-09 21:25 瘋子朱磊 阅读(593) 评论(0) 推荐(0) 编辑
摘要:原文地址:https://blog.csdn.net/CVSvsvsvsvs/article/details/90477062 池化层作用机理我们以最简单的最常用的max pooling最大池化层为例,对池化层作用机理进行探究。其他池化层的作用机理也大致适用这一机理,在这里就不加入讨论。 图片和以下 阅读全文
posted @ 2019-11-05 22:27 瘋子朱磊 阅读(5030) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示