随笔分类 -  吴恩达 machine Learning

上一页 1 2 3

监督学习和无监督学习
摘要:机器学习:定义一、给予计算机能自我学习的能力而不是编程。定义二、对于某类任务T和性能度量P,如果一个计算机程序在T上以P衡量的性能随着经验E而自我完善,那么我们称这个计算机程序在从经验E学习 监督学习在有监督的学习中,我们得到了一个数据集,并且已经知道正确的输出应该是什么样的,我们认为输入和输出之间 阅读全文

posted @ 2019-12-04 15:19 cltt 阅读(541) 评论(0) 推荐(0) 编辑

解决www.coursera.org可以登录但无法播放视频
摘要: 阅读全文

posted @ 2019-11-30 19:44 cltt 阅读(293) 评论(0) 推荐(0) 编辑

ubuntu 17.04 下搭建深度学习环境
摘要:1.目前使用CPU即可,先不需要显卡配置 2.使用pip3 安装深度学习框架 3.要先安装pip3 #sudo apt install python3-pip https://blog.csdn.net/bjzhaoxiao/article/details/81270368 https://blog 阅读全文

posted @ 2019-11-24 18:37 cltt 阅读(173) 评论(0) 推荐(0) 编辑

递归神经网络
摘要:Relu :梯度非1即0 :激活函数 :输入门 :临时的中间状态 综合: 阅读全文

posted @ 2019-11-23 15:24 cltt 阅读(143) 评论(0) 推荐(0) 编辑

模型压缩与加速
摘要:半个1*1,半个3*3 DF*DF :feature map 的大小 DK*DK :卷积核的大小 M:通道数目 在Pointwise Con中,DK=1Xcep 可缩小为1/8 单个BLOCK的参数量变大,但需要的BLOCK的数目减少了 1*1的Pointwise 是为了打通信息流,那么Shuffl 阅读全文

posted @ 2019-11-22 19:49 cltt 阅读(183) 评论(0) 推荐(0) 编辑

从神经网络到深度学习
摘要:监督学习:标注数据 半监督学习:标注数据和未标注数据 无监督学习:未标注学习 监督学习的性能最可靠,用于企业 通常层间神经元不相通 损失函数:每次都找下山最快的方向(梯度下降法)依赖于网络初始值 神经网络的缺点: 局部最优:下山不一定到最低点 梯度弥散:如:1 0.5 0.25 0.125(接近0) 阅读全文

posted @ 2019-11-20 19:31 cltt 阅读(319) 评论(0) 推荐(0) 编辑

卷积神经网络
摘要:一个卷积核是3维的(Ci*k*k),一个卷积层是4维的 Ci :输入通道数 ,padding :左右两边补零的数量 stride :步长,滑窗隔几个滑一下 。padding 和K 要匹配使用 没有提取任何的空间信息,只是简单的缩放 2(Ci/2*K*K/Co/2) 正常卷积的1/2。一般显卡不够用的 阅读全文

posted @ 2019-11-20 17:00 cltt 阅读(259) 评论(0) 推荐(0) 编辑

入门常识
摘要:一张图片表示为三维数组,每个像素值0~255像素点与亮度有关300*100*3 3:[R,G,B]常规套路:1.收集数据并给定标签2.训练一个分类器3.测试,评估合适的数据大小计算图像数据: 阅读全文

posted @ 2019-11-11 15:44 cltt 阅读(108) 评论(0) 推荐(0) 编辑

上一页 1 2 3
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

导航

统计

点击右上角即可分享
微信分享提示