Processing math: 100%

07 2018 档案

摘要:这一讲主要介绍了神经网络,基本内容之前如果学习过Andrew的Machine learning应该也都有所了解了。不过这次听完这一讲后还是有了新的一些认识。 计算图 Computational graph 之前没有体会到计算图的强大,今天听Serena讲解后,有一种豁然开朗的感觉。 总的来说,有一些 阅读全文
posted @ 2018-07-26 22:39 zhsuiy 阅读(301) 评论(0) 推荐(0) 编辑
摘要:这一讲总体上就是引入Loss Function的概念,以及让大家对优化有一个初步的认识,和其他课程里面说的内容大同小异。 Loss function Multiclass svm loss multiclass svm的分类依据是,比较每个类别计算得到分数,取最大的那个作为当前的类标。该Loss鼓励 阅读全文
posted @ 2018-07-20 15:41 zhsuiy 阅读(374) 评论(0) 推荐(0) 编辑
摘要:距离度量L1L2的区别 一些感性的认识,L1可能更适合一些结构化数据,即每个维度是有特别含义的,如雇员的年龄、工资水平等等;如果只是一个一般化的向量,L2可能用得更多。但这些仍然需要视具体情况而定。 Nearest Neighbor "KNN demo" 相当于K=1 阅读全文
posted @ 2018-07-16 20:17 zhsuiy 阅读(352) 评论(0) 推荐(0) 编辑
摘要:主题有关 这一讲主要是介绍性质的,虽然大多数概念以前听说过,但还是在他们的介绍中让我有如下一些认识,所谓温故而知新,不无道理: IMAGENET Feifei Li的团队首先爬取、标注了IMAGENET 数据集,其中包含22k个目录和14m的图片; 为了能够为研究者提供一个统一的验证平台,进而组办了 阅读全文
posted @ 2018-07-14 20:54 zhsuiy 阅读(307) 评论(0) 推荐(0) 编辑
摘要:1. Two Sum 题目描述 Given an array of integers, return indices of the two numbers such that they add up to a specific target. You may assume that each inp 阅读全文
posted @ 2018-07-13 15:04 zhsuiy 阅读(263) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示