Distributed Representations of Words and Phrases and their Compositionality

摘要: Skip-gram model is to find word representations that are useful for predicting the surrounding words in a sentence or a document given a sequence of t 阅读全文
posted @ 2016-10-18 11:04 Beginnerpatienceless 阅读(758) 评论(0) 推荐(0) 编辑

Deep Learning for Natural Language Processeing:vector space models

摘要: 三种分类: term–document word–context pair–pattern semantics:the meaning of a word, a phrase, a sentence, or any text in human language, and the study of s 阅读全文
posted @ 2016-10-17 21:06 Beginnerpatienceless 阅读(191) 评论(0) 推荐(0) 编辑

Deep Learning for Natural Language Processeing : Convex Optimization

摘要: 效率爆表的一个晚上,只是因为没带手机,可怕! 今天开启新的课程,http://cs224d.stanford.edu/syllabus.html 第一章是凸优化,convex Optimazition 凸集 Convex Set 定义: A set C is convex if, for any x 阅读全文
posted @ 2016-10-16 20:57 Beginnerpatienceless 阅读(293) 评论(0) 推荐(0) 编辑

Java Web的一些基础知识

摘要: 学的没有忘得快,笔记以后方便查找 1.DAO : Data Access Object 数据访问对象 是第一个面向对象的数据库接口 组件:一个DAO工厂类;一个DAO接口; 一个实现DAO接口的具体类; 数据传递对象(有些时候叫做值对象). DAO是事务性对象。每个被DAO执行的操作(对象创建,更新 阅读全文
posted @ 2016-10-16 19:15 Beginnerpatienceless 阅读(308) 评论(0) 推荐(0) 编辑

Java Web1: 邮件发送系统(JSP+Servlet+JavaBean)

摘要: java web 容器: 1.JSP Java sever Page 在传统的HTML文件中加入java程序片段<%%> (操作数据库、重定向网页 在服务器端执行) 和JSP标签 代码注释 // /**/ <%-- --%> <!__ --> 指令标记 Directive : page includ 阅读全文
posted @ 2016-10-14 17:21 Beginnerpatienceless 阅读(155) 评论(0) 推荐(0) 编辑

学习效率与方法

摘要: 这么长时间,一直在看Stanford的课程,tutorial和exercise一知半解 算法之间的逻辑关系不通,被动学习,一直在模仿抄袭,属于偷懒式学习 今天花了一下午时间总结,稍稍有所长进 考前突击,效率高,也是主动学习,拼命记下所有东西,而这段时间完全是心眼不一,看过就忘,前后知识点也没有联系, 阅读全文
posted @ 2016-10-13 17:55 Beginnerpatienceless 阅读(108) 评论(0) 推荐(0) 编辑

Deep Learning6: Convolution and pooling

摘要: 卷积和池化都是针对大规模图像数据进行处理,提高运算效率 1.Convolution 在大图片中截取小图片patch,对每个patch提取特征,卷积后得到convolved feature. 隐藏层的每个节点对应一个特征值 large images xlarge small patches xsmal 阅读全文
posted @ 2016-10-13 17:50 Beginnerpatienceless 阅读(162) 评论(0) 推荐(0) 编辑

Deep Learning5: Linear Decoders with Autoencoders

摘要: 对于 Linear Decoders设定,a(3) = z(3)则称之为线性编码 sigmoid激活函数要求输入范围在[0,1]之间,某些数据集很难满足,则采用线性编码 此时,误差项更新为 阅读全文
posted @ 2016-10-13 17:36 Beginnerpatienceless 阅读(194) 评论(0) 推荐(0) 编辑

Deep Learning4: Building Deep Networks for Classification

摘要: Self-taught Learning其实就是无监督学习的一种,对于无标记数据进行特征分析 可应用在有标签数据上,数据信息进行扩展,提高预测精度 1.Self-taught Learning to Deep Networks 利用Self-taught Learning得到的特征进行回归分类,进而 阅读全文
posted @ 2016-10-13 17:30 Beginnerpatienceless 阅读(122) 评论(0) 推荐(0) 编辑

Deep Learning3: Softmax Regression

摘要: Softmax就是依概率预测分类标签 训练集 标签 此时,cost function为 若标签设定 令 is the indicator function, so that 1{a true statement} = 1, and 1{a false statement} = 0 此时,cost f 阅读全文
posted @ 2016-10-13 17:11 Beginnerpatienceless 阅读(150) 评论(0) 推荐(0) 编辑