上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 27 下一页
摘要: 基本思想 K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类中。如下面的图: 通俗一点来说,就是找最“邻近”的伙伴,通过这些伙伴的类别来看自己的类别。比如以性格和做过的事情为判断特征,和你最邻近的10 阅读全文
posted @ 2018-04-29 22:13 下路派出所 阅读(142) 评论(0) 推荐(0) 编辑
摘要: 训练词向量模型 NNLM 1.通过前面的词预测后面的词,来训练词向量。 2.最大化最后一个单词的概率对数。 LBL 1.跟NNLM非常相似。 2.使用了双线性的log函数代替了NNLM的log函数。 3.移除了非线性的激活函数tanh。 C&W 1.这个模型没有求目标单词,目标词就在输入的conte 阅读全文
posted @ 2018-04-22 21:42 下路派出所 阅读(398) 评论(0) 推荐(0) 编辑
摘要: 传输层的TCP是基于网络层的IP协议的,而应用层的HTTP协议又是基于传输层的TCP协议的,而Socket本身不算是协议,就像上面所说,它只是提供了一个针对TCP或者UDP编程的接口。 TCP:如果我们直接使用TCP/IP来传输内容的话,我们需要在客户端和服务端自己定义一个协议来传输内容(WCF已经 阅读全文
posted @ 2018-04-12 16:59 下路派出所 阅读(121) 评论(0) 推荐(0) 编辑
摘要: 1.下载AutoMapper控件。 2.定义类,实现Profile。 3.在定义类的构造方法中使用如下代码进行转换 阅读全文
posted @ 2018-04-02 11:35 下路派出所 阅读(134) 评论(0) 推荐(1) 编辑
摘要: 阅读全文
posted @ 2018-04-02 11:22 下路派出所 阅读(153) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2018-04-02 10:09 下路派出所 阅读(126) 评论(0) 推荐(0) 编辑
摘要: oracle采用物理读和逻辑读,第一次查询数据库采用的是物理读,以后如果使用相同的sql语句查询,那么它会采用逻辑读,直接从内存中读取数据。 采用执行计划查看执行顺序和耗时:一般查看object name、cost、time、Cardinality;先查看执行顺序,一般层级最小的descriptio 阅读全文
posted @ 2018-03-16 11:02 下路派出所 阅读(432) 评论(0) 推荐(0) 编辑
摘要: 以下是阅读TextCNN后的理解 步骤: 1.先对句子进行分词,一般使用“jieba”库进行分词。 2.在原文中,用了6个卷积核对原词向量矩阵进行卷积。 3.6个卷积核大小:2个4*6、2个3*6和2个2*6,如上图所示;然后进行池化,对相同卷积核产生的特征图进行连接;再进行softmax输出2个类 阅读全文
posted @ 2018-03-09 20:12 下路派出所 阅读(6919) 评论(0) 推荐(0) 编辑
摘要: 安装参考网站:http://blog.csdn.net/lp654063449/article/details/79340655 依照安装目录依次安装,所需安装包均已下载,在最后的一步中,打开cuda将bin,include,lib文件中的库拷入到Cuda下的安装目录下的bin,include,li 阅读全文
posted @ 2018-03-07 09:28 下路派出所 阅读(817) 评论(0) 推荐(0) 编辑
摘要: Kim Y’s Paper 模型结构及原理 模型的结构如下: 输入层 如图所示,输入层是句子中的词语对应的word vector依次(从上到下)排列的矩阵,假设句子有 n 个词,vector的维数为 k ,那么这个矩阵就是 n×k 的。 这个矩阵的类型可以是静态的(static),也可以是动态的(n 阅读全文
posted @ 2018-03-03 22:18 下路派出所 阅读(293) 评论(0) 推荐(0) 编辑
上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 27 下一页