摘要: 1.Transformer原理: 一种完全基于Attention机制来加速深度学习训练过程的算法模型;Transformer最大的优势在于其在并行化处理上做出的贡献。 1.1 网络结构 transformer由2个部分组成,一个Encoders和一个Decoders。每个Encoders中分别由6个 阅读全文
posted @ 2020-08-03 20:16 DHuifang004 阅读(748) 评论(0) 推荐(0) 编辑
摘要: 这是一份还没完成的作品。后面再补上~ Word2Vec 两个算法: Skip-grams (SG):预测上下文 Continuous Bag of Words (CBOW):预测目标单词 两种稍微高效一些的训练方法: Hierarchical softmax Negative samplingps: 阅读全文
posted @ 2020-08-01 10:49 DHuifang004 阅读(1199) 评论(2) 推荐(0) 编辑
摘要: 摘录自《机器学习及应用》汪荣贵 机械工业出版社 总结了一些神经网络与深度学习中的一些网络介绍。 1.神经元与感知机 (1)关于激活函数 (2)MLP MLP模型的网络结构没有环路或回路,故是一类前馈网络模型。MLP模型中隐含层的层数可为一层也可为多层。对于MLP模型和BP神经网络这样包含多个数据处理 阅读全文
posted @ 2019-08-26 22:01 DHuifang004 阅读(1220) 评论(0) 推荐(0) 编辑
摘要: 转载:https://www.iteye.com/blog/dengkane-2406703 步骤: 1 有标签的数据。数据:好评文本:pos_text.txt 差评文本:neg_text.txt 2 构造特征:词,双词搭配(Bigrams),比如“手机 非常”,“非常 好用”,“好用 !”这三个搭 阅读全文
posted @ 2019-08-25 11:23 DHuifang004 阅读(3769) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-08-23 20:42 DHuifang004 阅读(170) 评论(0) 推荐(0) 编辑
摘要: 1 词袋模型 阅读全文
posted @ 2019-07-22 11:22 DHuifang004 阅读(364) 评论(0) 推荐(0) 编辑
摘要: 1 string->labelencoder(preprocessing.LabelEncoder()) Sklearn中的LabelEncoder可以将标签分配一个0到n_classes-1之间的编码 ,即将各种标签分配一个可数的连续编号。 2 可视化 matplotlib data.hist(b 阅读全文
posted @ 2019-07-22 10:44 DHuifang004 阅读(195) 评论(0) 推荐(0) 编辑
摘要: 一、 DataFrame 相关 1 索引的使用(.loc[] .iloc[]) .loc用行列标签来选择数据。.iloc 根据行数与列数索引。 2 数据整合(concat) 阅读全文
posted @ 2019-07-22 10:42 DHuifang004 阅读(303) 评论(0) 推荐(0) 编辑
摘要: 1 函数参数 (1)收集参数:以一个星号*加上形参名的方式,表示这个函数的实参个数不定,可能0个可能n个。 (2)收集参数:用两个星号(**)来标定可变参数,将变参数打包为字典。它表明可变参数是字典元素。调用函数的方法则需要采用诸如 arg I =value l的形式。 2 传值还是传引用——传引用 阅读全文
posted @ 2019-06-22 09:25 DHuifang004 阅读(361) 评论(0) 推荐(0) 编辑
摘要: impoort numpy as np arr=np.arange(10) #输出奇数 arr[arr%2==1] #将arr中的所有奇数替换为-1,而不改变arr out=np.where(arr%2==1,-1,arr) a = np.arange(10).reshape(2,-1) b = np.repeat(1, 10).reshape(2,-1) #垂直叠加两个数组 np.v... 阅读全文
posted @ 2019-06-17 22:16 DHuifang004 阅读(259) 评论(0) 推荐(0) 编辑