懵懂的菜鸟

Stay hungry,Stay foolish.

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

随笔分类 -  NLP 自然语言处理|DL深度学习

1 2 下一页

gensim自然语言处理
摘要:参考代码 ChineseClean_demo1.py: # -*- coding:utf-8 -*- import xlrd import xlwt ''' python3.4 ''' # file 表示源文件名字,修改此处即可 file="./data/answer_detail_5_15307860968687.xls" dirs="./result" def read_excel(ro... 阅读全文

posted @ 2018-08-08 17:40 懵懂的菜鸟 阅读(882) 评论(0) 推荐(0) 编辑

gensim和jieba分词进行主题分析,文本相似度
摘要:参考链接:https://blog.csdn.net/whzhcahzxh/article/details/17528261 demo1:结巴分词: 详细实例: 阅读全文

posted @ 2018-07-26 18:02 懵懂的菜鸟 阅读(3664) 评论(0) 推荐(0) 编辑

Gibs抽样
摘要:/* * Copyright (C) 2007 by * * Xuan-Hieu Phan * hieuxuan@ecei.tohoku.ac.jp or pxhieu@gmail.com * Graduate School of Information Sciences * Tohoku University * * Cam-Tu Nguye... 阅读全文

posted @ 2018-04-04 16:14 懵懂的菜鸟 阅读(222) 评论(0) 推荐(0) 编辑

keras model.compile(loss='目标函数 ', optimizer='adam', metrics=['accuracy'])
摘要:深度学习笔记 目标函数的总结与整理 目标函数,或称损失函数,是网络中的性能函数,也是编译一个模型必须的两个参数之一。由于损失函数种类众多,下面以keras官网手册的为例。 在官方keras.io里面,有如下资料: mean_squared_error或mse mean_absolute_error或 阅读全文

posted @ 2018-03-28 10:08 懵懂的菜鸟 阅读(101452) 评论(2) 推荐(0) 编辑

Keras人工神经网络多分类(SGD)
摘要:import numpy as np import pandas as pd from keras.models import Sequential from keras.layers import Dense, Dropout from keras.wrappers.scikit_learn import KerasClassifier from keras.utils import np_u... 阅读全文

posted @ 2018-03-27 09:48 懵懂的菜鸟 阅读(3956) 评论(0) 推荐(0) 编辑

Keras分类问题
摘要:#-*- coding: utf-8 -*- #使用神经网络算法预测销量高低 import pandas as pd #参数初始化 inputfile = 'data/sales_data.xls' data = pd.read_excel(inputfile, index_col = u'序号') #导入数据 #数据是类别标签,要将它转换为数据 #用1来表示“好”、“是”、“高”这三个属... 阅读全文

posted @ 2018-03-27 09:47 懵懂的菜鸟 阅读(1798) 评论(0) 推荐(0) 编辑

Keras预测股票
摘要:#!/usr/bin/env python3 # -*- coding: utf-8 -*- """ Created on Sat Nov 18 21:22:29 2017 @author: luogan """ from matplotlib.dates import DateFormatter, WeekdayLocator, DayLocator, MONDAY,YEARLY from... 阅读全文

posted @ 2018-03-27 09:46 懵懂的菜鸟 阅读(1233) 评论(0) 推荐(1) 编辑

Tensflow预测股票实例
摘要:数据集格式: 时间 最高价2015/12/11 3455.552015/12/10 3503.652015/12/9 3495.72015/12/8 3518.652015/12/7 3543.952015/12/4 3568.972015/12/3 3591.732015/12/2 3538.85 阅读全文

posted @ 2018-03-27 09:45 懵懂的菜鸟 阅读(784) 评论(0) 推荐(0) 编辑

estimator = KerasClassifier
摘要:如何在scikit-learn模型中使用Keras 通过用 KerasClassifier 或 KerasRegressor 类包装Keras模型,可将其用于scikit-learn。 要使用这些包装,必须定义一个函数,以便按顺序模式创建并返回Keras,然后当构建 KerasClassifier  阅读全文

posted @ 2018-03-27 09:39 懵懂的菜鸟 阅读(3400) 评论(1) 推荐(0) 编辑

keras CNN解读
摘要:loss是训练集损失值. acc是训练集准确率。val_loss是测试集上的损失值,val_acc是测试集上的准确率。 用深度学习框架跑过实际问题的朋友一定有这样的感觉: 太神奇了, 它竟然能自己学习重要的特征 ! 下一步我们改教会计算机什么?莫非是教会他们寻找新的未知特征? 对于卷积神经网络cnn 阅读全文

posted @ 2018-03-26 18:32 懵懂的菜鸟 阅读(1156) 评论(0) 推荐(0) 编辑

Tensorflow RNN_LSTM实例
摘要:RNN的一种类型模型被称为长短期记忆网络(LSTM)。我觉得这是一个有趣的名字。它听起来也意味着:短期模式长期不会被遗忘。 LSTM的精确实现细节不在本文的范围之内。相信我,如果只学习LSTM模型会分散我们的注意力,因为它还没有确定的标准 我们现在开始我们的教程。首先从编写我们的代码开始,先创建一个新的文件,叫做simple_regression.py。导入相关的库,如步骤1所示。... 阅读全文

posted @ 2018-03-25 21:52 懵懂的菜鸟 阅读(4332) 评论(0) 推荐(0) 编辑

Python写出LSTM-RNN的代码
摘要:0. 前言 本文翻译自博客: iamtrask.github.io ,这次翻译已经获得trask本人的同意与支持,在此特别感谢trask。本文属于作者一边学习一边翻译的作品,所以在用词、理论方面难免会出现很多错误,假如您发现错误或者不合适的地方,可以给我留言,谢谢! 2016.7.26 UPDATE 阅读全文

posted @ 2018-03-25 12:32 懵懂的菜鸟 阅读(1355) 评论(0) 推荐(0) 编辑

TensorFlow 实现 RNN 入门教程
摘要:转子:https://www.leiphone.com/news/201705/zW49Eo8YfYu9K03J.html 最近在看RNN模型,为简单起见,本篇就以简单的二进制序列作为训练数据,而不实现具体的论文仿真,主要目的是理解RNN的原理和如何在TensorFlow中构造一个简单基础的模型架构 阅读全文

posted @ 2018-03-25 10:32 懵懂的菜鸟 阅读(6623) 评论(0) 推荐(0) 编辑

RNN与应用案例:注意力模型与机器翻译
摘要:1. 注意力模型 1.2 注意力模型概述 注意力模型(attention model)是一种用于做图像描述的模型。在笔记6中讲过RNN去做图像描述,但是精准度可能差强人意。所以在工业界,人们更喜欢用attention model。 结合下图,先简单地讲一下,注意力模型的运作原理。 第一步:进来一张图 阅读全文

posted @ 2018-03-25 10:31 懵懂的菜鸟 阅读(1918) 评论(0) 推荐(0) 编辑

RNN入门
摘要:RNN入门学习 原文地址:http://blog.csdn.net/hjimce/article/details/49095371 作者:hjimce 一、相关理论 RNN(Recurrent Neural Networks)中文名又称之为:循环神经网络(原来还有一个递归神经网络,也叫RNN,搞得我 阅读全文

posted @ 2018-03-25 09:54 懵懂的菜鸟 阅读(516) 评论(0) 推荐(0) 编辑

随机分配主题
摘要:# 随机给词汇分配一个主题 # 单词i属于第k个主题的个数加1,所以 # 文章m属于主题k的词汇的个数也加1,因为词汇i来自文章m # 因此每个主题下词汇个数也加1 代码实现: # z= [list([0, 1, 1, 2, 0]) list([2, 0, 2, 1]) list([2, 1, 2, 阅读全文

posted @ 2017-10-09 21:50 懵懂的菜鸟 阅读(291) 评论(0) 推荐(0) 编辑

LdA笔记
摘要:LDA算法最初的论文使用的是变分EM方法训练(Variational Inference)。该方法较为复杂,而且最后训练出的topic主题非全局最优分布,而是局部最优分布。后期发明了Collapsed Gibbs Sample方法,推导和使用较为简洁。 Latent Dirichlet Alloca 阅读全文

posted @ 2017-10-01 21:18 懵懂的菜鸟 阅读(352) 评论(0) 推荐(0) 编辑

LDA详解
摘要:PART 1 这个性质被叫做共轭性。共轭先验使得后验概率分布的函数形式与先验概率相同,因此使得贝叶斯分析得到了极⼤的简化。 V:文档集中不重复的词汇的数目 语料库共有m篇文档,; 对于文档,由个词汇组成,可重复; 是第m个文档中的第n个词。 :文档集中文档的总数 :第m个文档中包含的词汇总数 :文档m中第n个词在词典中的序号,属于1到V :文档m第n个词汇的主题标号,属于1到k ... 阅读全文

posted @ 2017-09-30 12:37 懵懂的菜鸟 阅读(979) 评论(0) 推荐(0) 编辑

CF
摘要:CF 1 概述 协同过滤(Collaborative Filtering,CF)是推荐系统中最为流行和成熟的一种技术。协同过滤通常分为基于用户和基于项目的协同过滤的两种情况,通过考虑用户与用户之间、物品与物品之间的相似度,来对目标用户进行合适的推荐。在各大电商网站中得到广泛的青睐。例如亚马逊、淘宝、京东等。 在推荐系统中最常用的协同过滤包括: 基于用户的协同过滤 基于物品的协同过... 阅读全文

posted @ 2017-09-30 11:28 懵懂的菜鸟 阅读(139) 评论(0) 推荐(0) 编辑

LDA
摘要:LDA 1 概述 LDA(Latent Dirichlet allocation)潜在狄立克雷分配模型,它是将文档集中每篇文档的主题按照概率分布的形式给出,是一种典型的概率生成性模型,能够发现语料库中潜在的主题信息,因此也称为LDA主题模型。它是一种无监督学习,可以应用于推荐系统之中,其优点在于无需手工标注训练集,仅仅需要的是文档集和指定主题的数量。其中,对于每个主题只需找出一些词语代替即可。 L... 阅读全文

posted @ 2017-09-30 11:27 懵懂的菜鸟 阅读(451) 评论(0) 推荐(0) 编辑

1 2 下一页
点击右上角即可分享
微信分享提示