【视频讲解】LSTM神经网络模型在微博中文文本评论情感分析和股市预测应用附代码数据
全文链接:https://tecdat.cn/?p=36471
原文出处:拓端数据部落公众号
分析师:Shuai Fung
本文将通过视频讲解,展示如何用python的LSTM模型对中文文本评论情感分析,并结合一个TensorFlow的长短期记忆神经网络(LSTM)、指数移动平均法预测股票市场和可视化实例的代码数据,为读者提供一套完整的LSTM模型分类预测的实践数据分析流程。
基于LSTM模型的中文文本评论情感分析
研究背景
在自然语言处理(NLP)领域,情感分析一直是研究的热点之一。尽管国外研究人员在早期就针对英文文本开展了情感分析的研究,但由于中英文在语法结构、词汇含义以及表达方式上存在显著差异,中文文本情感分析面临着独特的挑战。尤其是随着微博等社交媒体的兴起,网络文本呈现出短小精悍、数据稀疏、上下文信息有限等特点,使得传统的基于情感词典的分析方法难以直接应用。
因此,中文文本情感分析的研究不仅具有理论价值,更具有重要的现实意义。通过对海量互联网评论文本进行情感分析,不仅可以实现异常或突发事件的检测和监控,还能助力网络舆情监控系统的完善,为企业的市场营销策略提供有力支持。此外,情感分析在心理学、语言学、教育学、社会学、金融预测等多个领域也具有广泛的应用前景。
研究内容
本研究主要基于长短期记忆网络(Long Short-Term Memory, LSTM)实现中文文本情感分析。具体研究内容包括:
- 数据集的收集、整理与分析,以及对数据集进行词向量等预处理操作,以适应LSTM模型的输入要求。
- 构建一个情感分析模型,利用PyTorch框架搭建LSTM网络,并将此网络模型应用于中文文本情感分析任务中。通过训练模型,使其能够准确识别文本的情感倾向,并输出混淆矩阵等评价指标。
研究流程
本研究遵循以下流程进行:
- 数据获取:使用微博情感分析数据集,该数据集包含积极情感和消极情感两种标签,共计约12万条数据。
- 数据预处理:利用公开的Vocab和腾讯发布的词向量预训练模型,对文本数据进行词向量预处理,以便后续模型训练。
- 搭建模型:使用PyTorch框架搭建LSTM网络模型,设置合适的网络结构和参数。
- 模型训练:通过调整batch_size、epoch等超参数,对模型进行训练,并输出训练日志以监控训练过程。
- 模型评估:在测试集上评估模型的性能,输出混淆矩阵,并采用精准率、召回率、F1值等指标对模型进行综合评价。
算法原理
LSTM是一种特殊的循环神经网络(RNN),它通过引入门控机制来解决RNN在处理长序列时存在的梯度消失和梯度爆炸问题。LSTM包含三个门:遗忘门、输入门和输出门,以及一个记忆单元。在每个时间步,LSTM都会根据当前输入和上一时刻的输出更新记忆单元和门控状态,从而实现对长序列信息的有效处理。
在情感分析任务中,LSTM网络通过学习文本序列中的依赖关系,能够捕捉文本中的情感信息,并输出相应的情感倾向。通过训练LSTM网络模型,我们可以实现对中文文本情感分析任务的有效处理。
模型搭建
LSTM模型通过引入门控机制,能够处理长序列数据中的依赖关系,适用于情感分析任务。在模型搭建过程中,我们设置了合适的网络结构和参数,包括隐藏层大小、学习率、批次大小(batch size)等超参数。
原始数据
超参数
预处理一一分割文本、划分训练集
首先,对原始数据集进行文本分割,将长文本切分为适合模型输入的短文本序列。接着,将数据集划分为训练集、验证集和测试集,确保模型在训练过程中能够有效利用数据,并通过验证集进行模型调优,最终在测试集上评估模型的性能。
预处理一一张量转化
将预处理后的文本数据转化为张量(tensor)格式,以适应PyTorch等深度学习框架的输入要求。通过词嵌入(word embedding)技术,将文本中的每个词映射为一个固定维度的向量,从而捕获文本的语义信息。
训练
在模型训练过程中,我们使用训练集数据对模型进行迭代训练,通过反向传播算法和梯度下降优化器更新模型的参数。同时,我们记录了训练过程中的损失函数值和准确率等指标,以便对模型的训练过程进行监控和调优。
模型评估
在模型训练完成后,我们使用测试集数据对模型进行评估。评估指标包括精准率(Precision)、召回率(Recall)和F1值等。通过输出混淆矩阵(Confusion Matrix),我们可以更直观地了解模型在不同情感类别上的表现。
此外,我们还通过可视化工具展示了模型在训练过程中的损失函数值和准确率变化曲线,以便对模型的训练效果进行更深入的分析。
模型局限
尽管基于LSTM的模型在中文文本情感分析任务中取得了不错的效果,但仍存在一些局限性:
- 长期依赖处理:LSTM模型虽然能够处理长期依赖关系,但在某些情况下可能无法完全捕捉到较长距离之间的依赖关系,导致模型在处理一些复杂的情感语义时出现困难。
- 数据不平衡问题:在情感分析任务中,积极和消极情感的数据往往不平衡,这可能导致模型在学习时偏向于出现更多的样本数量较多的情感类别。为了解决这个问题,可以采用数据增强、重采样等技术来平衡数据集。
- 语义理解挑战:情感分析需要对文本的语义进行准确的理解,而LSTM模型可能无法完全捕捉到复杂的语义关系。为了提高模型的语义理解能力,可以引入注意力机制(Attention Mechanism)等技术来增强模型对关键信息的关注。
- 知识表示限制:LSTM模型通常使用词嵌入来表示文本的语义信息,但词嵌入可能无法准确地捕捉到一些特定领域或文化背景中的情感表达。为了解决这个问题,可以引入领域知识或文化背景信息来丰富词嵌入的表示能力。
针对以上局限性,未来的研究可以探索更先进的模型架构和算法,以提高中文文本情感分析的准确性和效率。
Python中TensorFlow的长短期记忆神经网络(LSTM)、指数移动平均法预测股票市场和可视化
原文链接:http://tecdat.cn/?p=23689
最近我们被客户要求撰写关于LSTM的研究报告,包括一些图形和统计输出。
本文探索Python中的长短期记忆(LSTM)网络,以及如何使用它们来进行股市预测
在本文中,你将看到如何使用一个被称为长短时记忆的时间序列模型。LSTM模型很强大,特别是在保留长期记忆方面。在本文中,你将解决以下主题。
- 理解为什么你需要能够预测股票价格的变动。
- 下载数据 - 使用从雅虎财经收集的股市数据
- 分割训练-测试数据,并进行数据归一化
- 应用单步预测技术。
- 讨论LSTM模型。
- 用当前的数据预测和可视化未来的股票市场
为什么你需要时间序列模型?
你希望对股票价格进行正确的建模,所以作为一个股票买家,你可以合理地决定何时买入股票,何时卖出股票以获得利润。这就是时间序列模型的作用。你需要好的机器学习模型,它可以观察一连串数据的历史,并正确预测该序列的未来数据。
提示:股票市场的价格是高度不可预测和波动的。这意味着数据中没有一致的模式,使你能够近乎完美地模拟股票价格随时间变化。
然而,我们不要一味地认为这只是一个随机的或者随机的过程,机器学习没有希望。我们至少对数据进行建模,做出的预测与数据的实际行为相关。换句话说,你不需要未来确切的股票价值,而是需要股票价格的变动(也就是说,如果它在不久的将来会上涨或下跌)。
# 可用的库
import numpy as np
import tensorflow as tf
下载数据
股票价格有几种不同的变量。它们是
- 开盘:当天的开盘股票价格
- 收盘价:当天的收盘股价
- 高点:数据中最高的股票价格
- 低点:当天的最低股价
获取数据
你要利用航空公司的股票市场价格来进行预测,所以你把股票代码设置为 "AAL"。此外,你还定义了一个url_string,它将返回一个JSON文件,其中包含航空公司过去20年的所有股市数据,以及一个file_to_save,它是你保存数据的文件。
接下来,指定条件:如果你还没有保存数据,从你在url_string中设置的URL中抓取数据;把日期、低点、高点、成交量、收盘价、开盘价存储到一个pandas DataFrame df中,把它保存到file_to_save。
# 从URL中抓取数据
# 将日期、低点、高点、成交量、收盘价、开盘价存储到Pandas DataFrame中
#提取股票市场数据
df = pd.DataFrame(columns=['Date', 'Low', 'High', 'Close', ' Open'])
print('数据保存到:%s'%file_to_save)
# 如果数据已经存在,只需从CSV中加载即可
否则。
print('文件已经存在,从CSV中加载数据')
df = pd.read_csv(file_to_save)
数据探索
在这里你将把收集的数据输出到DataFrame中。你还应该确保数据是按日期排序的,因为数据的顺序在时间序列建模中至关重要。
# 按日期对数据框架进行排序
df = df.sort_values('Date')
# 仔细检查结果
df.head()
数据可视化
现在让我们来看看是什么样的数据。
plot(range(df.shape[0]),(df)/2.0)
这张图已经说明了很多问题。我选择这家公司而不是其他公司的原因是,这张图随着时间的推移,股票价格有不同表现行为。这将使模型学习更加稳健,并且给你一个价格变化来测试对各种情况的预测有多好。
另一个需要注意的是,接近2017年的数值要比接近20世纪70年代的数值高得多,而且波动也大。因此,你需要确保数据在整个时间范围内表现为类似的价格范围,需要将数据标准化。
将数据分割成训练集和测试集
你将使用通过取一天中最高和最低价格的平均值计算出的中间价格。
现在你可以把训练数据和测试数据分开。训练数据将是时间序列的前4000个数据点,其余的将是测试数据。
train_data = mid[:4000]
test_data = mid[4000:]
标准化数据
现在你需要定义标准化来规范数据。将训练和测试数据变化为[data_size, num_features]的维度。
将测试数据和训练数据相对于训练数据归一。
scaler = MinMaxScaler()
由于你先前的观察,即不同时间段的数据有不同的值范围,通过将全序列分割成窗口来标准化数据。如果你不这样做,早期的数据将接近于0,对学习过程不会有太大的价值。这里你选择了一个800的窗口大小。
提示:在选择窗口大小时,不要太小,因为当你进行窗口标准化时,会在每个窗口的最末端引入一个断点,因为每个窗口都是独立标准化的。
# 用训练数据和平滑数据训练
window_size = 800
scaler.transform(train_data[di:di+window_size,:])
将数据重塑为[data_size]的形状。
# 重塑训练和测试数据
reshape(-1)
# 对测试数据进行标准化处理
scaler.transform(test_data).reshape(-1)
现在你可以使用指数移动平均线对数据进行平滑处理。
请注意,你应该只平滑训练数据。
# 现在进行指数移动平均平滑处理
# 所以数据会比原来的锯齿状数据有一个更平滑的曲线
EMA = gamma*train[i] + (1-gamma)*EMA
train[i] = EMA
通过平均法进行单步超前预测
平均法允许你通过将未来的股票价格表示为以前观察到的股票价格的平均值来进行预测(通常是提前一个时间步)。下面看两种平均技术;标准平均法和指数移动平均法。你将对这两种算法产生的结果进行定性(目测)和定量(平均平方误差)的评估。
平均平方误差(MSE)的计算方法是:取前一步的真实值和预测值之间的平方误差,并对所有的预测值进行平均。
标准平均
可以通过首先尝试将其作为一个平均计算问题的模型来理解这个问题的难度。首先,尝试预测未来的股票市场价格(例如,xt+1),作为一个固定大小的窗口(例如,xt-N,...,xt)(例如之前的100天)内先前观察到的股票市场价格的平均值。此后,尝试更高级的 "指数移动平均 "方法,看看它的效果如何。然后,进入长短期记忆模型
首先,正常的平均数。
换句话说,你说t+1的预测是你在t到t-N的窗口内观察到的所有股票价格的平均值。
pred.append(np.mean(train[idx-window_size:idx]))
mse_errors.append((std_avg[-1]-train[pred_idx])**2)
MSE: 0.00418
看一下下面的平均结果。它与股票的实际行为相当接近。接下来,你将看到一个更准确的一步预测方法。
plt.plot(std_avg_pred)
plt.legend(fontsize=18)
plt.show()
那么,上面的图表(和MSE)说明了什么?
似乎对于非常短的预测(提前一天)来说,这个模型还不算太差。鉴于股票价格不会在一夜之间从0变化到100,这种行为是合理的。接下来,使用指数移动平均线。
指数移动平均线
你可能已经在互联网上看到一些文章,使用非常复杂的模型,并预测了几乎准确的股票市场行为。但是请注意! 这些只是视觉上的错觉,并不是由于学到了有用的东西。你将在下面看到如何用一个简单的平均法来复制这种行为。
在指数移动平均法中,你计算xt+1为。
其中 和 是在一段时间内保持的指数移动平均数值。.
上述公式基本上是计算t+1时间步长的指数移动平均线,并将其作为超前一步的预测。γ决定最近的预测对EMA的贡献是什么。例如,γ=0.1只能得到当前值的10%进入EMA。因为你只取最近的一小部分,它允许保留你在平均数中很早看到的更早的值。请看下面用于预测向前一步的情况。
for idx in range(1,N):
mean = mean*dec + (1.0-de)*train[idx-1]
pred.append(mean)
MSE: 0.00003
plt.plot(mid_data)
plt.plot(pred)
如果指数式移动平均数这么好,为什么还需要更好的模型?
拟合结果很好,遵循真实的分布(并且由非常低的MSE证明)。实际上,仅凭第二天的股票市场价格是没有意义的。就我个人而言,我想要的不是第二天的确切股市价格,而是未来30天的股市价格是上涨还是下跌。尝试这样做,你会发现EMA方法的缺陷。
现在尝试在窗口中进行预测(比如你预测未来2天的窗口,而不是仅仅预测未来一天)。然后你会意识到EMA会有多大的误差。下面是一个例子。
预测超过一步的未来股价
我们假设数值,比如xt=0.4,EMA=0.5,γ=0.5
- 假设你得到的输出有以下公式
所以你有
所以
所以下一个预测Xt+2变成了
这就是
或者在这个例子中,
所以,无论你对未来进行多少步预测,你都会在所有未来的预测步中不断得到相同的答案。
你有一个解决方案,可以输出有用的信息,就是看看基于动量的算法。它们根据过去最近的数值是上升还是下降(不是准确的数值)进行预测。例如,它们会说第二天的价格可能会降低,如果过去几天的价格一直在下降,这听起来很合理。然而,我们使用一个更复杂的模型:LSTM模型。
这些模型已经在时间序列预测领域非常热门,因为它们在时间序列数据的建模方面非常出色。你将看到数据中是否真的隐藏有你可以利用的模式。
LSTM简介:对股票走势进行远期预测
长短期记忆模型是极其强大的时间序列模型。它们可以预测未来任意步。LSTM模块(或单元)有5个基本组成部分,使其能够对长期和短期数据进行建模。
- 单元状态(ct)--这代表了单元的内部记忆,它同时存储了短期记忆和长期记忆
- 隐藏状态(ht)--这是根据当前输入、以前的_隐藏状态_和当前的单元输入计算出来的输出状态信息,你最终会用它来预测未来的股市价格。此外,隐藏状态可以决定只检索存储在单元状态中的短期或长期或两种类型的记忆来进行下一次预测。
- 输入门(it)--决定当前输入的信息有多少流向单元状态
- 遗忘门(ft)--决定有多少来自当前输入和前一个单元状态的信息流入当前单元状态
- 输出门(ot)--决定多少信息从当前单元状态流入隐藏状态,因此,如果需要,LSTM可以只挑选长期记忆或短期记忆和长期记忆。
TensorFlow为实现时间序列模型提供了一个不错的API(称为RNN API)。
数据生成器
你首先要实现一个数据生成器来训练你的模型。这个数据生成器将有一个名为.unroll_batches(...)的方法,它将输出一组依次获得的num_unrollings批次的输入数据,其中一个批次的数据大小为[batch_size, 1]。那么每一批输入数据都会有一个相应的输出数据批。
例如,如果num_unrollings=3,batch_size=4,一组unrolled批次。
- 输入数据
- 输出数据:
数据增强(Data Augmentation)
数据增强(Data Augmentation)又称为数据增广。另外,为了使你的模型稳健,你不会让x_t的输出总是x_t+1。相反,你将从x_t+1,x_t+2,...,xt+N的集合中随机抽取一个输出,其中N是一个小窗口大小。
这里你要做以下假设:
- x_t+1,x_t+2,...,xt+N不会彼此相距很远。
我个人认为这对股票走势预测来说是一个合理的假设。
下面你直观地说明一批数据是如何产生的。
定义超参数
在本节中,你将定义几个超参数。D是输入的维度。这很简单,因为你把之前的股票价格作为输入,并预测下一个股票价格,这应该是1。
然后你有num_unrollings,这是一个与用于优化LSTM模型的通过时间的反向传播(BPTT)有关的超参数。这表示你在一个优化步骤中考虑多少个连续的时间步骤。可以认为,不是通过查看单个时间步骤来优化模型,而是通过查看num_unrollings时间步骤来优化网络。越大越好。
然后,你有batch_size。批量大小是指在一个时间步长中考虑多少个数据样本。
接下来你定义num_nodes,它代表每个单元中隐藏神经元的数量。你可以看到,在这个例子中,有三层LSTMs。
D = 1 # 数据的维度。因为你的数据是一维的,所以是1
unrollings = 50 # 未来的时间步数。
batch_size = 500 # 一个批次中的样本数
num_nodes = [200,200,150] # 我们所使用的深层LSTM堆栈中每一层的隐藏节点数量
n_layers = len(num_nodes) # 层的数量
dropout = 0.2 # 丢弃量
定义输入和输出
接下来你要为训练输入和标签定义占位符。你有一个输入占位符的列表,其中每个占位符都包含一个批次的数据。而列表中有num_unrollings占位符,这些占位符将被一次性用于一个优化步骤。
#输入数据
train_inputs, train_outputs = [],[]
定义LSTM和回归层的参数
你将有三层LSTM和一个线性回归层,用w和b表示,它采取最后一个长短期记忆单元的输出,并输出下一个时间步骤的预测。此外,你可以让dropout实现LSTM单元,因为它们可以提高性能,减少过拟合。
计算LSTM输出并将其传递到回归层以获得最终预测结果
在这一节中,你首先创建TensorFlow变量(c和h),这些变量将保持长短时记忆单元的状态和隐藏状态。然后,你将训练输入的列表转换为[unrollings, batch_size, D]的形状。然后用ynamic_rnn函数计算LSTM输出,并将输出分割成num张量列表。
# 创建单元格状态和隐藏状态变量保持LSTM的状态
for li in range(n):
c.append(tf.Variable(tf.zeros([batch_size, num_nodes[li]])))
h.append(tf.Variable(tf.zeros([batch_size, num_nodes[li]])))
# 做几次张量转换,因为函数dynamic_rnn要求输出必须是一种特定的格式。
损失计算和优化器
现在,要计算损失。对于每一批预测和真实输出,都要计算出平均平方误差。而你把所有这些均方差损失加在一起(不是平均)。最后,定义你要使用的优化器来优化神经网络。在这种情况下,你可以使用Adam,它是一个非常新的、表现良好的优化器。
# 在计算损失时,你需要注意准确的形式,因为你计算的是所有未滚动的步的损失
# 因此,取每个批的平均误差,并得到所有未滚动步的总和
range(n)]):
for ui in range(nums):
loss += tf.mean(0.5*(splits[ui]-train[ui])**2)
预测相关的计算
在这里,你定义了预测相关的TensorFlow操作。首先,定义一个用于输入的占位符(sample_inputs),然后与训练阶段类似,你定义预测的状态变量(sample_c和sample_h)。最后,你用dynamic_rnn函数计算预测结果,然后通过回归层(w和b)发送输出。你还应该定义reset_sample_state操作,它可以重置单元状态和隐藏状态。
# 为预测阶段保持LSTM状态
for li in range(n_layers):
sample_c.append(tf.Variable(tf.zeros([1, num_nodes[li]]))
sample_h.append(tf.Variable(tf.zeros([1, num_nodes[li]])))
运行LSTM
在这里,你将训练并预测几个历时的股票价格走势,并观察预测结果是否随着时间的推移而变得更好或更差。
- 在时间序列上定义一个测试起点集(test_points_seq)来评估模型。
- 对于每个训练轮数
- 对于训练数据的完整序列长度
- 通过迭代测试点之前的num_unrollings数据点来更新LSTM状态
- 连续进行n_predict_once步骤的预测,将之前的预测作为当前输入。
- 计算预测的n_predict_once点与这些时间戳的真实股票价格之间的MSE损失
- 展开一组num_unrollings的批次
- 用未滚动的批次训练神经网络
- 计算平均训练损失
- 对于测试集的每个起点
...
预测可视化
你可以看到MSE损失是如何随着训练量的增加而下降的。这是一个好兆头,表明模型正在学习一些有用的东西。你可以将网络的MSE损失与你做标准平均时得到的MSE损失(0.004)进行比较。你可以看到,LSTM比标准平均法做得更好。而且你知道,标准平均法(虽然不完美)合理地遵循了真实的股票价格变动。
best_epoch = 28 # 用得到最佳结果的epoch
# 绘制预测值随时间变化的情况
# 绘制低α值的旧预测和高α值的新预测
plt.plot(xval,yval)
# 预测你得到的最佳测试预测值
plt.plot(range(df.shap),mid_data)
plt.plot(xval,yval)
虽然不完美,但LSTM似乎能够在大多数时候正确预测股票价格行为。请注意,你所做的预测大致在0和1.0的范围内(也就是说,不是真实的股票价格)。这没关系,因为你预测的是股票价格的走势,而不是价格本身。
总结
在本教程中,首先介绍了你为什么需要为股票价格建模的动机。接着是解释数据。然后两种平均技术,它们允许你对未来一步进行预测。接下来你看到,当你需要预测超过一步的未来时,这些方法是无用的。此后,讨论了如何使用LSTM来进行未来多步的预测。最后,将结果可视化,看到模型(虽然不完美)在正确预测股票价格走势方面相当出色。
在这里,我陈述一下本教程的几个收获。
-
股票价格/走势预测是一项极其困难的任务。我个人认为,不应该把任何一个股票预测模型视为理所当然,盲目地依赖它们。然而模型可能在大多数时候能够正确预测股票价格走势,但不总是如此。
-
不要被外面那些显示预测曲线与真实股票价格完全重合的文章所迷惑。这可以用一个简单的平均技术来复制,在实践中它是没有用的。更明智的做法是预测股票价格的变动。
-
该模型的超参数对你获得的结果非常敏感。因此,要做的一件非常好的事情是对超参数运行一些超参数优化技术(例如,网格搜索/随机搜索)。下面我列出了一些最关键的超参数
-
优化器的学习率
-
层数和每层的隐藏单元的数量
-
优化器。我发现Adam的表现最好
-
模型的类型。你可以尝试GRU/标准LSTM和评估性能差异。
关于分析师
Shuai Fung是拓端研究室(TRL) 的研究员。在此对他对本文所作的贡献表示诚挚感谢,他在香港大学完成了数据科学专业的硕士学位,专注机器学习、数据分析、时间序列预测、深度学习、数理金融。擅长R语言、Python、SQL。