随笔分类 -  深度学习实战

摘要:1.情感分析语料预处理 使用酒店评论语料,正面评论和负面评论各5000条,用BERT参数这么大的模型, 训练会产生严重过拟合,,泛化能力差的情况, 这也是我们下面需要解决的问题; 2.sigmoid二分类 回顾在BERT的训练中Next Sentence Prediction中, 我们取出$[cls 阅读全文
posted @ 2019-11-27 21:48 nxf_rabbit75 阅读(2734) 评论(0) 推荐(0) 编辑
摘要:环境: python 3.5 tensorflow 1.12.1 bert-serving-server 1.9.1 bert-serving-cline 1.9.1 官网上说要保证Python >= 3.5 with Tensorflow >= 1.10 1.安装BERT服务端和客户端 pip i 阅读全文
posted @ 2019-11-27 10:30 nxf_rabbit75 阅读(9172) 评论(0) 推荐(0) 编辑
摘要:问题描述:样本为所有恐龙名字,为了构建字符级语言模型来生成新的名称,你的模型将学习不同的名称模式,并随机生成新的名字。 在这里你将学习到: 如何存储文本数据以便使用rnn进行处理。 如何合成数据,通过每次采样预测,并将其传递给下一个rnn单元。 如何构建字符级文本生成循环神经网络。 为什么梯度修剪很 阅读全文
posted @ 2018-11-12 11:35 nxf_rabbit75 阅读(844) 评论(0) 推荐(0) 编辑
只有注册用户登录后才能阅读该文。
posted @ 2018-11-12 10:23 nxf_rabbit75 阅读(39) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示