摘要: 机器学习中模型训练是必需的,在模型训练中存在... 阅读全文
posted @ 2020-02-16 17:57 Roko&Basilisk 阅读(729) 评论(0) 推荐(0) 编辑
摘要: 在循环神经网络的基础上进行了 RNN 的改进... 阅读全文
posted @ 2020-02-16 14:49 Roko&Basilisk 阅读(137) 评论(0) 推荐(0) 编辑
摘要: 基于循环神经网络实现语言模型。对于语言模型的... 阅读全文
posted @ 2020-02-14 13:51 Roko&Basilisk 阅读(157) 评论(0) 推荐(0) 编辑
摘要: 语言模型一段自然语言文本可以看作是一个离散时... 阅读全文
posted @ 2020-02-14 10:25 Roko&Basilisk 阅读(136) 评论(0) 推荐(0) 编辑
摘要: 打开 Google, 输入搜索关键词,显示上百条搜索结果 打开 Google Translate, 输入待翻译文本,翻译结果框中显示出翻译结果 以上二者的共同点便是文本预处理 Pre-Processing 在 NLP 项目中,文本预处理占据了超过半数的时间,其重要性不言而喻。 当然 也可以利用完备且 阅读全文
posted @ 2020-02-13 16:25 Roko&Basilisk 阅读(190) 评论(0) 推荐(0) 编辑
摘要: MLP 以多层感知机为例,概述多层神经网络 隐藏层 此图为多层感知机的神经网络图,它含有一个隐藏层,该层中有5个隐藏单元。 表达公式 具体来说,给定一个小批量样本X∈Rn×d\boldsymbol{X} \in \mathbb{R}^{n \times d}X∈Rn×d,其批量大小为nnn,输入个数 阅读全文
posted @ 2020-02-12 23:43 Roko&Basilisk 阅读(172) 评论(0) 推荐(0) 编辑
摘要: Softmax 与候选采样相对 Softmax function, a wonderful activation function that turns numbers aka logits into probabilities that sum to one. Softmax function o 阅读全文
posted @ 2020-02-12 21:40 Roko&Basilisk 阅读(102) 评论(0) 推荐(0) 编辑
摘要: 线性回归的基本要素 模型 y=w⋅x+b \mathrm{y} = w \cdot \mathrm{x} + b y=w⋅x+b 数据集 我们在收集到的数据中寻找合适的模型参数来使模型的预测价格与真实价格的误差最小。被训练的数据的集合称为训练数据集(training data set)或训练集(tr 阅读全文
posted @ 2020-02-11 22:14 Roko&Basilisk 阅读(150) 评论(0) 推荐(0) 编辑
摘要: Q: Do you use Google P... 阅读全文
posted @ 2020-01-20 16:07 Roko&Basilisk 阅读(291) 评论(0) 推荐(0) 编辑
摘要: 有幸博得一用,特引之为文对拼消耗 ~ 摩尔投... 阅读全文
posted @ 2020-01-18 17:38 Roko&Basilisk 阅读(141) 评论(0) 推荐(0) 编辑