会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
RokoBasilisk
RokoBasilisk‘
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
下一页
2020年2月16日
从模型训练中认知拟合现象
摘要: 机器学习中模型训练是必需的,在模型训练中存在...
阅读全文
posted @ 2020-02-16 17:57 Roko&Basilisk
阅读(729)
评论(0)
推荐(0)
编辑
ModernRNN
摘要: 在循环神经网络的基础上进行了 RNN 的改进...
阅读全文
posted @ 2020-02-16 14:49 Roko&Basilisk
阅读(137)
评论(0)
推荐(0)
编辑
2020年2月14日
Fundamentals of Recurrent Neural Network
摘要: 基于循环神经网络实现语言模型。对于语言模型的...
阅读全文
posted @ 2020-02-14 13:51 Roko&Basilisk
阅读(157)
评论(0)
推荐(0)
编辑
Language Model & Data Sampling
摘要: 语言模型一段自然语言文本可以看作是一个离散时...
阅读全文
posted @ 2020-02-14 10:25 Roko&Basilisk
阅读(136)
评论(0)
推荐(0)
编辑
2020年2月13日
Text Preprocessing
摘要: 打开 Google, 输入搜索关键词,显示上百条搜索结果 打开 Google Translate, 输入待翻译文本,翻译结果框中显示出翻译结果 以上二者的共同点便是文本预处理 Pre-Processing 在 NLP 项目中,文本预处理占据了超过半数的时间,其重要性不言而喻。 当然 也可以利用完备且
阅读全文
posted @ 2020-02-13 16:25 Roko&Basilisk
阅读(190)
评论(0)
推荐(0)
编辑
2020年2月12日
Multilayer Perceptron & Classify image
摘要: MLP 以多层感知机为例,概述多层神经网络 隐藏层 此图为多层感知机的神经网络图,它含有一个隐藏层,该层中有5个隐藏单元。 表达公式 具体来说,给定一个小批量样本X∈Rn×d\boldsymbol{X} \in \mathbb{R}^{n \times d}X∈Rn×d,其批量大小为nnn,输入个数
阅读全文
posted @ 2020-02-12 23:43 Roko&Basilisk
阅读(172)
评论(0)
推荐(0)
编辑
Softmax & 分类模型
摘要: Softmax 与候选采样相对 Softmax function, a wonderful activation function that turns numbers aka logits into probabilities that sum to one. Softmax function o
阅读全文
posted @ 2020-02-12 21:40 Roko&Basilisk
阅读(102)
评论(0)
推荐(0)
编辑
2020年2月11日
Design and Realization of Linear Regression
摘要: 线性回归的基本要素 模型 y=w⋅x+b \mathrm{y} = w \cdot \mathrm{x} + b y=w⋅x+b 数据集 我们在收集到的数据中寻找合适的模型参数来使模型的预测价格与真实价格的误差最小。被训练的数据的集合称为训练数据集(training data set)或训练集(tr
阅读全文
posted @ 2020-02-11 22:14 Roko&Basilisk
阅读(150)
评论(0)
推荐(0)
编辑
2020年1月20日
缘起 linkedPurchaseToken,认知 "订阅"
摘要: Q: Do you use Google P...
阅读全文
posted @ 2020-01-20 16:07 Roko&Basilisk
阅读(291)
评论(0)
推荐(0)
编辑
2020年1月18日
对拼消耗【Boyer-Moore Majority Vote Algorithm】
摘要: 有幸博得一用,特引之为文对拼消耗 ~ 摩尔投...
阅读全文
posted @ 2020-01-18 17:38 Roko&Basilisk
阅读(141)
评论(0)
推荐(0)
编辑
上一页
1
2
3
4
5
下一页
公告