会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
菜鸟小垃圾
博客园
首页
联系
订阅
管理
2019年4月2日
线性回归
摘要: 
阅读全文
posted @ 2019-04-02 11:26 菜鸟小垃圾
阅读(110)
评论(0)
推荐(0)
2019年3月3日
无监督学习和半监督学习
摘要: 无监督学习 聚类 降维 生成模型 包括自编码和生成式对抗网络(GAN).只需输入大量无标签的图像,模型就能自动生成类似的图像。 推荐 半监督学习 只有部分样本带有标签,然后希望给所有样本和未来的样本找到标签
阅读全文
posted @ 2019-03-03 12:52 菜鸟小垃圾
阅读(328)
评论(0)
推荐(0)
标签(tagging)问题、排序(ranking)问题、序列变换(Seq2Seq)问题
摘要: 标签问题 一个样本可以有多个标签,所有类别的概率相加可大于1 排序问题 与回归相似,先回归到分数,然后输出分数排序的结果。与回归的区别,不关注具体的分数,只关注最终的排序结果。 Seq2Seq 讲一段序列转换为另一段序列,如翻译、语音识别、聊天机器人,往往使用RNN,特别是LSTM
阅读全文
posted @ 2019-03-03 12:46 菜鸟小垃圾
阅读(520)
评论(0)
推荐(0)
2019年3月2日
输出最大值MXNet实现
摘要: 网络结构,输入为2个数,先经过10个节点的全连接层,再经过10个节点的ReLu,再经过10个节点的全连接层,再经过1个节点的全连接层,最后输出。 coding:utf 8 import logging import math import random import mxnet as mx 导入 M
阅读全文
posted @ 2019-03-02 11:50 菜鸟小垃圾
阅读(707)
评论(0)
推荐(0)
几何观点理解神经网络
摘要: 将分界复杂的曲线通过神经网络隐藏层的变换,转换成分界简单的。类似于SVM的核方法。
阅读全文
posted @ 2019-03-02 11:37 菜鸟小垃圾
阅读(265)
评论(0)
推荐(0)
梯度消失和梯度爆炸(待改进)
摘要: 梯度消失 在反向传播过程中,中间层梯度在传播过程中的绝对值越来越小,使得训练的网络停滞不前。 例如用sigmoid或者tanh非线性,在输入的绝对值很大的时候,会出现“饱和”,即导数趋近于0,造成梯度消失。 ReLu非线性可避免这个情况,因为ReLu不会出现饱和,在激活后导数恒定为1。但在输入为负数
阅读全文
posted @ 2019-03-02 11:31 菜鸟小垃圾
阅读(555)
评论(0)
推荐(0)
2019年3月1日
非线性激活
摘要: 1.非线性激活的重要性 如果神经元的输出是输入的线性函数,而线性函数之间的嵌套任然会得到线性函数。如果不加如飞西安新处理,那么最终得到的仍然是线性函数。 2.常用的非线性激活函数 ReLu的优点 运算非常简单快速 由于当输入大于0时,导数永远是1,可以避免梯度消失 当输入大于零时才有非零输出,而输入
阅读全文
posted @ 2019-03-01 23:11 菜鸟小垃圾
阅读(682)
评论(0)
推荐(0)
epoch
摘要: 每学一遍数据集,就称为一个epoch,要在每个epoch都要打乱数据的顺序。
阅读全文
posted @ 2019-03-01 22:47 菜鸟小垃圾
阅读(682)
评论(0)
推荐(0)
应用
摘要: 超分辨率 小图变清晰大图 EXPCN网络,SRResNet网络,SRGAN网络 用户评论情感分析 基于LSTM网络, "https://blog.openai.com/unsupervised sentiment neuron/" 图像+问题=答案 Relation Network架构, "http
阅读全文
posted @ 2019-03-01 22:46 菜鸟小垃圾
阅读(181)
评论(0)
推荐(0)
2019年2月26日
基础1
摘要: 1.输入和输出 name = input('please enter your name: ') print('hello,', name) 2 数据类型 2.1 整数 可以处理任意大小的整数 2.2 浮点数 1.23 1.23e9 1.2e 5 2.3 字符串 用'或"括起来 如果字符串内出现'或
阅读全文
posted @ 2019-02-26 19:08 菜鸟小垃圾
阅读(182)
评论(0)
推荐(0)
下一页
公告