摘要: ![1553416234184](C:\Users\Administrator.SC-201808111641\AppData\Roaming\Typora\typora-user-images\1553416234184.png) 阅读全文
posted @ 2019-04-02 11:26 菜鸟小垃圾 阅读(100) 评论(0) 推荐(0) 编辑
摘要: 无监督学习 聚类 降维 生成模型 包括自编码和生成式对抗网络(GAN).只需输入大量无标签的图像,模型就能自动生成类似的图像。 推荐 半监督学习 只有部分样本带有标签,然后希望给所有样本和未来的样本找到标签 阅读全文
posted @ 2019-03-03 12:52 菜鸟小垃圾 阅读(322) 评论(0) 推荐(0) 编辑
摘要: 标签问题 一个样本可以有多个标签,所有类别的概率相加可大于1 排序问题 与回归相似,先回归到分数,然后输出分数排序的结果。与回归的区别,不关注具体的分数,只关注最终的排序结果。 Seq2Seq 讲一段序列转换为另一段序列,如翻译、语音识别、聊天机器人,往往使用RNN,特别是LSTM 阅读全文
posted @ 2019-03-03 12:46 菜鸟小垃圾 阅读(502) 评论(0) 推荐(0) 编辑
摘要: 网络结构,输入为2个数,先经过10个节点的全连接层,再经过10个节点的ReLu,再经过10个节点的全连接层,再经过1个节点的全连接层,最后输出。 coding:utf 8 import logging import math import random import mxnet as mx 导入 M 阅读全文
posted @ 2019-03-02 11:50 菜鸟小垃圾 阅读(696) 评论(0) 推荐(0) 编辑
摘要: 将分界复杂的曲线通过神经网络隐藏层的变换,转换成分界简单的。类似于SVM的核方法。 阅读全文
posted @ 2019-03-02 11:37 菜鸟小垃圾 阅读(258) 评论(0) 推荐(0) 编辑
摘要: 梯度消失 在反向传播过程中,中间层梯度在传播过程中的绝对值越来越小,使得训练的网络停滞不前。 例如用sigmoid或者tanh非线性,在输入的绝对值很大的时候,会出现“饱和”,即导数趋近于0,造成梯度消失。 ReLu非线性可避免这个情况,因为ReLu不会出现饱和,在激活后导数恒定为1。但在输入为负数 阅读全文
posted @ 2019-03-02 11:31 菜鸟小垃圾 阅读(517) 评论(0) 推荐(0) 编辑
摘要: 1.非线性激活的重要性 如果神经元的输出是输入的线性函数,而线性函数之间的嵌套任然会得到线性函数。如果不加如飞西安新处理,那么最终得到的仍然是线性函数。 2.常用的非线性激活函数 ReLu的优点 运算非常简单快速 由于当输入大于0时,导数永远是1,可以避免梯度消失 当输入大于零时才有非零输出,而输入 阅读全文
posted @ 2019-03-01 23:11 菜鸟小垃圾 阅读(655) 评论(0) 推荐(0) 编辑
摘要: 每学一遍数据集,就称为一个epoch,要在每个epoch都要打乱数据的顺序。 阅读全文
posted @ 2019-03-01 22:47 菜鸟小垃圾 阅读(670) 评论(0) 推荐(0) 编辑
摘要: 超分辨率 小图变清晰大图 EXPCN网络,SRResNet网络,SRGAN网络 用户评论情感分析 基于LSTM网络, "https://blog.openai.com/unsupervised sentiment neuron/" 图像+问题=答案 Relation Network架构, "http 阅读全文
posted @ 2019-03-01 22:46 菜鸟小垃圾 阅读(174) 评论(0) 推荐(0) 编辑
摘要: 1.输入和输出 name = input('please enter your name: ') print('hello,', name) 2 数据类型 2.1 整数 可以处理任意大小的整数 2.2 浮点数 1.23 1.23e9 1.2e 5 2.3 字符串 用'或"括起来 如果字符串内出现'或 阅读全文
posted @ 2019-02-26 19:08 菜鸟小垃圾 阅读(177) 评论(0) 推荐(0) 编辑