02 2020 档案

Recurrent neural network(RNN) 循环神经网络 (上)
摘要:应用举例 我们假设订票系统听到用户说:“ I would like to arrive Taipei on November 2nd”,你的系统有一些slot(有一个slot叫做Destination,一个slot叫做time of arrival),系统要自动知道这边的每一个词汇是属于哪一个slo 阅读全文

posted @ 2020-02-29 22:05 cltt 阅读(311) 评论(0) 推荐(0) 编辑

Explainable ML
摘要:定义: 不仅可以(分类),还要输出分类的理由是什么(局部),以及某一个分类的判断标准(全局) 局部: silence map. 把{x1.....xn}中每一个像素加一个偏移量之后,得到的y偏移量与x偏移相除,类似于微分的结果,表示成一张图片。可以看到图片上对与判断结果来说重要的部分。 全局: 对某 阅读全文

posted @ 2020-02-28 15:36 cltt 阅读(275) 评论(0) 推荐(0) 编辑

Fizz Buzz in tensorflow
摘要:code from keras.layers.normalization import BatchNormalization from keras.models import Sequential from keras.layers.core import Dense,Dropout,Activat 阅读全文

posted @ 2020-02-28 14:48 cltt 阅读(209) 评论(0) 推荐(0) 编辑

Tips for traing DNN (Adam,正则化,Dropout)
摘要:1。 一般的机器学习方法不会在train好的模型上检查training data的结果,因为DNN在training data上都没有办法获得很好的正确率, 所以要先回头看一下要对模型做什么修改,才能使得在training set上取得比较好的正确率。 2。 在training set获得好的结果, 阅读全文

posted @ 2020-02-28 13:22 cltt 阅读(549) 评论(0) 推荐(0) 编辑

深度学习 高数知识
摘要:函数连续的充要条件 函数f(x)在x0连续,当且仅当f(x)满足以下三个条件:1)f(x)在x0及其左右近旁有定义2)f(x)在x0的极限存在3)f(x)在x0的极限值与函数值f(x0)相等 高数函数可导充分必要条件 ①左右导数存在且相等是可导的充分必要条件。 ②可导必定连续。 ③连续不一定可导 阅读全文

posted @ 2020-02-27 18:44 cltt 阅读(416) 评论(0) 推荐(0) 编辑

Attack ML Models
摘要:Attack Training的Loss:固定x,修改θ,使y0接近ytrue. Non-targeted Attack的Loss:固定θ,修改x,使y‘远离ytrue. Targeted Attack的Loss:固定θ,修改x,使y‘远离ytrue且接近yfalse. 4个pixel,(RGB每个 阅读全文

posted @ 2020-02-26 10:53 cltt 阅读(268) 评论(0) 推荐(0) 编辑

win10 python3.7 Anaconda3 安装tensorflow+Keras
摘要:首先tensorflow 不支持python3.7,只能用tf1.9 也就是说:py3.7+ tf 1.9 +keras 2.2.0 才可以 https://docs.floydhub.com/guides/environments/这个链接可以查询不同版本应该下载那个 到Tensorflow支持P 阅读全文

posted @ 2020-02-25 14:10 cltt 阅读(2439) 评论(0) 推荐(0) 编辑

Keras
摘要:分3步进行 Mini_batch 为什么要Mini_batch 166s 放到size=10,其实相当于10 epoch(也就是说也会50000updates) batch_size大的时候,用了平行运算(算10个examples 时间和1 example时间差不多)所以更快但是不能设置的太大,会卡 阅读全文

posted @ 2020-02-23 19:24 cltt 阅读(463) 评论(0) 推荐(0) 编辑

Convolutional neural network (卷积神经网络)
摘要:我们都知道CNN常常被用在影像处理上,当然也可以用一般的neural network来做影像处理,不一定要用CNN。比如说你想要做影像的分类, 那么你就是training一个neural network,input一张图片,那么你就把这张图片表示成里面的pixel,也就是很长很长的vector。ou 阅读全文

posted @ 2020-02-22 19:26 cltt 阅读(973) 评论(0) 推荐(0) 编辑

Anomaly Detection
摘要:这里我要强调一下什么叫做异常,机器到底要看到什么就是Anormaly。其实是取决你提供给机器什么样的训练数据 应用 1.若你有一个classifier,你希望这个classifier具有:看到不知道的数据会标上这是未知物的能力,这算是异常侦测的其中一种,又叫做Open-set Recognition 阅读全文

posted @ 2020-02-21 12:33 cltt 阅读(459) 评论(0) 推荐(0) 编辑

Backpropagation
摘要:链式法则 反向传播 计算偏导数 举个例子 case1 求出C对y1,y2的偏微分 就可以了 阅读全文

posted @ 2020-02-19 20:37 cltt 阅读(114) 评论(0) 推荐(0) 编辑

a brief introduction of deep learning
摘要:three steps for deep learning Step1:神经网络(Neural network) Step2:模型评估(Goodness of function) Step3:选择最优函数(Pick best function) neural network 手动连接神经元 如: 1 阅读全文

posted @ 2020-02-19 19:30 cltt 阅读(190) 评论(0) 推荐(0) 编辑

李宏毅深度学习第二次作业 Logistic regression 预测年薪超过50W
摘要:1 import pandas as pd 2 import numpy as np 3 ''' 4 整体和PM2.5差不多 5 参考博客:https://www.cnblogs.com/HL-space/p/10785225.html 6 https://www.cnblogs.com/tingt 阅读全文

posted @ 2020-02-18 18:46 cltt 阅读(542) 评论(0) 推荐(0) 编辑

logistic Regression
摘要:进行数学推导 逻辑回顾与线性回顾的差异 为什么logistic Regression 不能用square error Discriminative vs Generative 逻辑回归的方法称为Discriminative(判别) 方法;上一篇中用高斯来描述后验概率,称为 Generative(生成 阅读全文

posted @ 2020-02-17 18:18 cltt 阅读(159) 评论(0) 推荐(0) 编辑

深度学习 概率知识
摘要:贝叶斯 高斯分布 交叉熵 根据香浓理论,熵是描述信息量的一种度量,如果某一事件发生的概率越小,也就是不确定性越大,那么熵就越大,或者说是信息量越大 我们要让交叉熵尽可能地小,模型预测效果越好 在计算CrossEntropyLosss时,真实的label(一个标量)被处理成onehot编码的形式。 交 阅读全文

posted @ 2020-02-17 11:57 cltt 阅读(202) 评论(0) 推荐(0) 编辑

classification
摘要:这样会认为class 1 ,class 2 接近,有某种关系但实际没有,那么multiple class 没有好的结果 理想的方法 下面计算各个概率 D:维度。下面的D=2 最大似然估计 每一个高斯分布都有可能产生这79个点 上面标明,结果不好。那么进行修改model 协方差矩阵与feature s 阅读全文

posted @ 2020-02-16 20:27 cltt 阅读(629) 评论(0) 推荐(0) 编辑

where does the error come from
摘要:偏差和方差 s1... s6应该都取平方 4种情况 因此simple model 对应的variance 小、 模型的复杂度对error 的影响变化图 处理高bias 只包含那些平滑的曲线,可能没包含target,导致影响bias .你刚开始用的test set存在bias ,然而真正的test s 阅读全文

posted @ 2020-02-15 18:29 cltt 阅读(136) 评论(0) 推荐(0) 编辑

机器学习常识
摘要: 阅读全文

posted @ 2020-02-15 13:34 cltt 阅读(96) 评论(0) 推荐(0) 编辑

梯度下降
摘要:调节学习率 微分大小意味着离最小值的距离 c点和a点c的微分较大,但是离最低点更近。 那么微分大小意味着离最小值的距离仅在不跨元素时才成立 考虑到二次微分 左边 :走的稳定右边: 步伐小,散乱。但快 feature scaling 特征缩放 w2的变化对y影响大w1的变化对y(loss)影响小,微分 阅读全文

posted @ 2020-02-14 22:15 cltt 阅读(140) 评论(0) 推荐(0) 编辑

torch 中各种图像格式转化
摘要:PIL:使用python自带图像处理库读取出来的图片格式 numpy:使用python-opencv库读取出来的图片格式 tensor:pytorch中训练时所采取的向量格式(当然也可以说图片) a = torch.randn(3,496,740) c = a.numpy() print('c',c 阅读全文

posted @ 2020-02-14 20:55 cltt 阅读(839) 评论(0) 推荐(0) 编辑

regression
摘要:这个模型不好,因为隐藏因素:物种 优化这个模型 不同物种的对应的error线也是不一样的,那么error会更小,fit的更好当然还和其他的因素有关:不同物种在进化时的情况不同(如红色线),其次有些值略高或略低于直线(产生进化后CP值时有加rand) 此时可以构造更复杂的模型,把想到的因素都考虑进去, 阅读全文

posted @ 2020-02-11 21:13 cltt 阅读(263) 评论(0) 推荐(0) 编辑

torch 的包应用
摘要:1.torchvision.transforms是pytorch中的图像预处理包一般用Compose把多个步骤整合到一起,比如说 transforms.Compose([transforms.CenterCrop(10), transforms.ToTensor(),]) 2.transforms中 阅读全文

posted @ 2020-02-10 18:47 cltt 阅读(1526) 评论(0) 推荐(0) 编辑

python 的库 (PIL(scatter),Numpy,scipy)
摘要:PIL from PIL import Imageimg = Image.open('./data/images/neural-style/picasso.jpg')#图片路径#img.show()#展示图片'''print(img)img.save("./data/images/neural-st 阅读全文

posted @ 2020-02-09 12:42 cltt 阅读(1102) 评论(0) 推荐(0) 编辑

在pytorch 官网下载VGG很慢甚至错误
摘要:解决办法 断开wifi,连接手机热点 额外补充 https://github.com/pytorch/vision/tree/master/torchvision/models 几乎所有的常用预训练模型都在这里面 总结下各种模型的下载地址: Resnet: model_urls = { 'resne 阅读全文

posted @ 2020-02-07 20:11 cltt 阅读(1107) 评论(0) 推荐(0) 编辑

pycharm 使用时遇到的问题
摘要:在输出信息时 import os os.environ["TF_CPP_MIN_LOG_LEVEL"]='1' # 这是默认的显示等级,显示所有信息 os.environ["TF_CPP_MIN_LOG_LEVEL"]='2' # 只显示 warning 和 Error os.environ["TF 阅读全文

posted @ 2020-02-06 15:37 cltt 阅读(186) 评论(0) 推荐(0) 编辑

下载github的文件
摘要:下载整个项目 如果整个项目下载很慢? 1.登录 https://gitee.com 2.新建仓库 . 3.导入已有仓库 4.输入对应github项目的url url如下: 点击创建即可 5.下载即可 下载某个文件夹 DownGit链接:https://www.itsvse.com/downgit/ 阅读全文

posted @ 2020-02-05 16:08 cltt 阅读(259) 评论(0) 推荐(0) 编辑

无法登录google
摘要:1.下载谷歌上网助手 https://d11.baidupcs.com/file/9f94e6e649ab477df01fd2687fd144fe?bkt=en-00f3aa810d089f20fb57e512280391847498892a121a324e1247f8e699525e1abc591 阅读全文

posted @ 2020-02-05 13:23 cltt 阅读(599) 评论(0) 推荐(0) 编辑

吴恩达 机器学习 总结
摘要: 阅读全文

posted @ 2020-02-02 14:50 cltt 阅读(109) 评论(0) 推荐(0) 编辑

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

导航

统计

点击右上角即可分享
微信分享提示