随笔分类 -  深度学习&机器学习&机器学习 / 深度学习-TensorFlow

摘要:# Tokenizer Tokenizer可以将文本进行向量化: 将每个文本转化为一个整数序列(每个整数都是词典中标记的索引); 或者将其转化为一个向量,其中每个标记的系数可以是二进制值、词频、TF-IDF权重等 ``` keras.preprocessing.text.Tokenizer(num_ 阅读全文
posted @ 2023-09-07 20:14 lipu123 编辑
摘要:# 1 数据介绍 ![image](https://img2023.cnblogs.com/blog/1914163/202307/1914163-20230708104521132-1965248378.png) 首先看看这个数据,是从2005年到2008年的每一个小时的电力消耗值。 # 2 实现 阅读全文
posted @ 2023-07-12 14:26 lipu123 阅读(382) 评论(1) 推荐(0) 编辑
摘要:# 1.手写数字识别 ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-20230628194604981-1293007551.png) ![image](https://img2023.cnblogs.com/blo 阅读全文
posted @ 2023-06-28 21:45 lipu123 阅读(84) 评论(0) 推荐(0) 编辑
摘要:# LSTM的产生 我们之前在求RNN的loss的时候很容易出现梯度弥散或者梯度爆炸。这个LSTM的出现很大程度上减少了梯度弥散的情况。 ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-2023062520565564 阅读全文
posted @ 2023-06-26 23:48 lipu123 阅读(87) 评论(0) 推荐(0) 编辑
摘要:RNN并没有我们想象中的那么完美,虽然它的参数会比卷积神经网络少,但是它长时间的Training可能会出现Training非常困难的情况。 ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-202306252228097 阅读全文
posted @ 2023-06-25 22:59 lipu123 阅读(35) 评论(0) 推荐(0) 编辑
摘要:这个就是好评和差评的一个分类。 这个输入一般h0全为0. ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-20230625100457366-459604194.png) 要想实现这个结构有两种方案: Simpl 阅读全文
posted @ 2023-06-25 20:45 lipu123 阅读(99) 评论(0) 推荐(0) 编辑
摘要:# 循环神经网络 Sentiment Analysis(情感分析) ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-20230625094505280-973392251.png) 类似于淘宝的好评还是差评,我们比较直 阅读全文
posted @ 2023-06-25 12:59 lipu123 阅读(27) 评论(0) 推荐(0) 编辑
摘要:在自然界中除了位置相关的信息(图片)以外,还用一种存在非常广泛的类型,就是时间轴上的数据,比如说序列信号,语音信号,聊天文字。就是有先后顺序。 对于下面这个: 不如说我们输入有10个句子,每个句子都有4个单词,然后我们怎么把这些句子转化为具体的数值呢。如果一个表示方法能够很好的表示这个单词的特性的话 阅读全文
posted @ 2023-06-25 09:38 lipu123 阅读(30) 评论(0) 推荐(0) 编辑
摘要:# 1 ResNet ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-20230624153508624-1927891219.png) 我们是实验发现在我们堆叠更多的网络结构的时候,我们并不能又一个很好的结果,就是它 阅读全文
posted @ 2023-06-24 23:18 lipu123 阅读(91) 评论(0) 推荐(0) 编辑
摘要:我们发现这个sigmoid函数在小于-4或者大于4的时候他的导数趋近于0。然后我们送进去的input的值在[-100,100]之间,这样很容易引起梯度弥散的现象。所以我们一般情况下使用ReLU函数,但是我们有时候又不得不使用sigmoid函数。这个时候我们在送到下一层的时候我们应该先经过Normal 阅读全文
posted @ 2023-06-24 15:25 lipu123 阅读(52) 评论(0) 推荐(0) 编辑
摘要:![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-20230624091330618-1575295245.png) # LeNet-5 ![image](https://img2023.cnblogs.com/blog 阅读全文
posted @ 2023-06-24 10:54 lipu123 阅读(23) 评论(0) 推荐(0) 编辑
摘要:![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-20230623224947072-1200603742.png) ▪ Load datasets ▪ Build Network ▪ Train ▪ Test ![im 阅读全文
posted @ 2023-06-24 09:09 lipu123 阅读(57) 评论(0) 推荐(0) 编辑
摘要:▪ Pooling ▪ upsample ▪ ReLU 我们看一下这个Subsampling层就是这个:这一层起到Reduce Dim的作用。 ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-2023062322121 阅读全文
posted @ 2023-06-23 22:33 lipu123 阅读(103) 评论(0) 推荐(0) 编辑
摘要:# 1 卷积神经网络的引入 这个主要是应对2D的图片处理产生的。 灰色的图片的表示:[b,h,w,1] ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-20230621094420677-934100077.png) 阅读全文
posted @ 2023-06-20 17:06 lipu123 阅读(38) 评论(0) 推荐(0) 编辑
摘要:Tricks ▪ Early Stopping ▪ Dropout ▪ Stochastic Gradient Descent # 1 Early stopping 我们走到最大指的时候我们可以提交stop掉,防止它overfitting。 ![image](https://img2023.cnbl 阅读全文
posted @ 2023-06-20 17:04 lipu123 阅读(52) 评论(0) 推荐(0) 编辑
摘要:▪ momentum(动量,惯性) ▪ learning rate decay # 1 momentum ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-20230620160400056-8750057.png) 分 阅读全文
posted @ 2023-06-20 16:21 lipu123 阅读(43) 评论(0) 推荐(0) 编辑
摘要:# 1 过拟合和欠拟合 线性模型 ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-20230620132749513-1737244344.png) 非线性模型 ![image](https://img2023.cnb 阅读全文
posted @ 2023-06-20 16:00 lipu123 阅读(123) 评论(0) 推荐(0) 编辑
摘要:# 1 数据集: ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-20230619215119680-946357436.png) 这个照片很模糊,大小只有[32,32],所以我们预测的结果也不是很好。 # 2 自定义 阅读全文
posted @ 2023-06-20 12:26 lipu123 阅读(13) 评论(0) 推荐(0) 编辑
摘要:一般情况下有三种方式: ▪ save/load weights(只保存网络的参数,状态不管) ▪ save/load entire model(把所有的状态都保存) ▪ saved_model(交给工厂的时候可以用,可以跨语言) # 1 save/load weights 比如说你的网络里面有[w1 阅读全文
posted @ 2023-06-19 21:31 lipu123 阅读(60) 评论(0) 推荐(0) 编辑
摘要:▪ keras.Sequential ▪ keras.layers.Layer ▪ keras.Model # 1 keras.Sequential ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-2023061900 阅读全文
posted @ 2023-06-19 20:35 lipu123 阅读(48) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示