随笔分类 -  Tesorflow

深度学习
摘要:实验01 波士顿房价预测 实现代码: from sklearn.linear_model import LinearRegression, SGDRegressor, Ridge, LogisticRegression from sklearn.datasets import load_boston 阅读全文
posted @ 2021-03-14 19:46 不懂就要问! 阅读(1320) 评论(0) 推荐(0)
摘要:鉴于单向循环神经网络某些情况下的不足,提出了双向循环神经网络。因为是需要能关联未来的数据,而单向循环神经网络属于关联历史数据,所以对于未来数据提出反向循环神经网络,两个方向的网络结合到一起就能关联历史与未来了。 双向循环神经网络按时刻展开的结构如下,可以看到向前和向后层共同连接着输出层,其中包含了6 阅读全文
posted @ 2021-01-19 19:21 不懂就要问! 阅读(230) 评论(0) 推荐(0)
摘要:实验原理: RNN的网络结构及原理 RNNs包含输入单元(Input units),输入集标记为{x0,x1,...,xt,xt+1,...},而输出单元(Output units)的输出集则被标记为{y0,y1,...,yt,yt+1.,..}。RNNs还包含隐藏单元(Hidden units), 阅读全文
posted @ 2021-01-18 22:10 不懂就要问! 阅读(78) 评论(0) 推荐(0)
摘要:实验原理: 多层感知机是由感知机推广而来,感知机学习算法(PLA: Perceptron Learning Algorithm)用神经元的结构进行描述的话就是一个单独的。 感知机(PLA)的神经网络表示如下: 从上述内容更可以看出,PLA是一个线性的二分类器,但不能对非线性的数据进行有效的分类。因此 阅读全文
posted @ 2021-01-17 23:16 不懂就要问! 阅读(243) 评论(0) 推荐(0)
摘要:实验原理: knn的基本原理: KNN是通过计算不同特征值之间的距离进行分类。 整体的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。K通常是不大于20的整数。KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在分类决策 阅读全文
posted @ 2021-01-16 22:48 不懂就要问! 阅读(56) 评论(0) 推荐(0)
摘要:实验原理: 逻辑回归可以看作只有一层网络的前向神经网络,并且参数连接的权重只是一个值,而非矩阵。公式为:y_predict=logistic(X*W+b),其中X为输入,W为输入与隐含层之间的权重,b为隐含层神经元的偏置,而logistic为激活函数,一般为sigmoid或者tanh,y_predi 阅读全文
posted @ 2021-01-15 09:42 不懂就要问! 阅读(97) 评论(0) 推荐(0)
摘要:实验原理: 线性回归是用来度量变量间关系的统计技术。该算法的实现并不复杂,但可以适用于很多情形。正是因为这些原因,以线性回归作为开始学习TensorFlow的开始。 不管在两个变量(简单回归)或多个变量(多元回归)情形下,线性回归都是对一个依赖变量,多个独立变量xi,一个随机值b间的关系建模。利用T 阅读全文
posted @ 2021-01-14 10:45 不懂就要问! 阅读(75) 评论(0) 推荐(0)
摘要:运行代码 1. import tensorflow as tf tf.compat.v1.disable_eager_execution() #保证sess.run()能够正常运行 import os os.environ["CUDA_VISIBLE_DEVICES"]="0" a=tf.const 阅读全文
posted @ 2021-01-13 19:45 不懂就要问! 阅读(240) 评论(0) 推荐(0)