上一页 1 2 3 4 5 6 7 8 9 10 ··· 46 下一页
摘要: ▪ MSE ▪ Cross Entropy Loss(针对分类问题) ▪ Hinge Loss ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-20230617164108526-1325568515.png) # 1 阅读全文
posted @ 2023-06-17 17:10 哎呦哎(iui) 阅读(90) 评论(0) 推荐(0) 编辑
摘要: 这里的输出方式有这几种: ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-20230617151543706-2043333171.png) # 1 𝑦∈𝑅^d ▪ linear regression(线性回归) 阅读全文
posted @ 2023-06-17 16:39 哎呦哎(iui) 阅读(14) 评论(0) 推荐(0) 编辑
摘要: ▪ Matmul ▪ Neural Network ▪ Deep Learning ▪ Multi-Layer # 1.Matmul - out=f(x@w+b) - out=relu(x@w+b) ![image](https://img2023.cnblogs.com/blog/1914163/ 阅读全文
posted @ 2023-06-17 15:08 哎呦哎(iui) 阅读(72) 评论(0) 推荐(0) 编辑
摘要: # 1 数据集加载 1.karas.datasets(数据加载) 2.tf.data.Dataset.from_tensor_slices(加载成tensor) - shuffle - map - batch - repeat # 2 tf.keras.datasets() ![image](htt 阅读全文
posted @ 2023-06-17 11:25 哎呦哎(iui) 阅读(36) 评论(0) 推荐(0) 编辑
摘要: # 1 合并和分割 ▪ tf.concat 拼接 ▪ tf.split 分割 ▪ tf.stack 堆叠 ▪ tf.unstack ## 1.1 concat(拼接) >tf.concat([a,b,....],axis=) 这个就是a,b按照第axis维进行合并,注意,比如说在第1维度进行合并的话 阅读全文
posted @ 2023-06-17 00:47 哎呦哎(iui) 阅读(33) 评论(0) 推荐(0) 编辑
摘要: 在前面已经学习了: What we have learned ▪ create tensor ▪ indexing and slices ▪ reshape and broadcasting ▪ math operations 现在用tensorFlow做一个前向传播的一个小实战: ![image] 阅读全文
posted @ 2023-06-16 16:26 哎呦哎(iui) 阅读(17) 评论(0) 推荐(0) 编辑
摘要: # 1 TesorFlow的数据结构 **list** :[1,1.2,'Hello',(1,2)] ,这个list里面什么都可以存储,但是如果存储一个图片[64,32,32,3]里面全是数字的话,大小会很大,所以引入np.array **np.array** :可以很方便的做一些同类型的数据的运算 阅读全文
posted @ 2023-06-15 22:25 哎呦哎(iui) 阅读(17) 评论(0) 推荐(0) 编辑
摘要: # step 0 数据的导入和加载 ``` (x, y), (x_val, y_val) = datasets.mnist.load_data() x = tf.convert_to_tensor(x, dtype=tf.float32) / 255. y = tf.convert_to_tenso 阅读全文
posted @ 2023-06-15 16:36 哎呦哎(iui) 阅读(9) 评论(0) 推荐(0) 编辑
摘要: # 1 数据集 ![image](https://img2023.cnblogs.com/blog/1914163/202306/1914163-20230614214043097-1402159402.png) 使用灰度图片处理,每一张图片大小都标准化为一个28行,28列,每一个像素点的灰度值是0 阅读全文
posted @ 2023-06-15 00:26 哎呦哎(iui) 阅读(35) 评论(0) 推荐(0) 编辑
摘要: # 1 线性回归 就是给你一堆数据`[[x0,y0],[x1,y1],[x2,y2] [xn,yn]]`然后得出一个y=wx+b来,这里我们引入损失函数loss=$\sum$(w*xi+b-yi)^2,然后我们就是最小化这个loss从而使得w'*x+b'->y ![image](https://im 阅读全文
posted @ 2023-06-14 21:34 哎呦哎(iui) 阅读(15) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 46 下一页