A quick overview of neural network of Andrew Ng

A quick overview of neural network of Andrew Ng

什么鬼这都无法显示
图1.简单的概览

[1],z[1]=W[1]x+b[1]a[1]=σ(z[1])[2],z[2]=W[2]a[1]+b[2]a[2]=σ(z[2])(y^=a[2])L(a[2],y)

什么鬼这都无法显示
图2.上面这幅图代表了很多东西,得花时间理解。

我们分析网络中的第一层第一个节点:

z1[1]=w1[1]Tx+b1[1]a1[1]=σ(z1[1])([[1]][1]1)

image-20220331134144229
类似地,我们分析其它节点,不难得出 z1[1]=w1[1]Tx+b1[1]a1[1]=σ(z1[1])z2[1]=w2[1]Tx+b2[1]a2[1]=σ(z1[1])z3[1]=w3[1]Tx+b3[1]a3[1]=σ(z1[1])z4[1]=w4[1]Tx+b4[1]a4[1]=σ(z1[1])(w1[1]T(w1[1])T) 由[这章的知识](https://www.cnblogs.com/Linkdom/p/16068238.html)我们知道了向量化所带来的方便之大;
什么鬼这都无法显示
图3.这个矩阵显然是4×3的矩阵

这样我们也容易理解图二中w下方的(4,3)所代表的意思了,即W是一个4×3的矩阵,同理b是一个4×1,所以下面标着(4,1)。

wi[1]3×1wi[1]()1×3()[w1[1]Tw2[1]Tw3[1]Tw4[1]T][x1x2x3]+[b1[1]b2[1]b3[1]b4[1]]=[w1[1]TX+b1[1]w2[1]TX+b2[1]w3[1]TX+b3[1]w4[1]TX+b4[1]]=[z1[1]z2[1]z3[1]z4[1]]=Z[1]

需要注意的是我们总习惯把变量定义为列向量(如果不加说明就默认是列向量),比如里面的X是一个3×1的向量,后面的Z是一个4×1的向量;

X=[x1x2x3]T

再得到a,

a[1]=[a1[1]a4[1]]=σ(z[1])

Sogiveninput:x(1)z[1](4,1)=W[1](4,3)x(3,1)+b[1](4,1)(2)a[1](4,1)=σ(z[1](4,1))(3)z[2](1,1)=W[2](1,4)a[1](4,1)+b[2](1,1)(4)a[2](1,1)=σ(z[2](1,1))

观察上面式子的底标我们可以发现里面的规律挺有意思的,另外x也可以被当成第零层的数据而写成:

x=a[0]

另外这里的W不同于我们上面的w,应该是这样

W[1]=w[1]TW[2]=w[2]T

回到我们最开始的

z=wTx+by^=a=σ(z)

我们实现the output of logistic regression同样只需要上面那四行代码即可,

至此我们完成了一个样本的output,下面我们学习多样本的向量化。
所用画图工具:🥀

posted @   Link_kingdom  阅读(31)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
点击右上角即可分享
微信分享提示