title: 【线性代数】4-4:正交基和Gram算法(Orthogonal Bases and Gram-Schmidt)
categories:
- Mathematic
- Linear Algebra
keywords: - Orthogonal Matrix Q
- Gram-Schmidt Algorithm
- QR
toc: true
date: 2017-10-19 16:28:54
Abstract: 通过将正交的向量组合成矩阵探索其中的一些有趣的性质和用途
Keywords: Orthogonal Matrix Q,Gram-Schmidt Algorithm,QR
开篇废话
刚才去了趟医院,回来的路上看到了Alpha zero的项目的一些说明,从科研或者工程角度,我们必须对这个结果进行高度的肯定,肯定什么?首先是训练时间,足够短,对于原始的神经网络一训练就是一个月半年的情况已经得到了极大的优化,第二就是训练效果,能够提高那么多也说明无论是算法结构上来说,或者训练方法上一定有很大的改进(我没看论文,只看了一些报道,这里面强化学习得到了更多的关注);这些对于业内人士都是好消息,第一我们可以用更少的计算资源来解决更大的问题,并且更加准确。
依靠神经网络来实现人工智能,可行与否现在其实还不好说,因为我们现在只是开发出了神经网络的一些比较厉害的结果,但是对智能是否能够起到准确的模仿和实现还有待开发,连发明者们都在怀疑。观众们却被媒体忽悠的热血沸腾,到行业来做应用和研发是不明智的,一天一旦这个东西被论证为不可以的话,那岂不是又要改行,就像当年那些心怀理想加入传呼机维修,塞班应用开发的人一样,他们现在都在干什么?🐶
废话有点多了,多说无益,鲁迅先生天天写文章,想要拯救人的灵魂,如今不还是如此么?
Orthogonal Matrix Q
如果我们有几个相互正交的向量,并且长度为1,把他们按列组合在一起,形成一个矩阵Q。这个矩阵就是一个正交矩阵(Orthogonal Matrix)。
这个矩阵拥有的第一个性质就是
其转置和自己的乘积是单位矩阵,为什么?我们把Q展开看,如果你瞬间就明白为什么了,就跳过下面这一小段:
证毕,如果不太明白读一下前提, 相互正交,其dot product是0,并且其长度都是1,所以自己和自己的dot product是1。
本文为节选,完整内容地址:https://www.face2ai.com/Math-Linear-Algebra-Chapter-4-4转载请标明出处