本文始发于个人公众号:TechFlow,原创不易,求个关注
上一篇文章我们复习了函数求导的定义和一些常见函数的导数,今天这篇文章我们回顾一下复杂函数的求导方法。先强调一下,今天的文章很重要,想要看懂机器学习各种公式推导,想要能够自己推一推各种公式,函数求导是基础中的基础,在算法这个领域,它比积分要重要得多。
我们先来看第一种情况:多个函数进行四则运算的导数。
函数四则运算求导法则
我们假设\(u=u(x)\)和\(v=v(x)\)都在x点有导数,那么它们进行加减乘除四则运算之后的结果的导数有如下性质:
\[\begin{aligned}
\left[u(x) \pm v(x)\right]'&= u'(x) \pm v'(x) \\
\left[u(x)v(x)\right]' &= u'(x)v(x) + u(x)v'(x) \\
\left[\frac{u(x)}{v(x)}\right] &= \frac{u'(x)v(x)-u(x)v'(x)}{v^2(x)} (v(x) \neq 0)
\end{aligned}
\]
我们来看一下证明过程,熟悉证明过程并不是炫技,除了能加深对公式的理解之外,更重要的是防止遗忘。即使以后真的不记得公式的细节了,也可以临时推导一下,这是学算法和数学很重要的技巧。
我们先来看第一个,第一个很容易证明,我们直接套一下导数的公式即可:
\[\begin{aligned}
\left[u(x) \pm v(x) \right]'
&= \lim_{\Delta x \to 0} \frac{\left[u(x+\Delta x) \pm v(x + \Delta x) \right] - \left[u(x) \pm v(x) \right] }{\Delta x} \\
&= \lim_{\Delta x \to 0}\frac{u(x+\Delta x)}{\Delta x} \pm \lim_{\Delta x \to 0} \frac{v(x+\Delta x)}{\Delta x} \\
&= u'(x) \pm v'(x)
\end{aligned}
\]
第二个式子同样套用公式:
\[\begin{aligned}
\left[u(x)v(x)\right]' &= \lim_{\Delta x \to 0} \frac{u(x+\Delta x) v(x + \Delta x) - u(x) v(x)}{\Delta x} \\
&= \lim_{\Delta x \to 0} \frac{u(x+\Delta x) v(x + \Delta x) - u(x)v(x+ \Delta x) + u(x)v(x+\Delta x) - u(x) v(x)}{\Delta x} \\
&= \lim_{\Delta x \to 0} \frac{(u(x+\Delta x) - u(x))v(x+\Delta x) + u(x)(v(x+\Delta x) - v(x))}{\Delta x} \\
&= \lim_{\Delta x \to 0}v(x+\Delta x) \frac{u(x+\Delta x) - u(x)}{\Delta x} + \lim_{\Delta x \to 0}u(x)\frac{v(x+\Delta x) - v(x)}{\Delta x}\\
&=v(x+\Delta x)u'(x) + u(x)v'(x) \\
&=u(x)v'(x) + u'(x)v(x)
\end{aligned}
\]
最后是第三个式子的推导,也并不复杂:
\[\displaystyle
\begin{aligned}
\left[\frac{u(x)}{v(x)}\right] &= \lim_{\Delta x \to 0}\frac{\frac{u(x+\Delta x)}{v(x+\Delta x)} - \frac{u(x)}{v(x)}}{\Delta x} \\
&= \lim_{\Delta x \to 0}\frac{v(x)u(x+\Delta x)-v(x+\Delta x)u(x)}{v(x+\Delta x)v(x)\Delta x} \\
&=\lim_{\Delta x \to 0} \\
&= \lim_{\Delta x \to 0}\frac{v(x)u(x+\Delta x)-v(x)u(x)+v(x)u(x)-v(x+\Delta x)u(x)}{v(x+\Delta x)v(x)\Delta x} \\
&=\lim_{\Delta x \to 0} \frac{\frac{u(x+\Delta x)-u(x)}{\Delta x}v(x)-\frac{v(x+\Delta x)-v(x)}{\Delta x}u(x)}{v(x+\Delta x)v(x)}\\
&=\frac{u'(x)v(x)-u(x)v'(x)}{v^2(x)}
\end{aligned}
\]
反函数求导法则
推导完了四则运算的求导法则,我们再来看一下反函数的求导法则。
我们陷在了看结论,如果函数\(x=f(y)\)在区间\(I_y\)内单调、可导并且\(f'(x)!=0\),那么它的反函数\(y=f^{-1}(x)\)在区间\(I_x=\{x|x=f(y), y\in I_y\}\)内也可导,那么:
\[\left[f^{-1}(x)\right]'=\frac{1}{f'(y)}
\]
关于这个结论的证明很简单,因为\(x=f(y)\)在区间内单调、可导,所以它的反函数\(y=f^{-1}(x)\)存在,并且也单调且连续。
所以:
\[\begin{aligned}
\Delta y=f^{-1}(x+\Delta x)-f^{-1}x \neq 0 \\
\frac{\Delta y}{\Delta x} = \frac{1}{\frac{\Delta x}{\Delta y}}=\frac{1}{f'(y)}
\end{aligned}
\]
由于\(y=f^{-1}(x)\)连续,\(\displaystyle\lim_{\Delta x \to 0}\Delta y=0\),所以上式成立。
我们来看一个例子:\(x=\sin y, y\in \left[-\frac{\pi}{2}, \frac{\pi}{2} \right]\),则\(y=\arcsin x\)是它的反函数,根据上面的公式,我们可以得到:
\[(\arcsin x)'=\frac{1}{(\sin y)'}=\frac{1}{\cos y}
\]
由于\(\cos y= \sqrt{1-\sin^2 y} = \sqrt{1-x^2}\),代入上式可以得到:
\[(\arcsin x)'=\frac{1}{\sqrt{1-x^2}}
\]
利用同样的方法,我们还可以求出其他反三角函数的导数,由于这些并不太常用,所以我们就不多介绍了,感兴趣的同学可以自己利用导数的定义推导一下,我想应该也不难。
复合函数求导
这是最后一个法则,也是本篇文章的重点,因为经常用到。我们现在已经搞定了一些常见的函数,还搞定了常见函数加减乘除之后求导的结果,但是对于一些看起来比较复杂的函数,我们并不能一下写出它们的导数。
比如说:\(\sin (x^2+3x)\),比如\(\ln (3x -1)\)等等,这些函数基本上都可以确定是连续并且可导的,但是我们一下子并不能写出它们的导数,而且要通过导数的定义推导也非常麻烦,对于这些导数就需要用到今天的重头戏,也就是复合函数的求导法则了。
对于复合函数而言,拥有如下法则:如果函数\(u=g(x)\)在点x处可导,并且\(y=f(u)\)在点\(u=g(x)\)处也可导,那么复合函数\(y=f[g(x)]\)在x处可导,它的导数为:
\[\frac{dy}{dx}=f'(u)\cdot g'(x)=\frac{dy}{du}\cdot \frac{du}{dx}
\]
如果复合函数的数量更多也是一样的,我们按照顺序依次相乘即可。由于公式的形式像是一根链条一样依次所以,复合函数求导法则也叫链式求导法则。在举例之前,我们先来证明一下。
由于\(y=f(u)\)在点u处可导,因此
\[\displaystyle\lim_{\Delta u \to 0}\frac{\Delta y}{\Delta u} = f'(u)
\]
因为\(f'(u)\)存在,所以我们将它变形为:
\[\frac{\Delta y}{\Delta u} = f'(u) + a
\]
其中a是\(\Delta u \to 0\)时的无穷小,我们对两边同时乘上\(\Delta u\),可以得到:
\[\Delta y = f'(u)\Delta u + a\cdot \Delta u
\]
上式当中\(\Delta u\)和a都是无穷小,所以当\(\Delta u \to 0\)时,\(\Delta y=0\),我们对上式两边同时除以\(\Delta x\),得:
\[\displaystyle\frac{\Delta y}{\Delta x}=f'(u)\frac{\Delta u}{\Delta x} + a\cdot\frac{\Delta u}{\Delta x}
\]
于是:
\[\displaystyle \lim_{\Delta x \to 0}\frac{\Delta y}{\Delta x}=\lim_{\Delta x \to 0}[f'(u)\frac{\Delta u}{\Delta x}+a\frac{\Delta u}{\Delta x}]
\]
又根据\(u=g(x)\)在点x处可导,所以有:
\[\displaystyle \lim_{\Delta x \to 0}\frac{\Delta u}{\Delta x}=g'(x)
\]
我们代入,就可以得到:
\[\displaystyle \lim_{\Delta x \to 0}\frac{\Delta y}{\Delta x}=f'(u)\cdot \frac{\Delta u}{\Delta x}=f'(u)\cdot g'(x)
\]
其实我们都知道相比于公式的证明,公式的运用更加重要,下面我们就来看两个例子,来巩固一下这个链式求导法则:
\(y=\ln \sin 3x\),求\(\frac{dy}{dx}\)
我们令\(u=3x, g=\sin u\)
所以:
\[\begin{aligned}
\frac{dy}{dx}&=\frac{dy}{dg}\cdot \frac{dg}{du}\cdot\frac{du}{dx}\\
&=\frac{1}{g}\cdot \cos u\cdot 3\\
&=3\frac{\cos 3x}{\sin 3x} \\
&=3 \cot 3x
\end{aligned}
\]
还记得我们之前推导线性回归时候用到的均方差的公式吗:
\[f(\theta) = \frac{1}{m}(\theta X-Y)^2
\]
我们来试着学以致用,求一下\(f(\theta)\)的导数,在机器学习当中,X和Y都是样本都是已知的参数,要求的是\(\theta\),所以我们对\(\theta\)求导:
\[\begin{aligned}
f'(\theta) &= \frac{1}{m}\cdot 2 \cdot (\theta X - Y)\cdot X \\
&=\frac{2}{m}X^T(\theta X - Y)
\end{aligned}
\]
这个结果其实就是之前我们说的梯度,梯度本来就是由导数计算得到的,所以理解了链式求导的公式,可以再回过头看看之前线性回归和梯度推导的公式,相信会有更深刻的体会。
今天的文章篇幅有些长,但是除去证明之后,剩下的内容并不多,重要的是它的应用范围很广,所以希望大家都能学会。
如果觉得有所收获,请顺手扫码点个关注吧,你们的举手之劳对我来说很重要。