随笔分类 - 唉
摘要:证明ax的导数后令a等于e即可。 链接 后面那个极限为啥是logea ? 链接 证明在比较靠后的地方。 怎么证明: 而不是用"根据定义"蒙混过去?第二个重要极限的证明 e怎么出来的_p312011150的博客 Squeeze theorem也叫夹逼定理,两面夹法则、三明治定理等。有没有别的证明方法?
阅读全文
摘要:sin(x+d) - sin(x) = sin(x)cos(d) + sin(d)cos(x) - sin(x) = sin(x)[1 - cos(d)] + sin(d)cos(x) sin(d) / d的极限是1比较容易蒙混过关。两个都很小的数相除。[证明] d趋近0时cos(d)趋近1, 1
阅读全文
摘要:y=f(x)=x2, 求f'(x). 直线的斜率k=(y1-y0)/(x1-x0)=((x+d)2 - x2) / (x+d - d) = (2xd + d2) / d = 2x + d = 2x d非常小,无限接近于0,可以被忽略掉。x很大时xd能不能被忽略掉?反正xd/d总等于x。长得像近似解却
阅读全文
摘要:As of 2 September 2017 GNU Chess 5.60 is rated at 2813 Elo points (when using one CPU) on CCRL's 40-moves-in-40-minutes list. For comparison, the stro
阅读全文
摘要:https://github.com/pytorch/pytorch PyTorch is a Python package that provides two high-level features: Tensor [张量] computation (like NumPy) with strong
阅读全文
摘要:AI vs. Machine Learning vs. Deep Learning vs. Neural Networks: What’s the Difference? | IBM 摘要: Deep Learning就像最新式的手机/电脑CPU,游戏等等,好的很。可CPU早就有了,超级玛丽、魂斗罗
阅读全文
摘要:What is Deep Learning? | IBM 摘要: Deep learning is a subset of machine learning, which is essentially a neural network with three or more layers. Deep
阅读全文
摘要:线性回归和非线性回归是统计学里的概念。机器学习(百度百科) 非线性回归(百科) | Machine Learning [Python] – Non-linear Regression (geekering.com) | NonlinearRegression.dvi (toronto.edu) y(
阅读全文
摘要:用过n-gram但没用好,所以改行了。没事瞎琢磨的: n-门问题用来面试不坏。 什么叫句子的概率?设一个语言有10个句子,某个句子100%属于这个语言,P(该句子)=0.1而不是1,因为还有别的句子呢,句子们的概率和是1. 不过在比较句子的概率时,可以大家都放大一个倍数,免得一堆小数字乘到最后成了0
阅读全文
摘要:search(诊断试验中的贝叶斯定理:检验阳性就一定患病了吗?); search(Bayes' rules, Conditional probability, Chain rule) 10天的统计表: 天 1 2 3 4 5 6 7 8 9 10 乌云 c c c c c Cloud 下雨 r r
阅读全文