摘要:
二分法开根号,通过二分法在[0,n]之间寻找合适的数(n>1时),而n<1时,需要将上限设为1,即使用二分法在[0,1]之间寻找合适的数,最终达到一定精度跳出循环,但迭代很慢。 牛顿法可以快速迭代(牛顿法介绍) 阅读全文
摘要:
https://www.cnblogs.com/cxchanpin/p/7359672.html https://www.cnblogs.com/yangzsnews/p/7496639.html 阅读全文
摘要:
6.1 6.2 高斯核和线性核训练出来没有区别,支持向量一致 6.3 阅读全文
摘要:
5.1 需要注意的是,神经网络中必须要有非线性的激活函数,无论是在隐层,还是输出层,或者全部都是。如果用$f(x)=\omega ^{T}x$做激活函数,无论多少层神经网络都退化成了线性回归。 5.2 两者都是希望将连续值映射到{0,1}上,但由于阶跃函数不光滑,不连续的性质,所以才选择了sigmo 阅读全文
摘要:
问题:给出一个整数数组,要找出元素之和最大的子数组。 如有列表A 算法1: 分析:外层循环变量j迭代n次,内层循环变量k最多迭代n次,最内层循环变量i最多迭代n次,因此算法复杂度为O(n3) 算法2: 考虑Si为前i个元素之和(前缀和),则Aj加到Ak可表示为Sk - Sj-1,则有以下算法 分析: 阅读全文
摘要:
https://www.cnblogs.com/willnote/p/6801496.html 阅读全文
摘要:
tail -f /var/log/syslog 插上U盘后观察终端输出 发现挂载区域后 umount /media/zwt/ZWT #最后是u盘盘符 修复 sudo dosfsck -v -a /dev/sdc1 #sdc1是u盘挂载位置 阅读全文
摘要:
BERT模型地址 BERT预训练模型有以下几个: BERT-Large, Uncased (Whole Word Masking): 24-layer, 1024-hidden, 16-heads, 340M parameters BERT-Large, Cased (Whole Word Mask 阅读全文
摘要:
adaboost 集成学习1 集成学习2 随机森林 adaboost实例 阅读全文
摘要:
终端输入: python3 -m pydoc -p 0 访问弹出的网址 阅读全文