摘要:
1.不可做题。 求出满足 $$\sum_{i=1}^{m}{x_i}\leq s$$ 对任意$$i\leq m,x_i>0$$ 对所有$$i,x_i\leq t$$ 的解数 答案对10^9+7取模 m-n<=1000,t<=100000,m<=1E9,nt<=s<=1E18 2.树上LIS:一棵树, 阅读全文
摘要:
1. 又是一个沉眠的长夜——我们的后人呵,还会听见远古的王国中,那飘散不尽的风声吗? 2020_02_29_19:07 2. 因为写它的不是笔,是生命的孤注一掷。 2020_03_03_21:10 3. 阳光唤不醒的雾都。 游船里,正举行贵族的茶会: “泰晤士河上,正泛着黑色的黄金。” 2020_0 阅读全文
摘要:
A:有字符串A和B,若A和B匹配,那么字符集存在一个单射,使得F(A)=B。现在给出长度为n的序列和长度为m的序列,问第一个序列中有多少子串与第二个序列匹配。 回想kmp的过程,事实上,只要“等于号”满足传递性就可以进行匹配。 看代码就知道了。 1 #include<bits/stdc++.h> 2 阅读全文
摘要:
当博主正在看概率论的时候,QQ群突然出现了: 可是博主的手绘板还没到,明天又要交差了,无论怎么赶,都搞不出一份像模像样的作品了。 但博主想起曾经在知乎上看到的文章(https://www.zhihu.com/question/27621722),不久前还学习了爬虫技术,再加上学校的包容开放,便有了这 阅读全文
摘要:
这篇记录的内容来自于Andrew Ng教授在coursera网站上的授课。 1.不要浪费大量的时间在获得样本上。实际上,太多的样本数并不会使学习算法更加的优秀。要尝试调整你的系数: 1.使用更少的特征。 2.增加多项式。 3.调整$\lambda$。 2.诊断学习算法: 1.将样本打乱,并将其中一部 阅读全文
摘要:
这篇记录的内容来自于Andrew Ng教授在coursera网站上的授课。 1.为什么使用神经网络:样本的特征数太多了,使用前面的算法都几乎不可能达到一个理想的结果。 2.神经网络(neural networks): 受到脑神经的启发,我们有以下结构: 术语: 输入层(input layer):输入 阅读全文
摘要:
这篇记录的内容来自于Andrew Ng教授在coursera网站上的授课。 1.线性回归不适用于分类问题。 原因:1.单个样本对于线性回归可能会造成很大的影响。 2.函数的输出值可能非常大,非常离谱。 2.逻辑回归(logistic regression):一种分类算法。是广义线性回归,$h(x)= 阅读全文
摘要:
地里有水,多少种形态。 1 #include<bits/stdc++.h> 2 using namespace std; 3 typedef long long int ll; 4 const int len=9; 5 const ll base=1000000000; 6 int n,m,a[10 阅读全文
摘要:
这篇记录的内容来自于Andrew Ng教授在coursera网站上的授课。 1.多元线性回归(multivariate linear regression): h函数:$h_{\theta}{(x)}=\theta_{0}+\sum_{i=1}^{n}{\theta_{i}x_{i}}$ 为方便起见 阅读全文
摘要:
如果你启动时正在运行有道词典,请将其关闭。 阅读全文