[未完成]OI 中的数值计算初探
目录#
- 牛顿迭代
- 拉格朗日乘子法
- 高斯消元法
- 拉格朗日插值
- 自适应辛普森法
- 蒙特卡洛方法
- 更多随机化算法
- 更多内容
前言#
别拿数学污染 OI.jpg
应该不会再有这种毒瘤题了……大概?
update : 写了不到一半的时候
越写越发现数值计算东西很多……最开始其实只打算写牛顿迭代和拉格朗日乘数的。惊天巨坑
牛顿迭代#
理论部分#
牛顿迭代通常用于求解一个函数的近似根,阿贝尔-鲁菲尼定理指出,五次及更高次的代数方程没有一般的代数解法,也就是没有求根公式这样的精确解的形式,只能考虑求近似解。
泰勒展开#
逐渐偏离题目(?)
如果你不想看这部分就跳到四级标题 “如果我不想看泰勒展开呢?”处。
(乐-太乐-泰勒展开.jpg) (此处应有肯尼迪表情包但是我没做)
我们仿造一个函数,比如就 。仿造的前提是描述这个函数,我们可以用导数来描述函数。
但是只有一个一阶导是很无力的,容易被一转攻势,基本没有多少信息,那么考虑求出 阶的导数,如果有一个 与 的一阶到 阶导全相同,那么可以认为这两个函数是足够相似的。
然后我们发现 这个函数可以一直导一直导导个不停(无歧义)。
然后我们用一个足够多次的也能一直导的多项式去仿造,就能求多次导。
但是显然真的要计算是不可能算到 的,但是后面的佩亚诺余项会越来越小到一个能接受的误差范围,也算是求得一个解了。
于是我们只要泰勒展开的第一项:
然后我们要求函数零点:
如果只要泰勒展开第一项精度不够怎么办?
迭代,每次把上一次的解代入,可以逼近零点。
于是得到迭代公式:
如果我不想看泰勒展开呢?#
那我们看函数图像理解一下:
对于一个函数 ,我们求出其导数 。
生成一个初始解 ,每次求出一条过点 的,函数 的切线,这条切线的斜率就是 ,与 轴交点为 ,可以发现一直重复这个过程就是在接近这个函数与 轴的交点。
于是牛顿迭代有迭代式如下:
何时不能牛顿迭代#
- 迭代初始值选到了驻点,使
- 函数不收敛,越跑越远
多元函数牛顿迭代#
把导数改成 梯度。
唐突线性代数
牛顿迭代具体过程#
首先我们需要 和 ,然后选择一个初始解,开始迭代即可。
牛顿迭代法具有平方收敛的性能,也就是说其为 的。
例:求出 ,首先 可以理解为方程 的一个根,那么对原函数 求导得到 ,然后直接迭代即可。
参考代码:
#include <cstdio>
#include <cmath>
#include <algorithm>
using std::abs;
constexpr double eps = 1e-9;
inline double NewtonSqrt(double x) {
double x0 = x;
while(abs(x0 * x0 - x) > eps)
x0 -= (x0 * x0 - x) / (2 * x0);
return x0;
}
int main() {
double x;
scanf("%lf",&x);
printf("Newton's method %.8lf\n",NewtonSqrt(x));
printf("std::sqrt %.8lf\n",std::sqrt(x));
return 0;
}
可以发现迭代的初始值并不是非常重要,但是如果有一个较好的初始解,迭代次数会明显减少,著名的快速平方根倒数算法就是使用了 “魔法数字”
0x5f3759df
然后只进行一次迭代而大大加快了速度。
在 Chris Lomont 的论文中给出了一个效率略好于 Quake III 源代码的优秀初值 : 0x5f375a86
。
论文链接 : http://www.lomont.org/papers/2003/InvSqrt.pdf
#include <cstdio>
#include <cmath>
#include <algorithm>
using std::abs;
constexpr double eps = 1e-9;
inline float NewtonSqrt(float x) {
float halfx = 0.5 * x;
int i = *((int *)&x);
i = 0x5f3759df - (i>>1);
x = *((float *)&i);
x = x * (1.5 - (halfx * x * x));
return 1.0 / x;
}
int main() {
double x;
scanf("%lf",&x);
printf("Fast Sqrt %.8lf\n",NewtonSqrt(x));
printf("std::sqrt %.8lf\n",std::sqrt(x));
return 0;
}
当然这个方法还有 double
版本,使用的初始解为 0x5fe6eb50c7aa19f9
。
#include <cstdio>
#include <cmath>
#include <algorithm>
using std::abs;
constexpr double eps = 1e-9;
inline double NewtonSqrt(double x) {
double halfx = 0.5 * x;
long long i = *((long long *)&x);
i = 0x5fe6eb50c7aa19f9 - (i >> 1);
x = *((double *)&i);
x = x * (1.5 - (halfx * x * x));
return 1.0 / x;
}
int main() {
double x;
scanf("%lf",&x);
printf("Fast Sqrt %.8lf\n",NewtonSqrt(x));
printf("std::sqrt %.8lf\n",std::sqrt(x));
return 0;
}
不过这个平方根倒数效率已经被 SSE 指令集的 rsqrtss
吊打了 硬件的胜利就是冯·诺依曼的胜利!。
例题#
平衡点#
求平面上的带权费马点。
这个问题似乎叫 费马-韦伯问题(?),我不确定,不敢乱说。
首先我们先不带权看一看,也就是普通的费马问题:
对于 也就是三角形费马点,数学家、物理学家托里拆利给出了一个平面几何的优秀解法:
- 当三角形的三个角均小于 时,所求的点为三角形的正等角中心。
- 当三角形有一内角大于或等于 时,所求点为三角形最大内角的顶点。
但是对于 更大的问题,就没有一个更好的解法了。
现在我们具体考虑问题求的是什么:
对于 个 ,求一个 使得
的值最小化。
(带权费马点就是求 )
于是现在问题转化为求一个二元函数极值:
首先为了得到这个函数的变化率和凹凸性,我们需要对其求导,但是对于一个二元函数,我们需要固定一个自变量不变,然后求另一个自变量变化与因变量的关系,相当于求了两个一元函数的导数,这时候两个导数为这个二元函数的 偏导数。
求其偏导数得 :
可知当 且 时得到这个函数的驻点。
然后我们求出二阶导:
可以看出这个二阶偏导数是恒大于 的,于是这个函数是凸函数。
(所以我们可以直接分别三分 就解出了此题,非常的合理啊)
原函数是个凸函数,于是一阶偏导数为 的点就是它的最小值点,考虑如何求解如下方程:
使用牛顿迭代求解:
表示 与 如下:
然后大力迭代即可,带权就再乘一下。
如何更快求解?将初始解设为质心:
然后记得特判掉只有一个点的情况。
跑得飞快,能进最优解第一页。
// Fermat Point
#define sq(x) ((x) * (x))
std::pair<db,db> p[N];
db w[N];
int main() {
InitIO();
int n = read();
db x0 = 0,y0 = 0;
rep(i,1,n) {
p[i].first = readDB();
p[i].second = readDB();
w[i] = read();
x0 += p[i].first * w[i];
y0 += p[i].second * w[i];
}
x0 /= n,y0 /= n;
if(n != 1) {
while(1) {
db x1 = 0,x2 = 0,y1 = 0,y2 = 0;
rep(i,1,n) {
db g = std::sqrt(sq(x0 - p[i].first) + sq(y0 - p[i].second)) / w[i];
// You can use your Newton's Method Square Root instead OuO
x1 += p[i].first / g;
x2 += 1 / g;
y1 += p[i].second / g;
y2 += 1 / g;
}
x1 /= x2,y1 /= y2;
if(std::abs(x1 - x0) < eps && std::abs(y1 - y0) < eps)
break;
else x0 = x1,y0 = y1;
}
writeDB(x0,3),space;
writeDB(y0,3),enter;
}
else {
writeDB(p[1].first,3),space;
writeDB(p[1].second,3),enter;
}
EndIO();
return 0;
}
然后这个题还可以用其他数值计算的方法求解,例如 @damocris 大佬写的 Broydent 迭代:https://www.luogu.com.cn/record/67174683
一元三次方程求解#
(真的有人这个题不是用三分吗)
多项式求导:
对于本题,对象函数为
导数为
#include <cstdio>
#include <cstring>
#include <cstdlib>
#include <algorithm>
#include <iostream>
#include <set>
typedef double db;
constexpr db eps = 1e-3;
db a,b,c,d;
inline db f(db x) {
return a * x * x * x + b * x * x + c * x + d;
}
inline db fder(db x) {
return 3.0 * a * x * x + 2.0 * b * x + c;
}
struct Node {
db val;
Node(){}
Node(db v) :val(v) {}
inline bool operator == (const Node &oth) const {
return std::abs(val - oth.val) < eps;
}
inline bool operator < (const Node &oth) const {
return -(val - oth.val) > eps;
}
};
std::set<Node> res;
int main() {
scanf("%lf%lf%lf%lf",&a,&b,&c,&d);
for(int i = -100;i <= 100;++i) {
db x0 = i;
while(std::abs(f(x0)) > eps)
x0 -= f(x0) / fder(x0);
res.emplace(x0);
}
for(auto i : res)
printf("%.2lf ",i.val);
return 0;
}
甚至可以实现一个简(huan)单(man)的高次方程求解:
#include <cstdio>
#include <cstring>
#include <cstdlib>
#include <cmath>
#include <algorithm>
#include <iostream>
#include <set>
typedef double db;
constexpr db eps = 1e-3;
constexpr int N = 105;
int n;
db a[N];
db d[N];
inline db f(db x) {
db res = 0,rx = 1;
for(int i = 0;i <= n;++i) {
res += rx * a[i];
rx *= x;
}
return res;
}
inline db fder(db x) {
db res = 0,rx = 1;
for(int i = 0;i < n;++i) {
res += rx * a[i];
rx *= x;
}
return res;
}
struct Node {
db val;
Node(){}
Node(db v) :val(v) {}
inline bool operator < (const Node &oth) const {
return -(val - oth.val) > eps;
}
};
std::set<Node> res;
int main() {
scanf("%d",&n);
for(int i = n;~i;--i)
scanf("%lf",&a[i]);
for(int i = n;i;--i)
d[i - 1] = a[i] * i;
for(int i = -100;i <= 100;++i) {
db x0 = i;
while(std::abs(f(x0)) > eps)
x0 -= f(x0) / fder(x0);
res.emplace(x0);
}
for(auto i : res) if(std::isnormal(i.val))
printf("%.2lf ",i.val);
return 0;
}
牛顿迭代总结(?)#
能够求解一些函数零点问题或者把函数极值问题转化为导数零点来求其驻点,在多项式中同样应用广泛。
拉格朗日乘数法#
拉格朗日乘数法题好少啊……基本都是网上搜别人博客找的。
拉格朗日乘数法是一种在约束条件下求多元函数极值的方法。
理论部分#
首先是无约束条件下多元函数极值问题:
例如对于一个函数 求极值,列方程求出点 使其每个偏导数都为 ,称为函数的驻点,在 某邻域一阶及二阶偏导数存在时极值点是这个驻点。
极值的充分条件为:
点 某邻域一阶及二阶偏导数存在,且有 ,令 ,则有:
- 时有极值, 取极大值, 取极小值。
- 时没有极值。
- 时无法确定。
例如求二元函数 在约束条件 下的条件极值,首先引入拉格朗日乘子 构造辅助函数 ,此时求辅助函数极值得到原函数极值。
对于多元函数 求极值参考上面的做法即可。
简要解释,下图蓝色为函数 ,红色为约束条件 。
这时候找极值就相当于找一条最大的与 有交的等值线,可以发现最终找到的等值线与 相切,否则可以再调整得到更大的值。
此时两曲线有共线法向量,于是有以下等量关系:
然后列成方程的形式:
例题#
yja#
来源网络。
二维平面上有 个点,我们已知每个点 距离原点的距离 而不知具体位置,确定这些点的位置,求最大能构成的凸包面积,保证
很小,全排列枚举构成凸包的点以及所选点的排列顺序,贪心地考虑,总是选最长的,不需要再 枚举集合。
将每个 视作起点为原点长度为 的可以旋转的向量 ,记 夹角为 ,通过向量外积来表示面积:
约束条件为:
构造辅助函数得:
然后求偏导得到:
即
并且有 ,这时候 具有单调性了,二分 然后检查 是否为 即可求出此种方案最大面积。
river#
一条南北向河流有 段,从西到东流速分别为 ,宽度分别为 ,游泳速度为 现在要在 秒内从西岸游到东岸,求南北方向最大的位移。
对于每个河段,如果分配的时间一定,我们可以求出恰好使用 时间的最大南北向位移记作一个函数
这时有约束 :,最大化
求出偏导数 :
通过拉格朗日乘数可知此时导函数值相同,可以二分函数值然后反代求总时长,对于一个函数值 ,有:
于是可以以此计算每条河段的用时,最后依二分得到的用时计算 即可。
NOI2012 骑行川藏#
有 个路段,每条路段有三个参数 分别为长度,风阻系数,风速。
对于第 段路全程以 的速度前进,代价为
在 不超过 的条件下最小化 。
表示成多元函数和约束条件的形式:
构造辅助函数得:
求偏导数:
由 :
于是可知 ,移项得到:
可以发现这是单调的,考虑二分 得到仅剩常数和 的方程,三次方程求根即可。
高斯消元法#
拉格朗日插值#
这应该也算是数值计算(?)
自适应辛普森法#
蒙特卡洛方法#
Pollard-Rho 离散对数也是一种 Monte Carlo,优点是空间开销小于 BSGS 并且更快。
更多随机化算法#
NOIP 退火救我一命,大恩大德无以为报,唯有写篇博客。
随机化算法,优点是只要数据范围够小或者你找到一些性质基本都可以用,只要你敢写就有机会拿分。
更多内容#
计算机是如何求对数函数 的?
首先我们有换底公式 ,那么只要对于一个底数能求对数,就有对于所有底数的通用解。
作者:AstatineAi
出处:https://www.cnblogs.com/AstatineAi/p/numerical-computation-in-OI.html
版权:本作品采用「署名-非商业性使用-相同方式共享 4.0 国际」许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!