网络流学习笔记

啊啊是的,又来学网络流了。

网络

设有一张有向图 G=(V,E),每条边 (u,v)E 都有一个权值 c(u,v),称为容量,当 (u,v)E 的时候有 c(u,v)=0,我们称这张有向图为网络

在这之中有两个特殊的点:源点 SV 和汇点 TV

设定义域在二元组 (uV,vV) 上的实数函数 f(u,v) 且满足:

  1. 容量限制:对于每条边,都有 f(u,v)c(u,v)
  2. 斜对称性:对于每条边,都有 f(u,v)=f(v,u)
  3. 流守恒性:从源点流出的流量 = 汇点流入的流量,即:

xVS,T,(u,v)Ef(u,x)=(x,v)Ef(x,v)

我们就称 f 是网络 G 的流函数,对于 (u,v)E,我们称 f(u,v) 为边的流量c(u,v)f(u,v) 称为边的残余容量。整个网络的流量为 (S,v)Ef(S,v),即从源点 S 发出的所有流量之和(流守恒性)。

这里再给一个酷炫的定义:

f(u,v)={f(u,v)(u,v)Ef(v,u)(u,v)E0(u,v)E,(v,u)E

最大流

对于网络 G,最大化整个网络的流量,即求解如下公式:

max((S,v)Ef(S,v))

下面将讲几个求解最大流的算法:

Ford-Fulkerson 增广类

首先捋清楚一些定义:

定义残量网络 Gf 为所有剩余容量 cf(u,v)>0 的边构成的子图,即 Gf=(V,Ef),在这之中,Ef={(u,v)cf(u,v)>0}

定义增广路为在残量网络 Gf 上的一条从源点 S 到汇点 T 的路径。

定义增广操作为给某一增广路的每一条边 (u,v) 加上等量的流量使得网络的总体流量增加。

对此,我们可以发现:

最大流的求解就可以视为若干次增广操作分别得到的流的叠加。

不过,这里有一点需要注意,根据流函数的斜对称性,我们需要有一个「退流」操作,即若我们对于 f(u,v) 增加了 x,则相应的,我们也要对 f(v,u) 减少 x。为了方便表述,我们将 (u,v)E 称作 「正向边」,将 (v,u)E 称为「反向边」。

「退流」操作实际上是产生了一个「抵消」的操作,为的是能够保证我们可以自由的原则增广增广路的顺序(即给我们一个反悔的机会)。

我们可以发现,只要 Gf 上存在增广路,那么我们增广它就必定能使得总流量增加,否则就说明我们到达了流量最大值,这也就是 Ford-Fulkerson 增广的思想。

证明?证明如下(PS:真的好想要一个和 OI-Wiki 一样的 Markdown 书写方案啊):

考虑每一次我们增广都相当于从残留网络中拿掉一条边再换上一条反向边,当残量网络中的 ST 不连通的时候自然我们换掉的边集是一组割边,然后根据最大流最小割定理易得我们此时得到的就是最大流。

根据上述定义,我们不难有如下一种算法,设算法开始时我们的残留网络 Gf 是当前网络 G

  • S 出发进行 bfs 直到点 T
  • 将最先到达点 T 的路径流上路径 p 上的最小容量,即 Δ=min(u,v)p(c(u,v)),然后给 (u,v)p 增加流量 Δ,给反向边退流 Δ,最大流增加 Δ,并得到新的残量网络 Gf
  • Gf 重复进行操作,直到我们的 bfs 无法从 S 到达点 T

这也就是我们的 Edmonds-Karp 算法,时间复杂度 O(|V||E|2),复杂度证明不会。

下面我们再补充定义几个东西:

设有网络 Gf,我们对其进行 bfs 时,所经过的点和边导出的子图叫做 Gf 的分层图 GL

更加形式化的,我们称 GL=(V,EL)Gf=(V,Ef) 的分层图,其中 EL={(u,v)(u,v)Ef,d(u)+1=d(v)}

定义阻塞流 fb 为分层图 GL 上最大的增广流,且使得 GL 找不到更大的增广流(注意,这里的增广流指的是原先定义的若干增广流的并

这个时候我们有如下算法:

  • Gfbfs 出层次图 GL
  • GLdfs 出阻塞流 fb
  • fb 并入原先的最大流流中,即 fbfmax
  • 重复上述过程,直到 Gf 上不存在 ST 的路径。

这个算法就是大名鼎鼎的 Dinic 了。

然后就是当前弧优化,就是在 dfs 的过程中,我们可能会出现某个节点含有大量入边和出边的情况,并且每次接受入边的流时都要重新便利每条出边,这显然是无法接受的。

为了避免这样的缺陷,我们对每个节点维护出边表中第一条还有必要尝试的出边,我们称这个指针为「当前弧」,称这样的做法为「当前弧优化」,这样才能保证 Dinic 算法的正确性。

时间复杂度 O(|V|2|E|),实际上很难卡到这样的上界。

Push-Relabel 预流推进类

预流推进的核心思想是通过对单个节点进行更新,直到没有节点需要更新来求解最大流。

首先必然是引入一些相关定义:

定义超额流 e(u) 为对于一个节点其流入节点的流超出流出节点的流时,超出的部分称为该节点的超额流。更加形式化的说,我们有:

e(u)=(x,u)Ef(x,u)(u,y)Ef(u,y)

e(u)>0,则我们称这个节点 u 溢出(注意:当我们提到溢出节点的时候,显然不包括 ST)。

预流推进算法维护每个节点的高度 h(u),并且规定溢出的节点 u 如果要推送超额流,只能向高度小于自己的相邻节点推送;如果没有,则修改 u 的高度(即重新分配标签)。

我们设残量网络 Gf 上有自然数函数 h(u) 且满足:

  • h(S)=|V|
  • h(T)=0
  • (u,v)Ef,h(u)h(v)+1
    则称函数 h 为残量网络 Gf=(Vf,Ef) 的高度函数。

Lemma 1

Gf 上的高度函数为 h,对于任意两个节点 u,vV,如果 h(u)>h(v)+1,则 (u,v) 不是 Gf 上的边。

Tips: 准确的说,预流推进实际上维护了映射 h:VN

算法只会在 h(u)=h(v)+1 的边执行推送操作。

而如果对于溢出的节点 u 进行推送操作,则需要满足以下条件:

  • (u,v)Ef
  • c(u,v)f(u,v)>0
  • h(u)=h(v)+1

于是,我们希望尽可能的将超额流从 u 推送到 v,推送过程中我们只关心超额流 c(u,v)f(u,v) 的最小值,并不关心 v 是否溢出。

如果 (u,v) 在推送完后满流,则将其从残量网络中删去。

而如果对于溢出的节点 u 进行 relabel 操作,则需要满足以下条件:

  • (u,v)Ef
  • h(u)h(v)

重贴标签时,将 h(u) 更新为 min(u,v)Efh(v)+1 即可。

对于初始化操作,我们需要完成:

(u,v)E,f(u,v)={c(u,v)u=S0uS

uV,h(u)={|V|u=S0uS

uV,e(u)=(x,u)Ef(x,u)(u,y)Ef(u,y)

上述将 (S,v)E 充满流,并将 h(S) 抬高,使得 (S,v)Ef,因为 h(S)>h(v),而且 (S,v) 毕竟满流,没必要留在残留网络中;上述还将 e(S) 初始化为 (S,v)Ef(S,v) 的相反数。

然后我们考虑每一次选节点的时候,都优先选择高度最高的那个溢出的节点,于是不难有算法:

  • 初始化;
  • 选择溢出节点中高度最高的节点 u,并对它所有可以推送边进行推送;
  • 如果 u 仍溢出,对它重贴标签,回到步骤 2
  • 如果没有溢出的节点,则算法结束。

这也就是我们的欢乐皮皮 HLPP 算法,复杂度为 O(n2m)

下面是对 HLPP 的两个优化:

BFS 优化

HLPP 使用的时候卡上界卡的比较紧;我们可以在初始化高度的时候进行优化,具体的说,我们初始化 h(u)ut 的最短距离;特别的 h(S)=|V|

BFS 的同时,我们还可以检查图的连通性,排除无解的情况。

GAP 优化

HLPP 的推送条件是 h(u)=h(v)+1,然而如果在算法的某一时刻,h(u)=T 的节点个数为 0,那么对于 h(u)>T 的节点就永远无法推送超额流到 T,因此只能送回到 S,那么我们就在这时直接将他们的高度变为至少 n+1,以让他们尽快送回 S,减少重贴标签的操作。

最小割

根据最大流最小割定理,我们可以知道最小割的代价就是最大流。

然后我们可以用最大流做最小割的问题了。

建模原则

如果有一些东西我们渴望捆绑起来,则将描述他们之间关系的边设为 +,表示我不想割掉这条边。

剩下的……因题目而异吧……

集合划分模型

一般来处理这样的问题:

设有集合 ST,每个物品都有两个属性 siti,表示放入集合 S 时会有 si 的代价,放入集合 T 时会有 ti 的代价,还有 m 个捆绑关系,即如果 ab 没有分在同一个集合内,则产生 qi 的代价。

我们考虑将源点 S 和汇点 T 设为这两个集合,然后将第 i 个物品向 S 连一条容量为 ti 的边,表示放入集合 T (也就是不在集合 S)时产生了 ti 的代价,向 T 连一条容量为 ti 的边,表示放入集合 S(也就是不在集合 T)所产生的代价。对于有捆绑关系的物品对,我们连一条容量为 qi 的双向边,表示他们拒绝捆绑会产生 qi 的代价。

费用提前计算

一般用来处理某个人在处理第 x 件事的时候费用是 cx 这种。

我们考虑这个人可以隐分身,然后就按照正常的方式去建图就好了。

posted @   Larry76  阅读(82)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
点击右上角即可分享
微信分享提示