花开堪折直须折|

Blue Mountain

园龄:10年7个月粉丝:572关注:0

2024-03-01 09:58阅读: 73评论: 0推荐: 0

《hello-algo》动态规划 —— 小记随笔

初探动态规划

「动态规划 dynamic programming」是一个重要的算法范式,它将一个问题分解为一系列更小的子问题,并通过存储子问题的解来避免重复计算,从而大幅提升时间效率。

给定一个共有 (n) 阶的楼梯,你每步可以上 (1) 阶或者 (2) 阶,请问有多少种方案可以爬到楼顶?

如图 14-1 所示,对于一个 (3) 阶楼梯,共有 (3) 种方案可以爬到楼顶。
img

本题的目标是求解方案数量,我们可以考虑通过回溯来穷举所有可能性。具体来说,将爬楼梯想象为一个多轮选择的过程:从地面出发,每轮选择上 (1) 阶或 (2) 阶,每当到达楼梯顶部时就将方案数量加 (1) ,当越过楼梯顶部时就将其剪枝。代码如下所示:

/* 回溯 */
func backtrack(choices []int, state, n int, res []int) {
// 当爬到第 n 阶时,方案数量加 1
if state == n {
res[0] = res[0] + 1
}
// 遍历所有选择
for _, choice := range choices {
// 剪枝:不允许越过第 n 阶
if state+choice > n {
continue
}
// 尝试:做出选择,更新状态
backtrack(choices, state+choice, n, res)
// 回退
}
}
/* 爬楼梯:回溯 */
func climbingStairsBacktrack(n int) int {
// 可选择向上爬 1 阶或 2 阶
choices := []int{1, 2}
// 从第 0 阶开始爬
state := 0
res := make([]int, 1)
// 使用 res[0] 记录方案数量
res[0] = 0
backtrack(choices, state, n, res)
return res[0]
}

方法一:暴力搜索

回溯算法通常并不显式地对问题进行拆解,而是将求解问题看作一系列决策步骤,通过试探和剪枝,搜索所有可能的解。

我们可以尝试从问题分解的角度分析这道题。设爬到第 (i) 阶共有 (dp[i]) 种方案,那么 (dp[i]) 就是原问题,其子问题包括:[ dp[i-1], dp[i-2], \dots, dp[2], dp[1] ]

由于每轮只能上 (1) 阶或 (2) 阶,因此当我们站在第 (i) 阶楼梯上时,上一轮只可能站在第 (i - 1) 阶或第 (i - 2) 阶上。换句话说,我们只能从第 (i -1) 阶或第 (i - 2) 阶迈向第 (i) 阶。

由此便可得出一个重要推论:爬到第 (i - 1) 阶的方案数加上爬到第 (i - 2) 阶的方案数就等于爬到第 (i) 阶的方案数。公式如下: [ dp[i] = dp[i-1] + dp[i-2] ]

这意味着在爬楼梯问题中,各个子问题之间存在递推关系,原问题的解可以由子问题的解构建得来。

img

我们可以根据递推公式得到暴力搜索解法。以 (dp[n]) 为起始点,递归地将一个较大问题拆解为两个较小问题的和,直至到达最小子问题 (dp[1]) 和 (dp[2]) 时返回。其中,最小子问题的解是已知的,即 (dp[1] = 1)、(dp[2] = 2) ,表示爬到第 (1)、(2) 阶分别有 (1)、(2) 种方案。

观察以下代码,它和标准回溯代码都属于深度优先搜索,但更加简洁:

/* 搜索 */
func dfs(i int) int {
// 已知 dp[1] 和 dp[2] ,返回之
if i == 1 || i == 2 {
return i
}
// dp[i] = dp[i-1] + dp[i-2]
count := dfs(i-1) + dfs(i-2)
return count
}
/* 爬楼梯:搜索 */
func climbingStairsDFS(n int) int {
return dfs(n)
}

图 14-3 展示了暴力搜索形成的递归树。对于问题 (dp[n]) ,其递归树的深度为 (n) ,时间复杂度为 (O(2^n)) 。指数阶属于爆炸式增长,如果我们输入一个比较大的 (n) ,则会陷入漫长的等待之中。

img

观察图 14-3 ,指数阶的时间复杂度是“重叠子问题”导致的。例如 (dp[9]) 被分解为 (dp[8]) 和 (dp[7]) ,(dp[8]) 被分解为 (dp[7]) 和 (dp[6]) ,两者都包含子问题 (dp[7]) 。以此类推,子问题中包含更小的重叠子问题,子子孙孙无穷尽也。绝大部分计算资源都浪费在这些重叠的子问题上。

方法二:记忆化搜索

为了提升算法效率,我们希望所有的重叠子问题都只被计算一次。为此,我们声明一个数组 mem 来记录每个子问题的解,并在搜索过程中将重叠子问题剪枝。

  • 当首次计算 (dp[i]) 时,我们将其记录至 mem[i] ,以便之后使用。
  • 当再次需要计算 (dp[i]) 时,我们便可直接从 mem[i] 中获取结果,从而避免重复计算该子问题。
/* 记忆化搜索 */
func dfsMem(i int, mem []int) int {
// 已知 dp[1] 和 dp[2] ,返回之
if i == 1 || i == 2 {
return i
}
// 若存在记录 dp[i] ,则直接返回之
if mem[i] != -1 {
return mem[i]
}
// dp[i] = dp[i-1] + dp[i-2]
count := dfsMem(i-1, mem) + dfsMem(i-2, mem)
// 记录 dp[i]
mem[i] = count
return count
}
/* 爬楼梯:记忆化搜索 */
func climbingStairsDFSMem(n int) int {
// mem[i] 记录爬到第 i 阶的方案总数,-1 代表无记录
mem := make([]int, n+1)
for i := range mem {
mem[i] = -1
}
return dfsMem(n, mem)
}

经过记忆化处理后,所有重叠子问题都只需计算一次,时间复杂度优化至 (O(n)) ,这是一个巨大的飞跃。

img

方法三:动态规划

记忆化搜索是一种“从顶至底”的方法:我们从原问题(根节点)开始,递归地将较大子问题分解为较小子问题,直至解已知的最小子问题(叶节点)。之后,通过回溯逐层收集子问题的解,构建出原问题的解。

与之相反,动态规划是一种“从底至顶”的方法:从最小子问题的解开始,迭代地构建更大子问题的解,直至得到原问题的解。

由于动态规划不包含回溯过程,因此只需使用循环迭代实现,无须使用递归。在以下代码中,我们初始化一个数组 dp 来存储子问题的解,它起到了与记忆化搜索中数组 mem 相同的记录作用:

/* 爬楼梯:动态规划 */
func climbingStairsDP(n int) int {
if n == 1 || n == 2 {
return n
}
// 初始化 dp 表,用于存储子问题的解
dp := make([]int, n+1)
// 初始状态:预设最小子问题的解
dp[1] = 1
dp[2] = 2
// 状态转移:从较小子问题逐步求解较大子问题
for i := 3; i <= n; i++ {
dp[i] = dp[i-1] + dp[i-2]
}
return dp[n]
}

img

与回溯算法一样,动态规划也使用“状态”概念来表示问题求解的特定阶段,每个状态都对应一个子问题以及相应的局部最优解。例如,爬楼梯问题的状态定义为当前所在楼梯阶数 (i) 。

根据以上内容,我们可以总结出动态规划的常用术语。

  • 将数组 dp 称为「(dp) 表」,(dp[i]) 表示状态 (i) 对应子问题的解。
  • 将最小子问题对应的状态(第 (1) 阶和第 (2) 阶楼梯)称为「初始状态」。
  • 将递推公式 (dp[i] = dp[i-1] + dp[i-2]) 称为「状态转移方程」。

空间优化

细心的读者可能发现了,由于 (dp[i]) 只与 (dp[i-1]) 和 (dp[i-2]) 有关,因此我们无须使用一个数组 dp 来存储所有子问题的解,而只需两个变量滚动前进即可。代码如下所示:

/* 爬楼梯:空间优化后的动态规划 */
func climbingStairsDPComp(n int) int {
if n == 1 || n == 2 {
return n
}
a, b := 1, 2
// 状态转移:从较小子问题逐步求解较大子问题
for i := 3; i <= n; i++ {
a, b = b, a+b
}
return b
}

观察以上代码,由于省去了数组 dp 占用的空间,因此空间复杂度从 (O(n)) 降至 (O(1)) 。
在动态规划问题中,当前状态往往仅与前面有限个状态有关,这时我们可以只保留必要的状态,通过“降维”来节省内存空间。这种空间优化技巧被称为“滚动变量”或“滚动数组”。

动态规划问题特性

在上一节中,我们学习了动态规划是如何通过子问题分解来求解原问题的。实际上,子问题分解是一种通用的算法思路,在分治、动态规划、回溯中的侧重点不同

  • 分治算法递归地将原问题划分为多个相互独立的子问题,直至最小子问题,并在回溯中合并子问题的解,最终得到原问题的解。
  • 动态规划也对问题进行递归分解,但与分治算法的主要区别是,动态规划中的子问题是相互依赖的,在分解过程中会出现许多重叠子问题。
  • 回溯算法在尝试和回退中穷举所有可能的解,并通过剪枝避免不必要的搜索分支。原问题的解由一系列决策步骤构成,我们可以将每个决策步骤之前的子序列看作一个子问题。

最优子结构

给定一个楼梯,你每步可以上 (1) 阶或者 (2) 阶,每一阶楼梯上都贴有一个非负整数,表示你在该台阶所需要付出的代价。给定一个非负整数数组 (cost) ,其中 (cost[i]) 表示在第 (i) 个台阶需要付出的代价,(cost[0]) 为地面(起始点)。请计算最少需要付出多少代价才能到达顶部?

img

若第 (1)、(2)、(3) 阶的代价分别为 (1)、(10)、(1) ,则从地面爬到第 (3) 阶的最小代价为 (2) 。

设 (dp[i]) 为爬到第 (i) 阶累计付出的代价,由于第 (i) 阶只可能从 (i - 1) 阶或 (i - 2) 阶走来,因此 (dp[i]) 只可能等于 (dp[i - 1] + cost[i]) 或 (dp[i - 2] + cost[i]) 。为了尽可能减少代价,我们应该选择两者中较小的那一个:

[ dp[i] = \min(dp[i-1], dp[i-2]) + cost[i] ]

这便可以引出最优子结构的含义:原问题的最优解是从子问题的最优解构建得来的。

本题显然具有最优子结构:我们从两个子问题最优解 (dp[i-1]) 和 (dp[i-2]) 中挑选出较优的那一个,并用它构建出原问题 (dp[i]) 的最优解。

那么,上一节的爬楼梯题目有没有最优子结构呢?它的目标是求解方案数量,看似是一个计数问题,但如果换一种问法:“求解最大方案数量”。我们意外地发现,虽然题目修改前后是等价的,但最优子结构浮现出来了:第 (n) 阶最大方案数量等于第 (n-1) 阶和第 (n-2) 阶最大方案数量之和。所以说,最优子结构的解释方式比较灵活,在不同问题中会有不同的含义。

根据状态转移方程,以及初始状态 (dp[1] = cost[1]) 和 (dp[2] = cost[2]) ,我们就可以得到动态规划代码:

/* 爬楼梯最小代价:动态规划 */
func minCostClimbingStairsDP(cost []int) int {
n := len(cost) - 1
if n == 1 || n == 2 {
return cost[n]
}
min := func(a, b int) int {
if a < b {
return a
}
return b
}
// 初始化 dp 表,用于存储子问题的解
dp := make([]int, n+1)
// 初始状态:预设最小子问题的解
dp[1] = cost[1]
dp[2] = cost[2]
// 状态转移:从较小子问题逐步求解较大子问题
for i := 3; i <= n; i++ {
dp[i] = min(dp[i-1], dp[i-2]) + cost[i]
}
return dp[n]
}

img

本题也可以进行空间优化,将一维压缩至零维,使得空间复杂度从 (O(n)) 降至 (O(1)) :

/* 爬楼梯最小代价:空间优化后的动态规划 */
func minCostClimbingStairsDPComp(cost []int) int {
n := len(cost) - 1
if n == 1 || n == 2 {
return cost[n]
}
min := func(a, b int) int {
if a < b {
return a
}
return b
}
// 初始状态:预设最小子问题的解
a, b := cost[1], cost[2]
// 状态转移:从较小子问题逐步求解较大子问题
for i := 3; i <= n; i++ {
tmp := b
b = min(a, tmp) + cost[i]
a = tmp
}
return b
}

无后效性

无后效性是动态规划能够有效解决问题的重要特性之一,其定义为:给定一个确定的状态,它的未来发展只与当前状态有关,而与过去经历的所有状态无关。

以爬楼梯问题为例,给定状态 (i) ,它会发展出状态 (i+1) 和状态 (i+2) ,分别对应跳 (1) 步和跳 (2) 步。在做出这两种选择时,我们无须考虑状态 (i) 之前的状态,它们对状态 (i) 的未来没有影响。

然而,如果我们给爬楼梯问题添加一个约束,情况就不一样了。

给定一个共有 (n) 阶的楼梯,你每步可以上 (1) 阶或者 (2) 阶,但不能连续两轮跳 (1) 阶,请问有多少种方案可以爬到楼顶?

如图 14-8 所示,爬上第 (3) 阶仅剩 (2) 种可行方案,其中连续三次跳 (1) 阶的方案不满足约束条件,因此被舍弃。

在该问题中,如果上一轮是跳 (1) 阶上来的,那么下一轮就必须跳 (2) 阶。这意味着,下一步选择不能由当前状态(当前所在楼梯阶数)独立决定,还和前一个状态(上一轮所在楼梯阶数)有关。

不难发现,此问题已不满足无后效性,状态转移方程 (dp[i] = dp[i-1] + dp[i-2]) 也失效了,因为 (dp[i-1]) 代表本轮跳 (1) 阶,但其中包含了许多“上一轮是跳 (1) 阶上来的”方案,而为了满足约束,我们就不能将 (dp[i-1]) 直接计入 (dp[i]) 中。

为此,我们需要扩展状态定义:状态 ([i, j]) 表示处在第 (i) 阶并且上一轮跳了 (j) 阶,其中 (j \in {1, 2}) 。此状态定义有效地区分了上一轮跳了 (1) 阶还是 (2) 阶,我们可以据此判断当前状态是从何而来的。

  • 当上一轮跳了 (1) 阶时,上上一轮只能选择跳 (2) 阶,即 (dp[i, 1]) 只能从 (dp[i-1, 2]) 转移过来。
  • 当上一轮跳了 (2) 阶时,上上一轮可选择跳 (1) 阶或跳 (2) 阶,即 (dp[i, 2]) 可以从 (dp[i-2, 1]) 或 (dp[i-2, 2]) 转移过来。

如图 14-9 所示,在该定义下,(dp[i, j]) 表示状态 ([i, j]) 对应的方案数。此时状态转移方程为:

[ \begin{cases} dp[i, 1] = dp[i-1, 2] \ dp[i, 2] = dp[i-2, 1] + dp[i-2, 2] \end{cases} ]

img

最终,返回 (dp[n, 1] + dp[n, 2]) 即可,两者之和代表爬到第 (n) 阶的方案总数:

/* 带约束爬楼梯:动态规划 */
func climbingStairsConstraintDP(n int) int {
if n == 1 || n == 2 {
return 1
}
// 初始化 dp 表,用于存储子问题的解
dp := make([][3]int, n+1)
// 初始状态:预设最小子问题的解
dp[1][1] = 1
dp[1][2] = 0
dp[2][1] = 0
dp[2][2] = 1
// 状态转移:从较小子问题逐步求解较大子问题
for i := 3; i <= n; i++ {
dp[i][1] = dp[i-1][2]
dp[i][2] = dp[i-2][1] + dp[i-2][2]
}
return dp[n][1] + dp[n][2]
}

在上面的案例中,由于仅需多考虑前面一个状态,因此我们仍然可以通过扩展状态定义,使得问题重新满足无后效性。然而,某些问题具有非常严重的“有后效性”

给定一个共有 (n) 阶的楼梯,你每步可以上 (1) 阶或者 (2) 阶。规定当爬到第 (i) 阶时,系统自动会在第 (2i) 阶上放上障碍物,之后所有轮都不允许跳到第 (2i) 阶上。例如,前两轮分别跳到了第 (2)、(3) 阶上,则之后就不能跳到第 (4)、(6) 阶上。请问有多少种方案可以爬到楼顶?

在这个问题中,下次跳跃依赖过去所有的状态,因为每一次跳跃都会在更高的阶梯上设置障碍,并影响未来的跳跃。对于这类问题,动态规划往往难以解决。
实际上,许多复杂的组合优化问题(例如旅行商问题)不满足无后效性。对于这类问题,我们通常会选择使用其他方法,例如启发式搜索、遗传算法、强化学习等,从而在有限时间内得到可用的局部最优解。

动态规划解题思路

上两节介绍了动态规划问题的主要特征,接下来我们一起探究两个更加实用的问题。

  1. 如何判断一个问题是不是动态规划问题?
  2. 求解动态规划问题该从何处入手,完整步骤是什么?

问题判断

总的来说,如果一个问题包含重叠子问题、最优子结构,并满足无后效性,那么它通常适合用动态规划求解。然而,我们很难从问题描述中直接提取出这些特性。因此我们通常会放宽条件,先观察问题是否适合使用回溯(穷举)解决。

适合用回溯解决的问题通常满足“决策树模型”,这种问题可以使用树形结构来描述,其中每一个节点代表一个决策,每一条路径代表一个决策序列。

换句话说,如果问题包含明确的决策概念,并且解是通过一系列决策产生的,那么它就满足决策树模型,通常可以使用回溯来解决。

在此基础上,动态规划问题还有一些判断的“加分项”。

  • 问题包含最大(小)或最多(少)等最优化描述。
  • 问题的状态能够使用一个列表、多维矩阵或树来表示,并且一个状态与其周围的状态存在递推关系。

相应地,也存在一些“减分项”。

  • 问题的目标是找出所有可能的解决方案,而不是找出最优解。
  • 问题描述中有明显的排列组合的特征,需要返回具体的多个方案。

如果一个问题满足决策树模型,并具有较为明显的“加分项”,我们就可以假设它是一个动态规划问题,并在求解过程中验证它。

问题求解步骤

动态规划的解题流程会因问题的性质和难度而有所不同,但通常遵循以下步骤:描述决策,定义状态,建立 (dp) 表,推导状态转移方程,确定边界条件等。

给定一个 (n \times m) 的二维网格 grid ,网格中的每个单元格包含一个非负整数,表示该单元格的代价。机器人以左上角单元格为起始点,每次只能向下或者向右移动一步,直至到达右下角单元格。请返回从左上角到右下角的最小路径和。

img

  1. 第一步:思考每轮的决策,定义状态,从而得到 (dp) 表

本题的每一轮的决策就是从当前格子向下或向右走一步。设当前格子的行列索引为 ([i, j]) ,则向下或向右走一步后,索引变为 ([i+1, j]) 或 ([i, j+1]) 。因此,状态应包含行索引和列索引两个变量,记为 ([i, j]) 。

状态 ([i, j]) 对应的子问题为:从起始点 ([0, 0]) 走到 ([i, j]) 的最小路径和,解记为 (dp[i, j])

至此,我们就得到了图 14-11 所示的二维 (dp) 矩阵,其尺寸与输入网格 (grid) 相同。

img

  1. 第二步:找出最优子结构,进而推导出状态转移方程

对于状态 ([i, j]) ,它只能从上边格子 ([i-1, j]) 和左边格子 ([i, j-1]) 转移而来。因此最优子结构为:到达 ([i, j]) 的最小路径和由 ([i, j-1]) 的最小路径和与 ([i-1, j]) 的最小路径和中较小的那一个决定。

根据以上分析,可推出图 14-12 所示的状态转移方程:

[ dp[i, j] = \min(dp[i-1, j], dp[i, j-1]) + grid[i, j] ]

img

  1. 第三步:确定边界条件和状态转移顺序

在本题中,处在首行的状态只能从其左边的状态得来,处在首列的状态只能从其上边的状态得来,因此首行 (i = 0) 和首列 (j = 0) 是边界条件。

如图 14-13 所示,由于每个格子是由其左方格子和上方格子转移而来,因此我们使用循环来遍历矩阵,外循环遍历各行,内循环遍历各列。

img

根据以上分析,我们已经可以直接写出动态规划代码。然而子问题分解是一种从顶至底的思想,因此按照“暴力搜索 (\rightarrow) 记忆化搜索 (\rightarrow) 动态规划”的顺序实现更加符合思维习惯。

方法一:暴力搜索

从状态 ([i, j]) 开始搜索,不断分解为更小的状态 ([i-1, j]) 和 ([i, j-1]) ,递归函数包括以下要素。

  • 递归参数:状态 ([i, j]) 。
  • 返回值:从 ([0, 0]) 到 ([i, j]) 的最小路径和 (dp[i, j]) 。
  • 终止条件:当 (i = 0) 且 (j = 0) 时,返回代价 (grid[0, 0]) 。
  • 剪枝:当 (i < 0) 时或 (j < 0) 时索引越界,此时返回代价 (+\infty) ,代表不可行
/* 最小路径和:暴力搜索 */
func minPathSumDFS(grid [][]int, i, j int) int {
// 若为左上角单元格,则终止搜索
if i == 0 && j == 0 {
return grid[0][0]
}
// 若行列索引越界,则返回 +∞ 代价
if i < 0 || j < 0 {
return math.MaxInt
}
// 计算从左上角到 (i-1, j) 和 (i, j-1) 的最小路径代价
up := minPathSumDFS(grid, i-1, j)
left := minPathSumDFS(grid, i, j-1)
// 返回从左上角到 (i, j) 的最小路径代价
return int(math.Min(float64(left), float64(up))) + grid[i][j]
}

从本质上看,造成重叠子问题的原因为:存在多条路径可以从左上角到达某一单元格。

img

每个状态都有向下和向右两种选择,从左上角走到右下角总共需要 (m + n - 2) 步,所以最差时间复杂度为 (O(2^{m + n})) 。请注意,这种计算方式未考虑临近网格边界的情况,当到达网络边界时只剩下一种选择,因此实际的路径数量会少一些。

方法二:记忆化搜索

我们引入一个和网格 grid 相同尺寸的记忆列表 mem ,用于记录各个子问题的解,并将重叠子问题进行剪枝:

/* 最小路径和:记忆化搜索 */
func minPathSumDFSMem(grid, mem [][]int, i, j int) int {
// 若为左上角单元格,则终止搜索
if i == 0 && j == 0 {
return grid[0][0]
}
// 若行列索引越界,则返回 +∞ 代价
if i < 0 || j < 0 {
return math.MaxInt
}
// 若已有记录,则直接返回
if mem[i][j] != -1 {
return mem[i][j]
}
// 左边和上边单元格的最小路径代价
up := minPathSumDFSMem(grid, mem, i-1, j)
left := minPathSumDFSMem(grid, mem, i, j-1)
// 记录并返回左上角到 (i, j) 的最小路径代价
mem[i][j] = int(math.Min(float64(left), float64(up))) + grid[i][j]
return mem[i][j]
}

在引入记忆化后,所有子问题的解只需计算一次,因此时间复杂度取决于状态总数,即网格尺寸 (O(nm)) 。

方法三:动态规划

/* 最小路径和:动态规划 */
func minPathSumDP(grid [][]int) int {
n, m := len(grid), len(grid[0])
// 初始化 dp 表
dp := make([][]int, n)
for i := 0; i < n; i++ {
dp[i] = make([]int, m)
}
dp[0][0] = grid[0][0]
// 状态转移:首行
for j := 1; j < m; j++ {
dp[0][j] = dp[0][j-1] + grid[0][j]
}
// 状态转移:首列
for i := 1; i < n; i++ {
dp[i][0] = dp[i-1][0] + grid[i][0]
}
// 状态转移:其余行和列
for i := 1; i < n; i++ {
for j := 1; j < m; j++ {
dp[i][j] = int(math.Min(float64(dp[i][j-1]), float64(dp[i-1][j]))) + grid[i][j]
}
}
return dp[n-1][m-1]
}

其遍历了整个网格,因此时间复杂度为 (O(nm)) 。
数组 dp 大小为 (n \times m) ,因此空间复杂度为 (O(nm)) 。

空间优化

由于每个格子只与其左边和上边的格子有关,因此我们可以只用一个单行数组来实现 (dp) 表。
请注意,因为数组 dp 只能表示一行的状态,所以我们无法提前初始化首列状态,而是在遍历每行时更新它:

/* 最小路径和:空间优化后的动态规划 */
func minPathSumDPComp(grid [][]int) int {
n, m := len(grid), len(grid[0])
// 初始化 dp 表
dp := make([]int, m)
// 状态转移:首行
dp[0] = grid[0][0]
for j := 1; j < m; j++ {
dp[j] = dp[j-1] + grid[0][j]
}
// 状态转移:其余行和列
for i := 1; i < n; i++ {
// 状态转移:首列
dp[0] = dp[0] + grid[i][0]
// 状态转移:其余列
for j := 1; j < m; j++ {
dp[j] = int(math.Min(float64(dp[j-1]), float64(dp[j]))) + grid[i][j]
}
}
return dp[m-1]
}

0-1 背包问题

给定 (n) 个物品,第 (i) 个物品的重量为 (wgt[i-1])、价值为 (val[i-1]) ,和一个容量为 (cap) 的背包。每个物品只能选择一次,问在限定背包容量下能放入物品的最大价值。

img

我们可以将 0-1 背包问题看作一个由 (n) 轮决策组成的过程,对于每个物体都有不放入和放入两种决策,因此该问题满足决策树模型。
该问题的目标是求解“在限定背包容量下能放入物品的最大价值”,因此较大概率是一个动态规划问题。

  • 第一步:思考每轮的决策,定义状态,从而得到 (dp) 表

对于每个物品来说,不放入背包,背包容量不变;放入背包,背包容量减小。由此可得状态定义:当前物品编号 (i) 和剩余背包容量 (c) ,记为 ([i, c]) 。

状态 ([i, c]) 对应的子问题为:前 (i) 个物品在剩余容量为 (c) 的背包中的最大价值,记为 (dp[i, c])
待求解的是 (dp[n, cap]) ,因此需要一个尺寸为 ((n+1) \times (cap+1)) 的二维 (dp) 表。

  • 第二步:找出最优子结构,进而推导出状态转移方程

当我们做出物品 (i) 的决策后,剩余的是前 (i-1) 个物品的决策,可分为以下两种情况。

  • 不放入物品 (i) :背包容量不变,状态变化为 ([i-1, c]) 。
  • 放入物品 (i) :背包容量减少 (wgt[i-1]) ,价值增加 (val[i-1]) ,状态变化为 ([i-1, c-wgt[i-1]]) 。

上述分析向我们揭示了本题的最优子结构:最大价值 (dp[i, c]) 等于不放入物品 (i) 和放入物品 (i) 两种方案中价值更大的那一个。由此可推导出状态转移方程:

[ dp[i, c] = \max(dp[i-1, c], dp[i-1, c - wgt[i-1]] + val[i-1]) ]

需要注意的是,若当前物品重量 (wgt[i - 1]) 超出剩余背包容量 (c) ,则只能选择不放入背包。

  • 第三步:确定边界条件和状态转移顺序

当无物品或无剩余背包容量时最大价值为 (0) ,即首列 (dp[i, 0]) 和首行 (dp[0, c]) 都等于 (0) 。

当前状态 ([i, c]) 从上方的状态 ([i-1, c]) 和左上方的状态 ([i-1, c-wgt[i-1]]) 转移而来,因此通过两层循环正序遍历整个 (dp) 表即可。

方法一:暴力搜索

  • 递归参数:状态 ([i, c]) 。
  • 返回值:子问题的解 (dp[i, c]) 。
  • 终止条件:当物品编号越界 (i = 0) 或背包剩余容量为 (0) 时,终止递归并返回价值 (0) 。
  • 剪枝:若当前物品重量超出背包剩余容量,则只能选择不放入背包。
/* 0-1 背包:暴力搜索 */
func knapsackDFS(wgt, val []int, i, c int) int {
// 若已选完所有物品或背包无剩余容量,则返回价值 0
if i == 0 || c == 0 {
return 0
}
// 若超过背包容量,则只能选择不放入背包
if wgt[i-1] > c {
return knapsackDFS(wgt, val, i-1, c)
}
// 计算不放入和放入物品 i 的最大价值
no := knapsackDFS(wgt, val, i-1, c)
yes := knapsackDFS(wgt, val, i-1, c-wgt[i-1]) + val[i-1]
// 返回两种方案中价值更大的那一个
return int(math.Max(float64(no), float64(yes)))
}

img

观察递归树,容易发现其中存在重叠子问题,例如 (dp[1, 10]) 等。而当物品较多、背包容量较大,尤其是相同重量的物品较多时,重叠子问题的数量将会大幅增多。

方法二:记忆化搜索

为了保证重叠子问题只被计算一次,我们借助记忆列表 mem 来记录子问题的解,其中 mem[i][c] 对应 (dp[i, c]) 。

引入记忆化之后,时间复杂度取决于子问题数量,也就是 (O(n \times cap)) 。

/* 0-1 背包:记忆化搜索 */
func knapsackDFSMem(wgt, val []int, mem [][]int, i, c int) int {
// 若已选完所有物品或背包无剩余容量,则返回价值 0
if i == 0 || c == 0 {
return 0
}
// 若已有记录,则直接返回
if mem[i][c] != -1 {
return mem[i][c]
}
// 若超过背包容量,则只能选择不放入背包
if wgt[i-1] > c {
return knapsackDFSMem(wgt, val, mem, i-1, c)
}
// 计算不放入和放入物品 i 的最大价值
no := knapsackDFSMem(wgt, val, mem, i-1, c)
yes := knapsackDFSMem(wgt, val, mem, i-1, c-wgt[i-1]) + val[i-1]
// 返回两种方案中价值更大的那一个
mem[i][c] = int(math.Max(float64(no), float64(yes)))
return mem[i][c]
}

img

方法三:动态规划

动态规划实质上就是在状态转移中填充 (dp) 表的过程,代码如下所示:

/* 0-1 背包:动态规划 */
func knapsackDP(wgt, val []int, cap int) int {
n := len(wgt)
// 初始化 dp 表
dp := make([][]int, n+1)
for i := 0; i <= n; i++ {
dp[i] = make([]int, cap+1)
}
// 状态转移
for i := 1; i <= n; i++ {
for c := 1; c <= cap; c++ {
if wgt[i-1] > c {
// 若超过背包容量,则不选物品 i
dp[i][c] = dp[i-1][c]
} else {
// 不选和选物品 i 这两种方案的较大值
dp[i][c] = int(math.Max(float64(dp[i-1][c]), float64(dp[i-1][c-wgt[i-1]]+val[i-1])))
}
}
}
return dp[n][cap]
}

时间复杂度和空间复杂度都由数组 dp 大小决定,即 (O(n \times cap)) 。

img

空间优化

由于每个状态都只与其上一行的状态有关,因此我们可以使用两个数组滚动前进,将空间复杂度从 (O(n^2)) 降至 (O(n)) 。

进一步思考,我们能否仅用一个数组实现空间优化呢?观察可知,每个状态都是由正上方或左上方的格子转移过来的。假设只有一个数组,当开始遍历第 (i) 行时,该数组存储的仍然是第 (i-1) 行的状态。

  • 如果采取正序遍历,那么遍历到 (dp[i, j]) 时,左上方 (dp[i-1, 1]) ~ (dp[i-1, j-1]) 值可能已经被覆盖,此时就无法得到正确的状态转移结果。
  • 如果采取倒序遍历,则不会发生覆盖问题,状态转移可以正确进行。

img

在代码实现中,我们仅需将数组 dp 的第一维 (i) 直接删除,并且把内循环更改为倒序遍历即可:

/* 0-1 背包:空间优化后的动态规划 */
func knapsackDPComp(wgt, val []int, cap int) int {
n := len(wgt)
// 初始化 dp 表
dp := make([]int, cap+1)
// 状态转移
for i := 1; i <= n; i++ {
// 倒序遍历
for c := cap; c >= 1; c-- {
if wgt[i-1] <= c {
// 不选和选物品 i 这两种方案的较大值
dp[c] = int(math.Max(float64(dp[c]), float64(dp[c-wgt[i-1]]+val[i-1])))
}
}
}
return dp[cap]
}

完全背包问题

给定 (n) 个物品,第 (i) 个物品的重量为 (wgt[i-1])、价值为 (val[i-1]) ,和一个容量为 (cap) 的背包。每个物品可以重复选取,问在限定背包容量下能放入物品的最大价值。示例如图 14-22 所示。

img

完全背包问题

动态规划思路

完全背包问题和 0-1 背包问题非常相似,区别仅在于不限制物品的选择次数。

  • 在 0-1 背包问题中,每种物品只有一个,因此将物品 (i) 放入背包后,只能从前 (i-1) 个物品中选择。
  • 在完全背包问题中,每种物品的数量是无限的,因此将物品 (i) 放入背包后,仍可以从前 (i) 个物品中选择。

在完全背包问题的规定下,状态 ([i, c]) 的变化分为两种情况。

  • 不放入物品 (i) :与 0-1 背包问题相同,转移至 ([i-1, c]) 。
  • 放入物品 (i) :与 0-1 背包问题不同,转移至 ([i, c-wgt[i-1]]) 。

从而状态转移方程变为:

[ dp[i, c] = \max(dp[i-1, c], dp[i, c - wgt[i-1]] + val[i-1]) ]

代码实现

对比两道题目的代码,状态转移中有一处从 (i-1) 变为 (i) ,其余完全一致:

/* 完全背包:动态规划 */
func unboundedKnapsackDP(wgt, val []int, cap int) int {
n := len(wgt)
// 初始化 dp 表
dp := make([][]int, n+1)
for i := 0; i <= n; i++ {
dp[i] = make([]int, cap+1)
}
// 状态转移
for i := 1; i <= n; i++ {
for c := 1; c <= cap; c++ {
if wgt[i-1] > c {
// 若超过背包容量,则不选物品 i
dp[i][c] = dp[i-1][c]
} else {
// 不选和选物品 i 这两种方案的较大值
dp[i][c] = int(math.Max(float64(dp[i-1][c]), float64(dp[i][c-wgt[i-1]]+val[i-1])))
}
}
}
return dp[n][cap]
}

空间优化

由于当前状态是从左边和上边的状态转移而来的,因此空间优化后应该对 (dp) 表中的每一行进行正序遍历。

这个遍历顺序与 0-1 背包正好相反。请借助图 14-23 来理解两者的区别。

img

/* 完全背包:空间优化后的动态规划 */
func unboundedKnapsackDPComp(wgt, val []int, cap int) int {
n := len(wgt)
// 初始化 dp 表
dp := make([]int, cap+1)
// 状态转移
for i := 1; i <= n; i++ {
for c := 1; c <= cap; c++ {
if wgt[i-1] > c {
// 若超过背包容量,则不选物品 i
dp[c] = dp[c]
} else {
// 不选和选物品 i 这两种方案的较大值
dp[c] = int(math.Max(float64(dp[c]), float64(dp[c-wgt[i-1]]+val[i-1])))
}
}
}
return dp[cap]
}

零钱兑换问题

给定 (n) 种硬币,第 (i) 种硬币的面值为 (coins[i - 1]) ,目标金额为 (amt) ,每种硬币可以重复选取,问能够凑出目标金额的最少硬币数量。如果无法凑出目标金额,则返回 (-1) 。示例如图 14-24 所示。

img

动态规划思路

零钱兑换可以看作完全背包问题的一种特殊情况,两者具有以下联系与不同点。

  • 两道题可以相互转换,“物品”对应“硬币”、“物品重量”对应“硬币面值”、“背包容量”对应“目标金额”。
  • 优化目标相反,完全背包问题是要最大化物品价值,零钱兑换问题是要最小化硬币数量。
  • 完全背包问题是求“不超过”背包容量下的解,零钱兑换是求“恰好”凑到目标金额的解。
  1. 第一步:思考每轮的决策,定义状态,从而得到 (dp) 表
    状态 ([i, a]) 对应的子问题为:前 (i) 种硬币能够凑出金额 (a) 的最少硬币数量,记为 (dp[i, a]) 。
    二维 (dp) 表的尺寸为 ((n+1) \times (amt+1)) 。

  2. 第二步:找出最优子结构,进而推导出状态转移方程
    本题与完全背包问题的状态转移方程存在以下两点差异。

  • 本题要求最小值,因此需将运算符 (\max()) 更改为 (\min()) 。
  • 优化主体是硬币数量而非商品价值,因此在选中硬币时执行 (+1) 即可。
    [ dp[i, a] = \min(dp[i-1, a], dp[i, a - coins[i-1]] + 1) ]
  1. 第三步:确定边界条件和状态转移顺序
    当目标金额为 (0) 时,凑出它的最少硬币数量为 (0) ,即首列所有 (dp[i, 0]) 都等于 (0) 。
    当无硬币时,无法凑出任意 (> 0) 的目标金额,即是无效解。为使状态转移方程中的 (\min()) 函数能够识别并过滤无效解,我们考虑使用 (+ \infty) 来表示它们,即令首行所有 (dp[0, a]) 都等于 (+ \infty) 。

代码实现

大多数编程语言并未提供 (+ \infty) 变量,只能使用整型 int 的最大值来代替。而这又会导致大数越界:状态转移方程中的 (+ 1) 操作可能发生溢出。

为此,我们采用数字 (amt + 1) 来表示无效解,因为凑出 (amt) 的硬币数量最多为 (amt) 。最后返回前,判断 (dp[n, amt]) 是否等于 (amt + 1) ,若是则返回 (-1) ,代表无法凑出目标金额。代码如下所示:

/* 零钱兑换:动态规划 */
func coinChangeDP(coins []int, amt int) int {
n := len(coins)
max := amt + 1
// 初始化 dp 表
dp := make([][]int, n+1)
for i := 0; i <= n; i++ {
dp[i] = make([]int, amt+1)
}
// 状态转移:首行首列
for a := 1; a <= amt; a++ {
dp[0][a] = max
}
// 状态转移:其余行和列
for i := 1; i <= n; i++ {
for a := 1; a <= amt; a++ {
if coins[i-1] > a {
// 若超过目标金额,则不选硬币 i
dp[i][a] = dp[i-1][a]
} else {
// 不选和选硬币 i 这两种方案的较小值
dp[i][a] = int(math.Min(float64(dp[i-1][a]), float64(dp[i][a-coins[i-1]]+1)))
}
}
}
if dp[n][amt] != max {
return dp[n][amt]
}
return -1
}

img

空间优化

零钱兑换的空间优化的处理方式和完全背包问题一致:

/* 零钱兑换:动态规划 */
func coinChangeDPComp(coins []int, amt int) int {
n := len(coins)
max := amt + 1
// 初始化 dp 表
dp := make([]int, amt+1)
for i := 1; i <= amt; i++ {
dp[i] = max
}
// 状态转移
for i := 1; i <= n; i++ {
// 倒序遍历
for a := 1; a <= amt; a++ {
if coins[i-1] > a {
// 若超过目标金额,则不选硬币 i
dp[a] = dp[a]
} else {
// 不选和选硬币 i 这两种方案的较小值
dp[a] = int(math.Min(float64(dp[a]), float64(dp[a-coins[i-1]]+1)))
}
}
}
if dp[amt] != max {
return dp[amt]
}
return -1
}

零钱兑换问题 II

给定 (n) 种硬币,第 (i) 种硬币的面值为 (coins[i - 1]) ,目标金额为 (amt) ,每种硬币可以重复选取,问凑出目标金额的硬币组合数量。示例如图 14-26 所示。

img

动态规划思路

相比于上一题,本题目标是求组合数量,因此子问题变为:前 (i) 种硬币能够凑出金额 (a) 的组合数量。而 (dp) 表仍然是尺寸为 ((n+1) \times (amt + 1)) 的二维矩阵。

当前状态的组合数量等于不选当前硬币与选当前硬币这两种决策的组合数量之和。状态转移方程为:

[ dp[i, a] = dp[i-1, a] + dp[i, a - coins[i-1]] ]

当目标金额为 (0) 时,无须选择任何硬币即可凑出目标金额,因此应将首列所有 (dp[i, 0]) 都初始化为 (1) 。当无硬币时,无法凑出任何 (>0) 的目标金额,因此首行所有 (dp[0, a]) 都等于 (0) 。

代码实现

/* 零钱兑换 II:动态规划 */
func coinChangeIIDP(coins []int, amt int) int {
n := len(coins)
// 初始化 dp 表
dp := make([][]int, n+1)
for i := 0; i <= n; i++ {
dp[i] = make([]int, amt+1)
}
// 初始化首列
for i := 0; i <= n; i++ {
dp[i][0] = 1
}
// 状态转移:其余行和列
for i := 1; i <= n; i++ {
for a := 1; a <= amt; a++ {
if coins[i-1] > a {
// 若超过目标金额,则不选硬币 i
dp[i][a] = dp[i-1][a]
} else {
// 不选和选硬币 i 这两种方案之和
dp[i][a] = dp[i-1][a] + dp[i][a-coins[i-1]]
}
}
}
return dp[n][amt]
}

空间优化

空间优化处理方式相同,删除硬币维度即可:

/* 零钱兑换 II:空间优化后的动态规划 */
func coinChangeIIDPComp(coins []int, amt int) int {
n := len(coins)
// 初始化 dp 表
dp := make([]int, amt+1)
dp[0] = 1
// 状态转移
for i := 1; i <= n; i++ {
// 倒序遍历
for a := 1; a <= amt; a++ {
if coins[i-1] > a {
// 若超过目标金额,则不选硬币 i
dp[a] = dp[a]
} else {
// 不选和选硬币 i 这两种方案之和
dp[a] = dp[a] + dp[a-coins[i-1]]
}
}
}
return dp[amt]
}

编辑距离问题

编辑距离,也称 Levenshtein 距离,指两个字符串之间互相转换的最少修改次数,通常用于在信息检索和自然语言处理中度量两个序列的相似度。

输入两个字符串 (s) 和 (t) ,返回将 (s) 转换为 (t) 所需的最少编辑步数。
你可以在一个字符串中进行三种编辑操作:插入一个字符、删除一个字符、将字符替换为任意一个字符。

将 kitten 转换为 sitting 需要编辑 3 步,包括 2 次替换操作与 1 次添加操作;将 hello 转换为 algo 需要 3 步,包括 2 次替换操作和 1 次删除操作。

img

编辑距离问题可以很自然地用决策树模型来解释。字符串对应树节点,一轮决策(一次编辑操作)对应树的一条边。
如图 14-28 所示,在不限制操作的情况下,每个节点都可以派生出许多条边,每条边对应一种操作,这意味着从 hello 转换到 algo 有许多种可能的路径。
从决策树的角度看,本题的目标是求解节点 hello 和节点 algo 之间的最短路径。

img

动态规划思路

  1. 第一步:思考每轮的决策,定义状态,从而得到 (dp) 表

每一轮的决策是对字符串 (s) 进行一次编辑操作。

我们希望在编辑操作的过程中,问题的规模逐渐缩小,这样才能构建子问题。设字符串 (s) 和 (t) 的长度分别为 (n) 和 (m) ,我们先考虑两字符串尾部的字符 (s[n-1]) 和 (t[m-1]) 。

  • 若 (s[n-1]) 和 (t[m-1]) 相同,我们可以跳过它们,直接考虑 (s[n-2]) 和 (t[m-2]) 。
  • 若 (s[n-1]) 和 (t[m-1]) 不同,我们需要对 (s) 进行一次编辑(插入、删除、替换),使得两字符串尾部的字符相同,从而可以跳过它们,考虑规模更小的问题。

也就是说,我们在字符串 (s) 中进行的每一轮决策(编辑操作),都会使得 (s) 和 (t) 中剩余的待匹配字符发生变化。因此,状态为当前在 (s) 和 (t) 中考虑的第 (i) 和第 (j) 个字符,记为 ([i, j]) 。

状态 ([i, j]) 对应的子问题:将 (s) 的前 (i) 个字符更改为 (t) 的前 (j) 个字符所需的最少编辑步数。
至此,得到一个尺寸为 ((i+1) \times (j+1)) 的二维 (dp) 表。

  1. 第二步:找出最优子结构,进而推导出状态转移方程

考虑子问题 (dp[i, j]) ,其对应的两个字符串的尾部字符为 (s[i-1]) 和 (t[j-1]) ,可根据不同编辑操作分为图 14-29 所示的三种情况。

  • 在 (s[i-1]) 之后添加 (t[j-1]) ,则剩余子问题 (dp[i, j-1]) 。
  • 删除 (s[i-1]) ,则剩余子问题 (dp[i-1, j]) 。
  • 将 (s[i-1]) 替换为 (t[j-1]) ,则剩余子问题 (dp[i-1, j-1]) 。

img

根据以上分析,可得最优子结构:(dp[i, j]) 的最少编辑步数等于 (dp[i, j-1])、(dp[i-1, j])、(dp[i-1, j-1]) 三者中的最少编辑步数,再加上本次的编辑步数 (1) 。对应的状态转移方程为:

[ dp[i, j] = \min(dp[i, j-1], dp[i-1, j], dp[i-1, j-1]) + 1 ]
请注意,当 (s[i-1]) 和 (t[j-1]) 相同时,无须编辑当前字符,这种情况下的状态转移方程为:
[ dp[i, j] = dp[i-1, j-1] ]

  1. 第三步:确定边界条件和状态转移顺序

当两字符串都为空时,编辑步数为 (0) ,即 (dp[0, 0] = 0) 。当 (s) 为空但 (t) 不为空时,最少编辑步数等于 (t) 的长度,即首行 (dp[0, j] = j) 。当 (s) 不为空但 (t) 为空时,最少编辑步数等于 (s) 的长度,即首列 (dp[i, 0] = i) 。
观察状态转移方程,解 (dp[i, j]) 依赖左方、上方、左上方的解,因此通过两层循环正序遍历整个 (dp) 表即可。

代码实现

/* 编辑距离:动态规划 */
func editDistanceDP(s string, t string) int {
n := len(s)
m := len(t)
dp := make([][]int, n+1)
for i := 0; i <= n; i++ {
dp[i] = make([]int, m+1)
}
// 状态转移:首行首列
for i := 1; i <= n; i++ {
dp[i][0] = i
}
for j := 1; j <= m; j++ {
dp[0][j] = j
}
// 状态转移:其余行和列
for i := 1; i <= n; i++ {
for j := 1; j <= m; j++ {
if s[i-1] == t[j-1] {
// 若两字符相等,则直接跳过此两字符
dp[i][j] = dp[i-1][j-1]
} else {
// 最少编辑步数 = 插入、删除、替换这三种操作的最少编辑步数 + 1
dp[i][j] = MinInt(MinInt(dp[i][j-1], dp[i-1][j]), dp[i-1][j-1]) + 1
}
}
}
return dp[n][m]
}

img

空间优化

由于 (dp[i,j]) 是由上方 (dp[i-1, j])、左方 (dp[i, j-1])、左上方 (dp[i-1, j-1]) 转移而来的,而正序遍历会丢失左上方 (dp[i-1, j-1]) ,倒序遍历无法提前构建 (dp[i, j-1]) ,因此两种遍历顺序都不可取。

为此,我们可以使用一个变量 leftup 来暂存左上方的解 (dp[i-1, j-1]) ,从而只需考虑左方和上方的解。此时的情况与完全背包问题相同,可使用正序遍历。代码如下所示:

/* 编辑距离:空间优化后的动态规划 */
func editDistanceDPComp(s string, t string) int {
n := len(s)
m := len(t)
dp := make([]int, m+1)
// 状态转移:首行
for j := 1; j <= m; j++ {
dp[j] = j
}
// 状态转移:其余行
for i := 1; i <= n; i++ {
// 状态转移:首列
leftUp := dp[0] // 暂存 dp[i-1, j-1]
dp[0] = i
// 状态转移:其余列
for j := 1; j <= m; j++ {
temp := dp[j]
if s[i-1] == t[j-1] {
// 若两字符相等,则直接跳过此两字符
dp[j] = leftUp
} else {
// 最少编辑步数 = 插入、删除、替换这三种操作的最少编辑步数 + 1
dp[j] = MinInt(MinInt(dp[j-1], dp[j]), leftUp) + 1
}
leftUp = temp // 更新为下一轮的 dp[i-1, j-1]
}
}
return dp[m]
}

本文作者:Blue Mountain

本文链接:https://www.cnblogs.com/BlueMountain-HaggenDazs/p/18041061

版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。

posted @   Blue Mountain  阅读(73)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· AI技术革命,工作效率10个最佳AI工具
点击右上角即可分享
微信分享提示
评论
收藏
关注
推荐
深色
回顶
收起
  1. 1 404 not found REOL
404 not found - REOL
00:00 / 00:00
An audio error has occurred.