凸面镜反射场景的无监督预适应语义分割

最近,我们组的关于凸面镜反射场景无监督域适应语义分割的工作《Unsupervised Domain Adaptation for Semantic Segmentation of Urban Street Scenes Reflected by Convex Mirrors》被IEEE Transactions on Intelligent Transportation Systems (T-ITS)接收,该工作也是目前学术界内第一篇有关凸面镜场景理解的工作。文章传送门:https://ieeexplore.ieee.org/document/9903282

关键词

畸变,凸面镜,语义分割,无监督域适应

研究背景

凸面镜由于可以提供大的视野,常常被用在街道拐角处或被用作汽车的乘客侧后视镜。通过反射视野盲区,凸面镜可以为行人和司机提供安全保障。

图1

近年来,随着自动驾驶和智能交通的快速发展,如何智能地理解凸面镜反射的场景是一个重要的问题。然而CNN在语义分割方面取得了巨大的成就主要归功于利用大量标注数据的监督学习,然而人类在像素级的标注上所花费的时间和精力是巨大的。无监督领域适应方法(UDA)旨在将知识从标签丰富的源域转移到标签稀少的目标域,从而减少源域和目标域之间的域差距。然而,已有方法重在缓解由渲染图像和真实图像或不同城市之间的风格带来的领域差异。对于正常图像和凸面镜反射图像而言,他们的差异主要体现在几何外观上,即凸面镜反射图像具有较大的畸变,而正常图像则没有。因此,以前的主要解决由风格差异带来域差异的无监督域适应方法,并不完全适用于解决由几何外观不同所带来的域差异。

作者提出了一个框架,以缓解正常和凸面镜反射图像之间的几何域差异。他们根据凸面镜反射图像的变形特性对其进行几何建模,并提出了一个在线可微分凸面镜模拟网络层(Convex Mirror Simulation Layer,CMSL)。在CMSL的帮助下,分别对输入空间的低级边缘和输出空间的高级语义边界进行对抗性领域适应,以减少合成图像和真实图像之间的几何外观差距。为了便于研究凸面镜反射图像的语义分割,作者在北京大学校园内采集数据,并贡献了一个数据集 Convex Mirror Reflection Dataset (CMR1K)。CMR1K包含268张带有密集像素级语义注释的图像。实验结果表明,作者的方法在不同的源域和不同的骨干网络上都优于基线和以前的UDA方法。

凸面镜反射模拟层的建立

本节阐述了提出的凸面镜模拟层。作者观察到,在用凸面镜反射的场景中存在两种畸变。一种是由凸面反射面引起的径向畸变,另一种是由凸面镜的倾斜引起的透视畸变。为了模拟这两种类型的畸变,首先对正常图像进行径向畸变。

图2  用不同的k得到的具有不同程度变形的图像。  k的绝对值越高,图像中的径向畸变就越强

然后,虚拟一个摄像机并将径向畸变的图像放在空间中。通过旋转径向畸变的图像并将其投射到图像平面,可以模拟透视畸变
图3

以这种方式合成的图像可能只占据了图像平面的一小部分。为了使合成的凸面镜充满整个图像区域,将倾斜的凸面镜区域进行对齐是必要的。

图4

下面的章节将详细地描述每个过程。在此之前,不同图像预定义的符号如下表所示。

表1

模拟凸面镜的径向畸变

当正对着凸面镜拍摄时,变形程度在凸面镜的边缘较大,在中间较小。此外,整个变形是中心对称的,呈现出桶状。基于这一观察,作者选择了一个径向畸变模型来对图像进行变形操作。假设径向畸变图像中的一个点xb的坐标为[xb,yb]T,对应于原始图像中xo的坐标为[xo,yo]T,畸变模型可以用以下公式描述:

(1)[xbyb]=114kro22kro2[xoyo],

其中其中 k 表示畸变程度,ro=xo2+yo2。不同的 k 会影响到径向畸变的程度。如图2所示, k 越小,径向畸变的程度越大。

建立坐标系

为了模拟透视畸变,首先建立摄像机坐标系和世界坐标系。假设摄像机坐标系为Oc-XcYcZc,世界坐标系为Ow-XwYwZw。 世界坐标系下的一点P=[Xp,Yp,Zp]T在摄像机坐标系下可以表示为M=[Xm,Ym,Zm]T,它们的关系可以由下式描述:

(2)M=RP+t,

其中Rt分别是两个坐标系之间的旋转矩阵和平移向量。为简化模拟过程,设定:

(3)R=[100010001]

和平移向量t=[0,0,d]T。假设摄像机的焦距为f,内参数矩阵K可以表示为:

(4)K=[f000f0001].

P的投影m~可以通过以下方式得到:

(5)m~=K(RP+t)=K(P+t).

建立世界坐标系中一点P与其对应投影点m~的关系后,成像过程包括将径向畸变图像放置在XwOwYw平面上,并将其投影在图像平面上。接下来将通过旋转放置的径向畸变图像模拟透视畸变。

模拟凸面镜透视畸变

将径向畸变图像与其所在的坐标系Ow-XwYwZw分别绕OwXwOwYw轴旋转αβ度。假设旋转后的坐标系为Ow-XwYwZw。原世界坐标系下一点P=[Xp,Yp,Zp]T在旋转后的坐标系中对应于P=[Xp,Yp,Zp]T,它们的关系为:

(6)P=RxyP.

在上述公式中,

(7)Rxy=RxRy=[1000c1s10s1c1][c20s2010s20c2]=[c20s2s1s2c1s1c2c1s2s1c1c2],

其中s1=sinαs2=sinβc1=cosαc2=cosβ。结合式7和式5,可以得到:

(8)m~=K(P+t)=K(Rxy1P+t).

Ow-XwYwZw坐标系中,径向畸变图像在XwOwYw平面内,因此有Zp=0。令Rxy1=[r1,r2,r3],其中ri表示Rxy1的列向量,i=1,2,3。 则式8可以写成:

(9)m~=K(Rxy1P+t)=K([r1,r2,r3][XpYp0]+t).

假设径向畸变图像上一点[xb,yb]TXwOwYw平面上一点[Xp,Yp]T的关系为:

(10)[xbyb]=1λ[XpYp].

事实上,这里设定λ=1。结合式9和式10,可以得到径向畸变图像上一点x~b与其投影点x~p之间的关系为:

(11)x~p=[xpyp1]=K([r1,r2,t][xbyb1]).

由于Rxy为正交矩阵,Rxy的逆为其转置,因此r1r2分别是Rxy的第一行和第二行。将式11改写为:

(12)x~p=[xpyp1]=[c2s1s200c10s2s1c2df][xbyb1]=H1x~b,

其中H1表示单应矩阵。原始图像点[xo,yo]与透视畸变图像点[xp,yp]之间的关系可以通过式1和式12建立。
即给定任何正常图像,可设置不同的αβdk来获得不同的凸面镜图像。 然而,以这种方式合成的图像可能只占成像平面的一小部分,尤其是当距离d非常大时。 缩小的图像会破坏原始图像中的结构信息,因此,有必要在投影后对凸面镜区域(即椭圆区域)进行平移和缩放,使其能够充满整个成像区域。

凸面镜反射区域对齐

为方便对齐,需要找到椭圆的上、下、左、右边界,如图所示。假设图像经过径向畸变后,边界上的点为x~b=[xb,yb,1]T。根据圆的公式定义可以得到:

(13)x~bTCx~b=0,

其中,

(14)C=[10001000r2].

r表示径向畸变图像边界圆的半径。事实上,畸变图像的坐标已经被归一化为[1,1],因此r=1,并且

(15)C=[100010001].

结合式12和式13,可以得到:

(16)x~pTH1TCH11x~p=x~pTChx~p=0,

其中,

(17)Ch=H1TCH11.

将式16转化为其对偶形式:

(18)lpTChlp=0,

其中lp=[ap,bp,1]T表示椭圆的切线,并且有:

(19)lpTx~p=0

(20)Ch=Ch1=(H1TCH11)1=H1C1H1T=[c22+s12s22s1s2c1c2s2s12s2c2c1s1s2c12c1s1c2s2c2s12c2s2s1c2c1s22+s12c22(df)2].

椭圆上边界和下边界的切线是[0,bp,1],假设

(21)Ch=[c11c12c13c21c22c23c31c32c33],

结合式18,可以得到:

(22)[0bp1]T[c11c12c13c21c22c23c31c32c33][0bp1]=0.

对式2进行化简,可以得到:

(23)c23bp2+(c23+c32)bp+c33=0.

式23是一个一元二次方程,两个根bp1bp2分别为:

(24)bp1=(c23+c32)+(c23+c32)24c22c332c22bp2=(c23+c32)(c23+c32)24c22c332c22.

c22=c12>0,并且df>1,可以得到c33=s22+s12c22(df)2s22+c22(df)2=1(df)2<0,因此bp1>0>bp2

结合式19,可以得到下边界yp1=1bp1=2c22(c23+c32)+(c23+c32)24c22c33和上边界yp2=1bp2=2c22(c23+c32)(c23+c32)24c22c33。同理可得右边界xp2=2c11(c13+c31)(c13+c31)24c11c33和左边界xp1=2c11(c13+c31)+(c13+c31)24c11c33。中心点坐标(cx,cy)可表示为(cx,cy)=(xp1+xp22,yp1+yp22)

缩放尺度e可表示为:

(25)e=min(2xp2xp1,2yp2yp1).

2xp2xp1<2yp2yp1,即d2f2(c22+s12s22c12)>s12c12s22时,

(26)e=2xp2xp1=(df)2s22s12c22(df)2(c22+s12s22)s12.

2xp2xp12yp2yp1,即d2f2(c22+s12s22c12)s12c12s22时,

(27)e=2yp2yp1=(df)2s22s12c22(df)2c12c12s22.

假设对齐图像中一点坐标为x~a=[xa,ya,1]T,对齐变换可以表示为:

(28)x~a=[xaya1]=[e0cx0ecy001][xpyp1]=H2x~p.

结合式26、27和28,可以得到:

d2f2(c22+s12s22c12)>s12c12s22时,

(29)H2=[(df)2s22s12c22(df)2(c22+s12s22)s120s2c2c12s22+s12c22(df)20(df)2s22s12c22(df)2(c22+s12s22)s12s1c1c2s22+s12c22(df)2001].

d2f2(c22+s12s22c12)s12c12s22时,

(30)H2=[(df)2s22s12c22(df)2c12c12s220s2c2c12s22+s12c22(df)20(df)2s22s12c22(df)2c12c12s22s1c1c2s22+s12c22(df)2001].

总变换表示

结合式29、12和1,可以得到:

(31)x~a=H2x~p=H2H1x~b=Hx~b,xb=114kro22kro2xo,

其中,当d2f2(c22+s12s22c12)>s12c12s22时,

(32)H=[c2(df)2c2s22s12c23(df)2(c22+s12s22)s12s22c2c12s22+s12c22d2f2s1s23+s13s2c22s1s2(df)2(df)2(c22+s12s22)s12s1s2c12c22s22+s12c22d2f2s2c12c2dfs22+s12c22d2f2s1s2c1c2s22+s12c22d2f2c1(df)2c1s22s12c1c22(df)2(c22+s12s22)s12s12c1c22s22+s12c22d2f2s1c1c2dfs22+s12c22d2f2s2s1c2df].

d2f2(c22+s12s22c12)s12c12s22时,

(33)H=[c2(df)2c2s22s12c23(df)2c12c12s22s22c2c12s22+s12c22d2f2s1s2(df)2s1s23s13s2c22(df)2c12c12s22s1s2c12c22s22+s12c22d2f2s2c12c2dfs22+s12c22d2f2s1s2c1c2s22+s12c22d2f2c1(df)2c1s22s12c1c22(df)2c12c12s22s12c1c22s22+s12c22d2f2s1c1c2dfs22+s12c22d2f2s2s1c2df].

在式31中,xo 是正常图像上的一点,x~a是模拟的凸镜图像上的对应点,H是与αβd有关的矩阵。通过改变αβd,可以模拟凸面镜倾斜产生的透视畸变,同样地,通过改变参数k可以模拟不同凸面镜的径向畸变。结合径向畸变和透视畸变即可完整地模拟凸面镜引起的变形。现有深度学习框架包含自动求导技术,只需要实现设计的CMSL的前向传播过程。通过将CMSL嵌入到所设计的算法框架中,不同的畸变参数αβdk被动态优化,从而能够利用正常图像合成逼真的凸面镜图像,并减少正常图像和真实凸面镜图像之间的域差异。

凸面镜反射场景的无监督预适应语义分割

图5  北大研究人员针对凸面镜无监督域适应语义分割问题提出的算法框架

北京大学研究人员提出的凸面镜反射场景无监督域适应语义分割框架如上图所示。令Ds={(Is,ys)}表示带标签的源域样本,Dt={It}表示未标注的目标域凸面镜样本。首先使用设计的变形估计器F估计It中潜在的畸变参数p=[α,β,k,d],上述过程可表示为p=F(It)。然后将估计的pIs输入设计的凸面镜模拟网络层M,合成的凸面镜反射图像Is可以通过Is=M(F(It),Is)得到,同样可以得到变形的标签ys=M(F(It),ys)。之后,IsIt被送入分割网络G,得到分割结果y^sy^t。对于Is,网络可以通过监督学习进行训练。假设网络对Is分割结果的Softmax输出为PIs=G(Is)RH×W×K,其中H×WK表示输出尺寸和类别数目,源域上的监督损失可以表示为:

(34)Lsup(Is,ys)=h=1Hw=1Wk=1KyslogPIs,

其中,ysys的独热(One-hot)编码。由于It没有相应的标签,为了减少域之间的差异,优化目标是使合成图像在几何外观上更接近真实图像,即让变形估计器能够获得目标域凸面镜图像It的潜在畸变参数。在此基础上,分别对输入图像的边缘和分割结果的语义边界进行对抗学习。此外,熵值最小化和基于颜色的风格转换技术也被进一步用于减少由风格引起的域差异。

边缘上的对抗学习

为了使合成图像在几何外观上接近真实图像,一个直观的想法是使用判别器对输入空间中的合成图像和真实图像进行对抗学习。然而,在这种情况下,判别器可能只关注内容信息,而忽略了更重要的几何信息。为了解决这个问题,本章对输入图像进行边缘提取,并对提取的边缘图进行判别。边缘提取可以描述为:

(35)ζI=12GI,

其中ζI是输出边缘图,G表示高斯滤波器。操作G可以通过Sobel算子实现。通过构建一个参数为θDgeo的全卷积判别器网络Dgeo,并将ζI作为输入,产生域分类输出,即源域的类标签为1,目标域的类标签为0。然后训练判别器判别输入来自源域还是目标域,同时训练变形估计器欺骗判别器。
假设二值交叉熵分类损失 Lbce 被定义为:

(36)Lbce(O,z)=hHwW(1z)log(1O)+zlog(O),

其中O是概率图,并且ORH×W。判别器的训练损失为:

(37)LDgeo=Lbce(Dgeo(ζIs),1)+Lbce(Dgeo(ζIt),0).

训练变形估计器的对抗损失为:

(38)Lgeo=Lbce(Dgeo(ζIs),0).

式37的原理是训练判别器Dgeo,使其能够检测出凸面镜反射图像是合成数据还是真实数据,而式38则优化变形估计器F,使利用其输出的参数合成的图像能够欺骗判别器。在这种对抗学习方法中,原始图像可以用来合成与凸面镜图像相似的图像,从而减少几何域差异。

在语义边界上对抗学习

与从原始图像中提取的边缘图相比,语义边界的边缘更加清晰。这些清晰的边缘具有强烈的几何信息,对于指导变形估计器预测畸变参数有着重要的作用。在此基础上,本章从分割结果中提取语义边界并对其进行判别。语义边界可以表示为:

(39)ζPI=12GargmaxkPI.

假设用于判别语义边界的判别器是Dsem,与式37和式38相似,Dsem的损失可以表示为:

(40)LDsem=Lbce(Dsem(ζPIs),1)+Lbce(Dsem(ζPIt),0).

对应的变形估计器的损失为:

(41)Lsem=Lbce(Dsem(ζPIs),0).

为了通过式41进行反向传播,需要计算式39的梯度。令g=.,对给定参数η的偏导数可以通过下式计算:

(42)Lη=GLζPIζPIgargmaxkPIη.

由于 argmax是一个不可微的函数,本章使用Gumbel-Softmax技巧\supercite{jang2016categorical}解决梯度无法回传的问题。在梯度回传过程中,用温度为τ的Softmax函数对argmax算子近似,可以得到:

(43)argmaxkPη=ηexp((logP+G)/τ)kexp((logP+G)/τ),

其中G Gumbel (0,1),τ是一个超参数。结合式38和式41,变形估计器总的损失为:

(44)Lpose=Lgeo+λsemLsem,

最小化加权自信息

熵最小化方法旨在将目标输出概率图的熵最小化,通过模仿源域预测的过度自信行为减少域差异。引入熵最小化技术另一个目的是减少目标分割结果的离散化,从而提取清晰的语义边界,以便于对其进行对抗学习。事实上,AdvEnt提出了一种间接的基于加权自信息的对齐方法。加权的自信息被定义为:

(45)EI=PIlogPI.

假设用于判别加权自信息的判别器是DentDent的损失函数可以通过以下方式得到:

(46)LDent=Lbce(Dent(EIs),1)+Lbce(Dent(EIt),0).

训练分割网络的对抗损失为:

(47)Lent=Lbce(Dent(EIt),1).

结合式34和式47,分割网络的总的损失为:

(48)Lseg=Lsup+λentLent,

图像风格转换

除了在几何形态上存在域差异,凸面镜反射图像和正常的图像在风格上也存在一定的域差异。为了减少由图像颜色、纹理等风格引起的域差异,北京大学研究人员采用一种在LAB色彩空间对齐的域适应方法。具体实施过程如下:给定一张源域图像,首先将其从RGB色彩空间转换到LAB色彩空间,得到Islab,并计算Islab的均值μs和方差σs。对目标域图像做同样的操作,得到目标域图像在LAB色彩空间的均值μt和方差σt。然后计算源域图像在LAB色彩空间与目标域图像对齐后的表示:Islabμsσsσt+μt,并将其映射回RGB色彩空间得到风格转换后的源域图像。相对于RGB色彩空间,LAB色彩空间具有更大的色域,因此在LAB色彩空间进行对齐更能在风格上接近目标域图像。

图6  作者用三种不同规格的凸面镜在北大校园内采集数据

凸面镜反射场景数据集建立

由于该工作是第一个理解凸面镜反射场景的工作,之前没有与凸面镜反射场景有关的数据集。为了促进UDA对凸面镜反射的街道场景进行语义分割的研究,作者在北京大学校园内采集数据,并贡献了一个数据集CMR1K。CMR1K包含1009张凸面镜反射图像,其中268张图像有密集的像素级语义注释。图7中可以看到每个类别的精细标注的像素数量。图8显示了注释的数据的一些例子。CMR1K的细节在下表中显示。

图7  CMR1K 中精细标注的像素数量(Y 轴)及其相关类别(X 轴)

图8  北大校园内采集的数据

表2  CMR1K 数据集细节

实验结果与分析

实验设定

在 UDA 的设置下,提出的 UDA 模型是用标记的源数据和未标记的目标数据来训练的。标记的目标数据的结果被用来评估其性能。CMR1K 作为目标域,其中 741 张未标记的图像用于训练,268 张已标记的数据用于验证提出的算法。对于源域, 分别选择 Cityscapes、IDD和 GTA5。

方法整体效果分析

实验结果见下表,作者的方法在 VGG-16 主干网和 ResNet-101 主干 网上都大大超过了基线方法。在 ResNet-101 主干网的情况下,实现了 78.14% 的 mIoU, 超过了基线的 +10.29%。这表明在正常图像上训练的模型在测试凸面镜反射图像时效果并不好,而他们的方法可以有效地解决它们之间存在的领域转移。与基线相比,作者的方法在结构化类别(表 4的最后一行)表现特别好。例如,在汽车和建筑类别中,实现了 86.41% 和 80.65% 的 IoU,分别比基线高 +24.49% 和 +17.45%。这 表明,基线模型在分割结构化物体方面的效果较差。提出的方法可以有效地捕捉到场景中结构化物体的变形信息,并利用这些变形信息指导源域图像合成的方向,从而缓解了这些类别中凸镜和正常图像之间的域移。下图显示了分割结果的可视化。也 可以看出,与基线相比,作者的方法在结构化类别上有更好的分割效果。例如,汽车、 建筑物和电线杆即使严重变形也能被相对准确地预测出来。

表3 以 VGG-16作为骨干网络,作者的方法和以前的方法在从 Cityscapes到 CMR1K 的适应性上的性能比较

表4  以ResNet-101作为骨干网络,作者的方法和以前的方法在从 Cityscapes到 CMR1K 的适应性上的性能比较。

图9  不同方法的分割结果。可以看出,作者的方法明显优于基线和以前的方法。

以 ResNet-101 骨干网为例,作者的方法比基于特征对抗的 AdaptSeg和基于自信息对抗的 AdvEnt分别多出 9.02% 和 3.28%。这表明,关于中间特征和自我信息的 对抗性方法不能有效地缓解正常和凸面镜反射图像之间的领域差距。与自我训练方法相比,作者的方法比 BDL和 LTIR分别多出 4.97% 和 6.72% 的 IoU。这可能是由于正常源域和扭曲的目标域之间在几何外观上的差异,这会导致生成非常嘈杂伪标签,进而导致模型在错误的方向上训练。

一般来说,传统的解决风格差异的方法在处理由几何外观差异引起的领域差距时并不有效。为了缓解这种现象,作者手动合成一系列凸面镜反射数据,即随机生成变形参数,用设计好的 CMSL 离线合成凸面镜数据,将这些数据设置为源域,并再次训练之前的方法。称这种方法为“原始方法 +CMSL”。可以看出,基于自我训练的方法和基于对抗性学习的方法在加入 CMSL 后都得到了性能的提升。尽管如此,作者的方法仍然超过了添加 CMSL 模块的方法。下图显示了合成的凸面镜反射图像和真实图像。

与致力于解决变形图像和正常图像之间的领域差距的方法(Zhang等人,Ye等人)相比,作者的方法也表现出了优越性。作者认为 Zhang 等人利用了注意力机制,而不是明确地对正常图像和畸变图像之间的几何关系进行建模,而 Ye 等人提出的鱼眼模型可能与真正的凸面镜反射模型有比较大的几何域差距。此外,作者还用 ResNet-101 分别对 IDD→CMR1K 和 GTA5→CMR1K 进行了实验,结果见下表。可以看出,作者的方法也超过了基线和以前的方法, 包括” 以前的方法 +CMSL”。

图10  真实的凸面镜反射图像(第一和第三行)和相应的使用估计变形参数的合成凸面镜 反射图像(第二和第四行)。可以看出,合成图像在几何外观上与真实图像很接近。

表5  以 ResNet-101作为骨干网络,作者的方法和以前的方法在从 IDD到 CMR1K 的适应性上的性能比较。

表6  以 ResNet-101作为骨干网络,作者的方法和以前的方法在从 GTA5到 CMR1K 的适应性上的性能比较。

消融实验

不同组件的有效性。本节将分别验证提出的框架中不同组件的有效性,即边缘上的 对抗性适应、语义边界上的对抗性适应、熵最小化和风格转移。实验结果显示在下表中。 从下表可以看出,当使用边缘适应而不使用语义边界适应和熵最小化时,结果是 76.51%,相对于添加了所有组件的设置(最后一行),准确性下降了 1.63%。当 使用语义边界适应而不是边缘适应时,mIoU 可以达到 73.4%,与添加所有组件相比,准 确性下降了 4.74%。这表明,边缘适应比语义边界适应更有优势。同时,在语义边界适 应中加入熵最小化(表7的第三行)将进一步改善分割结果。这可能是因为熵最小化 可以减少分割结果的离散性,这反过来又增强了清晰的语义边界,提高了对抗性学习 效果。第四行显示了不添加风格转移的实验结果,可以看出不添加风格转移与 添加所有组件上相比,有 0.55% 的下降。

表7  对本文提出框架的不同组件进行消融研究。

不同种类的变形的效果。本节将验证不同变形参数对实验结果的影响。𝛼、𝛽和𝑑影响合成图像的透视畸变,而参数𝑘则影响合成图像的径向畸变。在验证 𝛼、𝛽 和 𝑑 的影响时,将 𝛼、𝛽 设为 0,𝑑 设为常数,即合成图像没有透视畸变。在 验证径向畸变参数 𝑘 的影响时,将 𝑘 设为 0,即合成图像没有径向畸变。实验结果见下表。从下表可以看出,当合成图像只包含径向畸变而没有透视畸变时(第一行),mIoU可以达到74.48%。与包含所有变形的实验结果相比(表8的最后一 行),mIoU 减少了 3.66%。当合成图像包含透视畸变但不包含径向畸变时(表 8的第 二行),mIoU 为 69.33%。相对于包含所有畸变的实验结果,准确率下降了 8.81%。这 表明径向畸变比透视畸变能更有效地减少域差距。下图显示了使用不同种类的变形进行分割的结果的可视化。

表8  不同变形参数的影响。

图11  使用不同种类的变形的分割结果。当同时结合径向畸变和透视畸变时,能够达到最 佳分割结果。

小结

自动驾驶往往涉及对周围环境的感知,而凸面镜可以提供额外的信息,帮助做出驾驶决策。然而,凸面镜图像的严重失真导致现有的理解反射场景的方法精度很低,不能满足实际应用需求。来自北京大学的研究团队基于凸面镜成像的几何特性提出了凸面镜的在线模拟层 CMSL,并将其嵌入到设计的框架中。通过对输入空间的边缘和输出空间的语义边界进 行对抗性适应,使合成的凸面镜图像在几何外观上与真实图像相似,从而减少它们之间的领域差距,提高场景理解的准确性。由于之前没有凸面镜反射场景的数据集,作者在北京大学校园内采集数据并建立了第一个凸面镜反射场景数据集CMR1K,以支持凸面镜的研究。大量的实验表明,作者的算法可以大大超越基线和以前的UDA方法,这将对自动驾驶、智能交通和其他潜在的应用有很大帮助。

参考文献

AdvEnt: ADVENT: Adversarial Entropy Minimization for Domain Adaptation in Semantic Segmentation, CVPR2019

AdaptSeg: Learning to Adapt Structured Output Space for Semantic Segmentation, CVPR2018

LTIR: Learning Texture Invariant Representation for Domain Adaptation of Semantic Segmentation, CVPR2020

BDL: Bidirectional Learning for Domain Adaptation of Semantic Segmentation, CVPR2019

posted on   YongjieShi  阅读(183)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 展开说说关于C#中ORM框架的用法!

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示