当前位置: 首页 > news >正文

网站不备案可以建设吗买链接网

网站不备案可以建设吗,买链接网,免费免费网站模板下载,wordpress菜单怎么设置中文AUTO SEG-LOSS: 搜索度量替代语义分割 论文链接#xff1a;https://arxiv.org/abs/2010.07930 项目链接#xff1a;https://github.com/fundamentalvision/Auto-Seg-Loss ABSTRACT 设计合适的损失函数是训练深度网络的关键。特别是在语义分割领域#xff0c;针对不同的场…AUTO SEG-LOSS: 搜索度量替代语义分割 论文链接https://arxiv.org/abs/2010.07930 项目链接https://github.com/fundamentalvision/Auto-Seg-Loss ABSTRACT 设计合适的损失函数是训练深度网络的关键。特别是在语义分割领域针对不同的场景提出了不同的评价指标。尽管广泛采用的交叉熵损失及其变体取得了成功但损失函数和评估指标之间的不一致会降低网络性能。同时手动设计每个特定度量的损失函数需要专业知识和大量人力。在本文中我们提出通过搜索每个度量的可微代理损失来自动设计度量特定的损失函数。我们用参数化函数代替度量中的不可微操作并进行参数搜索以优化损失曲面的形状。引入两个约束来正则化搜索空间提高搜索效率。在PASCAL VOC和Cityscapes上进行的大量实验表明搜索的代理损失始终优于手动设计的损失函数。搜索损失可以很好地推广到其他数据集和网络。 1 INTRODUCTION 损失函数是训练深度网络不可缺少的组成部分因为它们驱动着具有特定评估指标的各种应用的特征学习过程。然而大多数指标如常用的0-1分类误差其原始形式是不可微的无法通过基于梯度的方法直接优化。经验表明交叉熵损失可以作为一种有效的替代目标函数用于各种分类任务。这种现象在图像语义分割中尤其普遍其中已经设计了各种评估指标来解决专注于不同场景的不同任务。一些指标衡量的是整个图像的准确性而另一些指标则更多地关注分割边界。尽管交叉熵及其变体在许多指标上都能很好地工作但网络训练和评估之间的不一致仍然存在并不可避免地导致性能下降。 通常在语义分割中有两种设计度量特定损失函数的方法。第一种是修改标准交叉熵损失以满足目标度量(Ronneberger et al ., 2015; Wu et al, 2016)。另一种是为特定的评估指标设计其他聪明的替代损失(Rahman Wang, 2016; Milletari et al, 2016)。尽管有了改进但是这些手工制作的损失需要专业知识并且不能简单地扩展到其他评估指标。 与手动设计损失函数相比另一种方法是找到一个框架该框架可以自动地为不同的评估指标设计适当的损失函数这是由AutoML的最新进展推动的(Zoph Le, 2017; Pham et al., 2018; Liu et al., 2018; Li et al, 2019)。尽管自动化损失函数的设计过程很有吸引力但将AutoML框架应用于损失函数也不是很简单。典型的AutoML算法需要适当的搜索空间一些搜索算法在其中进行。先前的搜索空间要么不适合损失设计要么过于笼统而无法有效搜索。最近Li等人(2019)和Wang等人(2020)提出了基于现有手工制作的损失函数的搜索空间。算法搜索最佳组合。然而这些搜索空间仍然局限于交叉熵损失的变体因此不能很好地解决不对齐问题。 在本文中我们提出了一个搜索主流不可微分割度量的代理损失的通用框架。关键思想是我们可以根据评价指标的形式来构建搜索空间。这样培训标准和评价指标就统一了。同时搜索空间足够紧凑可以进行高效的搜索。具体地说通过将大多数度量中不可微部分的单热预测和逻辑运算替换为它们的可微近似将度量松弛到连续域。引入参数化函数来逼近逻辑运算保证了损失面光滑的同时又能准确训练。损失参数化函数可以是任意族定义在[0, 1]。对选择的族进一步进行参数搜索在给定评价指标的验证集上优化网络性能。引入两个基本约束来正则化参数搜索空间。我们发现搜索到的代理损失可以有效地推广到不同的网络和数据集。在Pascal VOC (Everingham et al, 2015)和Cityscape (Cordts et al, 2016)上进行的大量实验表明我们的方法提供的准确性优于为单个分割指标专门设计的现有损失并且计算开销较小。 我们的贡献可以总结如下1)我们的方法是主流分割指标的代理损失搜索的第一个通用框架。2)提出了一种有效的参数正则化和参数搜索算法该算法可以在较小的计算开销下找到优化目标度量性能的损失代理。3)通过所提出的搜索框架获得的替代损失促进了我们对损失函数设计的理解并且它们本身是新的贡献因为它们不同于现有的专门为单个指标设计的损失函数并且可以在不同的数据集和网络之间转移。 2 RELATED WORK 损失函数设计是深度网络训练中的一个活跃话题(Ma, 2020)。在图像语义分割领域交叉熵损失被广泛应用(Ronneberger et al ., 2015; Chen et al, 2018)。但交叉熵损失是为了优化全局精度度量而设计的(Rahman Wang, 2016; Patel et al, 2020)这与许多其他指标不一致。为设计合适的损失函数进行了大量的研究。对于mIoU度量许多工作(Ronneberger et al ., 2015; Wu et al ., 2016)纳入类频率以缓解类不平衡问题。对于边界F1分数边界区域的损失加权上升(Caliva et al ., 2019; Qin et al ., 2019)从而提供更准确的边界。这些作品仔细分析了具体评价指标的性质并以完全手工制作的方式设计了损失函数这需要专业知识。相比之下我们提出了一个统一的框架来推导各种评估指标的参数化代理损失。其中通过强化学习自动搜索参数。用搜索的替代损失训练的网络提供的准确性与那些最好的手工损失相当甚至更好。 不可微评价指标的直接损失优化早已被研究用于结构支持向量机模型(Joachims, 2005; Yue et al, 2007;Ranjbar et al, 2012)。然而这些方法不能得到梯度的w.r.t.特征。因此它们不能通过反向传播来驱动深度网络的训练。Hazan等(2010)提出用梯度下降法优化结构支持向量机利用损失增强推理得到评价指标期望的梯度。Song等人(2016)进一步将这种方法扩展到非线性模型(例如深度神经网络)。然而梯度下降算法每一步的计算量都非常高。尽管Song等人(2016)和Mohapatra等人(2018)已经为平均精度(AP)指标设计了高效的算法但其他指标仍然需要专门设计的高效算法。相比之下我们的方法对于主流分割指标是通用的。由于具有良好的泛化性我们的方法只需要对一个特定的度量执行一次搜索过程之后可以直接使用搜索到的代理损失。将搜索损失应用于训练网络只带来很少的额外计算成本。 引入代理损失来推导不可微评价指标的损失梯度。通常有两种设计替代损失的方法。首先是手工构造一个近似的可微度量函数。对于IoU度量Rahman Wang(2016)提出使用可微形式的softmax概率分别近似交集和并并显示其在二值分割任务上的有效性。Berman等人(2018)通过凸Lovasz扩展将mIoU从二进制输入扩展到连续域进一步处理多类分割问题他们的方法在“多类分割任务”中优于标准交叉熵损失。对于F1测度Milletari等人(2016)通过用softmax概率代替二值预测提出了骰子损失作为直接目标。尽管取得了成功但它们并不适用于其他指标。 第二个解决方案是训练一个网络来近似目标度量。Nagenda等人(2018)训练一个网络来近似mIoU。Patel等人(2020)设计了一个神经网络来学习预测的嵌入和除分割以外的任务的基本事实。这方面的研究侧重于最小化目标度量的近似误差。但不能保证它们的近似为训练提供良好的损失信号。这些近似损失仅用于后调优设置仍然依赖于交叉熵预训练模型。我们的方法有很大的不同因为我们搜索代理损失来直接优化应用程序中的评估指标。 AutoML是机器学习长期追求的目标(He et al, 2019)。最近AutoML的一个子领域神经架构搜索(NAS)由于其在自动化神经网络架构设计过程中的成功而引起了广泛关注(Zoph Le, 2017; Pham et al, 2018; Liu et al, 2018)。损失函数作为一种基本元素其设计过程的自动化也引起了研究人员的兴趣。Li et al .(2019)和Wang et al .(2020)基于现有的人为设计的损失函数设计搜索空间并搜索最佳组合参数。有两个问题a)搜索过程输出整个网络模型而不是损失函数。对于每一个新的网络或数据集都要重新进行昂贵的搜索过程并且 b)搜索空间中充满了交叉熵的变体这无法解决交叉熵损失与许多目标指标之间的不一致。相比之下我们的方法输出搜索代理损失函数与目标指标的接近形式这是可在网络和数据集之间转移的。 3 REVISITING EVALUATION METRICS FOR SEMANTIC SEGMENTATION 为语义分割定义了各种评估指标以解决不同场景下的不同任务。其中大多数是三种典型的类型:基于Acc基于iou和基于F1分数。本节在一个统一的符号集下回顾评估度量。 表1总结了主流的评估指标。符号如下假设验证集由 N N N个图像组成标记为 C C C类(包括背景)的类别。让 I n , n ∈ { 1 , … , N } I_n, n \in\{1, \ldots, N\} In​,n∈{1,…,N}为第 n n n张图像 Y n Y_n Yn​为对应的ground-truth分割掩码。其中 Y n { y n , c , h , w } c , h , w Y_n\left\{y_{n, c, h, w}\right\}_{c, h, w} Yn​{yn,c,h,w​}c,h,w​是一个one-hot向量其中 y n , c , h , w ∈ { 0 , 1 } y_{n, c, h, w} \in\{0,1\} yn,c,h,w​∈{0,1}表示像素在空间位置 ( h , w ) (h, w) (h,w)属于第 c c c类 ( c ∈ { 1 , … , C } ) (c \in\{1, \ldots, C\}) (c∈{1,…,C})。在评估中将ground-truth分割掩码 Y n Y_n Yn​与网络预测 Y ^ n { y ^ n , c , h , w } c , h , w \hat{Y}_n\left\{\hat{y}_{n, c, h, w}\right\}_{c, h, w} Y^n​{y^​n,c,h,w​}c,h,w​进行比较其中 y ^ n , c , h , w ∈ { 0 , 1 } \hat{y}_{n, c, h, w} \in\{0,1\} y^​n,c,h,w​∈{0,1} 。 y ^ n , c , h , w \hat{y}_{n, c, h, w} y^​n,c,h,w​是由网络产生的连续分数(通过argmax操作)量化的。 Acc-based指标。全局精度度量(gAcc)计算正确分类的像素数量。可以用逻辑运算符AND写成公式(1)。gAcc度量对每个像素的计数是相等的所以长尾分类的结果对度量数的影响很小。平均精度(mAcc)指标通过在每个类别内进行归一化来缓解这种情况如公式(2)所示。 IoU-based指标。评估是基于集合相似度而不是像素精度。对每个类别的预测与ground-truth 掩模之间的交叉超并度(IoU)评分进行了评估。平均IoU (mIoU)度量将所有类别的IoU分数平均如公式(3)所示。 在变体中频率加权IoU (FWIoU)度量根据类别像素数对每个类别IoU得分进行加权如公式(4)所示。边界IoU (BIoU) (Kohli et al ., 2009)度量只关心边界周围的分割质量因此它在评估中挑选出边界像素而忽略其余像素。可由公式(5)计算其中BD( y n y_n yn​)表示ground-truth y n y_n yn​中的边界区域。BD( y n y_n yn​)是通过对最小池ground-truth掩模进行异或运算得到的。Min-Pooling(·)的步长为1。 F1-score-based指标。F1-score是一个同时考虑准确率和召回率的标准。这种类型的一个众所周知的度量是边界F1-score (BF1-score) (Csurka et al, 2013)它被广泛用于评估边界分割精度。BF1-score中 precision和recall的计算如公式(6)所示其中BD( y ^ n \hat{y}_n y^​n​)和BD( y n y_n yn​)由公式(5)推导而来。边界区域采用stride为1的Max- pooling(·)允许容错。 4 AUTO SEG-LOSS FRAMEWORK 在Auto Seg-Loss框架中将评估指标转化为具有可学习参数的连续代理损失并对其进行进一步优化。图1说明了我们的方法。 4.1 将度量标准扩展到代理 如第3节所示大多数分割指标是不可微的因为它们以一个热点预测映射作为输入并且包含二进制逻辑操作。我们通过平滑内部的不可微操作将这些度量扩展为连续损失代理。 扩展one-hot操作。one-hot预测图 Y ^ n { y ^ n , c , h , w } c , h , w \hat{Y}_{n}\{\hat{y}_{n,c,h,w}\}_{c,h,w} Y^n​{y^​n,c,h,w​}c,h,w​通过在每个像素上选择得分最高的类别得到并进一步转化为one-hot形式。在这里我们用softmax概率近似one-hot预测为 y ^ n , c , h , w ≈ y ~ n , c , h , w S o f t m a x c ( z n , c , h , w ) , (7) \hat{y}_{n,c,h,w}\approx\tilde{y}_{n,c,h,w}\mathrm{Softmax}_{c}(z_{n,c,h,w}), \tag{7} y^​n,c,h,w​≈y~​n,c,h,w​Softmaxc​(zn,c,h,w​),(7) 式中 z n , c , h , w ∈ R z_{n,c,h,w}\in\mathbb{R} zn,c,h,w​∈R为网络输出的类别得分(未归一化)。近似的one-hot预测用 y ~ n , c , h , w {{\tilde{y}}}_{n,c,h,w} y~​n,c,h,w​表示。 扩展逻辑操作。如表1所示不可微逻辑运算fAND(y1,y2)fOR(y1,y2)和fXOR(y1,y2)是这些度量中不可或缺的组成部分。因为异或运算可以由AND和OR构造所以fXOR(y1;y2) fOR(y1,y2)−fAND(y1,y2)重点是扩展fAND(y1,y2)和fOR(y1,y2)到连续定义域。 按照惯例用算术运算符代替逻辑运算符 f A N D ( y 1 , y 2 ) y 1 y 2 , f O R ( y 1 , y 2 ) y 1 y 2 − y 1 y 2 , (8) f_{\mathrm{AND}}(y_{1},y_{2})y_{1}y_{2},f_{\mathrm{OR}}(y_{1},y_{2})y_{1}y_{2}-y_{1}y_{2}, \tag{8} fAND​(y1​,y2​)y1​y2​,fOR​(y1​,y2​)y1​y2​−y1​y2​,(8) 其中 y 1 , y 2 ∈ { 0 , 1 } y_{1},y_{2}\in\{0,1\} y1​,y2​∈{0,1}。公式(8)可以直接扩展为取连续的 y 1 , y 2 ∈ [ 0 , 1 ] \begin{aligned}y_1,y_2\in[0,1]\end{aligned} y1​,y2​​∈[0,1]​​作为输入。通过这种扩展再加上近似的one-hot操作可以获得可微替代损失的一个新版本。这种替代的优势在于它们直接来自度量这大大减少了训练和评估之间的差距。然而不能保证由naively扩展公式(8)形成的损失面提供准确的损失信号。为了调整损失面我们将AND和OR函数参数化为 h A N D ( y 1 , y 2 ; θ A N D ) g ( y 1 ; θ A N D ) g ( y 2 ; θ A N D ) , h O R ( y 1 , y 2 ; θ O R ) g ( y 1 ; θ O R ) g ( y 2 ; θ O R ) − g ( y 1 ; θ O R ) g ( y 2 ; θ O R ) , (9) \begin{aligned} h_{\mathrm{AND}}(y_{1},y_{2};\theta_{\mathrm{AND}})g(y_{1};\theta_{\mathrm{AND}})~g(y_{2};\theta_{\mathrm{AND}}), \\ h_{\mathrm{OR}}(y_{1},y_{2};\theta_{\mathrm{OR}})g(y_{1};\theta_{\mathrm{OR}})g(y_{2};\theta_{\mathrm{OR}})-g(y_{1};\theta_{\mathrm{OR}})~g(y_{2};\theta_{\mathrm{OR}}), \end{aligned} \tag{9} ​hAND​(y1​,y2​;θAND​)g(y1​;θAND​) g(y2​;θAND​),hOR​(y1​,y2​;θOR​)g(y1​;θOR​)g(y2​;θOR​)−g(y1​;θOR​) g(y2​;θOR​),​(9) 在 g ( y ; θ ) : [ 0 , 1 ] → R g(y;\theta):[0,1]\to\mathbb{R} g(y;θ):[0,1]→R是用θ参数化的标量函数。 参数化函数g(y;θ)可以来自任意函数族定义在[0;1]如分段线性函数、分段贝塞尔曲线等。通过选择函数族参数θ控制损失曲面的形状。我们寻求搜索最优参数θ以使给定的评价度量最大化。 同时最优参数搜索是非平凡的。在引入的参数下损失面具有较强的塑性。参数化的损失面很可能是混沌的或者即使在二进制输入时也远离目标评价指标。为了更有效地搜索参数我们通过引入g(y;θ)。 引入真值表约束来强制代理损失面在二值输入处取与评价度量分数相同的值。这是通过强制来实现的 g ( 0 ; θ ) 0 , g ( 1 ; θ ) 1. (10) g(0;\theta)0, g(1;\theta)1. \tag{10} g(0;θ)0,g(1;θ)1.(10) 因此参数化函数 h ( y 1 , y 2 ; θ ) h(y_1,y_2;θ) h(y1​,y2​;θ)保持相应的逻辑运算 f ( y 1 , y 2 ) f(y_1,y_2) f(y1​,y2​)对二进制输入 y 1 , y 2 ∈ { 0 , 1 } y_{1},y_{2}\in\{0,1\} y1​,y2​∈{0,1}。 基于对与与或真值表单调性倾向的观察引入单调性约束。它将失去的表面推向一个良性的景观避免了戏剧性的不平滑。单调性约束在 h AND ( y 1 , y 2 ) h_\text{AND}(y_1,y_2) hAND​(y1​,y2​)和 h OR ( y 1 , y 2 ) h_\text{OR}(y_1,y_2) hOR​(y1​,y2​) ∂ h A N D / ∂ y i ≥ 0 , ∂ h O R / ∂ y i ≥ 0 , ∀ y i ∈ [ 0 , 1 ] , i 1 , 2. \partial h_{\mathrm{AND}}/\partial y_{i}\geq0,\partial h_{\mathrm{OR}}/\partial y_{i}\geq0,\forall y_{i}\in[0,1],i1,2. ∂hAND​/∂yi​≥0,∂hOR​/∂yi​≥0,∀yi​∈[0,1],i1,2. 应用链式法则和真值表约束得到了单调性约束 ∂ g ( y ; θ ) / ∂ y ≥ 0 , ∀ y ∈ [ 0 , 1 ] . (11) \begin{aligned}\partial g(y;\theta)/\partial y\geq0,\forall y\in[0,1].\end{aligned} \tag{11} ∂g(y;θ)/∂y≥0,∀y∈[0,1].​(11) 根据经验我们发现在参数化中加强这两个约束是很重要的。 扩展评估指标。现在我们可以通过以下方式将度量扩展到代理损失a)用softmax概率替换one-hot预测b)用参数化函数替换逻辑操作。注意如果度量包含几个逻辑操作那么它们的参数将不会被共享。一个度量中的参数集合记为Θ。对于分割网络N和评价数据集S评价指标的得分记为ξ(N;S)。参数化代理损失记为 ξ ^ Θ ( N ; S ) \hat{ξ}_Θ(N;S) ξ^​Θ​(N;S)。 4.2 代理参数化 参数化函数可以是定义在[0,1]上的任意函数族如分段Bezier曲线和分段线性函数。这里我们选择分段Bezier曲线来参数化g(y;θ)它广泛应用于计算机图形学并且易于通过其控制点执行约束。我们还验证了参数化g(y;θ)通过分段线性函数。图2为可视化详见附录B。 分段贝塞尔曲线由一系列二次曲线组成其中一个曲线段的最后一个控制点与下一个曲线段的第一个控制点重合。如果分段贝塞尔曲线有n个线段则第k段定义为 B ( k , s ) ( 1 − s ) 2 B 2 k 2 s ( 1 − s ) B 2 k 1 s 2 B 2 k 2 , 0 ≤ s ≤ 1 (12) B(k,s)(1-s)^{2}B_{2k}2s(1-s)B_{2k1}s^{2}B_{2k2},0\leq s\leq1 \tag{12} B(k,s)(1−s)2B2k​2s(1−s)B2k1​s2B2k2​,0≤s≤1(12) 其中s横切第k段 B 2 k i ( B ( 2 k i ) , u , B ( 2 k i ) , v ) ( i 0 , 1 , 2 ) B_{2ki}(B_{(2ki),u},B_{(2ki),v})~(i0,1,2) B2ki​(B(2ki),u​,B(2ki),v​) (i0,1,2)表示第k段上的第i个控制点其中 u , v u,v u,v表示二维平面轴。n条分段贝塞尔曲线总共有2n 1个控制点。参数化g(y;θ)我们赋值 y ( 1 − s ) 2 B 2 k , u 2 s ( 1 − s ) B ( 2 k 1 ) , u s 2 B ( 2 k 2 ) , u , g ( y ; θ ) ( 1 − s ) 2 B 2 k , v 2 s ( 1 − s ) B ( 2 k 1 ) , v s 2 B ( 2 k 2 ) , v , s . t . B 2 k , u ≤ y ≤ B ( 2 k 2 ) , u , \begin{align} \text{y} (1-s)^{2}B_{2k,u}2s(1-s)B_{(2k1),u}s^{2}B_{(2k2),u}, \tag{13a} \\ g(y;\theta) (1-s)^{2}B_{2k,v}2s(1-s)B_{(2k1),v}s^{2}B_{(2k2),v}, \tag{13b}\\ \mathrm{s.t.}B_{2k,u}\leq y\leq B_{(2k2),u},\tag{13c} \end{align} g(y;θ)​y(1−s)2B2k,u​2s(1−s)B(2k1),u​s2B(2k2),u​,(1−s)2B2k,v​2s(1−s)B(2k1),v​s2B(2k2),v​,s.t.B2k,u​≤y≤B(2k2),u​,​(13a)(13b)(13c)​ 式中 θ \theta θ为控制点集 B 2 k , u B ( 2 k 1 ) , u B ( 2 k 2 ) , u , 0 ≤ k ≤ n − 1 B_{2 k, u}B_{(2 k1), u}B_{(2 k2), u}, 0 \leq k \leq n-1 B2k,u​B(2k1),u​B(2k2),u​,0≤k≤n−1。给定输入 y y y段索引 k k k和截线参数 s s s分别由公式 (13c)和公式(13a)导出。然后 g ( y ; θ ) g(y ; \theta) g(y;θ)赋值为公式 (13b)。因为 g ( y ; θ ) g(y ; \theta) g(y;θ)在 y ∈ [ 0 , 1 ] y \in[0,1] y∈[0,1]我们将 u u u轴上的控制点排列为 B 0 , u 0 , B 2 n , u 1 B_{0, u}0, B_{2 n, u}1 B0,u​0,B2n,u​1其中第一个控制点和最后一个控制点的 u u u坐标分别为0和1。 分段贝塞尔曲线的优势在于曲线形状是通过控制点明确定义的。在这里我们通过以下方式在控制点上强制真值表和单调性约束 B 0 , v 0 , B 2 n , v 1 ; ( t r u t h − t a b l e c o n s t r a i n t ) B 2 k , v ≤ B ( 2 k 1 ) , v ≤ B ( 2 k 2 ) , v , k 0 , 1 , … , n − 1. ( m o n o t o n i c i t y c o n s t r a i n t ) \begin{gathered} B_{0,v}0,B_{2n,v}1; (truth-table\; constraint) \\ B_{2k,v}\leq B_{(2k1),v}\leq B_{(2k2),v},\quad k0,1,\ldots,n-1. (monotonicity \;constraint) \end{gathered} B0,v​0,B2n,v​1;B2k,v​≤B(2k1),v​≤B(2k2),v​,k0,1,…,n−1.​(truth−tableconstraint)(monotonicityconstraint)​ 为在优化中满足上述约束条件参数的具体形式为 θ { ( B i , u − B ( i − 1 ) , u B 2 n , u − B ( i − 1 ) , u , B i , v − B ( i − 1 ) , v B 2 n , v − B ( i − 1 ) , v ) ∣ i 1 , 2 , … , 2 n − 1 } , \theta\left\{\left(\frac{B_{i,u}-B_{(i-1),u}}{B_{2n,u}-B_{(i-1),u}},\frac{B_{i,v}-B_{(i-1),v}}{B_{2n,v}-B_{(i-1),v}}\right)\mid i1,2,\ldots,2n-1\right\}, θ{(B2n,u​−B(i−1),u​Bi,u​−B(i−1),u​​,B2n,v​−B(i−1),v​Bi,v​−B(i−1),v​​)∣i1,2,…,2n−1}, 与 B 0 ( 0 , 0 ) B_{0}(0,0) B0​(0,0) B 2 n ( 1 , 1 ) B_{2n}(1,1) B2n​(1,1)固定的。所以每个 θ i ( θ i , u , θ i , v ) \theta_i(\theta_{i,u},\theta_{i,v}) θi​(θi,u​,θi,v​)在 [ 0 , 1 ] 2 [0,1]^2 [0,1]2从这个参数化的形式计算控制点的实际坐标是很直接的。这种参数化使得各 θ i θ_i θi​相互独立从而简化了优化。默认情况下我们使用两段分段贝塞尔曲线来参数化g(y;θ)。 4.3 代理参数优化 算法1描述了参数搜索算法。在搜索算法中训练集被分成两个子集分别是用于训练的Strain和用于评估的Shold-out。具体来说假设我们有一个分割网络 N ω N_\omega Nω​对于权值 ω \omega ω我们的搜索目标是在hold-out训练集 ξ ( N ω ; S h o l d − o u t ) \xi(\mathrm{N}_{\omega};\mathcal{S}_{\mathrm{hold-out}}) ξ(Nω​;Shold−out​) max ⁡ Θ ξ ( Θ ) ξ ( N ω ∗ ( Θ ) ; S h o l d − o u t ) , s . t . ω ∗ ( Θ ) arg ⁡ max ⁡ ω ξ ~ Θ ( N ω ; S u r a i n ) . (14) \max_{\Theta}\xi(\Theta)\xi(\mathrm{N}_{\omega^{*}(\Theta)};\mathcal{S}_{\mathrm{hold-out}}),\quad\mathrm{s.t.}\quad\omega^{*}(\Theta)\arg\max_{\omega}\widetilde{\xi}_{\Theta}(\mathrm{N}_{\omega};\mathcal{S}_{\mathrm{urain}}). \tag{14} Θmax​ξ(Θ)ξ(Nω∗(Θ)​;Shold−out​),s.t.ω∗(Θ)argωmax​ξ ​Θ​(Nω​;Surain​).(14) 为了优化公式(14)我们将SGD作为内层问题来训练分割网络。在外部层面我们使用强化学习作为搜索算法遵循AutoML的常见做法(Zoph Le, 2017; Pham et al, 2018)。其它搜索算法例如进化算法也可以被采用。具体来说通过PPO2算法搜索代理参数(Schulman et al, 2017)。该过程由T个采样步骤组成。在第t步中我们的目标是从t- 1开始探索它周围的搜索空间。在这里M个参数 { Θ i ( t ) } i 1 M \{\Theta_{i}^{(t)}\}_{i1}^{M} {Θi(t)​}i1M​独立于截断的正态分布(Burkardt, 2014)进行采样如 Θ ∼ N t r u n c [ 0 , 1 ] ( μ t , σ 2 I ) \Theta\sim\mathcal{N}_{\mathrm{trunc}[0,1]}(\mu_{t},\sigma^{2}I) Θ∼Ntrunc[0,1]​(μt​,σ2I)每个变量的取值范围为[0, 1]。其中 µ t µ_t µt​和 σ 2 I σ^2 I σ2I表示母正态分布的均值和协方差(σ在本文中固定为0.2)。 µ t µ_t µt​总结了(t−1)-步的信息。利用采样参数构造M个替代损失分别驱动M个分割网络的训练。为了优化外部层次问题我们使用目标度量对这些模型进行评估并将评估分数作为PPO2的奖励。根据PPO2算法 µ t 1 µ_{t1} µt1​计算为 μ t 1 arg ⁡ max ⁡ μ 1 M ∑ i 1 M R ( μ , μ t , Θ i ) \mu_{t1}\arg\max_{\mu}\frac{1}{M}\sum_{i1}^{M}R(\mu,\mu_{t},\Theta_{i}) μt1​argmaxμ​M1​∑i1M​R(μ,μt​,Θi​)其中奖励 R ( μ , μ t , Θ i ) R(\mu,\mu_{t},\Theta_{i}) R(μ,μt​,Θi​)是 R ( μ , μ t , Θ i ) min ⁡ ( p ( Θ i ; μ , σ 2 I ) p ( Θ i ; μ t , σ 2 I ) ξ ( Θ i ) , C L I P ( p ( Θ i ; μ , σ 2 I ) p ( Θ i ; μ t , σ 2 I ) , 1 − ϵ , 1 ϵ ) ξ ( Θ i ) ) , R(\mu,\mu_{t},\Theta_{i})\min\left(\frac{p(\Theta_{i};\mu,\sigma^{2}I)}{p(\Theta_{i};\mu_{t},\sigma^{2}I)}\xi(\Theta_{i}),\mathrm{CLIP}\left(\frac{p(\Theta_{i};\mu,\sigma^{2}I)}{p(\Theta_{i};\mu_{t},\sigma^{2}I)},1-\epsilon,1\epsilon\right)\xi(\Theta_{i})\right), R(μ,μt​,Θi​)min(p(Θi​;μt​,σ2I)p(Θi​;μ,σ2I)​ξ(Θi​),CLIP(p(Θi​;μt​,σ2I)p(Θi​;μ,σ2I)​,1−ϵ,1ϵ)ξ(Θi​)), 其中min(·,·)从其输入中选取较小的项 C L I P ( x , 1 − ϵ , 1 ϵ ) \mathrm{CLIP}(x,1-\epsilon,1\epsilon) CLIP(x,1−ϵ,1ϵ)剪辑x在 1 − ϵ 1-\epsilon 1−ϵ和 1 ϵ 1\epsilon 1ϵ之间 p ( Θ i ; μ , σ 2 I ) p(\Theta_{i};\mu,\sigma^{2}I) p(Θi​;μ,σ2I)为截断正态分布的PDF。注意为了更好地收敛在计算 ξ ( Θ i ) ξ(Θ_i) ξ(Θi​)时M个样本的平均奖励被减去。经过T步后输出具有最高平均评价分数的平均值 µ T µ_T µT​作为最终参数 Θ ∗ Θ^∗ Θ∗。 经验表明搜索损失具有良好的可转移性即可以应用于不同的数据集和网络。得益于此我们使用轻量级代理任务进行参数搜索。在它中我们利用了更小的图像大小更短的学习时间表和轻量级的网络。因此整个搜索过程非常高效(在PASCAL VOC上使用8个NVIDIA Tesla V100 GPU 8小时)。更多的细节见附录a。此外对于一个特定的度量搜索过程只能进行一次由此产生的替代损失可以直接用于以后的训练。 5 EXPERIMENTS 我们对PASCAL VOC 2012 (Everingham et al, 2015)和citylandscapes (Cordts et al, 2016)数据集进行了评估。我们使用Deeplabv3 (Chen et al, 2018)和ResNet-50/101 (He et al, 2016)作为网络模型。在代理参数搜索中我们随机抽取PASCAL VOC中的1500张训练图像和cityscape中的500张训练图像形成hold-out集Shold-out。剩下的训练图像组成搜索训练集Strain。µ0设置为g(y;θ) y。骨干网为ResNet-50。图像被下采样到128 × 128的分辨率。SGD只持续1000次迭代小批大小为32。在搜索过程之后我们使用ResNet-101在完整的训练集上使用搜索损失重新训练分割网络并在实际的验证集上评估它们。重新训练的设置与Deeplabv3相同(Chen et al, 2018)只是损失函数被获得的代理损失所取代。搜索时间计算在8个NVIDIA Tesla V100 GPU上。更多细节见附录A。 5.1 搜索不同的指标 在表2中我们将搜索到的代理损失与广泛使用的交叉熵损失及其变体以及其他一些特定度量的代理损失进行了比较。我们还试图与Li等人(2019)中基于automl的方法进行比较该方法最初是为其他任务设计的。但由于收敛性问题我们无法得到合理的结果。结果表明我们的搜索损失在目标指标上与之前的损失持平或更好。值得注意的是获得的边界度量的替代值(如BIoU和BF1)只关注边界区域见附录C进一步讨论。我们还尝试训练由搜索的mIoU和BIoU/BF1替代损失驱动的分割网络。这样的综合损失在保持合理的全球表现的同时细化了边界。 5.2 损失泛化 数据集之间的泛化。表3评估了我们搜索的损失代理在不同数据集之间的泛化能力。由于计算资源有限我们只使用搜索到的mIoU、BF1和mAcc代理损失来训练网络。结果表明我们的搜索代理损失在两个场景和类别完全不同的数据集之间泛化得很好。 分割网络之间的泛化。用ResNet50 DeepLabv3在PASCAL VOC上搜索代理损失。搜索到的损失驱动ResNet-101 DeepLabv3、PSPNet (Zhao et al . 2017)和HRNet (Sun et al ., 2019)在PASCAL VOC上的训练。表4显示了结果。结果表明我们的搜索损失函数可以应用于各种语义分割网络。 5.3 消融实验 参数化和约束。表5删除了参数化和搜索空间约束。其中不带参数的代理表达式为公式(8)其定义域从离散点{0,1}扩展到连续区间[0,1]。这种简单的代理提供的准确性要低得多这表明了参数化的本质。如果没有真值表约束训练过程一开始就会发散损失梯度变成“NaN”。如果不强制执行单调性约束则性能会下降。如果没有约束性能会下降甚至算法会失败。 参数搜索代理任务。表6说明了这一点。最下面一行是我们的默认设置它具有轻量级主干、低采样图像大小和较短的学习时间表。默认设置提供与较重设置相同的精度。这与我们的替代损失的泛化能力相一致。因此我们可以通过轻代理任务来提高搜索效率。 参数搜索算法。图3所采用的PPO2 (Schulman et al ., 2017)算法与随机搜索算法的对比。PPO2更好的性能表明代理损失搜索是非平凡的强化学习有助于提高搜索效率。 6 CONCLUSION 引入的Auto Seg-Loss是一种强大的框架用于搜索主流分割评估指标的参数化代理损失。不可微算子被其参数化的连续算子所取代。优化参数以改进具有基本约束的最终评价指标。将这个框架扩展到更多的任务上会很有趣比如物体检测、姿态估计和机器翻译问题。 Appendix A. 实现细节 B. 分段线性函数的参数化 C. 边界分割的可视化与讨论
http://www.hkea.cn/news/14310503/

相关文章:

  • 技术支持 东莞网站建设电脑回收代理网站下载
  • 如何用PS制作网站首页微信营销软件
  • django做的网站模板工程信息网站排名
  • 惠安 网站建设公司怎么做交互式网站
  • 市场推广计划方案关键词优化招商
  • 建设一个商城网站大概多少钱wordpress 增加新功能
  • 绍兴网站建设推广企业网站建设 租用服务器
  • 网站建设格式合同php后台关闭网站 功能怎么实现
  • 手机主题如何自己制作网站wordpress设置 vip栏目
  • 公司网站设计广州越秀重点场所
  • 织梦网站开发语言wordpress大侠
  • 兖州网站建设推广wordpress镜像什么意思
  • 做一个网站需要投入多少钱广东网站设计公司价格
  • 做网站要学会那些北京seo邢云涛
  • 免费网站ppt模板下载晋中路桥建设集团网站
  • 吕梁做网站公司做网站前置审批
  • 深圳专业网站建设公网页设计图片位置怎么设置
  • 类似猪八戒的网站建设深圳商业网站建设
  • 北京网站改版费用wordpress百度地图
  • 网站服务器名是什么手机上做app的软件
  • 无成本搭建属于自己的网站崔各庄地区网站建设
  • 英文网站模板改成中文济宁 网站建设
  • 如何在网站添加代码优秀网页设计作品案例欣赏
  • 网站gif图标asp.net 网站开发 异步
  • 九江专业网站建设定制中国进出口贸易平台
  • 社保代缴网站开发wordpress json插件
  • 广西做网站公司有哪些免费教如何php网站建设
  • 网站开发专家网站建设培训班价格
  • 合肥企业快速建站wordpress适合手机
  • 贵安新区建设管理信息网站南京软件外包公司有哪些