[1810.12890] DropBlock: A regularization method for convolutional networks

深層学習 画像認識 正則化

概要

汎化性能を上げるための正則化手法として DropBlock を提案する. これを使うと Imagenet/ResNet-50 において 1.6% 性能が上昇した (acc=78.13%).

関連

DropBlock

中身も使い方も Dropout によく似ている. Dropout は入力 (3次元テンソル \(X\)) のうちランダムにチャンネルベクトル \(X_{i,j,\cdot}\) を選んでそれをゼロにしてしまう.

DropBlock はチャンネルベクトルの選び方にもう少しだけ規則性を持たせる. 図のように落とすベクトルは矩形上に固まるようにする. その矩形をランダムに選ぶ.

入力が \((X_{ijk})\) のときマスク行列 \((M_{ij})\) を作る. 落とすチャンネルだけを \(M_{ij}=0\) になるようにする. ベルヌーイ分布に従って独立に点を決めて, その点の周りに矩形を取って全部ゼロにする. 入力の画像に \(M\) を掛けるのと, それから残った部分は落としたピクセルの数の分だけ掛けてふやしてやる.

矩形を切り抜くという考え方は CutOut (とか RandomErasing) と同じだ. それを Dropout 同様に中間層にでもずこずこ使ってやろうという話.

その他

矩形のサイズ (block_size) を \(1\) にしてやればこれは単なる Dropout.

ベルヌーイ分布のパラメータ \(\gamma\) は直接与えずに, Dropout のように \(\mathit{keep\_prob}\) (落ちない確率) を決めて決定させた. \(\gamma\)\(\mathit{keep\_prob}\) の関係は \[\gamma = \frac{1-\mathit{keep\_prob}}{\mathit{block\_size}} \frac{\mathit{feat\_size}^2}{(\mathit{feat\_size} - \mathit{block\_size} + 1)^2}\] で与えられる. \(\mathit{block\_size}\) は矩形の幅. \(\mathit{feat\_size}\) は入力画像の大きさ. 自乗してるのはたぶん縦と横.

\(\mathit{keep\_prob}\) を固定にしたままだと彼らも上手く動かせなかったらしく, スケジューリングをさせたそう. \(1.0\) からスタートして徐々に目的の値まで下げると大抵上手く行ったそう. 下げ方は linear でいいと.

実験

まあ良くなった.

他の似た正則化手法よりも良くなり方が大きい.