こしあん
2018-09-11

PyTorchでのConvTranspose2dのパラメーター設定について

Pocket
LINEで送る
Delicious にシェア

16.3k{icon} {views}


VAE(Variational Auto Encoder)やGAN(Generative Adversarial Network)などで用いられるデコーダーで畳み込みの逆処理(Convtranspose2d)を使うことがあります。このパラメーター設定についてハマったので解説します。

エンコーダーのConv2Dでダウンサンプリング

まず前提として、MaxPoolingなどのPoolingを使わなくても畳み込み(Conv2D)だけでダウンサンプリングはできます。GANで使われる手法ですが、CNNでも使えます。例えばMNISTで考えましょう。

入力:(-1, 1, 28, 28)+kernel=3の畳み込み
出力:(-1, 32, 14, 14)

どういう処理かというと、モノクロ(チャンネル数1)の28×28の画像を、32チャンネルの3×3の畳み込みを通して、14×14にダウンサンプリングするというものです。これを1つのConv2Dで定義するにはどうしたらよいでしょうか?答えはこうです。

import torch.nn as nn
nn.Conv2d(1, 32, kernel_size=3, stride=2, padding=1)

これはわかりやすいと思います。PyTorchのpaddingは両側に付与するピクセル数、つまりpadding=1なら左右に1ピクセルずつ入れるということに注意してください。公式ドキュメントによると、出力の解像度の計算式は、

$$H_{out}=\Bigl\lfloor\frac{H_{in}+2\times\rm{padding}-\rm{kernel}}{\rm{stride}}+1 \Bigr\rfloor $$

で表されます(ドキュメントにはdilationがありますが、自分は使ったことないので省略しています)。上の式の場合、分母は「28+2×1-3 = 27」、strideの2で割り1を足すと14.5、小数点以下を切り捨てて「14」、ちゃんと正しく計算できていますね。

計算中に端数ができていることについてですが、(エンコーダー側の)CNNの場合はkernelを奇数とすることが普通です。奇数にすると中心のピクセルが生まれ、畳込みの計算が有効に機能しやすいと言われています。

ConvTranspose2dのパラメーター

ここからが本題です。上記はエンコーダー側の設定ですが、デコーダーでこの逆の処理をやりたい場合はどうすればよいでしょうか?つまり、

入力:(-1, 32, 14, 14)
出力:(-1, 1, 28, 28)

これをConvTrasnpose2Dで表現したい場合どうすればよいでしょうか?ConvTrasnpose2Dにはin_channels, out_channelsのほかに次のようなパラメーターがあります(dilationや解像度に関係なさそうなパラメーターは端折っています)。

kernel_size (int or tuple) – Size of the convolving kernel
stride (int or tuple, optional) – Stride of the convolution. Default: 1
padding (int or tuple, optional) – kernel_size – 1 – padding zero-padding will be added to both sides of each dimension in the input. Default: 0
output_padding (int or tuple, optional) – Additional size added to one side of each dimension in the output shape. Default: 0

公式ドキュメントより

paddingとoutput_paddingって何が違うんやという感じはしますが、Conv2Dよりパラメーターが多いです。ちなみに解像度は次の式で表されます。これを見るとだいぶ理解できると思います。

$$H_{out}=(H_{in}-1)\times\rm{stride}-2\times\rm{padding}+\rm{kernel}+\rm{output padding}$$

パラメーターが多すぎるので簡略化しましょう。一番わかりやすいのはstrideです。エンコーダーの場合は、stride=2つまりPoolingでkernel=2と同じようにダウンサンプリングしたので、デコーダーの場合もstride=2でアップサンプリングするのが妥当でしょう。つまり、

$$H_{out}=H_{in}\times\rm{stride} $$

という関係式が追加されます。これを上の式に代入すると、いくつか解はありますが、一番わかりやすい場合は「kernel=strideとする」ことだと思います。コードで書くとこうなります。

nn.ConvTranspose2d(32, 1, kernel_size=2, stride=2)

本当にこれで合っているか検算してみましょう。「(in – 1)×stride」の部分は「(14-1)×2=26」、paddingやoutput_paddingは0、これにkernel_size=2を足して28。合ってますね。

ちなみに「元のkernel=3の畳み込みはどこに消えたの?」と思われるかもしれませんが、デコーダーの場合はstrideと異なる奇数のカーネルを代入すると、paddingに2の係数がかかっている以上、どうしても端数が出てしまいます。つまり、strideと異なるカーネルサイズを入れたいときは、デコーダーでは偶数のカーネルを使ったほうが良さそうです。なので、エンコーダーのkernel=3の畳み込みはデコーダー側では再現しなくてもいいかなと自分は思います。GANの実装を見ていると、DiscriminatorのカーネルサイズとGeneratorのカーネルサイズが違うなんてことがよくあるので大丈夫だと思います。

強引に奇数のカーネルをデコーダーで実装したい場合、output_paddingを使えば再現できますが、自分がやった限りでは変なグリッドラインが入ってしまって出力画像がおかしくなりました。

画像を拡大して見ると、網目模様の灰色の線がわかると思います。output_paddingを外したら消えたのでこれが悪さをしています。

なので、自分はoutput_paddingは使わないほうがいいのではないかなと思います。paddingやoutput_paddingを使わずにstride=kernel_sizeとすることが一番わかりやすいですし、この場合は奇数の制約はありません(stride=kernel_sizeの条件があれば、奇数だろうが偶数だろうが式は成立する)。

以上です。ConvTrasnpose2DはConv2Dに比べて例が少ないので苦労しましたが、参考になれば幸いです。



Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内

技術書コーナー

【新刊】インフィニティNumPy――配列の初期化から、ゲームの戦闘、静止画や動画作成までの221問

「本当の実装力を身につける」ための221本ノック――
機械学習(ML)で避けて通れない数値計算ライブラリ・NumPyを、自在に活用できるようになろう。「できる」ための体系的な理解を目指します。基礎から丁寧に解説し、ディープラーニング(DL)の難しいモデルで遭遇する、NumPyの黒魔術もカバー。初心者から経験者・上級者まで楽しめる一冊です。問題を解き終わったとき、MLやDLなどの発展分野にスムーズに入っていけるでしょう。

本書の大きな特徴として、Pythonの本でありがちな「NumPyとML・DLの結合を外した」点があります。NumPyを理解するのに、MLまで理解するのは負担が大きいです。本書ではあえてこれらの内容を書いていません。行列やテンソルの理解に役立つ「従来の画像処理」をNumPyベースで深く解説・実装していきます。

しかし、問題の多くは、DLの実装で頻出の関数・処理を重点的に取り上げています。経験者なら思わず「あー」となるでしょう。関数丸暗記では自分で実装できません。「覚える関数は最小限、できる内容は無限大」の世界をぜひ体験してみてください。画像編集ソフトの処理をNumPyベースで実装する楽しさがわかるでしょう。※紙の本は電子版の特典つき

モザイク除去から学ぶ 最先端のディープラーニング

「誰もが夢見るモザイク除去」を起点として、機械学習・ディープラーニングの基本をはじめ、GAN(敵対的生成ネットワーク)の基本や発展型、ICCV, CVPR, ECCVといった国際学会の最新論文をカバーしていく本です。
ディープラーニングの研究は発展が目覚ましく、特にGANの発展型は市販の本でほとんどカバーされていない内容です。英語の原著論文を著者がコードに落とし込み、実装を踏まえながら丁寧に解説していきます。
また、本コードは全てTensorFlow2.0(Keras)に対応し、Googleの開発した新しい機械学習向け計算デバイス・TPU(Tensor Processing Unit)をフル活用しています。Google Colaboratoryを用いた環境構築不要の演習問題もあるため、読者自ら手を動かしながら理解を深めていくことができます。

AI、機械学習、ディープラーニングの最新事情、奥深いGANの世界を知りたい方にとってぜひ手にとっていただきたい一冊となっています。持ち運びに便利な電子書籍のDLコードが付属しています。

「おもしろ同人誌バザールオンライン」で紹介されました!(14:03~) https://youtu.be/gaXkTj7T79Y?t=843

まとめURL:https://github.com/koshian2/MosaicDeeplearningBook
A4 全195ページ、カラー12ページ / 2020年3月発行

Shikoan's ML Blog -Vol.1/2-

累計100万PV超の人気ブログが待望の電子化! このブログが電子書籍になって読みやすくなりました!

・1章完結のオムニバス形式
・機械学習の基本からマニアックなネタまで
・どこから読んでもOK
・何巻から読んでもOK

・短いものは2ページ、長いものは20ページ超のものも…
・通勤・通学の短い時間でもすぐ読める!
・読むのに便利な「しおり」機能つき

・全巻はA5サイズでたっぷりの「200ページオーバー」
・1冊にたっぷり30本収録。1本あたり18.3円の圧倒的コストパフォーマンス!
・文庫本感覚でお楽しみください

Vol.1 電子550円
Vol.2 電子550円

北海道の駅巡りコーナー

日高本線 車なし全駅巡り

ローカル線や秘境駅、マニアックな駅に興味のある方におすすめ! 2021年に大半区間が廃線になる、北海道の日高本線の全区間・全29駅(苫小牧~様似)を記録した本です。マイカーを使わずに、公共交通機関(バス)と徒歩のみで全駅訪問を行いました。日高本線が延伸する計画のあった、襟裳岬まで様似から足を伸ばしています。代行バスと路線バスの織り成す極限の時刻表ゲームと、絶海の太平洋と馬に囲まれた日高路、日高の隠れたグルメを是非たっぷり堪能してください。A4・フルカラー・192ページのたっぷりのボリュームで、あなたも旅行気分を漫喫できること待ったなし!

見どころ:日高本線被災区間(大狩部、慶能舞川橋梁、清畠~豊郷) / 牧場に囲まれた絵笛駅 / 窓口のあっただるま駅・荻伏駅 / 汐見の戦争遺跡のトーチカ / 新冠温泉、三石温泉 / 襟裳岬

A4 全192ページフルカラー / 2020年11月発行


Pocket
LINEで送る
Delicious にシェア

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です