こしあん
2019-10-02

[論文メモ]Self-Attention Generative Adversarial Networks(SA-GAN)

Pocket
LINEで送る
Delicious にシェア

3.3k{icon} {views}



SA-GAN(Self attention GAN)の論文を読んで実装したので、自分用メモとして書いておきます。

自分がやった実装の記事はこちら
Self-attention GAN(SAGAN)を実装して遊んでみた
https://blog.shikoan.com/sagan/

(普段こういう論文読みのテンプレート使わないけど、便利そうなんで使ってみます)

論文

Self-Attention Generative Adversarial Networks
https://arxiv.org/pdf/1805.08318.pdf

画像はこちらから引用

どんなもの?

GANの安定化手法として有効であるなSpectral Normalizationを適用したSN-GANの後継。著者にGANの生みの親であるIan Goodfellow氏がいる。

SN-GANではSpectral NormをDiscriminator(D)にのみ適用していたのに対し、SN-GANではGenerator(G)にも適用。くわえてSelf attention機構とTTURを追加することで、ImageNetに対してより高画質な画像生成を可能にした。

先行研究と比べてどこがすごい?

ImageNetをクラスラベルの条件付きでノイズから生成して評価する。先行研究のSNGANのInception Scoreが36.8だったに対し、52.52まで上昇(高いほどよい)。またFIDでは27.62から18.65まで改善(低いほどよい)。また、SNGANで比較的難しかった、D:Gのアップデート回数を1:1で訓練することにも成功。これにより訓練を高速化することができた。

技術や手法のキモはどこ?

GにもSpectral Normを入れる

GにSpectral Normを入れた所、経験的にに明らかによくなった(ISで評価したときに2~5程度で振動していたのが直線的に上がるようになりISが30近くなった)。GにSpectral Normを入れることで、パラメーターの大きさをコントロールし、異常な勾配が伝わることを抑制する。

Self-attention機構

畳み込みニューラルネットワークは局所的な特徴に注目しがちなので、Self attention機構を使って全体の特徴量を加味させる。具体的にはグラム行列を取る。こんな構造

ただし、このままだとメモリ消費量が莫大になってしまうので、1×1畳み込みを使ってチャンネル数を減らしてからグラム行列を取っている。

なお、Self attentionにおける各点をクエリーとしたときの結果は次のようになっている。どれも点をクエリーとしているのに、より広範囲のエリアを見ている。局所的な形よりも、広範囲の形を見ながら生成することに重きをおいている。

その上で、Self attentionのレイヤーはD/Gともに、より高解像度のレイヤーに入れたほうが画質が向上することを指摘している(高解像度のレイヤーはごく狭いエリアしか畳み込んでいないから半ば当たり前)。

TTUR(two time-scale update rule)

DとGで異なる学習率を適用すること。SAGANではDを0.0004、Gを0.0001にしている。Dに高めの学習率を使う。TTURを使うとナッシュ均衡に収束しやすくなる。

どうやって有効だと検証した?

ImageNetをクラスの条件付きで生成し、Inception ScoreとFIDを計測。SNGANが36.8だったに対し、52.52まで上昇。またFIDでは27.62から18.65まで改善。論文が書かれた時点ではSoTAだった(後にBigGANに抜かれた)。

(このグラフはちょっとできすぎ感はする。SAGANでは真ん中の図のようにある所から直線的に崩壊するというケースがたびたびある)

また、全体のFIDだけではなくクラス間のFIDも調べており、Inception Score、クラス間のFID、全体のFIDすべてで先行研究よりも改善している。

議論はある?

特にInception Scoreのグラフはたまたまうまく行っただけのような感は否めない。あくまでImageNetでうまく行っただけで、自分が他のデータセットで試したらSNGANではなかったクラス内のモード崩壊が起こった。D:Gを1:1でやるには限界があるのかもしれない。

論文ではSAGANで示したテクニック(SNをG+Dにする+TTUR)をGANの安定化のためと位置づけている。SAGANの著者らは、SNGANにおいて1:1のアップデートをするのは非常に不安定であることを認識している。この不安定さは、アップデートを先行研究のようにD:G=5:1にすると解消され安定するが、余計な時間がかかってしまう。しかし、このD+Gの両方にSNを入れると、1:1のアップデートでも安定して訓練できたと主張している。

ただ、バッチサイズを際限なく大きくできれば別だが、現実問題として1回の場合は勾配の信頼性がかなり落ちてしまう。ImageNetではうまく行ったが一般的には限界はありそうな気はする。BigGANでは2:1で訓練しているので、何かしらの失敗ケースは増えてもおかしくはない。

次に読むべき論文は?

BigGANの論文。BigGANがこのSAGANの改良版。なお、これらの3つのテクニックは細部は変更されてはいるものの、BigGANにおいてすべて継承されている。



Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内

技術書コーナー

【新刊】インフィニティNumPy――配列の初期化から、ゲームの戦闘、静止画や動画作成までの221問

「本当の実装力を身につける」ための221本ノック――
機械学習(ML)で避けて通れない数値計算ライブラリ・NumPyを、自在に活用できるようになろう。「できる」ための体系的な理解を目指します。基礎から丁寧に解説し、ディープラーニング(DL)の難しいモデルで遭遇する、NumPyの黒魔術もカバー。初心者から経験者・上級者まで楽しめる一冊です。問題を解き終わったとき、MLやDLなどの発展分野にスムーズに入っていけるでしょう。

本書の大きな特徴として、Pythonの本でありがちな「NumPyとML・DLの結合を外した」点があります。NumPyを理解するのに、MLまで理解するのは負担が大きいです。本書ではあえてこれらの内容を書いていません。行列やテンソルの理解に役立つ「従来の画像処理」をNumPyベースで深く解説・実装していきます。

しかし、問題の多くは、DLの実装で頻出の関数・処理を重点的に取り上げています。経験者なら思わず「あー」となるでしょう。関数丸暗記では自分で実装できません。「覚える関数は最小限、できる内容は無限大」の世界をぜひ体験してみてください。画像編集ソフトの処理をNumPyベースで実装する楽しさがわかるでしょう。※紙の本は電子版の特典つき

モザイク除去から学ぶ 最先端のディープラーニング

「誰もが夢見るモザイク除去」を起点として、機械学習・ディープラーニングの基本をはじめ、GAN(敵対的生成ネットワーク)の基本や発展型、ICCV, CVPR, ECCVといった国際学会の最新論文をカバーしていく本です。
ディープラーニングの研究は発展が目覚ましく、特にGANの発展型は市販の本でほとんどカバーされていない内容です。英語の原著論文を著者がコードに落とし込み、実装を踏まえながら丁寧に解説していきます。
また、本コードは全てTensorFlow2.0(Keras)に対応し、Googleの開発した新しい機械学習向け計算デバイス・TPU(Tensor Processing Unit)をフル活用しています。Google Colaboratoryを用いた環境構築不要の演習問題もあるため、読者自ら手を動かしながら理解を深めていくことができます。

AI、機械学習、ディープラーニングの最新事情、奥深いGANの世界を知りたい方にとってぜひ手にとっていただきたい一冊となっています。持ち運びに便利な電子書籍のDLコードが付属しています。

「おもしろ同人誌バザールオンライン」で紹介されました!(14:03~) https://youtu.be/gaXkTj7T79Y?t=843

まとめURL:https://github.com/koshian2/MosaicDeeplearningBook
A4 全195ページ、カラー12ページ / 2020年3月発行

Shikoan's ML Blog -Vol.1/2-

累計100万PV超の人気ブログが待望の電子化! このブログが電子書籍になって読みやすくなりました!

・1章完結のオムニバス形式
・機械学習の基本からマニアックなネタまで
・どこから読んでもOK
・何巻から読んでもOK

・短いものは2ページ、長いものは20ページ超のものも…
・通勤・通学の短い時間でもすぐ読める!
・読むのに便利な「しおり」機能つき

・全巻はA5サイズでたっぷりの「200ページオーバー」
・1冊にたっぷり30本収録。1本あたり18.3円の圧倒的コストパフォーマンス!
・文庫本感覚でお楽しみください

北海道の駅巡りコーナー

日高本線 車なし全駅巡り

ローカル線や秘境駅、マニアックな駅に興味のある方におすすめ! 2021年に大半区間が廃線になる、北海道の日高本線の全区間・全29駅(苫小牧~様似)を記録した本です。マイカーを使わずに、公共交通機関(バス)と徒歩のみで全駅訪問を行いました。日高本線が延伸する計画のあった、襟裳岬まで様似から足を伸ばしています。代行バスと路線バスの織り成す極限の時刻表ゲームと、絶海の太平洋と馬に囲まれた日高路、日高の隠れたグルメを是非たっぷり堪能してください。A4・フルカラー・192ページのたっぷりのボリュームで、あなたも旅行気分を漫喫できること待ったなし!

見どころ:日高本線被災区間(大狩部、慶能舞川橋梁、清畠~豊郷) / 牧場に囲まれた絵笛駅 / 窓口のあっただるま駅・荻伏駅 / 汐見の戦争遺跡のトーチカ / 新冠温泉、三石温泉 / 襟裳岬

A4 全192ページフルカラー / 2020年11月発行


Pocket
LINEで送る
Delicious にシェア

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です