こしあん
2018-11-04

PCA Color Augmentationを拡張してTensorFlow/Keras向けに実装した

Pocket
LINEで送る
Delicious にシェア

1.6k{icon} {views}



PCA Color AugmentationはAlexNetの論文に示された画像向けのData Augmentationですが、画像用だけではなく、テンソルの固有値分解をすることで構造化データに対しても使えるようにしてみました。これの解説と効果を書きます。

リポジトリ

こちら https://github.com/koshian2/PCAColorAugmentation

PCA Color Augmentationとは?

AlexNetの論文に出てきた画像向けData Augmentationアルゴリズム。主成分分析を用いて、カラーチャンネルあたりの固有値、固有ベクトルを計算し、それをもとに色(データ)の分布に見合ったノイズを付加する。

一言で言えば、よく用いられているカラーチャンネルシフトよりもかなり自然で賢いアルゴリズムですね。AlexNet自体はディープラーニングの論文で1、2を争うぐらい引用されているのに、このアルゴリズムはあまり注目されないのが不思議です。実際にCIFAR-10で動かしてみると以下のようになります。

かなり自然な調整になっています。まるで自然光の加減をいじっているようですね。

構造化データへの応用

これの本質とは、構造化データへの応用可能であるということではないかと自分は思います。画像でのPCA Color Augmentationはカラーチャンネル間の固有値、固有ベクトルを求めることですが、カラーチャンネルを系列に読み替えると構造化データでも使えるということになります。

Irisデータセットでやってみました。

このように系列別に自然なノイズを付与することができました。これは乱数から出しているので、無限に生成することができます。つまり、データがあたかも大量にあるような効果が得られ、正則化効果をもたらすものと予想されます。

ちなみにさっきのIrisは一括でやった例ですが、やっていることはテンソルの固有値分解なので、データを系列ごとのテンソルに変えてPCA Augmentationをすると、カテゴリー別のAugmentationができます。

このように、カテゴリーごとにに異なる固有値、固有ベクトルを計算し、それを系列にノイズを与えています。つまり、カテゴリーA,カテゴリーBとあたかも異なるデータセットのように解釈しています。こちらのほうがより直感的ではないでしょうか。

アルゴリズム解説

やっていることは主成分分析ですが、入力のテンソルの次元について解説します。

データの入力次元

2階テンソル~5階テンソルまで考えます。階数別に具体的にどういう形式で入っているか場合分けします。

  • 2階 $(batch, ndim)$ 例:Irisなどの構造化データ
  • 3階 $(batch, step, ndim)$ 例:時系列データ
  • 4階 $(batch, H, W, ch)$ 例:画像
  • 5階 $(batch, D, H, W, ch)$ 例:動画

4階以上の場合はHとWの次元を結合します。$ndim=H\times W$とします。

  • 4階 $(batch, ndim, ch)$
  • 5階 $(batch, D, ndim, ch)$

分散共分散行列

主成分分析は分散共分散行列の固有値問題なので、テンソルの下2階についての分散共分散行列を計算します。分散共分散行列は以下のような次元になります。

  • 2階 $(ndim, ndim)$
  • 3階 $(batch, ndim, ndim)$
  • 4階 $(batch, ch, ch)$
  • 5階 $(batch, D, ch, ch)$

固有値・固有ベクトル

固有値の次元は次のようになります。

  • 2階 $(ndim, )$
  • 3階 $(batch, ndim)$
  • 4階 $(batch, ch)$
  • 5階 $(batch, D, ch)$

固有ベクトルの次元は分散共分散行列と等しくなります。

乱数

次に平均0、標準偏差0.1(デフォルト、変更可能)の正規乱数を発生させます。2階のときのみ特殊で入力と同じ次元、3階以上のときは固有値と同じ次元の乱数を発生させます。

  • 2階 $(batch, ndim)$
  • 3階 $(batch, ndim)$
  • 4階 $(batch, ch)$
  • 5階 $(batch, D, ch)$

2階の場合の増分

2階の場合の増分は少し特殊で、固有値に新しい軸を作り$(1, ndim)$とします。それと乱数をかけ、$(batch, ndim)$の変数ができます。これに固有ベクトルを右側からかけ、matmulで計算すると$(batch, ndim)$の増分変数が出来上がります。2階の場合はひとまずここで終わりです。

3階以上の場合の増分

乱数は固有値と同じ次元で発生させました。まずはこの乱数×固有値を計算し、これの末尾に新しい軸を作ります。そして、固有ベクトルをmatmulで左側からかけます。一連の流れは次のようになります。

  • 3階 $(batch, ndim, ndim)(batch, ndim, 1)=(batch, ndim, 1)$
  • 4階 $(batch, ch, ch)(batch, ch, 1)=(batch, ch, 1)$
  • 5階 $(batch, D, ch)(batch, D, ch, 1)=(batch, ch, 1)$

末尾の1の次元を削除します。

  • 3階 $(batch, ndim)$
  • 4階 $(batch, ch)$
  • 5階 $(batch, D, ch)$

3階と4階の場合は2つ目、5階の場合は3つ目に新しい軸を作ります。これは消えてしまった軸の復元です。

  • 3階 $(batch, 1[step], ndim)$
  • 4階 $(batch, 1[ndim], ch)$
  • 5階 $(batch, D, 1[ndim], ch)$

3階の場合はここで終わりです。4階と5階の場合のみ続きます。最初にHとWを結合させた変数と同じ次元にブロードキャストさせます。

  • 4階 $(batch, ndim, ch)$
  • 5階 $(batch, D, ndim, ch)$

最後の、4階と5階を入力次元と同じになるようにReshapeします。これで終わりです。

  • 4階 $(batch, H, W, ch)$
  • 5階 $(batch, D, H, W, ch)$

これで全部の階数の増分を計算をすることができました。全てのケースで増分はブロードキャストをかませると入力次元と等しくなります。

スケール調整

次に、入力変数に応じた増分のスケーリングを行います。これは例えば画像なら0~255のスケールで計算するか、0~1のスケールで計算するかのためのもので、基本的には1のままでいいです。後のクリッピングにも関係します。0~255のスケールで計算する場合のみ、scale=255で入力してください。

クリッピング

スケール調整した増分を入力テンソルに足します。

デフォルトではONになっています。ONの場合のみ、画像では0~1のスケールなら範囲を0~1にするように頭打ち、前のスケールで1以外の値を入力していたら0~スケールになるようにします。基本的には画像向けなので、構造化データでやるときは切ったほうがいいと思います

効果検証

CIFAR-10

VGGライクな簡単なモデルを作りました。

  • 入力(32, 32, 3)
  • 3×3畳み込み、32フィルター、same padding
  • カーネル2のAveragePooling(16, 16, 32)
  • 3×3畳み込み、64フィルター、same padding
  • カーネル2のAveragePooling(8, 8, 64)
  • 3×3畳み込み。128フィルター、same padding
  • 全結合化(8192, )
  • 10のSoftmax

PCA Color Augmentationを入れるかどうか、畳み込みにBatch Normalizationを入れるかどうかの計4条件で比較しています。これはAlexNetの登場がBatchNormalizationの登場前だったからです。PCA Color Augmentation以外のData Augmentationや、その他の正則化は切っています。

PCA Augmenation Batch Norm 訓練精度 検証精度 秒/エポック(GPU) 秒/エポック(CPU)
0.9931 0.7618 94 14
0.9208 0.6651 92 14
1.0000 0.7762 6
0.9843 0.6507 6

※CPU,GPUはPCA Color Augmentationを動かしているデバイスです。訓練自体はどちらもGPUで行っています。Colab のGPUを使っています。

精度だけ見ると、BatchNormを入れないのなら、PCA Color Augmentationは1.5%ほど精度の上昇に寄与しているというのが言えます。

PCA Augmentationを入れてBatchNormを入れなかったケースより、PCA Augmentationを入れなくてBatchNormを入れたケースを比較すると、精度が11%ぐらい高くなっていますが、これはBatchNormが強すぎるのと、CIFAR-10のデータの性質による部分も大きいのと思います。
CIFAR-10はある学習率(あるいは学習のステップ)をだんだん落としていくと異様に精度が上がるという特徴があります。これはリアルのデータセットではあまり見ないようなケースで、CIFAR-10特有の現象ではないでしょうか。つまり、学習率調整ゲーになってしまうから、訓練精度が100%近くなって異様にステップが小さくなると学習率をへらすのとほぼ同じ効果があるということだと思います。

「BatchNormを入れたらPCA不要っすよね?」と言われたらそれはそうなんですが、BatchNorm使っててオーバーフィッティングに困ったケースで、最後にPCAを入れたら綺麗にオーバーフィッティングが解消されたようなケースもありました。PCA Color Augmentationは画像への作用だけで完結するので、物体検出やランドマーク検出でもアノテーションの変換をせずに使いやすいのですよね。なので、「そういうのもあるんだな」ぐらいで頭の片隅に入れておいてもいいのではないでしょうか。

計算量についても補足しておきましょう。PCA Color Augmentationのデメリットは計算の重さです。しかも固有値の計算に用いている特異値分解(SVD)がTensorFlowのGPUで動かすとCPUより明らかに遅いという現象があります。

上記の計測結果ではGPUでAugmentationした場合は、CPUでAugmentatoinした場合より7倍近く遅くなってしまいました。あまりに遅かったので、同様のコードをNumpyベースに移植したところ、かなりマシになりました(94秒が14秒に縮んだ)。最新のデバイスだとマシになっているのかもしれませんが、Numpyのテンソルバージョンを使うことをおすすめします。

ちなみにこの現象は前から報告されていて、既にIssueが立っています。CUDAの改良待ちというところでしょうか。

SVD on GPU is slower than SVD on CPU
https://github.com/tensorflow/tensorflow/issues/13603

PyTorchのSVDはそこそこ速いそうですが、PyTorchのSVDではテンソル分解ができない(行列限定になってしまう)のでなかなか困ったものです。結局そこはCPUになっちゃうのかな。

Wineデータセット

次は構造化データの例です。SklearnのWineデータセットを使いました。ただ、このまま訓練させると検証精度も100%近くなってなかなかオーバーフィッティングしてくれないので、擬似的にオーバーフィッティングを再現してみました。以下のようにしました。

  • 通常は訓練:テスト=7:3で分割するところを、3:7で分割し、訓練データが少ない状況を再現する(オーバーフィッティングしやすくなる)
  • 入力次元が13のところを、隠れ層を「→256→128→64→32→3」と過剰に導入し、オーバーフィッティングしやすくする

PCA Augmentationなし、ありでシンプルに全体をAugmentationさせる)、ありでカテゴリー別にAugmentationさせるケースで比較しました。

PCA Augmentation PCA回数 検証精度
なし 0 0.9440
あり(全体一括) 5 0.9600
あり(全体一括) 20 0.9760
あり(カテゴリー別) 5 0.9600
あり(カテゴリー別) 20 0.9680

こちらはかなり効果があったように見えます。PCA回数は何回PCA Augmentationさせるかで、回数が多いほどAugmentationにより擬似的に生成されたデータが増えます。例えばデータ数が100で1回Augmentationさせたら100個できますし、20回させたら2000個擬似データができます。

まとめ

PCA Color Augmentationを実装して、効果を確認することができました。画像ではBatchNormが強すぎてこの効果が潰れてしまうことがありましたが、何らかの機会で正則化が必要になったら使ってみると面白いと思います。

PCA Color Augmentationを構造化データにも適用しましたが、構造化データのほうが効果がわかりやすく出たのが興味深かったです。



Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内

技術書コーナー

【新刊】インフィニティNumPy――配列の初期化から、ゲームの戦闘、静止画や動画作成までの221問

「本当の実装力を身につける」ための221本ノック――
機械学習(ML)で避けて通れない数値計算ライブラリ・NumPyを、自在に活用できるようになろう。「できる」ための体系的な理解を目指します。基礎から丁寧に解説し、ディープラーニング(DL)の難しいモデルで遭遇する、NumPyの黒魔術もカバー。初心者から経験者・上級者まで楽しめる一冊です。問題を解き終わったとき、MLやDLなどの発展分野にスムーズに入っていけるでしょう。

本書の大きな特徴として、Pythonの本でありがちな「NumPyとML・DLの結合を外した」点があります。NumPyを理解するのに、MLまで理解するのは負担が大きいです。本書ではあえてこれらの内容を書いていません。行列やテンソルの理解に役立つ「従来の画像処理」をNumPyベースで深く解説・実装していきます。

しかし、問題の多くは、DLの実装で頻出の関数・処理を重点的に取り上げています。経験者なら思わず「あー」となるでしょう。関数丸暗記では自分で実装できません。「覚える関数は最小限、できる内容は無限大」の世界をぜひ体験してみてください。画像編集ソフトの処理をNumPyベースで実装する楽しさがわかるでしょう。※紙の本は電子版の特典つき

モザイク除去から学ぶ 最先端のディープラーニング

「誰もが夢見るモザイク除去」を起点として、機械学習・ディープラーニングの基本をはじめ、GAN(敵対的生成ネットワーク)の基本や発展型、ICCV, CVPR, ECCVといった国際学会の最新論文をカバーしていく本です。
ディープラーニングの研究は発展が目覚ましく、特にGANの発展型は市販の本でほとんどカバーされていない内容です。英語の原著論文を著者がコードに落とし込み、実装を踏まえながら丁寧に解説していきます。
また、本コードは全てTensorFlow2.0(Keras)に対応し、Googleの開発した新しい機械学習向け計算デバイス・TPU(Tensor Processing Unit)をフル活用しています。Google Colaboratoryを用いた環境構築不要の演習問題もあるため、読者自ら手を動かしながら理解を深めていくことができます。

AI、機械学習、ディープラーニングの最新事情、奥深いGANの世界を知りたい方にとってぜひ手にとっていただきたい一冊となっています。持ち運びに便利な電子書籍のDLコードが付属しています。

「おもしろ同人誌バザールオンライン」で紹介されました!(14:03~) https://youtu.be/gaXkTj7T79Y?t=843

まとめURL:https://github.com/koshian2/MosaicDeeplearningBook
A4 全195ページ、カラー12ページ / 2020年3月発行

Shikoan's ML Blog -Vol.1/2-

累計100万PV超の人気ブログが待望の電子化! このブログが電子書籍になって読みやすくなりました!

・1章完結のオムニバス形式
・機械学習の基本からマニアックなネタまで
・どこから読んでもOK
・何巻から読んでもOK

・短いものは2ページ、長いものは20ページ超のものも…
・通勤・通学の短い時間でもすぐ読める!
・読むのに便利な「しおり」機能つき

・全巻はA5サイズでたっぷりの「200ページオーバー」
・1冊にたっぷり30本収録。1本あたり18.3円の圧倒的コストパフォーマンス!
・文庫本感覚でお楽しみください

北海道の駅巡りコーナー

日高本線 車なし全駅巡り

ローカル線や秘境駅、マニアックな駅に興味のある方におすすめ! 2021年に大半区間が廃線になる、北海道の日高本線の全区間・全29駅(苫小牧~様似)を記録した本です。マイカーを使わずに、公共交通機関(バス)と徒歩のみで全駅訪問を行いました。日高本線が延伸する計画のあった、襟裳岬まで様似から足を伸ばしています。代行バスと路線バスの織り成す極限の時刻表ゲームと、絶海の太平洋と馬に囲まれた日高路、日高の隠れたグルメを是非たっぷり堪能してください。A4・フルカラー・192ページのたっぷりのボリュームで、あなたも旅行気分を漫喫できること待ったなし!

見どころ:日高本線被災区間(大狩部、慶能舞川橋梁、清畠~豊郷) / 牧場に囲まれた絵笛駅 / 窓口のあっただるま駅・荻伏駅 / 汐見の戦争遺跡のトーチカ / 新冠温泉、三石温泉 / 襟裳岬

A4 全192ページフルカラー / 2020年11月発行


Pocket
LINEで送る

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です