KerasのLambdaレイヤーの引数をループ内で変えるときにハマった話
KerasのLambdaレイヤーはとても便利で、自作の関数ほか、TensorFlowの組み込みの強力な関数もレイヤーとして扱うことができます。しかし、ループごとに引数を変えながらLambdaレイヤーでラップするようなケースでハマってしまいました。depth_to_spaceを例に見ていきます。
環境:TensorFlow 2.0.0
tf.nn.depth_to_space
ちょうどこの関数を使っていたときでした。まずtf.nn.depth_to_spaceが何かというと、
tf.nn.depth_to_space(inputs, b)
という関数を考えるとしましょう。inputsのshapeが$(B,H,W,C)$のときに、$(B,Hb,Wb,C/b^2)$という変換をするのがdepth_to_space関数です。
この関数が何が嬉しいのかというと、アップサンプリングに使えます。そしてこの変換はPixelShuffleと同じ感覚で使えます(係数を持ったアップサンプリングで、バイキュービック法よりも高度な方法ぐらいに思っておいてください)。PyTorchのドキュメントでは、Pixel Shuffleのレイヤーで全く同じshapeの変換をしています。
一例を示しましょう。
import tensorflow as tf
def depth_to_space():
x = tf.random.normal((16, 64, 64, 12))
y = tf.nn.depth_to_space(x, 2)
print(y.shape) # (16, 128, 128, 3)
depth_to_spaceによって、チャンネル方向が圧縮され、解像度が2倍になっているのがわかります。
「こんなんで本当にアップサンプリングできるの?」と思うかもしれませんが、ニューラルネットワークの最適化の過程でアップサンプリングされます。気になる方はPixel Shuffleの論文を読んでみてください。
Lambdaレイヤーで使う
depth_to_spaceをアップサンプリング目的で、Kerasのモデルに組み込むことはもちろんできます。TensorFlowの関数なので、KerasのLambdaレイヤーを使いましょう。
例えば、画像を入力し、画像を出力するモデルでこういうやりたくなります。ただし、以下は間違った例です。
import tensorflow as tf
import tensorflow.keras.layers as layers
def subpixel_conv_model():
inputs = layers.Input((256, 256, 3))
convs = []
for i in range(6):
# 解像度に合わせてダウンサンプリング
if i != 0:
x = layers.AveragePooling2D(2 ** i)(inputs)
else:
x = inputs
# チャンネル数をあわせる
x = layers.Conv2D(3 * 4 ** i, 3, padding="same")(x)
x = layers.BatchNormalization()(x)
x = layers.ReLU()(x)
# Pixel shuffleでアップサンプリング
if i != 0:
x = layers.Lambda(lambda z: tf.nn.depth_to_space(z, 2 ** i))(x) # ここがダメ
convs.append(x)
print(x) # 確認用
# すべてのレイヤーをまとめる
x = layers.Concatenate()(convs)
x = layers.Conv2D(3, 3, padding="same")(x)
x = layers.Activation("sigmoid")(x) # 出力は画像
return tf.keras.models.Model(inputs, x)
Encoder-Decoderではなくて、Encoder部分をAveragePoolingとした複数のFCNで組み合わせる変わったモデルかもしれませんが、その点は今はおいておきましょう。問題があるのはLambdaレイヤーの部分です。
これはモデルを組むだけなら成功します。そしてmodel.summaryも正しく表示されます。
def main():
model = subpixel_conv_model()
model.summary()
if __name__ == "__main__":
main()
Tensor("re_lu/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_1/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_2/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_3/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_4/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Model: "model"
__________________________________________________________________________________________________
Layer (type) Output Shape Param # Connected to
==================================================================================================
input_1 (InputLayer) [(None, 256, 256, 3) 0
__________________________________________________________________________________________________
average_pooling2d (AveragePooli (None, 128, 128, 3) 0 input_1[0][0]
__________________________________________________________________________________________________
average_pooling2d_1 (AveragePoo (None, 64, 64, 3) 0 input_1[0][0]
__________________________________________________________________________________________________
average_pooling2d_2 (AveragePoo (None, 32, 32, 3) 0 input_1[0][0]
__________________________________________________________________________________________________
average_pooling2d_3 (AveragePoo (None, 16, 16, 3) 0 input_1[0][0]
__________________________________________________________________________________________________
average_pooling2d_4 (AveragePoo (None, 8, 8, 3) 0 input_1[0][0]
__________________________________________________________________________________________________
conv2d_1 (Conv2D) (None, 128, 128, 12) 336 average_pooling2d[0][0]
__________________________________________________________________________________________________
conv2d_2 (Conv2D) (None, 64, 64, 48) 1344 average_pooling2d_1[0][0]
__________________________________________________________________________________________________
conv2d_3 (Conv2D) (None, 32, 32, 192) 5376 average_pooling2d_2[0][0]
__________________________________________________________________________________________________
conv2d_4 (Conv2D) (None, 16, 16, 768) 21504 average_pooling2d_3[0][0]
__________________________________________________________________________________________________
conv2d_5 (Conv2D) (None, 8, 8, 3072) 86016 average_pooling2d_4[0][0]
__________________________________________________________________________________________________
conv2d (Conv2D) (None, 256, 256, 3) 84 input_1[0][0]
__________________________________________________________________________________________________
batch_normalization_1 (BatchNor (None, 128, 128, 12) 48 conv2d_1[0][0]
__________________________________________________________________________________________________
batch_normalization_2 (BatchNor (None, 64, 64, 48) 192 conv2d_2[0][0]
__________________________________________________________________________________________________
batch_normalization_3 (BatchNor (None, 32, 32, 192) 768 conv2d_3[0][0]
__________________________________________________________________________________________________
batch_normalization_4 (BatchNor (None, 16, 16, 768) 3072 conv2d_4[0][0]
__________________________________________________________________________________________________
batch_normalization_5 (BatchNor (None, 8, 8, 3072) 12288 conv2d_5[0][0]
__________________________________________________________________________________________________
batch_normalization (BatchNorma (None, 256, 256, 3) 12 conv2d[0][0]
__________________________________________________________________________________________________
re_lu_1 (ReLU) (None, 128, 128, 12) 0 batch_normalization_1[0][0]
__________________________________________________________________________________________________
re_lu_2 (ReLU) (None, 64, 64, 48) 0 batch_normalization_2[0][0]
__________________________________________________________________________________________________
re_lu_3 (ReLU) (None, 32, 32, 192) 0 batch_normalization_3[0][0]
__________________________________________________________________________________________________
re_lu_4 (ReLU) (None, 16, 16, 768) 0 batch_normalization_4[0][0]
__________________________________________________________________________________________________
re_lu_5 (ReLU) (None, 8, 8, 3072) 0 batch_normalization_5[0][0]
__________________________________________________________________________________________________
re_lu (ReLU) (None, 256, 256, 3) 0 batch_normalization[0][0]
__________________________________________________________________________________________________
lambda (Lambda) (None, 256, 256, 3) 0 re_lu_1[0][0]
__________________________________________________________________________________________________
lambda_1 (Lambda) (None, 256, 256, 3) 0 re_lu_2[0][0]
__________________________________________________________________________________________________
lambda_2 (Lambda) (None, 256, 256, 3) 0 re_lu_3[0][0]
__________________________________________________________________________________________________
lambda_3 (Lambda) (None, 256, 256, 3) 0 re_lu_4[0][0]
__________________________________________________________________________________________________
lambda_4 (Lambda) (None, 256, 256, 3) 0 re_lu_5[0][0]
__________________________________________________________________________________________________
concatenate (Concatenate) (None, 256, 256, 18) 0 re_lu[0][0]
lambda[0][0]
lambda_1[0][0]
lambda_2[0][0]
lambda_3[0][0]
lambda_4[0][0]
__________________________________________________________________________________________________
conv2d_6 (Conv2D) (None, 256, 256, 3) 489 concatenate[0][0]
__________________________________________________________________________________________________
activation (Activation) (None, 256, 256, 3) 0 conv2d_6[0][0]
==================================================================================================
Total params: 131,529
Trainable params: 123,339
Non-trainable params: 8,190
__________________________________________________________________________________________________
様々な解像度に対してFCNを組み合わせていますが、結局depth_to_spaceで256x256x3になるようにUpsamplingしているモデルです。
ところが、モデルをいざ実行すると突然エラーを出します。
def main():
model = subpixel_conv_model()
x = tf.random.uniform((8, 256, 256, 3))
y = model(x)
print(y.shape)
if __name__ == "__main__":
main()
x = layers.Lambda(lambda z: tf.nn.depth_to_space(z, 2 ** i))(x)
File "C:\Program Files\Python37\lib\site-packages\tensorflow_core\python\ops\array_ops.py", line 3271, in depth_to_space_v2
return gen_array_ops.depth_to_space(input, block_size, data_format, name=name)
File "C:\Program Files\Python37\lib\site-packages\tensorflow_core\python\ops\gen_array_ops.py", line 1724, in depth_to_space
_six.raise_from(_core._status_to_exception(e.code, message), None)
File "<string>", line 3, in raise_from
tensorflow.python.framework.errors_impl.InvalidArgumentError: Input depth dimension 12 should be divisible by: 1024 [Op:DepthToSpace]
summaryまであっていたのに謎ですよね。それにchが12(i=1)のケースで1024で割り切れないって謎ですよね。これはハマりました。
Lambdaのレイヤーがおかしい
おかしいのはこの部分です。このdepth_to_spaceに直接2のi乗を食わせているのがよくありません。
x = layers.Lambda(lambda z: tf.nn.depth_to_space(z, 2 ** i))(x)
iはループ中に0, 1, 2と変わっていきますが、これだとループを通してiの参照がすべて同じになってしまいます。つまり、iが1だろうが2だろうが、最後に代入されたi=5で評価されていることになります。正しくはこうします。
x = layers.Lambda(tf.nn.depth_to_space, arguments={"block_size": 2**i})(x) # 正しい例
Pythonのlambda関数内の引数に直接代入するのではなく、KerasのLambdaレイヤーのargumentsの引数にKVSで放り込みましょう。これによってループごとに別々の値で評価されるようになります。
先程のコードでも正しい出力が返されます。
Tensor("re_lu/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_1/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_2/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_3/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_4/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
(8, 256, 256, 3)
JavaScriptのクロージャーみたいなハマり方ですね。
まとめ
Lambdaレイヤーの引数をループカウンターなどで変化させる場合は、arguments引数を使う。
自作の関数だと思いだしても、TensorFlowの組み込み関数を使うときには忘れがちな要素だと思います。
Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内
技術書コーナー
「本当の実装力を身につける」ための221本ノック――
機械学習(ML)で避けて通れない数値計算ライブラリ・NumPyを、自在に活用できるようになろう。「できる」ための体系的な理解を目指します。基礎から丁寧に解説し、ディープラーニング(DL)の難しいモデルで遭遇する、NumPyの黒魔術もカバー。初心者から経験者・上級者まで楽しめる一冊です。問題を解き終わったとき、MLやDLなどの発展分野にスムーズに入っていけるでしょう。
本書の大きな特徴として、Pythonの本でありがちな「NumPyとML・DLの結合を外した」点があります。NumPyを理解するのに、MLまで理解するのは負担が大きいです。本書ではあえてこれらの内容を書いていません。行列やテンソルの理解に役立つ「従来の画像処理」をNumPyベースで深く解説・実装していきます。
しかし、問題の多くは、DLの実装で頻出の関数・処理を重点的に取り上げています。経験者なら思わず「あー」となるでしょう。関数丸暗記では自分で実装できません。「覚える関数は最小限、できる内容は無限大」の世界をぜひ体験してみてください。画像編集ソフトの処理をNumPyベースで実装する楽しさがわかるでしょう。※紙の本は電子版の特典つき
- まとめURL:https://github.com/koshian2/numpy_book
- みんなの感想:https://togetter.com/li/1641475
- A4 全176ページモノクロ / 2020年12月発行
「誰もが夢見るモザイク除去」を起点として、機械学習・ディープラーニングの基本をはじめ、GAN(敵対的生成ネットワーク)の基本や発展型、ICCV, CVPR, ECCVといった国際学会の最新論文をカバーしていく本です。
ディープラーニングの研究は発展が目覚ましく、特にGANの発展型は市販の本でほとんどカバーされていない内容です。英語の原著論文を著者がコードに落とし込み、実装を踏まえながら丁寧に解説していきます。
また、本コードは全てTensorFlow2.0(Keras)に対応し、Googleの開発した新しい機械学習向け計算デバイス・TPU(Tensor Processing Unit)をフル活用しています。Google Colaboratoryを用いた環境構築不要の演習問題もあるため、読者自ら手を動かしながら理解を深めていくことができます。
AI、機械学習、ディープラーニングの最新事情、奥深いGANの世界を知りたい方にとってぜひ手にとっていただきたい一冊となっています。持ち運びに便利な電子書籍のDLコードが付属しています。
「おもしろ同人誌バザールオンライン」で紹介されました!(14:03~) https://youtu.be/gaXkTj7T79Y?t=843
まとめURL:https://github.com/koshian2/MosaicDeeplearningBook
A4 全195ページ、カラー12ページ / 2020年3月発行
累計100万PV超の人気ブログが待望の電子化! このブログが電子書籍になって読みやすくなりました!
・1章完結のオムニバス形式
・機械学習の基本からマニアックなネタまで
・どこから読んでもOK
・何巻から読んでもOK
・短いものは2ページ、長いものは20ページ超のものも…
・通勤・通学の短い時間でもすぐ読める!
・読むのに便利な「しおり」機能つき
・全巻はA5サイズでたっぷりの「200ページオーバー」
・1冊にたっぷり30本収録。1本あたり18.3円の圧倒的コストパフォーマンス!
・文庫本感覚でお楽しみください
北海道の駅巡りコーナー
ローカル線や秘境駅、マニアックな駅に興味のある方におすすめ! 2021年に大半区間が廃線になる、北海道の日高本線の全区間・全29駅(苫小牧~様似)を記録した本です。マイカーを使わずに、公共交通機関(バス)と徒歩のみで全駅訪問を行いました。日高本線が延伸する計画のあった、襟裳岬まで様似から足を伸ばしています。代行バスと路線バスの織り成す極限の時刻表ゲームと、絶海の太平洋と馬に囲まれた日高路、日高の隠れたグルメを是非たっぷり堪能してください。A4・フルカラー・192ページのたっぷりのボリュームで、あなたも旅行気分を漫喫できること待ったなし!
見どころ:日高本線被災区間(大狩部、慶能舞川橋梁、清畠~豊郷) / 牧場に囲まれた絵笛駅 / 窓口のあっただるま駅・荻伏駅 / 汐見の戦争遺跡のトーチカ / 新冠温泉、三石温泉 / 襟裳岬
A4 全192ページフルカラー / 2020年11月発行