こしあん
2019-11-09

KerasのLambdaレイヤーの引数をループ内で変えるときにハマった話

Pocket
LINEで送る


KerasのLambdaレイヤーはとても便利で、自作の関数ほか、TensorFlowの組み込みの強力な関数もレイヤーとして扱うことができます。しかし、ループごとに引数を変えながらLambdaレイヤーでラップするようなケースでハマってしまいました。depth_to_spaceを例に見ていきます。

環境:TensorFlow 2.0.0

tf.nn.depth_to_space

ちょうどこの関数を使っていたときでした。まずtf.nn.depth_to_spaceが何かというと、

tf.nn.depth_to_space(inputs, b)

という関数を考えるとしましょう。inputsのshapeが$(B,H,W,C)$のときに、$(B,Hb,Wb,C/b^2)$という変換をするのがdepth_to_space関数です。

この関数が何が嬉しいのかというと、アップサンプリングに使えます。そしてこの変換はPixelShuffleと同じ感覚で使えます(係数を持ったアップサンプリングで、バイキュービック法よりも高度な方法ぐらいに思っておいてください)。PyTorchのドキュメントでは、Pixel Shuffleのレイヤーで全く同じshapeの変換をしています。

一例を示しましょう。

import tensorflow as tf

def depth_to_space():
    x = tf.random.normal((16, 64, 64, 12))
    y = tf.nn.depth_to_space(x, 2)
    print(y.shape) # (16, 128, 128, 3)

depth_to_spaceによって、チャンネル方向が圧縮され、解像度が2倍になっているのがわかります。

「こんなんで本当にアップサンプリングできるの?」と思うかもしれませんが、ニューラルネットワークの最適化の過程でアップサンプリングされます。気になる方はPixel Shuffleの論文を読んでみてください。

Lambdaレイヤーで使う

depth_to_spaceをアップサンプリング目的で、Kerasのモデルに組み込むことはもちろんできます。TensorFlowの関数なので、KerasのLambdaレイヤーを使いましょう。

例えば、画像を入力し、画像を出力するモデルでこういうやりたくなります。ただし、以下は間違った例です。

import tensorflow as tf
import tensorflow.keras.layers as layers

def subpixel_conv_model():
    inputs = layers.Input((256, 256, 3))
    convs = []
    for i in range(6):
        # 解像度に合わせてダウンサンプリング
        if i != 0:
            x = layers.AveragePooling2D(2 ** i)(inputs)
        else:
            x = inputs
        # チャンネル数をあわせる
        x = layers.Conv2D(3 * 4 ** i, 3, padding="same")(x)
        x = layers.BatchNormalization()(x)
        x = layers.ReLU()(x)
        # Pixel shuffleでアップサンプリング
        if i != 0:
            x = layers.Lambda(lambda z: tf.nn.depth_to_space(z, 2 ** i))(x) # ここがダメ
        convs.append(x)
        print(x)  # 確認用
    # すべてのレイヤーをまとめる
    x = layers.Concatenate()(convs)
    x = layers.Conv2D(3, 3, padding="same")(x)
    x = layers.Activation("sigmoid")(x)  # 出力は画像
    return tf.keras.models.Model(inputs, x)

Encoder-Decoderではなくて、Encoder部分をAveragePoolingとした複数のFCNで組み合わせる変わったモデルかもしれませんが、その点は今はおいておきましょう。問題があるのはLambdaレイヤーの部分です。

これはモデルを組むだけなら成功します。そしてmodel.summaryも正しく表示されます。

def main():
    model = subpixel_conv_model()
    model.summary()

if __name__ == "__main__":
    main()
Tensor("re_lu/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_1/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_2/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_3/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_4/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Model: "model"
__________________________________________________________________________________________________
Layer (type)                    Output Shape         Param #     Connected to
==================================================================================================
input_1 (InputLayer)            [(None, 256, 256, 3) 0
__________________________________________________________________________________________________
average_pooling2d (AveragePooli (None, 128, 128, 3)  0           input_1[0][0]
__________________________________________________________________________________________________
average_pooling2d_1 (AveragePoo (None, 64, 64, 3)    0           input_1[0][0]
__________________________________________________________________________________________________
average_pooling2d_2 (AveragePoo (None, 32, 32, 3)    0           input_1[0][0]
__________________________________________________________________________________________________
average_pooling2d_3 (AveragePoo (None, 16, 16, 3)    0           input_1[0][0]
__________________________________________________________________________________________________
average_pooling2d_4 (AveragePoo (None, 8, 8, 3)      0           input_1[0][0]
__________________________________________________________________________________________________
conv2d_1 (Conv2D)               (None, 128, 128, 12) 336         average_pooling2d[0][0]
__________________________________________________________________________________________________
conv2d_2 (Conv2D)               (None, 64, 64, 48)   1344        average_pooling2d_1[0][0]
__________________________________________________________________________________________________
conv2d_3 (Conv2D)               (None, 32, 32, 192)  5376        average_pooling2d_2[0][0]
__________________________________________________________________________________________________
conv2d_4 (Conv2D)               (None, 16, 16, 768)  21504       average_pooling2d_3[0][0]
__________________________________________________________________________________________________
conv2d_5 (Conv2D)               (None, 8, 8, 3072)   86016       average_pooling2d_4[0][0]
__________________________________________________________________________________________________
conv2d (Conv2D)                 (None, 256, 256, 3)  84          input_1[0][0]
__________________________________________________________________________________________________
batch_normalization_1 (BatchNor (None, 128, 128, 12) 48          conv2d_1[0][0]
__________________________________________________________________________________________________
batch_normalization_2 (BatchNor (None, 64, 64, 48)   192         conv2d_2[0][0]
__________________________________________________________________________________________________
batch_normalization_3 (BatchNor (None, 32, 32, 192)  768         conv2d_3[0][0]
__________________________________________________________________________________________________
batch_normalization_4 (BatchNor (None, 16, 16, 768)  3072        conv2d_4[0][0]
__________________________________________________________________________________________________
batch_normalization_5 (BatchNor (None, 8, 8, 3072)   12288       conv2d_5[0][0]
__________________________________________________________________________________________________
batch_normalization (BatchNorma (None, 256, 256, 3)  12          conv2d[0][0]
__________________________________________________________________________________________________
re_lu_1 (ReLU)                  (None, 128, 128, 12) 0           batch_normalization_1[0][0]
__________________________________________________________________________________________________
re_lu_2 (ReLU)                  (None, 64, 64, 48)   0           batch_normalization_2[0][0]
__________________________________________________________________________________________________
re_lu_3 (ReLU)                  (None, 32, 32, 192)  0           batch_normalization_3[0][0]
__________________________________________________________________________________________________
re_lu_4 (ReLU)                  (None, 16, 16, 768)  0           batch_normalization_4[0][0]
__________________________________________________________________________________________________
re_lu_5 (ReLU)                  (None, 8, 8, 3072)   0           batch_normalization_5[0][0]
__________________________________________________________________________________________________
re_lu (ReLU)                    (None, 256, 256, 3)  0           batch_normalization[0][0]
__________________________________________________________________________________________________
lambda (Lambda)                 (None, 256, 256, 3)  0           re_lu_1[0][0]
__________________________________________________________________________________________________
lambda_1 (Lambda)               (None, 256, 256, 3)  0           re_lu_2[0][0]
__________________________________________________________________________________________________
lambda_2 (Lambda)               (None, 256, 256, 3)  0           re_lu_3[0][0]
__________________________________________________________________________________________________
lambda_3 (Lambda)               (None, 256, 256, 3)  0           re_lu_4[0][0]
__________________________________________________________________________________________________
lambda_4 (Lambda)               (None, 256, 256, 3)  0           re_lu_5[0][0]
__________________________________________________________________________________________________
concatenate (Concatenate)       (None, 256, 256, 18) 0           re_lu[0][0]
                                                                 lambda[0][0]
                                                                 lambda_1[0][0]
                                                                 lambda_2[0][0]
                                                                 lambda_3[0][0]
                                                                 lambda_4[0][0]
__________________________________________________________________________________________________
conv2d_6 (Conv2D)               (None, 256, 256, 3)  489         concatenate[0][0]
__________________________________________________________________________________________________
activation (Activation)         (None, 256, 256, 3)  0           conv2d_6[0][0]
==================================================================================================
Total params: 131,529
Trainable params: 123,339
Non-trainable params: 8,190
__________________________________________________________________________________________________

様々な解像度に対してFCNを組み合わせていますが、結局depth_to_spaceで256x256x3になるようにUpsamplingしているモデルです。

ところが、モデルをいざ実行すると突然エラーを出します。

def main():
    model = subpixel_conv_model()
    x = tf.random.uniform((8, 256, 256, 3))
    y = model(x)
    print(y.shape)

if __name__ == "__main__":
    main()
    x = layers.Lambda(lambda z: tf.nn.depth_to_space(z, 2 ** i))(x)
  File "C:\Program Files\Python37\lib\site-packages\tensorflow_core\python\ops\array_ops.py", line 3271, in depth_to_space_v2
    return gen_array_ops.depth_to_space(input, block_size, data_format, name=name)
  File "C:\Program Files\Python37\lib\site-packages\tensorflow_core\python\ops\gen_array_ops.py", line 1724, in depth_to_space
    _six.raise_from(_core._status_to_exception(e.code, message), None)
  File "<string>", line 3, in raise_from
tensorflow.python.framework.errors_impl.InvalidArgumentError: Input depth dimension 12 should be divisible by: 1024 [Op:DepthToSpace]

summaryまであっていたのに謎ですよね。それにchが12(i=1)のケースで1024で割り切れないって謎ですよね。これはハマりました。

Lambdaのレイヤーがおかしい

おかしいのはこの部分です。このdepth_to_spaceに直接2のi乗を食わせているのがよくありません

            x = layers.Lambda(lambda z: tf.nn.depth_to_space(z, 2 ** i))(x)

iはループ中に0, 1, 2と変わっていきますが、これだとループを通してiの参照がすべて同じになってしまいます。つまり、iが1だろうが2だろうが、最後に代入されたi=5で評価されていることになります。正しくはこうします。

            x = layers.Lambda(tf.nn.depth_to_space, arguments={"block_size": 2**i})(x) # 正しい例

Pythonのlambda関数内の引数に直接代入するのではなく、KerasのLambdaレイヤーのargumentsの引数にKVSで放り込みましょう。これによってループごとに別々の値で評価されるようになります。

先程のコードでも正しい出力が返されます。

Tensor("re_lu/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_1/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_2/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_3/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
Tensor("lambda_4/Identity:0", shape=(None, 256, 256, 3), dtype=float32)
(8, 256, 256, 3)

JavaScriptのクロージャーみたいなハマり方ですね。

まとめ

Lambdaレイヤーの引数をループカウンターなどで変化させる場合は、arguments引数を使う。

自作の関数だと思いだしても、TensorFlowの組み込み関数を使うときには忘れがちな要素だと思います。

Related Posts

TensorFlow/Kerasでの分散共分散行列・相関行列、テンソル主成分分析の実装... TensorFlowでは分散共分散行列や主成分分析用の関数が用意されていません。訓練を一切せずにTensorFlowとKeras関数だけを使って、分散共分散行列、相関行列、主成分分析を実装します。最終的にはカテゴリー別のテンソル主成分分析を作れるようにします。 何らかの論文でこれらのテクニックを...
KerasのCallbackを使って継承したImageDataGeneratorに値が渡せるか確かめ... Kerasで前処理の内容をエポックごとに変えたいというケースがたまにあります。これを実装するとなると、CallbackからGeneratorに値を渡すというコードになりますが、これが本当にできるかどうか確かめてみました。 想定する状況 例えば、前処理で正則化に関係するData Augmenta...
ディープラーニング=最小二乗法のどこがダメなのか解説する... あるニュース記事で、ディープラーニング=最小二乗法で三次関数なんていう「伝説の画像」が出回っていたので、それに対して突っ込みつつ、非線形関数という立場からディープラーニングの本当の表現の豊かさを見ていきたいと思います。 きっかけ ある画像が出回っていた。日経新聞の解説らしい。 伝説の画像にな...
モルフォロジー変換は実はMaxPoolingだったという話(TensorFlowでの実装)... 画像処理の重要な変換に膨張(Dilation)や収縮(Erosion)といったモルフォロジー変換があります。実はこれはディープラーニングでよく使われるMaxPoolingフィルターで置き換えることができます。TensorFlowの実装で見ていきます。 モルフォロジー変換 OpenCVでのモルフ...
PyTorch/TorchVisionで複数の入力をモデルに渡したいケース... PyTorch/TorchVisionで入力が複数あり、それぞれの入力に対して同じ前処理(transforms)をかけるケースを考えます。デフォルトのtransformsは複数対応していないのでうまくいきません。しかし、ラッパークラスを作り、それで前処理をラップするといい感じにできたのでその方法を...
Pocket
Delicious にシェア

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です