こしあん
2018-12-03

KerasのCallbackを使って継承したImageDataGeneratorに値が渡せるか確かめる

Pocket
LINEで送る


Kerasで前処理の内容をエポックごとに変えたいというケースがたまにあります。これを実装するとなると、CallbackからGeneratorに値を渡すというコードになりますが、これが本当にできるかどうか確かめてみました。

想定する状況

例えば、前処理で正則化に関係するData Augmentationがあったとします。例えばMixUPやRICAPがあります。これらの係数をエポックごとに増やしていく、つまり訓練が進むごとにData Augmentationにおける正則化をだんだん強くしていくみたいなシチュエーションを想定します。

検証用コード

さっくりMNISTで作ってみました。ImageDataGeneratorを継承して独自の値が持てるジェネレーターを作ります(継承しなくてもいいかもしれません)。コールバックのコンストラクタでそのジェネレーターを渡し、on_epoch_endでジェネレーターの値を足すということをやってみます。

from keras.layers import Dense, Input, Flatten
from keras.models import Model
from keras.datasets import mnist
import numpy as np
from keras.preprocessing.image import ImageDataGenerator
from keras.utils import to_categorical
from keras.callbacks import Callback

def create_network():
    input = Input((28,28,1))
    x = Flatten()(input)
    x = Dense(128, activation="relu")(x)
    x = Dense(10, activation="softmax")(x)

    return Model(input, x)

class MyGenerator(ImageDataGenerator):
    def __init__(self, *args, **kwargs):
        super().__init__(*args, **kwargs)
        self.tmp_value = 0

    def flow(self, *args, **kwargs):
        for X_batch, y_batch in super().flow(*args, **kwargs):
            print(self.tmp_value)
            yield X_batch, y_batch


class MyCallback(Callback):
    def __init__(self, generator):
        self.gen = generator

    def on_epoch_end(self, epoch, logs):
        self.gen.tmp_value += 1.0

def train():
    (X_train, y_train), (X_test, y_test) = mnist.load_data()
    X_train = X_train.reshape(-1, 28, 28, 1)
    X_test = X_test.reshape(-1, 28, 28, 1)
    y_train, y_test = to_categorical(y_train), to_categorical(y_test)

    model = create_network()
    model.compile("adam", "categorical_crossentropy", ["acc"])

    gen = MyGenerator(rescale=1.0/255)
    cb = MyCallback(gen)

    train_gen = gen.flow(X_train, y_train)

    model.fit_generator(train_gen, steps_per_epoch=10, epochs=5, callbacks=[cb])

if __name__ == "__main__":
    train()

このようにジェネレーターにある「tmp_value」というのがキーになる値です。これをコールバックとジェネレーターの両方から呼び出します。コールバックでは値の代入を行い、ジェネレーター側では、本来このtmp_valueは前処理で使うためのものですが、今回はただの「print()」として再現しました。

steps_per_epochはprintのログがあふれないためのもので重要ではありません。

結果

Epoch 4/5
3.0
 1/10 [==>...........................] - ETA: 0s - loss: 0.7160 - acc: 0.87503.

3.0
3.0
3.0
3.0
3.0
3.0
3.0
3.0
10/10 [==============================] - 0s 3ms/step - loss: 0.8036 - acc: 0.79
9
Epoch 5/5
4.0
 1/10 [==>...........................] - ETA: 0s - loss: 0.5238 - acc: 0.90624.

4.0
4.0
4.0
4.0
4.0
4.0
4.0
4.0
10/10 [==============================] - 0s 3ms/step - loss: 0.6635 - acc: 0.85
2

うまくいった!! つまり、コールバックを使ってon_epoch_endで呼び出せば、最初にジェネレーターの関数を定義しておいても、fit_generatorのほうで動的な受け渡しができるということです

これで想定されたシチュエーションでも活かすことができます。

Related Posts

TPUで学習率減衰させる方法 TPUで学習率減衰したいが、TensorFlowのオプティマイザーを使うべきか、tf.kerasのオプティマイザーを使うべきか、あるいはKerasのオプティマイザーを使うべきか非常にややこしいことがあります。TPUで学習率を減衰させる方法を再現しました。 結論から TPU環境でtf.keras...
TensorFlowでコサイン類似度を計算する方法... TensorFlowで損失関数や距離関数に「コサイン類似度」を使うことを考えます。Scikit-learnでは簡単に計算できますが、同様にTensorFlowでの行列演算でも計算できます。それを見ていきます。 コサイン類似度 コサイン類似度は、ユークリッド距離と同様に距離関数として使われる評価...
条件に応じた配列の要素の抽出をTensorFlowで行う... Numpyで条件を与えて、インデックスのスライスによって配列の要素を抽出する、というようなケースはよくあります。これをTensorFlowのテンソルでやるのにはどうすればいいのでしょうか?それを見ていきます。 Numpyではこんな例 例えば、5×5のランダムな行列をデータとします。この配列を左...
PyTorchでOnehotエンコーディングするためのワンライナー... PyTorchでクラスの数字を0,1のベクトルに変形するOnehotベクトルを簡単に書く方法を紹介します。ワンライナーでできます。 TL;DR PyTorchではこれでOnehotエンコーディングができます。 onehot = torch.eye(10) ただし、labelはLongTe...
Google ColabのTPU環境でmodel.fitのhistoryが消える現象... Google ColabのTPU環境でmodel.fitしたときに、通常の環境で得られるhistory(誤差や精度のログ)が消えていることがあります。その対応法を示します。 原因はTPU用のモデルに変換したから まず結論からいうとこの現象はCPU/GPU環境では再発しません。TPU環境特有の現...
Pocket
Delicious にシェア

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です