こしあん
2018-12-03

KerasのCallbackを使って継承したImageDataGeneratorに値が渡せるか確かめる


Kerasで前処理の内容をエポックごとに変えたいというケースがたまにあります。これを実装するとなると、CallbackからGeneratorに値を渡すというコードになりますが、これが本当にできるかどうか確かめてみました。

想定する状況

例えば、前処理で正則化に関係するData Augmentationがあったとします。例えばMixUPやRICAPがあります。これらの係数をエポックごとに増やしていく、つまり訓練が進むごとにData Augmentationにおける正則化をだんだん強くしていくみたいなシチュエーションを想定します。

検証用コード

さっくりMNISTで作ってみました。ImageDataGeneratorを継承して独自の値が持てるジェネレーターを作ります(継承しなくてもいいかもしれません)。コールバックのコンストラクタでそのジェネレーターを渡し、on_epoch_endでジェネレーターの値を足すということをやってみます。

from keras.layers import Dense, Input, Flatten
from keras.models import Model
from keras.datasets import mnist
import numpy as np
from keras.preprocessing.image import ImageDataGenerator
from keras.utils import to_categorical
from keras.callbacks import Callback

def create_network():
    input = Input((28,28,1))
    x = Flatten()(input)
    x = Dense(128, activation="relu")(x)
    x = Dense(10, activation="softmax")(x)

    return Model(input, x)

class MyGenerator(ImageDataGenerator):
    def __init__(self, *args, **kwargs):
        super().__init__(*args, **kwargs)
        self.tmp_value = 0

    def flow(self, *args, **kwargs):
        for X_batch, y_batch in super().flow(*args, **kwargs):
            print(self.tmp_value)
            yield X_batch, y_batch


class MyCallback(Callback):
    def __init__(self, generator):
        self.gen = generator

    def on_epoch_end(self, epoch, logs):
        self.gen.tmp_value += 1.0

def train():
    (X_train, y_train), (X_test, y_test) = mnist.load_data()
    X_train = X_train.reshape(-1, 28, 28, 1)
    X_test = X_test.reshape(-1, 28, 28, 1)
    y_train, y_test = to_categorical(y_train), to_categorical(y_test)

    model = create_network()
    model.compile("adam", "categorical_crossentropy", ["acc"])

    gen = MyGenerator(rescale=1.0/255)
    cb = MyCallback(gen)

    train_gen = gen.flow(X_train, y_train)

    model.fit_generator(train_gen, steps_per_epoch=10, epochs=5, callbacks=[cb])

if __name__ == "__main__":
    train()

このようにジェネレーターにある「tmp_value」というのがキーになる値です。これをコールバックとジェネレーターの両方から呼び出します。コールバックでは値の代入を行い、ジェネレーター側では、本来このtmp_valueは前処理で使うためのものですが、今回はただの「print()」として再現しました。

steps_per_epochはprintのログがあふれないためのもので重要ではありません。

結果

Epoch 4/5
3.0
 1/10 [==>...........................] - ETA: 0s - loss: 0.7160 - acc: 0.87503.

3.0
3.0
3.0
3.0
3.0
3.0
3.0
3.0
10/10 [==============================] - 0s 3ms/step - loss: 0.8036 - acc: 0.79
9
Epoch 5/5
4.0
 1/10 [==>...........................] - ETA: 0s - loss: 0.5238 - acc: 0.90624.

4.0
4.0
4.0
4.0
4.0
4.0
4.0
4.0
10/10 [==============================] - 0s 3ms/step - loss: 0.6635 - acc: 0.85
2

うまくいった!! つまり、コールバックを使ってon_epoch_endで呼び出せば、最初にジェネレーターの関数を定義しておいても、fit_generatorのほうで動的な受け渡しができるということです

これで想定されたシチュエーションでも活かすことができます。

Related Posts

Google ColabのTPU環境でmodel.fitのhistoryが消える現象... Google ColabのTPU環境でmodel.fitしたときに、通常の環境で得られるhistory(誤差や精度のログ)が消えていることがあります。その対応法を示します。 原因はTPU用のモデルに変換したから まず結論からいうとこの現象はCPU/GPU環境では再発しません。TPU環境特有の現...
PandasのDataFrameでグループ別にサンプルをN個抜き出す方法... 「PandasでGroupbyでグルーピングしたはいんだけど、そこからグループ別にサンプルを1個、2個…と抜き出す、SQLでよくやるやつってどうやるんだっけ?」ということが気になったので、調べました。ちゃんとした方法があります。 例題 今、中国地方と四国地方の県と面積をDataFrameにして...
Python(Numpy)で画像を水平反転する方法:Data Augmentation向け... OpenCVを使わずに単純に画像を左右反転(水平反転)する方法を考えます。ディープラーニングでデータのジェネレーターを自分で実装した場合、Data Augmentationを組み込む際にも必要になります。それを見ていきましょう。 左右反転自体は実は簡単 例えばNumpyの行列を左右反転させてみ...
Kerasのジェネレーターでサンプルが列挙される順番について... Kerasの(カスタム)ジェネレーターでサンプルがどの順番で呼び出されるか、1ループ終わったあとにどういう処理がなされるのか調べてみました。ジェネレーターを自分で定義するとモデルの表現の幅は広がるものの、バグが起きやすくなるので「本当に順番が保証されるのか」や「ハマりどころ」を確認します。 0~...
Kerasで複数のラベル(出力)があるモデルを訓練する... Kerasで複数のラベル(出力)のあるモデルを訓練することを考えます。ここでの複数のラベルとは、あるラベルとそれに付随する情報が送られてきて、それを同時に損失関数で計算する例です。これを見ていきましょう。 問題設定 MNISTの分類で、ラベルが奇数のときだけ損失を評価し(categorical...

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です