こしあん
2018-12-03

KerasのCallbackを使って継承したImageDataGeneratorに値が渡せるか確かめる


3k{icon} {views}


Kerasで前処理の内容をエポックごとに変えたいというケースがたまにあります。これを実装するとなると、CallbackからGeneratorに値を渡すというコードになりますが、これが本当にできるかどうか確かめてみました。

想定する状況

例えば、前処理で正則化に関係するData Augmentationがあったとします。例えばMixUPやRICAPがあります。これらの係数をエポックごとに増やしていく、つまり訓練が進むごとにData Augmentationにおける正則化をだんだん強くしていくみたいなシチュエーションを想定します。

検証用コード

さっくりMNISTで作ってみました。ImageDataGeneratorを継承して独自の値が持てるジェネレーターを作ります(継承しなくてもいいかもしれません)。コールバックのコンストラクタでそのジェネレーターを渡し、on_epoch_endでジェネレーターの値を足すということをやってみます。

from keras.layers import Dense, Input, Flatten
from keras.models import Model
from keras.datasets import mnist
import numpy as np
from keras.preprocessing.image import ImageDataGenerator
from keras.utils import to_categorical
from keras.callbacks import Callback

def create_network():
    input = Input((28,28,1))
    x = Flatten()(input)
    x = Dense(128, activation="relu")(x)
    x = Dense(10, activation="softmax")(x)

    return Model(input, x)

class MyGenerator(ImageDataGenerator):
    def __init__(self, *args, **kwargs):
        super().__init__(*args, **kwargs)
        self.tmp_value = 0

    def flow(self, *args, **kwargs):
        for X_batch, y_batch in super().flow(*args, **kwargs):
            print(self.tmp_value)
            yield X_batch, y_batch


class MyCallback(Callback):
    def __init__(self, generator):
        self.gen = generator

    def on_epoch_end(self, epoch, logs):
        self.gen.tmp_value += 1.0

def train():
    (X_train, y_train), (X_test, y_test) = mnist.load_data()
    X_train = X_train.reshape(-1, 28, 28, 1)
    X_test = X_test.reshape(-1, 28, 28, 1)
    y_train, y_test = to_categorical(y_train), to_categorical(y_test)

    model = create_network()
    model.compile("adam", "categorical_crossentropy", ["acc"])

    gen = MyGenerator(rescale=1.0/255)
    cb = MyCallback(gen)

    train_gen = gen.flow(X_train, y_train)

    model.fit_generator(train_gen, steps_per_epoch=10, epochs=5, callbacks=[cb])

if __name__ == "__main__":
    train()

このようにジェネレーターにある「tmp_value」というのがキーになる値です。これをコールバックとジェネレーターの両方から呼び出します。コールバックでは値の代入を行い、ジェネレーター側では、本来このtmp_valueは前処理で使うためのものですが、今回はただの「print()」として再現しました。

steps_per_epochはprintのログがあふれないためのもので重要ではありません。

結果

Epoch 4/5
3.0
 1/10 [==>...........................] - ETA: 0s - loss: 0.7160 - acc: 0.87503.

3.0
3.0
3.0
3.0
3.0
3.0
3.0
3.0
10/10 [==============================] - 0s 3ms/step - loss: 0.8036 - acc: 0.79
9
Epoch 5/5
4.0
 1/10 [==>...........................] - ETA: 0s - loss: 0.5238 - acc: 0.90624.

4.0
4.0
4.0
4.0
4.0
4.0
4.0
4.0
10/10 [==============================] - 0s 3ms/step - loss: 0.6635 - acc: 0.85
2

うまくいった!! つまり、コールバックを使ってon_epoch_endで呼び出せば、最初にジェネレーターの関数を定義しておいても、fit_generatorのほうで動的な受け渡しができるということです

これで想定されたシチュエーションでも活かすことができます。



Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内

技術書コーナー

北海道の駅巡りコーナー


Add a Comment

メールアドレスが公開されることはありません。 が付いている欄は必須項目です