KerasのCallbackを使って継承したImageDataGeneratorに値が渡せるか確かめる
Kerasで前処理の内容をエポックごとに変えたいというケースがたまにあります。これを実装するとなると、CallbackからGeneratorに値を渡すというコードになりますが、これが本当にできるかどうか確かめてみました。
目次
想定する状況
例えば、前処理で正則化に関係するData Augmentationがあったとします。例えばMixUPやRICAPがあります。これらの係数をエポックごとに増やしていく、つまり訓練が進むごとにData Augmentationにおける正則化をだんだん強くしていくみたいなシチュエーションを想定します。
検証用コード
さっくりMNISTで作ってみました。ImageDataGeneratorを継承して独自の値が持てるジェネレーターを作ります(継承しなくてもいいかもしれません)。コールバックのコンストラクタでそのジェネレーターを渡し、on_epoch_endでジェネレーターの値を足すということをやってみます。
from keras.layers import Dense, Input, Flatten
from keras.models import Model
from keras.datasets import mnist
import numpy as np
from keras.preprocessing.image import ImageDataGenerator
from keras.utils import to_categorical
from keras.callbacks import Callback
def create_network():
input = Input((28,28,1))
x = Flatten()(input)
x = Dense(128, activation="relu")(x)
x = Dense(10, activation="softmax")(x)
return Model(input, x)
class MyGenerator(ImageDataGenerator):
def __init__(self, *args, **kwargs):
super().__init__(*args, **kwargs)
self.tmp_value = 0
def flow(self, *args, **kwargs):
for X_batch, y_batch in super().flow(*args, **kwargs):
print(self.tmp_value)
yield X_batch, y_batch
class MyCallback(Callback):
def __init__(self, generator):
self.gen = generator
def on_epoch_end(self, epoch, logs):
self.gen.tmp_value += 1.0
def train():
(X_train, y_train), (X_test, y_test) = mnist.load_data()
X_train = X_train.reshape(-1, 28, 28, 1)
X_test = X_test.reshape(-1, 28, 28, 1)
y_train, y_test = to_categorical(y_train), to_categorical(y_test)
model = create_network()
model.compile("adam", "categorical_crossentropy", ["acc"])
gen = MyGenerator(rescale=1.0/255)
cb = MyCallback(gen)
train_gen = gen.flow(X_train, y_train)
model.fit_generator(train_gen, steps_per_epoch=10, epochs=5, callbacks=[cb])
if __name__ == "__main__":
train()
このようにジェネレーターにある「tmp_value」というのがキーになる値です。これをコールバックとジェネレーターの両方から呼び出します。コールバックでは値の代入を行い、ジェネレーター側では、本来このtmp_valueは前処理で使うためのものですが、今回はただの「print()」として再現しました。
steps_per_epochはprintのログがあふれないためのもので重要ではありません。
結果
Epoch 4/5
3.0
1/10 [==>...........................] - ETA: 0s - loss: 0.7160 - acc: 0.87503.
3.0
3.0
3.0
3.0
3.0
3.0
3.0
3.0
10/10 [==============================] - 0s 3ms/step - loss: 0.8036 - acc: 0.79
9
Epoch 5/5
4.0
1/10 [==>...........................] - ETA: 0s - loss: 0.5238 - acc: 0.90624.
4.0
4.0
4.0
4.0
4.0
4.0
4.0
4.0
10/10 [==============================] - 0s 3ms/step - loss: 0.6635 - acc: 0.85
2
うまくいった!! つまり、コールバックを使ってon_epoch_endで呼び出せば、最初にジェネレーターの関数を定義しておいても、fit_generatorのほうで動的な受け渡しができるということです。
これで想定されたシチュエーションでも活かすことができます。
Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内
技術書コーナー
北海道の駅巡りコーナー