こしあん
2018-12-03

KerasのCallbackを使って継承したImageDataGeneratorに値が渡せるか確かめる


Kerasで前処理の内容をエポックごとに変えたいというケースがたまにあります。これを実装するとなると、CallbackからGeneratorに値を渡すというコードになりますが、これが本当にできるかどうか確かめてみました。

想定する状況

例えば、前処理で正則化に関係するData Augmentationがあったとします。例えばMixUPやRICAPがあります。これらの係数をエポックごとに増やしていく、つまり訓練が進むごとにData Augmentationにおける正則化をだんだん強くしていくみたいなシチュエーションを想定します。

検証用コード

さっくりMNISTで作ってみました。ImageDataGeneratorを継承して独自の値が持てるジェネレーターを作ります(継承しなくてもいいかもしれません)。コールバックのコンストラクタでそのジェネレーターを渡し、on_epoch_endでジェネレーターの値を足すということをやってみます。

from keras.layers import Dense, Input, Flatten
from keras.models import Model
from keras.datasets import mnist
import numpy as np
from keras.preprocessing.image import ImageDataGenerator
from keras.utils import to_categorical
from keras.callbacks import Callback

def create_network():
    input = Input((28,28,1))
    x = Flatten()(input)
    x = Dense(128, activation="relu")(x)
    x = Dense(10, activation="softmax")(x)

    return Model(input, x)

class MyGenerator(ImageDataGenerator):
    def __init__(self, *args, **kwargs):
        super().__init__(*args, **kwargs)
        self.tmp_value = 0

    def flow(self, *args, **kwargs):
        for X_batch, y_batch in super().flow(*args, **kwargs):
            print(self.tmp_value)
            yield X_batch, y_batch


class MyCallback(Callback):
    def __init__(self, generator):
        self.gen = generator

    def on_epoch_end(self, epoch, logs):
        self.gen.tmp_value += 1.0

def train():
    (X_train, y_train), (X_test, y_test) = mnist.load_data()
    X_train = X_train.reshape(-1, 28, 28, 1)
    X_test = X_test.reshape(-1, 28, 28, 1)
    y_train, y_test = to_categorical(y_train), to_categorical(y_test)

    model = create_network()
    model.compile("adam", "categorical_crossentropy", ["acc"])

    gen = MyGenerator(rescale=1.0/255)
    cb = MyCallback(gen)

    train_gen = gen.flow(X_train, y_train)

    model.fit_generator(train_gen, steps_per_epoch=10, epochs=5, callbacks=[cb])

if __name__ == "__main__":
    train()

このようにジェネレーターにある「tmp_value」というのがキーになる値です。これをコールバックとジェネレーターの両方から呼び出します。コールバックでは値の代入を行い、ジェネレーター側では、本来このtmp_valueは前処理で使うためのものですが、今回はただの「print()」として再現しました。

steps_per_epochはprintのログがあふれないためのもので重要ではありません。

結果

Epoch 4/5
3.0
 1/10 [==>...........................] - ETA: 0s - loss: 0.7160 - acc: 0.87503.

3.0
3.0
3.0
3.0
3.0
3.0
3.0
3.0
10/10 [==============================] - 0s 3ms/step - loss: 0.8036 - acc: 0.79
9
Epoch 5/5
4.0
 1/10 [==>...........................] - ETA: 0s - loss: 0.5238 - acc: 0.90624.

4.0
4.0
4.0
4.0
4.0
4.0
4.0
4.0
10/10 [==============================] - 0s 3ms/step - loss: 0.6635 - acc: 0.85
2

うまくいった!! つまり、コールバックを使ってon_epoch_endで呼び出せば、最初にジェネレーターの関数を定義しておいても、fit_generatorのほうで動的な受け渡しができるということです

これで想定されたシチュエーションでも活かすことができます。

Related Posts

Numpyの配列をN個飛ばしで列挙する簡単な方法... Numpyの配列から奇数番目、偶数番目の要素を取り出したいときが稀によくあります。インデックスの配列を定義する必要があるのかなと思いますが、とても簡単な方法があります。それを見ていきましょう。 基本は「::スキップしたい間隔」 例として、0~9までの配列をとります。 >>>...
Chainerで画像の前処理やDataAugmentationをしたいときはDatasetMixin... Chainerにはデフォルトでランダムクロップや標準化といった、画像の前処理やDataAugmentation用の関数が用意されていません。別途のChainer CVというライブラリを使う方法もありますが、chainer.dataset.DatasetMixinを継承させて独自のデータ・セットを定...
Kerasでランドマーク検出用の損失関数を作る上でのポイント... ランドマーク検出やオブジェクト検出では、yに最初に物体やランドマークが存在する確率をおいて、それ以降に座標を配置するというようなデータ構造を取ります。その場合、カスタム損失関数を定義する必要が出てきますが、どのように定義するれば良いでしょうか。それを見ていきます。 Kerasの損失関数 分類問...
TensorFlow/Kerasでの分散共分散行列・相関行列、テンソル主成分分析の実装... TensorFlowでは分散共分散行列や主成分分析用の関数が用意されていません。訓練を一切せずにTensorFlowとKeras関数だけを使って、分散共分散行列、相関行列、主成分分析を実装します。最終的にはカテゴリー別のテンソル主成分分析を作れるようにします。 何らかの論文でこれらのテクニックを...
Kerasで損失関数に複数の変数を渡す方法... Kerasで少し複雑なモデルを訓練させるときに、損失関数にy_true, y_pred以外の値を渡したいときがあります。クラスのインスタンス変数などでキャッシュさせることなく、ダイレクトに損失関数に複数の値を渡す方法を紹介します。 元ネタ:Passing additional arguments...

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です