こしあん
2018-10-02

Google ColabのTPU環境でmodel.fitのhistoryが消える現象

Pocket
LINEで送る


Google ColabのTPU環境でmodel.fitしたときに、通常の環境で得られるhistory(誤差や精度のログ)が消えていることがあります。その対応法を示します。

原因はTPU用のモデルに変換したから

まず結論からいうとこの現象はCPU/GPU環境では再発しません。TPU環境特有の現象です。はじめはtensorflow.kerasの仕様変更を疑ったのですが、GPU環境で試した所再発しませんでした。

以下、CPU・GPU環境の場合です。

from tensorflow.contrib.tpu.python.tpu import keras_support
from tensorflow.keras.layers import Input, Dense, Flatten
from tensorflow.keras.datasets import mnist
from tensorflow.keras.optimizers import Adam
from tensorflow.keras.models import Model
from tensorflow.keras.utils import to_categorical
import tensorflow as tf
import time, os

(X_train, y_train), (_, _) = mnist.load_data()
X_train = X_train / 255.0
y_train = to_categorical(y_train)

input = Input((28,28))
x = Flatten()(input)
x = Dense(64, activation="relu")(x)
x = Dense(10, activation="softmax")(x)
model = Model(input, x)
model.compile(Adam(), loss="categorical_crossentropy", metrics=["acc"])

history = model.fit(X_train, y_train, epochs=1, batch_size=1024)
print(history)
print(history.history)

出力は以下の通りです。ちゃんといつもどおりにhistoryが記録されていますね。

<tensorflow.python.keras.callbacks.History object at 0x7fa9ff0bfac8>
{'loss': [0.9659268550713856], 'acc': [0.7527333334287007]}

ところがTPU環境でやると、一度TPU用のモデルに変換するため結果が変わります。model.compile以降のコードは、

tpu_grpc_url = "grpc://"+os.environ["COLAB_TPU_ADDR"]
tpu_cluster_resolver = tf.contrib.cluster_resolver.TPUClusterResolver(tpu_grpc_url)
strategy = keras_support.TPUDistributionStrategy(tpu_cluster_resolver)
model = tf.contrib.tpu.keras_to_tpu_model(model, strategy=strategy)

history = model.fit(X_train, y_train, epochs=1, batch_size=1024)
print(history)
print(history.history)

このようにTPUのモデルに変換します(モデル定義までは同じです)。出力は以下のように変わります。

60000/60000 [==============================] - 8s 127us/step - loss: 0.9767 - acc: 0.7439
None

---------------------------------------------------------------------------
AttributeError                            Traceback (most recent call last)
<ipython-input-7-f379e7ec59a5> in <module>()
     28 history = model.fit(X_train, y_train, epochs=1, batch_size=1024)
     29 print(history)
---> 30 print(history.history)

AttributeError: 'NoneType' object has no attribute 'history'

なんとhistoryが記録されていません。そのためhistory.historyととってもエラーになってしまいます。これに気づくのは訓練が終わった後なので、かなりがっかりすると思います(自分は「は?(半ギレ)」ってなりました)。

よく考えればまあわからなくもなくて、keras_to_tpu_modelでTPUのモデルに変換したから、historyが記録されていないのは仕方がないのかもしれない。または単にバグなのかもしれない。ただし、これは現状解決策があります

keras.callbacks.Historyを使おう

TensorFlow(Keras)にはHistory用のコールバックが用意されています。

https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/History

割とそっけない説明なのですが、historyを記録してくれるコールバックのようです。これを使ってみましょう。TPU環境でmodel.fit付近を

from tensorflow.keras.callbacks import History

history = History()
model.fit(X_train, y_train, epochs=1, batch_size=1024, callbacks=[history])
print(history)
print(history.history)

このように変更してみます(Historyクラスの継承や定義は必要ないです)。すると

60000/60000 [==============================] - 8s 140us/step - loss: 0.9938 - acc: 0.7349
<tensorflow.python.keras.callbacks.History object at 0x7f5a4d853780>
{'loss': [0.9938048400561015], 'acc': [0.7349333335558573]}

お、ちゃんとhistoryが取れていますね! 当面はこれで良さそうです。

ちなみにこのHistoryのコールバックはCPU・GPU環境でも有効です。つまりこのコールバックを入れておけばCPU、GPU、TPU全ての環境に対応できるというわけです。

まとめ

TPU環境ではモデルのクラスが変わるため、historyを取りたいときはHistoryのコールバックを使おう。訓練が終わったあとにエラー出て後悔したくないなら忘れないように。以上です。

Related Posts

Affinity LossをCIFAR-10で精度を求めてひたすら頑張った話... 不均衡データに対して有効性があると言われている損失関数「Affinity loss」をCIFAR-10で精度を出すためにひたすら頑張った、というひたすら泥臭い話。条件10個試したらやっと精度を出すためのコツみたいなのが見えてきました。 結論 長いので先に結論から。CIFAR-10をAffini...
TensorFlow/Kerasでの分散共分散行列・相関行列、テンソル主成分分析の実装... TensorFlowでは分散共分散行列や主成分分析用の関数が用意されていません。訓練を一切せずにTensorFlowとKeras関数だけを使って、分散共分散行列、相関行列、主成分分析を実装します。最終的にはカテゴリー別のテンソル主成分分析を作れるようにします。 何らかの論文でこれらのテクニックを...
Kerasで重みを共有しつつ、必要に応じて入力の位置を変える方法... Kerasで訓練させて、途中から新しく入力を作ってそこからの出力までの値を取りたいということがたまにあります。例えば、Variational Auto Encoderのサンプリングなんかそうです。このあまり書かれていないのでざっとですが整理しておきます。 こういうことをやりたい 言葉で書いても...
PyTorchで行列(テンソル)積としてConv2dを使う... PyTorchではmatmulの挙動が特殊なので、思った通りにテンソル積が取れないことがあります。この記事では、基本的な畳み込み演算である「Conv2D」を使い、Numpyのドット積相当の演算を行うという方法を解説します。 はじめに PyTorchの変態コーディング技術です。多分。 画像のテ...
PyTorchでGANの訓練をするときにrequires_grad(trainable)の変更はいる... PyTorchでGANのある実装を見ていたときに、requires_gradの変更している実装を見たことがあります。Kerasだとtrainableの明示的な変更はいるんで、もしかしてPyTorchでもいるんじゃないかな?と疑問になったので、確かめてみました。 requires_gradの変更とは...
Pocket
Delicious にシェア

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です