こしあん
2018-10-02

Google ColabのTPU環境でmodel.fitのhistoryが消える現象

Pocket
LINEで送る
Delicious にシェア

1.2k{icon} {views}



Google ColabのTPU環境でmodel.fitしたときに、通常の環境で得られるhistory(誤差や精度のログ)が消えていることがあります。その対応法を示します。

原因はTPU用のモデルに変換したから

まず結論からいうとこの現象はCPU/GPU環境では再発しません。TPU環境特有の現象です。はじめはtensorflow.kerasの仕様変更を疑ったのですが、GPU環境で試した所再発しませんでした。

以下、CPU・GPU環境の場合です。

from tensorflow.contrib.tpu.python.tpu import keras_support
from tensorflow.keras.layers import Input, Dense, Flatten
from tensorflow.keras.datasets import mnist
from tensorflow.keras.optimizers import Adam
from tensorflow.keras.models import Model
from tensorflow.keras.utils import to_categorical
import tensorflow as tf
import time, os

(X_train, y_train), (_, _) = mnist.load_data()
X_train = X_train / 255.0
y_train = to_categorical(y_train)

input = Input((28,28))
x = Flatten()(input)
x = Dense(64, activation="relu")(x)
x = Dense(10, activation="softmax")(x)
model = Model(input, x)
model.compile(Adam(), loss="categorical_crossentropy", metrics=["acc"])

history = model.fit(X_train, y_train, epochs=1, batch_size=1024)
print(history)
print(history.history)

出力は以下の通りです。ちゃんといつもどおりにhistoryが記録されていますね。

<tensorflow.python.keras.callbacks.History object at 0x7fa9ff0bfac8>
{'loss': [0.9659268550713856], 'acc': [0.7527333334287007]}

ところがTPU環境でやると、一度TPU用のモデルに変換するため結果が変わります。model.compile以降のコードは、

tpu_grpc_url = "grpc://"+os.environ["COLAB_TPU_ADDR"]
tpu_cluster_resolver = tf.contrib.cluster_resolver.TPUClusterResolver(tpu_grpc_url)
strategy = keras_support.TPUDistributionStrategy(tpu_cluster_resolver)
model = tf.contrib.tpu.keras_to_tpu_model(model, strategy=strategy)

history = model.fit(X_train, y_train, epochs=1, batch_size=1024)
print(history)
print(history.history)

このようにTPUのモデルに変換します(モデル定義までは同じです)。出力は以下のように変わります。

60000/60000 [==============================] - 8s 127us/step - loss: 0.9767 - acc: 0.7439
None

---------------------------------------------------------------------------
AttributeError                            Traceback (most recent call last)
<ipython-input-7-f379e7ec59a5> in <module>()
     28 history = model.fit(X_train, y_train, epochs=1, batch_size=1024)
     29 print(history)
---> 30 print(history.history)

AttributeError: 'NoneType' object has no attribute 'history'

なんとhistoryが記録されていません。そのためhistory.historyととってもエラーになってしまいます。これに気づくのは訓練が終わった後なので、かなりがっかりすると思います(自分は「は?(半ギレ)」ってなりました)。

よく考えればまあわからなくもなくて、keras_to_tpu_modelでTPUのモデルに変換したから、historyが記録されていないのは仕方がないのかもしれない。または単にバグなのかもしれない。ただし、これは現状解決策があります

keras.callbacks.Historyを使おう

TensorFlow(Keras)にはHistory用のコールバックが用意されています。

https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/History

割とそっけない説明なのですが、historyを記録してくれるコールバックのようです。これを使ってみましょう。TPU環境でmodel.fit付近を

from tensorflow.keras.callbacks import History

history = History()
model.fit(X_train, y_train, epochs=1, batch_size=1024, callbacks=[history])
print(history)
print(history.history)

このように変更してみます(Historyクラスの継承や定義は必要ないです)。すると

60000/60000 [==============================] - 8s 140us/step - loss: 0.9938 - acc: 0.7349
<tensorflow.python.keras.callbacks.History object at 0x7f5a4d853780>
{'loss': [0.9938048400561015], 'acc': [0.7349333335558573]}

お、ちゃんとhistoryが取れていますね! 当面はこれで良さそうです。

ちなみにこのHistoryのコールバックはCPU・GPU環境でも有効です。つまりこのコールバックを入れておけばCPU、GPU、TPU全ての環境に対応できるというわけです。

まとめ

TPU環境ではモデルのクラスが変わるため、historyを取りたいときはHistoryのコールバックを使おう。訓練が終わったあとにエラー出て後悔したくないなら忘れないように。以上です。



Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内

技術書コーナー

【新刊】インフィニティNumPy――配列の初期化から、ゲームの戦闘、静止画や動画作成までの221問

「本当の実装力を身につける」ための221本ノック――
機械学習(ML)で避けて通れない数値計算ライブラリ・NumPyを、自在に活用できるようになろう。「できる」ための体系的な理解を目指します。基礎から丁寧に解説し、ディープラーニング(DL)の難しいモデルで遭遇する、NumPyの黒魔術もカバー。初心者から経験者・上級者まで楽しめる一冊です。問題を解き終わったとき、MLやDLなどの発展分野にスムーズに入っていけるでしょう。

本書の大きな特徴として、Pythonの本でありがちな「NumPyとML・DLの結合を外した」点があります。NumPyを理解するのに、MLまで理解するのは負担が大きいです。本書ではあえてこれらの内容を書いていません。行列やテンソルの理解に役立つ「従来の画像処理」をNumPyベースで深く解説・実装していきます。

しかし、問題の多くは、DLの実装で頻出の関数・処理を重点的に取り上げています。経験者なら思わず「あー」となるでしょう。関数丸暗記では自分で実装できません。「覚える関数は最小限、できる内容は無限大」の世界をぜひ体験してみてください。画像編集ソフトの処理をNumPyベースで実装する楽しさがわかるでしょう。※紙の本は電子版の特典つき

モザイク除去から学ぶ 最先端のディープラーニング

「誰もが夢見るモザイク除去」を起点として、機械学習・ディープラーニングの基本をはじめ、GAN(敵対的生成ネットワーク)の基本や発展型、ICCV, CVPR, ECCVといった国際学会の最新論文をカバーしていく本です。
ディープラーニングの研究は発展が目覚ましく、特にGANの発展型は市販の本でほとんどカバーされていない内容です。英語の原著論文を著者がコードに落とし込み、実装を踏まえながら丁寧に解説していきます。
また、本コードは全てTensorFlow2.0(Keras)に対応し、Googleの開発した新しい機械学習向け計算デバイス・TPU(Tensor Processing Unit)をフル活用しています。Google Colaboratoryを用いた環境構築不要の演習問題もあるため、読者自ら手を動かしながら理解を深めていくことができます。

AI、機械学習、ディープラーニングの最新事情、奥深いGANの世界を知りたい方にとってぜひ手にとっていただきたい一冊となっています。持ち運びに便利な電子書籍のDLコードが付属しています。

「おもしろ同人誌バザールオンライン」で紹介されました!(14:03~) https://youtu.be/gaXkTj7T79Y?t=843

まとめURL:https://github.com/koshian2/MosaicDeeplearningBook
A4 全195ページ、カラー12ページ / 2020年3月発行

Shikoan's ML Blog -Vol.1/2-

累計100万PV超の人気ブログが待望の電子化! このブログが電子書籍になって読みやすくなりました!

・1章完結のオムニバス形式
・機械学習の基本からマニアックなネタまで
・どこから読んでもOK
・何巻から読んでもOK

・短いものは2ページ、長いものは20ページ超のものも…
・通勤・通学の短い時間でもすぐ読める!
・読むのに便利な「しおり」機能つき

・全巻はA5サイズでたっぷりの「200ページオーバー」
・1冊にたっぷり30本収録。1本あたり18.3円の圧倒的コストパフォーマンス!
・文庫本感覚でお楽しみください

北海道の駅巡りコーナー

日高本線 車なし全駅巡り

ローカル線や秘境駅、マニアックな駅に興味のある方におすすめ! 2021年に大半区間が廃線になる、北海道の日高本線の全区間・全29駅(苫小牧~様似)を記録した本です。マイカーを使わずに、公共交通機関(バス)と徒歩のみで全駅訪問を行いました。日高本線が延伸する計画のあった、襟裳岬まで様似から足を伸ばしています。代行バスと路線バスの織り成す極限の時刻表ゲームと、絶海の太平洋と馬に囲まれた日高路、日高の隠れたグルメを是非たっぷり堪能してください。A4・フルカラー・192ページのたっぷりのボリュームで、あなたも旅行気分を漫喫できること待ったなし!

見どころ:日高本線被災区間(大狩部、慶能舞川橋梁、清畠~豊郷) / 牧場に囲まれた絵笛駅 / 窓口のあっただるま駅・荻伏駅 / 汐見の戦争遺跡のトーチカ / 新冠温泉、三石温泉 / 襟裳岬

A4 全192ページフルカラー / 2020年11月発行


Pocket
LINEで送る
Delicious にシェア

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です