こしあん
2019-10-17

TensorFlow2.0+TPUでData AugmentationしながらCIFAR-10

Pocket
LINEで送る
Delicious にシェア

1.7k{icon} {views}



TensorFlow2.0+TPUでData AugmentationしながらCIFAR-10を分類するサンプルです。Data Augmentationはtf.dataでやるのがポイントです。

TensorFlowを2.Xに上げる

まずは、ランタイム切り替えで「TPU」を選択しましょう。無料で利用できます。

現在(2019/10/16時点)のColabではTF1.X系が入っているので、2.X系にアップデートします。これはTF2.0.0にアップデートするケースです。2.X系のバージョンはだんだん上がっていくので順次値を変えましょう。

!pip install tensorflow==2.0.0

TPU使用のための下準備

GPUやCPUは何も準備要らないのに対し、TPUは使用開始のために下準備(おまじない)が必要になります。

import tensorflow as tf
import os
# tpu用
# 詳細 https://www.tensorflow.org/guide/distributed_training#tpustrategy
tpu_grpc_url = "grpc://" + os.environ["COLAB_TPU_ADDR"]
tpu_cluster_resolver = tf.distribute.cluster_resolver.TPUClusterResolver(tpu_grpc_url)
tf.config.experimental_connect_to_cluster(tpu_cluster_resolver) # TF2.0の場合、ここを追加
tf.tpu.experimental.initialize_tpu_system(tpu_cluster_resolver) # TF2.0の場合、今後experimentialが取れる可能性がある    
strategy = tf.distribute.experimental.TPUStrategy(tpu_cluster_resolver)  # ここも同様

後々使うのは「strategy」という変数なので、これを最初に実行しておきましょう。

訓練コード

CIFAR-10を10層モデルで訓練するプログラムです。訓練データにData Augmentationを入れ、Horizontal flip+Random Cropを入れています。


import tensorflow.keras.layers as layers import numpy as np import pickle def data_augmentation(image): x = tf.cast(image, tf.float32) / 255.0 # uint8 -> float32 x = tf.image.random_flip_left_right(x) # horizontal flip x = tf.pad(x, tf.constant([[2, 2], [2, 2], [0, 0]]), "REFLECT") # pad 2 (outsize:36x36) # 黒い領域を作らないようにReflect padとしている(KerasのImageDataGeneratorと同じ) x = tf.image.random_crop(x, size=[32, 32, 3]) # random crop (outsize:32xx32) return x def conv_bn_relu(inputs, ch, reps): x = inputs for i in range(reps): x = layers.Conv2D(ch, 3, padding="same")(x) x = layers.BatchNormalization()(x) x = layers.Activation("relu")(x) return x def create_model(): inputs = layers.Input((32, 32, 3)) x = conv_bn_relu(inputs, 64, 3) x = layers.AveragePooling2D(2)(x) x = conv_bn_relu(x, 128, 3) x = layers.AveragePooling2D(2)(x) x = conv_bn_relu(x, 256, 3) x = layers.GlobalAveragePooling2D()(x) x = layers.Dense(10, activation="softmax")(x) return tf.keras.models.Model(inputs, x) def load_dataset(): (X_train, y_train), (X_test, y_test) = tf.keras.datasets.cifar10.load_data() trainset = tf.data.Dataset.from_tensor_slices((X_train, y_train)) trainset = trainset.map( lambda image, label: (data_augmentation(image), tf.cast(label, tf.float32)) ).shuffle(buffer_size=1024).repeat().batch(128) testset = tf.data.Dataset.from_tensor_slices((X_test, y_test)) testset = testset.map( lambda image, label: (tf.cast(image, tf.float32) / 255.0, tf.cast(label, tf.float32)) ).batch(128) return trainset, testset def lr_scheduler(epoch): if epoch <= 60: return 0.1 elif epoch <= 85: return 0.01 else: return 0.001 def main(): trainset, testset = load_dataset() with strategy.scope(): model = create_model() loss = tf.keras.losses.SparseCategoricalCrossentropy() acc = tf.keras.metrics.SparseCategoricalAccuracy() optim = tf.keras.optimizers.SGD(0.1, momentum=0.9) # callback scheduler = tf.keras.callbacks.LearningRateScheduler(lr_scheduler) hist = tf.keras.callbacks.History() # train model.compile(optimizer=optim, loss=loss, metrics=[acc]) model.fit(trainset, validation_data=testset, epochs=100, steps_per_epoch=50000 // 128, callbacks=[scheduler, hist]) history = hist.history with open("history.dat", "wb") as fp: pickle.dump(history, fp)

オプティマイザはモメンタムで、学習率は0.1、バッチサイズは128、60エポックと85エポックで学習率を1/10にしています。

1点注意なのが、tf.dataをfitに入れる場合はデータが一周するとデータセットが終わって訓練が止まってしまうためrepeat()を入れましょう。tf.dataのデータセットをfitに食わせるというのは昔のKerasではありませんでしたが、TF2.X系以降は1つの選択肢になりました。便利なのでtf.dataに慣れましょう。

また、repeat()については、fit内のvalidationについてはどうも入れなくてもいいようです。train側のデータセットのみrepeatを入れた所正常に動きました。また、データセットをrepeat()で無限ループさせる場合は、「steps_per_epoch」で1エポックあたりのステップ数を指定しましょう。

ラベルの値はもとのuint8だとTPUの訓練に失敗する(この記事を書いた時点)ので、Floatにキャストするのが無難です。

学習曲線の確認

訓練がうまくいっているか学習曲線を描いてみます。特に学習率の減衰あたりが正常に動作しているのか気になりますね。

うまくいっています。学習率を下げたタイミングでVal accが大きく上がっているのでうまくいっています。いつの間にかHistoryに学習率を記録するようになったらしいです(いいこと)。

CIFARをTPUで動かせるということは、NNの教師あり学習が一通りできそうなので、TF2.0+TPUで遊ぶと楽しそうです。自分もGPUが埋まっているときにTPUで遊んでみたいと思います。

Colabノートブック

https://colab.research.google.com/drive/1IcRt4By4wTyh7IimGbKXBzVYZ40DR3YK

訓練所要時間:15分ぐらいです



Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内

技術書コーナー

【新刊】インフィニティNumPy――配列の初期化から、ゲームの戦闘、静止画や動画作成までの221問

「本当の実装力を身につける」ための221本ノック――
機械学習(ML)で避けて通れない数値計算ライブラリ・NumPyを、自在に活用できるようになろう。「できる」ための体系的な理解を目指します。基礎から丁寧に解説し、ディープラーニング(DL)の難しいモデルで遭遇する、NumPyの黒魔術もカバー。初心者から経験者・上級者まで楽しめる一冊です。問題を解き終わったとき、MLやDLなどの発展分野にスムーズに入っていけるでしょう。

本書の大きな特徴として、Pythonの本でありがちな「NumPyとML・DLの結合を外した」点があります。NumPyを理解するのに、MLまで理解するのは負担が大きいです。本書ではあえてこれらの内容を書いていません。行列やテンソルの理解に役立つ「従来の画像処理」をNumPyベースで深く解説・実装していきます。

しかし、問題の多くは、DLの実装で頻出の関数・処理を重点的に取り上げています。経験者なら思わず「あー」となるでしょう。関数丸暗記では自分で実装できません。「覚える関数は最小限、できる内容は無限大」の世界をぜひ体験してみてください。画像編集ソフトの処理をNumPyベースで実装する楽しさがわかるでしょう。※紙の本は電子版の特典つき

モザイク除去から学ぶ 最先端のディープラーニング

「誰もが夢見るモザイク除去」を起点として、機械学習・ディープラーニングの基本をはじめ、GAN(敵対的生成ネットワーク)の基本や発展型、ICCV, CVPR, ECCVといった国際学会の最新論文をカバーしていく本です。
ディープラーニングの研究は発展が目覚ましく、特にGANの発展型は市販の本でほとんどカバーされていない内容です。英語の原著論文を著者がコードに落とし込み、実装を踏まえながら丁寧に解説していきます。
また、本コードは全てTensorFlow2.0(Keras)に対応し、Googleの開発した新しい機械学習向け計算デバイス・TPU(Tensor Processing Unit)をフル活用しています。Google Colaboratoryを用いた環境構築不要の演習問題もあるため、読者自ら手を動かしながら理解を深めていくことができます。

AI、機械学習、ディープラーニングの最新事情、奥深いGANの世界を知りたい方にとってぜひ手にとっていただきたい一冊となっています。持ち運びに便利な電子書籍のDLコードが付属しています。

「おもしろ同人誌バザールオンライン」で紹介されました!(14:03~) https://youtu.be/gaXkTj7T79Y?t=843

まとめURL:https://github.com/koshian2/MosaicDeeplearningBook
A4 全195ページ、カラー12ページ / 2020年3月発行

Shikoan's ML Blog -Vol.1/2-

累計100万PV超の人気ブログが待望の電子化! このブログが電子書籍になって読みやすくなりました!

・1章完結のオムニバス形式
・機械学習の基本からマニアックなネタまで
・どこから読んでもOK
・何巻から読んでもOK

・短いものは2ページ、長いものは20ページ超のものも…
・通勤・通学の短い時間でもすぐ読める!
・読むのに便利な「しおり」機能つき

・全巻はA5サイズでたっぷりの「200ページオーバー」
・1冊にたっぷり30本収録。1本あたり18.3円の圧倒的コストパフォーマンス!
・文庫本感覚でお楽しみください

Vol.1 電子550円
Vol.2 電子550円

北海道の駅巡りコーナー

日高本線 車なし全駅巡り

ローカル線や秘境駅、マニアックな駅に興味のある方におすすめ! 2021年に大半区間が廃線になる、北海道の日高本線の全区間・全29駅(苫小牧~様似)を記録した本です。マイカーを使わずに、公共交通機関(バス)と徒歩のみで全駅訪問を行いました。日高本線が延伸する計画のあった、襟裳岬まで様似から足を伸ばしています。代行バスと路線バスの織り成す極限の時刻表ゲームと、絶海の太平洋と馬に囲まれた日高路、日高の隠れたグルメを是非たっぷり堪能してください。A4・フルカラー・192ページのたっぷりのボリュームで、あなたも旅行気分を漫喫できること待ったなし!

見どころ:日高本線被災区間(大狩部、慶能舞川橋梁、清畠~豊郷) / 牧場に囲まれた絵笛駅 / 窓口のあっただるま駅・荻伏駅 / 汐見の戦争遺跡のトーチカ / 新冠温泉、三石温泉 / 襟裳岬

A4 全192ページフルカラー / 2020年11月発行


Pocket
LINEで送る
Delicious にシェア

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です