TensorFlow2.0のTPUでモデルを保存したり、CPUと相互運用する方法
3.3k{icon} {views} TensorFlow2.0+Colab TPUでモデルを保存する方法、CPUとTPUで保存した係数を相互運用する方法、TPUを意識したモデルの保存方法を見ていきます。 環境 CPU: […]...
TensorFlow2.0でDistributed Trainingをいい感じにやるためのデコレーターを作った
2.4k{icon} {views} TensorFlow2.0+TPUで訓練していて、いちいちマルチデバイスための訓練・Validationのコード書くの面倒くさいなと思ったので、それをいい感じにラップしてくれるデコレ […]...
TensorFlow2.0でDistribute Trainingしたときにfitと訓練ループで精度が違ってハマった話
3.5k{icon} {views} TensorFlowでDistribute Training(複数GPUやTPUでの訓練)をしたときに、Keras APIのfit()でのValidation精度と、訓練ループを書い […]...
TensorFlow2.0+TPUで複数のモデルを交互に訓練するテスト
1.4k{icon} {views} GANの利用を想定します。以前TPUだと複数のモデルを同時or交互に訓練するというのは厳しかったのですが、これがTF2.0で変わったのか確かめます。 環境:TensorFlow2.0 […]...
TensorFlow2.0+TPUでData AugmentationしながらCIFAR-10
3.1k{icon} {views} TensorFlow2.0+TPUでData AugmentationしながらCIFAR-10を分類するサンプルです。Data Augmentationはtf.dataでやるのがポイ […]...
WarmupとData Augmentationのバッチサイズ別の精度低下について
4.5k{icon} {views} 大きいバッチサイズで訓練する際は、バッチサイズの増加にともなう精度低下が深刻になります。この精度低下を抑制することはできるのですが、例えばData Augmentationのようなデ […]...
データのお気持ちを考えながらData Augmentationする
27.4k{icon} {views} Data Augmentationの「なぜ?」に注目しながら、エラー分析をしてCIFAR-10の精度向上を目指します。その結果、オレオレAugmentationながら、Wide R […]...
ML Study Jamsを全部終わらせてきたのでその感想を書いてみる
6.3k{icon} {views} ML Study JamsというGoogle Cloudが提供している無料の学習プログラムが期間限定でオープンしています。それを全部終わらせてきたのでその報告と感想を書いていきたいと […]...
TPUでも大きなバッチサイズに対して精度を出す
4.2k{icon} {views} TPUでは大きなバッチサイズを適用することが訓練の高速化につながりますが、これは精度と引き換えになることがあります。大きなバッチサイズでも精度を出す方法を論文をもとに調べてみました。 […]...
TPUで学習率減衰させる方法
4.4k{icon} {views} TPUで学習率減衰したいが、TensorFlowのオプティマイザーを使うべきか、tf.kerasのオプティマイザーを使うべきか、あるいはKerasのオプティマイザーを使うべきか非常に […]...