タグ: Google Colaboratory

TPUでも大きなバッチサイズに対して精度を出す

4k{icon} {views} TPUでは大きなバッチサイズを適用することが訓練の高速化につながりますが、これは精度と引き換えになることがあります。大きなバッチサイズでも精度を出す方法を論文をもとに調べてみました。 背 […]...

TPUで学習率減衰させる方法

4.3k{icon} {views} TPUで学習率減衰したいが、TensorFlowのオプティマイザーを使うべきか、tf.kerasのオプティマイザーを使うべきか、あるいはKerasのオプティマイザーを使うべきか非常に […]...

ColabのTPUでNASNet Largeを訓練しようとして失敗した話

6k{icon} {views} ColabのTPUはとてもメモリ容量が大きく、計算が速いのでモデルのパラメーターを多くしてもそこまでメモリオーバーor遅くなりません。ただし、あまりにモデルが深すぎると訓練の初期設定で失 […]...