ごちうさで始める線画の自動着色(2)~TFRecordの作成~
1.6k{icon} {views}KaggleにあったGochiUsa_Facesデータセットを使って、ごちうさキャラの線画の自動着色で遊んでみました。この投稿では訓練の前段階としてTFRecordを作成していきます。 […]...
tf.keras.models.Modelのsave_weightsのあれこれ:オプティマイザーの値を復元するには
9.8k{icon} {views} Kerasでモデルの保存するとき、save_weightsの関数をよく使います。しかし、オプティマイザーの値を復元して訓練再開しようとするとかなりややこしいことになります。モデルの値 […]...
TFRecordを自作して最低限のCIFAR-10を訓練するまで
4.8k{icon} {views} TFRecordを自作して、とりあえずCIFAR-10を訓練するための最低限の処理を書きました。なんでもBytesListに格納する方法です。 TFRecordについて TFReco […]...
Byte列を通じてNumPy配列からTensorFlowのテンソルへ変換する
6.3k{icon} {views} Byte列を通じてNumPy配列からTensorFlowのテンソルへ変換する方法です。TFRecordで記録したデータを扱う際に役に立つと思われるやり方です。 NumPy配列をByt […]...
tf.functionの再トレースによる訓練の低速化について確かめる
7.5k{icon} {views} TensorFlow2.0において、tf.functionを使うと計算が高速化することはよく知られていますが、その代償として入力のshapeが可変の場合に「再トレース」が発生し訓練が […]...
ImageNetのVal精度を再現するための前処理を考える
4.3k{icon} {views}ImageNetのValidation精度は論文でよく見ますが、その精度をどのようにして再現するのかがよくわからなかったので書きました。10-Cropをするのが最も簡単な方法です。 I […]...
スタイル変換のStyle Lossとは何をやっているか
4.2k{icon} {views} スタイル変換やImage to Imageの損失関数で使われる・Style Lossの実装を詳しく見ていきます。Style Lossの計算で用いているグラム行列の計算方法をTenso […]...
データのお気持ちを考えながらData Augmentationする
27.4k{icon} {views} Data Augmentationの「なぜ?」に注目しながら、エラー分析をしてCIFAR-10の精度向上を目指します。その結果、オレオレAugmentationながら、Wide R […]...
TPUで学習率減衰させる方法
4.4k{icon} {views} TPUで学習率減衰したいが、TensorFlowのオプティマイザーを使うべきか、tf.kerasのオプティマイザーを使うべきか、あるいはKerasのオプティマイザーを使うべきか非常に […]...
Affinity LossをCIFAR-10で精度を求めてひたすら頑張った話
9.2k{icon} {views} 不均衡データに対して有効性があると言われている損失関数「Affinity loss」をCIFAR-10で精度を出すためにひたすら頑張った、というひたすら泥臭い話。条件10個試したらや […]...