SwinTransformerで転移学習(EfficientNet/ResNet50との比較)
8.5k{icon} {views} Swin Transformerを転移学習してみます。1から学習させる場合と異なり、そこまで強いData Augmentationをかけなくても訓練は安定します。訓練済み係数も含め、 […]...
SwinTransformerでCIFAR-10を一から訓練する
5.3k{icon} {views} 画像のTransformer系で有望なモデルである「Swin Transformer」でCIFAR-10を1から訓練してみました。1からの訓練はCNNほど楽ではありませんが、流行りの […]...
Cosine DecayとWarmupを同時にこなすスケジューラー(timm使用)
16.6k{icon} {views} 学習初期は徐々に学習率を上げていく「Warmup」と、学習率をなめらかに下げていく「Cosine Annealing」を1つのオプティマイザーとして楽に実装する方法を、timmライ […]...
「Patches Are All You Need?」のからくりを読み解く
2.8k{icon} {views} ICLR2022のレビューとして投稿された「Patches Are All You Need?」という論文が気になったので読んでみて、少し試してみました。画像の高周波の成分の活用や、 […]...
tf.keras.models.Modelのsave_weightsのあれこれ:オプティマイザーの値を復元するには
9.7k{icon} {views} Kerasでモデルの保存するとき、save_weightsの関数をよく使います。しかし、オプティマイザーの値を復元して訓練再開しようとするとかなりややこしいことになります。モデルの値 […]...
TFRecordを自作して最低限のCIFAR-10を訓練するまで
4.7k{icon} {views} TFRecordを自作して、とりあえずCIFAR-10を訓練するための最低限の処理を書きました。なんでもBytesListに格納する方法です。 TFRecordについて TFReco […]...
tf.data.Datasetでdictなデータと仲良くする方法
4.3k{icon} {views} TensorFlow2.0でdict構造のデータから、tf.data.Datasetを作る方法を見ていきます。バッチの軸の結合処理を一切書かずに、dict構造を保ったままバッチ化して […]...
tf.functionの再トレースによる訓練の低速化について確かめる
7.4k{icon} {views} TensorFlow2.0において、tf.functionを使うと計算が高速化することはよく知られていますが、その代償として入力のshapeが可変の場合に「再トレース」が発生し訓練が […]...
TensorFlowの前処理を劇的に遅くするNumpy配列への変換に注意
8.3k{icon} {views} TensorFlowの前処理では、Numpy配列とTensorFlowの配列を同時に扱うことがあります。サンプル単位のTFの配列を、np.asarrayでバッチ化したら激重になってし […]...
スタイル変換のStyle Lossとは何をやっているか
4.2k{icon} {views} スタイル変換やImage to Imageの損失関数で使われる・Style Lossの実装を詳しく見ていきます。Style Lossの計算で用いているグラム行列の計算方法をTenso […]...