「Patches Are All You Need?」のからくりを読み解く
2.8k{icon} {views} ICLR2022のレビューとして投稿された「Patches Are All You Need?」という論文が気になったので読んでみて、少し試してみました。画像の高周波の成分の活用や、 […]...
ImageNetの訓練時の前処理についてまとめた
15.1k{icon} {views} ImageNetで訓練済みのモデルを使う際の前処理は出てきても、モデルを訓練するときの前処理、特に訓練画像のアスペクト比がまばらなケースでどう前処理するのかがほとんど出てきませんで […]...
論文メモ:Concurrent Spatial and Channel ‘Squeeze & Excitation’ in Fully Convolutional Networks
5.2k{icon} {views} Squeeze and Excitationの派生形であるsc-SEを提唱している論文。Squeeze & Excitationの派生形と構成がわかりやすくまとまっており、効 […]...
[論文メモ]Self-Attention Generative Adversarial Networks(SA-GAN)
6k{icon} {views} SA-GAN(Self attention GAN)の論文を読んで実装したので、自分用メモとして書いておきます。 自分がやった実装の記事はこちら Self-attention GAN(S […]...