SwinTransformerでCIFAR-10を一から訓練する
5.8k{icon} {views} 画像のTransformer系で有望なモデルである「Swin Transformer」でCIFAR-10を1から訓練してみました。1からの訓練はCNNほど楽ではありませんが、流行りの […]...
「Patches Are All You Need?」のからくりを読み解く
3k{icon} {views} ICLR2022のレビューとして投稿された「Patches Are All You Need?」という論文が気になったので読んでみて、少し試してみました。画像の高周波の成分の活用や、スル […]...
ごちうさで始める線画の自動着色(2)~TFRecordの作成~
1.7k{icon} {views}KaggleにあったGochiUsa_Facesデータセットを使って、ごちうさキャラの線画の自動着色で遊んでみました。この投稿では訓練の前段階としてTFRecordを作成していきます。 […]...
ごちうさで始める線画の自動着色(1)~データセットのEDA~
2.2k{icon} {views} KaggleにあったGochiUsa_Facesデータセットを使って、ごちうさキャラの線画の自動着色で遊んでみました。この投稿では下準備として、データセットのEDAをします。 Goc […]...
ImageNetの訓練時の前処理についてまとめた
15.8k{icon} {views} ImageNetで訓練済みのモデルを使う際の前処理は出てきても、モデルを訓練するときの前処理、特に訓練画像のアスペクト比がまばらなケースでどう前処理するのかがほとんど出てきませんで […]...
RCNNで使われるSelective Searchについてまとめてみる
13.7k{icon} {views} RCNNで用いられる「Selective Search」について中で何をやっているのかまとめてみました。RCNNの論文を読んでいるときによく出てくる「Selective Searc […]...
物体検出で使うMean Average PrecisionをNumpyで実装する
5.8k{icon} {views} 物体検出でよく使われる評価指標・Mean Average Precision(mAP)をNumpyで実装しました。計算に癖があるので注意が必要です。 参考記事 こちらの記事がとてもわ […]...
ImageNetのVal精度を再現するための前処理を考える
4.6k{icon} {views}ImageNetのValidation精度は論文でよく見ますが、その精度をどのようにして再現するのかがよくわからなかったので書きました。10-Cropをするのが最も簡単な方法です。 I […]...
スタイル変換のStyle Lossとは何をやっているか
4.6k{icon} {views} スタイル変換やImage to Imageの損失関数で使われる・Style Lossの実装を詳しく見ていきます。Style Lossの計算で用いているグラム行列の計算方法をTenso […]...
論文メモ:Concurrent Spatial and Channel ‘Squeeze & Excitation’ in Fully Convolutional Networks
5.3k{icon} {views} Squeeze and Excitationの派生形であるsc-SEを提唱している論文。Squeeze & Excitationの派生形と構成がわかりやすくまとまっており、効 […]...