PyTorch→ONNXのコンバートでモデルの入力サイズを可変にして推論する
13.8k{icon} {views} ONNXでモデルは入力サイズを可変にできます。PyTorch→ONNXの変換と、ONNXRuntimeでの推論方法、また可変にしたことによる速度の副作用を検証していきます。 きっか […]...
Google Colabで訓練実行中の裏で定期的にバックアップ取りたい
1.8k{icon} {views} Google Colabで定期的にGoogle Driveにバックアップにとる方法を紹介します。Linuxコマンドだけでできる単純な方法で、追加の課金は必要ありません。 悲しみを背負 […]...
SwinTransformerでCIFAR-10を一から訓練する
5.5k{icon} {views} 画像のTransformer系で有望なモデルである「Swin Transformer」でCIFAR-10を1から訓練してみました。1からの訓練はCNNほど楽ではありませんが、流行りの […]...
「Patches Are All You Need?」のからくりを読み解く
2.9k{icon} {views} ICLR2022のレビューとして投稿された「Patches Are All You Need?」という論文が気になったので読んでみて、少し試してみました。画像の高周波の成分の活用や、 […]...
ごちうさで始める線画の自動着色(2)~TFRecordの作成~
1.6k{icon} {views}KaggleにあったGochiUsa_Facesデータセットを使って、ごちうさキャラの線画の自動着色で遊んでみました。この投稿では訓練の前段階としてTFRecordを作成していきます。 […]...
ごちうさで始める線画の自動着色(1)~データセットのEDA~
2.1k{icon} {views} KaggleにあったGochiUsa_Facesデータセットを使って、ごちうさキャラの線画の自動着色で遊んでみました。この投稿では下準備として、データセットのEDAをします。 Goc […]...
ImageNetの訓練時の前処理についてまとめた
15.3k{icon} {views} ImageNetで訓練済みのモデルを使う際の前処理は出てきても、モデルを訓練するときの前処理、特に訓練画像のアスペクト比がまばらなケースでどう前処理するのかがほとんど出てきませんで […]...
RCNNで使われるSelective Searchについてまとめてみる
12.9k{icon} {views} RCNNで用いられる「Selective Search」について中で何をやっているのかまとめてみました。RCNNの論文を読んでいるときによく出てくる「Selective Searc […]...
物体検出で使うMean Average PrecisionをNumpyで実装する
5.7k{icon} {views} 物体検出でよく使われる評価指標・Mean Average Precision(mAP)をNumpyで実装しました。計算に癖があるので注意が必要です。 参考記事 こちらの記事がとてもわ […]...
ImageNetのVal精度を再現するための前処理を考える
4.5k{icon} {views}ImageNetのValidation精度は論文でよく見ますが、その精度をどのようにして再現するのかがよくわからなかったので書きました。10-Cropをするのが最も簡単な方法です。 I […]...