論文まとめ:SegNeXt: Rethinking Convolutional Attention Design for Semantic Segmentation
1.4k{icon} {views} タイトル:SegNeXt: Rethinking Convolutional Attention Design for Semantic Segmentation 著者:Meng-H […]...
TensorFlowの関数で画像にモザイクを書ける方法
2.7k{icon} {views} TensorFlow2.0の関数を使い、画像にモザイクをかける方法を紹介します。OpenCVやPILでの書き方はいろいろありますが、TensorFlowでどう書くかはまず出てきません […]...
論文メモ:Concurrent Spatial and Channel ‘Squeeze & Excitation’ in Fully Convolutional Networks
5.1k{icon} {views} Squeeze and Excitationの派生形であるsc-SEを提唱している論文。Squeeze & Excitationの派生形と構成がわかりやすくまとまっており、効 […]...
TensorFlow2.0+TPUでData AugmentationしながらCIFAR-10
3.1k{icon} {views} TensorFlow2.0+TPUでData AugmentationしながらCIFAR-10を分類するサンプルです。Data Augmentationはtf.dataでやるのがポイ […]...
クラス別のData Augmentationって意味ある?を調べてみた
3k{icon} {views} Data Augmentationで精度を上げることにお熱になっていると、「特定の足引っ張っているクラスだけAugmetationかけたらいいんじゃない?」的なことをやりたくなります。こ […]...
データのお気持ちを考えながらData Augmentationする
27.4k{icon} {views} Data Augmentationの「なぜ?」に注目しながら、エラー分析をしてCIFAR-10の精度向上を目指します。その結果、オレオレAugmentationながら、Wide R […]...
TPUでも大きなバッチサイズに対して精度を出す
4.2k{icon} {views} TPUでは大きなバッチサイズを適用することが訓練の高速化につながりますが、これは精度と引き換えになることがあります。大きなバッチサイズでも精度を出す方法を論文をもとに調べてみました。 […]...
TPUで学習率減衰させる方法
4.4k{icon} {views} TPUで学習率減衰したいが、TensorFlowのオプティマイザーを使うべきか、tf.kerasのオプティマイザーを使うべきか、あるいはKerasのオプティマイザーを使うべきか非常に […]...
Affinity LossをCIFAR-10で精度を求めてひたすら頑張った話
9.2k{icon} {views} 不均衡データに対して有効性があると言われている損失関数「Affinity loss」をCIFAR-10で精度を出すためにひたすら頑張った、というひたすら泥臭い話。条件10個試したらや […]...
転移学習でネットワーク内でアップサンプリングする方法(Keras)
4.3k{icon} {views} 転移学習でインプットのサイズを揃えなければいけないことがありますが、これをRAM(CPU)上でやるとメモリが不足することがあります。転移学習の重みをそのまま使い、事前にアップサンプリ […]...