[論文メモ]Self-Attention Generative Adversarial Networks(SA-GAN)
5.9k{icon} {views} SA-GAN(Self attention GAN)の論文を読んで実装したので、自分用メモとして書いておきます。 自分がやった実装の記事はこちら Self-attention GAN […]...
画像分類で比較するBatch Norm, Instance Norm, Spectral Normの勾配の大きさ
8.8k{icon} {views} GANの安定化のために、Batch Normalizationを置き換えるということがしばしば行われます。その置き換え先として、Spectral Norm、Instance Norm […]...
pix2pix HDのCoarse to fineジェネレーターを考える
3.5k{icon} {views} pix2pix HDの論文を読んでいたら「Coarse to fineジェネレーター」という、低解像度→高解像度と解像度を分けて訓練するネットワークの工夫をしていました。pix2pi […]...
画像のダウンサンプリングとPSNRの測定
4.5k{icon} {views} U-Netでどこまでの深さが効いているのかを考えるために、画像をダウンサンプリングし、アップサンプリングするという処理を行いPSNRを見ていきます。その結果、PSNRが15~20程度 […]...
KerasのLearningRateSchedulerとPyTorchのLambdaLRの微妙な違い
4.7k{icon} {views} 学習率の調整は大事です。エポック後に学習率を減衰させる際、現在のエポックを引数として更新後の学習率を返す関数を与えると便利なことが多いです。この操作はKeras,PyTorchどちら […]...
WarmupとData Augmentationのバッチサイズ別の精度低下について
4.5k{icon} {views} 大きいバッチサイズで訓練する際は、バッチサイズの増加にともなう精度低下が深刻になります。この精度低下を抑制することはできるのですが、例えばData Augmentationのようなデ […]...
ML Study Jams中級編終わらせてきた
964{icon} {views} ML Study JamsというGoogle Cloudが提供している無料の学習プログラムの第二弾がオープンしています。今度は中級編が追加されており、全部終わらせてきたのでその報告と感 […]...
クラス別のData Augmentationって意味ある?を調べてみた
3k{icon} {views} Data Augmentationで精度を上げることにお熱になっていると、「特定の足引っ張っているクラスだけAugmetationかけたらいいんじゃない?」的なことをやりたくなります。こ […]...
データのお気持ちを考えながらData Augmentationする
27.4k{icon} {views} Data Augmentationの「なぜ?」に注目しながら、エラー分析をしてCIFAR-10の精度向上を目指します。その結果、オレオレAugmentationながら、Wide R […]...
ML Study Jamsを全部終わらせてきたのでその感想を書いてみる
6.3k{icon} {views} ML Study JamsというGoogle Cloudが提供している無料の学習プログラムが期間限定でオープンしています。それを全部終わらせてきたのでその報告と感想を書いていきたいと […]...