Pythonでzipを使ってJSONライクなdictをいい感じにforループで回す
4.3k{icon} {views} Pythonでzip関数を使ってJSONライクな辞書(dict)を、いい感じにforループで要素ごとに抽出する例を解説します。ほぼワンライナーでできるので簡単です。 想定 こんなJS […]...
PyTorchで複数のGPUで訓練するときのSync Batch Normalizationの必要性
14.2k{icon} {views} PyTorchにはSync Batch Normalizationというレイヤーがありますが、これが通常のBatch Normzalitionと何が違うのか具体例を通じて見ていきま […]...
Self-attention GAN(SAGAN)を実装して遊んでみた
9.7k{icon} {views} 前回の投稿では、Spectral Noramlizationを使ったGAN「SNGAN」を実装しましたが、それの応用系であるSelf-attention GAN「SAGAN」を実装し […]...
画像分類で比較するBatch Norm, Instance Norm, Spectral Normの勾配の大きさ
8.7k{icon} {views} GANの安定化のために、Batch Normalizationを置き換えるということがしばしば行われます。その置き換え先として、Spectral Norm、Instance Norm […]...
Spectral Normalization(SNGAN)を実装していろいろ遊んでみた
11.6k{icon} {views} GANの安定化の大きなブレイクスルーである「Spectral Normalization」をPyTorchで実装していろいろ遊んでみました。従来のGANよりも多クラスの出力がかなり […]...
SA-GANの実装から見る画像のSelf attention
11.1k{icon} {views} 自然言語処理でよく使われるSelf-attentionは画像処理においてもたびたび使われることがあります。自然言語処理のは出てきても、画像のはあまり情報が出てこなかったので、SAG […]...
PyTorchでweight clipping
3.6k{icon} {views} WGANの論文見てたらWeight Clippingしていたので、簡単な例を実装して実験してみました。かなり簡単にできます。それを見ていきましょう。 Weight Clippingと […]...
PyTorchでGANの訓練をするときにrequires_grad(trainable)の変更はいるのかどうか
6.7k{icon} {views}PyTorchでGANのある実装を見ていたときに、requires_gradの変更している実装を見たことがあります。Kerasだとtrainableの明示的な変更はいるんで、もしかして […]...
GANでGeneratorの損失関数をmin(log(1-D))からmaxlog Dにした場合の実験
11.4k{icon} {views} GANの訓練をうまくいくためのTipとしてよく引用される、How to train GANの中から、Generatorの損失関数をmin(log(1-D))からmaxlog Dにし […]...
pix2pix HDのCoarse to fineジェネレーターを考える
3.5k{icon} {views} pix2pix HDの論文を読んでいたら「Coarse to fineジェネレーター」という、低解像度→高解像度と解像度を分けて訓練するネットワークの工夫をしていました。pix2pi […]...