こしあん
2019-09-24

PyTorchでGANの訓練をするときにrequires_grad(trainable)の変更はいるのかどうか

Pocket
LINEで送る
Delicious にシェア

3k{icon} {views}


PyTorchでGANのある実装を見ていたときに、requires_gradの変更している実装を見たことがあります。Kerasだとtrainableの明示的な変更はいるんで、もしかしてPyTorchでもいるんじゃないかな?と疑問になったので、確かめてみました。

requires_gradの変更とは

あるレイヤーの係数を訓練するかどうかのフラグ。modelという変数があったときに、

for p in model.paramters():
    p.required_grad = False

とすることでそのモデル全体の係数を固定することができます。転移学習などに便利でしょう。

ものすごく簡単なGAN

検証用にものすごい簡単なGANのモデルを作ってみました。

import torch
from torch import nn

def weight_init(layer):
    if type(layer) in [nn.ConvTranspose2d, nn.Conv2d, nn.BatchNorm2d]:
        nn.init.constant_(layer.weight, 0.01)
        nn.init.zeros_(layer.bias)

class Generator(nn.Module):
    def __init__(self):
        super().__init__()
        self.weights = nn.Sequential(
            nn.ConvTranspose2d(100, 64, 6, 1), #1x1 -> 6x6
            nn.BatchNorm2d(64),
            nn.ReLU(True),
            nn.Conv2d(64, 3, 3, padding=1),
            nn.Tanh()
        )
        self.weights.apply(weight_init)

    def forward(self, inputs):
        return self.weights(inputs)

class Discriminator(nn.Module):
    def __init__(self):
        super().__init__()
        self.weights = nn.Sequential(
            nn.Conv2d(3, 32, 3, 2, padding=1), #6x6 -> 3x3
            nn.BatchNorm2d(32),
            nn.ReLU(True),
            nn.AvgPool2d(3), # 3x3 -> 1x1
            nn.Conv2d(32, 1, 1),
            nn.Sigmoid()
        )
        self.weights.apply(weight_init)

    def forward(self, inputs):
        return self.weights(inputs).view(inputs.size(0),-1)

CPUでも訓練できるぐらい簡単なモデルです。初期化はDともGともWeightを0.01の定数、biasを0としています。

初期値チェック

では初期値をチェックしてみましょう。

def initial_checking():
    model = Generator()
    print("--- Generator ---")
    for p in model.parameters():
        print(p)
    model = Discriminator()
    print("--- Disctiminator ---")
    for p in model.parameters():
        print(p)

これでGとDの係数一覧がでます。

--- Generator ---
Parameter containing:
tensor([[[[0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100],
          [0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100],
          [0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100],
          [0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100],
          [0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100],
          [0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100]],

## 中略
--- Disctiminator ---
Parameter containing:
tensor([[[[0.0100, 0.0100, 0.0100],
          [0.0100, 0.0100, 0.0100],
          [0.0100, 0.0100, 0.0100]],

         [[0.0100, 0.0100, 0.0100],
          [0.0100, 0.0100, 0.0100],
          [0.0100, 0.0100, 0.0100]],

DもGも0.01で初期化されているのが確認できました。ここには書いていませんがbiasは0で初期化されています。

Gの訓練を想定

よくあるGの訓練の1ステップを取り出します。本物のデータは適当に作っています。

def train_default():
    model_G = Generator()
    model_D = Discriminator()
    param_G = torch.optim.Adam(model_G.parameters())
    param_D = torch.optim.Adam(model_D.parameters())

    # 本物画像を適当におく
    real_img = torch.arange(0.0, 1.0, 1 / 6).view(6, 1, 1, 1).expand(6, 100, 1, 1)

    # Dのrequire_gradの変更なしにGをアップデート
    torch.manual_seed(123)
    fake_img = model_G(torch.randn(6, 100, 1, 1))
    out = model_D(fake_img)
    loss = nn.BCELoss()(out, torch.ones(6, 1))  # 本物として訓練
    print(loss)

    # backprop
    model_D.zero_grad()
    model_G.zero_grad()
    loss.backward()
    param_G.step()

    # Dのパラメーターチェック
    for p in model_D.parameters():
        print(p)

ここではrequires_gradの変更は一切行っていません。param_G.step()でGenerator側の更新は行っていますが、Dの係数は変更されるでしょうか? 2つの可能性が考えられます。

  1. param_G.step()でGenerator側だけ更新してるんだから、D側の係数は訓練されるわけがない
  2. いやいや、Gのロス計算しているときにDのモデルを使ってるんだから、Gを更新したときにDまで更新されちゃうでしょ

ちなみにKerasだと2で、G/Dの更新で明示的にtrainable(PyTorchでのrequires_grad)を変更する必要があります。PyTorchではどちらでしょうか?

答えは以下の通りです。

# 前略
Parameter containing:
tensor([0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100,
        0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100,
        0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100,
        0.0100, 0.0100, 0.0100, 0.0100, 0.0100], requires_grad=True)
Parameter containing:
tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
        0., 0., 0., 0., 0., 0., 0., 0.], requires_grad=True)
# 後略

答えは1が正解param_G.step()としているのでDは更新されません。ちなみにPyTorchの公式のDCGAN例ではこちらの方法を使っています。

params_D.step()とすると…

ではちょっと意地悪して、params_G.step()からparams_D.step()に変えてみます。Dは更新されるでしょうか?

Parameter containing:
tensor([0.0110, 0.0110, 0.0110, 0.0110, 0.0110, 0.0110, 0.0110, 0.0110, 0.0110,
        0.0110, 0.0110, 0.0110, 0.0110, 0.0110, 0.0110, 0.0110, 0.0110, 0.0110,
        0.0110, 0.0110, 0.0110, 0.0110, 0.0110, 0.0110, 0.0110, 0.0110, 0.0110,
        0.0110, 0.0110, 0.0110, 0.0110, 0.0110], requires_grad=True)
Parameter containing:
tensor([0.0010, 0.0010, 0.0010, 0.0010, 0.0010, 0.0010, 0.0010, 0.0010, 0.0010,
        0.0010, 0.0010, 0.0010, 0.0010, 0.0010, 0.0010, 0.0010, 0.0010, 0.0010,
        0.0010, 0.0010, 0.0010, 0.0010, 0.0010, 0.0010, 0.0010, 0.0010, 0.0010,
        0.0010, 0.0010, 0.0010, 0.0010, 0.0010], requires_grad=True)

結果はDが更新されました。もとの初期値は0.01と0だったのを思い出しましょう。

もうちょっと意地悪をする

もう少し意地悪をして、params_D.step()の手前にmodel_D.zero_grad()を入れてみます。

    # backprop
    model_D.zero_grad()
    model_G.zero_grad()
    loss.backward()
    model_D.zero_grad()
    param_D.step()

こんな感じ。どうなるでしょう?

Parameter containing:
tensor([0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100,
        0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100,
        0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100,
        0.0100, 0.0100, 0.0100, 0.0100, 0.0100], requires_grad=True)
Parameter containing:
tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
        0., 0., 0., 0., 0., 0., 0., 0.], requires_grad=True)

当然更新されません。zero_grad()とは文字通り勾配を初期化しなさいという意味だったんですね。

params_D.step()からGの更新を見る

本来こういうケースはありませんが、D.step()して、Gの係数が変わっているか見てみましょう。こんな感じ。

    # backprop
    model_D.zero_grad()
    model_G.zero_grad()
    loss.backward()
    param_D.step()

    # Dのパラメーターチェック
    for p in model_G.parameters():
        print(p)
Parameter containing:
tensor([0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100,
        0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100,
        0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100,
        0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100,
        0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100,
        0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100,
        0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100, 0.0100,
        0.0100], requires_grad=True)
Parameter containing:
tensor([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
        0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
        0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.],

結果:Gの係数は変わっていません。params_G.step()のときのDと同様係数は変わりませんでした。

結論

PyTorchにおいてGANを訓練するときは、Gの訓練をするときにreqires_grad=Falseにする必要はない。GとDで明示的にrequires_gradの切り替えはいらない。公式実装は正しい。ということでした。



Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内

技術書コーナー

【新刊】インフィニティNumPy――配列の初期化から、ゲームの戦闘、静止画や動画作成までの221問

「本当の実装力を身につける」ための221本ノック――
機械学習(ML)で避けて通れない数値計算ライブラリ・NumPyを、自在に活用できるようになろう。「できる」ための体系的な理解を目指します。基礎から丁寧に解説し、ディープラーニング(DL)の難しいモデルで遭遇する、NumPyの黒魔術もカバー。初心者から経験者・上級者まで楽しめる一冊です。問題を解き終わったとき、MLやDLなどの発展分野にスムーズに入っていけるでしょう。

本書の大きな特徴として、Pythonの本でありがちな「NumPyとML・DLの結合を外した」点があります。NumPyを理解するのに、MLまで理解するのは負担が大きいです。本書ではあえてこれらの内容を書いていません。行列やテンソルの理解に役立つ「従来の画像処理」をNumPyベースで深く解説・実装していきます。

しかし、問題の多くは、DLの実装で頻出の関数・処理を重点的に取り上げています。経験者なら思わず「あー」となるでしょう。関数丸暗記では自分で実装できません。「覚える関数は最小限、できる内容は無限大」の世界をぜひ体験してみてください。画像編集ソフトの処理をNumPyベースで実装する楽しさがわかるでしょう。※紙の本は電子版の特典つき

モザイク除去から学ぶ 最先端のディープラーニング

「誰もが夢見るモザイク除去」を起点として、機械学習・ディープラーニングの基本をはじめ、GAN(敵対的生成ネットワーク)の基本や発展型、ICCV, CVPR, ECCVといった国際学会の最新論文をカバーしていく本です。
ディープラーニングの研究は発展が目覚ましく、特にGANの発展型は市販の本でほとんどカバーされていない内容です。英語の原著論文を著者がコードに落とし込み、実装を踏まえながら丁寧に解説していきます。
また、本コードは全てTensorFlow2.0(Keras)に対応し、Googleの開発した新しい機械学習向け計算デバイス・TPU(Tensor Processing Unit)をフル活用しています。Google Colaboratoryを用いた環境構築不要の演習問題もあるため、読者自ら手を動かしながら理解を深めていくことができます。

AI、機械学習、ディープラーニングの最新事情、奥深いGANの世界を知りたい方にとってぜひ手にとっていただきたい一冊となっています。持ち運びに便利な電子書籍のDLコードが付属しています。

「おもしろ同人誌バザールオンライン」で紹介されました!(14:03~) https://youtu.be/gaXkTj7T79Y?t=843

まとめURL:https://github.com/koshian2/MosaicDeeplearningBook
A4 全195ページ、カラー12ページ / 2020年3月発行

Shikoan's ML Blog -Vol.1/2-

累計100万PV超の人気ブログが待望の電子化! このブログが電子書籍になって読みやすくなりました!

・1章完結のオムニバス形式
・機械学習の基本からマニアックなネタまで
・どこから読んでもOK
・何巻から読んでもOK

・短いものは2ページ、長いものは20ページ超のものも…
・通勤・通学の短い時間でもすぐ読める!
・読むのに便利な「しおり」機能つき

・全巻はA5サイズでたっぷりの「200ページオーバー」
・1冊にたっぷり30本収録。1本あたり18.3円の圧倒的コストパフォーマンス!
・文庫本感覚でお楽しみください

北海道の駅巡りコーナー

日高本線 車なし全駅巡り

ローカル線や秘境駅、マニアックな駅に興味のある方におすすめ! 2021年に大半区間が廃線になる、北海道の日高本線の全区間・全29駅(苫小牧~様似)を記録した本です。マイカーを使わずに、公共交通機関(バス)と徒歩のみで全駅訪問を行いました。日高本線が延伸する計画のあった、襟裳岬まで様似から足を伸ばしています。代行バスと路線バスの織り成す極限の時刻表ゲームと、絶海の太平洋と馬に囲まれた日高路、日高の隠れたグルメを是非たっぷり堪能してください。A4・フルカラー・192ページのたっぷりのボリュームで、あなたも旅行気分を漫喫できること待ったなし!

見どころ:日高本線被災区間(大狩部、慶能舞川橋梁、清畠~豊郷) / 牧場に囲まれた絵笛駅 / 窓口のあっただるま駅・荻伏駅 / 汐見の戦争遺跡のトーチカ / 新冠温泉、三石温泉 / 襟裳岬

A4 全192ページフルカラー / 2020年11月発行


Pocket
Delicious にシェア

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です