こしあん
2018-10-14

KerasでSTL-10を扱う方法

Pocket
LINEで送る
Delicious にシェア

2k{icon} {views}



スタンフォード大学が公開している画像データセットに「STL-10」というのがあります。これはCIFAR-10に似た形式ながら、高画質かつ教師なし学習にも応用できる便利なデータです。PyTorchではtorchvisionを使うと簡単に読み込めるのですが、Kerasではデフォルトで容易されていないので自分で読み込むコードを書かないといけません。それを見ていきます。

STL-10のサイト:https://cs.stanford.edu/~acoates/stl10/

STL10のデータローダー

Kerasで使うことを想定したものです。CIFAR-10の要領でSTL10()とインスタンスを作り、get_files()を読み込ませればOKです。これはSTL-10のPython実装を参考に自分で書きました。

import sys, os, urllib.request, tarfile
import numpy as np

class STL10:
    def __init__(self, download_dir):
        self.binary_dir = os.path.join(download_dir, "stl10_binary")

        if not os.path.exists(download_dir):
            os.mkdir(download_dir)
        if not os.path.exists(self.binary_dir):
            os.mkdir(self.binary_dir)

        # download file
        def _progress(count, block_size, total_size):
            sys.stdout.write('\rDownloading %s %.2f%%' % (source_path,
                float(count * block_size) / float(total_size) * 100.0))
            sys.stdout.flush()

        source_path = "http://ai.stanford.edu/~acoates/stl10/stl10_binary.tar.gz"
        dest_path = os.path.join(download_dir, "stl10_binary.tar.gz")
        if not os.path.exists(dest_path):
            urllib.request.urlretrieve(source_path, filename=dest_path, reporthook=_progress)
            # untar
            with tarfile.open(dest_path, "r:gz") as tar:
                tar.extractall(path=download_dir)

    def get_files(self, target):
        assert target in ["train", "test", "unlabeled"]
        if target in ["train", "test"]:
            images = self.load_images(os.path.join(self.binary_dir, target+"_X.bin"))
            labels = self.load_labels(os.path.join(self.binary_dir, target+"_y.bin"))
        else:
            images = self.load_images(os.path.join(self.binary_dir, target+"_X.bin"))
            labels = None
        return images, labels

    def load_images(self, image_binary):
        with open(image_binary, "rb") as fp:
            images = np.fromfile(fp, dtype=np.uint8)
            images = images.reshape(-1, 3, 96, 96)
            return np.transpose(images, (0, 3, 2, 1))

    def load_labels(self, label_binary):
        with open(label_binary) as fp:
            labels = np.fromfile(fp, dtype=np.uint8)
            return labels.reshape(-1, 1) - 1 # 1-10 -> 0-9

ダウンロードから読み込みまで一括でやっています。ハッシュチェックなどは入れていません。ファイルがあるかどうかで見ているので、ダウンロードが途中で中断されてしまった場合は、ファイルを消してもう一度実行してください。

以下のように使います。使い方はKerasのdatasetsにあるMNISTやCIFARと同じです。ただ、コンストラクタの引数にデータをダウンロードするディレクトリを指定できます(ここらへんはPyTorch方式です)。

stl10 = STL10("./data")
X, y = stl10.get_files("train")

get_filesの引数にはtrain, test, unlabeledのいずれかが入ります。これはSTL-10がラベル付けされたデータ(train, test)、とラベル付けされていないデータ(unlabeled)の2種類からなることによります。ラベル付けされていないデータでは、ラベルつまりyが与えられていません。つまり、unlabeledなデータを読み込みたい場合には、

X = stl10.get_files("unlabeled")

となります。

カスタムジェネレーター(オプション)

このままKerasにImageDataGenerator使ってもよいのですが、unlabeledをImageDataGeneratorに突っ込むと全体がfloat32にキャストされる都合上、無駄にメモリを消費(10~12GB)するという仕様があります。そのためuint8で与えて、バッチに応じてfloat32にキャストするようなジェネレーターを定義したほうがメモリ効率はぐっと良くなります。詳しくは以下の記事に書きました。

KerasのImageDataGeneratorのメモリ消費を約1/4にする方法
https://qiita.com/koshian2/items/aff7c2b5a289c8202489

この記事と同一ですがコードを記しておきます。ImageDataGenerator.flowと同じ要領で使えます。

class CustomGenerator:
    def flow(self, X, y=None, batch_size=32, shuffle=True):
        if not y is None:
            assert X.shape[0] == y.shape[0]
        n_sample = X.shape[0]
        assert batch_size <= n_sample
        n_batch = n_sample // batch_size

        while True:
            indices = np.arange(n_sample)
            if shuffle:
                np.random.shuffle(indices)

            for i in range(n_batch):
                current_indices = indices[i*batch_size:(i+1)*batch_size]
                X_batch = (X[current_indices] / 255.0).astype(np.float32)
                if y is None:
                    yield X_batch
                else:
                    y_batch = (y[current_indices]).astype(np.float32)
                    yield X_batch, y_batch

可視化してみる

STL-10の中身の画像を表示してみましょう。pyplotで表示させるための関数です。

import matplotlib.pyplot as plt

def keras_test(data_type):
    stl10 = STL10("./data")
    datagen = CustomGenerator()

    if data_type in ["train", "test"]:
        X, y = stl10.get_files(data_type)
        X_batch, y_batch = next(datagen.flow(X, y, batch_size=64))
    else:
        X, _ = stl10.get_files(data_type)
        X_batch = next(datagen.flow(X, batch_size=64))
        y_batch = None

    fig = plt.figure(figsize=(8, 10))
    fig.subplots_adjust(hspace=0.3, wspace=0.02)
    for i in range(64):
        ax = fig.add_subplot(8, 8, i+1)
        ax.imshow(X_batch[i])
        if not y_batch is None:
            ax.set_title(str(y_batch[i]), fontsize=8)
        ax.axis("off")
    plt.suptitle(data_type)
    plt.show()

Train

Test

Unlabeled

CNNで分類してみる

STL-10はラベル付けされたデータが少なく本来は教師なし学習用のデータセットですが、一部ラベル付けされているので教師あり学習の分類問題でもできます。CNNで分類してみましょう。

def stl10_cnn():
    input = Input(shape=(96,96,3))
    x = Conv2D(16, 3)(input)
    x = BatchNormalization()(x)
    x = Activation("relu")(x)
    x = MaxPooling2D(4)(x)
    x = Conv2D(32, 3)(x)
    x = BatchNormalization()(x)
    x = Activation("relu")(x)
    x = Flatten()(x)
    x = Dense(10, activation="softmax")(x)

    model = Model(input, x)
    model.compile(Adam(), loss="categorical_crossentropy", metrics=["acc"])

    stl10 = STL10("./data")
    X, y = stl10.get_files("train")
    y = to_categorical(y)
    datagen = CustomGenerator()

    model.fit_generator(datagen.flow(X, y, batch_size=128), steps_per_epoch=X.shape[0]//128, epochs=3)

CPU向けに軽めのCNNにしました。CPUで5分ぐらいで訓練できます。

Epoch 1/3
39/39 [==============================] - 114s 3s/step - loss: 2.4944 - acc: 0.3197
Epoch 2/3
39/39 [==============================] - 111s 3s/step - loss: 1.1882 - acc: 0.5767
Epoch 3/3
39/39 [==============================] - 111s 3s/step - loss: 0.8203 - acc: 0.7220

以上です。これでSTL-10もKerasで使えますね。



Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内

技術書コーナー

【新刊】インフィニティNumPy――配列の初期化から、ゲームの戦闘、静止画や動画作成までの221問

「本当の実装力を身につける」ための221本ノック――
機械学習(ML)で避けて通れない数値計算ライブラリ・NumPyを、自在に活用できるようになろう。「できる」ための体系的な理解を目指します。基礎から丁寧に解説し、ディープラーニング(DL)の難しいモデルで遭遇する、NumPyの黒魔術もカバー。初心者から経験者・上級者まで楽しめる一冊です。問題を解き終わったとき、MLやDLなどの発展分野にスムーズに入っていけるでしょう。

本書の大きな特徴として、Pythonの本でありがちな「NumPyとML・DLの結合を外した」点があります。NumPyを理解するのに、MLまで理解するのは負担が大きいです。本書ではあえてこれらの内容を書いていません。行列やテンソルの理解に役立つ「従来の画像処理」をNumPyベースで深く解説・実装していきます。

しかし、問題の多くは、DLの実装で頻出の関数・処理を重点的に取り上げています。経験者なら思わず「あー」となるでしょう。関数丸暗記では自分で実装できません。「覚える関数は最小限、できる内容は無限大」の世界をぜひ体験してみてください。画像編集ソフトの処理をNumPyベースで実装する楽しさがわかるでしょう。※紙の本は電子版の特典つき

モザイク除去から学ぶ 最先端のディープラーニング

「誰もが夢見るモザイク除去」を起点として、機械学習・ディープラーニングの基本をはじめ、GAN(敵対的生成ネットワーク)の基本や発展型、ICCV, CVPR, ECCVといった国際学会の最新論文をカバーしていく本です。
ディープラーニングの研究は発展が目覚ましく、特にGANの発展型は市販の本でほとんどカバーされていない内容です。英語の原著論文を著者がコードに落とし込み、実装を踏まえながら丁寧に解説していきます。
また、本コードは全てTensorFlow2.0(Keras)に対応し、Googleの開発した新しい機械学習向け計算デバイス・TPU(Tensor Processing Unit)をフル活用しています。Google Colaboratoryを用いた環境構築不要の演習問題もあるため、読者自ら手を動かしながら理解を深めていくことができます。

AI、機械学習、ディープラーニングの最新事情、奥深いGANの世界を知りたい方にとってぜひ手にとっていただきたい一冊となっています。持ち運びに便利な電子書籍のDLコードが付属しています。

「おもしろ同人誌バザールオンライン」で紹介されました!(14:03~) https://youtu.be/gaXkTj7T79Y?t=843

まとめURL:https://github.com/koshian2/MosaicDeeplearningBook
A4 全195ページ、カラー12ページ / 2020年3月発行

Shikoan's ML Blog -Vol.1/2-

累計100万PV超の人気ブログが待望の電子化! このブログが電子書籍になって読みやすくなりました!

・1章完結のオムニバス形式
・機械学習の基本からマニアックなネタまで
・どこから読んでもOK
・何巻から読んでもOK

・短いものは2ページ、長いものは20ページ超のものも…
・通勤・通学の短い時間でもすぐ読める!
・読むのに便利な「しおり」機能つき

・全巻はA5サイズでたっぷりの「200ページオーバー」
・1冊にたっぷり30本収録。1本あたり18.3円の圧倒的コストパフォーマンス!
・文庫本感覚でお楽しみください

北海道の駅巡りコーナー

日高本線 車なし全駅巡り

ローカル線や秘境駅、マニアックな駅に興味のある方におすすめ! 2021年に大半区間が廃線になる、北海道の日高本線の全区間・全29駅(苫小牧~様似)を記録した本です。マイカーを使わずに、公共交通機関(バス)と徒歩のみで全駅訪問を行いました。日高本線が延伸する計画のあった、襟裳岬まで様似から足を伸ばしています。代行バスと路線バスの織り成す極限の時刻表ゲームと、絶海の太平洋と馬に囲まれた日高路、日高の隠れたグルメを是非たっぷり堪能してください。A4・フルカラー・192ページのたっぷりのボリュームで、あなたも旅行気分を漫喫できること待ったなし!

見どころ:日高本線被災区間(大狩部、慶能舞川橋梁、清畠~豊郷) / 牧場に囲まれた絵笛駅 / 窓口のあっただるま駅・荻伏駅 / 汐見の戦争遺跡のトーチカ / 新冠温泉、三石温泉 / 襟裳岬

A4 全192ページフルカラー / 2020年11月発行


Pocket
LINEで送る

Tags:,

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です