こしあん
2018-09-24

BrestCancerデータセットをCNNで分類する

Pocket
LINEで送る
Delicious にシェア

3.4k{icon} {views}



構造化データを畳み込みニューラルネットワーク(CNN)で分析することを考えます。BrestCancerデータセットはScikit-learnに用意されている、乳がんが良性か悪性かの2種類を分類する典型的な構造化データです。サンプル数569、データの次元30の典型的な構造化データです。

なぜ畳み込みニューラルネットワーク(CNN)なのか

CNNは画像分類など非構造化データに対して使われる例が多いですが、本質的にはBrestCancerデータセットのような構造化データに対しても使えます。なぜ畳み込みなのかと言われると、例えば「a, b, c」という3つの次元に対して、「1/3, 1/3, 1/3」をカーネルとした畳みこみを行ったとしてましょう。この結果は、

$$ (a+b+c)/3$$

であり、これは結果的には移動平均を取っているのと同じになります。また、「a, b」という2つの次元に対して「1, -1」という畳込みを行うと、

$$ a-b$$

という差分を取っているのと同じです。つまり、1次元の畳込み処理により、移動平均、差分といった主に時系列解析で使われる手法を内生的に表現でき、どのような処理を行わせるかは訓練を通じてモデルに選ばせるということができます。もう少しわかりやすく言うと、「画像のように系列間に相関がある場合は、パラメーター間の相関に着目して訓練が進むCNNもやってみる価値があるよ」ということです。

では30次元の構造化データをどのようにCNNに落とし込むのでしょうか。図で表現してみます。

入力を「データ数×30×1」にすると1次元の畳み込みの問題に落とし込めます。あとはConv+BatchNorm+ReLUといういつものパターンでできます。

ではやってみましょう。最初にデータをfeature-wiseで標準化しておきます。

from sklearn.datasets import load_breast_cancer
from sklearn.model_selection import train_test_split
from keras.layers import Conv1D, BatchNormalization, Activation, MaxPool1D, Flatten, Dense, Input
from keras.models import Model
from keras.optimizers import Adam
from keras.utils import to_categorical
import numpy as np
import matplotlib.pyplot as plt

X, y = load_breast_cancer(return_X_y=True)
X = X.reshape(-1, 30, 1)
y = to_categorical(y.reshape(-1, 1))
# featurewiseな標準化
X = (X - np.mean(X, axis=0)) / np.std(X, axis=0)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)

def create_single_module(input_tensor, output_channel):
    x = Conv1D(output_channel, kernel_size=3)(input_tensor)
    x = BatchNormalization()(x)
    return Activation("relu")(x)

input = Input(shape=(30, 1)) # Brest-cancerは30次元
x = create_single_module(input, 8) # 30->28 dim
x = MaxPool1D(2)(x) # 28 -> 14dim
x = create_single_module(x, 16) # 14 -> 12
x = create_single_module(x, 16) # 12 -> 10
x = MaxPool1D(2)(x) # 10 -> 5
x = create_single_module(x, 32)
x = Flatten()(x)
x = Dense(2, activation="softmax")(x)

model = Model(input, x)
model.compile(Adam(lr=1e-3), loss="binary_crossentropy", metrics=["acc"])
history = model.fit(X_train, y_train, batch_size=32, epochs=100, validation_data=(X_test, y_test)).history

max_val_acc = max(history["val_acc"])
plt.plot(np.arange(100)+1, history["val_acc"])
plt.ylim((0.9, 1))
plt.title(f"BrestCancer in CNN / max val_acc = {max_val_acc:.3}")
plt.show()

CNNを使った場合は最大精度が97.7%となりました。

多層パーセプトロンでもやってみる

通常よく出てくるのはこちらです。多層パーセプトロンはすぐオーバーフィッティングするのでL2正則化を入れながらやってみます。

from sklearn.datasets import load_breast_cancer
from sklearn.model_selection import train_test_split
from keras.layers import Dense, Input, Activation, BatchNormalization
from keras.models import Model
from keras.optimizers import Adam
from keras.regularizers import l2
from keras.utils import to_categorical
import numpy as np
import matplotlib.pyplot as plt

X, y = load_breast_cancer(return_X_y=True)
y = to_categorical(y.reshape(-1, 1))
# featurewiseな標準化
X = (X - np.mean(X, axis=0)) / np.std(X, axis=0)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)

def create_single_dnn_module(input_tensor, hidden_units, l2_param):
    x = Dense(hidden_units, kernel_regularizer=l2(l2_param))(input_tensor)
    x = BatchNormalization()(x)
    x = Activation("relu")(x)
    return x

input = Input(shape=(30,))
x = create_single_dnn_module(input, 25, 3e-2)
x = create_single_dnn_module(x, 20, 2e-2)
x = create_single_dnn_module(x, 12, 1.5e-2)
x = create_single_dnn_module(x, 8, 1e-2)
x = create_single_dnn_module(x, 4, 5e-3)
x = Dense(2, activation="softmax")(x)

model = Model(input, x)
model.compile(Adam(lr=1e-3), loss="binary_crossentropy", metrics=["acc"])
history = model.fit(X_train, y_train, batch_size=32, epochs=100, validation_data=(X_test, y_test)).history

max_val_acc = max(history["val_acc"])
plt.plot(np.arange(100)+1, history["val_acc"])
plt.ylim((0.9, 1))
plt.title(f"BrestCancer in DNN / max val_acc = {max_val_acc:.3}")
plt.show()

多層パーセプトロンの場合、最大精度が98.8%となりました。たまたま今回は多層パーセプトロンがうまくいきましたが、多層パーセプトロンは次元が多くなるとパラメーター数が爆発的に多くなるのでご注意ください。あとよくオーバーフィッティングします。

それサポートベクトルマシンでよくない?

というディープラーニングあるあるなツッコミがきそうなので、サポートベクトルマシン(SVM)でどれぐらいの精度が出るか見てみます。

SVMにはγとCという2つのハイパーパラメータがあるので、SklearnでざっくりGridSearchしてみます。

from sklearn.datasets import load_breast_cancer
from sklearn.model_selection import GridSearchCV
from sklearn.svm import SVC
import numpy as np

X, y = load_breast_cancer(return_X_y=True)
# featurewiseな標準化
X = (X - np.mean(X, axis=0)) / np.std(X, axis=0)

# グリッドサーチのパラメーター
params = [{"kernel":["poly"], "degree":[2,3,4,5,6],"gamma":[1e-4, 1e-2, 1],
           "C":[1e-2, 1, 100, 10000]}]
clf = GridSearchCV(SVC(), params, scoring="accuracy")
clf.fit(X, y)

for mean, std, params in zip(clf.cv_results_['mean_test_score'],
                            clf.cv_results_['std_test_score'], clf.cv_results_['params']):
    print("%0.3f (+/-%0.03f) for %r"
            % (mean, std * 2, params))

結果はこちら

0.627 (+/-0.003) for {'C': 0.01, 'gamma': 0.0001, 'kernel': 'rbf'}
0.627 (+/-0.003) for {'C': 0.01, 'gamma': 0.01, 'kernel': 'rbf'}
0.627 (+/-0.003) for {'C': 0.01, 'gamma': 1, 'kernel': 'rbf'}
0.745 (+/-0.046) for {'C': 1, 'gamma': 0.0001, 'kernel': 'rbf'}
0.965 (+/-0.020) for {'C': 1, 'gamma': 0.01, 'kernel': 'rbf'}
0.631 (+/-0.007) for {'C': 1, 'gamma': 1, 'kernel': 'rbf'}
0.967 (+/-0.022) for {'C': 100, 'gamma': 0.0001, 'kernel': 'rbf'}
0.968 (+/-0.009) for {'C': 100, 'gamma': 0.01, 'kernel': 'rbf'}
0.631 (+/-0.007) for {'C': 100, 'gamma': 1, 'kernel': 'rbf'}
0.967 (+/-0.010) for {'C': 10000, 'gamma': 0.0001, 'kernel': 'rbf'}
0.956 (+/-0.013) for {'C': 10000, 'gamma': 0.01, 'kernel': 'rbf'}
0.631 (+/-0.007) for {'C': 10000, 'gamma': 1, 'kernel': 'rbf'}

SVMでは97%ぐらいの精度が出るようです(カーネルがpolyの場合は6次元まで調べてみましたが95%ぐらいでした)。つまり、BrestCancerデータセットの場合、CNNを使っても多層パーセプトロンを使っても、SVMの精度は越えるということがわかります。いくらカーネルトリックで非線形な処理しているといっても、ニューラルネットワークでは隠れ層を突っ込めば表現できる非線形さが際限なく増えますからね。

ただ、(Sklearnの)SVMには決定的な欠陥があります。それはGPUが使えないということです。今はGoogle Colabを使えば誰しも無料でGPU訓練ができるので、GPUが使えないという欠陥はかなり大きいです。この差が気になるのなら、例えばMNISTをRBFカーネルのSVMを使ってCPUで訓練させてみてください。MNISTクラスでも物凄い時間がかかりますので。

まとめ

BrestCancerデータセットを通じて、CNNでも構造化データに対してSVMを越える程度の精度が出ることを確かめられました。CNNが万能というわけではありませんが、多層パーセプトロンだけではなくCNNも構造化データに対する1つの選択肢として検討してみてくださいね。



Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内

技術書コーナー

【新刊】インフィニティNumPy――配列の初期化から、ゲームの戦闘、静止画や動画作成までの221問

「本当の実装力を身につける」ための221本ノック――
機械学習(ML)で避けて通れない数値計算ライブラリ・NumPyを、自在に活用できるようになろう。「できる」ための体系的な理解を目指します。基礎から丁寧に解説し、ディープラーニング(DL)の難しいモデルで遭遇する、NumPyの黒魔術もカバー。初心者から経験者・上級者まで楽しめる一冊です。問題を解き終わったとき、MLやDLなどの発展分野にスムーズに入っていけるでしょう。

本書の大きな特徴として、Pythonの本でありがちな「NumPyとML・DLの結合を外した」点があります。NumPyを理解するのに、MLまで理解するのは負担が大きいです。本書ではあえてこれらの内容を書いていません。行列やテンソルの理解に役立つ「従来の画像処理」をNumPyベースで深く解説・実装していきます。

しかし、問題の多くは、DLの実装で頻出の関数・処理を重点的に取り上げています。経験者なら思わず「あー」となるでしょう。関数丸暗記では自分で実装できません。「覚える関数は最小限、できる内容は無限大」の世界をぜひ体験してみてください。画像編集ソフトの処理をNumPyベースで実装する楽しさがわかるでしょう。※紙の本は電子版の特典つき

モザイク除去から学ぶ 最先端のディープラーニング

「誰もが夢見るモザイク除去」を起点として、機械学習・ディープラーニングの基本をはじめ、GAN(敵対的生成ネットワーク)の基本や発展型、ICCV, CVPR, ECCVといった国際学会の最新論文をカバーしていく本です。
ディープラーニングの研究は発展が目覚ましく、特にGANの発展型は市販の本でほとんどカバーされていない内容です。英語の原著論文を著者がコードに落とし込み、実装を踏まえながら丁寧に解説していきます。
また、本コードは全てTensorFlow2.0(Keras)に対応し、Googleの開発した新しい機械学習向け計算デバイス・TPU(Tensor Processing Unit)をフル活用しています。Google Colaboratoryを用いた環境構築不要の演習問題もあるため、読者自ら手を動かしながら理解を深めていくことができます。

AI、機械学習、ディープラーニングの最新事情、奥深いGANの世界を知りたい方にとってぜひ手にとっていただきたい一冊となっています。持ち運びに便利な電子書籍のDLコードが付属しています。

「おもしろ同人誌バザールオンライン」で紹介されました!(14:03~) https://youtu.be/gaXkTj7T79Y?t=843

まとめURL:https://github.com/koshian2/MosaicDeeplearningBook
A4 全195ページ、カラー12ページ / 2020年3月発行

Shikoan's ML Blog -Vol.1/2-

累計100万PV超の人気ブログが待望の電子化! このブログが電子書籍になって読みやすくなりました!

・1章完結のオムニバス形式
・機械学習の基本からマニアックなネタまで
・どこから読んでもOK
・何巻から読んでもOK

・短いものは2ページ、長いものは20ページ超のものも…
・通勤・通学の短い時間でもすぐ読める!
・読むのに便利な「しおり」機能つき

・全巻はA5サイズでたっぷりの「200ページオーバー」
・1冊にたっぷり30本収録。1本あたり18.3円の圧倒的コストパフォーマンス!
・文庫本感覚でお楽しみください

北海道の駅巡りコーナー

日高本線 車なし全駅巡り

ローカル線や秘境駅、マニアックな駅に興味のある方におすすめ! 2021年に大半区間が廃線になる、北海道の日高本線の全区間・全29駅(苫小牧~様似)を記録した本です。マイカーを使わずに、公共交通機関(バス)と徒歩のみで全駅訪問を行いました。日高本線が延伸する計画のあった、襟裳岬まで様似から足を伸ばしています。代行バスと路線バスの織り成す極限の時刻表ゲームと、絶海の太平洋と馬に囲まれた日高路、日高の隠れたグルメを是非たっぷり堪能してください。A4・フルカラー・192ページのたっぷりのボリュームで、あなたも旅行気分を漫喫できること待ったなし!

見どころ:日高本線被災区間(大狩部、慶能舞川橋梁、清畠~豊郷) / 牧場に囲まれた絵笛駅 / 窓口のあっただるま駅・荻伏駅 / 汐見の戦争遺跡のトーチカ / 新冠温泉、三石温泉 / 襟裳岬

A4 全192ページフルカラー / 2020年11月発行


Pocket
LINEで送る

Tags:,

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です