こしあん
2019-02-21

Scikit-learnのROC/AUCのy_predのスケールについて

Pocket
LINEで送る
Delicious にシェア

2.5k{icon} {views}



SklearnのROC曲線/AUCスコアのy_pred側のスケールは実は0~1でなくてもよかったという話。0~1以外の値を放り込んでもちゃんと計算できるか確かめてみました。

公式ドキュメントを読むと

SklearnにはAUC(Area under the curve)スコアを計算してくれる関数roc_auc_scoreというのがあります。公式ドキュメントを読むと、

sklearn.metrics.roc_auc_score(y_true, y_score, average=’macro’, sample_weight=None, max_fpr=None)

よくあるSklearnのmetricsのように(y_true, y_pred)の順で放り込めばいいですね。y_trueはだいたい0or1で正しい確率を放り込めばいいいのはわかりますが、y_predは必ずしも確率を放り込まなくてもいいようです。

y_true : array, shape = [n_samples] or [n_samples, n_classes]
True binary labels or binary label indicators.

y_score : array, shape = [n_samples] or [n_samples, n_classes]
Target scores, can either be probability estimates of the positive class, confidence values, or non-thresholded measure of decisions (as returned by “decision_function” on some classifiers). For binary y_true, y_score is supposed to be the score of the class with greater label.

とあるように、y_trueはバイナリーラベルか、0,1,2のようなラベルのインジケーターでなければいけないのですが、y_predはどこにも0~1のスケールでなければいけないとは書いていないのです。

それどころか、ここの部分「non-thresholded measure of decisions (as returned by “decision_function” on some classifiers)」という表記にあるように、スレッショルド(しきい値)を計算していない状態での何らかの値を放り込んで、そこからROC曲線を描いてAUCを求めるみたいなことができてしまいます。

y_trueもy_predも確率の場合のAUC

例えば二値分類の場合。何らかの分類器がy=1である確率を出力したとして、AUCを計算してみます。

import numpy as np
from sklearn.metrics import roc_auc_score

y_true = np.array([0., 1., 0., 1., 0.])
y_pred = np.array([0.2, 0.5, 0.3, 0.4, 0.1])
print(roc_auc_score(y_true, y_pred))

本当のラベルは、2,4番目のサンプルが1で、1,3,5番目のサンプルは0であることを示します。この場合は、「y_predが0.3より大きい」という条件でしきい値を引いてしまえば100%正しく分類できるので、AUCスコアは1となります。実際に計算すると、

1.0

このように1.0になりました。マルチクラスの場合も同様で、

import numpy as np
from sklearn.metrics import roc_auc_score

y_true = np.array([[0., 1.], [1., 0.], [0., 1.], [1., 0.], [0., 1.]])
y_pred = np.array([[0.2,0.8], [0.5,0.5], [0.3,0.7], [0.4,0.6], [0.1,0.9]])
print(roc_auc_score(y_true, y_pred, average=None))
# [1. 1.]

このようにクラスごとにAUCスコアは1になっています。デフォルトだとクラス間のreduceが入るので、average=Noneとしました。

y_predを確率としない場合

ここからが本題で、y_predのスケールが適当だった場合を考えます。例えばユークリッド距離だったりする場合です。

import numpy as np
from sklearn.metrics import roc_auc_score

y_true = np.array([0., 1., 0., 1., 0.])
y_pred = np.array([20, 50, 30, 40, 10])
print(roc_auc_score(y_true, y_pred))
# 1.0

このように、y_predが0~1のスケールでなくてもOKということが確認できてしまいました。y_predが30より大きいでしきい値を引いてしまえば完全に分割できますからね。マルチクラスの場合も同様にうまくいくのでしょうか。

import numpy as np
from sklearn.metrics import roc_auc_score

y_true = np.array([[0., 1.], [1., 0.], [0., 1.], [1., 0.], [0., 1.]])
y_pred = np.array([[20,10], [50,-30], [30,5], [40,-5], [10,20]])
print(roc_auc_score(y_true, y_pred, average=None))
# [1. 1.]

今度はy_predの1つ目の列と2つ目の列のスケールが異なる例です。これもうまくいきます。なぜなら1列目は同様に「30より大きい」、2列目は「-5より大きい」で完全に分割できるからです。

逆にちょっとAUCが下がってしまう例を見てみましょう。ノイズを混ぜてみます。

y_true = np.array([[0., 1.], [1., 0.], [0., 1.], [1., 0.], [0., 1.]])
y_pred = np.array([[45,-10], [50,-30], [30,5], [40,-5], [10,20]])
print(roc_auc_score(y_true, y_pred, average=None))
# [0.83333333 0.83333333]

y_predの1つ目を変えてみました。これだと1列目の「30より大きければ1」という条件に0(45)が混入し、2列目の「-5より大きければ1」という条件に1(-10)が混入しているため、AUCスコアは下がります。完全には分割することはできません。

まとめ

SklearnのROC曲線・AUCスコアでは、y_predのスケールを気にしなくてOKっぽい。わざわざスレッショルド求めるのめんどくさいっていうときに便利そうな機能なので積極的に使っていきたいです。



Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内

技術書コーナー

【新刊】インフィニティNumPy――配列の初期化から、ゲームの戦闘、静止画や動画作成までの221問

「本当の実装力を身につける」ための221本ノック――
機械学習(ML)で避けて通れない数値計算ライブラリ・NumPyを、自在に活用できるようになろう。「できる」ための体系的な理解を目指します。基礎から丁寧に解説し、ディープラーニング(DL)の難しいモデルで遭遇する、NumPyの黒魔術もカバー。初心者から経験者・上級者まで楽しめる一冊です。問題を解き終わったとき、MLやDLなどの発展分野にスムーズに入っていけるでしょう。

本書の大きな特徴として、Pythonの本でありがちな「NumPyとML・DLの結合を外した」点があります。NumPyを理解するのに、MLまで理解するのは負担が大きいです。本書ではあえてこれらの内容を書いていません。行列やテンソルの理解に役立つ「従来の画像処理」をNumPyベースで深く解説・実装していきます。

しかし、問題の多くは、DLの実装で頻出の関数・処理を重点的に取り上げています。経験者なら思わず「あー」となるでしょう。関数丸暗記では自分で実装できません。「覚える関数は最小限、できる内容は無限大」の世界をぜひ体験してみてください。画像編集ソフトの処理をNumPyベースで実装する楽しさがわかるでしょう。※紙の本は電子版の特典つき

モザイク除去から学ぶ 最先端のディープラーニング

「誰もが夢見るモザイク除去」を起点として、機械学習・ディープラーニングの基本をはじめ、GAN(敵対的生成ネットワーク)の基本や発展型、ICCV, CVPR, ECCVといった国際学会の最新論文をカバーしていく本です。
ディープラーニングの研究は発展が目覚ましく、特にGANの発展型は市販の本でほとんどカバーされていない内容です。英語の原著論文を著者がコードに落とし込み、実装を踏まえながら丁寧に解説していきます。
また、本コードは全てTensorFlow2.0(Keras)に対応し、Googleの開発した新しい機械学習向け計算デバイス・TPU(Tensor Processing Unit)をフル活用しています。Google Colaboratoryを用いた環境構築不要の演習問題もあるため、読者自ら手を動かしながら理解を深めていくことができます。

AI、機械学習、ディープラーニングの最新事情、奥深いGANの世界を知りたい方にとってぜひ手にとっていただきたい一冊となっています。持ち運びに便利な電子書籍のDLコードが付属しています。

「おもしろ同人誌バザールオンライン」で紹介されました!(14:03~) https://youtu.be/gaXkTj7T79Y?t=843

まとめURL:https://github.com/koshian2/MosaicDeeplearningBook
A4 全195ページ、カラー12ページ / 2020年3月発行

Shikoan's ML Blog -Vol.1/2-

累計100万PV超の人気ブログが待望の電子化! このブログが電子書籍になって読みやすくなりました!

・1章完結のオムニバス形式
・機械学習の基本からマニアックなネタまで
・どこから読んでもOK
・何巻から読んでもOK

・短いものは2ページ、長いものは20ページ超のものも…
・通勤・通学の短い時間でもすぐ読める!
・読むのに便利な「しおり」機能つき

・全巻はA5サイズでたっぷりの「200ページオーバー」
・1冊にたっぷり30本収録。1本あたり18.3円の圧倒的コストパフォーマンス!
・文庫本感覚でお楽しみください

北海道の駅巡りコーナー

日高本線 車なし全駅巡り

ローカル線や秘境駅、マニアックな駅に興味のある方におすすめ! 2021年に大半区間が廃線になる、北海道の日高本線の全区間・全29駅(苫小牧~様似)を記録した本です。マイカーを使わずに、公共交通機関(バス)と徒歩のみで全駅訪問を行いました。日高本線が延伸する計画のあった、襟裳岬まで様似から足を伸ばしています。代行バスと路線バスの織り成す極限の時刻表ゲームと、絶海の太平洋と馬に囲まれた日高路、日高の隠れたグルメを是非たっぷり堪能してください。A4・フルカラー・192ページのたっぷりのボリュームで、あなたも旅行気分を漫喫できること待ったなし!

見どころ:日高本線被災区間(大狩部、慶能舞川橋梁、清畠~豊郷) / 牧場に囲まれた絵笛駅 / 窓口のあっただるま駅・荻伏駅 / 汐見の戦争遺跡のトーチカ / 新冠温泉、三石温泉 / 襟裳岬

A4 全192ページフルカラー / 2020年11月発行


Pocket
LINEで送る
Delicious にシェア

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です