こしあん
2018-12-14

One-Hotエンコーディング(ダミー変数)ならPandasのget_dummies()を使おう

Pocket
LINEで送る
Delicious にシェア

25.5k{icon} {views}


特徴量処理(特徴量エンジニアリング)でよく使う処理として、「A,B,C」「1,2,3」といったカテゴリー変数をOne-Hotベクトル化するというのがあります。SkelarnのOneHotEncoderでもできますが、Pandasのget_dummies()を使うと、もっと統合的にすることができます。それを見ていきましょう。

One-Hotエンコーディングとは

One-Hot、つまり1つだけ1でそれ以外は0のベクトル(行列)を指します。経済学や統計学では「ダミー変数」と呼ばれることもあります。One-Hotエンコーディングもダミー変数もやっていることはほとんど同じで、カテゴリー変数を0,1の変数に変換して、学習器が学習しやすい形に変換しているということです。

例えば次のようなクラス変数があったとしましょう。0,1,2はクラス0に属する、クラス1に属する、…を表します。

>>> X=np.array([0,1,2,1,0])
>>> X
array([0, 1, 2, 1, 0])

実はこのXのまま学習させるのはあまり賢くありません。なぜなら、クラスの数の間と潜在的な特徴量の間に線形な関係が保証できないからです。例えば、花の大きさを予測するものとしましょう。クラス0はものすごく花が大きいですが、クラス1は比較的花が小さく、クラス2は中くらいだとしましょう。このような0はとても大きい、1は小さい、2は中くらいというような関係を満たすようなモデルを最適化するというのはかなり難しいです(線形回帰ベースではなく、ランダムフォレストベースならある程度はいけるはずですが、それでもクラス数が多くなると厳しくなります)。

学習器が理解させやすい形とは次のような変換をすることです。

>>> np.eye(3)[X]
array([[1., 0., 0.],
       [0., 1., 0.],
       [0., 0., 1.],
       [0., 1., 0.],
       [1., 0., 0.]])

これなら、「大きい花のクラスかどうか」「小さい花のクラスかどうか」という推定をすることになるので、学習器はかなり簡単に最適化をすることができます。Kerasでto_categorical()の関数を使って無意識にやっているのはまさにこれです。自然言語処理ではOne-Hotベクトルを非常によく使います。

ただ、Numpyこの書き方は0,1,2みたいな連続的な値ではなく、0,3,5みたいな飛び飛びの値になると面倒になるので、SklearnのOneHotEncoderやPandasのダミー変数生成関数(get_dummies)のほうが手っ取り早くなります。まずはSklearnのOneHotEncoderを見て、その後にPandasのダミー変数生成を見てみましょう。

SklearnのOneHotEncoder

SklearnにはOneHotエンコーディング(ダミー変数)生成用にOneHotEncoderという便利な関数があります。

これはなかなか便利な関数で、クラス変数の値が飛び飛びになっても全体から判断して勝手に詰めてくれます。例を見てみましょう。

import numpy as np
from sklearn.preprocessing import OneHotEncoder

X = np.array([0,2,5,2,0]).reshape(-1,1)
print(X)
enc = OneHotEncoder(categories="auto", sparse=False, dtype=np.float32)
onehot_X = enc.fit_transform(X)
print(onehot_X)
[[0]
 [2]
 [5]
 [2]
 [0]]
[[1. 0. 0.]
 [0. 1. 0.]
 [0. 0. 1.]
 [0. 1. 0.]
 [1. 0. 0.]]

このように、0,2,5という値ですが3列に詰めてくれました。普通の分類器と同じように、fit/transformでできるのが便利ですね。ただ、Xの値がランク2(reshape(-1,1))にしないといけないという縛りがあって、ベクトルのまま放り込むと怒られるので注意してください。

sparse=Falseのオプションは、デフォルトで出力が疎行列になっているためで、わかりやすいように密行列で出力させています。これはOne-Hotベクトル(行列)は普通のNumpy行列のような密行列として定義するととてもメモリを食うためです。メモリ食うのが嫌だったらsparse=True、つまり疎行列のままで出力してもいいと思います。「疎行列か密行列か」というのはPandasでも出てきますので頭の片隅に入れておいてください。

ちなみに、疎行列を任意のタイミングで密行列(普通のNumpy配列)に変換したかったら、.todense()を使いましょう。

X = np.array([0,2,5,2,0]).reshape(-1,1)
enc = OneHotEncoder(categories="auto", sparse=True, dtype=np.float32)
onehot_X_sparse = enc.fit_transform(X)
print(onehot_X_sparse)
onehot_X_dense = onehot_X_sparse.todense()
print(onehot_X_dense)

上が疎行列の出力で、下が密行列の出力です。

  (0, 0)        1.0
  (1, 1)        1.0
  (2, 2)        1.0
  (3, 1)        1.0
  (4, 0)        1.0
[[1. 0. 0.]
 [0. 1. 0.]
 [0. 0. 1.]
 [0. 1. 0.]
 [1. 0. 0.]]

データ構造的には、疎行列は0以外の値が入っている場所のインデックスと値を記録しているのでしょうね。One-Hotベクトルのようなスッカスカな配列にはメモリ効率が良いのだと思います。

やや脱線してしまいましたが、こんな便利なOneHotEncoderですが実はちょっと欠点があります。それはNanやInfがあるとエラーを吐くということです。

X = np.array([0,0,2,4,5,np.nan], dtype=np.float32).reshape(-1,1)
enc = OneHotEncoder(categories="auto", sparse=False, dtype=np.float32)
#onehot_X = enc.fit_transform(X) # ここでエラー

ValueError: Input contains NaN, infinity or a value too large for dtype(‘float32
‘).

Nanが入った配列に対してfit_transformをするとエラーになります。OneHotEncoderでは、fitさせた場合にない値を無視するオプションがありますが、それでもダメです。例えば最初に数値のみをfitさせて、最後にnanがある配列をtransformすると、

X = np.array([0,0,2,4,5,np.nan], dtype=np.float32).reshape(-1,1)
enc = OneHotEncoder(categories="auto", sparse=False, dtype=np.float32, handle_unknown="ignore")
enc.fit(X[:-1]) # これはうまくいく
#onehot_X = enc.transform(X) # Nanがあると問答無用でエラー

このようにNanを除外してfitさせ、他の値を無視するオプションをつけてもエラーになります。これは現時点:Sklearn0.20.0の仕様なのでそのうち変わるかもしれません。現にGitHubを見ると、OneHotEncoderではNanを無視したほうがいいんじゃないかというようなissueも立っています。

Nanの場合だけ見てきましたが、Infも同様にエラーになります。

ここらへんのNanやInfといった異常値の除去を含めてやってくれるのが、Pandasのget_dummies()です。次にそれを見ていきましょう。

Pandasのget_dummies()

本題のpandas.get_dummies()を見てみましょう。SklearnのOneHotEncoderではInfやNanといった値で詰まるという欠点があるという話をしました。ここを含めていい感じにやってくれるのがPandasのget_dummies()です。

import pandas as pd
import numpy as np

df = pd.DataFrame({'A': ['A', 'B', 'C', "B", "A"], 'B': [0,3,7,7,7],
                   'C': [1.0, 2.0, 1.0, np.nan, np.inf], "D":[0,1,2,3,4]})
print(pd.get_dummies(df, columns=["A", "B", "C"]))

これだけです。One-Hotベクトルするカラムを指定できます。出力は次のようになります。

   D  A_A  A_B  A_C  B_0  B_3  B_7  C_1.0  C_2.0  C_inf
0  0    1    0    0    1    0    0      1      0      0
1  1    0    1    0    0    1    0      0      1      0
2  2    0    0    1    0    0    1      1      0      0
3  3    0    1    0    0    0    1      0      0      0
4  4    1    0    0    0    0    1      0      0      1

このように、小数だろうが文字列だろうがいい感じにやってくれます。カラムに指定しなかった「D」のカラムは、数値のままですね。

Nanは除外されて全て0扱いになり、infはそのままカラムに登録されるようですね。infを除外してほしかったら、df.replace()でnanに置き換えておくといいでしょう。

また、これは疎行列として出力することもできます。「sparse=True」のオプションを入れましょう。

pd.get_dummies(df, columns=["A", "B", "C"], sparse=True)

これの出力はぱっと見変わらないですが、疎行列化によって内部でメモリ圧縮が行われているので、MemoryError(Pandasは大きめのデータ扱うと簡単にメモリエラーが出ます)が出たら疎行列にして出力するといいでしょう。

まとめ

SklearnのOneHotEncoderもいいけど、pandas.get_dummies()ってすごい便利だよ!

ということでした。ぜひ使いこなしてみてください。



Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内

技術書コーナー

【新刊】インフィニティNumPy――配列の初期化から、ゲームの戦闘、静止画や動画作成までの221問

「本当の実装力を身につける」ための221本ノック――
機械学習(ML)で避けて通れない数値計算ライブラリ・NumPyを、自在に活用できるようになろう。「できる」ための体系的な理解を目指します。基礎から丁寧に解説し、ディープラーニング(DL)の難しいモデルで遭遇する、NumPyの黒魔術もカバー。初心者から経験者・上級者まで楽しめる一冊です。問題を解き終わったとき、MLやDLなどの発展分野にスムーズに入っていけるでしょう。

本書の大きな特徴として、Pythonの本でありがちな「NumPyとML・DLの結合を外した」点があります。NumPyを理解するのに、MLまで理解するのは負担が大きいです。本書ではあえてこれらの内容を書いていません。行列やテンソルの理解に役立つ「従来の画像処理」をNumPyベースで深く解説・実装していきます。

しかし、問題の多くは、DLの実装で頻出の関数・処理を重点的に取り上げています。経験者なら思わず「あー」となるでしょう。関数丸暗記では自分で実装できません。「覚える関数は最小限、できる内容は無限大」の世界をぜひ体験してみてください。画像編集ソフトの処理をNumPyベースで実装する楽しさがわかるでしょう。※紙の本は電子版の特典つき

モザイク除去から学ぶ 最先端のディープラーニング

「誰もが夢見るモザイク除去」を起点として、機械学習・ディープラーニングの基本をはじめ、GAN(敵対的生成ネットワーク)の基本や発展型、ICCV, CVPR, ECCVといった国際学会の最新論文をカバーしていく本です。
ディープラーニングの研究は発展が目覚ましく、特にGANの発展型は市販の本でほとんどカバーされていない内容です。英語の原著論文を著者がコードに落とし込み、実装を踏まえながら丁寧に解説していきます。
また、本コードは全てTensorFlow2.0(Keras)に対応し、Googleの開発した新しい機械学習向け計算デバイス・TPU(Tensor Processing Unit)をフル活用しています。Google Colaboratoryを用いた環境構築不要の演習問題もあるため、読者自ら手を動かしながら理解を深めていくことができます。

AI、機械学習、ディープラーニングの最新事情、奥深いGANの世界を知りたい方にとってぜひ手にとっていただきたい一冊となっています。持ち運びに便利な電子書籍のDLコードが付属しています。

「おもしろ同人誌バザールオンライン」で紹介されました!(14:03~) https://youtu.be/gaXkTj7T79Y?t=843

まとめURL:https://github.com/koshian2/MosaicDeeplearningBook
A4 全195ページ、カラー12ページ / 2020年3月発行

Shikoan's ML Blog -Vol.1/2-

累計100万PV超の人気ブログが待望の電子化! このブログが電子書籍になって読みやすくなりました!

・1章完結のオムニバス形式
・機械学習の基本からマニアックなネタまで
・どこから読んでもOK
・何巻から読んでもOK

・短いものは2ページ、長いものは20ページ超のものも…
・通勤・通学の短い時間でもすぐ読める!
・読むのに便利な「しおり」機能つき

・全巻はA5サイズでたっぷりの「200ページオーバー」
・1冊にたっぷり30本収録。1本あたり18.3円の圧倒的コストパフォーマンス!
・文庫本感覚でお楽しみください

北海道の駅巡りコーナー

日高本線 車なし全駅巡り

ローカル線や秘境駅、マニアックな駅に興味のある方におすすめ! 2021年に大半区間が廃線になる、北海道の日高本線の全区間・全29駅(苫小牧~様似)を記録した本です。マイカーを使わずに、公共交通機関(バス)と徒歩のみで全駅訪問を行いました。日高本線が延伸する計画のあった、襟裳岬まで様似から足を伸ばしています。代行バスと路線バスの織り成す極限の時刻表ゲームと、絶海の太平洋と馬に囲まれた日高路、日高の隠れたグルメを是非たっぷり堪能してください。A4・フルカラー・192ページのたっぷりのボリュームで、あなたも旅行気分を漫喫できること待ったなし!

見どころ:日高本線被災区間(大狩部、慶能舞川橋梁、清畠~豊郷) / 牧場に囲まれた絵笛駅 / 窓口のあっただるま駅・荻伏駅 / 汐見の戦争遺跡のトーチカ / 新冠温泉、三石温泉 / 襟裳岬

A4 全192ページフルカラー / 2020年11月発行


Pocket
LINEで送る
Delicious にシェア

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です