こしあん
2018-12-14

One-Hotエンコーディング(ダミー変数)ならPandasのget_dummies()を使おう

特徴量処理(特徴量エンジニアリング)でよく使う処理として、「A,B,C」「1,2,3」といったカテゴリー変数をOne-Hotベクトル化するというのがあります。SkelarnのOneHotEncoderでもできますが、Pandasのget_dummies()を使うと、もっと統合的にすることができます。それを見ていきましょう。

One-Hotエンコーディングとは

One-Hot、つまり1つだけ1でそれ以外は0のベクトル(行列)を指します。経済学や統計学では「ダミー変数」と呼ばれることもあります。One-Hotエンコーディングもダミー変数もやっていることはほとんど同じで、カテゴリー変数を0,1の変数に変換して、学習器が学習しやすい形に変換しているということです。

例えば次のようなクラス変数があったとしましょう。0,1,2はクラス0に属する、クラス1に属する、…を表します。

>>> X=np.array([0,1,2,1,0])
>>> X
array([0, 1, 2, 1, 0])

実はこのXのまま学習させるのはあまり賢くありません。なぜなら、クラスの数の間と潜在的な特徴量の間に線形な関係が保証できないからです。例えば、花の大きさを予測するものとしましょう。クラス0はものすごく花が大きいですが、クラス1は比較的花が小さく、クラス2は中くらいだとしましょう。このような0はとても大きい、1は小さい、2は中くらいというような関係を満たすようなモデルを最適化するというのはかなり難しいです(線形回帰ベースではなく、ランダムフォレストベースならある程度はいけるはずですが、それでもクラス数が多くなると厳しくなります)。

学習器が理解させやすい形とは次のような変換をすることです。

>>> np.eye(3)[X]
array([[1., 0., 0.],
       [0., 1., 0.],
       [0., 0., 1.],
       [0., 1., 0.],
       [1., 0., 0.]])

これなら、「大きい花のクラスかどうか」「小さい花のクラスかどうか」という推定をすることになるので、学習器はかなり簡単に最適化をすることができます。Kerasでto_categorical()の関数を使って無意識にやっているのはまさにこれです。自然言語処理ではOne-Hotベクトルを非常によく使います。

ただ、Numpyこの書き方は0,1,2みたいな連続的な値ではなく、0,3,5みたいな飛び飛びの値になると面倒になるので、SklearnのOneHotEncoderやPandasのダミー変数生成関数(get_dummies)のほうが手っ取り早くなります。まずはSklearnのOneHotEncoderを見て、その後にPandasのダミー変数生成を見てみましょう。

SklearnのOneHotEncoder

SklearnにはOneHotエンコーディング(ダミー変数)生成用にOneHotEncoderという便利な関数があります。

これはなかなか便利な関数で、クラス変数の値が飛び飛びになっても全体から判断して勝手に詰めてくれます。例を見てみましょう。

import numpy as np
from sklearn.preprocessing import OneHotEncoder

X = np.array([0,2,5,2,0]).reshape(-1,1)
print(X)
enc = OneHotEncoder(categories="auto", sparse=False, dtype=np.float32)
onehot_X = enc.fit_transform(X)
print(onehot_X)
[[0]
 [2]
 [5]
 [2]
 [0]]
[[1. 0. 0.]
 [0. 1. 0.]
 [0. 0. 1.]
 [0. 1. 0.]
 [1. 0. 0.]]

このように、0,2,5という値ですが3列に詰めてくれました。普通の分類器と同じように、fit/transformでできるのが便利ですね。ただ、Xの値がランク2(reshape(-1,1))にしないといけないという縛りがあって、ベクトルのまま放り込むと怒られるので注意してください。

sparse=Falseのオプションは、デフォルトで出力が疎行列になっているためで、わかりやすいように密行列で出力させています。これはOne-Hotベクトル(行列)は普通のNumpy行列のような密行列として定義するととてもメモリを食うためです。メモリ食うのが嫌だったらsparse=True、つまり疎行列のままで出力してもいいと思います。「疎行列か密行列か」というのはPandasでも出てきますので頭の片隅に入れておいてください。

ちなみに、疎行列を任意のタイミングで密行列(普通のNumpy配列)に変換したかったら、.todense()を使いましょう。

X = np.array([0,2,5,2,0]).reshape(-1,1)
enc = OneHotEncoder(categories="auto", sparse=True, dtype=np.float32)
onehot_X_sparse = enc.fit_transform(X)
print(onehot_X_sparse)
onehot_X_dense = onehot_X_sparse.todense()
print(onehot_X_dense)

上が疎行列の出力で、下が密行列の出力です。

  (0, 0)        1.0
  (1, 1)        1.0
  (2, 2)        1.0
  (3, 1)        1.0
  (4, 0)        1.0
[[1. 0. 0.]
 [0. 1. 0.]
 [0. 0. 1.]
 [0. 1. 0.]
 [1. 0. 0.]]

データ構造的には、疎行列は0以外の値が入っている場所のインデックスと値を記録しているのでしょうね。One-Hotベクトルのようなスッカスカな配列にはメモリ効率が良いのだと思います。

やや脱線してしまいましたが、こんな便利なOneHotEncoderですが実はちょっと欠点があります。それはNanやInfがあるとエラーを吐くということです。

X = np.array([0,0,2,4,5,np.nan], dtype=np.float32).reshape(-1,1)
enc = OneHotEncoder(categories="auto", sparse=False, dtype=np.float32)
#onehot_X = enc.fit_transform(X) # ここでエラー

ValueError: Input contains NaN, infinity or a value too large for dtype(‘float32
‘).

Nanが入った配列に対してfit_transformをするとエラーになります。OneHotEncoderでは、fitさせた場合にない値を無視するオプションがありますが、それでもダメです。例えば最初に数値のみをfitさせて、最後にnanがある配列をtransformすると、

X = np.array([0,0,2,4,5,np.nan], dtype=np.float32).reshape(-1,1)
enc = OneHotEncoder(categories="auto", sparse=False, dtype=np.float32, handle_unknown="ignore")
enc.fit(X[:-1]) # これはうまくいく
#onehot_X = enc.transform(X) # Nanがあると問答無用でエラー

このようにNanを除外してfitさせ、他の値を無視するオプションをつけてもエラーになります。これは現時点:Sklearn0.20.0の仕様なのでそのうち変わるかもしれません。現にGitHubを見ると、OneHotEncoderではNanを無視したほうがいいんじゃないかというようなissueも立っています。

Nanの場合だけ見てきましたが、Infも同様にエラーになります。

ここらへんのNanやInfといった異常値の除去を含めてやってくれるのが、Pandasのget_dummies()です。次にそれを見ていきましょう。

Pandasのget_dummies()

本題のpandas.get_dummies()を見てみましょう。SklearnのOneHotEncoderではInfやNanといった値で詰まるという欠点があるという話をしました。ここを含めていい感じにやってくれるのがPandasのget_dummies()です。

import pandas as pd
import numpy as np

df = pd.DataFrame({'A': ['A', 'B', 'C', "B", "A"], 'B': [0,3,7,7,7],
                   'C': [1.0, 2.0, 1.0, np.nan, np.inf], "D":[0,1,2,3,4]})
print(pd.get_dummies(df, columns=["A", "B", "C"]))

これだけです。One-Hotベクトルするカラムを指定できます。出力は次のようになります。

   D  A_A  A_B  A_C  B_0  B_3  B_7  C_1.0  C_2.0  C_inf
0  0    1    0    0    1    0    0      1      0      0
1  1    0    1    0    0    1    0      0      1      0
2  2    0    0    1    0    0    1      1      0      0
3  3    0    1    0    0    0    1      0      0      0
4  4    1    0    0    0    0    1      0      0      1

このように、小数だろうが文字列だろうがいい感じにやってくれます。カラムに指定しなかった「D」のカラムは、数値のままですね。

Nanは除外されて全て0扱いになり、infはそのままカラムに登録されるようですね。infを除外してほしかったら、df.replace()でnanに置き換えておくといいでしょう。

また、これは疎行列として出力することもできます。「sparse=True」のオプションを入れましょう。

pd.get_dummies(df, columns=["A", "B", "C"], sparse=True)

これの出力はぱっと見変わらないですが、疎行列化によって内部でメモリ圧縮が行われているので、MemoryError(Pandasは大きめのデータ扱うと簡単にメモリエラーが出ます)が出たら疎行列にして出力するといいでしょう。

まとめ

SklearnのOneHotEncoderもいいけど、pandas.get_dummies()ってすごい便利だよ!

ということでした。ぜひ使いこなしてみてください。

Related Posts

TensorFlow/Kerasでネットワーク内でData Augmentationする方法... NumpyでData Augmentationするのが遅かったり、書くの面倒だったりすることありますよね。今回はNumpy(CPU)ではなく、ニューラルネットワーク側(GPU、TPU)でAugmetationをする方法を見ていきます。 こんなイメージ Numpy(CPU)でやる場合 Num...
KerasのCallbackを使って継承したImageDataGeneratorに値が渡せるか確かめ... Kerasで前処理の内容をエポックごとに変えたいというケースがたまにあります。これを実装するとなると、CallbackからGeneratorに値を渡すというコードになりますが、これが本当にできるかどうか確かめてみました。 想定する状況 例えば、前処理で正則化に関係するData Augmenta...
Chainerで画像の前処理やDataAugmentationをしたいときはDatasetMixin... Chainerにはデフォルトでランダムクロップや標準化といった、画像の前処理やDataAugmentation用の関数が用意されていません。別途のChainer CVというライブラリを使う方法もありますが、chainer.dataset.DatasetMixinを継承させて独自のデータ・セットを定...
OpenCVで画像を歪ませる方法 PythonでOpenCVを使い画像を歪ませる方法を考えます。アフィン変換というちょっと直感的に理解しにくいことをしますが、慣れればそこまで難しくはありません。ディープラーニングのData Augmentationにも使えます。 OpenCVでのアフィン変換のイメージ アフィン変換というと、ま...
keras_preprocessingを使ってお手軽に画像を回転させる方法... Data Augmentationで画像を回転させたいことがあります。画像の回転は一般に「アフィン変換」と呼ばれる操作で、OpenCVやPillowのライブラリを使えば簡単にできるのですが、Numpy配列に対して1から書くとかなりめんどいのです。Kerasが裏で使っているkeras_preproc...

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です