TensorFlowでコサイン類似度を計算する方法
TensorFlowで損失関数や距離関数に「コサイン類似度」を使うことを考えます。Scikit-learnでは簡単に計算できますが、同様にTensorFlowでの行列演算でも計算できます。それを見ていきます。
目次
コサイン類似度
コサイン類似度は、ユークリッド距離と同様に距離関数として使われる評価指標です。距離関数が必要になる状況とはどういうことかというと、「k-Nearest Neighbor法」のような最近傍探索を行う場合に、「どのサンプルが最も近いか」を計算する指標として使います。
コサイン類似度の定義は次の通りです。a, bという2つのベクトルがあるとします。
$$\cos(\vec{a}, \vec{b})=\frac{\vec{a}\cdot \vec{b}}{|\vec{a}||\vec{b}|} $$
2つのベクトルの内積をそれぞれのノルムで割ります。これは見方を変えれば「ノルムが1になるようにa,bを標準化したベクトルどうしの内積」でもあります。
同時にこれは、a,bの次元が2なら平面上での2つのベクトルのなす角に対するコサインになりますので、コサイン類似度の取る値は-1~1になります。2つのベクトルが同一なら、なす角は0度なので、コサイン類似度は1。2つのベクトルが反対を向いていたら、なす角は180度なので、類似度は-1となります。直感的には相関係数とイメージが近いですね。
Scikit-learnでのコサイン類似度
さて、このコサイン類似度はScikit-learnでは簡単に計算できます。
from sklearn.metrics.pairwise import cosine_similarity
これでScikit-learn組み込みのコサイン類似度の関数を呼び出せます。例えばA,Bという2つの行列に対して、コサイン類似度を計算します。
import numpy as np
from sklearn.metrics.pairwise import cosine_similarity
A = np.array([[0.2,0.3],[0.0,0.0],[-0.4,0.7]])
B = np.array([[1.1,0.1],[-0.3,-0.4],[0.0,0.2]])
def sklearn_cos():
print(cosine_similarity(A,B))
#[[ 0.62775245 -0.99846035 0.83205029]
# [ 0. 0. 0. ]
# [-0.41549436 -0.39691115 0.86824314]]
これはA、Bの行の各要素(2次元ベクトル)に対して、行単位のコサイン類似度を計算したものです。
いま、この結果の3×3行列の対角成分を「ペア単位のコサイン類似度」と呼ぶことにします。このペア単位のコサイン類似度をNumpyで求め、次にTensorFlowで計算していきます。
ペア単位のコサイン類似度をNumpyで求める
コサイン類似度の定義から、Numpyでペア単位のコサイン類似度を書くと次のようになります。
def manual_cos():
dot = np.sum(A*B, axis=-1)
A_norm = np.linalg.norm(A, axis=-1)
B_norm = np.linalg.norm(B, axis=-1)
cos = dot / (A_norm*B_norm+1e-7)
print(cos)
# [0.62775229 0. 0.8682426 ]
式の定義に忠実に、ベクトルの内積を、ノルムで割っただけです。Sklearnの例と対角成分が一致しているのがわかります。
ペア単位のコサイン類似度をTensorFlowで求める
ではこれをTensorFlowで実装するとどうでしょうか?実は先程の「標準化したベクトルどうしの内積にほかならない」という性質を使います。TensorFlowにはベクトルや行列を指定した軸で標準化する関数があります(tf.nn.l2_normalize)。
import tensorflow as tf
import keras.backend as K
def tf_cos():
tA = K.variable(A)
tB = K.variable(B)
norm_A = tf.nn.l2_normalize(tA, axis=-1) # axisを指定すること
norm_B = tf.nn.l2_normalize(tB, axis=-1)
cos = tf.reduce_sum(norm_A*norm_B, axis=-1)
print(K.eval(cos))
# [0.6277525 0. 0.86824316]
内積と言いましたが、ここではtf.matmulやK.dotではなく、要素間の積を計算し和を取るという操作を行います。あくまで「ベクトル」の内積ですからね。
一部KerasのAPIを使っていますが、with session~とかやりたくないので値の表示のためのものです。
Sklearnと同じコサイン類似度をTensorFlowで求める
では「ペア単位」ではなく、Sklearnと同じような行列どうしのコサイン類似度を求めてみましょう。Pythonでxy座標上の2点間の距離をforループを使わずに計算する方法で紹介した、次元の追加+ブロードキャスティングを使った方法を使います。
def tf_full_cos():
tA = K.variable(A)
tB = K.variable(B)
norm_A = tf.nn.l2_normalize(tA, axis=-1) # axisを指定すること
norm_B = tf.nn.l2_normalize(tB, axis=-1)
norm_A_expand = tf.expand_dims(norm_A, axis=1)
norm_B_expand = tf.expand_dims(norm_B, axis=0)
cos = tf.reduce_sum(norm_A_expand*norm_B_expand, axis=-1)
print(K.eval(cos))
#[[ 0.6277525 -0.9984604 0.8320503 ]
# [ 0. 0. 0. ]
# [-0.41549438 -0.39691117 0.86824316]]
内部的には、norm_A_expand, norm_B_expandは3階テンソルになり、norm_A_expandは(3,1,2), norm_B_expandは(1,3,2)というshapeになります。あとは最後の軸を和でreduceすれば、3×3の行列で出てきますからね。
相関行列ならぬ「コサイン類似度行列」をTensorFlowで求める
先程はA,Bという2つの行列に対してコサイン類似度を計算しましたが、Aという1つの行列に対して1行目と1行目、1行目と2行目……というコサイン類似度を計算するとどうでしょうか? もしこれが相関係数なら相関行列となるので、「コサイン類似度行列」といったところでしょう。
def cosine_matrix():
tA = K.variable(A)
norm_A = tf.nn.l2_normalize(tA, axis=-1)
expand1 = tf.expand_dims(norm_A, axis=0)
expand2 = tf.expand_dims(norm_A, axis=1)
cos = tf.reduce_sum(expand1*expand2, axis=-1)
print(K.eval(cos))
#[[1.0000001 0. 0.44721362]
# [0. 0. 0. ]
# [0.44721362 0. 1. ]]
Aに0ベクトルが入っているので、対角成分が全て1になっていませんが、もしすべて0ベクトルでなければ相関行列と同様に対角成分が1となります。1行目3列目の成分と、3行目1列目の成分は、それぞれ1番目のサンプルと3番目のサンプルのコサイン類似度なので、相関行列と同様に対称行列となります。
これが何の意味があるかというと、Siamese Networkのような画像2つの同士の距離を学習していくケースで有効になります。事前に画像1と画像2のようなペアを列挙すると、組み合わせ爆発的にペアが増えて計算コスト的に効率が悪いのです。例えばもし、クラス1の画像が100枚、クラス2の画像が100枚あったとしたら、Positiveのペアは1クラスあたり100×99÷2=4950ケース、これが2クラス分で「9900ケース」。またNegativeなペアは同様に4950×2=9900ケース。累計で19800個のペアができることになります。
つまり、ペアの距離を学習させていく場合、ジェネレーターで生成する画像の組み合わせがN枚の画像に対して、Nの2乗のオーダーで増えていくことになります。100枚だったらまだ2万ケースとまだ常識的な範囲ですが、もしこれが1万枚になったら訓練するだけでも大変になります。
逆に、ジェネレーター側でペアを作らずに、ネットワークに与える画像はバッチ単位で何枚かを1つの入力で与え、カーネル法の要領で、損失関数でネットワークで内生的にペアを作り出すほうがまだ計算コストが良いです。こういった計算は行列がとても得意なので。このときにもし距離関数にコサイン類似度を使えば、コサイン類似度の行列が必要になります。厳密にはペアは「組み合わせ」なので、コサイン類似度の行列の三角行列から対角成分を取ったものを使います。
Siameseネットワークはまたこんどの機会に記事にしたいと思いますが、まあこういうのもあるんだなぐらいのイメージで考えておくと良いのではないでしょうか。
Shikoan's ML Blogの中の人が運営しているサークル「じゅ~しぃ~すくりぷと」の本のご案内
技術書コーナー
北海道の駅巡りコーナー