こしあん
2019-07-24

tf.tensordotで行列積を表現するための設定

Pocket
LINEで送る


TensorFlowのtensordotという関数はとても強力で、テンソルに対する行列積に対する計算をだいたい表現できます。しかし、軸の設定がいまいちよくわからなかったので、確かめてみました。

2×2行列同士の積の場合(Numpy)

まず単純に2×2行列同士の(ドット)積を考えます。まずはNumpyから。

import numpy as np

a = np.arange(4).reshape(2, 2) + 3
b = np.arange(4).reshape(2, 2)
print("a", a)
print("b", b)    
print("np.dot(a,b)", np.dot(a, b))

答えは次のようになります。

a [[3 4]
 [5 6]]
b [[0 1]
 [2 3]]
np.dot(a,b) [[ 8 15]
 [12 23]]

これは行列の積の定義にならって計算したものです。次のような計算が行われています。

  • 8 = 3×0 + 4×2
  • 15 = 3×1 + 4×3
  • 12 = 5×0 + 6×2
  • 23 = 5×1 + 6×3

2×2行列の積の場合(tensordot)

同じ計算をtf.tensordotで表現すると次のようになります。

import tensorflow as tf
import keras.backend as K

a = np.arange(4).reshape(2, 2) + 3
b = np.arange(4).reshape(2, 2)
ta, tb = K.variable(a), K.variable(b)
result = tf.tensordot(ta, tb, axes=[1, 0])
print(K.eval(result))
[[ 8. 15.]
 [12. 23.]]

ポイントは、tensordotのaxesのです。それぞれ、掛ける(reduceする)軸と考えます。ta側がaxes=1, tb側がaxes=0で掛けるということですね。行列の積は横×縦で計算するので、行列の横は1番目の軸、縦は0番目の軸であるということを考えるとしっくりきます。

もっと複雑なテンソルの積の場合

より一般的に、「複雑なテンソル×行列」を計算したい場合です。例えば、ある軸に対してのみ行列積を適用して、それを他の軸に対しても直感的にはforループみたいな感じでやってほしいという例です。テンソル×テンソルよりかはあると思います。

Numpy

まずはNumpyで試してみます。掛けられる側を4階テンソル、掛ける側を行列(2階テンソル)とします。

a = np.arange(4).reshape(2, 2) + 3
a = np.broadcast_to(a, (4, 3, 2, 2))
b = np.arange(4).reshape(2, 2)    
print(np.dot(a, b))

先程の例の2×2行列を4×3回コピーしたものと同じです。np.dotでの計算結果は先程の2×2行列の積をひたすらコピーしたものとなります。

[[[[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]]


 [[[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]]


 [[[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]]


 [[[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]]]

tensordotの場合

こちらは先程の2×2行列のと同じように考えればよいです。4階テンソル側の積を取る軸は1番目ではなく、3番目(どっちにしても最後の軸)となるので、axesは「3と0」になります。

    a = np.arange(4).reshape(2, 2) + 3
    a = np.broadcast_to(a, (4, 3, 2, 2))
    b = np.arange(4).reshape(2, 2)    
    ta, tb = K.variable(a), K.variable(b)
    result = tf.tensordot(ta, tb, axes=[3, 0])

出力は先程のNumpyの場合と一緒です。

まとめ

2×2行列の積ができてしまえば、同じ発想でテンソル同士の積もいけそう。2×2行列の積でのaxesの指定の仕方は、左が1で右が0。これは行列積の定義を振りかえれば明らかということでした。

Related Posts

KerasのCallbackを使って継承したImageDataGeneratorに値が渡せるか確かめ... Kerasで前処理の内容をエポックごとに変えたいというケースがたまにあります。これを実装するとなると、CallbackからGeneratorに値を渡すというコードになりますが、これが本当にできるかどうか確かめてみました。 想定する状況 例えば、前処理で正則化に関係するData Augmenta...
Kerasで損失関数に複数の変数を渡す方法... Kerasで少し複雑なモデルを訓練させるときに、損失関数にy_true, y_pred以外の値を渡したいときがあります。クラスのインスタンス変数などでキャッシュさせることなく、ダイレクトに損失関数に複数の値を渡す方法を紹介します。 元ネタ:Passing additional arguments...
TensorFlow/Kerasでの分散共分散行列・相関行列、テンソル主成分分析の実装... TensorFlowでは分散共分散行列や主成分分析用の関数が用意されていません。訓練を一切せずにTensorFlowとKeras関数だけを使って、分散共分散行列、相関行列、主成分分析を実装します。最終的にはカテゴリー別のテンソル主成分分析を作れるようにします。 何らかの論文でこれらのテクニックを...
TensorFlow2.0+TPUでData AugmentationしながらCIFAR-10... TensorFlow2.0+TPUでData AugmentationしながらCIFAR-10を分類するサンプルです。Data Augmentationはtf.dataでやるのがポイントです。 TensorFlowを2.Xに上げる まずは、ランタイム切り替えで「TPU」を選択しましょう。無料で...
TPUで学習率減衰させる方法 TPUで学習率減衰したいが、TensorFlowのオプティマイザーを使うべきか、tf.kerasのオプティマイザーを使うべきか、あるいはKerasのオプティマイザーを使うべきか非常にややこしいことがあります。TPUで学習率を減衰させる方法を再現しました。 結論から TPU環境でtf.keras...
Pocket
Delicious にシェア

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です