こしあん
2019-07-24

tf.tensordotで行列積を表現するための設定

Pocket
LINEで送る


TensorFlowのtensordotという関数はとても強力で、テンソルに対する行列積に対する計算をだいたい表現できます。しかし、軸の設定がいまいちよくわからなかったので、確かめてみました。

2×2行列同士の積の場合(Numpy)

まず単純に2×2行列同士の(ドット)積を考えます。まずはNumpyから。

import numpy as np

a = np.arange(4).reshape(2, 2) + 3
b = np.arange(4).reshape(2, 2)
print("a", a)
print("b", b)    
print("np.dot(a,b)", np.dot(a, b))

答えは次のようになります。

a [[3 4]
 [5 6]]
b [[0 1]
 [2 3]]
np.dot(a,b) [[ 8 15]
 [12 23]]

これは行列の積の定義にならって計算したものです。次のような計算が行われています。

  • 8 = 3×0 + 4×2
  • 15 = 3×1 + 4×3
  • 12 = 5×0 + 6×2
  • 23 = 5×1 + 6×3

2×2行列の積の場合(tensordot)

同じ計算をtf.tensordotで表現すると次のようになります。

import tensorflow as tf
import keras.backend as K

a = np.arange(4).reshape(2, 2) + 3
b = np.arange(4).reshape(2, 2)
ta, tb = K.variable(a), K.variable(b)
result = tf.tensordot(ta, tb, axes=[1, 0])
print(K.eval(result))
[[ 8. 15.]
 [12. 23.]]

ポイントは、tensordotのaxesのです。それぞれ、掛ける(reduceする)軸と考えます。ta側がaxes=1, tb側がaxes=0で掛けるということですね。行列の積は横×縦で計算するので、行列の横は1番目の軸、縦は0番目の軸であるということを考えるとしっくりきます。

もっと複雑なテンソルの積の場合

より一般的に、「複雑なテンソル×行列」を計算したい場合です。例えば、ある軸に対してのみ行列積を適用して、それを他の軸に対しても直感的にはforループみたいな感じでやってほしいという例です。テンソル×テンソルよりかはあると思います。

Numpy

まずはNumpyで試してみます。掛けられる側を4階テンソル、掛ける側を行列(2階テンソル)とします。

a = np.arange(4).reshape(2, 2) + 3
a = np.broadcast_to(a, (4, 3, 2, 2))
b = np.arange(4).reshape(2, 2)    
print(np.dot(a, b))

先程の例の2×2行列を4×3回コピーしたものと同じです。np.dotでの計算結果は先程の2×2行列の積をひたすらコピーしたものとなります。

[[[[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]]


 [[[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]]


 [[[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]]


 [[[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]

  [[ 8 15]
   [12 23]]]]

tensordotの場合

こちらは先程の2×2行列のと同じように考えればよいです。4階テンソル側の積を取る軸は1番目ではなく、3番目(どっちにしても最後の軸)となるので、axesは「3と0」になります。

    a = np.arange(4).reshape(2, 2) + 3
    a = np.broadcast_to(a, (4, 3, 2, 2))
    b = np.arange(4).reshape(2, 2)    
    ta, tb = K.variable(a), K.variable(b)
    result = tf.tensordot(ta, tb, axes=[3, 0])

出力は先程のNumpyの場合と一緒です。

まとめ

2×2行列の積ができてしまえば、同じ発想でテンソル同士の積もいけそう。2×2行列の積でのaxesの指定の仕方は、左が1で右が0。これは行列積の定義を振りかえれば明らかということでした。

Related Posts

画像のダウンサンプリングとPSNRの測定... U-Netでどこまでの深さが効いているのかを考えるために、画像をダウンサンプリングし、アップサンプリングするという処理を行いPSNRを見ていきます。その結果、PSNRが15~20程度だと、U-Netの深い層が効かないかもしれないという状況を確認することができました。 きかっけ・考え方 U-Ne...
TPUで学習率減衰させる方法 TPUで学習率減衰したいが、TensorFlowのオプティマイザーを使うべきか、tf.kerasのオプティマイザーを使うべきか、あるいはKerasのオプティマイザーを使うべきか非常にややこしいことがあります。TPUで学習率を減衰させる方法を再現しました。 結論から TPU環境でtf.keras...
Kerasで評価関数にF1スコアを使う方法 Kerasで訓練中の評価関数(metrics)にF1スコアを使う方法を紹介します。Kerasのmetricsに直接F1スコアの関数を入れると、バッチ間の平均計算により、調和平均であるF1スコアは正しい値が計算されません。そこだけ注意が必要です。 F1スコアをmetricsに入れるときは要注意 ...
条件に応じた配列の要素の抽出をTensorFlowで行う... Numpyで条件を与えて、インデックスのスライスによって配列の要素を抽出する、というようなケースはよくあります。これをTensorFlowのテンソルでやるのにはどうすればいいのでしょうか?それを見ていきます。 Numpyではこんな例 例えば、5×5のランダムな行列をデータとします。この配列を左...
TensorFlow/Kerasでの分散共分散行列・相関行列、テンソル主成分分析の実装... TensorFlowでは分散共分散行列や主成分分析用の関数が用意されていません。訓練を一切せずにTensorFlowとKeras関数だけを使って、分散共分散行列、相関行列、主成分分析を実装します。最終的にはカテゴリー別のテンソル主成分分析を作れるようにします。 何らかの論文でこれらのテクニックを...
Pocket
Delicious にシェア

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です