こしあん
2019-01-09

PythonのMessagePack-Numpyで独自のクラスをシリアライズする方法

Pocket
LINEで送る


MessagePackを使ってシリアライズを高速化したかったのですが、独自のクラスやネストされたオブジェクトについてシリアル化する方法が全然なかったので調べてみました。Numpyのシリアライズも使えるMessagePackの拡張版、MessagePack-Numpyを使って確かめます。

MessagePack-Numpy:https://pypi.org/project/msgpack-numpy/

こんなデータをシリアライズしたい

(オブジェクト思考脳だったら)割とよくあるシチュエーション。例えば以下のような商品データがあったとします。

import msgpack_numpy as msgn
import numpy as np

class MerchantData:
    def __init__(self, *values):
        self.id = values[0]
        self.name = values[1]
        self.some_values = values[2]

if __name__ == "__main__":
    np.random.seed(45)
    a = MerchantData(1, "apple", np.random.randn(3))
    b = MerchantData(2, "orange", np.random.randn(3))
    print(a.__dict__)
    print(b.__dict__)

出力はこんな感じ

{'id': 1, 'name': 'apple', 'some_values': array([ 0.02637477,  0.2603217 , -0.3
514554])}
{'id': 2, 'name': 'orange', 'some_values': array([-0.20430091, -1.27163265, -2.
9687863])}

そのままやってもうまくいかない

何も考えずにシリアル化しても怒られてしまってうまくいきません。

def serialize(data):
    pack = msgn.packb(data)
    unpack = msgn.unpackb(pack)

if __name__ == "__main__":
    np.random.seed(45)
    a = MerchantData(1, "apple", np.random.randn(3))
    b = MerchantData(2, "orange", np.random.randn(3))
    data = [a, b]
    serialize(data)
    return Packer(**kwargs).pack(o)
  File "msgpack/_packer.pyx", line 284, in msgpack._packer.Packer.pack
  File "msgpack/_packer.pyx", line 290, in msgpack._packer.Packer.pack
  File "msgpack/_packer.pyx", line 287, in msgpack._packer.Packer.pack
  File "msgpack/_packer.pyx", line 263, in msgpack._packer.Packer._pack
  File "msgpack/_packer.pyx", line 281, in msgpack._packer.Packer._pack
TypeError: can't serialize <__main__.MerchantData object at 0x000000000367F518>

要するに「シリアライズ、デシリアライズの処理が定義されていないから変換できませんよ」ということ。MessagePack-Numpyではなく、通常のMessagePackを使うとNumpy配列を変換しようとするときにこんなメッセージが出ます。変換処理を自分で定義するのが面倒くさいからMessagePack-Numpyを使っているんですね。

安直な方法はdict化してしまう

変換処理書くの面倒くさいからdict化(辞書化)してしまおうというのが楽です。ただし、「packbのときにuse_bin_type=True, unpackbのときにraw=False」のオプションをつけ忘れないようにしましょう。これを忘れるとdictionaryのキーがバイナリー(b”id”みたいな形)で保存されてしまいます。

ちなみにクラスオブジェクトの変数一覧は、インスタンス変数xに対して、x._dict_の属性を取ってくると辞書で取れます。

import msgpack_numpy as msgn
import numpy as np

class MerchantData:
    def __init__(self, *values):
        self.id = values[0]
        self.name = values[1]
        self.some_values = values[2]

def serialize(data):
    pack = msgn.packb(data, use_bin_type=True)
    unpack = msgn.unpackb(pack, raw=False)
    for x in unpack:
        print(x)

if __name__ == "__main__":
    np.random.seed(45)
    a = MerchantData(1, "apple", np.random.randn(3))
    b = MerchantData(2, "orange", np.random.randn(3))
    data = [x.__dict__ for x in [a, b]]
    serialize(data)
{'id': 1, 'name': 'apple', 'some_values': array([ 0.02637477,  0.2603217 , -0.39
514554])}
{'id': 2, 'name': 'orange', 'some_values': array([-0.20430091, -1.27163265, -2.5
9687863])}

こんな感じ。わりかしよさげ。ちなみにpackbとunpackbのオプションを忘れると次のようになります。

# packbのuse_bin_type=Trueと、unpackbのraw=Falseを入れなかった場合
{b'id': 1, b'name': b'apple', b'some_values': array([ 0.02637477,  0.2603217 ,
0.39514554])}
{b'id': 2, b'name': b'orange', b'some_values': array([-0.20430091, -1.27163265
-2.59687863])}

入れ忘れた場合に後から変換するの結構面倒臭そう。これでアクセスできればよいのですが、例えばserializeメソッドのところのprint(x)のところを「print(x.name)」とかやってみると、

AttributeError: 'dict' object has no attribute 'name'

と怒られてしまいます。ちょっとこれは困りました。

この辞書のケースでは、packb/unpackbのオプションを入れてた場合でも、MerchantDataのインスタンスを入力として、出てくるのは辞書なので、辞書→インスタンスに戻す操作を改めて定義しないといけません。これを必要に応じて書くのはちょっとめんどい。

ExtTypeを使ったPackerとUnpackerを定義する

こちらが正式な方法ではないでしょうか。C#でMessagePack使ったときになんかこんなようにプロパティにインデックス振った記憶があるので、多分こうやるのがわかりやすいと思います。

ただ、これでもpackb/unpackbのオプションを忘れると、文字列の値がバイナリーで格納されてしまうので、どっちにしてもpackb/unpackbのオプションは入れないといけません

ただ、こちらの場合はUnpackerの部分でインスタンスに戻すのが完結してしまうので、プログラムの見通しは良くなると思います。ちょっとコードは長くなりますが。公式ドキュメント読んでもいまいちよく理解できなかったのですが、StackOverFlowを見たらよくわかりました。

https://stackoverflow.com/questions/35863822/using-msgpack-python-with-nested-namedtuples

MessagePackでシリアライズしている間はリストとして持っておくのが良いのではないでしょうか。

import msgpack_numpy as msgn
import numpy as np

class MerchantData:
    def __init__(self, *values):
        self.id = values[0]
        self.name = values[1]
        self.some_values = values[2]

def ext_pack(x):
    if isinstance(x, MerchantData):
        return msgn.msgpack.ExtType(1, msgn.packb([y for y in x.__dict__.values()], default=ext_pack, use_bin_type=True))
    return x

def ext_unpack(code, data):
    if code==1:
        unpack = msgn.unpackb(data, ext_hook=ext_pack, raw=False)
        return MerchantData(*unpack)
    return msgn.msgpack.ExtType(code, data)

def serialize(data):
    pack = msgn.packb(data, default=ext_pack, use_bin_type=True)
    unpack = msgn.unpackb(pack, ext_hook=ext_unpack, raw=False)
    for x in unpack:
        print(x)
        print(x.__dict__)

if __name__ == "__main__":
    np.random.seed(45)
    a = MerchantData(1, "apple", np.random.randn(3))
    b = MerchantData(2, "orange", np.random.randn(3))
    data = [a, b]
    serialize(data)
<__main__.MerchantData object at 0x000000000366D978>
{'id': 1, 'name': 'apple', 'some_values': array([ 0.02637477,  0.2603217 , -0.
514554])}
<__main__.MerchantData object at 0x000000000366D9E8>
{'id': 2, 'name': 'orange', 'some_values': array([-0.20430091, -1.27163265, -2
9687863])}

こんな感じ。_dict_とコンストラクタの可変長引数を活用すると綺麗にかけると思います。いちいち変数増えるたびに引数追加してたらかっこ悪いですからね。

こちらはインスタンスからインスタンスのPack/Unpackなので自然な形になりました。

まとめ

MessagePackのカスタムクラスのシリアライズは、

  • 文字列の値はバイナリーでパッキングされないように、packbで「use_bin_type=True」、unpackbで「raw=False」を入れる(どちらの方法でも)
  • 手軽な方法は辞書で保存して読み込むのだけれども、読み込んだ後に辞書→インスタンス変数への変換をMessagePackの外側で書かないといけないからちょっと美しくない
  • おそらく正式な方法は、ExtTypeを使ってPack/Unpackを個別に定義するものだと思われる

とのことでした。MessagePackのPythonの例はいろいろ探しましたが情報が少なく、自分もかなりモヤモヤしていたので、これでわかってすっきりしました。

Related Posts

PyTorch/TorchVisionで複数の入力をモデルに渡したいケース... PyTorch/TorchVisionで入力が複数あり、それぞれの入力に対して同じ前処理(transforms)をかけるケースを考えます。デフォルトのtransformsは複数対応していないのでうまくいきません。しかし、ラッパークラスを作り、それで前処理をラップするといい感じにできたのでその方法を...
Numpyだけでサクッと画像を拡大する方法... Numpyだけで画像をサクッと拡大する方法を紹介します。OpenCVやPillowを使うまでもないな、というようなときに便利な方法です。ニューラルネットワークでインプットのサイズを調整するときも使えます。 ただのNearest Neighbor法 拡大前の1ピクセルを1つの四角形と見立てて、拡...
TensorFlow Data Validationを使ったお手軽で強力な探索的データ解析... 特にテーブルデータで、実際の分析に入る前に欠損値やデータの分布の把握といった、探索的データ解析(EDA)というのは重要なプロセスになります。TensorFlow Data Validationというツールを使うとそれがたった数行で簡単にできます。その方法を紹介します。 探索的データ解析(EDA)...
PyTorchでサイズの異なる画像を読み込む方法... 実際の画像判定では、MNISTやCIFARのようにサイズが完全に整形されたデータはなかなか少ないです。例えばサイズが横幅は一定でも縦幅が異なっていたりするケースがあります。訓練画像間でサイズが異なる場合、そのまま読み込みするとエラーになります。その解決法を示します。 transforms.Ra...
データのお気持ちを考えながらData Augmentationする... Data Augmentationの「なぜ?」に注目しながら、エラー分析をしてCIFAR-10の精度向上を目指します。その結果、オレオレAugmentationながら、Wide ResNetで97.3%という、Auto Augmentとほぼ同じ(-0.1%)精度を出すことができました。 (※すご...
Pocket
Delicious にシェア

Add a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です