PyTorchモデルをONNXやOpenVINOなどで最適化する実験
377{icon} {views} Lambda上でのモデル推論で発生するコールドスタートを短縮するために、PyTorchモデルのさまざまな保存・最適化手法をEC2で比較した。結果、モデル変換が有力で、ONNXかOpen […]...
DockerでGPU版ONNXを使ってみる
3k{icon} {views} DockerでGPU版をONNXを動かしてみました。比較的に簡単に動かせたので、いろいろ便利だと思います。YOLOXを例に検証します。 概要 ONNXRuntimeのGPU版をDocke […]...
訓練済みYOLOXでサクッと推論したい場合に使える方法
7.9k{icon} {views} 物体検出を使いたい場合、カスタムデータで訓練することなく、COCO Pretrainedモデルによる推論だけで事足りることも多々あります。2021年最新モデルのYOLOXを使って、サ […]...
PyTorch→ONNXのコンバートでモデルの入力サイズを可変にして推論する
13.4k{icon} {views} ONNXでモデルは入力サイズを可変にできます。PyTorch→ONNXの変換と、ONNXRuntimeでの推論方法、また可変にしたことによる速度の副作用を検証していきます。 きっか […]...