Zennに投稿しました。
OpenVINOさん、Colaboratory上でもサクッと動くようになったし、
PaddlePaddleのモデルを直接読み込めるし、僕的には結構使い道ありそう🦔
ノートブックは以下のリポジトリで公開しています。
追記:
推論時間の比較↓
Colaboratory上(Intel(R) Xeon(R) CPU @ 2.20GHz)でのEfficientNetB7 CPU推論の処理時間見てる👀
— 高橋 かずひと@闇のパワポLT職人 (@KzhtTkhs) 2024年8月10日
ONNX Runtime と OpenVINOは良い性能出てるな🤔
あと、当たり前っちゃ当たり前かもだけど、OpenVINOで読み込んだ重みによって推論時間は差出ないね。 pic.twitter.com/FyU06thLSo