高橋かずひとのプログラミング、その他、備忘録。

日々調べてたことや、作ってみたものをメモしているブログ。 お決まりの断り文句ですが、このブログに書かれている内容は個人の見解であり、所属する組織の公式見解ではありません。チラ裏。

ブラウザ上のMediaPipe実行結果をUnityアプリ(WebGL)へお渡し🦔

ブラウザ上でJavaScript版のMediaPipe Handsを動かして、処理結果をJS→Unity C#に連携するサンプルです。 ※使い道あるか不明

ソースコードは以下リポジトリにコミットしています🦔

github.com

Unity BarracudaをWebGL上でお試し🦔

少々、使いどころが出てきそうなので、UnityのBarracuda(ONNXモデルを推論するやつ)を試しています。
タイトルにあるようにWebGLでも動くか試しています👻

いったん案件で使いそうな基礎的なインプット(Webカメラ、動画、手書き)と
MNIST、Mobilenet(クラス分類)、TinyYolo v2のモデルを試しています。

2021/7/13追記:Reversi、Single-Hand-Localization、Objectronの事例を追加。

Webカメラ入力
f:id:Kazuhito00:20210213173753g:plain github.com

■動画入力
f:id:Kazuhito00:20210213174106g:plain github.com

■手書き入力
f:id:Kazuhito00:20210213174137g:plain github.com

■MNIST
f:id:Kazuhito00:20210213174212g:plain github.com

■MobileNet
f:id:Kazuhito00:20210213174256g:plain github.com

■TinyYoloV2
ちょっとWebGLビルド(CPU推論)が激重(0.4FPSくらい)だったので
これだけはUnity Editor上(GPU推論)した動画も一緒に載せてます。
f:id:Kazuhito00:20210213174354g:plainf:id:Kazuhito00:20210213174348g:plain github.com

■Reversi
教師有り学習で作成したリバーシのAIをBarracudaで推論しています。 https://user-images.githubusercontent.com/37477845/110242874-5654f980-7f9b-11eb-911a-899375c100e9.gif github.com

■Single-Hand-Localization
WebGL版のBarracudaはCPU推論しかできず(2021/07/13時点)、速度が出ないため、 WebGL版でもある程度の速度が出るモデルを構築して、手の検出を試しました。 https://user-images.githubusercontent.com/37477845/113316638-8ba9f880-9349-11eb-8cfc-f65ec82bd300.gif github.com

■Objectron
MediaPipeのObjectronをONNX変換し、Barracuda上で動作確認しました。 https://user-images.githubusercontent.com/37477845/120523202-9a2b9380-c410-11eb-9589-bc30892fae3f.gif github.com

MediaPipeのIris(虹彩検出)をPythonでお試し🦔

Python版のMediaPipeを用いてFace Meshを検出し「iris_landmark.tflite」を使って虹彩を検出するお試し実装です。

github.com

XDoG(Extended Difference of Gaussians)での線画抽出お試し🦔

XDoG(Extended Difference of Gaussians)での線画抽出をお試ししています。
何に使うかは想像付きますよね👻

github.com

カラー画像のヒストグラム平坦化🦔

OpenCVヒストグラム平坦化はグレー画像に対して実施できるAPIです。

画像をRGBからYUVに変換し、Y(輝度)のヒストグラム平坦化を実施することで、カラー画像のヒストグラム平坦化を試しています🦔

 

サンプルプログラムは以下にコミットしています。

github.com

【NGK2021S】画像処理デモの見栄えを工夫したお話し

NGK2021S(名古屋合同懇親会 2021新年会)で発表してきました🦔
今年は開催自体危ぶまれていましたが、無事オンラインで開催されました。

今回はoViceと言うサービスでコミュニケーションを取りながら、YouTubeライブで視聴する形でした。
流石熟練のKatz(@katzueno)さんで、これだけの規模のイベントでしたが、ほぼトラブル無くスムーズな進行でした。 f:id:Kazuhito00:20210123203209p:plain

僕のLTの後に「祈祷」と言うぶっ飛んだLTがあり、oViceの限界に挑戦したりしていましたが、、、w

↓これは真理。


発表資料は以下です。
今回狙った演出でもあるのですが、Other以外はすべて実演のデモです。

www.youtube.com

speakerdeck.com


今回の配信はアーカイブとして公開していただけるそうです。
LTが後半だったこともあり、直前当たりの発表がしっかり見れていなかったので、見返したいです🦔

以上。

改めて、RaspberryPi4での手検出試行錯誤中②

試行錯誤中。。。

今回は「ラズパイ4のCPU推論」で「5〜10fps程度のリアルタイム」と言う制約があります👻