こういう「現実の背景をバックにアバターが踊ってる」動画を iPhoneとMocopiだけで指、表情込みで撮影できる アプリ
- VRoid Hubと連携してVRMモデルが読み込めると良い
- 顔はARKitFaceのBlendShape
- 指はMediaPipeのHand(後述の通りmocopiが無い場合はMediaPipeのBlazePoseでも良い)
から取得したlandmarkやblendshapeを使う。全身のposeはmocopiからの入力があるならそれを使う。
- iPhoneのリアカメラのプレビューを動画背景として合成する。 (ある程度以上のスペックのiOS端末はフロントカメラでトラッキングをしながらリアカメラも使える https://github.com/Unity-Technologies/arfoundation-samples#rear-camera-arkit )
- もちろん、生身の自分を一緒に映したい奇特な趣味(?)の人向けにフロントカメラの映像を使うモードがあっても良い
- アプリ内の録画ボタンから録画してmp4で書き出す。音はマイクだけ使うかもしれない…音ハメなどは映像編集アプリに任せる
iPhone13以降限定、くらいを想定しています。
- Mocopiアプリとwaidayoが同時起動できていたので可能だと思います。
- MocopiアプリとiFacialMocapが同時起動できていたので可能だと思います。
- Mocopiアプリの送信先IPを127.0.0.1でいけるかは要検討…
Humanoidの骨のMuscleとしてありえない姿勢にならないようにアプリ内でConstraintを解く必要がありそう
はい…
はい…