VR-AR-MR-XR VTuber ブログ

FaceRigなき今、二次元VTuberになるならこれ! VTube Studio の使い方【Face ID専用】

Live2Dを用いてVTuberデビューしようとしたときに、長らく手軽な方法として親しまれてきたFaceRig。2020年ついに提供が終了し、ひとつの時代の終焉を感じます。

バーチャルユーチューバー黎明期の2017年、Live2Dを簡単に顔認証でコントロール手段としては唯一の存在でしたが、その後様々なソフトがリリースされ、選択肢も増えてきました。

FaceRigも先行アプリゆえの「古さ」が目立つようになり、ついにAnimazeという名前を替えたアプリとして大幅にバージョンアップすることが告知されました。

ただ、フェイスキャプチャ機能に抜本的な変更はなく、互換性が優先される可能性が高いようです。

「お手軽さ」を優先させるならアリなのですが、やはり機能不足、トラッキング精度不足やアプリの重さが気になる場面も多くあります。

ここはやはり、iPhone X や iPhone 11 などに搭載されている TrueDepth カメラを用いて、 精度の高い Face ID トラッキングを使用して表情豊かにアバターを動かしたいところです。

そこで今回は、オリジナルのLive2DモデルをFace IDトラッキングで動かすことのできるアプリ、「VTube Studio」の紹介をしたいと思います。

導入の前に 〜オススメポイント〜

・Windows 10, Mac OS X Catalina 最新版に対応

・iPhone、iPadの Face ID トラッキングで高精度60fpsキャプチャ

・スマホでモーションを取得し、PCで再生することもできる

・オリジナルモデルのインポートが簡単

・パラメーターの倍率や物理演算がアプリ内で調整できる

(詳細は導入とともに解説します)

ステップ1・スマホアプリの導入

app store で「VTube Studio」と検索、ダウンロード。

画面をダブルタップして、上から2番目の人物アイコンをタップすると、Live2Dモデルを選択することができます。(デフォルトでいくつかのモデルが入っています)

スマホの説明文に従って、アプリ内に自作or権利フリーのLive2Dモデルの関連ファイル一式を配置しましょう。

■注意■

Mac OS X Catalina の場合、iTunesが使用できないのでこの方法ではiPhoneとPC間でのファイルのやりとりができません。

筆者がいろいろ試した結果、iPhoneを有線でMacにつなぐと、FinderからiPhoneのファイルを開くことができるので、VTube Studioのディレクトリ(フォルダ)を開いてLive2DModelsにたどり着くことができました。

ただ、筆者の環境では Live2DModelsの中にフォルダを入れることができず、いちばん上の階層にしかファイルやフォルダをコピーすることができませんでした(Catalinaの仕様?おま環?知ってるひといたら教えてください)。

この問題は、いちどLive2DModelsのフォルダをPCにコピーしておいて、その中に自分のLive2Dフォルダを追加してからiPhone内のLive2DModelsフォルダと入れ替えることで解決できましたので、ここで共有しておきます。

開発者に問い合わせたところ、「なるほど、それは紛らわしいね」とのことで、今後はCatalina向けにこの説明を追加してくれるとのことでした↓

何か問題があったときはDiscordですぐに開発者やユーザーコミュニティが回答してくれるので、サポート体制も期待できますね。

ぜひ今後の応援の意味も込めてPro版を購入しましょう。

(スマホ単体で動かす、もしくはスマホ画面をキャプチャしてPCに取り込む方式で、商用利用しないのであれば無料版でも使えますが、利便性やYouTubeの収益化なども考えると商用ライセンスを買っておいたほうが良いと思います。機能に対してありえないくらい安いですし)

私はライセンスが使いやすい「星野ニア」モデルを使用しました。

利用規約はこちら→ https://fantia.jp/posts/260877

これでスマホ側の設定は完了です。

ステップ2・PC側の設定

https://denchi.itch.io/vtube-studio

こちらから、最新版のVTubeStudioをダウンロードします。

筆者はMacBookユーザーなので、Mac OSでの説明になりますが、Windowsでも同じような手順で使用することができます。

  1. ダウンロードしたアプリをアプリケーションフォルダに移動
  2. VTubeStudioを副ボタンクリック(右クリック)し、「パッケージの内容を表示」を選択
  3. Contents → Resources → Data → StreamingAssets → Live2DModels の中にフォルダを作成し、Cubism Editor で作成した、または配布された Live2D関連フォルダをすべて追加する
  4. アプリを起動
  5. モデル一覧から追加したフォルダ名を選択

6. 左メニューの歯車マークをクリック→上メニューの歯車マークをクリック→PCのIPアドレスを確認してサーバーを起動する

7. スマホに戻って、PC/Mac接続設定に IPアドレスを入力し、PCと接続する

「サーバーを探す」でうまくスマホからPCが見つからないときは、PCのIPアドレスが間違っていないか、ポート番号が一致しているかもう一度確認してみてください。

基本的にデフォルト設定で十分クオリティの高い動きができるのですが、スムージングの量や物理演算の設定など、様々な項目でモデルの挙動の微調整ができるので、かわいさ、かっこよさを追い求めたい人は理想のパラメーターを追求してみるのも良いかもしれませんね。

ところで、筆者の環境は MacBook Pro 2017、2.8 GHz クアッドコア Intel Core i7 なのですが、この程度のスペックではゲーム配信は非常に厳しいです。

マインクラフトをHD画質で行おうとするだけでFPSは50、VTubeStudio を起動するとFPS30、OBSキャプチャ開始でFPS20、配信を開始するとFPSは5まで落ちました。VTubeStudio+OBSだけであればそれなりに軽いので、雑談配信や作業配信などの用途が向いていると感じました。

 

さいごに

VTubeStudioは頻繁に機能アップデートやUIの改善がなされており、数あるVTuberアプリのなかでも一際クオリティの高いものでした。

ここで紹介しきれなかった物理演算の細かい調整や、表情の動き方の倍率設定、スムージング、マウスを用いた表情の切り替え、電池もちを良くする工夫など、個人や企業VTuberが長く使っていける、非常に完成度が高いアプリになっています。

トラッキング精度の点でも申し分ないです。比べ物にならないくらい可動域が広く、光源やメガネなどの条件に左右されず、スムージングのおかげでFaceIDトラッキングにありがちな表情がプルプルする現象もありません。

Live2Dのフェイストラッキング精度に悩んでいる人、iPhoneX以降を持っている人なら、迷いなくこのアプリをオススメします!

 

AR, VR. XR の活用やMicrosoft Holo Lensを活用した建築業向けソリューション

GyroEyeに関するお問合せはこちら

※株式会社インフォマティクスのGyroEye公式サイトへ

-VR-AR-MR-XR, VTuber, ブログ

© 2020 IoTプロトタイピング・VR・AR・Unity メディアラボ