https://xr-hub.com/archives/1756
2018年も半ばを過ぎましたが、急激に人気が出てきたのがバーチャルYouTuber、略して「VTuber」
代表選手はキズナアイですが、いったいどうやって動かしているのか?「バーチャルユーチューバーになりたい!」そんな方のために、今回はVTuberの仕組みと作り方について解説していきます。
Contents [hide]
バーチャルYoutuber(Vtuber)の仕組み
最近非常に話題になっている「VTuber」ですが、VTuberとはVirtual YouTuber(バーチャル・ユーチューバー)の略語です。
人間ではなく、モーションキャプチャーを使ったCGキャラクターをYouTuberとして動かし、実況をさせるのです。
VTuberの代表選手は200万人を超える登録者数を誇る「キズナアイ」ですが、先日はTVにまでゲスト出演を果たしましたね。
生放送でも感情豊かに振る舞うVTuberの仕組みは一体どうなっているのでしょうか?
Vtuberの種類と作り方、必要な物
「顔」だけの簡易なCGアバターならスマホ1台でも可能
2018年に入ってVTuberの盛り上がり感が凄いのですが、これには理由があります。
これはAR技術の向上とARKitやARCoreの提供によって、非常に手軽にCGを動かすことができるようになったからなのです。
皆さんもdocomoのCMで高畑充希さんが「紅」を熱唱するCMを見たことがあると思いますが、犬のアバターが高畑さんの表情に合わせて歌っています。
これはiPhoneXの「アニ文字」という機能を使っているのですが、これにはARKitのフェイストラッキングを使われています。
つまり今では、簡単なCGグラフィックなら、特別な機材やプログラミングスキルなど無くても、インカメで自分の顔を映すだけで作成できるのです。
例えば、下記の「パペ文字」というアプリを使えば、顔だけでも簡単なVtuberキャラクターを作る事ができます。
インストールはこちら。(2018年8月現在、対応デバイスはiphoneのみ)
(記事の最後の方で、スマホで簡単にVtuberになれる優良アプリを他にも紹介してます。制作費をかけずにVtuberを体験したい方はそちらもぜひご覧ください)
全身をモーショントレースさせるCGアバター
一方で、キズナアイなどの有名VTuberの場合は、もっと細かいしぐさが再現可能なように「モーションキャプチャ―」という技術を使っています。
映画やゲームなどの開発でよく使われていますのでご存知の方も多いと思いますが、「トラッカー」というマーカーを全身に取り付けることで人間の動きを忠実に捉え、CGキャラクターに再現させることができるのです。
方式は、反射マーカーを使う「光学式」やジャイロセンサーを使う「慣性センサ式」、「磁気式」などいろいろあるのですが、ZOZOスーツのようなマーカー付きの服を着て演技をすることで、動きを感知させることができます。
本格的に挑戦したい方はPerception Neuronがオススメ
スマホで制作費をかけずにVtuberになる方法は後ほど紹介しますが「本格的にVtuberをやりたい!」という方のためにご紹介するのはあのキズナアイさんも使っていると言われる「Perception Neuron」です。
この動画を見れば、その精度の高さがわかるでしょう。
動画右上の方の、体全体から5本の指先まで、それぞれのパーツの動きを正確にトラッキングしています。
従来のモーションキャプチャーは200万円ほどの機材が必要でしたが、このperception neuronだとおよそ20万円となっており個人でも手の届く価格まで圧縮されました。
モデル | 価格 | 購入方法 |
Perception Neuron (販売終了) | 価格:1,499ドル /209,800円 (税込) | 代理店:アキハバラe市場 |
Perception Neuron 2.0 | 価格:1,499ドル /209,800円 (税込) | 代理店:アキハバラe市場 |
Perception Neuron PRO | 価格:3,999ドル | 公式サイト: ※日本では未発売 |
モーションキャプチャーは企業でしか扱えませんでしたが、徐々に個人でも使える時代が来ています。
Perception Neuronについて詳しく知りたい方はこちら→)Perception Neuronとは?使い方や価格/セットアップ手順を解説!
全身トラッキングを用いたVtuberの作成手順
VTuberの場合はどちらかといえば表情や上半身、特に指の動きをトラッキングすることが重要になり、グローブをはめてカメラで表情を追えるようにしたり、上述のPerception Neuronを使ったトラッキングの方法がとられます。
下でご紹介する動画では、VTuberの舞台裏がドキュメンタリーとして公開されていますが、上半身と表情に重きを置いてトラッキングされていることが良くわかると思います。
ただし顔の動きだけをトラッキングし、喋りに会わせて口を動かしたり、表情をトレースさせるだけであれば、最初にご紹介した「フェイストラッキング」の技術だけで十分です。
これは最新型のスマートフォンであればiOSでもAndroidでも実現できますので、特別な機材は全く必要ありません。この手軽さがVTuberが爆発的に増えた理由となります。
スマホでVtuberになれる「エモモ」
また、フェイストラッキングすら使わない方法もあります。
ライブ配信プラットフォーム「Mirrativ」に8月1日から追加された新機能「エモモ」は、アバターを作成し、普通にマイクに向かって話すだけで、声に合わせてアバターが表情豊かに動いてくれるのです。
厳密にいうと、これは人の動きをトラッキングしているわけではなく、音声を解析して口の動きを再現しているのですが、声の調子と連動してアバターが表情豊かに動くのです。
将来的には音声変換のボイスチェンジャー機能も提供する予定とのことで、声優でなくても、アニメ声をすぐに出せるようになり、さらにVTuberのすそ野が広がることが予想されます。
関連記事)VTuberの民主化へ!スマホ1台でアバターが作れる「エモモ」の何が凄いのか徹底解説!
スマホであるため、クオリティはそこまで高くありませんが、もう少し凝ったVtuberを作りたい方は下記で紹介する「Vカツ」もお勧めです。
VRゴーグル保有者必見!簡単にVtuberになれるツール「Vカツ」
「Vカツ」は顔立ちや髪型、体型や衣装、アクセサリーなどの数百項目に及ぶ設定を組み合わせて、自分の好きなように3Dアバターをカスタマイズする事ができるサービスです。
現在、0からオリジナルのVtuber用の3Dアバターの制作をプロに依頼すると数百万単位の費用がかかりますが、Vカツを利用すれば、3Dアバターの作成だけなら無料、外部出力も5000円のキャラクターチケットを購入するだけで可能になります。
Vカツを使うことの最大のメリットは何よりも簡単、低価格でVtuberを作成できるという点に尽きます。
数百種類のパーツなど設定の組み合わせでアバターをカスタマイズしていく方法なので、専門的な知識や作画や造形のセンスがなくても一定のクオリティのものを簡単にモデリング可能です。
数百に及ぶパーツや設定項目を組み合わせていくだけなので、専門知識なく簡単に3Dアバターの作成が可能で、メイキングだけなら無料という充実ぶり。
エモモの音声だけでVtuberを作るのとは違い、VRゴーグルを使ったフェイストラッキングによってVtuberの動きを付けられるため、上半身をフルに使ったより自分の動きに使いVtuberを制作することができます。
Vカツは「Vtuberの民主化」「一億総Vtuber」を目指す事を謳っているので、今後さらなるサービスの拡充が期待されますね!
Vカツが気になる人はこちら→!)VRゴーグルさえあれば誰でもVtuberになれる!「Vカツ」の概要・活用メリット
本格バーチャルユーチューバーを作るまでの流れ
本格的にVTuberを作るまでの流れですが、簡単に言うと以下になります。
1.キャラクターのモデルデータを作成する
2.自分の動きをトレースさせる方法を選んで利用する
3.出来上がった映像を編集する
Step 1, キャラクターのモデルデータの作成
さて、VTuberに必要なのは何といってもキャラクターです。
一番手軽なのは、あらかじめ用意されたCGキャラクターを選択して作るだけでももちろん良いのですが、オリジナルのキャラクターを作りたい場合は、まずキャラクターモデルを作る必要があります。
キャラクターモデルを作るにはLive2DやMMDが使われることが多いです。
もっと手軽なものも存在しますが、ある程度の質感でキャラクターを作りたいのであればLive2D Euclidなどの利用をお勧めします。
Live2D Euclid 1 – 「作画」して生み出す、新次元の3D表現
関連記事)FacerigとLive2Dを使ってVtuberを作る方法
またオリジナルの3Dアバターに対する需要が高まりを受けてイラストコミュニケーションサイト「Pixiv」を運営するPixiv社が「VRoid Studio」を開発し、こちらも話題を集めています。
イラスト投稿がメインのPixiv発の3Dアバター作成ソフトだけに、絵を描くようにアバターのデザインが可能になっています。
Windows・ Mac版どちらも無料でダウンロード可能で、しかも作成したモデルの商用利用もOKとの事。
作成した3DモデルはVRM形式でエクスポートし様々なVR・ARプラットフォームで利用可能で、さらに今後予定されるアップデートでその他の形式にも順次対応予定との事です。
VR Roid Studioが気になった方はこちら!→)VRoid Studioの機能、使い方・VRChatで使うまでの手順を解説!
Step 2,自分の動きをトレースさせる方法
次に、作成したキャラクターをどうやって動かすかを考えましょう。
自分の動きを正確にトレースさせたいのであれば、モーショントラッキングスーツを使うことが望ましいのですが、個人でVTuberを目指すのであればiPhoneXなどのフェイストラッキング対応最新スマホを使うのが一番手軽です。
最初にご紹介した「パぺ文字」というアプリを使えば、簡単に表情や手の動きをキャラクターにトレースさせることができます。
MMDのモーショントレースを活用するという方法も
体全体を本格的にトレースしたい!という場合はMMDを用いたモーショントレースという方法もあります。
こちらは少し難易度があがりますが、本格的なVtuber並のリアルな動きを再現することができます。
MMDでモーショントレースする方法はこちら→)MMDモーショントレースのコツや手順、ツールについて解説!
Step3,出来上がった映像を編集する
最後に編集です。
意外にここを見落としがちですが、人気VTuberのキズナアイやミライアカリなどは、画面のコマ割りや演出などが緻密に計算され、編集された映像が作られていることがわかります。
こちらの記事でUnityを使った編集プロセス・編集ソフトなど紹介してます。
ここはまさしく「プロの技」なのですが、個人でVTuberを行う場合は、編集はせずに、そのままLIVEで配信する場合が多いと思いますし、現状それでも十分なクオリティを演出できるようになりました。
このような高品質のCGを制作費を全くかけずに、素人が出来るようになったのは凄まじい技術の進歩、最新のテクノロジーがあってこそといえるのです。
まとめ(ボイスチェンジについて)
2018年後半に入り、ますます増加の傾向を見せるVTuberですが、爆発的な普及の背景にはテクノロジーの進化があることがお分かりいただけたかと思います。
ゲームプレイ中継などで、映すべきメインの画面に横にアバターを配置するだけでも視聴者への印象度は大きく向上します。
そしてもちろん忘れていはいけないのは「声」の部分。
可愛くなった後は可愛い声、つまりボイスチェンジも必要ですので、こちらの記事もチェックしてみください^^無料でも良いソフトは沢山ありますよ!
関連記事)
単純に「自分の顔だしをしなくて済む」ということもVTuberが人気である理由でもあるのですが、やはり映像メディアである以上、見せ方が重要であり差がつく部分は編集技術といえるのかもしれませんね。
この記事はいかがでしたか?
もし「参考になった」「面白かった」という場合は、応援シェアお願いします!
0 コメント:
コメントを投稿