はじめまして、alweiと申します。関西を拠点にUnreal Engine(以下、UE)専門のゲームスタジオ Indie-us Gamesの代表クリエイターとして活動しています。
※以前に制作したNPRキャラクター
参考に僕の作ったものを紹介します。上記の画像は以前UNREAL FEST EXTREME 2020 WINTERというEpic Games Japan主催のイベントで作ったキャラクターと映像です。今も様々なレンダリングの研究を行っています。
今回は2014年の公開時から使用し、最近ではPPLineDrawingというツール開発も行ったUEについて、過去、現在、そして未来への流れを追ってお話したいと思います。
『デスノート』『マンダロリアン』が転機 映像制作ツールとしてのUnreal Engineの発展
今メジャーで使われているUnreal Engine4の公開は2014年。当時はもちろんゲームエンジンとしての機能のみでした。ゲーム以外の分野の機能が備わったのが2016年頃。その後、目覚ましい発展を遂げる中で映像制作向けの機能も実装され、バージョンアップする度に拡張されてきました。
僕の知る限り、日本国内で初めて映像制作にUEを使った作品は2015年のドラマ版『デスノート』。まだ映像制作の機能はありませんでしたが、リュークなどのCG部分はすべてUEで制作されたと聞いています。
フォトリアルな映像が作れて、変更や修正の要望をスピーディーに反映できて、短納期に対応できるレンダラーが備わったものがUEぐらいしかない、という消去法での選択だったようです。
『デスノート』で成功事例ができたことは、日本の映像制作におけるUE利用の転機になりました。ただし、まだまだ「映像制作に使おう」というムードではなく、研究開発的な領域での話。明らかにムードが変わったのは、こちらの映像が公開された2018年のことです。
Reflections Real-Time Ray Tracing Demo | Project Spotlight | Unreal Engine
UEの開発元であるEpic Games自身が映像制作に本格的に乗り出し、『スター・ウォーズ』のストームトルーパーのデモ映像をUEで作ったんです。
“Reflections”という名の通り、光の反射や映り込みがかなり描写されていて、これをリアルタイムにゲームエンジンで制作しているということ、そしてそのクオリティの高さに、僕はもちろん世界が衝撃を受けました。
このデモでは、光の反射などの正確性を計算する「レイトレーシング」をゲームエンジンで初めて実践しています。オフラインのレンダラーでは一般的な技術ですが、それをリアルタイムのゲームエンジンが行った初の事例です。
これを転換点として映像制作に活用される方が増え、同時に映像制作向けの機能も一気に充実してきました。その流れを加速させたのが、2020年のこちらの映像です。
The Virtual Production of The Mandalorian, Season One
同じく 『スター・ウォーズ』の『マンダロリアン』 というスピンオフドラマです。インカメラVFXやLEDウォールを活用して制作しており、UEを使った「バーチャルプロダクション」という映像制作の新分野が登場します。
これ以降、リアルタイム合成やOCIOでのカラーマネジメントカラーグレーディングなどのプロ向けの機能も拡張されました。
これらの例からもわかるように、Epic Gamesの発信は技術とコンテンツでセットになっています。研究開発者やクリエイターだけではなく一般視聴者からの反響を生むことで、多くの人を動かしているんです。
実際、バーチャルプロダクションは現在ソニーPCLなどの日本のプロダクションでも取り入れられてきています。UEはまさに進化の途中、これからもどんどん発展していくと思います。
映像制作ツールとしての機能の拡張
UEの大きな特徴として「シーケンサー」が備わっている点があり、これにはAfter Effectsからの系譜を感じます。カメラやキャラクターの設定がタイムラインに格納され、1つ1つリアルタイムで反映できるようになっています。
いくつか機能をご紹介します。
※以降の画像は公式で配布されているサンプル動画で撮影しています。
カメラの設定
スポイトで操作するだけでフォーカスを合わせることができたり、IMAXなどのレンズ設定が用意されているなど、多くの選択肢の中から選ぶことができます。
右奥をスポイトでクリックしてフォーカスを合わせたり
手前のロボットをスポとでクリックしてフォーカスを合わせる
3D空間でできているので、どこから被写界深度がかかっているのか視覚的に確認したり、複数のカメラ視点を設定することも可能です。
テイクの設定・編集
撮影でいう 「テイク」も簡単に分けられます。使用するテイクの選択や入れ替えなどの編集を、複数画面で且つリアルタイムで確認しながら行うことができます。
カラーグレーディング・ライティング
彩度やコントラストの調節はもちろん、エクスポージャー(光の露出効果)などもリアルタイムで画を確認しながら調整できます。
コンポジット用の素材制作
制作した画面の中で、キャラだけ・背景だけなどをマスクして素材として書き出すことも可能です。
↓
ブループリント
映像の中に「イベント」を仕込むことができます。ゲームでは、特定のタイミングに何かしらの形で「介入」する状態が発生しますが、同様に映像でもイベント発生時に特殊な演出効果を仕掛けることができるんです。画面全体の構成を変えたり、特殊効果を発生させたりと、普通の編集ソフトにはない機能です。
こうした機能について、Epic Gamesはおそらくユーザー同士のネット上の議論や意見などを見て取り込んでいるのではないかと思っています。
公式フォーラムで理想のイメージとしてあがっていたAfter Effectsに近いUIの要素が盛り込まれていたりするわけです。
最近では、Premiere Proと連携して使う機能も備わってくるなど、徐々にPremiere Pro寄りになってきているかもしれません。
こうした多機能を備えつつ、レンダリングが速いことがもっとも大きなポイントです。速ければ制作もスムーズになり、トライアンドエラーを重ねることもできるので、その点でも映像制作をより良くできるのが非常に良いところです。
UEの活用事例:バーチャルプロダクションとメタバース
現在のUEの活用例として代表的な「バーチャルプロダクション」「メタバース」の現在について、ご紹介します。
バーチャルプロダクション
そもそもUE自身が概念として生み出したもので、国内でどのように広がっていくのか僕自身も気になっています。現在はソニーPCLや東映ツークン研究所などが独自性のある伸び方をしています。
予算不足でロケができない作品はたくさんあります。そこにバーチャルプロダクションという仕組みが登場したことで、今までできなかった演出も、ある程度予算を抑えても実現できるようになるはずです。
例えば、撮影は日本で行いながらも、世界を舞台にすることができるわけです。
この分野では韓国が先を走っています。アカデミー賞を受賞した韓国映画『パラサイト』では、様々なほとんどの場面でUEを使ったプリビズや合成を行っています。
Parasite - VFX Breakdown by Dexter Studios
ロケ撮影ではロケ場所にあるものしか写すことができませんが、バーチャルプロダクションを活用すれば、背景を自由に作ることができます。映像制作の制約がなくなり、こだわり抜いた映像を作る選択肢が広がったと言えるでしょう。
メタバース
個人的な意見ですが、メタバースは仮想空間に限った概念ではないと思っています。メタバース自体は「超越した空間」という意味を持っていて、現実もメタバースの一部と考えると、メタバースの世界は現実ともリンクするといえます。
現実の映像をバーチャル空間に反映することも、バーチャル空間のものを現実に持ってくることもできる。それらを相互リンクさせることによって、これまでとは違う映像を作ることができるんです。
もうひとつ、「デジタルツイン」という概念も生まれてきました。デジタルと現実を一つにつなげるというもので、例えば大都市をそのままデジタル化し、その中に入るという考え方です。
現在TOYOTAなどが中心となって推し進めている考え方で、彼らはデジタルの中で走る車の情報を現実に活用することで、自動運転を成立させることが可能だと考えています。
デジタルの中で得たシミュレーションを現実で反映させる、これも一つのメタバースの考え方。そういった未来の構想の中心にあるのが、UEなんです。
逆にいうと、UEに何ができて、どう発展していくかにアンテナを張ることで、未来へのヒントを得ることもできます。Meta(元Facebook)はUEを高く評価していて、Epic Games自身もその考えに賛同しているので、おそらくこの2社は今後連携していくでしょう。
メタバースにはさまざまな企業が参入しようとしていますが、一番地に足をつけて着実に実行しているのがEpic Gamesなのではないでしょうか。
クリエイターは何から取り組んでいけばいいのか
こうした大きな動きに対して、1クリエイターはどう向き合っていけば良いのか。正直、こうした大きな世界すべてを1人で制作するのは不可能です。ただし、Unreal Engineにはマーケットプレイスがあり、そこで多彩なアセットを購入することができます。
自分が作りたい世界観があれば、それに合うものを選択して、カスタマイズする。これからのゲームや映像の「制作」では、ゼロからつくるのではなく「既成のものを利用していく」という考え方が重要です。
あるものはなるべく安く調達して、ないものは自分で作る、もしくは得意な人を探してお願いする、その流れがより強くなるのではないでしょうか。
そうなると、やっぱり「どういうものを作りたいのか」をはっきりさせることが大切になります。
僕の場合は、好きなものを「見る」「触る」ことを続けている中で、自ずと「こういうものがいいな」という考えが膨らんでいきます。それらを組み合わせていく中で、自分なりの「世界観」は生まれていくのだと思います。
僕個人としては、『The Last of Us』(ゲーム)のような荒廃した世界観が好きです。荒れる前の世界はどのような世界だったのかを、いろいろなところに残る情報の断片から想像することで、そこに世界観を感じ取ることができるから。
理由なく置かれているものは好きじゃないので、自分で作る際も、頭の中には必ずその世界観に至った理由、そこに植物なり物なりが置かれている理由を持つようにしています。
実際にそういった世界観を自ら思い描き、UEで必要なアセットを探して組み上げた作品がたくさん登場しているのは素晴らしい流れだと思います。これまでは予算の問題で勝負できなかったクリエイターがUEを活用することで、表現の多様化が進んでいるのが最も良いことだと感じています。
独特の世界観づくりにも使える 「PPLineDrawing」
最後にひとつ、僕自身が開発したUEのツールをご紹介します。
PPCelShader
https://github.com/alwei/PPCelShader
PPLineDrawing
https://github.com/alwei/PPLineDrawing
もともと「PPCelShader」というアニメ調のレンダリングを行うものを開発していたんですが、漫画家の浅野いにお先生が「漫画でも使いたい人が多い」とおっしゃっているのを聞いたのをきっかけに作ってみました。
漫画家なら最終的には「線」が必要なわけですが、PPCelShaderは線を抽出してレンダリングしていたので、少しカスタマイズすれば線画だけ抽出したものを作れるな、と。想像以上の反響を頂いたので紹介しようと思います。
以下が実際にPPLineDrawingを使用していただいたものの事例です。
alwei @aizen76 さんが公開されたUE4線画ポストプロセスを京都アセットに適用させてみました。
— 中村 基典@3D背景アーティスト / Moto Nakamura (@motonak_jp) March 1, 2020
スクリーントーン的な部分が出るようにマテリアルに少し追加させて頂きました。漫画表現としては良い感じなのでは。https://t.co/LEHQdGoWpO pic.twitter.com/CKg5NxFSHj
探索は出来るけどどういうゲーム性にするかが課題 #gamedev #indiedev pic.twitter.com/i32nWcrUcT
— なぎ@ML (@nagi3dcg) November 5, 2021
UE4(3D制作ソフト)でPPLineDrawing(線画化できるやつ)を試してみました。これはかなり使えそう・・・・。れこ丸先生の導入手順のツイートがなかったら導入できなかったので感謝・・・! pic.twitter.com/sNv5TR67aA
— 納豆まぜお (@mazemazemazeo) January 7, 2021
学校の教室のようなイラスト寄りの題材はベクター化で線太さの均一化、リアル寄りの描写ならスクショ画像でラスターでも商業投稿規格サイズまで十分行ける。上下とも「輝度を透明度に変換」で線画抽出後2値化のちに仕上げ。漫画制作・イラスト制作者の即戦力としてアンリアルエンジンは使える!!#UE4 pic.twitter.com/8sAb17QpxS
— ハタロー (@hataroumanga) November 3, 2021
最初は漫画の背景を想定していたのですが、ゲームの背景に使っていただいていたり、ツールを使う人によってさまざまな世界観が生まれていていろんな活用ができるものだと思っています。
このように、UEには「作るためのツール」はほぼすべて用意されています。あとはもう作るのみ!UE5(Unreal Engine5)になると、ポリゴンの制限もほぼなくなるので、今まで以上に複雑なものもレンダリングできるようになります。
今まで「制限があるから」としていた言い訳自体ができなくなる分、その限界を突破するような作品がたくさん出てくることに期待しています。
アドベントカレンダー2021、そのほかの記事はこちらから!
コメントする