Unity を検索

『Sherman』の紹介(パート 2) – リアルタイムファー、HD レンダーパイプライン(HDRP)、Visual Effect Graph をフィーチャーしたアニメーター向け Unity プロジェクト

2019年6月11日 カテゴリ: ゲーム | 20 分 で読めます
シェア

Is this article helpful for you?

Thank you for your feedback!

『Baymax Dreams』を手がけ、エミー賞を受賞したチームが制作した『Sherman』は、Unity による最先端のリアルタイムファー処理が自慢の新作ショートフィルムです。

Unity のメディアおよびエンターテインメントイノベーショングループで技術責任者を務める Mike Wuetherick です。3 年前の Unity への入社後間もなく、CG アニメーションや映画向けの Unity の機能向上を専門とするイノベーションチームの立ち上げに携わりました。それ以来、光栄なことに、Neill Blomkamp 監督のオーツスタジオ(『ADAM』のエピソード 2 & 3)や『Sonder』の Neth Nom 監督、最近では Disney Television Animation との協力によるショートフィルム『Baymax Dreams』など、名だたるクリエイターとコラボレーションする機会を持つことができました。

この記事は『Sherman』に関するブログシリーズのパート 2 です。パート 1 では、このショートフィルムの制作、アニメーションブロッキング、Look Dev、カメラレイアウトについて説明しました。こちらもぜひご覧ください。

目次(パート 2)

7.Alembic を使用した高度なアニメーション
8.リニアコンテンツのためのライティング戦略
9.ファーと VFX
10.Filmic Motion Blur/スーパーサンプリング
11.Unity Recorder

Alembic を使用した高度なアニメーション

『Baymax Dreams』のショートフィルムでは、Maya から Unity にアセットを転送するための主なフォーマットとして FBX ファイルフォーマットを使用しました。DCC パッケージ間でのデータ転送には、常に課題が伴います。ソースフォーマット(たとえば Maya)から外部フォーマットへのコンテンツのエクスポートは、その性質上ある程度の損失は避けられません。とはいえ、利用できるフォーマットで作業することにはメリットもあれば、デメリットもあります。

FBX は Unity のプロジェクトの大半で使用される一般的なフォーマットで、ワークフローが明確に定義され、最適化されます。従来型のボーンベースのアニメーションと FBX の組み合わせは、Unity プロジェクトの大半でアニメーションを作成する方法として採用されていますが、この手法には制限もあります。

  1. ボーンのスキンウェイトの制限(Unity 2019.1 以前)
  2. スケール補正(潰しや伸ばしに関するもの)

スキンウェイト

Unity 2018.3(およびそれ以前のバージョン)では、各頂点にウェイト付けできるボーンが最大 4 本なので、高度なスキンウェイトがさらに複雑になり、悩ましい問題になっています。この制限は Unity 2019.1(頂点あたりサポートされるボーンが最大 256 本)で解消されましたが、ショートフィルムの開発期間中、Unity 2019.1 はまだ早期アルファ版だったため、『Sherman』の制作には、引き続き Unity 2018.3 を使用することを決定しました。

スケール補正(潰しと伸ばしに関するもの)

アニメーターとして最初に学ぶことの 1 つが、潰しと伸ばしです(Wikipedia によると、アニメーションの 12 の原則で「間違いなく最も重要なもの」と考えられます)。下のビデオは、ショートフィルム『Sherman』に登場するアライグマの初期段階のアニメーションテストのデモを示しています。このビデオは、初期段階に実装したファーがキャラクターのアニメーションやリグとどのように連動するかを検証するために作成されました。

潰しと伸ばしのアニメーションを正確に実現するために、「スケール補正」と呼ばれる手法が使われています。『Baymax Dreams』プロジェクトでは、リギングの裏技(リグ階層をフラット化するもの)をいくつか使ってこれを実現しましたが、『Sherman』では別のアプローチを試してみることにしました。それが Alembic です。

ソリューション:Alembic

Alembic(www.alembic.io)は、VFX やアニメーションの制作でよく使われるファイルフォーマットです。スタジオでパイプライン内のさまざまなソフトウェアパッケージからコンテンツを移行できるようにする交換フォーマットとして、人気を集めました。スキンメッシュとボーンを使ってメッシュの変換とデフォームを行う FBX とは異なり、Alembic アセットはソースモデルの頂点をベイクした状態で表現するので、ソースアセットの「見た目どおり」のコピーを、Alembic ファイルをサポートする任意のパッケージに移すことができます。

Alembic for Unity の初めての実装は、マーザ・アニメーションプラネットと Unity Japan が共同で制作したショートフィルム『The Gift』にさかのぼります。Alembic はこのショートフィルム終盤の巨大な「ボールプール」の波のアニメーションを描写するために使用されました。また、オーツスタジオと共同で制作したショートフィルムプロジェクト『Adam』のエピソード 2 & 3 ではさらに機能が追加されました。

Alembic パッケージが正式版に

Unity 2019.1 では、Alembic for Unity パッケージが正式版になりました。つまり、今後フルサポート対象の形式になるということです。これは CG アニメーションに携わるすべての人にとっての朗報です。既存のパイプラインで使っている既知のフォーマットで作業できるのは大きなメリットです。Alembic for Unity でサポートされている機能や、自作のプロジェクトで利用を開始する方法について詳しくは、パッケージのドキュメントをご覧ください。

Alembic の課題

Alembic がフォーマットとして魅力的なのには、いくつもの理由があります。たとえば、FBX やその他のフォーマットにつきもののリギングやアニメーションに関する特殊な制約を気にすることなく、あるパッケージから別のパッケージにコンテンツを移動できる WYSIWYG 機能は、Maya からのアニメーションのベイキングに最適です。

ただし、Alembic にも多くの課題がいくつかあります。

  1. ファイルサイズ
  2. オブジェクトのアタッチ
  3. マテリアル管理

ファイルサイズ

Alembic ファイル内のアニメーションの各フレームは、そのフレームにあるモデルの頂点位置をベイクしたもののスナップショットです。その結果、キャッシュするデータ量がかなり大きくなり、ハイポリゴンのメッシュが増えるほど、また、アニメーションが長くなるほど、Alembic ファイルのサイズは大きくなります。

『Sherman』の場合、最終的に 7 つの「ビート」(シーケンス)からなるショートフィルムになりました。それぞれのシーケンスについて、シーン内の各「キャラクター」(散水機、ホース、ノームなど)に対応する Alembic ファイルを出力します。結果として出力される Alembic フォーマットのアニメーションファイルは、約 7GB のアニメーションデータになります。これは、たとえば FBX フォーマットの同程度の長さのアニメーションに比べると、かなり大きなサイズです。この量のデータをリアルタイムのフレームレートでストリーミングした場合のオーバーヘッドは軽視できるものではないので、何かしらの対策が必要です。

たとえば、『Adam』のエピソード 2 & 3 のショートフィルムでは Alembic を使ってキャラクターの要素(衣服や顔のアニメーション)をストリーミングしましたが、リアルタイムの制約(アニメーションを 30fps で再生する必要がある)により、それを実現するためにシーン内の Alembic を詳細レベルで管理しなければなりませんでした。

アタッチポイント

ライトやリフレクションプローブのような要素をシーン内のアニメーション化されたオブジェクトにアタッチするのは、ごく一般的な手法です。スケルタルアニメーションでは、これはアタッチされたオブジェクトをシーンヒエラルキーに子として埋め込むだけの、きわめて簡単なタスクです。また、Cinemachine も、こうしたローカル参照変換を利用して、カメラのフォーカスやターゲットにする場所を制御します。

ところが、Alembic にエクスポートする場合、デフォルトではアニメーションのエクスポート時にキャラクターのスケルトンは含まれません(「レンダリング可能な場合のみ」としてエクスポートされます)。Alembic アニメーションの再生中にアイテムを正しい位置にアタッチするための別のアプローチを考える必要があります。ありがたいことに、Maya の Alembic エクスポーターにはレンダリング可能なメッシュデータ以外のデータをエクスポートするためのオプションがいくつか用意されています。

Maya の Alembic エクスポートオプション。

「Renderable Only」チェックボックスをオフにするだけで、Maya では、レンダリングされたメッシュと合わせて、キャラクターの完全な IK リグとスケルトン/ボーンの位置もエクスポートされました。これらの位置を使えば、ライト、リフレクションプローブ、VFX を適切なノードにアタッチできます。

マテリアル管理

Alembic のもう 1 つの欠点は、フォーマット内にマテリアルの定義が一切保存されないことです。FBX やその他の大半のフォーマットには、どのテクスチャーがどのマテリアルに適用されるのかという定義が含まれますが、Alembic では、この情報が DCC(Maya など)から Unity に伝達されません。つまり、アニメーションが Alembic に再エクスポートされるたびに、個々のアニメーションに対してマテリアルをリマップする必要があることを意味します。制作過程全体で、多数の Alembic クリップが適切なマテリアルと同期された状態に保つためにずいぶん時間を費やしました。

私たちは『Sherman』の制作中、Alembic ファイルのマテリアルマッピングを簡素化するためのツールをいくつか開発しました。そのうちの 2 つは、GitHub で入手可能な新しい Film/TV Toolbox パッケージや、Unity のパッケージリポジトリで配布しているパッケージとして提供しています。

Unity のパッケージマネージャーにある Film/TV Toolbox パッケージ。

詳しくは以下をご覧ください。

USD と今後の予定

この分野では、今後の展開が楽しみな開発がいくつか進められていて、注目を集めています。ピクサーのオープンソース USD フォーマットは、ここ数年勢いを増しています。また最近では、Unity もパッケージマネージャー経由で USD に対応した最初のバージョンをリリースしました

USD がもたらす可能性に対してチームの期待も高まっています。Unity では今後の制作のため、このフォーマットにこれからも注目し続けていきます。

リニアコンテンツのためのライティング戦略

リアルタイムでのライティングは、従来型のオフラインレンダラーを使うようにはいきません。基本は同じですが(シーン内でのライトの設置など)技術的なアプローチは大きく異なります。

『Sherman』のようなショートフィルムでのリアルタイムライティングは、ライトプローブ、リフレクションプローブ(平面と立体両方)、カスケードシャドウマップ、ベイクしたグローバルイルミネーションなど、複数の手法を組み合わせることで実現します。

『Sherman』のようなプロジェクトでライティングに取り組む際に、私たちにとって頼りになるのがライティングスーパーバイザーの Jean-Philippe(JP)Leroux です。

最初のリアルタイム化を成し遂げるため、ライティングソリューションで事前計算が必要になる局面がありました。そのために、セットにちょっとした下準備が求められました。

グローバルイルミネーション

間接光では、ローカライズされた環境光ライティングを高い品質で実現するための事前計算が必要です。大型の静的オブジェクトはすべて、解に影響するとマークされてライトマップが付けられます。私たちはこれをプログレッシブライトマッパーの Baked Indirect モードを使用して行いました。

小さなオブジェクトと動的オブジェクトはすべて、プローブ配列で照らされます。ライトマッピングに適していない大きめのオブジェクトは、プロキシボリュームを利用することで、より精緻なプローブライティングの恩恵を受けられます。

念のため、私たちはライトをベイクしたのではなく、空とディレクショナルライトの反射の影響をベイクしただけだということを付け加えておきます。

リフレクション

リフレクションプローブを使用して、ベイク済みのローカライズしたリフレクションを十分カバーするようにセットを設定する必要もあります。

キャプチャーポイントの大半をカメラレベルで配置します。太陽が地平線に近づいた空は非常に強い指向性を持つので、影になるエリアを正確にカバーするためにもうひと工夫が必要になります。

反射率が高いオブジェクトの中には、リアルタイムリフレクションのメリットが得られるものもあります。この場合は、金属製の餌入れと光沢のある膨らんだホースが該当します。前者には球状のリアルタイムリフレクションプローブ、後者には平面反射を使用しました。

ライト

この時点ですべてのライトが純粋に動的になり、その場でフィードバックを確認しながらプロパティーを作成したり、移動させたりできるようになります。ワークフローの裏技を 1 つ伝授します。ライトの配置にピボットオブジェクトを使用してみましょう。ピボットがターゲットとして機能します。位置が決まると、「x」キーを使って向きのローカルとグローバルを切り替えることで、簡単にキャラクターの周りを旋回させることができます。

また、すべてのライトが影を投影していることも重要です。

プレハブを使った作業には多くのメリットがあります。

  1. 1 つのオブジェクトをシーンに固定せずに操作できるので、他の人が同時に作業できます。
  2. sequence\project から変更をすばやく反映できます。
  3. オーバーライドされた値をすぐに元に戻すことができます。

『Sherman』では、ビートごとにマスタープレハブを作成し、以下の要素にネストされたプレハブを作成しました。

  • 太陽
  • 塗りつぶし太陽
  • 塗りつぶし空
  • 縁取り太陽
  • 縁取り空
  • キャッチライト

マスタープレハブはショットごとに構造化され、それらをトリガーするために Timeline でアクティベーショントラックを使用しました。

その中には、ショット専用ライト、特定のグローバルライティングプロパティーをオーバーライドするボリューム、大気ライティングを駆動するための密度ボリューム、シャドウオブジェクトなど、さまざまなものがあります。

ポストプロセッシングのようなその他のプロパティーは、Cinemachine ポストプロセッシングクリップや Timeline を通じて調整されます。グレーディング、カメラエフェクト、その他カメラカリングのような最適化などがあります。

CinemachinePostProcessing コンポーネントにより個々のバーチャルカメラに適用された、各ショットのカスタムポストプロファイル。

ファーと VFX

アニマティックを受け取った私たちは、すぐにショートフィルムの成功の鍵になる、以下の要素を特定しました。

  1. 水の VFX
  2. アライグマのファー

このショートフィルムでは散水機が「主役」級の役割を果たすので、流体のシミュレーションをどう処理するべきなのか、というのが初期段階で直面した課題の 1 つでした。アニメーションで流体のシミュレーションを処理する従来の方法は、Houdini や、Maya でネイティブに用意されている流体システムなど、いくつもあります。初期段階では Steven が Maya を使った流体エフェクトの検証を何度か行いましたが、彼は Maya の流体システムや Houdini に精通していたわけではなかったため、作業量のわりに期待するような成果が得られないのではないかという懸念がありました。

同じころ、Unity は新たにノードベースの GPU 駆動型エフェクトシステムとして Visual Effect Graph をリリースしました。期待できそうではありましたが、私たちにはそのシステムを使用した経験がなく、それをどのように使ったら求めている結果が得られるのかもわかりませんでした。私たちにとって幸運なことに、Vlad Neykov(ブライトンを拠点とするリードグラフィックステストエンジニア)が参加してくれることになり、すばらしい成果をもたらしてくれました。

Visual Effect Graph を使用した動的エフェクト

2018.3 では、新たに Visual Effect Graph が HDRP 用のプレビュー版としてリリースされました。『Baymax Dreams』のショートフィルムでは、従来のパーティクルシステムをリアルタイムの物理演算(破壊の表現用)と組み合わせて使用していました。チーム内の誰も使用した経験はありませんでしたが、高度な水のシミュレーションと望みどおりのビジュアルを実現するためには、この新しい Visual Effect Graph が提供する高度なパーティクル機能と HDRP の統合が必要なことは理解していました。

このコンテンツはサードパーティのプロバイダーによってホストされており、Targeting Cookiesを使用することに同意しない限り動画の視聴が許可されません。これらのプロバイダーの動画の視聴を希望する場合は、Targeting Cookiesのクッキーの設定をオンにしてください。

Unity の社内に Visual Effect Graph の使用経験者がいないかあたってみたところ、幸運にもこのショートフィルム内に見事な水やその他のエフェクトを作り出せる Vlad Neykov の力を借りることができることになりました。

VFX をすべて独自の Timeline シーケンスで管理するようにしたことで、Vlad はタイミングとアニメーションを分けて反復処理できるようになり、Visual Effect Graph に付属するカスタムの「ビジュアルエフェクトアクティベーショントラック」と従来のアニメーショントラックを組み合わせて、グラフのプロパティーをアニメーション化しました。

このコンテンツはサードパーティのプロバイダーによってホストされており、Targeting Cookiesを使用することに同意しない限り動画の視聴が許可されません。これらのプロバイダーの動画の視聴を希望する場合は、Targeting Cookiesのクッキーの設定をオンにしてください。

散水機のエフェクトについては、Vlad はまず「1 つの水エフェクトがすべてを制する」という考えを念頭に置き、徐々に新しいケースを含めるかたちで拡張していきました(水がカメラ側から出てくる最初のショットでコントロールを追加するようにして、水が餌入れに跳ね返る別のショットで衝突を追加しつつそれを別のショットに隠すようにして、深度衝突が十分な近さで起こらなかった別のショットを球体衝突と置き換える、など)。最終的には、制作中のほぼすべてのショットに、特定の状況に対応するための個別の水エフェクトが用意されました。

当初 Vlad はスクリーン空間深度テストを使って水の衝突を処理していましたが、さまざまな状況を検証した結果、さまざまな衝突ボリュームに対応するシンプルな平面/球状の衝突表現で置き換えることにしました。

はじめに気にかけていたのはどうやって散水機の動的な水エフェクトを実現するかということでしたが、Vlad は結局、生け垣から落ちる葉っぱ、足跡の土煙、土の爆発、電気の火花などの細部に至るまで、ショートフィルムのエフェクトをすべて仕上げてくれたのです。このプロジェクトは Visual Effect Graph を実際に使用した格好のテストケースになりました。また、チームが Visual Effect Graph の開発を継続するためのフィードバックをたくさん得ることができました。

とにかく私たちは、Visual Effect Graph が引き出す Unity の可能性におおいに期待しています。また、プロジェクトに対して期待を上回る貢献を果たしてくれた Vlad にはとても感謝しています。

リアルタイムファー(とフェザー)への取り組み

ショートフィルム制作にあたって、私たちには技術的に目指していることがいくつかありました。今回私たちが取り組むことにした(大げさかもしれませんが)最大のトピックが、アニメーション用のリアルタイムエンジンについてスタジオでよく話題になる「ファー」でした。

当初私たちは、ファーレンダリングへの挑戦をためらっていました。John のグラフィックスエンジニアとしての能力にまったく不安はありませんでしたが、リアルタイムで「オフライン品質」のファーをうまく実現することは、かなりの難問でした。

使用するエンジンにかかわらず、以下の 4 つが髪の毛やファーのソリューションを構成する鍵になる要素です。

  1. ジオメトリの生成
  2. シェーディング
  3. 動力学
  4. オーサリング

『Sherman』でのファー用に、最初の 2 つ(ジオメトリの生成とシェーディング)について動力学(物理演算)を使っていくつか実験を行ってみましたが、結局ショートフィルムの完成版には使用しないことに決めました。最後の鍵となる側面は、ファーの実際のオーサリングです。アーティストが直接ファーを扱える方法を提供することで、最終的な仕上がりがまるで違ってきます。

チームが最初にしたことは、ファーレンダリングに関する既存の作業についての評価でした。Unity に初めて実装された「ファー」レンダリングの 1 つは、マーザ・アニメーションプラネットが自社のショートフィルム『The Gift』のために作成したものでした。

毎年 Unity は全社をあげて「Hackweek」を開催しています。「Hackweek」では、Unity のエンジニアリングチームの大半が集まって新しく興味深いプロジェクトでコラボレーションし、実験的なアイデアを試したり、ざっと試作を行ったりします。昨年はあるチームが、『The Gift』での成果を引き継いで、Unity のリアルタイムファーへの応用の可能性を探ろうとしました。このチームはマーザ・アニメーションプラネットのファーを(特に)HDRP に移植し、『Sherman』のチームがファーソリューションを構築するための基盤を提供しました。

Hackweek のプロジェクトで得られた基本的な実装から、John と Steven はファーをオーサリングするためのワークフローに着手しました。

具体的な技術的詳細には深入りしません(私の手には余るため)が、チームのアプローチにはいくつか興味深い点があるので、それをご紹介します。

ソースファーメッシュ/SDF

ファーについて Steven が最初に行ったことの 1 つは、ファーのパッチを個々の毛束として実際にモデル化することでした。これは SDF(符号付き距離場)にベイクされ、ファーのジオメトリボリューム自体のソースとして使われました。ファー用にこの高解像度ソースがあることにより、純粋なハルベースのアプローチに比べてファーの忠実度がはるかに高くなります。たとえば、法線を毛束単位で計算できるので、大半の既存のリアルタイムファー実装に比べてライティングが大きく改善されます。実装の進化に伴い、ファーの「オーバーコート」用の 2 つ目の分析 SDF が組み込まれ、2 つをブレンドできるようになりました。

ソースファーメッシュ(SDF を生成するために使用)。

アンダーコートにはベイク済み SDF を使用し、オーバーコートには解析的な SDF を使用するので、ニーズに合った SDF を選ぶことができます。解析的な SDF には解像度の制限がなく、将来的には毛束のプロファイル/プロパティーを Unity 内で直接変更できるようになります。ベイク済み SDF では、より複雑なジオメトリ(解析的手法では実行不可能または実現が困難な羽毛のジオメトリやファーのスタイルなど)をベイクしたり、任意の DCC アプリで作成したもの予測可能な形で再現したりできます。

グルームマップ/ハイトマップ

ファー自体の出来は素晴らしいのですが、アライグマのような動物は全身にくまなく直毛というわけではありません。さらに、一般的にファーの長さは体全体で均一ではありません。

仕上がりを良くするためにとても重要だったのが、ファーの法線とジオメトリを変更するために適用できるグルームマップを作成する機能でした。Steven はグルームマップの生成に Mari を使用しました。また、ハイトマップも生成して、アライグマの体の部分ごとにファーの長さを制御しました。

Filmic Motion Blur/スーパーサンプリング

『Sherman』の制作過程で、チームは数多くのカスタムツールを作成しました。そのほとんどは、コンセプトこそシンプルなものの、ワークフローや時間の節約に大きく貢献するものでした。開発された技術の中でも欠かせないものの 1 つが、私たちが「Filmic Motion Blur」と呼んでいるシステムです。

『Baymax Dreams』プロジェクトで私たちが解決しなければならなかった大きな技術的課題の 1 つが、モーションブラーでした。現在最先端の「リアルタイム」モーションブラーは、ゲームプレイ時の高フレームレートでは見栄えも良いですが、(24fps でのテレビ放送に必要とするような)オフラインレンダリングでは、放送には耐えられないほどのアーティファクトが発生しています。

ディズニーの品質基準をクリアするために、John Parsaie が開発したのが Filmic Motion Blur システムです。簡単に言えば、Filmic Motion Blur はアキュムレーションベースのレンダラーです。24fps でレンダリングする代わりに、Timeline のシーケンスは 960fps でレンダリングされ、中間バッファーは最終的にディスクに書き込まれる実際のフレームに累積されます。既存のレンダーバッファーの結果を単純に組み合わせたものがエフェクトになるので、修正しなくてもあらゆるマテリアルやシェーダーと連携させられます。

『Sherman』でも、ファーのサンプルを最終的なフレームに集約するために同じ手法が使われています。私たちは今後に向けて、これと同じ手法を使って映画のようなハイエンドの被写体深度やその他のスーパーサンプリングエフェクトを創出する方法を模索しています。

このアプローチによるフレームのレンダリングにはトレードオフが伴います。その中で一番大きいのが、リアルタイムに耐える FPS で動作しない点です。実際、ディテールとファーをフル表示する 4K では、最終的なフレームの出力時のレートを「1 分あたりのフレーム数」で語る時代に突入しています。とは言っても、最終的なフレームのレンダリングに数時間かかりかねない既存のオフライン CPU や GPU レンダラーに比べれば、これがはるかに高速であることに変わりはありません。

レンダーウィンドウ

Filmic Motion Blur は最終的な画質を大幅に向上させ、大成功をおさめました。最大の欠点は、スーパーサンプリングと集約がすべて含まれる最終結果を確認するには、作業中のシーケンスやショットをレンダリングする必要があることです。

この問題を解決するため、私たちはレンダーウィンドウを作成しました。これは、チームメンバーなら誰でも必要に応じて最終品質のレンダーを出力できるカスタムエディターウィンドウです。その結果、Steven は、グルームマップを調整し、最終的な結果をすばやく確認できる状態を維持しつつ、必要に応じてファーを微調整できるようになりました。

アルファディザリングしたファーと最終的に集約されたフレームを並べたもの。

Recorder

『Sherman』のようなプロジェクトでの作業は、一般的な Unity プロジェクトとは異なります。最終成果物は、最終版のアニメーションの仕上げに使用するエディターから出力された時系列のフレームになります。そのため、私たちは Unity の Recorder パッケージを使用してエディターから最終版の画像をレンダリングしました。前述の Filmic Motion blur 機能は、Recorder のTimeline 統合に使用されており、ファーを集約し、最終的なフレーム用にスーパーサンプリングしたモーションブラーを作成できるようになっています。

Unity のRecorder のトラックとクリップの設定

完成したフレームは、チームがミニレンダーファームとして使っている 3 台の専用 PC を使用して 4K でレンダリングされました(そのため、メインのワークステーションをレンダリングに使用する必要はありませんでした)。チームがレビューできるように、毎晩新しい「デイリー」を進捗の最終品質でレンダリングします。

まとめ

これで『Sherman』に関するブログシリーズの後半部分もおしまいです。私たちのチームがこのプロジェクトに命を吹き込むまでの過程と、そこで使ったテクニックや裏技が参考になれば嬉しく思います。パート 1 では、キャラクターアニメーションに Alembic を使用する方法や『Sherman』用に作成したファー実装を詳しく説明するほか、Unity を使ってリニアアニメーションを制作するチームを支援するためにイノベーショングループが開発した追加ツールの一部を紹介しています。ぜひご覧ください!

私たちにとって『Sherman』は本当に胸躍る経験でした。皆さんがアニメーションの制作に Unity をどのように活用しているかについても、ぜひお話をお聞かせください。それから最後に 1 つ。Sherman はアライグマではなく、実はかわいいフワフワの鳥なのです。

Unity をアニメーションプロジェクトに活用する方法についてもっと詳しく知りたい方には、Unity の EDU チームがプライベートなオンサイトのトレーニングワークショップを提供します。このワークショップは個々のお客様やチームのニーズに合わせて詳細にカスタマイズできます。どのワークショップも、Unity 認定インストラクターが指導し、Unity のスキルやベストプラクティスが身に付くハンズオンプロジェクトが盛り込まれています。また、こちらから Unity フォーラムに参加して、このブログ記事について議論することもできます。

『Sherman』の詳細(プロジェクト全体へのアクセスを含む)については、映像制作ページをご覧ください。また、皆さんのプロジェクトを成功に導くために Unity とイノベーショングループがどのような支援を提供できるかについては、こちらからお問い合わせください

2019年6月11日 カテゴリ: ゲーム | 20 分 で読めます

Is this article helpful for you?

Thank you for your feedback!