Epic、Samaritanとグラフィックの将来について語る・・・「Unreal Japan News」第23回 | GameBusiness.jp

Epic、Samaritanとグラフィックの将来について語る・・・「Unreal Japan News」第23回

Text byアンドリュー・バーンズ

その他 その他
Text byアンドリュー・バーンズ

本年度のGame Developers Conferenceでは、Epic Games制作のSamaritanのデモンストレーションが披露され、参加者の強い注目を集めました。これは、アンリアル・エンジン3および3枚のNVIDIA GeForce GTX 580グラフィック・カードの処理能力によって実現可能なリアルな表現力を紹介するものです。Epicによる世界初公開のこのリアルタイム・デモンストレーションは、DirectX 11のみで構成されており、大きな話題を呼び起こして、DirectX 9の暗黒時代に未だ取り残されている業界の注意を促すものとなりました。

このデモのオープニングでは、最も話題を集めた高度な技術を確認することができます。ボケ被写界深度として知られるこの技術は、近年のゲームに使用されている標準的なぼかしブラー処理をさらに進化させたものですが、実際は10年以上も存在している技術です。1999年には3dfx社が、その主力技術Voodoo T-Bufferを使用したデモを行っていました。この新技術の「ボケ」コンポーネントは、テレビや映画で、シーンの雰囲気や視覚効果の演出に利用されている、定義可能なぼかし形状に関連したものです。「ブラー」を意味する日本語の「ボケ」に由来するこの効果について、Epic Gamesのマーティン・ミットリング氏は、シンプルなぼかし処理を高度に進化させたものと考えており、「これによって見ている人の注目の対象をコントロールすることができ、奥行きを造り出すことができます」と語り、そしてこの効果は、「現在のゲームで不可欠な役割を担っているストーリー演出にとって非常に重要なものです」としています。 Epic Gamesのシニア・グラフィック・アーキテクトを務めるミットリング氏は、「この効果は、あまり目立つものではありません」としながらも、「しかし、武器の照準を合わせるなどの場面によっては、視覚的なクオリティを向上させることができる」とも考えています。

Samaritanデモの最初のシーンでは、Epic Gamesのロゴの左側にこのボケ被写界深度の効果が使用されている。


この効果の主な用途はシーンのカットで、以下のサンプルのように、仮想カメラのレンズ形状を設定して、ぼかされたオブジェクトの形状を制御することができます。ミットリング氏は、Epicの新しいボケ技法が「最新のグラフィック・カードを使用すればかなり高速で実行できます」と、その喜びを語る一方で、ハリウッドの最高に優秀な技術者たちが何十年もかけて蓄積してきた映像効果技術に匹敵するレベルになるまではまだ時間が掛かるだろう、ということも認めています。ミットリング氏と彼のスタッフにとって、「透過性、適切なオクルージョン、モーション・ブラー」を向上させるには、よりパワフルなハードウェアとさらに高性能なソフトウェア開発ツールが必要ですが、現段階では、まだそのレベルの技術は期待できません。

アート・デザイナーが設定したボケ・エフェクトのサンプル。アンリアル・エンジン3で利用可能。


Samaritanデモに採用されているボケ・エフェクトのサンプル。


Samaritanデモで使用されている技術は、それ自体の開発と導入に8か月もかかっています。2010年6月に始まったこの作業では、NVIDIAの開発者用技術エンジニア、ブライアン・デュダッシュ氏と彼のチームが、EpicのUnreal Engine 3 DirectX 11 RHIのグラフィック・ラッパー・コードの作成を開始しました。これは、DirectX 11で開発されたあらゆるコンテンツをアンリアル・エンジンから出力するためのコードです。Epicのエンジン・チームは、事前に計画を立ててDirectX 11の機能を導入し、その後、実際にSamaritanデモの開発を実施しました。この開発開始の時点では、ストーリーボード(絵コンテ)が完成し、万全な準備が整っていました。 「デモ開発の最終段階では、NVIDIAのエンジニアがパフォーマンス分析とデバッグを実施し、GPUの性能を確実に最大限引き出せるようにしました」と、デュダッシュ氏は付け加えます。すべての作業は2011年3月2日のSamaritanデモ発表日まで速いペースで進行しました。

Samaritanのシーン割りと、各シーンでハイライトする技術が記載された初期のストーリーボード


上述のようにこのデモは、3-Way SLI GeForce GTX 580システム上でリアルタイムに実行されますが、このシステム構成の性能をもってしても、依然として技術的な壁が存在します。この理由から、Epicのグラフィック・プログラマー、ダニエル・ライト氏は、「NVIDIAの開発支援センターの非常に優秀なエンジニアの協力のおかげで、NVIDIAグラフィック・カードの複雑な性能をより効率的に活用でき、最高のパフォーマンスが実現しました」と、語ります。 高度に制御されたこのSamaritanデモには、実際の市販ゲームに搭載されるような人工知能やその他のオーバーヘッドがないため、十分な時間と労力を注ぐことができましたが、このデモは、一般的なゲーム・スペックのコンピューターで、標準的なグラフィック・カード1枚のみの構成でも実行できるものなのでしょうか? Epicのミットリング氏はそう信じています。しかし、その一方で「Samaritanでは、DirectX 11で可能なことを試行錯誤したため、SLIによって時間を節約することができました」とも語っています。

ビジュアル・スタイルに関するSamaritanの初期コンセプト・アートは使用されなかったが、そのエレメントは最終的なデモに反映されている。最終的なデモでは、波打つコート、影、腐敗した警察権力を表すような暗闇が表現されている。


おそらく、次世代のグラフィック・カードが登場するまでは、これと同じ表現力のゲームは実現不可能と思われますが、「鶏が先か、卵が先か」のような状況の中、次世代グラフィック技術を搭載したハードウェアも、プログラムなしでは実現しえません。Samaritanにおいては、グラフィック・カード3枚分の有り余るほど強力なパワーをSLIで活用することにより、だれでもこのジレンマを解決することができます。デュダッシュ氏は、NVIDIAにとってのEpicとのコラボレーションについて「お互いにとってメリットのある作業でした」とし、「Epicとのコラボレーションは、非常に有意義な経験となりました。Epicのエンジニアは、グラフィックに関して業界最先端の知識を持っているだけでなく、アート・デザイナーとしても業界トップレベルです」と述べています。

「Samaritanのように、技術的に高度なデモという課題に取り組む過程を通じ、便利な機能のタイプについて、そして利用が難しい機能について多くを学ぶことになりました。また、ハードウェアとソフトウェアの両方に関する現在のAPIと機能セットにおける各種制約も発見しました」と、氏は続けます。そして、新しく蓄積されたこの知識は、「将来的なハードウェア設計やドライバのアップデートに反映されるでしょう」とも語っています。最後に、NVIDIAの開発者用技術エンジニアである氏は、Epicについて、「このデモでEpicと協力できたことを非常にうれしく思います。彼らが次にどんなものを用意してくるか、とても楽しみです」と好意的なコメントを寄せています。

Samaritanデモで、街頭が映し出されてワシントンDCの議事堂が見えるシーンでは、DirectX 11の複数の機能を組み合わせて、これまで見たことのないようなレベルのディテールや雨に濡れた風景が再現されています。最初に目につく濡れた路面や歩道には、多くのテクスチャ、高度の変化、光源が適用されています。

Samaritanデモのオープニング・シーン。ポイント・ライト・リフレクション(Point Light Reflections)や看板などの多くの技術が使用されている。


フォン(Phong)やブリンフォン(Blinn-Phong)などの従来のテクニックでは、目的とする反射を再現することができませんが、これらに代わって使用されている、Epicの新しいスペキュラ「ポイント・ライト・リフレクション」は、現在の技術で最も「現実」に近い表現を可能にします。以下は、参考用写真とエンジンで表現された画像の比較です。

上記テクニックの現実サンプル。リアルタイムの結果(以下の画像)には、背景のディテールと周囲の風景を美しく反射した滑らかな路面が表現されている。これは、現実のサンプルが正しくエミュレートされない限り不可能な表現。


ゲーム内の結果。均一でない路面では、光の反射が途切れている部分があることに注目。


この技術の名前にもなっている「ポイント・ライト」とは、ヘッドライトや街灯を指します。参考写真の街角シーンをエミュレートするため、不均一な路面、コンクリート、舗装部分に、異なる多数のテクスチャが使用されています。これにより、反射の遮断、変化、固定オブジェクトや動的オブジェクト(路上の設置物や移動する車両など)とのオクルージョンが可能になります。Epicのミットリング氏は、「濡れた道路の風景は反射であふれていて、明るい物体は、あらゆる場所に反射しているように見えます」と説明しています。これを表現するため、このシーンには別の技術もレイヤー処理されており、これらを含めて「イメージ・ベース・リフレクション(Image Based Reflections)」として知られています。

----

またSamaritanでは、ビルボード・リフレクション(Billboard Reflections)も使用されており、テクスチャ処理されたビルボードと正確な光源処理によって、ボードのデザインが再現されています。このようなビルボードは、他のオブジェクトと同様に配置でき、そこから照射される光は、あらゆる表面に、正確かつ比較的簡単に反射させることができます。この反射は、詳細に表示させることも、ぼかして付加的でダイナミックな効果を出すこともできます。複数のビルボードを配置した場合は、その光を正確に組み合わせることや、明るい方の光源でオクルージョンさせることもできます。 一見してあまり目立たないこのビルボード技術もこれまでの反射テクニックとは一線を画すもので、ここで使用されている手法は将来的に、シーン全体にわたる光源処理と反射処理に使用される可能性もあります。

ビルボードの光は、複数の表面に正確に反射させることや、設定を変更して特定の効果を演出することができる。光沢度は、マテリアルのスペキュラ・パワー(反射度)と光源からの距離によって変化する。このサンプルでは、ビルボードに近い壁面より、濡れた路面の方が明るく照らされている。


同じシーンに等方性反射処理と各種レベルのブラーを適用した3つのサンプル。


この高度な光源処理がクリップしたり、リアルさに欠ける状態でオブジェクトやジオメトリから漏れたりすることを防ぐため、レベルをコンパイルおよびレンダリングする際に、スタティック・リフレクション・シャドウ(Static Reflection Shadows)を作成することができます。Samaritanデモでは、パトカーなどの移動オブジェクトに対しても同じ結果を出すため、カメラの位置やキャラクタの視点をベースに、ダイナミック・リフレクション・シャドウ(Dynamic Reflection Shadows)がリアルタイムに生成されています。

スタティック・リフレクション・シャドウのサンプル。左の画像では、光の漏れを防ぐために使用されている。


ダイナミック・リフレクション・シャドウのサンプル。ロボットと車両が路面に接しているように見える。逆に、DRS処理がない右の画像では、オブジェクトが浮いているように見える。


これがイメージ・ベース・リフレクション、およびシーンのリアルさに影響を与えるその効果の重要な点であり、ミットリング氏が「このデモで最も負荷の高い処理」と説明するのも納得がいきます。各種エフェクトの中でも、ビルボード・リフレクションおよびそのオクルージョンとシャドウは、Samaritanデモ全体において最もパフォーマンス負荷の高いエフェクトですが、これは、大幅な技術向上における小さな代償と言えます。

Samaritanデモでは、Epicで一般的に使用される「Powered by Unreal Technology」のモチーフやコピーが、ビルボードとしてレンダリングされている。表面や右側のオブジェクトに反射を確認できる。


イメージ・ベース・リフレクションの負荷コストのバランスを取るのが、「ディファード・シェーディング(Deferred Shading)」と呼ばれるDirectX 11の光源処理技術です。DirectX 9やDirectX 10を使用して開発されたアンリアル・エンジン3のゲームでは、フォワード・シェーディング(Forward Shading)と呼ばれる光源処理が使用されており、シーン内のほかのエレメントがレンダリングされている間に、動的な光源処理計算が事前に実行されます。一方ディファード・シェーディングでは、ジオメトリのレンダリングが別途処理され、光源処理計算は小さなコンポーネントに分割されて、このコンポーネントがグラフィック・バッファに書き込まれます。その後、その結果をすぐにフレーム・バッファに書き込むのではなく、必要に応じてこのコンポーネントが「ディファード・パス」で組み合わされます。この結果として、シーンの光源処理を正確に行うための計算能力とメモリ帯域幅を節約することができ、ビルやその他のオブジェクトで見えなくなっている部分を除いて可視部分のみをシェーディング処理することにより、シーンの複雑さを低減してフレーム・レートを向上させることが可能となります。

Epicのミットリング氏は、ディファード・シェーディングは、「シンプルなシーンではパフォーマンス負荷が高くなります。しかし、複雑なジオメトリや光源が多いシーンでは、この手法が有効に機能します。数分の1秒という短い時間で実現できることには限界がありますが、この手法では、ジオメトリのディテールと光源を向上させることができます」と述べています。 実際に、Samaritanデモのオープニングの街頭シーンでは、123個もの動的な光源を確認することができます。DirectX 9のフォワード・シェーディングと比較すると、ディファード・シェーディングでは10倍も速いパフォーマンスが実現します。

123個ものディファード光源が使用されているSamaritanデモのオープニング・シーン。ここでは路上右車線のパトカーが表示されていないため、赤と青の動的な光源のみが確認できる。


ビルボード光源のクローズアップに続いて、デモと同名の主人公「Samaritan」が初めて登場します。最初の数ショットでは、進化したパーティクル・エフェクト、部分的なモーション・ブラー、および前述の光源処理が主人公に適用されているのがわかります。そしてバーナーを顔に近づけてタバコの火を点けるシーンでは、サブサーフェス・スキャタリング(Subsurface Scattering)を初めて確認できます。

EpicのSamaritanデモでサブサーフェス・スキャタリングが使用されている最初のシーン。


キャラクタに当たった光が単純に反射し、キャラクタが「プラスチックのような蝋人形」に見えてしまう効果を解決するため、サブサーフェス・スキャタリングでは、光がオブジェクトの表面に到達した後、光がオブジェクト内部で分散し、オブジェクトの別の場所から光が出て行くように、フォワード・ライティング(Forward Lighting)がレンダリングされます。 Samaritanデモでは、キャラクタの皮膚に当たった光が吸収され、皮膚の下でリアルに分散した後に別の場所から放出されます。現実の世界でも、暗い部屋でバーナーに手をかざせば、反対側に光が抜けて闇を照らす様子を確認できます。

左画像:光源のデフューズ処理のみ。 中央画像:サブサーフェス・スキャタリング。右画像:2つの処理の組み合わせ。最終的な結果では反射による光沢が減少し、光が固定されている1つ目のサンプルと比較すると、光が拡散している様子がわかる。


人間の目は、脅威や感情を瞬時に認識できるよう、顔面やオブジェクトの細かいディテールを捉えるようにできているため、Epicにとってサブサーフェス・スキャタリングは特に重要な機能でした。ある研究では、ゲームのリアルさにとっての最大の障壁は顔のレンダリングだという結果が報告されています。これを克服するには、光源処理に加え、動作、目、口の動きのモデリング以上のものが求められますが、Epicのこの技術革新によって、「不気味の谷」脱出の新たな一歩を踏み出したことは間違いありません。改善の余地はありますが、Epicも既に認めているように、光が浸透できる皮膚レイヤーの数や、1つの光源から拡散した光が別のオブジェクトに吸収されることができないなど、技術的な制約があります。


バーナーのシーンとそれに続くクローズアップのシーンでは、もうひとつ大きな進化を遂げた点であるリアルな毛髪を確認することもできます。これは、初めてポリゴンが採用されて以来の課題で、一般的に毛髪は、単純なブロックと、別途レンダリングされたいくつかの房状の髪の組み合わせで表現されていました。予算の多い最近のゲームでは、厚く不透明な複数のレイヤーで構成されていることもあります。


Epicは、既存のメッシュ・スキン・テクニックをベースとして、カメラ・アライン・トライアングル・ストリップ(Camera Aligned Triangle Strips)を使用した革新的なソリューションを開発しました。非常に細い線状のトライアングルの頂点が、バーテックス・シェーダー(Vertex Shader)を使用して拡張されるため、5,000個のスプラインが16,000個のトライアングルになります。そして、36本の毛髪が含まれたテクスチャを使用することにより、Samaritanの主人公に見られるような毛髪やひげをリアルに再現できます。


スプライン(左)をバーテックス・シェーダーに配置すると、カメラ・アライン・トライアングル・ストリップ(右)が生成され、これをキャラクタの頭部や顔に配置できる。 Samaritanでは、5,000個のスプラインがこのように処理されて主人公の毛髪を表現している。


この手法の欠点は、ゲーム内のモデルの毛髪の生え際など、密度が低い場所でギザギザが激しく、エイリアスが掛かった線が出現してしまうことで、これでは、最近のゲームの表現レベルを満足させることはできません。このソリューションでは、まずシーン内のすべてのオブジェクトにマルチサンプル・アンチ・エイリアス(Multisample Anti-Aliasing)を4回適用します。その後さらに、主人公の頭部と顔の個々の毛髪にスーパーサンプリング・アンチ・エイリアス(Supersampling Anti-Aliasing)エフェクトを適用し、Samaritanデモに見られるスムーズでリアルな毛髪を表現します。「残念なことに、MSAAはメモリ負荷が非常に高く、MSAAを4回適用するということは、5倍のテクスチャ用メモリが必要になるということを意味し、これによってディファード・レンダリングがさらに困難になります」と、Epicのミットリング氏は説明します。ミットリング氏は冗談で言っているのではなく、Epicでは、Samaritanデモで、常にGeForce GTX 580のメモリの限界「1.5GB」に達していました。しかし、以下の拡大サンプルでわかるように、最終的には、これまでのゲームでは見られなかったほど非常にリアルで価値のある結果がもたらされています。

スーパーサンプリング・アンチ・エイリアス(右画像)を追加することにより、視覚的なリアルさが大幅に向上する。


Samaritanデモでも見られる最終的な表現。


Epicが使用した個々の毛髪束には、もうひとつの利点があります。光が毛髪を透過することができるため、個々の束が動的な影を作り、その後その光を、前述のサブサーフェス・スキャタリングを使用して頭皮や顔の細胞に浸透させることができるのです。

Samaritanデモが進むにつれて主人公は、階下の歩道上で起こっている騒ぎに気付きます。路上では、未来のワシントン警察が市民に暴行を加えています。この騒ぎに介入する前、主人公の皮膚が突然、メタリックで岩石のような装甲にスムーズに変化します。これはこのデモで、最も視覚的に印象に残るシーンです。ここまでのエフェクトはあまり目立つものではなく、ディテールのレベルが向上しただけのようなものですが、この滑らかな変身シーンは、まさに圧巻の見せ場です。

Samaritanの変身シーン。


このシーンは、NVIDIAの最新グラフィック・カードの主要機能「テセレーション(Tessellation)」を使用して実現したもので、Epicのミットリング氏は「この機能を使うのがとても面白かった」と語っています。テセレーションでは、別のキャラクタ・モデルをシーンに読み込んでオリジナルのモデルと交代させるのではなく、同一キャラクタ上に新しいディテールをリアルタイムに作り出すことができます。付加的なディテールを作成するには、モデルを細分化(テセレーション)し、次に、制御可能な追加ポリゴンを発生させるため、事前に作成したディスプレイスメント・マップ(Displacement Map)を使用してこのポリゴンの発生場所と発生方法を設定します(以下のサンプルを参照)。

変身シーンの3つのステージ。各ステージは、ディスプレイスメント・マップによって設定されるが、GPUのテセレーター(Tessellators)によって有機的にレンダリングされる。


Samaritanデモでは、主人公の顔が「時間経過に応じてシェーディングと変位を調節する、異なる3つのステージで変化します。ディスプレイスメント・マップに使用されているテクスチャのディテールを表現するため、高いレベルのテセレーションを使用しました」と、ミットリング氏は説明します。NVIDIAのデュダッシュ氏は、「スプラインやその他のエレメントに対しては複雑な計算を実行しないため」、このテセレーションは最も高速なフラット(Flat)手法を使用して実現され、主人公が変身する際は、テセレーション・レベルの係数が6にセットされていると述べています。

またデュダッシュ氏は、「これはデモには有効ですが、通常のゲーム環境では、オブジェクトがカメラから遠く離れている場合や見えない場合は、テセレーション係数を抑えるため、動的なテセレーションを使用することになるでしょう。アンリアル・エンジン3では、この動的テセレーションを可能にする改善が追加されます」と説明しています。これは、シーンのパフォーマンス向上に大きく貢献し、全オブジェクトのフルスクリーン・テセレーションへの道を切り開くものと思われます。

----

EpicのCEO兼テクニカル・ディレクター、ティム・スウィーニー氏は、これが、今後数年の長い期間にわたる業界の傾向となると見ています。

業界を代表するグラフィック・エンジニアでもあるスウィーニー氏は、「この業界は、低いレベルの表面の表現方法として、トライアングルのシェーディングに適切に注目してきたと私は考えます。トライアングルは、ほとんどのシーンやオブジェクトを表現するための最も原始的で効率的な要素ですが、多くは不透明で境界線もはっきりしています。これをふまえると現在では、テセレーションを使用した高い次元のオブジェクトを分解できる、REYESパスに向かっていると思います」と語っています。


スウィーニー氏の説明するレイズ・レンダリング(Reyes Rendering)は、共同制作者のロバート・L・クック氏によると、一般的には頭文字のみが大文字で表記される略語です。1980年代半ばに、クック氏とローレン・カーペンター氏が作成したコンピューター・ソフトウェア・アーキテクチャ「Renders Everything You Ever Saw(見たものすべてをレンダリング)」は、3Dコンピューター・グラフィックで、写真のようにリアルな高品位の画像のレンダリングに使用されていました。 Reyesの開発時、両者は、世界で最も有名なコンピューター・アニメーション映画『トイ・ストーリー』や『Mr.インクレディブル』などを製作した、ルーカスフィルム(Lucasfilm)のコンピューター・グラフィック・リサーチ・グループ(Computer Graphics Research Group、現在はPixar)に勤務していました。


スウィーニー氏はPixarレベルのグラフィックを目標とし、リアルタイムでこのようなグラフィックを実現するために必要な技術を発案しました。


「1ピクセルに対して複数のトライアングル、たとえば1秒間に100億個のトライアングルをレンダリングするための十分なトライアングル処理能力があれば、テセレーションとディスプレイスメントを使用して、シーン内の全オブジェクトを1ピクセル以下のトライアングルに分解することができます。これが実現すれば、14年前にテクスチャ・マッピングがフリー(ほとんど処理負荷がない)エフェクトになったように、これを『フリー』エフェクトとして処理することが可能になります」と、語ります。 NVIDIAの最もパワフルなグラフィック・カードGeForce GTX 590でさえも、1秒間に32億個のトライアングルしか処理できません。スウィーニー氏のアイデアに技術が追いつくまでの間は、「トライアングル・ベースのシーン上に、体積エフェクト、パーティクル・システム、ポスト・プロセスなど、日々進化していくエフェクトをレイヤーする」方法に満足するしかありません。


Epicでは、Samaritanデモでこの手法を採用しましたが、最終的な製品については、新しいエフェクトに関してNVIDIAに協力を求めました。「現在のゲームやプリレンダリングされたシーケンスとの差別化を可能にする要素の1つに、キャラクタのリアルな『二次的モーション』が挙げられます。目立つトレンチ・コートなどを着たキャラクタが派手な動きをした際には、特にこれが重要になります。」と、Epic Gamesのシニア・エンジン・プログラマー、ジェームズ・ゴールディング氏は語ります。主人公が地上の警官めがけてビルから飛び降りた際、着ているコートが、重力や自然の力に任せるように主人公の頭上ではためき、その後、主人公の着地のタイミングに合わせるようにその動きが止まります。

主人公が警官の上に着地し、その動きに対してコートがリアルに反応する。


「ゲームでは、長年にわたって布地のシミュレーションが採用されてきました。しかし、コートのグラフィックで再現したかったディテールのレベルを考慮すると、過去のシミュレーション以上のリアルさとコントロールが必要でした。長年NVIDIAのPhysXチームと協力してきた私達は、当社のコード開発者やアート・デザイナーがAPEXクロージング技術を習得するいい機会だと考えました」と、ゴールディング氏は述べます。 2010年8月に初登場したクロージング(Clothing)は、拡張可能なマルチプラットフォームのフレームワーク、APEXの一部となっています。これによってアート・デザイナーは、追加的なプログラムを行うことなく、複雑でレベルの高い動的なシステムを作成することができます。デストラクション(Destruction)、パーティクル(Particle)、タービュランス(Turbulence)、ベジテーション(Vegetation)の各モジュールが用意されているAPEXを使用してEpicが実施した最初の実験は、前述のクロージングのみを対象としたものでした。


「クロージングには、MaxとMayaのプラグイン形式の実に優秀なツールが用意されており、アート・デザイナーは、布地の動きをツール内で直接確認することができます」と、ゴールディング氏は語り、「そしてシミュレーション・メッシュに直接ペイントしながらパラメータを調節できるので、目的の状態を実現できます」と、付け加えます。 既にサードパーティー用にアンリアル・エンジンに搭載されているAPEXには、「マルチスレッド化およびGPUによって高速化された、クロージング・メッシュのシミュレーションとグラフィック・メッシュの変形処理が用意されており、これによってEpicでは、ポリゴン数が非常に多いコート・モデルをリアルタイムでシミュレートすることができました」と氏は語ります。新しい技術には常に欠陥がつきものですが、Epicでは「APEXに、問題の検出や修正を非常に簡単に実行できるランタイム用のデバッグ・ツールが用意されていること」を歓迎しています。


その結果として、見せ場のアクション・シーンでの主人公の動きに対してタイミングよく正確に動く、ダイナミックでリアルなコートの再現が可能になりました。DirectX 11の新しい技術をすべて組み合わせて実現したこのシーンでは、将来のリアルタイム・コンピューター・ゲームの驚異的なグラフィックを垣間見ることができます。ティム・スウィーニー氏は、「Samaritanデモの内容はすべて、次世代コンソール、そして現在のハイエンド・コンピューターに搭載されたDirectX 11の可能性をお見せするためのものです。クロージングや一部のポスト・プロセス・エフェクトなどは、技術的には現在のコンソールと互換性がありますが、Samaritanで使用されているこの技術は、さらに大きな規模で進化すると信じています」と語ります。

主人公の手や顔以外でも、シーンのすべての側面でディファード・レンダリングが使用され、結果として10倍のパフォーマンスが実現している。


スウィーニー氏は、「アンリアル・エンジン3のライセンシーがこれらすべての技術を利用でき、今日のコンピューター・ゲームにすぐにでも採用できます」と、熱心に語ります。しかし、さらに驚くべきことは、これらの技術が、Unreal Development Kitを通じて、予算や実績を問わず誰でもすぐに利用できるということです。 他社が、特定の製品が発売されるまで、所有する技術を自社開発スタジオでの使用に限定することが多い状況で、Epicがこのような方針を採用した理由について、スウィーニー氏は、「この業界の目まぐるしい進歩のペースを考えると、Windows OSのように、ソフトウェアを数年に1回しかリリースできない、ということは許されません。ソフトウェアは生きた製品として扱うべきで、継続的に進化し、常に利用可能な状態でなければいけないと思います」と答えています。 このようにスウィーニー氏は、「Epicの最新で最高の技術を世界に提供することを望んでおり」、 この点を明確にするために、「優秀なゲームを開発するアンリアル・エンジン3のライセンシーから、UDK開発者コミュニティ、さらに大学で開発を勉強している学生まで、みなさんがこの技術入手して実際に試してみることができます」とも付け加えました。

しかしアンリアル・エンジン3の将来はどうなるのでしょうか? 既存のフレームワークに新しい技術を追加しても、それが効率的な開発手法となることはほとんどありません。これは主に、ベースとなるコアの部分が、このような追加項目を考慮して設計されていないためです。スウィーニー氏も、まだアンリアル・エンジン3を見捨てることはできない、ということを認めています。

「現在のハードウェア世代が続く間は、最高にパワフルで機能が充実したエンジンであり続けるように、アンリアル・エンジン3を拡張しています。」 いずれは次世代のハードウェアが登場しますが、これについてスウィーニー氏は、「次のハードウェア世代に移行する際は、現在のDirectX 11ハードウェアを越えて、まったく新しいレベルのパフォーマンスが実現する将来のコンソールとコンピューターを考慮する必要があります。そして、アンリアル・エンジン3の最新で最高の機能をまったく新しいシステムと統合してシンプルにし、既存システムを再構築してアンリアル・エンジン4へと発展させます」と語ります。

シーンがフェード・アウトする直前、警察のロボットに対して身構えるSamaritanの主人公。


以上で、現在普及しているアンリアル・エンジン3、そして予測されるその将来についてお分かりいただけたでしょうか?この記事でご紹介したすばらしい新技術が完全なパッケージとして登場するのはまだ先のことですが、近い将来には発売されるゲームへの採用が開始されることでしょう。

アンリアル・エンジン3のDirectX 11技術に関してご紹介したこの情報を、お楽しみいただけたでしょうか?コメントなどがございましたら、お気軽にフォーラムにご投稿ください。


(この記事はGeForce.comに掲載された”Epic Talks Samaritan & The Future Of Graphics”を翻訳したものです。原文記事はこちら
《土本学》

メディア大好き人間です 土本学

1984年5月、山口県生まれ。幼稚園からプログラムを書きはじめ、楽しさに没頭。フリーソフトを何本か制作。その後、インターネットにどっぷりハマり、幾つかのサイトを立ち上げる。高校時代に立ち上げたゲーム情報サイト「インサイド」を株式会社IRIコマース&テクノロジー(現イード)に売却し、入社する。ゲームやアニメ等のメディア運営、クロスワードアプリ開発、サイト立ち上げ、サイト買収等に携わり、現在はメディア事業の統括。

+ 続きを読む

この記事の感想は?

  • いいね
  • 大好き
  • 驚いた
  • つまらない
  • かなしい
【注目の記事】[PR]

関連ニュース

特集

人気ニュースランキングや特集をお届け…メルマガ会員はこちら