Half-Life:AIプロジェクトは、シューティングゲームが「写実的」に見える可能性を示そうとしている

0
3

ゲームグラフィックの未来はこんな感じ?

伝説のシューティングゲーム「ハーフライフ」は、今から25年あまり前に誕生しました。 開発スタジオValveは当時としては小規模な企業でしたが、デビュー作が革新的な存在であったため、ファンによるプロジェクトが定期的に立ち上げられました。

人気の改造は通常、グラフィックの改善に焦点を当てており、レイトレーシング効果を使用して『ハーフライフ』に新たな息吹を与えることを目的としています。現在、TikTokで話題になっているクリップでは、人工知能を使用してさらに一歩進んだ表現が試みられており、『ハーフライフ』が「フォトリアリスティック」な冒険として描かれており、ぜひご自身の目でご確認ください!

このために、Runway MLの「Gen-3 Alpha」と呼ばれるAIモデルが使用されました。このモデルは、ここではビデオからビデオへのモデルとして機能します。AIが導入された際に同社が説明したように、Gen-3 Alphaは「一般的な世界モデルの構築に向けた大きな一歩」となることを目的としています。ここで意味されているのは、可能な限り包括的な状況や相互作用を表現できるAIモデルです。

Using a prompt specially tailored to Half-Life, the user 「Soundtrick」 was able to generate the video below. ただし、ゲームの実際の形状(またはその他の精密なデータポイント)は使用されていません。代わりに、「ゲームがレンダリングする最終フレームがすべてベースとなっています」とSoundtrickは説明しています。

実際のところ、このビデオはどの程度リアルなのでしょうか? フォトリアリスティックな『ハーフライフ』のリメイク版のように聞こえるのは良いとして、まだ乗り越えなければならないハードルがいくつかあります。SoundtrickのYouTubeチャンネルでは、3分間のクリップ内で、ぎこちない動きやぎこちない動きのアニメーションが多数見られます。

特に、顔の表情や手は、AIモデルが常に良い出来栄えのソリューションを生成するにはまだ難しすぎるようです。また、このクリップ全体で「本物」または現実的な要素しか見られないことも印象的です。たとえ、寄生生物をフォトリアリスティックな方法で想像したいと本当に思っているのかどうかは定かではありませんが。

もちろん、処理時間も問題となります。Gen-3 Alphaが発表された際、Runway MLは5秒間のクリップを生成するには約45秒の処理時間が必要であると述べています。つまり、GPUメーカーのNvidiaなどが遠い将来に実現したいと考えているリアルタイム計算は行われないということです。

フォトリアリスティックなハーフライフを手に入れるには、まだ長い道のりが残されている。しかし、このような新しいエディションを歓迎するだろうか?グラフィックのアップグレードから恩恵を受ける可能性がある古典作品はどれだろうか?コメント欄で教えてください!