Half-Life : Un projet d’IA doit montrer comment le jeu de tir peut être « photoréaliste ».

0
2

C’est à cela que ressemblera l’avenir des graphismes de jeux vidéo ?

Le légendaire jeu de tir Half-Life a maintenant un peu plus de 25 ans. Face au statut révolutionnaire de ce premier titre du modeste studio de développement Valve de l’époque, des projets de fans voient régulièrement le jour.

Les modifications les plus populaires visent généralement à améliorer les graphismes, par exemple en donnant à Half-Life un nouvel éclat grâce à des effets de ray tracing. Sur TikTok, un clip fait actuellement fureur, dans lequel l’intelligence artificielle est censée faire encore mieux et montrer Half-Life comme une aventure « photoréaliste » – mais voyez par vous-même!

Pour cela, le modèle d’IA de Runway ML appelé « Gen-3 Alpha » a été utilisé, qui fait ici office de modèle vidéo à vidéo. Comme l’entreprise l’a déjà expliqué lors de la présentation de l’IA, Gen-3 Alpha doit servir d’« étape importante dans la construction de General-World-Models » ; il s’agit de modèles d’IA qui peuvent représenter des situations et des interactions aussi complètes que possible.

L’utilisateur « Soundtrick » a ainsi pu générer la vidéo ci-dessous à l’aide d’un prompt spécialement conçu pour Half-Life. Il n’utilise toutefois pas la géométrie réelle du jeu (ou d’autres points de données précis). Au lieu de cela, « tout est basé sur l’image finale qui reflète le jeu », comme l’explique Soundtrick.

Quel est le degré de réalisme réel de la vidéo?Même si une réédition photoréaliste de Half-Life semble agréable, il y a encore quelques obstacles à surmonter. Sur le canal YouTube de Soundtrick, on peut voir, au cours des trois minutes du clip, de nombreuses animations qui sont en bois ou saccadées

Les expressions faciales et les mains, en particulier, semblent être encore trop exigeantes pour le modèle IA pour une solution durablement belle. Il est en outre frappant de constater que dans l’ensemble du clip, on ne voit que des éléments « réels » ou inspirés de la réalité ; vous chercherez en vain les crabes de Half-Life – même si nous ne sommes pas sûrs de vouloir vraiment nous représenter ces bestioles parasites de manière photoréaliste.

Bien sûr, le temps de traitement est également un problème. Lors de la présentation de Gen-3 Alpha, Runway ML a indiqué une durée de traitement d’environ 45 secondes pour générer un clip de cinq secondes. Un calcul en temps réel, comme l’espère notamment le fabricant de GPU Nvidia dans un avenir lointain, n’a donc pas lieu.

Le chemin est donc encore long jusqu’à un Half-Life photoréaliste – mais salueriez-vous une telle réédition ? Quels autres classiques pourraient bénéficier d’une amélioration graphique ? Faites-le nous savoir dans les commentaires!