Mouvements de bouche réalistes, expressions faciales convaincantes et conversations « naturelles » avec les PNJ. Nvidia ACE doit pouvoir faire tout cela et plus encore – et maintenant encore mieux qu’avant.
Le service d’intelligence artificielle ACE de Nvidia, qui doit entre autres permettre de véritables conversations avec les PNJ, doit désormais être encore plus réaliste et accessible.
Nvidia a présenté ACE pour la première fois au Computex 2023 et a été qualifié par la société américaine elle-même de « futur des jeux vidéo ».
Des conversations réelles, des histoires d’arrière-plan enjolivées et plus encore
Qu’est-ce que Nvidia ACE?C’est un service d’IA dont l’objectif est d’aider les développeurs à intégrer des modèles uniques d’IA vocale, conversationnelle et motrice dans les personnages de jeux.
Qu’est-ce qui est nouveau dans la mise à jour?Nvidia parle d’un plus grand réalisme et d’une meilleure accessibilité.
Le nouveau modèle ACE doit permettre aux développeurs d’utiliser différentes API cloud. Il s’agit notamment des services suivants, pour lesquels nous fournissons une brève explication :
- Reconnaissance automatique de la parole (ASR) : un système qui enregistre la parole et la convertit en texte.
- Text-To-Speech (TTS) : un système qui convertit les entrées de texte en langage humain naturel.
- Traduction automatique neuronale (TAN) : la langue est traduite automatiquement et simultanément.
- Audio2Face (A2F) : L’animation du visage et la synchronisation des lèvres sont générées par une seule source audio.
Tous ces outils sont disponibles dans le programme Early Access sur le (Nvidia Homepage) et peuvent être utilisés avec des outils de rendu comme l’Unreal Engine 5.
Que m’apporte Nvidia ACEHonnêtement ? Pas grand-chose pour l’instant. Mais à l’avenir, vous pourrez probablement discuter avec des personnages et leur poser différentes questions en fonction de leur personnalité.
Mais les dialogues ne seront peut-être pas disponibles avant longtemps. Dans un avenir proche, vous pourrez vous réjouir d’animations et d’expressions plus réalistes, soutenues par l’IA.
Dans leNvidia Newsroomil est dit que le studio de développement GSC Game World utilisera Nvidia Ace dans son prochain jeuStalker 2et que le jeu sera disponible à la vente. Plus précisément Audio2Face, qui sera utilisé pour des mouvements de bouche réalistes correspondant aux phrases prononcées.
Etes-vous impatients de pouvoir parler avec des personnages à l’apparence réaliste ? Quel sera, selon vous, l’impact de cette technologie sur l’industrie du jeu vidéo lorsqu’elle sera plus largement utilisée ? Pensez-vous qu’il y aura un grand changement dans le jeu, ou cela ira-t-il plutôt dans le sens de la RV ? Ce n’est donc pas la révolution que beaucoup attendaient, mais une extension utile pour certains jeux ? Donnez votre avis dans les commentaires !