Movimientos bucales realistas, expresiones faciales convincentes y conversaciones «naturales» con los NPC. Nvidia ACE debería poder hacer todo esto y más, y ahora incluso mejor que antes
El servicio de IA ACE de Nvidia, diseñado para permitir conversaciones reales con NPC, es ahora aún más realista y accesible.
Nvidia presentó ACE por primera vez en Computex 2023 y fue descrito por la propia compañía estadounidense como el «futuro de los videojuegos».
Conversaciones reales, trasfondos adornados y mucho más
¿Qué es Nvidia ACE?Es un servicio de IA cuyo objetivo es ayudar a los desarrolladores a integrar modelos únicos de voz, conversación y movimiento en los personajes de los videojuegos.
¿Qué novedades trae la actualización? Nvidia habla de más realismo y mejor accesibilidad
El nuevo modelo ACE está pensado para que los desarrolladores puedan utilizar varias API en la nube. Entre ellas se incluyen los siguientes servicios, de los que ofrecemos una breve explicación:
- Reconocimiento automático del habla (ASR): Sistema que graba el lenguaje hablado y lo convierte en texto.
- Text-To-Speech (TTS): Sistema que convierte la entrada de texto en habla humana natural.
- Neuronal Machine Translation (NMT): El habla se traduce automática y simultáneamente.
- Audio2Face (A2F): La animación facial y la sincronización labial sólo son generadas por una fuente de audio.
Todas estas herramientas están disponibles en el programa Early Access de la página web de (Nvidia)y se pueden utilizar con herramientas de renderizado como Unreal Engine 5.
¿Qué me aporta Nvidia ACE?¿Sinceramente? De momento no mucho. Pero en el futuro probablemente podrás hablar con los personajes y hacerles diferentes preguntas que encajen con el personaje y su personalidad.
Sin embargo, los diálogos podrían tardar todavía un poco. En un futuro próximo, puedes esperar animaciones y expresiones faciales más realistas, apoyadas por la IA.
¿Cuándo se utilizará Nvidia ACE?En laSala de prensa de Nvidiase habla de que el estudio de desarrollo GSC Game World utilizará Nvidia Ace en su próximo juegoStalker 2. Más concretamente, Audio2Face, que se utilizará para realizar movimientos realistas de la boca que coincidan con las frases pronunciadas.
¿Te hace ilusión hablar con personajes de aspecto realista? ¿Qué impacto cree que tendrá esta tecnología en la industria del videojuego cuando se generalice su uso? ¿Cree que se producirá un gran cambio en los juegos, o irá más en la dirección de la RV? ¿No será la revolución que muchos esperaban, sino una extensión útil para ciertos juegos? ¡Tu opinión en los comentarios!