NVIDIA y desarrolladores son pioneros en crear personajes digitales realistas en juegos y aplicaciones con NVIDIA ACE, Avatar Cloud Engine
Por Anónimo 10 ene 2024, 12:00
NVIDIA ha presentado hoy la producción de microservicios para NVIDIA Avatar Cloud Engine (ACE) que permite a los desarroladores de juegos, herramienta y software intermedio (middleware) integrar modelos de IA vanguardistas en avatares digitales en sus juegos y aplicaciones.
Los nuevos microservicios ACE permiten a los desarrolladores construir avatares interactivos usando modelos de IA como NVIDIA Audio2Face ™ (A2F) que crean expresiones faciales de fuentes de audio, y NVIDIA Riva Automatic Speech Recognition (ASR) para construir conversaciones multilenguaje personalización y aplicaciones de traducción con IA generativa. Entre los desarrolladores adoptando ACE están Charisma.AI, Convai, Inworld, miHoYo, NetEase Games, Ourpalm, Tencent, Ubisoft y UneeQ.
“Las tecnologías de IA generativa están transformando prácticamente todo lo que hacemos, y eso incluye la creación de juegos y cómo los jugamos.” Dice Keita Iida, vicepresidente de relaciones con desarrolladores en NVIDIA. “NVIDIA Ace abre nuevas posibilidades para el desarrollo de juegos llenando los mundos de personajes digitales realistas a la vez que elimina la necesidad de diálogos pre guionizados, ofreciendo una mayor inmersión en los juegos.”
Desarrolladores de juegos y avatares interactivos de primer nivel adoptan NVIDIA ACE
Desarrolladores de juegos y avatares interactivos de primer nivel están siendo pioneros en ACE y tecnologías de IA generativa que pueden usarse para transformar las interacciones entre jugadores y personajes no jugables (NPCs por sus siglas en inglés) en juegos y aplicaciones.
“Es un hito para la IA en juegos.”, dice Tencent Games. “NVIDIA Ace y Tencent Games ayudarán a construir la base que permitirá crear avatares digitales con personalidades e interacciones únicas y realistas en videojuegos.”
NVIDIA ACE hace que los personajes cobren vida
Los NPCs se han diseñado históricamente para dar respuestas predeterminadas y usar la misma animación facial. Esto limita las interacciones de los jugadores, que tienden a que estas relaciones breves sean meramente transaccionales y por lo tanto son ignoradas por la mayoría.
“Los personajes de mundos virtuales con el poder de IA generativa desbloquean varios casos de uso y experiencias que antes eran imposibles.” Dice Purnedu Mukherjee, fundador y CEO de Convai. “Convai está usando Riva ASR y A2F para hacer posibles NPCs realista con tiempos de respuesta cortos y animación natural de alta fidelidad.”
Para mostrar cómo ACE puede transformar la interacción de NPCs, NVIDIA ha trabajado con Convai para expandir la demo NVIDIA Kairos, que debutó en Computex del año pasado, con un nuevo número de funciones y la inclusión de los microservicios de ACE.
En la última versión de Kairos, Riva ASR y A2F se usan cada vez más, mejorando la interacción con los NPC. El nuevo framework de Convai ahora permite que los NPCs conversen entre ellos y darles conocimiento de los objetos, permitiéndoles coger y dar objetos en diferentes áreas. Además, los NPCs ganan la habilidad de ayudar a los jugadores con sus metas y viajes por los diferentes mundos. Los microservicios de Audio2Face y Riva Automatic Speech Recognition ya están disponibles. Los desarrolladores de avatares interactivos pueden incorporar los modelos de manera individual en sus flujos de desarrollo.