Computex

Avatar Cloud Engine: Nvidia lässt Spieler per KI mit NPCs reden

Marc Stöckel
41 Kommentare
Avatar Cloud Engine: Nvidia lässt Spieler per KI mit NPCs reden
Bild: Nvidia

Interaktionen mit Videospielcharakteren sind üblicherweise auf vorgefertigte Textbausteine begrenzt, mit denen Entwickler eine Menge Arbeit haben. Doch daran möchte Nvidia mit der Avatar Cloud Engine (ACE) etwas ändern. Spieler sollen sich damit in Zukunft auf natürliche Weise mit NPCs unterhalten können.

Nvidia ACE for Games macht NPCs intelligent

Der Grafikkarten-Hersteller Nvidia setzt nicht nur für eine hübschere Grafik und höhere Bildwiederholraten auf Künstliche Intelligenz. Das Unternehmen setzt seine KI-Expertise ebenso ein, um Videospielfiguren, auch bekannt als NPCs (Non-Player-Character), intelligenter zu machen. Dafür hat Nvidia im Rahmen der Computex 2023 eine neue Middleware namens Avatar Cloud Engine (ACE) for Games vorgestellt. Diese soll Entwicklern den Einsatz KI-basierter Charaktere in ihren Videospielen maßgeblich erleichtern.

Grundsätzlich besteht ACE aus drei verschiedenen Komponenten. Den Kern bildet NeMo, ein Cloud-natives Enterprise-Framework, mit dem Spieleentwickler die zugrunde liegenden Sprachmodelle erstellen, anpassen und bereitstellen können. Mit NeMo Guardrails möchte Nvidia die NPCs außerdem „vor kontraproduktiven oder unsicheren Konversationen“ schützen. Wie eine KI ohne derartige Maßnahmen entgleisen kann, ließ sich in der Vergangenheit beispielsweise anhand von Microsofts Suchmaschine Bing nachvollziehen.

Bei der zweiten Komponente, die Nvidia Riva nennt, handelt es sich um eine KI-basierte Sprach-Engine. Diese wandelt nicht nur Texte in eine Sprachausgabe um (Text-to-Speech), sondern beherrscht ebenso den umgekehrten Weg – und zwar in Echtzeit. Erst dadurch ermöglicht das Unternehmen echte Live-Konversationen, sodass Spieler von Angesicht zu Angesicht mit Videospielcharakteren sprechen können.

Und damit am Ende auch die Mimik zur Sprachausgabe der NPCs passt, bringt Nvidia mit Omniverse Audio2Face noch die letzte Komponente von ACE ins Spiel. Diese sorgt dafür, dass die jeweiligen Gesichtsanimationen stets zum gesprochenen Wort passen. Eine Schnittstelle für die Unreal Engine 5, mit der sich die neue Technologie direkt in Verbindung mit MetaHuman-Charakteren nutzen lässt, steht laut Nvidia ebenfalls schon bereit.

Eine echte Unterhaltung zwischen Spieler und Spielfigur

Wie die Interaktion mit einer KI in einem Videospiel am Ende tatsächlich aussehen kann, verdeutlicht Nvidia anhand einer Demo, in der ein Spieler mit Jin, dem Betreiber eines virtuellen Ramen-Ladens spricht.

Der Spieler wählt für den Start und die Fortsetzung der Konversation nicht etwa aus einer vom Entwickler bereitgestellten Vorauswahl von möglichen Aussagen. Stattdessen redet er frei über ein Mikrofon mit dem NPC. Zu was die neue Technologie bereits imstande ist und wie gut NeMo Guardrails am Ende tatsächlich vor unsicheren Konversationen schützt, lässt sich anhand des überschaubaren Umfanges der demonstrierten Unterhaltung bisher schwer abschätzen. Die Integration von ACE in zukünftigen Spielen dürfte hier jedoch Licht ins Dunkel bringen.

Computex 2023 (30. Mai – 2. Juni 2023): ComputerBase war vor Ort!
  • DeskMini X600 & DeskMeet X600: Dieses Jahr sollen ASRocks AM5-Mini-PCs endlich erscheinen
  • „Die schnellste RTX 4090“: Asus' neue Matrix-Grafikkarte kostet über 3.000 Euro
  • Apex 15 & 17 (M23/L23): XMG liefert wie angekündigt Ryzen 7 7840HS und WQHD nach
  • +36 weitere News