Nvidia enthüllt bahnbrechende KI-Digital Human-Tools für interaktive Videospiele auf der Game Developers Conference

Die KI-Digital Human-Tools von Nvidia wurden auf der Game Developers Conference vorgestellt. In einer spielbaren Tech-Demo namens Covert Protocol zeigte das Unternehmen, wie die KI-Tools zur Generierung von Sprache, Animationen und Dialogen für Videospielcharaktere genutzt werden können.

Die Demo präsentiert die Fähigkeit der KI, sogenannten NPCs (Non-Player Characters) einzigartige Reaktionen auf Spielerinteraktionen zu ermöglichen und neue Antworten zu generieren, die zum Live-Gameplay passen. Dabei schlüpft der Spieler in die Rolle eines Privatdetektivs und löst Aufgaben, die auf Gesprächen mit von KI gesteuerten NPCs basieren. Laut Nvidia ist jeder Durchlauf einzigartig und die Echtzeitinteraktionen der Spieler führen zu verschiedenen Spielverläufen.

John Spitzer, Vizepräsident für Entwickler- und Leistungstechnologien bei Nvidia, betont, dass die KI-Technologie des Unternehmens komplexe Animationen und Gesprächssprache ermöglichen könnte, um digitale Interaktionen auf realistische Weise darzustellen.

Covert Protocol wurde in Zusammenarbeit mit Inworld AI, einem KI-Gaming-Startup, entwickelt. Die Demo nutzt Nvidias Avatar Cloud Engine (ACE)-Technologie, die bereits in einer futuristischen Ramen-Shop-Demo im letzten Mai zum Einsatz kam. In der neuen Covert Protocol-Demo werden keine Gameplay-Effektivitäten der KI-gesteuerten NPCs gezeigt, sondern es werden Clips präsentiert, in denen die NPCs verschiedene Sprachzeilen aussprechen.

Allerdings wirken sowohl die Lieferung der Dialoge als auch die Animationen der lippen-synchronisierten Bewegungen noch roboterhaft und erinnern eher an einen Chatbot, der durch den Bildschirm spricht.

Inworld plant, den Quellcode von Covert Protocol in naher Zukunft zu veröffentlichen, um andere Entwickler dazu zu animieren, Nvidias ACE Digital Human-Technologie zu nutzen. Im November 2023 gab das Unternehmen zudem eine Partnerschaft mit Microsoft bekannt, um Xbox-Tools zur Entwicklung von KI-gesteuerten Charakteren, Geschichten und Quests zu entwickeln.

Auf der Game Developers Conference wurde auch Nvidias Audio2Face-Technologie in einem Ausschnitt des kommenden MMO World of Jade Dynasty gezeigt. Dabei wurde demonstriert, wie ein Charakter sowohl auf Englisch als auch auf Mandarin Chinesisch synchronisiert wird. Die Idee dahinter ist, Spiele in mehreren Sprachen zu entwickeln, ohne dass die Charaktere manuell neu animiert werden müssen.

Ein neuer Videoclip des bevorstehenden Action-Melee-Spiels Unawake zeigt, wie Audio2Face sowohl für die Erstellung von Gesichtsanimationen während der Zwischensequenzen als auch im Gameplay genutzt werden kann.

Diese Tech-Demos könnten ausreichen, um Spieleentwickler dazu zu motivieren, mit der Integration von KI-gesteuerten NPCs in ihre Titel zu experimentieren. Allerdings scheint sich in Bezug auf Gespräche nicht viel weiterentwickelt zu haben. Die Charaktere in Covert Protocol wirken genauso wenig wie echte Menschen wie die Charaktere in den vorherigen Kairos-Demos.

Schlagwörter: Nvidia + Covert Protocol + Inworld AI

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 19. März 2024