Google DeepMind präsentiert innovative KI-Modelle für fortschrittliche Robotiklösungen

Google DeepMind vermeldet Fortschritte in der Robotik durch verbesserte KI und demonstriert damit die zunehmende Verknüpfung von Künstlicher Intelligenz mit der physischen Welt. Die neuen Modelle Gemini Robotics 1.5 und Gemini Robotics-ER 1.5, Weiterentwicklungen bereits vorgestellter Versionen aus dem März, bieten Robotern mehr Möglichkeiten bei komplexeren Aufgaben.

Diese Modelle ermöglichen es Robotern, mehrere Schritte im Voraus zu planen und somit flexibel und adaptiv auf verschiedene Situationen zu reagieren. Beispielsweise könnten sie nicht nur einen Reißverschluss öffnen, sondern basierend auf Wettervorhersagen Koffer sinnvoll packen oder Wäsche nach Farbe trennen.

Der Fortschritt basiert auf der Integration von digitalem Wissen in das Handeln der Roboter. Gemini Robotics-ER 1.5 ermöglicht es ihnen, ihre Umgebung zu erfassen und Informationen aus der Google-Suche zu beziehen, die dann in natürliche Sprachbefehle für Gemini Robotics 1.5 umgewandelt werden. Dadurch erfolgt eine detaillierte Planung jeder Handlung Schritt für Schritt.

Besonders hervorzuheben ist die Fähigkeit zum Cross-Robot Learning. Die Modelle erlauben Robotern unterschiedlicher Konfigurationen, voneinander zu lernen, unabhängig von deren Bauweise (z. B. zwei Arme, humanoid oder anderer Aufbau). So können Fähigkeiten direkt übertragen werden, was den Lernprozess effizienter und skalierbarer macht.

Google DeepMind stellt Gemini Robotics-ER 1.5 über eine API im Google AI Studio Entwicklern zur Verfügung, während der Zugriff auf Gemini Robotics 1.5 zunächst ausgewählten Partnern vorbehalten bleibt. Diese Entwicklungen zeigen das Potenzial von KI, die Interaktion zwischen Mensch und Maschine sowie die Funktionsweise von Robotern in komplexen Umgebungen grundlegend zu revolutionieren.

Schlagwörter: Gemini Robotics-ER + Google DeepMind + Gemini Robotics

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 25. September 2025