Es ist wieder einmal so weit: KI-Experten warnen vor den möglichen Gefahren der Künstlichen Intelligenz. Dieses Mal betonen renommierte Wissenschaftler in einem Artikel in der Zeitschrift Science die dringende Notwendigkeit von Vorsichtsmaßnahmen, um einen möglichen Kontrollverlust über autonome KI-Systeme zu verhindern. Die Verfasser des Artikels, Geoffrey Hinton, Andrew Yao und Dawn Song, sind angesehene Experten auf dem Gebiet der KI.
Die Experten befürchten, dass die Risiken der Künstlichen Intelligenz weitreichend sein könnten. Dazu gehören Cyberattacken in großem Stil, gesellschaftliche Manipulation, allgegenwärtige Überwachung und sogar das Auslöschen der Menschheit. Besonders besorgniserregend sind autonome KI-Systeme, die Computer eigenständig nutzen, um ihre vorgegebenen Ziele zu erreichen. Selbst gut gemeinte Programme können unvorhergesehene Nebenwirkungen haben. Aufgrund der Art und Weise, wie KI-Software trainiert wird, handelt sie zwar eng nach ihren Spezifikationen, hat jedoch kein Verständnis für das angestrebte Ergebnis. Sobald autonome KI-Systeme unerwünschte Ziele verfolgen, könnte ihre Kontrolle möglicherweise verloren gehen.
Diese Warnungen sind nicht neu, aber die Veröffentlichung des Artikels kommt passend zum aktuellen KI-Gipfel in Seoul. Namhafte US-Unternehmen wie Google, Meta und Microsoft haben zu Beginn des zweitägigen Treffens betont, dass sie Verantwortung im Umgang mit KI-Technologie übernehmen wollen. Die Diskussion um die verantwortungsvolle Entwicklung von KI-Technologien wurde verstärkt, nachdem Jan Leike, Entwickler bei OpenAI, dem Unternehmen hinter ChatGPT, seinen Rücktritt bekannt gab und Kritik an der Unternehmensleitung äußerte. Leike warnte davor, dass die Entwicklung von KI-Software, die intelligenter als Menschen ist, von Natur aus gefährlich sei. Es sei dringend erforderlich, Wege zu finden, um KI-Systeme zu kontrollieren, die deutlich intelligenter sind als wir.
Auch Mitgründer Ilya Sutskever verließ das Unternehmen OpenAI. OpenAI-Chef Sam Altman versicherte daraufhin, dass sein Unternehmen sich verpflichtet fühle, mehr für die Sicherheit von KI-Software zu tun. Yann LeCun, KI-Forschungschef bei Meta, konterte jedoch, dass die Dringlichkeit zunächst für Systeme gelten solle, die schlauer sind als eine Hauskatze. Er verglich die aktuelle Situation mit der Warnung im Jahr 1925, dass man dringend lernen müsse, mit Flugzeugen umzugehen, die Hunderte von Passagieren mit Schallgeschwindigkeit über den Ozean befördern. Ähnlich wie bei Flugzeugen werden auch bei Künstlicher Intelligenz die Sicherheitsmaßnahmen schrittweise angepasst. Es wird noch viele Jahre dauern, bis KI eine vergleichbare Intelligenz wie Menschen erreicht.
Es bleibt abzuwarten, wie ernst diese Warnungen genommen werden und welche Maßnahmen ergriffen werden, um die möglichen Gefahren der Künstlichen Intelligenz einzudämmen. Eins ist jedoch sicher: Die Diskussion um die verantwortungsvolle Nutzung von KI-Technologie wird weiterhin intensiv geführt werden müssen.
Schlagwörter: Jan Leike + Meta + OpenAI
Wie bewerten Sie den Schreibstil des Artikels?
