Jan Leike, einer der führenden Forscher bei OpenAI, hat diese Woche seinen Rücktritt erklärt, kurz nachdem Mitbegründer Ilya Sutskever ebenfalls zurückgetreten ist. Leike äußerte sich am Freitagmorgen auf X und wies darauf hin, dass bei OpenAI die Sicherheitskultur und -prozesse zugunsten beeindruckender Produkte vernachlässigt wurden.
Diese Aussagen kamen im Anschluss an einen Bericht von Wired, nach dem das sogenannte Superalignment-Team bei OpenAI aufgelöst wurde. Leike leitete dieses Team, das im vergangenen Juli gegründet wurde, um die wichtigsten Probleme bei der Implementierung von Sicherheitsprotokollen im Zusammenhang mit der Entwicklung einer KI zu lösen, die menschenähnliches Denken ermöglicht.
Ursprünglich hatte OpenAI die Absicht, ihre Modelle der Öffentlichkeit zugänglich zu machen, weshalb die Organisation auch diesen Namen trägt. Doch aufgrund der Befürchtungen, dass der Zugang zu solch leistungsstarken Modellen potenziell zerstörerisch sein könnte, entschied sich das Unternehmen dazu, diese als proprietäres Wissen zu behandeln. Angesichts dessen ist es höchste Zeit, dass wir uns eingehend mit den Konsequenzen von AGI (Artificial General Intelligence) auseinandersetzen.
Leike betonte in weiteren Posts zu seinem Rücktritt, dass es von entscheidender Bedeutung sei, sich bestmöglich auf die Herausforderungen von AGI vorzubereiten. Nur so könne sichergestellt werden, dass diese Technologie allen Menschen zugutekommt. Laut dem Bericht wird John Schulman, ein weiterer Mitbegründer von OpenAI, der Leike während des erfolglosen Vorstandsputsches im letzten Jahr unterstützte, die Verantwortung für Leikes Team übernehmen.
Sutskever, der eine entscheidende Rolle in dem berüchtigten gescheiterten Putsch gegen Sam Altman spielte, gab seinen Rücktritt bereits am Dienstag bekannt. Leike betonte, dass in den letzten Jahren die Sicherheitskultur und -prozesse bei OpenAI zugunsten beeindruckender Produkte vernachlässigt wurden. Diese Äußerungen verdeutlichen eine wachsende Spannung innerhalb des Unternehmens. Während die Forscher daran arbeiten, künstliche allgemeine Intelligenz zu entwickeln und gleichzeitig KI-Produkte wie ChatGPT und DALL-E für Verbraucher zu handhaben, äußern Mitarbeiter wie Leike Bedenken bezüglich der potenziellen Risiken, die mit der Erzeugung hochintelligenter KI-Modelle einhergehen.
Leike gab an, dass sein Team vernachlässigt wurde und nicht über ausreichende Rechenleistung und andere Ressourcen verfügte, um ihre wichtige Arbeit zu erledigen. Er hatte sich OpenAI angeschlossen, da er glaubte, dass dies der ideale Ort sei, um diese Forschung voranzutreiben.
Schlagwörter: Jan Leike + OpenAI KI + OpenAI
Wie bewerten Sie den Schreibstil des Artikels?
