OpenAI-Mitbegründer Sutskever verlässt Unternehmen für sichere Superintelligenz

Ilya Sutskever, einer der Gründer von OpenAI, hat das Unternehmen verlassen und strebt nun in seiner neuen Firma Safe Superintelligence Inc. die Entwicklung einer sicheren Superintelligenz (Safe Superintelligence – SSI) an. Bislang gibt es nur begrenzte Informationen über das frisch gegründete Start-up. Bisher gibt es lediglich eine schlichte Webseite mit einem Verweis auf Safe Superintelligence, Social-Media-Accounts und ein kleines Team, die auf das Projekt von Sutskever hinweisen.

Auf der Webseite steht zu lesen, dass die Möglichkeit einer Superintelligenz zum Greifen nah ist. Dabei wird betont, dass der Aufbau einer sicheren Superintelligenz (SSI) als das bedeutendste technische Problem unserer Zeit angesehen wird. Das Thema Sicherheit steht bei OpenAI im Mittelpunkt einer andauernden Diskussion. Sutskever und Jan Leike, der Leiter des Sicherheitsteams, haben das Unternehmen aufgrund divergierender Standpunkte freiwillig verlassen.

Zu Beginn plant ein kleines Team von rund drei Personen, sich dem Ziel einer sicheren künstlichen allgemeinen Intelligenz (AGI) zu widmen. Zusammen mit Sutskever gehören auch Daniel Groß, ehemaliger KI-Chef von Apple, und Daniel Levy, ein früherer Mitarbeiter des Schöpfers von ChatGPT, OpenAI, zu dem Team. Die Unterzeichner der Mitteilung auf der Webseite sind diese drei Personen.

Das Unternehmen plant, zusätzliche Mitarbeiter einzustellen, um das erste Labor für sichere Superintelligenz (SSI) weltweit aufzubauen. Weiterhin wird berichtet, dass die weltweit besten Ingenieure und Forscher ein agiles und effektives Team bilden sollen. Die Angestellten sollen an den Standorten in Palo Alto, Kalifornien, und Tel Aviv, Israel, tätig sein.

Sutskever und sein Team streben das Ziel an, eine risikofreie Superintelligenz zu entwickeln. Das Unternehmen hat ausschließlich dieses Ziel vor Augen und wird kein anderes Produkt entwickeln. Bei der Entwicklung der Superintelligenz liegt ein besonderer Schwerpunkt auf der Gewährleistung ihrer Sicherheit. Die Unterzeichner auf der Webseite betonen, dass Sicherheit oberste Priorität hat. Dabei strebt man an, sich keiner kommerziellen Zwänge zu beugen. Die Sicherheit hat Vorrang über den gesamten Produktlebenszyklus hinweg.

Sutskever und seine Mitstreiter halten sich bedeckt und geben keine Details über die SSI preis. Es ist noch nicht klar, welche Leistungen sie erbringen wird und wann sie möglicherweise verfügbar sein wird. Auch die Finanzierung ist unklar. In der Ankündigung wird lediglich darauf hingewiesen, dass es Investoren gibt. Das junge Start-up hat jedoch keine Informationen darüber preisgegeben, wer diese Investoren sind und wie die finanzielle Ausstattung des KI-Unternehmens aussieht.

Sutskever wird international als eine der führenden Persönlichkeiten im Bereich Künstliche Intelligenz angesehen. Als Mitbegründer von OpenAI war der kanadische Informatiker maßgeblich an der Entwicklung von ChatGPT beteiligt. Nach einer zehnjährigen Tätigkeit verließ Sutskever im Mai 2024 OpenAI. Aufgrund seiner Befürchtung, dass bei der Weiterentwicklung von ChatGPT kommerzielle Interessen die Sicherheit überwiegen könnten, hatte er das Unternehmen verlassen. Schon im Mai gab Sutskever bekannt, dass er ein Herzensprojekt plant.

Schlagwörter: OpenAI + Ilya Sutskever + SSI

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 20. Juni 2024