Branchenverband Frontier Model Forum von Google, Anthropic, OpenAI und Microsoft gegründet

Die Unternehmen Google, Anthropic, OpenAI und Microsoft haben den Branchenverband Frontier Model Forum ins Leben gerufen. Der Verband hat es sich zur Aufgabe gemacht, die sichere und verantwortungsvolle Entwicklung und Anwendung von Frontier-KI-Modellen zu fördern. Um dieses Ziel zu erreichen, wurde Chris Meserole zum Executive Director ernannt.

Um die Aktivitäten des Verbands zu unterstützen, wurde ein Fonds in Höhe von 10 Millionen US-Dollar eingerichtet. OpenAI hat zudem ein neues Preparedness Team etabliert. Die Ankündigungen erfolgten kurz vor dem Beginn des UK AI Safety Summits.

Der Begriff „KI-Pioniermodelle“ wird auch für Frontier AI Modelle verwendet. Laut einem Blogbeitrag von OpenAI verfügt Meserole über umfangreiche Erfahrung in den Bereichen Regulierung und Sicherheit neuer Technologien sowie zukünftiger Anwendungen. Vor seiner Tätigkeit als Executive Director des Frontier Model Forums war er Direktor der Artificial Intelligence and Emerging Technology Initiative am renommierten Brookings Institut in Washington D.C.

Meseroles Verantwortlichkeiten umfassen die Minimierung potenzieller Risiken von Vorreitermodellen, die Identifizierung von Sicherheitsverfahren sowie die Förderung des Wissensaustauschs mit politischen Entscheidungsträgern, Wissenschaftlern, der Zivilgesellschaft und anderen Akteuren. Darüber hinaus ist es sein Ziel, die Anstrengungen zur Nutzung von KI zur Bewältigung der bedeutendsten gesellschaftlichen Herausforderungen zu unterstützen.

Der Branchenverband wurde im Sommer 2023 ins Leben gerufen. Die vier Gründungsunternehmen gelten als führende Anbieter von generativen KI-Produkten für den Massenmarkt. ChatGPT, Bing, Bard und Claude stehen frei zur Verfügung und werden von einer großen Nutzerbasis von Millionen von Menschen genutzt.

Gemäß den individuellen Pressemitteilungen aller Partner verfolgt das Frontier Model Forum vier grundlegende Ziele: die Förderung der KI-Sicherheitsforschung, die Festlegung bewährter Praktiken für den Entwicklungs- und Rollout-Prozess von Modellen, die Zusammenarbeit mit externen Partnern zur Wissensvermittlung über Vertrauens- und Sicherheitsrisiken sowie die Unterstützung bei der Entwicklung von KI-Modellen zur Bewältigung bedeutender gesellschaftlicher Herausforderungen wie dem Klimawandel und der Krebsfrüherkennung.

OpenAI hat die Einführung eines neuen Fonds angekündigt und dies mit den bedeutenden Fortschritten in den Fähigkeiten der KI im vergangenen Jahr begründet. Aufgrund der beschleunigten Fortschritte ist eine weitere akademische Forschung im Bereich der KI-Sicherheit vonnöten. Der Fonds hat die Absicht, unabhängige Forscher weltweit zu unterstützen.

Zusätzlich zu den Gründungsmitgliedern des Frontier Model Forums haben auch die philanthropischen Partner, die Patrick J. McGovern Foundation und die David und Lucile Packard Foundation, ihre finanzielle Unterstützung zugesagt. Die Mitglieder des Forums haben sich freiwillig dazu verpflichtet, eine KI-Verpflichtung zu unterzeichnen, die das einfache Melden von Sicherheitslücken in ihren Systemen ermöglicht. Der Fonds soll ebenfalls für diesen Zweck verwendet werden, mit einem Schwerpunkt auf dem sogenannten Red-Teaming, also der Prüfung und Bewertung der Systeme.

OpenAI sucht Fachkräfte aus einer breiten Palette von Fachrichtungen, um das neue Team zu verstärken. Im Verlauf der vergangenen Monate hat das Forum intensiv daran gearbeitet, gemeinsame Definitionen von Begriffen, Konzepten und Prozessen zu erarbeiten, um ein einheitliches Verständnis zu schaffen. Dadurch wird eine gemeinsame Grundlage geschaffen, auf der Forscher, Regierungen und andere Branchenkollegen Diskussionen über KI-Sicherheit und Governance-Fragen führen können.

OpenAI hat zudem ein neues Team ins Leben gerufen, das von Aleksander Madry geleitet wird und unter anderem für das Red-Teaming zuständig ist. Das Preparedness-Team wird eine enge Verbindung zwischen der Bewertung von Fähigkeiten, Evaluierungen und dem internen Red Teaming für Pioniermodelle herstellen. Diese Regelung betrifft sowohl zukünftige Modelle als auch solche mit einem AGI-Niveau. Das Team hat auch die Verantwortung für Cybersecurity, die Bewältigung von chemischen, biologischen, radiologischen und nuklearen Bedrohungen sowie für Autonome Replikation und Adaption (ARA).

OpenAI sucht noch Mitarbeiter für dieses Team. Direkt vor dem AI Safety Summit in Großbritannien, einer Veranstaltung, bei der Politiker, Unternehmen und Vertreter der Zivilgesellschaft über die Regulierung von KI diskutieren, erfolgt eine Investition in die Sicherheit von KI-Systemen. OpenAI hat in Bezug auf den Gipfel erklärt, dass sie ihre Fortschritte bei der Sicherheit von Frontier-KI ausführlich dargelegt haben, einschließlich ihrer Bemühungen im Rahmen ihrer freiwilligen Verpflichtungen.

Schlagwörter: Frontier Model Forum + KISicherheitsforschung + Preparedness Team

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 1. November 2023