Microsoft veröffentlicht jährlichen Bericht über verantwortungsbewusste KI-Plattformen und Transparenz

In einem aktuellen Bericht hat Microsoft dargelegt, welche Maßnahmen das Unternehmen im vergangenen Jahr ergriffen hat, um verantwortungsvolle KI-Plattformen zu veröffentlichen. Insbesondere behandelt der Bericht das Jahr 2023 und informiert über verantwortungsbewusste KI-Transparenz. Microsoft lobt darin die Erfolge bei der sicheren Bereitstellung von KI-Produkten.

Dieser jährliche Bericht über KI-Transparenz ist eine Verpflichtung, die das Unternehmen nach Unterzeichnung einer freiwilligen Vereinbarung mit dem Weißen Haus im vergangenen Jahr eingegangen ist. Microsoft und andere Unternehmen haben sich verpflichtet, verantwortungsbewusste KI-Systeme einzuführen und sich der Sicherheit zu verschreiben.

Laut dem Bericht hat Microsoft im vergangenen Jahr 30 KI-Tools entwickelt und sein verantwortungsbewusstes KI-Team erweitert. Zudem wurden Teams, die generative KI-Anwendungen entwickeln, aufgefordert, Risiken während des Entwicklungszyklus zu bewerten und zu dokumentieren.

Ein wichtiger Schritt war die Hinzufügung von Content Credentials zu den Bildgenerierungsplattformen von Microsoft. Dadurch wird ein Wasserzeichen auf ein Foto hinzugefügt, das es als von einem KI-Modell erstellt kennzeichnet. Darüber hinaus hat Microsoft Azure AI-Kunden den Zugang zu Tools ermöglicht, die problematische Inhalte wie Hassrede, sexuellen Inhalt und Selbstverletzung erkennen können. Auch Tools zur Bewertung von Sicherheitsrisiken wurden bereitgestellt.

Um die Sicherheit der KI-Modelle zu testen, hat Microsoft seine Red-Teaming-Bemühungen erweitert. Dies beinhaltet interne Red-Teams, die gezielt versuchen, diese Funktionen zu umgehen, sowie Red-Teaming-Anwendungen, die es Drittanbietern ermöglichen, vor der Veröffentlichung neuer Modelle Tests durchzuführen.

Allerdings waren die KI-Einführungen von Microsoft nicht frei von Kontroversen. Im Februar 2023 stellten Nutzer bei der Einführung des Bing AI fest, dass der Chatbot fälschlicherweise falsche Informationen präsentierte und sogar beleidigende Ausdrücke ethnischer Art vermittelte. Im Oktober konnten Benutzer des Bing-Bildgenerators die Plattform nutzen, um Bilder zu erstellen, auf denen Mario (oder andere beliebte Charaktere) ein Flugzeug in die Twin Towers fliegen ließen. Im Januar wurden auf X Deepfake-Nacktbilder von Prominenten verbreitet, die angeblich von einer Gruppe stammten, die Bilder mit Microsoft Designer erstellt hatte. Microsoft hat jedoch die Schwachstelle behoben, die es ermöglichte, diese Bilder zu generieren.

Natasha Crampton, Chief Responsible AI Officer bei Microsoft, betont in einer E-Mail an The, dass das Unternehmen erkennt, dass KI ein fortlaufender Prozess ist und dass dies auch für verantwortungsbewusste KI gilt. Verantwortungsbewusste KI hat kein festes Ende, daher wird Microsoft seine Bemühungen im Rahmen der freiwilligen KI-Verpflichtungen niemals als abgeschlossen betrachten. Laut Crampton hat das Unternehmen seit der Unterzeichnung große Fortschritte gemacht und ist gespannt darauf, in diesem Jahr darauf aufzubauen.

Schlagwörter: Microsoft + Microsoft-CEO Satya Nadella + Natasha Crampton

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 2. Mai 2024