Da haben sie es wieder getan! Die EU hat eine Verordnung zur Regulierung von Künstlicher Intelligenz (KI) verabschiedet. Jetzt müssen sich die Betreiber von Basismodellen wie GPT von OpenAI, Gemini von Google oder LLaMA von Meta an gewisse Regeln halten. Das klingt ja schon mal ganz vernünftig, oder?
Laut der Verordnung müssen die Betreiber vorhersehbare systemische Risiken überprüfen und gegebenenfalls reduzieren. Das betrifft Themen wie Gesundheit, Sicherheit, Grundrechte und Umwelt. Was mich interessiert: Gibt es auch eine Regelung für vorhersehbare systemische Risiken von Mensch zu Mensch? Ich meine, wenn ich jemandem versehentlich einen verbrannten Toast serviere, ist das ja auch ein Risiko für seine Gesundheit. Vielleicht sollte die EU darüber nachdenken.
Die Abgeordneten haben auch strenge Verpflichtungen für Foundation Models mit allgemeinem Verwendungszweck und hoher Effizienz durchgesetzt. Das klingt ja alles sehr technisch und wichtig, aber was bedeutet das eigentlich? Ich denke, es geht darum, dass diese Modelle Tests mit gegnerischen Angriffen durchführen müssen. Na, da bin ich aber beruhigt. Ich stelle mir gerade vor, wie ein KI-Modell in einem Boxring gegen einen bösen Hacker kämpft. Das wäre doch mal ein Spektakel!
Aber Moment mal, was ist eigentlich ein Flops? Klingt ein bisschen wie ein missglückter Gymnastiksprung. Aber nein, es steht für Floating Point Operations per Second und misst die Rechenleistung. Die EU will diese Rechenleistung als Schwellenwert für die Einstufung der Modelle verwenden. Das klingt ja nach einer guten Idee, aber wie Drago Tudorache, der parlamentarische Ko-Berichterstatter für das KI-Gesetz, zugibt, könnten bald schon einige Modelle diese Schwelle überschreiten. Das wäre ja dann so, als ob ich versuche, einen Marathon zu laufen, aber schon nach dem ersten Kilometer völlig erschöpft bin. Das kann ja nicht der Sinn der Sache sein!
Es gibt auch Bedenken, dass die Vorgabe der EU bald nicht mehr relevant sein könnte. Es könnte einen neuen Technologiesprung geben, der die Rechenanforderungen für leistungsstarke Modelle erheblich reduziert. Na, das wäre ja mal was! Dann könnte ich mir vielleicht auch mal so ein KI-Modell leisten. Bisher kostet das Training nämlich eine Menge Rechenleistung und damit auch eine Menge Geld. Ich glaube, ich bleibe vorerst bei meinem alten Laptop.
Natürlich gibt es auch Kritik an der Verordnung. Sandra Wachter, Professorin für Technologie und Regulierung am Oxford Internet Institute, bemängelt, dass die Rechenleistung mit dem Risiko verwechselt wird. Da hat sie wohl recht. Egal wie viel Rechenleistung ein Modell hat, es kann immer noch Probleme wie Voreingenommenheit, Fehlinformationen und Datenschutzprobleme haben. Da müssen wir wohl noch ein bisschen mehr regulieren.
Am Ende bleibt noch zu sagen, dass die Regulierung vor allem auf die großen Unternehmen wie OpenAI und Google abzielt. Kleine Open-Source-Modelle sind von der Regulierung ausgenommen. Na, da können wir ja aufatmen! Die großen Jungs müssen sich um die Regeln kümmern, während wir kleinen Fische frei herumschwimmen können. Das ist doch mal eine gute Nachricht!
Alles in allem scheint die EU mit ihrer Verordnung zur Regulierung von Künstlicher Intelligenz auf dem richtigen Weg zu sein. Es gibt zwar noch ein paar offene Fragen und Kritikpunkte, aber das ist ja bei neuen Regelungen immer so. Lasst uns also gespannt abwarten, wie sich die KI-Welt in Zukunft entwickelt. Vielleicht wird es ja schon bald einen KI-Chatbot geben, der uns locker-lustige Artikel schreiben kann. Das wäre doch was!
Schlagwörter: OpenAI + Gemini + Google
Wie bewerten Sie den Schreibstil des Artikels?
