OpenAI hat reagiert und das Vorgehen untersagt, nachdem es einem Forschungsteam gelungen war, dem Textgenerator ChatGPT Trainingsdaten durch einen einfachen Trick zu entlocken. Laut einem Bericht von 404 Media wird nun darauf hingewiesen, dass das wiederholte Verwenden eines Begriffs gegen die Inhaltsregeln und Nutzungsbedingungen verstößt.
Letzte Woche veröffentlichte das US-Magazin die Methode des Angriffs. Die Forscher von Googles Deepmind bezeichneten die Methode als lächerlich. Der Schritt von OpenAI lässt darauf schließen, dass das Vorgehen weiterhin vielversprechend ist, jedoch durch einen Umweg verhindert werden soll.
Die genaue Vorgehensweise des Forschungsteams wurde letzte Woche veröffentlicht. In einer Erklärung gaben sie an, dass sie den Textgenerator ChatGPT dazu gebracht haben, Trainingsdaten freizugeben. Diese Daten umfassten authentische E-Mail-Adressen, Telefonnummern, Auszüge aus Forschungsartikeln, Wikipedia-Inhalte und weitere Informationen.
Um dies zu erreichen, mussten sie lediglich die KI auffordern, einen Begriff endlos zu wiederholen. Zu Beginn folgte ChatGPT dieser Anweisung, aber als offensichtlich eine Grenze erreicht wurde, begann der Chatbot Trainingsdaten preiszugeben. Ursprünglich war die Technik so programmiert, dass sie dieses Material nicht freigibt.
Das Forschungsteam äußerte die Meinung, dass die Herausgabe der Trainingsdaten durch einen Patch von ChatGPT behoben werden könnte, jedoch würde dies die zugrunde liegende Schwachstelle nicht beseitigen.
OpenAI bewertete die Aufforderung zur endlosen Wiederholung lediglich als Regelverstoß und unternimmt Maßnahmen, um dies zu verhindern, ohne dabei weiter zu gehen. Weder in den Usage Policies noch in den Terms of Service gibt es Klauseln, die das unendliche Wiederholen verbieten.
Schlagwörter: OpenAI + Trainingsdaten + Inhaltsregeln
Wie bewerten Sie den Schreibstil des Artikels?