Google blockiert 5,5 Mrd. Anzeigen, nutzt KI für Betrugserkennung – Wettrennen in der KI

Google hat im vergangenen Jahr über 5,5 Milliarden Anzeigen blockiert oder entfernt, die gegen die Richtlinien des Unternehmens verstoßen haben. Dabei handelte es sich vor allem um potenziell gefährliche Anzeigen. Es ist ein wachsender Trend, dass Betrüger künstliche Intelligenz (KI) einsetzen, um solche gefälschten Inhalte zu generieren. Auch Google setzt KI ein, um Betrugsversuche zu erkennen, und befindet sich somit in einem Wettrennen im Bereich der künstlichen Intelligenz.

Von den blockierten Anzeigen haben über eine Milliarde gegen die Richtlinien von Google verstoßen, da sie schädliche Software enthielten. Mit 550 Millionen Anzeigen waren Fälle, in denen Markennamen und Logos unbefugt verwendet wurden, die zweithäufigste Verletzung der Richtlinien. Darüber hinaus hat Google insgesamt 372 Millionen personalisierte Anzeigen gelöscht, die gegen die Richtlinien verstoßen haben. Mehr als 200 Millionen Anzeigen wurden entfernt, da es sich um Betrugsversuche handelte, die darauf abzielten, Informationen und Daten von potenziellen Opfern zu erlangen. Des Weiteren wurden auch 270 Millionen Anzeigen entfernt, die gegen die Richtlinien für Finanzdienstleistungen verstoßen haben.

Google erklärt anhand dieses Beispiels auch den Ablauf des KI-Wettrennens. In der Vergangenheit verwendete das Unternehmen Machine-Learning-Modelle, die mit einer großen Anzahl von Beispielen trainiert werden mussten, um Missbrauchsversuche zu erkennen. Dadurch waren die Systeme in der Lage, ähnliche Fälle sehr präzise zu identifizieren. Nun sind große Sprachmodelle (Large Language Models, LLMs) in der Lage, Inhalte deutlich präziser zu analysieren und zu bewerten. Sie ermöglichen eine schnellere Reaktion im Vergleich zum herkömmlichen maschinellen Lernen und können beispielsweise auch zugrunde liegende Muster erkennen.

Um eine höhere Erkennungsrate von Betrugsversuchen zu erzielen, integriert Google auch sein Sicherheitssystem für Anzeigen in seine eigenen Maßnahmen. Das mächtige Sprachmodell von Google, Gemini, ist in verschiedenen Ausführungen erhältlich und kann Text, Bilder, Audio, Video und Code verarbeiten. Dadurch kann es verschiedene Arten von Anzeigenbetrug identifizieren, falls dieser auftritt.

Im Jahr 2023 hat Google zudem zusätzliche Richtlinien implementiert, um den Betrug einzudämmen. Beispielsweise werden Anzeigen von unbekannten Werbetreibenden zunächst nicht in großem Umfang angezeigt. In der sogenannten „Kennenlernphase“ müssen Auftraggeber zunächst ihre Fähigkeiten unter Beweis stellen. Google betont die hohe Bedeutung einer schnellen Reaktion auf neue Betrugs- und Missbrauchsversuche.

Ein Beispiel für diesen Trend ist das Aufkommen von Deepfakes Ende 2023 und Anfang 2024, bei dem bekannte Personen in Werbeanzeigen verwendet wurden. Für diejenigen, die sich fragen, wie es um die allgegenwärtige Werbung von chinesischen Handelsplattformen wie Temu und Shein steht: Es scheint offensichtlich, dass diese Anzeigen den zulässigen Kriterien entsprechen.

Das Wettrennen im Bereich der künstlichen Intelligenz zwischen Betrügern und Unternehmen wie Google wird sich weiterhin entwickeln. Unternehmen wie Google setzen immer fortschrittlichere Technologien ein, um Anzeigenbetrug zu bekämpfen und die Sicherheit der Nutzer zu gewährleisten.

Schlagwörter: Google Machine-Learning-Modelle + Google + Googles

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 27. März 2024