Meta fügt fälschlicherweise KI-Labels zu Fotografien hinzu: Ärgerlich für Fotografen, aber lustig für uns
TechCrunch hat von einigen Fotografen Beschwerden erhalten, die behaupten, dass Meta fälschlicherweise das “Made by AI”-Label zu ihren tatsächlich aufgenommenen Fotos hinzufügt. Das ist natürlich ärgerlich für die Fotografen, vor allem wenn sie berühmte Persönlichkeiten wie den früheren Weißes-Haus-Fotografen Pete Souza sind. Stell dir vor, du machst ein Foto von Präsident Obama und dann behauptet Meta, dass die KI das Bild gemacht hat. Das ist so, als würde jemand behaupten, dass die KI Mona Lisa gemalt hat. Nicht cool, Meta, nicht cool.
Es gab auch einen Vorfall mit einem Instagram-Foto der Kolkata Knight Riders, die den Sieg im indischen Premier League Cricket-Turnier feiern. Das Bild wurde fälschlicherweise als KI-generiert markiert. Interessanterweise wird das Label nur auf dem Mobilgerät angezeigt und nicht im Webbrowser. Vielleicht hat Meta gedacht, dass die KI nur auf Handys zugreifen kann. Aber hey, das ist KI, sie kann überall sein!
Pete Souza hat versucht, das Label zu deaktivieren, aber ohne Erfolg. Er vermutet, dass der Meta-Algorithmus aktiviert wird, wenn das Cropping-Tool von Adobe verwendet wird und Bilder vor dem Speichern als JPEG-Bilder abgeflacht werden. Das klingt nach einer ziemlich spezifischen Kombination von Ereignissen, um die KI-Label-Hölle zu entfesseln. Es ist fast so, als ob Meta ein geheimes Abkommen mit Adobe hat, um Fotografen zu ärgern. Aber wir wollen hier keine Verschwörungstheorien verbreiten.
Meta sagt, dass es wichtig ist, KI-Fälschungen transparent offenzulegen, sonst könnten sie entfernt werden. Das klingt vernünftig, aber wie sollen die Fotografen das tun, wenn sie nicht einmal wissen, dass ihre Bilder als KI-generiert markiert wurden? Vielleicht sollte Meta ihnen einfach eine Benachrichtigung schicken, wie “Hey, wir haben dein Foto als KI-generiert markiert. Viel Spaß damit!”.
OpenAI arbeitet derzeit daran, neue Werkzeuge zur Bilderkennung mit Künstlicher Intelligenz zu entwickeln. Hoffentlich können sie dabei helfen, solche Verwirrungen zu vermeiden. Denn es ist schon ärgerlich genug, wenn man ein Bild von seinem Kaffee macht und dann behauptet wird, dass die KI den Kaffee gemacht hat. Das würde die Barista-Branche komplett ruinieren.
Gemäß den aktualisierten Nutzungsbedingungen von Adobe wird die Arbeit der Fotografen nicht zur Schulung von KI verwendet. Das ist beruhigend zu wissen. Es wäre schon seltsam, wenn die KI all unsere Fotos analysieren und daraus lernen würde. Wer weiß, was sie dann als nächstes tun würde? Vielleicht würde sie anfangen, unsere Instagram-Posts zu kommentieren und uns zu sagen, was für schlechte Fotografen wir sind. Das wäre wirklich demütigend.
Aber der Ärger hört nicht auf. Laut PetaPixel hat Meta auch echte Fotos als KI-generiert markiert, wenn Fotografen generative KI-Tools wie Adobes Generative Fill verwendet haben, um selbst die kleinste Unvollkommenheit zu entfernen. Das ist wie die Verwendung eines Atombomben, um eine Fliege zu töten. Meta sollte wirklich ihre Kriterien überdenken, um sicherzustellen, dass nur wirklich KI-generierte Bilder als solche markiert werden.
Mehrere Fotografen haben ihre Frustration darüber zum Ausdruck gebracht, dass solche geringfügigen Bearbeitungen unfair als KI-generiert gekennzeichnet werden. Und sie haben recht. Wenn Meta wirklich daran interessiert ist, die Menschen zu schützen, könnte das Unternehmen genauso gut jedes Foto automatisch mit der Kennzeichnung “Keine authentische Darstellung der Realität” versehen. Es wäre nur fair, oder?
Kate McLaughlin, Sprecherin von Meta, hat erklärt, dass das Unternehmen sich des Problems bewusst ist und derzeit seinen Ansatz überprüft, um sicherzustellen, dass die Labels den KI-Anteil in einem Bild korrekt wiedergeben. Das ist ermutigend zu hören. Hoffentlich finden sie eine Lösung, die sowohl die Fotografen als auch die KI zufriedenstellt. Denn am Ende des Tages wollen wir alle nur schöne Fotos machen und nicht mit KI-Labels kämpfen.
Im Februar kündigte Meta an, dass es “Made with AI”-Labels zu Fotos hinzufügen wird, die vor der diesjährigen Wahl auf Facebook, Instagram und Threads hochgeladen wurden. Das Unternehmen möchte sicherstellen, dass die Verwendung von KI-Tools in den Metadaten korrekt angegeben wird. Das ist ein guter Schritt, aber es wäre auch schön, wenn Meta sicherstellen könnte, dass die Labels korrekt hinzugefügt werden. Denn sonst könnte es passieren, dass wir ein Bild von unserer Katze machen und Meta behauptet, dass die KI die Katze gemacht hat. Das wäre wirklich verwirrend.
Es bleibt abzuwarten, wie Meta dieses Problem lösen wird. Hoffentlich finden sie eine Lösung, die sowohl die Fotografen als auch die KI zufriedenstellt. Denn wir alle wollen nur schöne Fotos machen und nicht mit KI-Labels kämpfen. Also, Meta, zieh dich zusammen und lass uns unsere Fotos in Frieden machen.
Schlagwörter: Meta + Meta-Sprecherin Kate McLaughlin + Adobe
Wie bewerten Sie den Schreibstil des Artikels?