Meta ändert sein AI-Label nach Beschwerden

Oscar

Der nächste große Schritt für KI-Unternehmen ist ein geeignetes Kennzeichnungssystem, um die Leute wissen zu lassen, wenn Inhalte künstlich generiert wurden. Unternehmen wie Meta waren in dieser Hinsicht schon einen Schritt voraus, aber es gibt noch ein paar Bugs, die es zu beheben gilt. Einem neuen Bericht zufolge musste Meta nach Beschwerden von Fotografen sein KI-Label in „KI-Info“ ändern.

Das Unternehmen hat ein System eingerichtet, das Inhalte kennzeichnet, die seiner Meinung nach mithilfe von KI erstellt worden sein könnten. Die meisten KI-generierten Bilder auf der Plattform sind offensichtlich, aber die Technologie ist inzwischen so weit fortgeschritten, dass einige Medien das Auge täuschen können. Aus diesem Grund ist ein ordnungsgemäßes Kennzeichnungssystem wichtig.

Wir befinden uns derzeit in einem Wahljahr und, seien wir ehrlich, Facebook ist nicht gerade dafür bekannt, eine Plattform voller genauer Informationen zu sein. Es besteht also immer die Gefahr von Fehlinformationen durch KI-generierte Bilder.

Meta musste sein AI-Label nach Beschwerden von Fotografen ändern

Ein Problem, mit dem wir uns auseinandersetzen müssen, abgesehen von fehlenden KI-Etiketten, sind Unternehmen, die Inhalte fälschlicherweise als KI-generiert kennzeichnen. Fotografen haben schon seit einiger Zeit damit zu kämpfen, da Meta anscheinend echte Bilder als KI-generiert kennzeichnet. Ein Beispiel dafür war ein 40 Jahre altes Foto eines Baseballspiels. Wie Sie sich vorstellen können, war die KI-Bildgenerierung im Jahr 1984 noch nicht so toll.

Aus diesem Grund hat Meta das Label „Made with AI“ in „AI Info“ geändert. Dies scheint eine kleine Änderung zu sein, aber das Unternehmen hofft, dass es dadurch Ärger vermeiden kann. Anstatt zu sagen, dass das Bild mithilfe von KI-Technologie erstellt wurde, wird im Wesentlichen gesagt, dass möglicherweise eine KI-Manipulation im Spiel war.

Viele der heutzutage geposteten Bilder wurden mit einer Art KI-Tool wie dem Generative Fill-Tool von Photoshop bearbeitet. Der Punkt ist, dass Photoshop bei Verwendung bestimmter Tools dieser Art Metadaten zum Bild hinzufügt, die die Plattform darüber informieren, dass KI verwendet wurde. Plattformen wie Facebook, Instagram und Threads verwenden diese Daten, um festzustellen, ob eine KI-Manipulation stattgefunden hat.

Im Moment warten wir noch auf ein richtiges Kennzeichnungssystem, aber wir sind nicht sicher, ob es jemals kommen wird. Die Unternehmen, die an den Kennzeichnungssystemen arbeiten, stecken außerdem Milliarden von Dollar in die realistischere Gestaltung von KI-Bildern.