Nick Clegg, Präsident für globale Angelegenheiten bei Meta, sagte, das Unternehmen werde eine Reihe von Markierungen verwenden, die in die Dateien integriert sind. Das Unternehmen werde alle auf seinen Diensten Facebook, Instagram und Threads veröffentlichten Inhalte mit Etiketten versehen, um den Nutzern zu signalisieren, dass Bilder (die wie echte Fotos aussehen mögen) in Wirklichkeit digitale Kreationen künstlicher Intelligenz sind. Laut Reuters hat das Unternehmen auch Inhalte gekennzeichnet, die mit eigenen KI-Tools erstellt wurden.
Sobald das neue System einsatzbereit ist, wird Meta dasselbe für Bilder tun, die mit Diensten von OpenAI, Microsoft, Adobe, Midjourney, Shutterstock und Alphabet generiert werden. Die Ankündigung ist die erste Neuigkeit eines neuen Standards, den Technologieunternehmen entwickeln, um die Gefahren generativer KI zu mindern, die aus einfachen Inhalten gefälschte Inhalte erstellen kann.
KI-generierte Bildbeschriftung hilft, Fehlinformationen und Betrug einzudämmen
Der Ansatz basiert auf einem Muster, das die Unternehmen im letzten Jahrzehnt entwickelt haben, um die Entfernung verbotener Inhalte auf Plattformen zu koordinieren, beispielsweise Darstellungen von Massengewalt und Kindesausbeutung.
Clegg ist davon überzeugt, dass Unternehmen KI-generierte Bilder mittlerweile zuverlässig kennzeichnen können, weist jedoch darauf hin, dass noch immer ausgefeiltere Kennzeichnungstools für Audio- und Videoinhalte entwickelt werden.
In naher Zukunft wird Meta von Nutzern verlangen, veränderte Audio- und Videoinhalte zu kennzeichnen. Bei Nichtbeachtung drohen Strafen. Clegg sagte jedoch, es gebe derzeit keinen praktikablen Mechanismus zur Kennzeichnung von Texten, die von KI-Tools wie ChatGPT generiert werden.
Der unabhängige Aufsichtsausschuss von Meta kritisierte die Unternehmenspolitik in Bezug auf irreführend bearbeitete Videos und sagte, dass Inhalte gekennzeichnet und nicht entfernt werden sollten. Clegg sagte daher, Metas neuer Schritt könne dazu beitragen, solche Inhalte besser zu klassifizieren.
[Anzeige_2]
Quellenlink
Kommentar (0)