Ces derniers mois, des experts et des chercheurs en sécurité des enfants ont mis en garde contre le risque que l’IA artificielle puisse exacerber les abus en ligne.
Mark Zuckerberg, PDG de Meta, s'exprime lors d'une audition devant la commission judiciaire du Sénat américain, le 31 janvier 2024, devant une foule de participants munis d'images générées par l'IA. Photo : Reuters
Le NCMEC n'a pas encore publié le nombre total de signalements de matériel d'abus d'enfants provenant de toutes les sources qu'il a reçues en 2023. Mais en 2022, il a reçu des rapports d'environ 88,3 millions de dossiers sur le problème.
« Nous recevons des rapports d’entreprises d’IA innovantes elles-mêmes, de plateformes (en ligne) et de membres du public », a déclaré John Shehan, vice-président du NCMEC.
Les PDG de Meta, X, TikTok, Snap et Discord ont témoigné mercredi 31 janvier lors d'une audition au Sénat américain sur la sécurité des enfants sur les plateformes en ligne. Les législateurs américains ont interrogé les entreprises de réseaux sociaux sur leurs efforts pour protéger les enfants des « prédateurs en ligne ».
L'IA générative pourrait être utilisée par de mauvais acteurs pour nuire à plusieurs reprises à des enfants réels en créant de fausses images d'eux, ont déclaré des chercheurs de l'Observatoire Internet de Stanford dans un rapport en juin dernier.
Fallon McNulty, directrice de CyberTipline du NCMEC, qui recueille les signalements d’exploitation d’enfants en ligne, a déclaré que le contenu généré par l’IA devient « de plus en plus photoréaliste », ce qui rend difficile de déterminer si les victimes sont de vraies personnes.
OpenAI, la société qui a créé ChatGPT, a mis en place un processus pour soumettre des rapports au NCMEC, et l'organisation est en pourparlers avec d'autres sociétés d'IA, a déclaré McNulty.
Hoang Hai (selon Reuters, FT)
Source
Comment (0)