L'IA analyse et supprime les commentaires sur les réseaux sociaux
Lorsqu'un utilisateur laisse un commentaire sur une vidéo YouTube, une publication Facebook ou un article en ligne, il ignore s'il atteindra quelqu'un. Ce n'est pas parce qu'il est mal orthographié ou illégal, mais simplement parce qu'il est bloqué par un algorithme de filtrage automatisé.
Les plateformes technologiques actuelles utilisent des systèmes de filtrage des commentaires pour éliminer les discours haineux, la pornographie, la violence et les discours clivants. L'objectif est de « protéger les communautés », mais ces outils sont-ils si aseptisants qu'ils en deviennent insensibles ?
Quand l’IA devient le gardien de la parole
Contrairement aux débuts d'Internet, où les commentaires « bruts » circulaient librement, la plupart des grandes plateformes délèguent désormais la responsabilité du filtrage du contenu à l'intelligence artificielle. Grâce à l'apprentissage automatique, les systèmes peuvent analyser des millions de lignes de texte chaque jour, en évaluant la langue, le ton et même le « contexte » pour décider de conserver ou de supprimer.
Cependant, ce système n’est pas toujours précis.
Mme Ngoc Vy (HCMC) a partagé : « Mon commentaire sur un produit a été masqué sans raison. Pas de jurons, pas de spam, juste un commentaire qui a disparu après quelques secondes. »
De nombreux contenus sont supprimés simplement parce qu'ils utilisent des termes sensibles dans un contexte tout à fait normal. Des expressions comme « pauvreté », « faim », « politique » ou « système » sont parfois interprétées à tort comme négatives si la machine ne parvient pas à en « lire » l'esprit.
Filtrer ou éliminer les critiques ?
Selon un avertissement d’AlgorithmWatch (Allemagne), les systèmes de censure automatisés peuvent éliminer involontairement les voix dissidentes, en particulier celles des groupes défavorisés ou minoritaires, car ces systèmes apprennent du comportement de la majorité, qui n’est pas suffisamment diversifiée en termes de culture et de points de vue.
Au Vietnam, le contrôle strict du contenu par les plateformes de médias sociaux se généralise, notamment sur les sites d'information très interactifs. Les commentaires sur l'actualité et les sujets de société sont souvent restreints ou doivent être approuvés au préalable, ce qui amène de nombreuses personnes à se demander : existe-t-il encore une liberté d'expression dans le cyberespace ?
Ce qui est inquiétant, c'est que les utilisateurs savent rarement pourquoi les commentaires sont masqués ou supprimés. Il n'y a aucune notification, aucun mécanisme de retour transparent. Tout se passe en silence, et dans un monde régi par les algorithmes, le silence peut être la forme la plus subtile de censure.
Gardez Internet propre mais ne blanchissez pas la conversation
Un cyberespace propre ne doit pas être synonyme de stérilité. La société est un lieu où différentes opinions s'expriment, sont constructives, critiques et débattues. Nous avons besoin d'algorithmes pour filtrer les propos toxiques, mais nous devons aussi protéger le droit à la différence, le droit de questionner et le droit de signaler les désagréments.
Lorsque chaque commentaire doit être « modéré », nous devons nous demander : la technologie protège-t-elle la communauté ou filtre-t-elle ce que la communauté est autorisée à entendre ?
La technologie ne peut remplacer l'humain dans la prise de décisions pertinentes. Et à l'ère de l'IA, la transparence et le droit au retour d'information constituent les « algorithmes » les plus équitables pour l'ensemble du système.
La technologie devrait aider les gens à s’exprimer, et non décider quoi dire à leur place.
Source : https://tuoitre.vn/khi-ai-quyet-dinh-ban-duoc-noi-gi-tren-mang-20250701231035288.htm
Comment (0)