Pour de nombreux journaux, la section des commentaires est un excellent espace où les lecteurs peuvent apporter des pensées, des expériences et des perspectives diverses, mais elle peut également devenir un terrain fertile pour la négativité avec des arguments et un langage offensant qui peuvent étouffer des voix précieuses.
C'est le défi auquel a été confrontée Lucy Warwick-Ching, rédactrice en chef de la communauté du Financial Times. Le FT dispose d'une équipe de modération dédiée, mais avec des centaines d'articles publiés chaque semaine, ils ne parviennent pas à suivre le rythme, et la plupart d'entre eux sont fermés aux commentaires. Ils ont également décidé de fermer toutes les sections de commentaires le week-end afin d'éviter que des discussions toxiques ne dégénèrent en moments d'absence.
Recruter des modérateurs supplémentaires était trop coûteux et mettre en place son propre système de modération, trop complexe. L'équipe de Warwick-Ching a donc utilisé un outil de modération standard d'Utopia Analytics, qui a ensuite été entraîné sur 200 000 commentaires de lecteurs réels pour identifier les discussions polies, non polémiques et hors sujet.
Un outil d'IA peut identifier les commentaires sexistes et racistes, malgré un langage complexe. Photo : Eidosmedia
Lorsque l'outil a été lancé, le Financial Times devait encore vérifier manuellement chaque commentaire approuvé. Il a fallu plusieurs mois pour que l'outil prenne les bonnes décisions de modération. Il détecte désormais la plupart des commentaires sexistes et racistes, malgré la complexité du langage utilisé par les lecteurs du Financial Times.
« Ce n’est pas parfait et c’est encore un travail en cours », a déclaré Warwick-Ching six mois plus tard.
L'impact est néanmoins significatif. Auparavant, les modérateurs passaient la majeure partie de leur temps à filtrer les commentaires négatifs. Désormais, l'IA se charge d'une grande partie du travail, ce qui leur permet de se concentrer sur la création de communautés.
L'IA est non seulement efficace pour modérer les commentaires, mais elle remplace également les humains dans le traitement des commentaires émotionnellement dommageables. L'IA absorbe désormais une grande partie de la négativité qui en émane, protégeant ainsi les humains.
Plus important encore, Warwick-Ching affirme que l'introduction de l'outil d'IA ne mettra aucun modérateur au chômage. « Dès le début, lorsque nous avons introduit l'outil de modération, nous avons clairement indiqué qu'il ne s'agissait pas de réduire les effectifs, mais de créer un espace où les modérateurs peuvent exercer leur métier. »
Jusqu'à présent, l'outil d'IA a donné des résultats positifs. Les lecteurs ont signalé par courriel une amélioration de la courtoisie dans la section commentaires, et aucune plainte significative n'a été enregistrée concernant des commentaires rejetés injustement.
Les journalistes ont également constaté une augmentation significative des bénéfices des commentaires, les précieuses contributions des lecteurs enrichissant leurs articles. Ils ont également constaté que l'utilisation de l'IA permet aux modérateurs de se concentrer sur leur spécialité : créer un espace convivial et informatif pour tous.
Hoai Phuong (selon le journalisme)
Source : https://www.congluan.vn/cong-cu-ai-co-the-giup-cac-toa-soan-kiem-duyet-binh-luan-nhu-the-nao-post298847.html
Comment (0)