ChatGPT poursuivi en justice
Récemment, deux auteurs américains ont poursuivi OpenAI devant un tribunal fédéral de San Francisco, affirmant que la société avait utilisé leurs œuvres pour « former » le populaire système d’intelligence artificielle ChatGPT.
Les écrivains du Massachusetts Paul Tremblay et Mona Awad affirment que ChatGPT a exploité des données copiées de milliers de livres sans autorisation, portant ainsi atteinte aux droits d'auteur des auteurs. Leur action en justice soutient que ChatGPT a créé des « résumés très précis » de leurs œuvres sans l'autorisation des auteurs, ce qui constitue une violation du droit d'auteur.
Selon le Guardian, Andres Guadamuz, étudiant en droit de la propriété intellectuelle à l'Université du Sussex, il s'agit du premier procès lié aux droits de propriété intellectuelle de ChatGPT. M. Guadamuz a ainsi déclaré que ce procès révélerait les limites juridiques floues de l'utilisation actuelle des applications d'IA innovantes.
OpenAI poursuivi pour violation du droit d'auteur dans la formation à l'IA.
Dans le domaine du journalisme, une série de questions ont été soulevées sur les opportunités et les défis, ainsi que sur la colère et les impacts de l’intelligence artificielle sur le journalisme en général et sur les postes des journalistes.
ChatGPT peut générer des textes très complexes à partir de simples commandes utilisateur, allant de dissertations à des candidatures, en passant par des poèmes et des récits de fiction. ChatGPT est un vaste modèle de langage, entraîné en téléchargeant des milliards de mots de la vie quotidienne sur Internet. Il en déduit ensuite des phrases et des mots à partir de certaines séquences.
Cependant, l'exactitude des réponses a été remise en question. Des chercheurs australiens ont découvert des exemples de systèmes falsifiant des références provenant de sites web, puis citant de fausses citations. L'utilisation de l'intelligence artificielle dans le journalisme a également suscité la controverse.
Le site d'actualités technologiques CNET utilise l'IA pour générer des articles dont les erreurs sont ensuite vérifiées par des rédacteurs humains avant publication. Le site a reconnu les limites du programme, après qu'un article du site d'actualités technologiques Futurism a révélé que plus de la moitié des articles générés à l'aide d'outils d'IA devaient être corrigés. Dans un cas, CNET a été contraint de corriger un article contenant une série d'erreurs simples.
Mais le potentiel de l'IA à générer de la désinformation n'est pas la seule préoccupation. Il existe également une multitude de questions juridiques et éthiques à prendre en compte, notamment la propriété intellectuelle (PI), la modération des contenus et la perturbation potentielle des modèles financiers actuels des rédactions.
À qui appartiennent les droits de propriété intellectuelle et de publication de contenu ?
Selon M. Le Quoc Minh, membre du Comité central du Parti, rédacteur en chef du journal Nhan Dan, directeur adjoint du Département central de la propagande et président de l'Association des journalistes vietnamiens , si les rédactions commencent à intégrer l'IA pour produire du contenu, une question importante se pose : à qui appartient la propriété intellectuelle et les droits de publication ? L'agence de presse contrôle-t-elle la plateforme d'IA ou est-ce la plateforme elle-même ?
Le Quoc Minh a rappelé que, contrairement aux États-Unis, la législation britannique autorise la protection du droit d'auteur pour les œuvres générées par ordinateur, même si seuls les individus ou les organisations ont le droit de « détenir » la propriété intellectuelle, jamais l'IA. Concrètement, cela signifie que si un système d'IA a apporté des contributions minimes au-delà des commandes utilisateur de base, et que le processus décisionnel automatisé a guidé le processus créatif, alors le créateur de la plateforme peut être considéré comme « l'auteur » et le propriétaire du produit intellectuel.
Le rédacteur en chef Gideon Lichfield a déclaré qu'ils ne publieraient pas de contenu écrit ou édité par l'IA et n'utiliseraient pas d'images ou de vidéos générées par l'IA.
En revanche, si le téléchargement de documents dans le système nécessite une saisie importante et que l'IA n'est qu'un outil d'assistance, la propriété intellectuelle du résultat peut appartenir à l'utilisateur. En effet, si les journalistes utilisent l'IA, ils doivent consulter attentivement les conditions d'utilisation des plateformes afin d'évaluer attentivement la réglementation en matière de propriété intellectuelle. Certaines plateformes « accordent » des droits de propriété intellectuelle aux utilisateurs, tandis que d'autres conservent ce droit et l'accordent sous licence (éventuellement avec des restrictions d'utilisation éditoriale).
« Quel que soit le propriétaire de la propriété intellectuelle, les salles de rédaction doivent être prêtes à assumer la responsabilité de tout contenu généré par l’IA qu’elles publient, y compris la possibilité que le contenu soit considéré comme diffamatoire ou trompeur », a déclaré Minh.
Le rédacteur en chef du journal Nhan Dan a ajouté que, jusqu'à présent, de nombreux outils d'IA ne « publient » pas de réponses à d'autres personnes que les utilisateurs eux-mêmes, et que toute personne utilisant ces technologies est responsable du contenu publié. Le principal risque pour les rédactions publiant des travaux générés par l'IA est la violation accidentelle des droits de propriété intellectuelle de tiers. Les journalistes ne peuvent pas savoir quelles images ou quels textes sont utilisés pour entraîner l'IA, ni lesquels sont utilisés pour créer du contenu à la demande.
« Les salles de rédaction doivent accepter le fait que le contenu apparemment original généré par l’IA peut être fortement influencé par des sources tierces ou directement copié à partir de celles-ci sans autorisation », a souligné Minh.
Minh a également souligné que les conditions d'utilisation des plateformes d'IA ne garantissent pas que les résultats ne porteront pas atteinte au droit d'auteur. Par conséquent, les rédactions n'auront aucune base juridique si elles sont poursuivies par les auteurs. Par exemple, l'hébergeur de photos Getty Images a engagé une action en justice contre Stability AI – la société mère qui développe l'outil de création d'images Stable Diffusion – pour « copie et traitement illégaux de millions de photos protégées par le droit d'auteur, détenues ou représentées par Getty Images ».
Même si Stability AI évite un procès pour atteinte aux droits d'auteur, elle sera néanmoins reconnue coupable d'avoir enfreint les conditions d'utilisation de Getty Images, qui interdisent « toute exploration de données, robotisation ou méthode similaire de collecte de données ». Les médias qui utiliseraient l'IA pour perturber le contenu de Getty Images sans autorisation pourraient également être poursuivis en justice », a déclaré Minh.
Dans une évolution positive, le site d’information technologique Wired est récemment devenu le premier média à publier une réglementation officielle sur l’IA, décrivant comment il prévoit d’utiliser la technologie.
Le règlement, publié début mars par le rédacteur en chef Gideon Lichfield, contient une série d'engagements concernant les pratiques interdites des rédactions, comme la publication de contenus rédigés ou édités par l'IA, l'utilisation d'images ou de vidéos générées par l'IA, et l'utilisation de l'IA uniquement pour trouver des idées d'articles, suggérer des titres attrayants ou diffuser efficacement du contenu sur les réseaux sociaux. Cette mesure peut être considérée comme positive et nécessaire dans un contexte où l'IA suscite de nombreuses controverses juridiques et éthiques dans le journalisme actuel.
Hoa Giang
Source
Comment (0)