Dans un document de 20 pages publié le 26 novembre, 18 pays ont convenu que les entreprises de recherche et d'application de l'IA doivent développer et déployer la technologie d'une manière qui protège les clients et le grand public contre les abus, selon Reuters.
L'accord n'est pas contraignant et contient principalement des recommandations générales, telles que la surveillance des systèmes d'IA pour détecter et prévenir les abus, la protection des données et le contrôle des fournisseurs de logiciels.
Le développement de l’IA entraîne une course dans le domaine technologique ainsi que de nombreuses préoccupations.
Cependant, Jen Easterly, directrice de l'Agence américaine de cybersécurité et de sécurité des infrastructures, a déclaré qu'il était important que de nombreux pays partagent l'avis selon lequel les systèmes d'IA doivent donner la priorité à la sécurité.
« C'est la première fois que nous voyons des pays s'accorder sur le fait que ces capacités ne se limitent pas à l'attrait des fonctionnalités, à la rapidité de leur commercialisation ou à notre compétitivité pour réduire les coûts », a déclaré Easterly à Reuters. Ce responsable a ajouté que ces orientations constituent « un accord sur le fait que la sécurité est le critère le plus important à garantir dès la conception ».
Cet accord est le dernier d’une série d’initiatives prises par les gouvernements du monde entier pour façonner le développement de l’IA, dont l’impact se fait de plus en plus sentir dans les industries et dans la société en général.
Le document aborde les questions relatives à la protection des systèmes d'IA contre les pirates informatiques et inclut des recommandations telles que la publication de nouveaux modèles uniquement après des tests de sécurité approfondis. Les nouvelles directives n'abordent pas les questions épineuses concernant l'utilisation appropriée de l'IA ou la collecte des données qui alimentent ces modèles.
L’essor de l’IA a suscité de nombreuses inquiétudes, notamment la crainte que l’IA puisse être utilisée pour perturber le processus démocratique, promouvoir la fraude ou conduire à un chômage massif, entre autres préjudices.
L'Europe devance les États-Unis dans la mise en œuvre de réglementations liées à l'IA. La France, l'Allemagne et l'Italie ont également récemment conclu un accord sur la réglementation du secteur, concernant les modèles sous-jacents de l'IA.
L’administration Biden a fait pression sur les législateurs pour qu’ils réglementent l’IA, mais le Congrès, profondément polarisé, n’a fait que peu de progrès dans l’adoption de réglementations efficaces.
La Maison Blanche a cherché à atténuer les risques liés à l’IA pour les consommateurs, les travailleurs et les minorités tout en renforçant la sécurité nationale avec un nouveau décret en octobre.
Lien source
Comment (0)