Les membres de l’UE ont déjà convenu de limiter l’utilisation de la technologie de numérisation faciale dans les lieux publics à certaines situations d’application de la loi, une « ligne rouge » pour les pays en négociations avec le Parlement européen et la Commission.
Certains membres de centre-droit ont proposé des exceptions qui pourraient utiliser la technologie de suivi biométrique pour aider à retrouver des enfants disparus ou à prévenir des attaques terroristes, mais cela n'a pas non plus été approuvé lors du vote en plénière.
Les législateurs ont convenu d'imposer des mesures supplémentaires aux plateformes d'IA génératives comme GPT-4, obligeant des entreprises comme OpenAI et Google à effectuer des évaluations des risques et à divulguer quel matériel protégé par le droit d'auteur a été utilisé pour former les modèles d'IA.
L'approche réglementaire de l'UE repose sur une évaluation des risques. Elle privilégie la réglementation de l'utilisation de l'IA plutôt que de la technologie elle-même, en interdisant purement et simplement certaines applications comme le scoring social et en fixant des normes pour l'utilisation de cette technologie dans les situations « à haut risque ».
Le texte intégral du projet de loi sur l’IA a été adopté le 14 juin, ouvrant la voie à une discussion « tripartite » entre le Parlement européen, les États membres et la Commission européenne.
La Commission espère parvenir à un accord d'ici la fin de l'année pour mettre en œuvre la loi sur l'IA pour les entreprises dès 2026. Parallèlement, certains responsables font pression pour un « code de conduite » volontaire pour les entreprises qui s'appliquerait aux pays du G-7, ainsi qu'à l'Inde et à l'Indonésie.
Le durcissement de la réglementation de l'UE sur l'IA artificielle pourrait avoir un impact majeur sur un secteur estimé à plus de 1,3 billion de dollars au cours des 10 prochaines années, car les violations des règles du bloc pourraient entraîner des amendes pouvant aller jusqu'à 6 % du chiffre d'affaires annuel.
(Selon Bloomberg)
Source
Comment (0)