Los miembros de la UE acordaron previamente limitar el uso de la tecnología de escaneo facial en lugares públicos a ciertas situaciones de aplicación de la ley, una “línea roja” para los países en negociaciones con el Parlamento Europeo y la Comisión.
Algunos miembros de centroderecha propusieron excepciones que podrían utilizar tecnología de rastreo biométrico para ayudar a encontrar niños desaparecidos o prevenir ataques terroristas, pero esto tampoco fue aprobado en la votación plenaria.
Los legisladores acordaron imponer medidas adicionales a las plataformas de IA generativa como GPT-4, requiriendo que empresas como OpenAI y Google realicen evaluaciones de riesgos y revelen qué material protegido por derechos de autor se utilizó para entrenar modelos de IA.
El enfoque regulatorio de la UE se basa en una evaluación de riesgos. Se centra en regular el uso de la IA, más que la tecnología en sí, prohibiendo por completo algunas aplicaciones, como la puntuación social, y estableciendo estándares para el uso de la tecnología en situaciones de alto riesgo.
El texto completo del proyecto de Ley de IA fue adoptado el 14 de junio, allanando el camino para un debate “tripartito” posterior entre el Parlamento Europeo, los Estados miembros y la Comisión Europea.
La Comisión espera llegar a un acuerdo para finales de año para que la Ley de IA entre en vigor para las empresas a partir de 2026. Mientras tanto, algunos funcionarios están presionando para que se establezca un "código de conducta" voluntario para las empresas que se aplicaría a las naciones del G-7, junto con India e Indonesia.
El endurecimiento de la regulación de la IA artificial por parte de la UE podría tener un impacto importante en un sector cuyo valor se estima en más de 1,3 billones de dólares en los próximos 10 años, ya que el incumplimiento de las normas del bloque podría resultar en multas de hasta el 6% de la facturación anual.
(Según Bloomberg)
[anuncio_2]
Fuente
Kommentar (0)