Ранее члены ЕС согласились ограничить использование технологии сканирования лиц в общественных местах определенными ситуациями, связанными с обеспечением правопорядка, что является «красной линией» для стран, ведущих переговоры с Европейским парламентом и Комиссией.
Некоторые правоцентристские депутаты предложили исключения, которые могли бы использовать технологию биометрического отслеживания для поиска пропавших детей или предотвращения террористических атак, но это также не было одобрено на пленарном голосовании.
Законодатели согласились ввести дополнительные меры в отношении платформ генеративного ИИ, таких как GPT-4, требуя от таких компаний, как OpenAI и Google, проводить оценки рисков и раскрывать, какие материалы, защищенные авторским правом, использовались для обучения моделей ИИ.
Подход ЕС к регулированию основан на оценке рисков. Он фокусируется на регулировании использования ИИ, а не самой технологии, запрещая некоторые приложения, такие как социальный скоринг, и устанавливая стандарты использования технологии в ситуациях «высокого риска».
Полный текст проекта Закона об искусственном интеллекте был принят 14 июня, что открыло путь для последующей «трехсторонней» дискуссии между парламентом ЕС, государствами-членами и Европейской комиссией.
Комиссия надеется достичь соглашения к концу года, чтобы ввести Закон об искусственном интеллекте в действие для компаний уже в 2026 году. Между тем, некоторые должностные лица настаивают на принятии добровольного «кодекса поведения» для компаний, который будет применяться к странам G-7, а также к Индии и Индонезии.
Ужесточение регулирования ЕС в сфере искусственного интеллекта может оказать серьезное влияние на сектор, стоимость которого оценивается более чем в 1,3 триллиона долларов США в течение следующих 10 лет, поскольку нарушение правил блока может повлечь за собой штрафы в размере до 6% от годового оборота.
(По данным Bloomberg)
Источник
Комментарий (0)