СГГП
Стремясь ужесточить регулирование ИИ, ключевые законодатели Европейского союза (ЕС) согласовали несколько поправок к проекту регламента в области искусственного интеллекта (ИИ) с целью ограничения генеративного ИИ, такого как ChatGPT.
Panasonic Connect Corporation помогла сотрудникам в Японии использовать системы искусственного интеллекта для повышения производительности. Фото: Nikkei Asia |
Ожидаем первый полный закон
Голосование по законопроекту о регулировании ИИ 11 мая ознаменовало новый шаг в процессе принятия формального законодательства, регулирующего инструменты ИИ, такие как ChatGPT. Комитеты Европейского парламента по защите прав потребителей и гражданским свободам одобрили проект текста, в котором подтверждается необходимость регулирования использования ИИ в ЕС, одновременно поощряя инновации в этой области, но уважая основные права, согласно которым ИИ должен служить людям, обществу и окружающей среде.
Ожидается, что после двух лет обсуждений Закон об ИИ станет первым полноценным законом в ЕС, регулирующим эту технологию, поскольку в него добавлены положения, запрещающие использование технологии распознавания лиц в общественных местах (что, как прогнозируется, может привести к конфликтам между странами ЕС), а также инструменты, использующие алгоритмы для прогнозирования преступного поведения, приложения искусственного ИИ, такие как ChatGPT от OpenAI, биометрические проверки... Соответственно, эти приложения должны отправлять уведомления, чтобы напоминать пользователям, что продукты этих инструментов создаются машинами, а не людьми.
Документ также включает раздел, призывающий к дополнительным критериям для определения областей высокого риска для приложений ИИ, тем самым ограничивая область разработки инструментов. Инструменты ИИ будут классифицироваться в соответствии с уровнем риска, который может представлять каждый инструмент. Правительства и компании, использующие эти инструменты, будут нести различные обязательства в зависимости от уровня риска.
Проект текста будет представлен на утверждение всему Европарламенту в следующем месяце, а затем будет отправлен в государства-члены ЕС для рассмотрения и доработки. Хотя список, предложенный Европейской комиссией (ЕК), уже включает в себя варианты использования ИИ в критической инфраструктуре, образовании , человеческих ресурсах, общественном порядке и иммиграции, депутаты Европарламента также хотят добавить пороговые значения для определения угроз безопасности, здоровью и основным правам.
Япония возьмет на себя инициативу
Многие страны также ищут решения проблемы, позволяющие не допустить отставания отечественной промышленности и решить проблемы, связанные с конфиденциальностью информации, высказываемые гражданами.
В Азии был созван первый в истории японский правительственный Стратегический совет по искусственному интеллекту, чтобы создать основу для руководства развитием ИИ. Выступая перед советом, премьер-министр Фумио Кисида сказал: «ИИ имеет потенциал изменить наше экономическое общество в положительную сторону, но он также несет в себе риски. Важно решать обе проблемы соответствующим образом».
Использование технологии ИИ будет способствовать повышению конкурентоспособности промышленности и решению проблем для всего общества, но ИИ должен использоваться разумно, а риски для пользователей должны быть сведены к минимуму. Однако до сих пор обсуждения в основном были сосредоточены на технических аспектах. Японские эксперты призывают, чтобы в ближайшее время обсуждения проводились на основе более широкой перспективы с участием таких областей, как бизнес и право. Nikkei Asia заявила, что одна из проблем, с которой сталкивается Япония, заключается в том, как повысить уровень развития внутреннего ИИ, сосредоточившись на регулировании общего использования ИИ, в котором безопасность, конфиденциальность и авторские права являются важными вопросами.
ИИ начинает нарушать повседневную жизнь, поскольку появляются фейковые изображения и видео, а также текст, сгенерированный роботом, вызывая обеспокоенность в диапазоне от национальной безопасности до дезинформации. Министры цифровых технологий и технологий стран «Большой семерки» (G7) договорились составить руководящие принципы по разработке и использованию общего ИИ к концу этого года. С переходом председательства в G7 к Японии в 2023 году премьер-министр Кисида заявил, что Япония возьмет на себя ведущую роль в разработке международных правил, чтобы максимально использовать обещания и справиться с рисками искусственного ИИ.
Как и Япония, Белый дом на прошлой неделе объявил, что инвестирует 140 миллионов долларов в создание семи исследовательских центров ИИ и опубликует руководящие принципы по использованию этой передовой технологии с целью создания правил, которые минимизируют риски, но не препятствуют развитию инноваций на основе ИИ. Выступая перед Советом советников по науке и технологиям, президент США Джо Байден подчеркнул, что ИИ может помочь справиться с некоторыми очень сложными проблемами, такими как болезни и изменение климата, но мы также должны учитывать потенциальные риски для общества, экономики и национальной безопасности. Технологические компании обязаны гарантировать безопасность своей продукции до того, как она попадет на рынок.
Источник
Комментарий (0)