По данным Reuters, в 20-страничном документе, опубликованном 26 ноября, 18 стран согласились с тем, что компании, занимающиеся исследованиями и применением искусственного интеллекта, должны разрабатывать и внедрять технологию таким образом, чтобы защитить клиентов и общественность от злоупотреблений.
Соглашение не носит обязательный характер и в основном содержит общие рекомендации, такие как мониторинг систем ИИ для обнаружения и предотвращения злоупотреблений, защита данных и проверка поставщиков программного обеспечения.
Развитие ИИ приводит к гонке в сфере технологий, а также к множеству опасений.
Однако Джен Истерли, директор Агентства США по кибербезопасности и безопасности инфраструктуры, отметила, что важно, чтобы так много стран разделяли мнение о том, что системы ИИ должны ставить безопасность на первое место.
«Это первый раз, когда мы видим, как страны соглашаются, что эти возможности касаются не только привлекательности функций, того, как быстро мы можем вывести их на рынок или как мы можем конкурировать, чтобы снизить затраты», — сказал Истерли агентству Reuters. Чиновник сказал, что руководство представляет собой «соглашение о том, что самое важное, что нужно обеспечить на этапе проектирования, — это безопасность».
Соглашение является последней из серии инициатив правительств по всему миру, направленных на формирование развития ИИ, влияние которого все больше ощущается в отраслях промышленности и обществе в целом.
В документе рассматриваются вопросы о том, как защитить системы ИИ от хакеров, и содержатся рекомендации, такие как выпуск новых моделей только после тщательного тестирования безопасности. Новое руководство не затрагивает сложные вопросы о надлежащем использовании ИИ или о том, как собирать данные, которые питают эти модели.
Развитие искусственного интеллекта вызвало множество опасений, включая опасения, что ИИ может быть использован для подрыва демократического процесса, содействия мошенничеству или приведения к массовой безработице, а также для нанесения другого вреда.
Европа опережает США в принятии нормативных актов, связанных с ИИ. Франция, Германия и Италия также недавно достигли соглашения о том, как регулировать эту сферу, в отношении базовых моделей ИИ.
Администрация Байдена оказывала давление на законодателей по вопросу регулирования ИИ, однако глубоко поляризованный Конгресс не добился существенного прогресса в принятии эффективных правил.
Белый дом стремился снизить риски, связанные с ИИ, для потребителей, работников и меньшинств, одновременно укрепляя национальную безопасность с помощью нового указа, принятого в октябре.
Ссылка на источник
Комментарий (0)