EchoLeak и потенциальные риски искусственного интеллекта
Поскольку искусственный интеллект (ИИ) становится частью всего, от написания отчетов, ответа на электронные письма до анализа данных, кажется, что мы живем в эпоху беспрецедентного удобства. Но обратная сторона удобства также начинает становиться очевидной, особенно когда речь идет о безопасности.
Недавняя уязвимость безопасности, получившая название EchoLeak, подвергла пользователей сервиса Microsoft Copilot риску утечки их конфиденциальных данных без каких-либо действий с их стороны.
Когда ИИ становится уязвимостью безопасности
Согласно исследованию Tuoi Tre Online , EchoLeak — это недавно обнаруженная уязвимость безопасности с кодом CVE-2025-32711, которую эксперты оценили как опасную на уровне 9,3/10 по шкале NIST.
Экспертов по безопасности беспокоит то, что по своей сути это «нулевой клик» : злоумышленники могут использовать данные Copilot, даже не нажимая кнопку, не открывая файл и даже не зная, что что-то происходит.
Это не простая ошибка. Исследовательская группа Aim Labs, которая обнаружила этот недостаток, считает, что EchoLeak отражает распространенный недостаток дизайна в системах ИИ на основе агентов и RAG. Поскольку Copilot является частью пакета приложений Microsoft 365, в котором хранятся электронные письма, документы, таблицы и расписания встреч миллионов пользователей, потенциальная возможность утечки данных особенно серьезна.
Проблема заключается не только в конкретном коде, но и в том, как работают большие языковые модели (LLM). ИИ требуется много контекста для точного ответа, поэтому им предоставляется доступ к большому количеству фоновых данных. Без четкого контроля над вводом и выводом ИИ могут «управляться» способами, о которых пользователи не знают. Это создает новый вид «бэкдора», который возникает не из-за изъяна в коде, а из-за того, что ИИ ведут себя за пределами человеческого понимания.
Microsoft быстро выпустила патч, и пока не было сообщений о реальном ущербе. Но урок от EchoLeak ясен: когда ИИ глубоко интегрирован в работающие системы, даже небольшие ошибки в том, как он понимает контекст, могут иметь серьезные последствия для безопасности.
Чем удобнее становится ИИ, тем более уязвимыми становятся персональные данные
Инцидент EchoLeak поднимает тревожный вопрос: неужели люди настолько доверяют ИИ, что не понимают, что их можно отслеживать или раскрыть их личную информацию с помощью простого текстового сообщения? Недавно обнаруженная уязвимость, которая позволяет хакерам бесшумно извлекать данные без необходимости нажатия пользователем каких-либо кнопок, — это то, что когда-то можно было увидеть только в научно-фантастических фильмах, но теперь это реальность.
Хотя приложения на основе ИИ становятся все более популярными — от виртуальных помощников, таких как Copilot, чат-ботов в банковском деле, образовании до платформ ИИ, которые пишут контент и обрабатывают электронные письма, — большинство людей не предупреждают о том, как обрабатываются и хранятся их данные.
«Общение» с системой искусственного интеллекта теперь заключается не только в том, чтобы задать несколько вопросов для удобства, но и может непреднамеренно раскрыть ваше местоположение, привычки, эмоции или даже данные учетной записи.
Во Вьетнаме многие люди знакомы с использованием ИИ на телефонах и компьютерах без базовых знаний о цифровой безопасности . Многие люди делятся личной информацией с ИИ, потому что считают, что «это просто машина». Но на самом деле за этим стоит система, которая может записывать, изучать и передавать данные в другие места, особенно когда платформа ИИ исходит от третьей стороны и не была четко протестирована на безопасность.
Чтобы ограничить риски, пользователям не обязательно отказываться от технологий, но им следует быть более осведомленными: они должны тщательно проверять, имеет ли используемое ими приложение ИИ надежный источник, зашифрованы ли данные, и особенно не делиться конфиденциальной информацией, такой как идентификационные номера, банковские счета, информация о состоянии здоровья... с любой системой ИИ без четкого предупреждения.
Как и в эпоху зарождения Интернета, искусственному интеллекту также требуется время для совершенствования, и в течение этого времени пользователи должны быть первыми, кто начнет активно защищать себя.
Вы когда-нибудь делились слишком многим с ИИ?
При вводе команды типа «перепишите этот отчет для меня более дружелюбным образом» или «подведите итог вчерашней встречи» многие люди не думают, что вся информация, которую они вводят, включая внутренние данные, личные чувства и рабочие привычки, может быть записана ИИ. Мы настолько привыкли общаться с помощью умных инструментов, что забываем грань между удобством и конфиденциальностью.
Источник: https://tuoitre.vn/lo-hong-bao-mat-trong-microsoft-copilot-canh-bao-moi-ve-nguy-co-ro-ri-du-lieu-tu-ai-20250620103045262.htm
Комментарий (0)