Что вы думаете о тенденции использования хакерами искусственного интеллекта в качестве «оружия» для совершения кибератак и мошенничества?

Доктор Нгуен Туан Кханг: Согласно индексу угроз X-Force Threat Intelligence Index 2024 компании IBM, Азиатско-Тихоокеанский регион, включая Вьетнам, станет регионом, который в 2023 году подвергнется наибольшему количеству кибератак в мире. Из них наиболее пострадавшей от кибератак отраслью станет обрабатывающая промышленность.

Основным методом злодеев по-прежнему остаются фишинговые атаки, нацеленные на уязвимых людей и эксплуатирующие уязвимости для установки вредоносного ПО. Кроме того, в 2024 году наметившейся тенденцией являются кибератаки с использованием искусственного интеллекта (ИИ).

В отчете Wired отмечается, что многие злоумышленники используют генеративный ИИ для проведения взломов, создания мошеннических чат-ботов или поддельных изображений и видео лиц и голосов других людей с помощью Deepfake.

Однако наряду с этой тенденцией системы информационной безопасности также начинают интегрировать функции ИИ, такие как watsonx. Искусственный интеллект может быть использован, но он также может заменить людей в анализе, мониторинге, идентификации чисел, прогнозировании сценариев атак, тем самым улучшая возможности защиты и минимизируя риски информационной безопасности.

В-нгуен-туан-кханг-ibm-1.jpg
Эксперт по кибербезопасности Нгуен Туан Кханг. Фото: Тронг Дат

Мошенничества с использованием Deepfake становятся все более распространенными. Насколько опасными будут эти атаки в будущем, учитывая стремительное развитие ИИ?

Доктор Нгуен Туан Кханг: По сути, Deepfake — это технология, которая помогает хакерам создавать поддельные цифровые личности, тем самым выдавая себя за других. Deepfake станет опасной проблемой, поскольку эта технология становится все более и более сложной.

Для борьбы с Deepfakes первым делом нужно определить, сгенерировано ли изображение или голос человека с помощью ИИ. В настоящее время не существует универсального инструмента, который мог бы мгновенно обнаружить Deepfakes, поскольку злоумышленники постоянно разрабатывают новые модели.

Помимо обнаружения Deepfake, есть еще один метод борьбы с ним, который заключается в использовании технологий для анализа поведения. С организационной и деловой точки зрения необходимо разработать систему, которая сочетает в себе оба этих метода.

В последнее время были кибератаки, когда хакеры тайно внедряли вредоносное ПО в систему компании. Вредоносное ПО выжидает и анализирует все действия, тем самым создавая поддельную личность для осуществления злонамеренных намерений. С развитием технологии Deepfake в сочетании с возможностью создания видеороликов с помощью искусственного интеллекта, такие типы атак станут гораздо более опасными в будущем.

Как мы можем защитить пожилых людей, детей и другие уязвимые группы от мошенников в связи с эскалацией кибератак Deepfake?

Доктор Нгуен Туан Кханг: Пожилые люди и дети часто подвергаются атакам мошенников, использующих технику, называемую социальной инженерией. Это термин, который описывает атаки посредством манипуляции человеческим поведением.

Теперь хакеры могут использовать ИИ в сочетании со сбором данных, добычей и анализом, чтобы выявлять людей, которые, скорее всего, будут обмануты, а затем находить способы атаковать. Помимо повышения осведомленности в сообществе, мы также должны признать, что ситуации, когда пользователи будут обмануты, будут иметь место, и должны использовать технологии для их обнаружения и предотвращения.

W-online-fraud-1.jpg
Предупреждение о случаях выдачи себя за сотрудников полиции с целью мошенничества с денежными переводами полицией округа Тхань Лыонг ( Ханой ). Фото: Trong Dat

Недавно был случай, когда банковский служащий заподозрил, что пожилая женщина, пришедшая перевести деньги, имеет признаки мошенничества. Этот человек тут же остановил транзакцию и сообщил об этом властям. В ИТ-системах банков теперь есть технологии, которые заменяют людей в таких задачах.

Роль технологии заключается в том, что даже если известно, что отправитель — реальный человек, система все равно предотвратит такое поведение, если есть подозрение, что кто-то другой манипулирует им. Такие инструменты называются системами предотвращения мошенничества и подделки.

Не пора ли Вьетнаму ввести санкции для управления ИИ и включить исследования, разработки и использование ИИ в конкретную структуру?

Доктор Нгуен Туан Кханг: Санкции за управление ИИ упоминаются уже давно, однако, по-прежнему существует много споров. Например, на парковке в моем районе установлена ​​система ИИ для распознавания номерных знаков, но кражи все равно были. В то время и начали возникать споры о том, чья это вина. Должен ли нести ответственность владелец квартиры, охранник или подразделение, разрабатывающее систему ИИ?

С тех пор здание изменило свои правила, заявив, что жители могут использовать ИИ для распознавания номерных знаков для удобства, но они должны принять риски. Те, кто согласен, смогут пользоваться автоматическими дверями, тем, кто не согласен, придется парковать свои машины по-старому. Нам нужны такие санкции.

Аналогично, IBM когда-то разработала систему ИИ для профилактики рака. Когда система выписывает лекарство, но пациента все равно не удается спасти после его приема, это вина врача или ИИ?

Я думаю, что регулирование ИИ должно быть конкретным, четко определяющим, что можно и что нельзя делать при разработке приложений ИИ. Чтобы сделать мир безопаснее, самое простое регулирование, которое мы можем сделать, — это потребовать биометрической аутентификации крупных денежных переводов. В такой ситуации люди, которые теряют свою идентификационную информацию, могут полностью избежать потери денег.

Спасибо, сэр.

Мошенничества с использованием Deepfake, поддельных лиц и голосов увеличатся в 2024 году По прогнозу VSEC, в 2024 году увеличатся масштабы кибератак с использованием искусственного интеллекта, включая мошенничества с использованием Deepfake для подделки лиц и голосов.