Взглянув еще раз, она поняла, что это была всего лишь фотография ИИ, использованная страницей Facebook для иллюстрации сентиментального поста. Примечательно, что это был второй раз, когда ее «почти» обманул ИИ. До этого она также приняла видео «встреча пенсионеров с «летними отдыхающими»» за реальных людей и реальные события.
Работая в медиаиндустрии и регулярно сталкиваясь с контентом, созданным с использованием искусственного интеллекта, г-жа Линь вынуждена признать, что эта технология развилась настолько быстро и настолько усложнилась, что теперь сложно отличить реальность от подделки.

Эксперты согласны с этой точкой зрения. Такие инструменты, как Google Veo 3, Kling AI, DALL·E 3, Midjourney... достигли возможности создания невероятно реалистичных изображений и видео.
Г-н До Нху Лам, директор по обучению Института блокчейн-технологий и искусственного интеллекта ABAII, отметил, что благодаря мультимодальной технологии и передовым языковым моделям эти инструменты могут синхронизировать изображения, звуки, выражения лица и естественные движения, создавая весьма убедительные продукты.

Г-н Лэм прокомментировал, что достижения в области ИИ открывают большой потенциал в таких областях, как создание контента, реклама, развлечения и образование . Однако эта способность воссоздавать «по-настоящему» также создает множество проблем в этике, контроле и информационной безопасности, поскольку граница между реальностью и виртуальностью становится все более размытой.
Пост на Facebook, который увидела г-жа Линь, привлек почти 300 000 взаимодействий и более 16 000 комментариев. Многие пользователи поспешили поздравить или выразить свои чувства, не зная, что это всего лишь иллюстрация ИИ. Некоторые более «трезвые» люди критиковали «пользователей сети за то, что они слишком наивны» и позволили ИИ обмануть их.
В группах и форумах Facebook несложно увидеть видеоролики с использованием искусственного интеллекта, созданные и распространенные пользователями. В частности, появление Google Veo 3 значительно повысило качество видеороликов, особенно голос, соответствующий форме рта персонажа. Если не быть внимательным и смотреть невнимательно, зрители могут легко запутаться.
Сохраняем здравомыслие в эпоху ИИ
Фотографии и видео, сделанные с помощью ИИ, трудно различить, что представляет большую опасность для пользователей, особенно уязвимых групп, не владеющих технологиями. По словам г-на Ву Тхань Тханга, директора по искусственному интеллекту (CAIO) акционерной компании SCS Cyber Security, киберпреступники используют ИИ для мошенничества (обход биометрических систем, eKYC...), выдавая себя за известных людей для распространения ложной информации, что вызывает замешательство общественности. Существует множество случаев, когда высокотехнологичные преступники используют ИИ для создания поддельных фотографий, выдавая себя за родственников для совершения видеозвонков с целью выманивания денег.

По словам г-на Танга, предприятия также являются потенциальными целями для преступников, использующих ИИ. Они могут использовать AI Deepfake, чтобы выдавать себя за сотрудников, обходить системы безопасности, чтобы разблокировать посещаемость, и выдавать себя за руководителей предприятий, чтобы опорочить и разрушить репутацию.
Разделяя то же мнение, г-н До Нху Лам из ABAII указал на три последствия для отдельных пользователей, вызванные ИИ: финансовое мошенничество, клевета на репутацию и эксплуатация личной информации. Что касается бизнеса, компания Arup потеряла 25 миллионов долларов США после того, как сотрудники ее гонконгского филиала были обмануты, чтобы принять участие в deepfake видеовстрече и перевести деньги по запросу.
Другим не менее серьезным риском является то, что, когда люди не смогут отличить правду от фейка, доверие общественности к средствам массовой информации и официальным источникам новостей будет подорвано.
Г-н Лэм сослался на отчет Института Рейтер за 2024 год, в котором говорится, что процент пользователей во всем мире, доверяющих новостям на медиаплатформах, упал до самого низкого уровня за последнее десятилетие, во многом из-за появления фейкового контента.
По словам эксперта Ву Тхань Тханга, «мы живем в эпоху, когда любая информация может быть подделана и больше не является «риском». Поэтому необходимо повышать осведомленность и применять меры индивидуальной защиты, узнавать больше об ИИ, чтобы жить в мире .
Оба эксперта рекомендуют пользователям всегда проверять и аутентифицировать информацию перед принятием решений; вооружиться знаниями для выявления поддельного контента; ограничить распространение личной информации в Интернете; и сообщать об актах распространения поддельного контента. «Только проявив инициативу и обладая знаниями, пользователи могут по-настоящему защитить себя и внести вклад в создание более безопасного киберпространства в цифровую эпоху», — сказал г-н Лэм.

Источник: https://vietnamnet.vn/anh-ai-tran-ngap-facebook-tuong-vo-hai-nhung-cuc-nguy-hiem-2408883.html
Комментарий (0)