Появление чат-ботов, таких как ChatGPT от OpenAI, облегчает нашу жизнь.
Искусственный интеллект (ИИ) может отвечать на сложные вопросы пользователей и даже выполнять задачи необычайно похожим на человеческие способом.
По этой причине пользователи иногда хотят «рассказать» чат-ботам AI все о себе, потому что считают это безвредным. Однако это действие имеет непредсказуемые последствия.
Эксперты предупреждают пользователей не делиться слишком многим с чат-ботами ИИ. Фото: The Sun
Эксперт по кибербезопасности Стэн Каминский из «Лаборатории Касперского» (Россия) предупреждает: «Не отправляйте никакие свои персональные данные чат-ботам с искусственным интеллектом».
«Никогда не сообщайте чат-ботам свои пароли, номера паспортов, удостоверений личности, банковских карт, адреса, номера телефонов, настоящие имена и другие персональные данные, принадлежащие вам, вашей компании или вашим клиентам», — отметил он.
Камински также предупредил пользователей не загружать документы в чат-бот. «Это подвергает вас риску утечки конфиденциальных данных, интеллектуальной собственности или коммерческих секретов, таких как даты выпуска новых продуктов или платежная ведомость целой компании», — пояснил он.
Эксперты «Лаборатории Касперского» объясняют, что персональные данные, отправленные в чат-боты с искусственным интеллектом, могут быть легко раскрыты многими способами. Например, ChatGPT будет автоматически сохранять разговоры для обучения новых версий.
В процессе чат-бот может непреднамеренно поделиться вашей информацией с другими пользователями. Кроме того, ваш разговор с чат-ботом AI может быть предметом проверки модераторами.
«Помните, что все, чем вы делитесь с чат-ботом, может быть использовано против вас. Лучше всего сохранять анонимность своих разговоров с чат-ботом», — цитирует The Sun экспертов.
Источник: https://nld.com.vn/tam-su-voi-chatbot-ai-coi-chung-bi-lo-du-lieu-ca-nhan-196240217141619813.htm
Комментарий (0)