¿Qué opinas sobre la tendencia de los hackers a utilizar la IA como arma para llevar a cabo ciberataques y fraudes?
Dr. Nguyen Tuan Khang: Según el Índice de Inteligencia de Amenazas X-Force 2024 de IBM, Asia-Pacífico, incluido Vietnam, es la región que sufre más ciberataques en el mundo en 2023. De los cuales, la manufactura es la industria más afectada por los ciberataques.
El principal método de los cibercriminales sigue siendo el phishing, dirigido a personas vulnerables y que explota vulnerabilidades para instalar malware. Además, la tendencia emergente en 2024 son los ciberataques con inteligencia artificial (IA).
El informe de Wired señala que muchos delincuentes están usando IA generativa para ayudar a guiar ataques, crear chatbots fraudulentos o falsificar imágenes y videos de rostros y voces de otras personas usando Deepfake.
Sin embargo, junto con esta tendencia, los sistemas de seguridad de la información también están empezando a integrar funciones de IA, como WatsonX. La inteligencia artificial puede aprovecharse, pero también puede reemplazar a los humanos en el análisis, la monitorización, la identificación de números y la predicción de escenarios de ataque, mejorando así las capacidades de defensa y minimizando los riesgos de seguridad de la información.
Las estafas deepfake son cada vez más comunes. Con el rápido desarrollo de la IA, ¿qué tan peligrosos serán estos ataques en el futuro?
Dr. Nguyen Tuan Khang: En esencia, Deepfake es una tecnología que permite a los hackers crear identidades digitales falsas, haciéndose pasar por otros. Deepfake será un problema peligroso porque esta tecnología es cada vez más sofisticada.
Para combatir los deepfakes, lo primero es determinar si la imagen o la voz de una persona está generada por IA. Actualmente no existe una herramienta universal que pueda detectar los deepfakes inmediatamente, ya que los atacantes desarrollan constantemente nuevos modelos.
Además de la detección de deepfakes, existe otra técnica para combatirlos: el uso de tecnología para analizar el comportamiento. Desde una perspectiva organizacional y empresarial, es necesario desarrollar un sistema que combine ambas técnicas.
Recientemente, se han producido ciberataques en los que hackers han instalado malware en secreto en los sistemas de las empresas. El malware acecha y analiza todas las actividades, creando así una identidad falsa para llevar a cabo acciones maliciosas. Con el desarrollo de la tecnología Deepfake, sumada a la capacidad de crear vídeos con IA, este tipo de ataques serán mucho más peligrosos en el futuro.
Con la escalada de ciberataques Deepfake, ¿cómo podemos proteger a los ancianos, los niños y otros grupos vulnerables de los estafadores?
Dr. Nguyen Tuan Khang: Los estafadores suelen atacar a ancianos y niños mediante una técnica llamada ingeniería social. Este término describe ataques mediante la manipulación del comportamiento humano.
Los hackers ahora pueden usar la IA en combinación con la recopilación, minería y análisis de datos para identificar a personas susceptibles de ser estafadas y encontrar maneras de atacarlas. Además de concienciar a la comunidad, debemos aceptar que las situaciones de estafa pueden ocurrir y debemos usar la tecnología para detectarlas y prevenirlas.
Recientemente, un empleado bancario sospechó que una anciana que acudió a transferir dinero presentaba indicios de haber sido estafada. Esta persona suspendió la transacción de inmediato y la denunció a las autoridades. Los sistemas informáticos de los bancos ahora cuentan con tecnología que reemplaza a los humanos en estas tareas.
La función de la tecnología es que, incluso si se sabe que el remitente es la persona real, el sistema evitará este comportamiento si se sospecha que alguien más lo está manipulando. Estas herramientas se denominan sistemas de mitigación de fraude y falsificación.
¿Es hora de que Vietnam aplique sanciones para gestionar la IA y poner la investigación, el desarrollo y el uso de la IA en un marco?
Dr. Nguyen Tuan Khang: Las sanciones por la gestión de la IA se han mencionado durante mucho tiempo; sin embargo, aún existen muchas controversias. Por ejemplo, el estacionamiento de mi zona cuenta con un sistema de IA para reconocer matrículas, pero aun así hubo robos. En ese momento, surgió la controversia sobre quién era el responsable. ¿Debería ser responsable el propietario del apartamento, el guardia de seguridad o la unidad que desarrolló el sistema de IA?
Desde entonces, el edificio ha cambiado sus normas, estableciendo que los residentes pueden optar por usar IA para reconocer matrículas para mayor comodidad, pero deben aceptar los riesgos. Quienes acepten podrán usar las puertas automáticas; quienes no, tendrán que aparcar sus coches de la forma tradicional. Necesitamos sanciones como esta.
De forma similar, IBM desarrolló un sistema de IA para prevenir el cáncer. Cuando el sistema prescribe un medicamento, pero el paciente no puede recuperarse tras tomarlo, ¿es culpa del médico o de la IA?
Creo que la regulación de la IA debe ser específica y establecer claramente qué se puede y qué no se puede hacer al desarrollar aplicaciones de IA. Para un mundo más seguro, la regulación más básica que podemos implementar es exigir que las grandes transferencias de dinero se autentiquen biométricamente. En tal situación, quienes pierdan su información de identidad pueden evitar por completo perder dinero.
Gracias señor.
[anuncio_2]
Fuente
Kommentar (0)