Que pensez-vous de la tendance des pirates informatiques à « militariser » l’IA pour mener des cyberattaques et des fraudes ?
Dr Nguyen Tuan Khang : Selon l'indice X-Force Threat Intelligence 2024 d'IBM, l'Asie-Pacifique, y compris le Vietnam, est la région qui subit le plus de cyberattaques au monde en 2023. Parmi celles-ci, l'industrie manufacturière est la plus touchée par les cyberattaques.
La principale méthode utilisée par les pirates reste l'hameçonnage, qui cible les personnes vulnérables et exploite leurs vulnérabilités pour installer des logiciels malveillants. Par ailleurs, la tendance émergente en 2024 est celle des cyberattaques impliquant l'intelligence artificielle (IA).
Le rapport de Wired souligne que de nombreux méchants utilisent l'IA générative pour guider les piratages, créer des chatbots frauduleux ou de fausses images et vidéos des visages et des voix d'autres personnes à l'aide de Deepfake.
Cependant, parallèlement à cette tendance, les systèmes de sécurité informatique commencent également à intégrer des fonctionnalités d'IA, comme WatsonX. L'intelligence artificielle peut être exploitée, mais elle peut aussi remplacer l'humain dans l'analyse, la surveillance, l'identification des données et la prévision des scénarios d'attaque, améliorant ainsi les capacités de défense et minimisant les risques pour la sécurité informatique.
Les arnaques deepfakes sont de plus en plus courantes. Avec le développement rapide de l'IA, quelle sera la dangerosité de ces attaques à l'avenir ?
Dr Nguyen Tuan Khang : En résumé, le deepfake est une technologie qui permet aux pirates de créer de fausses identités numériques, se faisant ainsi passer pour d’autres personnes. Le deepfake deviendra un problème dangereux car cette technologie devient de plus en plus sophistiquée.
Pour lutter contre les deepfakes, la première étape consiste à déterminer si l'image ou la voix d'une personne est générée par l'IA. Il n'existe actuellement aucun outil universel capable de détecter immédiatement les deepfakes, car les attaquants développent constamment de nouveaux modèles.
Outre la détection des deepfakes, il existe une autre technique pour y faire face : l'utilisation de la technologie pour analyser les comportements. D'un point de vue organisationnel et commercial, il est nécessaire de développer un système combinant ces deux techniques.
Ces derniers temps, des cyberattaques ont vu des pirates informatiques implanter secrètement des logiciels malveillants dans les systèmes des entreprises. Ces logiciels malveillants, à l'affût, analysent toutes les activités, créant ainsi une fausse identité pour mener à bien leurs actions malveillantes. Avec le développement de la technologie Deepfake, combinée à la possibilité de créer des vidéos par IA, ces types d'attaques seront bien plus dangereuses à l'avenir.
Avec l’escalade des cyberattaques Deepfake, comment pouvons-nous protéger les personnes âgées, les enfants et les autres groupes vulnérables des escrocs ?
Dr Nguyen Tuan Khang : Les personnes âgées et les enfants sont souvent victimes d’escroqueries utilisant une technique appelée ingénierie sociale. Ce terme désigne les attaques par manipulation du comportement humain.
Les pirates informatiques peuvent désormais utiliser l'IA en combinaison avec la collecte, l'exploration et l'analyse de données pour identifier les personnes susceptibles d'être victimes d'arnaques et trouver des moyens d'attaque. Outre la sensibilisation de la communauté, nous devons également accepter que des situations d'arnaque se produisent et utiliser la technologie pour les détecter et les prévenir.
Récemment, un employé de banque a soupçonné une femme âgée venue transférer de l'argent de présenter des signes d'escroquerie. Cette personne a alors immédiatement interrompu la transaction et signalé l'incident aux autorités. Les systèmes informatiques des banques disposent désormais de technologies permettant de remplacer les humains dans ces tâches.
Le rôle de la technologie est que, même si l'expéditeur est reconnu comme étant la personne réelle, le système empêchera ce comportement s'il est suspecté d'être manipulé. Ces outils sont appelés systèmes de lutte contre la fraude et la falsification.
Est-il temps pour le Vietnam d’imposer des sanctions pour gérer l’IA et d’encadrer la recherche, le développement et l’utilisation de l’IA ?
Dr Nguyen Tuan Khang : Des sanctions pour la gestion de l'IA sont évoquées depuis longtemps, mais de nombreuses controverses subsistent. Par exemple, le parking de mon quartier est équipé d'un système d'IA pour reconnaître les plaques d'immatriculation, mais des vols ont tout de même eu lieu. À cette époque, la question de savoir à qui incombait la responsabilité a commencé à se poser. Le propriétaire de l'appartement, l'agent de sécurité ou l'équipe qui a développé le système d'IA devait-il en être tenu responsable ?
Depuis, le règlement de l'immeuble a été modifié : les résidents peuvent désormais utiliser l'IA pour reconnaître les plaques d'immatriculation, mais ils doivent en accepter les risques. Ceux qui acceptent pourront utiliser les portes automatiques, tandis que ceux qui refusent devront garer leur voiture à l'ancienne. Des sanctions de ce type sont nécessaires.
De même, IBM a développé un système d'IA pour prévenir le cancer. Lorsque le système prescrit un médicament mais que le patient ne peut toujours pas être sauvé après l'avoir pris, est-ce la faute du médecin ou de l'IA ?
Je pense que la réglementation de l'IA doit être précise et indiquer clairement ce qui est autorisé et interdit lors du développement d'applications d'IA. Pour rendre le monde plus sûr, la réglementation la plus élémentaire que nous puissions mettre en place est d'exiger l'authentification biométrique des transferts d'argent importants. Dans une telle situation, les personnes qui perdent leurs informations d'identité peuvent éviter toute perte financière.
Merci monsieur.
Source
Comment (0)