Was halten Sie vom Trend, dass Hacker KI als Waffe einsetzen, um Cyberangriffe und Betrug durchzuführen?

Dr. Nguyen Tuan Khang: Laut IBMs X-Force Threat Intelligence Index 2024 ist der Asien- Pazifik-Raum , einschließlich Vietnam, im Jahr 2023 die Region, die weltweit am meisten unter Cyberangriffen zu leiden hat. Dabei ist die Fertigungsindustrie die Branche, die am stärksten von Cyberangriffen betroffen ist.

Die Hauptmethode der Kriminellen sind nach wie vor Phishing-Angriffe, die auf gefährdete Personen abzielen und Schwachstellen ausnutzen, um Schadsoftware zu installieren. Darüber hinaus sind Cyberangriffe mit künstlicher Intelligenz (KI) ein neuer Trend im Jahr 2024.

Der Bericht von Wired weist darauf hin, dass viele Kriminelle generative KI nutzen, um Hacks zu steuern, betrügerische Chatbots zu erstellen oder mithilfe von Deepfake Bilder und Videos von Gesichtern und Stimmen anderer Personen zu fälschen.

Mit diesem Trend gehen jedoch auch zunehmend KI-Funktionen in Informationssicherheitssysteme ein, wie beispielsweise Watson. Künstliche Intelligenz kann genutzt werden, aber auch Menschen bei der Analyse, Überwachung, Identifizierung von Zahlen und der Vorhersage von Angriffsszenarien ersetzen und so die Verteidigungsfähigkeit verbessern und Informationssicherheitsrisiken minimieren.

W-nguyen-tuan-khang-ibm-1.jpg
Cyber-Sicherheitsexperte Nguyen Tuan Khang. Foto: Trong Dat

Deepfake-Betrug kommt immer häufiger vor. Wie gefährlich werden diese Angriffe angesichts der rasanten Entwicklung der KI in Zukunft sein?

Dr. Nguyen Tuan Khang: Deepfake ist eine Technologie, die Hackern hilft, gefälschte digitale Identitäten zu erstellen und sich so als andere auszugeben. Deepfake wird zu einem gefährlichen Problem, da diese Technologie immer ausgefeilter wird.

Um Deepfakes zu bekämpfen, muss zunächst festgestellt werden, ob das Bild oder die Stimme einer Person KI-generiert ist. Derzeit gibt es kein universelles Tool, das Deepfakes sofort erkennen kann, da Angreifer ständig neue Modelle entwickeln.

Neben der Deepfake-Erkennung gibt es eine weitere Technik, um damit umzugehen: den Einsatz von Technologie zur Verhaltensanalyse. Aus organisatorischer und geschäftlicher Sicht ist es notwendig, ein System zu entwickeln, das beide Techniken kombiniert.

In jüngster Zeit kam es zu Cyberangriffen, bei denen Hacker heimlich Schadsoftware in das System eines Unternehmens einschleusten. Die Schadsoftware lauerte und analysierte sämtliche Aktivitäten, wodurch eine gefälschte Identität für böswillige Zwecke erstellt wurde. Mit der Entwicklung der Deepfake-Technologie und der Möglichkeit, KI-Videos zu erstellen, werden solche Angriffe in Zukunft deutlich gefährlicher sein.

Wie können wir angesichts der zunehmenden Zahl von Deepfake-Cyberangriffen ältere Menschen, Kinder und andere gefährdete Gruppen vor Betrügern schützen?

Dr. Nguyen Tuan Khang: Ältere Menschen und Kinder werden häufig von Betrügern angegriffen, die eine Technik namens Social Engineering anwenden. Dieser Begriff beschreibt Angriffe durch die Manipulation menschlichen Verhaltens.

Hacker können heute KI in Kombination mit Datenerfassung, -mining und -analyse nutzen, um potenzielle Betrugsopfer zu identifizieren und Angriffsmöglichkeiten zu finden. Neben der Sensibilisierung der Community müssen wir auch akzeptieren, dass es zu Betrugsfällen kommen kann. Wir müssen Technologien einsetzen, um diese zu erkennen und zu verhindern.

W-online-fraud-1.jpg
Warnung vor Fällen, in denen sich die Polizei des Bezirks Thanh Luong ( Hanoi ) als Polizisten ausgibt, um Geldtransfers zu betrügen. Foto: Trong Dat

Kürzlich gab es einen Fall, in dem ein Bankangestellter den Verdacht hegte, dass eine ältere Frau, die Geld überweisen wollte, Anzeichen eines Betrugs aufwies. Daraufhin stoppte er die Transaktion umgehend und meldete sie den Behörden. Die IT-Systeme der Banken verfügen mittlerweile über Technologien, die Menschen bei solchen Aufgaben ersetzen.

Die Funktion der Technologie besteht darin, dass das System dieses Verhalten auch dann verhindert, wenn der Verdacht besteht, dass jemand anderes die Nachricht manipuliert, selbst wenn bekannt ist, dass es sich beim Absender um die tatsächliche Person handelt. Solche Tools werden als Betrugs- und Fälschungsschutzsysteme bezeichnet.

Ist es für Vietnam an der Zeit, Sanktionen zur Kontrolle der KI zu verhängen und die Forschung, Entwicklung und Nutzung der KI in einen Rahmen zu fassen?

Dr. Nguyen Tuan Khang: Sanktionen für KI-Management werden schon lange diskutiert, es gibt jedoch immer noch viele Kontroversen. Beispielsweise ist der Parkplatz in meiner Gegend mit einem KI-System zur Nummernschilderkennung ausgestattet, trotzdem kam es zu Diebstählen. Damals kam die Kontroverse darüber auf, wer schuld war. Sollte der Wohnungseigentümer, der Sicherheitsdienst oder die Einheit, die das KI-System entwickelt, verantwortlich sein?

Seitdem hat das Gebäude seine Regeln geändert. Die Bewohner können nun aus praktischen Gründen KI zur Nummernschilderkennung nutzen, müssen aber die damit verbundenen Risiken in Kauf nehmen. Wer damit einverstanden ist, kann die automatischen Türen benutzen, wer nicht, muss seine Autos auf die alte Art parken. Solche Sanktionen brauchen wir.

IBM hat einmal ein KI-System zur Krebsprävention entwickelt. Wenn das System ein Medikament verschreibt, der Patient aber nach der Einnahme nicht mehr gerettet werden kann, liegt die Schuld dann beim Arzt oder bei der KI?

Ich denke, die KI-Regulierung muss spezifisch sein und klar festlegen, was bei der Entwicklung von KI-Anwendungen erlaubt ist und was nicht. Um die Welt sicherer zu machen, ist die grundlegendste Regulierung, die wir treffen können, die biometrisch authentifizierte Authentifizierung großer Geldtransfers. In einer solchen Situation können Menschen, die ihre Identitätsdaten verlieren, Geldverluste vollständig vermeiden.

Vielen Dank, Sir.

Deepfake-Betrug, falsche Gesichter und Stimmen werden im Jahr 2024 zunehmen . Laut der Prognose von VSEC werden Cyberangriffe mit KI, darunter Deepfake-Betrug zur Fälschung von Gesichtern und Stimmen, im Jahr 2024 zunehmen.