Terrorgruppen wie der Islamische Staat (IS) und Al-Qaida nutzen Technologien, insbesondere künstliche Intelligenz, um extremistische Botschaften zu verbreiten, Zensur zu umgehen und vor allem Mitglieder zu rekrutieren.
In Family Guy, einer der weltweit beliebtesten Zeichentrickserien, gibt es eine Szene, in der die Hauptfigur Peter Griffin einen mit Bomben beladenen Lastwagen über eine Brücke fährt. Doch wie aus dem obigen Ausschnitt hervorgeht, setzte der IS künstliche Intelligenz (KI) ein, um Griffins Worte durch den Satz zu ersetzen: „Unsere Waffen sind großartig, wir haben viele Ränge, die Soldaten Allahs sind bereiter“, um mehr IS-Anhänger zu gewinnen.
„Die rasante Verbreitung von KI-Technologie in den letzten Jahren hat die Art und Weise, wie extremistische Organisationen online Einfluss nehmen, stark beeinflusst“, so der US-Forscher Daniel Siegel. Im Februar 2024 kündigte eine Al-Qaida-nahe Gruppe an, Online-Workshops zum Thema KI zu veranstalten, und veröffentlichte später einen Leitfaden zur Nutzung von KI-Chatbots. Im März dieses Jahres, nachdem ein IS-Ableger einen Terroranschlag auf ein Theater in Moskau verübt hatte, verfasste einer ihrer Anhänger eine Fake-News-Meldung und veröffentlichte sie online. Anfang Juli verhaftete das spanische Innenministerium neun junge Menschen, die Inhalte verbreiteten, die den IS verherrlichten. Einer von ihnen soll sich mithilfe spezieller KI-gestützter Bearbeitungsprogramme auf extremistische Multimediainhalte konzentriert haben.
„KI wird sowohl von Al-Qaida als auch vom IS als Ergänzung zur offiziellen Propaganda eingesetzt“, sagte Moustafa Ayad, Exekutivdirektor für Afrika, den Nahen Osten und Asien am Londoner Institute for Strategic Dialogue. Für langjährige IS-Beobachter ist das keine Überraschung. Als die Gruppe um 2014 erstmals auftauchte, produzierte sie Videos , die der Einschüchterung und Rekrutierung von Mitgliedern dienen sollten. Aufsichtsbehörden haben verschiedene Einsatzmöglichkeiten von KI durch extremistische Gruppen dokumentiert. Neben Propaganda könnte der IS auch Chatbots wie ChatGPT nutzen, um mit potenziellen Rekruten zu kommunizieren.
KI-Modelle wie ChatGPT verfügen zwar über bestimmte Regeln, um Nutzer von Verbrechen wie Terrorismus und Mord abzuhalten. Diese Regeln haben sich jedoch als unzuverlässig erwiesen und können von Terroristen leicht umgangen werden. Es gibt zudem Bedenken, dass Extremisten KI-Tools für Cyberangriffe oder zur Planung realer Terroranschläge nutzen könnten.
Die größere Bedrohung, so Analysten, bestehe nun darin, dass diese Gruppen tatsächlich Anschläge verüben und so Einzeltäter inspirieren oder erfolgreich neue Mitglieder rekrutieren. Angesichts der Empörung der internationalen Gemeinschaft über Israels Krieg im Gazastreifen nutzen extremistische Gruppen zivile Opfer als rhetorisches Mittel, um neue Mitglieder zu rekrutieren und Kampagnen aufzubauen.
KHANH MINH
[Anzeige_2]
Quelle: https://www.sggp.org.vn/nguy-co-khi-cac-nhom-khung-bo-su-dung-cong-nghe-cao-post749867.html
Kommentar (0)