Die rasante Entwicklung der künstlichen Intelligenz (KI) hat die Sorge geweckt, dass sie sich schneller entwickelt, als der Mensch ihre Auswirkungen verstehen kann.
Foto: ST
Der Einsatz allgemeiner KI hat nach dem Aufkommen von Tools wie ChatGPT deutlich zugenommen. Diese Tools bieten zwar viele Vorteile, können aber auch schädlich missbraucht werden.
Um dieses Risiko zu managen, haben die Vereinigten Staaten und mehrere andere Länder Vereinbarungen mit sieben Unternehmen – darunter Amazon, Anthropic, Google, Inflection, Meta, Microsoft und OpenAI – geschlossen, in denen diese sich zu sicheren Praktiken bei der Entwicklung von KI-Technologien verpflichten.
Die Ankündigung des Weißen Hauses enthält einen eigenen Fachjargon, der dem Durchschnittsbürger vielleicht unbekannt ist, darunter Begriffe wie „Red Teaming“ und „Watermarking“. Hier sind sieben KI-bezogene Begriffe, auf die Sie achten sollten.
Maschinelles Lernen
Dieser Zweig der KI zielt darauf ab, Maschinen durch die Erkennung von Mustern zu trainieren, eine bestimmte Aufgabe präzise auszuführen. Auf Grundlage dieser Daten kann die Maschine dann Vorhersagen treffen.
Tiefes Lernen
Kreative KI-Aufgaben basieren häufig auf Deep Learning, einer Methode, bei der Computer mithilfe neuronaler Netzwerke trainiert werden. Dabei handelt es sich um eine Reihe von Algorithmen, die die Neuronen im menschlichen Gehirn nachahmen und komplexe Verbindungen zwischen Mustern herstellen, um Text, Bilder oder andere Inhalte zu generieren.
Da Deep-Learning-Modelle über mehrere Neuronenschichten verfügen, können sie komplexere Muster erlernen als herkömmliches maschinelles Lernen.
Großes Sprachmodell
Ein großes Sprachmodell (LLM) wird anhand riesiger Datenmengen trainiert und dient der Modellierung von Sprache oder der Vorhersage des nächsten Wortes in einer Sequenz. Große Sprachmodelle wie ChatGPT und Google Bard können für Aufgaben wie Zusammenfassung, Übersetzung und Konversation eingesetzt werden.
Algorithmus
Eine Reihe von Anweisungen oder Regeln, die es Maschinen ermöglichen, Vorhersagen zu treffen, Probleme zu lösen oder Aufgaben zu erledigen. Algorithmen können Kaufempfehlungen geben und bei der Betrugserkennung sowie bei Chat-Funktionen für den Kundenservice helfen.
Voreingenommenheit
Da KI anhand großer Datensätze trainiert wird, können diese schädliche Informationen wie Hassreden enthalten. Auch Rassismus und Sexismus können in den zum KI-Training verwendeten Datensätzen vorkommen und zu irreführenden Inhalten führen.
KI-Unternehmen haben sich darauf geeinigt, sich eingehender mit der Frage zu befassen, wie schädliche Voreingenommenheit und Diskriminierung in KI-Systemen vermieden werden können.
Rotes Teaming
Eine der Verpflichtungen, die Unternehmen gegenüber dem Weißen Haus eingegangen sind, besteht darin, „Red Teaming“ innerhalb und außerhalb von KI-Modellen und -Systemen durchzuführen.
Beim „Red Teaming“ wird ein Modell getestet, um potenzielle Schwachstellen aufzudecken. Der Begriff stammt aus einer militärischen Praxis, bei der ein Team die Aktionen eines Angreifers simuliert, um Strategien zu entwickeln.
Diese Methode wird häufig verwendet, um Systeme wie Cloud-Computing-Plattformen von Unternehmen wie Microsoft und Google auf Sicherheitslücken zu testen.
Wasserzeichen
Ein Wasserzeichen ermöglicht es, festzustellen, ob ein Audio- oder Videomaterial von KI erstellt wurde. Zu den überprüften Fakten können Informationen darüber gehören, wer das Video erstellt hat und wie und wann es erstellt oder bearbeitet wurde.
Microsoft beispielsweise hat sich verpflichtet, mit seinen KI-Tools erstellte Bilder mit einem Wasserzeichen zu versehen. Auch gegenüber dem Weißen Haus haben sich Unternehmen verpflichtet, Bilder mit einem Wasserzeichen zu versehen bzw. deren Ursprung aufzuzeichnen, um sie als KI-generiert zu kennzeichnen.
Wasserzeichen werden auch häufig verwendet, um Verstöße gegen geistiges Eigentum zu verfolgen. Wasserzeichen für KI-generierte Bilder können als unmerkliches Rauschen erscheinen, beispielsweise als leichte Veränderung jedes siebte Pixel.
Das Anbringen eines Wasserzeichens in KI-generiertem Text kann jedoch komplexer sein und eine Anpassung der Wortvorlage erfordern, sodass diese als KI-generierter Inhalt identifiziert werden kann.
Hoang Ton (laut Poynter)
[Anzeige_2]
Quelle
Kommentar (0)