In einer Erklärung betonten Branchenführer und Experten laut AFP, dass die Bewältigung der Risiken durch KI „neben anderen Risiken wie Pandemien und Atomkriegen eine globale Priorität sein muss“. Die Erklärung wurde von Dutzenden von Experten unterzeichnet, darunter Sam Altman, CEO von OpenAI, dem Unternehmen, das die ChatGPT-Plattform entwickelt hat.
ChatGPT wurde Ende letzten Jahres durch seine Fähigkeit bekannt, aus kürzesten Eingabeaufforderungen Essays, Gedichte und Chats zu generieren. Der ChatGPT-Hype hat Milliardeninvestitionen in den KI-Bereich angezogen.
ChatGPT-Logo und das englische Wort „Artificial Intelligence“ (AI)
Branchenexperten schlagen jedoch Alarm, und zwar wegen aller möglichen Probleme, von voreingenommenen KI-Algorithmen bis hin zum Risiko eines Massenverlusts von Arbeitsplätzen, da die KI-gestützte Automatisierung in den Alltag der Menschen eindringt.
Die jüngste Erklärung, die auf der Website des Center for AI Safety (einer gemeinnützigen Organisation mit Sitz in den USA) veröffentlicht wurde, enthält keine Einzelheiten zu der potenziellen existenziellen Bedrohung durch KI.
Einige der Unterzeichner, darunter auch Geoffrey Hinton, der einige der grundlegenden Technologien für KI-Systeme entwickelt hat und als Vater der Branche gilt, haben in der Vergangenheit bereits ähnliche Warnungen ausgesprochen.
Ihre größte Sorge gilt der Idee der sogenannten künstlichen allgemeinen Intelligenz (AGI). Dabei handelt es sich um ein Konzept, das den Punkt beschreibt, an dem Maschinen in der Lage sind, viele der gleichen Funktionen wie Menschen auszuführen und eigene Programme zu entwickeln.
Das Beunruhigende ist, dass der Mensch die KI nicht mehr kontrollieren kann. Experten warnen, dass diese Situation verheerende Folgen für die Menschheit haben könnte.
Dutzende Experten von Unternehmen wie Google und Microsoft unterzeichneten die Erklärung, die laut AFP zwei Monate nach der Forderung des Milliardärs Elon Musk und anderer erfolgte, die Entwicklung von KI-Technologien zu unterbrechen, bis ihre Sicherheit nachgewiesen werden könne.
[Anzeige_2]
Quellenlink
Kommentar (0)