Quellen von Tech.co zufolge drehte sich während der Kontroverse um die Entlassung von CEO Sam Altman und dessen anschließende Rückkehr zu OpenAI eines der Gerüchte um einen Brief der Forscher des Unternehmens an den Vorstand, in dem sie ihre Bedenken hinsichtlich der Entwicklung eines KI-Superintelligenzmodells zum Ausdruck brachten, das möglicherweise eine Bedrohung für die Menschheit darstellen könnte.
(Illustration)
Projekt Q*
Das Modell, das intern als Projekt Q* (ausgesprochen „Q-Stern“) bekannt ist, soll einen großen Durchbruch in OpenAIs Streben nach künstlicher allgemeiner Intelligenz (AGI) darstellen – einem hochautonomen Zweig der Superintelligenz, der zu kumulativem Lernen fähig ist und Menschen bei den meisten Aufgaben übertrifft.
Q* könnte einen großen Sprung nach vorne in der künstlichen Intelligenz darstellen, indem es die Denkfähigkeiten der KI radikal verbessert und OpenAI einem großen Durchbruch in der Entwicklung der AGI näher bringt, sagen mit der Angelegenheit vertraute Personen.
Im Gegensatz zu aktuellen KI-Modellen, die sich auf die Fähigkeit konzentrieren, Antworten auf der Grundlage zuvor erlernter Informationen zu generieren, handelt es sich bei AGI um ein autonomes System, das Entscheidungen „vernünftig“ treffen kann und so über Problemlösungsfähigkeiten auf menschlichem Niveau verfügt.
Obwohl die künstliche Intelligenz (AGI) noch nicht vollständig ausgereift ist, glauben viele Experten, dass die Technologie auch über die Fähigkeit zum kumulativen Lernen verfügen wird, eine weitere Eigenschaft, die es dem Menschen ermöglicht, seine Fähigkeiten zu verbessern.
Einige Quellen behaupten, dass das Projekt Q* – OpenAI die oben genannten Eigenschaften bei der Problemlösung demonstrieren konnte. Darüber hinaus konnte Q* dank der enormen Rechenleistung des Modells Grundschüler übertreffen und über Denk- und kognitive Fähigkeiten verfügen, die die Möglichkeiten aktueller KI-Technologie deutlich übertreffen.
Es ist unklar, wie lange sich Q* bereits in der Entwicklung befindet und welche Anwendungsmöglichkeiten es bietet, aber OpenAI hat Mitarbeiter und Vorstandsmitglieder vor dem Bekanntwerden des Personalskandals über das Projekt informiert.
Ethische Bedenken
Während Sam Altman, CEO von OpenAI, davon überzeugt ist, dass die AGI-Technologie Innovationen vorantreiben wird, weisen einige Forscher schnell auf die potenziellen Gefahren des Projekts hin.
In einem Brief an den Vorstand warnten die Forscher vor den potenziellen Gefahren dieses mächtigen Algorithmus für die Menschheit. Die konkreten ethischen Bedenken gegenüber KI, die im Brief dargelegt wurden, wurden nicht offengelegt, doch reichten die Warnungen aus, um die Entscheidung des Vorstands zu rechtfertigen, Altman zu entlassen.
Als Grund für Altmans Entlassung wurde zunächst „schlechte Kommunikation“ des CEO angegeben. Er fand bald darauf eine neue Stelle bei Microsoft. Daraufhin drohten 700 der 770 OpenAI-Mitarbeiter, dasselbe zu tun, sollte der CEO nicht wieder eingestellt werden.
Da das Unternehmen vom Zusammenbruch bedroht war, war der Vorstand von OpenAI gezwungen, Altman wieder in die Führungsposition zu berufen. Dies führte auch zu einer umfassenden Umstrukturierung des Führungsteams des Unternehmens und offenbarte tiefe Spaltungen innerhalb der Führung.
Jetzt, da Altman wieder im Amt ist und das Projekt Q* wahrscheinlich wieder grünes Licht bekommt, wirft dies neue Fragen auf.
Wie realistisch ist Projekt Q*?
Während die turbulenten Tage bei OpenAI das Konzept der AGI ins Rampenlicht gerückt haben, ist dies nicht das erste Mal, dass Altman die Technologie erwähnt.
Der Unternehmer aus dem Silicon Valley geriet im September in Schwierigkeiten, nachdem er künstliche Intelligenz mit „einem durchschnittlichen Menschen, den man als Mitarbeiter einstellen könnte“ verglich. Damit bekräftigte er seine Bemerkungen aus dem letzten Jahr, wonach künstliche Intelligenz „alles tun könne, was man mit einem entfernten Kollegen tun könnte“, darunter auch das Erlernen der Arbeit als Arzt und guter Programmierer.
Obwohl der Vergleich von AGI mit der Intelligenz eines „durchschnittlichen Menschen“ nichts Neues ist, wurde Altmans Verwendung dieses Ausdrucks vom KI-Ethiker und Professor der Universität Cambridge Henry Shevlin als „abscheulich“ empfunden, da die Bedenken hinsichtlich der Auswirkungen von KI auf die Arbeitsplatzsicherheit zunehmen.
Potentielle Durchbrüche in der künstlichen Intelligenz (AGI) sind auch für andere Forscher Anlass zur Sorge, denn die Technologie entwickelt sich schneller, als der Mensch ihre Auswirkungen vollständig erfassen kann.
OpenAI ist überzeugt, dass die positiven Ergebnisse der künstlichen Intelligenz (AGI) es wert sind, dieses riskante „Minenfeld“ zu erobern. Doch während das Unternehmen diesen Weg weiter verfolgt, befürchten viele, dass Altman den kommerziellen Erfolg über die Interessen von Nutzern und Gesellschaft stellt.
Phuong Anh (Quelle: Tech.co, The Guardian)
[Anzeige_2]
Quelle
Kommentar (0)