Vietnam.vn - Nền tảng quảng bá Việt Nam

Le modèle de « superintelligence » à l'origine du scandale d'OpenAI

VTC NewsVTC News01/12/2023


Selon des sources de Tech.co , alors que la controverse sur le licenciement du PDG Sam Altman puis son retour à OpenAI faisait rage, l'une des rumeurs concernait une lettre envoyée par les chercheurs de l'entreprise au conseil d'administration, exprimant des inquiétudes concernant le modèle de superintelligence de l'IA en cours de développement qui pourrait potentiellement constituer une menace pour l'humanité.

(Illustration)

(Illustration)

Projet Q*

Le modèle, connu en interne sous le nom de Projet Q* (prononcé Q-star), est censé représenter une avancée majeure dans la quête d'OpenAI en matière d'intelligence artificielle générale (AGI) - une branche hautement autonome de la superintelligence capable d'apprentissage cumulatif et de surpasser les humains dans la plupart des tâches.

Q* pourrait marquer un bond en avant majeur dans l'intelligence artificielle en améliorant radicalement les capacités de raisonnement de l'IA et en rapprochant OpenAI d'une avancée majeure dans le développement de l'AGI, selon des personnes proches du dossier.

Contrairement aux modèles d’IA actuels, qui se concentrent sur la capacité à générer des réponses basées sur des informations précédemment apprises, l’AGI est un système autonome qui peut appliquer la « raison » aux décisions, lui conférant des capacités de résolution de problèmes de niveau humain.

Bien que l’AGI ne soit pas encore pleinement réalisée, de nombreux experts pensent que la technologie aura également la capacité d’apprendre de manière cumulative, une autre caractéristique qui donne aux humains la possibilité d’améliorer leurs capacités.

Certaines sources affirment que le projet Q* d'OpenAI a pu démontrer les propriétés mentionnées ci-dessus lors de la résolution de problèmes. De plus, grâce à l'énorme puissance de calcul du modèle, Q* a pu surpasser des élèves du primaire, démontrant des capacités de raisonnement et des capacités cognitives bien supérieures aux capacités des technologies d'IA actuelles.

On ne sait pas exactement depuis combien de temps Q* est en développement et quelles pourraient être ses applications, mais OpenAI a informé les employés et les membres du conseil d'administration du projet avant que le scandale du personnel n'éclate.

Préoccupations éthiques

Alors que le PDG d'OpenAI, Sam Altman, est convaincu que la technologie AGI stimulera l'innovation, certains chercheurs ont rapidement souligné les dangers potentiels du projet.

Dans une lettre adressée au conseil d'administration, les chercheurs ont mis en garde contre les dangers potentiels de ce puissant algorithme pour l'humanité. Les préoccupations éthiques spécifiques concernant l'IA exposées dans la lettre n'ont pas été divulguées, mais ces avertissements ont suffi à justifier la décision du conseil d'administration de licencier Altman.

Entre-temps, la raison initiale invoquée pour le licenciement d'Altman était que le PDG « communiquait mal ». Il a rapidement trouvé un nouveau poste chez Microsoft. Cette décision a incité 700 des 770 employés d'OpenAI à menacer de faire de même si le PDG n'était pas réintégré.

Alors que l'entreprise était en danger d'effondrement, le conseil d'administration d'OpenAI a été contraint de réintégrer Altman à son poste de direction, ce qui a également conduit à une refonte majeure de l'équipe de direction de l'entreprise et a mis en évidence de profondes divisions au sein de sa direction.

Maintenant qu’Altman est de retour au pouvoir et que le projet Q* est susceptible d’obtenir à nouveau le feu vert, cela soulève de nouvelles questions.

Dans quelle mesure le projet Q* est-il réaliste ?

Bien que les jours tumultueux chez OpenAI aient mis le concept d'AGI sous les projecteurs, ce n'est pas la première fois qu'Altman mentionne cette technologie.

L'entrepreneur de la Silicon Valley s'est retrouvé dans une situation délicate en septembre après avoir comparé l'IA à « un humain lambda que vous pourriez embaucher comme collègue ». Il a poursuivi ses propos de l'année dernière selon lesquels l'IA pouvait « faire tout ce que vous pouvez faire avec un collègue à distance », y compris apprendre à devenir médecin et bon programmeur.

Bien que comparer l’AGI à l’intelligence d’un « humain moyen » ne soit pas une nouveauté, l’utilisation de cette expression par Altman a été jugée « odieuse » par l’éthicien de l’IA et professeur à l’Université de Cambridge Henry Shevlin, alors que les inquiétudes concernant l’impact de l’IA sur la sécurité de l’emploi s’intensifient.

Les avancées potentielles dans le domaine de l’AGI suscitent également des inquiétudes chez d’autres chercheurs : la technologie se développe à une vitesse telle que les humains ne peuvent pas pleinement comprendre son impact.

OpenAI estime que les résultats positifs de l'AGI justifient l'exploration de ce « champ de mines » risqué. Mais alors que l'entreprise poursuit ses avancées dans cette direction, nombreux sont ceux qui craignent qu'Altman privilégie le succès commercial aux intérêts des utilisateurs et de la société.

Phuong Anh (Source : Tech.co, The Guardian)



Source

Comment (0)

No data
No data

Même sujet

Même catégorie

Découvrez le processus de fabrication du thé de lotus le plus cher de Hanoi
Admirez la pagode unique fabriquée à partir de plus de 30 tonnes de pièces en céramique à Ho Chi Minh-Ville
Village au sommet de la montagne à Yen Bai : des nuages ​​flottants, beaux comme un pays des fées
Un village caché dans la vallée de Thanh Hoa attire les touristes pour découvrir

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit