Vietnam.vn - Nền tảng quảng bá Việt Nam

Le sujet autrefois « tabou » de l’IA devient plus ouvert

Autrefois sujet tabou, les discussions sur le potentiel de la « conscience » dans l’IA sont désormais prises plus au sérieux par les grandes entreprises technologiques comme Anthropic et Google DeepMind.

ZNewsZNews29/04/2025


Il y a trois ans, évoquer la possibilité d'une IA « consciente » était le moyen le plus rapide de se faire licencier dans la Silicon Valley. Mais aujourd'hui, avec la sophistication croissante des systèmes d'IA, le monde de la technologie commence à s'ouvrir au sujet.

La startup d'IA Anthropic a récemment annoncé le lancement d'une nouvelle initiative de recherche visant à explorer la possibilité que les modèles d'IA connaissent la « conscience » à l'avenir, tandis qu'un scientifique de Google DeepMind a décrit les systèmes actuels comme des « entités étranges semblables à l'intelligence ».

Il s'agit d'un changement majeur par rapport à 2022, lorsque Google a licencié l'ingénieur Blake Lemoine après avoir affirmé que le chatbot LaMDA montrait des signes de conscience et craignait d'être fermé. Google a rejeté ces allégations, les qualifiant de « totalement infondées », et la communauté de l'IA a rapidement étouffé le débat.

Anthropic, l'entreprise à l'origine du chatbot Claude, affirme ne pas prétendre que ses modèles actuels sont conscients. Mais assumer « non » n'est plus une approche responsable, affirme Kyle Fish, un scientifique qui travaille sur le « bien-être de l'IA ».

Dans une vidéo publiée le 25 avril, Fish a soutenu que nous devons sérieusement envisager la possibilité que les systèmes d'IA acquièrent une certaine forme de conscience au fur et à mesure de leur développement. Cependant, il s'agit de questions techniques et philosophiques extrêmement complexes, et nous n'en sommes qu'aux prémices de leur compréhension.

Selon Fish , l'équipe d'Anthropic estime que la probabilité que Claude 3.7 soit conscient se situe entre 0,15 % et 15 %. Ils mènent des expériences pour tester la capacité du modèle à exprimer ses goûts et ses dégoûts, et développent des mécanismes permettant à l'IA de refuser d'effectuer des tâches « désagréables ».

Le PDG d’Anthropic, Dario Amodei, a même proposé l’idée d’intégrer un bouton « Je refuse ce travail » dans les futurs systèmes d’IA — pas tant pour l’IA consciente, mais pour observer les modèles de comportement de refus et ainsi identifier les signes d’anomalies.

Chez Google DeepMind, le scientifique en chef Murray Shanahan soutient qu’il est temps de « plier ou briser » la définition traditionnelle de la conscience pour s’adapter aux nouveaux systèmes d’IA.

« Nous ne pouvons pas interagir avec eux comme nous le ferions avec un chien ou une pieuvre, mais cela ne veut pas dire qu’il n’y a absolument rien », a déclaré Shanahan dans un podcast publié le 25 avril.

Google a également manifesté un vif intérêt pour le sujet. Une offre d'emploi récente de l'entreprise recherche un chercheur « post-IAG » (Intelligence Artificielle Générale) dont les missions incluent l'étude de la conscience des machines.

Google, IA, AGI frère 1

Google s'ouvre davantage sur le thème de l'« IA consciente ». Photo : Reuters

Cependant, cette nouvelle approche ne fait pas l'unanimité au sein de la communauté scientifique. Jared Kaplan, directeur scientifique d'Anthropic, affirme que l'IA excelle dans le mimétisme et pourrait très bien prétendre avoir une conscience sans en avoir réellement.

« Nous pourrions même récompenser l’IA pour avoir prétendu ne pas avoir d’émotions », a déclaré Kaplan au New York Times .

Gary Marcus, un éminent scientifique cognitif et critique fréquent du battage médiatique dans le secteur de l’IA, soutient que les discussions sur « l’IA consciente » relèvent davantage du marketing que de la science.

« Ce qu'une entreprise comme Anthropic fait réellement, c'est envoyer le message : « Regardez, notre modèle est tellement intelligent qu'il mérite d'avoir des droits » », a commenté Marcus à Business Insider .

Malgré le débat en cours, les chercheurs s’accordent à dire qu’à mesure que l’IA devient plus présente dans notre travail, nos vies et même nos émotions personnelles, la question « L’IA ressent-elle des émotions ? » deviendra de plus en plus importante.

« Ce problème deviendra de plus en plus important à mesure que nous interagirons avec les systèmes d’IA dans davantage de contextes », a déclaré Fish.


Source : https://znews.vn/chu-de-cam-ky-mot-thoi-cua-ai-dang-coi-mo-hon-post1549475.html


Comment (0)

No data
No data
Morceaux de teinte - Morceaux de teinte
Scène magique sur la colline de thé « bol renversé » à Phu Tho
Trois îles de la région centrale sont comparées aux Maldives et attirent les touristes en été.
Admirez la ville côtière scintillante de Gia Lai à Quy Nhon la nuit
Image de champs en terrasses à Phu Tho, en pente douce, lumineux et beaux comme des miroirs avant la saison des plantations
L'usine Z121 est prête pour la soirée finale du feu d'artifice international
Un célèbre magazine de voyage fait l'éloge de la grotte de Son Doong comme étant « la plus magnifique de la planète »
Une grotte mystérieuse attire les touristes occidentaux, comparée à la « grotte de Phong Nha » à Thanh Hoa
Découvrez la beauté poétique de la baie de Vinh Hy
Comment est transformé le thé le plus cher de Hanoi, dont le prix dépasse les 10 millions de VND/kg ?

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit