Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Nová studie: Umělá inteligence „neuvažuje“ jako lidé

Programy umělé inteligence (AI) dosáhly působivých výsledků, ale nový výzkum naznačuje, že bychom neměli přeceňovat tvrzení, že AI dokáže uvažovat jako lidé.

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

Programy umělé inteligence dosáhly v posledních letech mnoha úspěchů - Foto: REUTERS

Nemůžeme sledovat celý proces od vstupních dat až po výstupní výsledky modelů velkých jazyků (LLM).

Aby to vědci snáze pochopili, používají k popisu fungování těchto programů běžné termíny jako „uvažovaní“. Také tvrdí, že programy dokáží „myslet“, „uvažovat“ a „chápat“ stejně jako lidé.

Přehánění schopností umělé inteligence

Podle serveru ZDNET ze 6. září mnoho vedoucích pracovníků v oblasti umělé inteligence v posledních dvou letech používalo hyperbolu k zveličování jednoduchých technických úspěchů.

V září 2024 společnost OpenAI oznámila, že model uvažování o1 „používá při řešení problémů řetězec inference, podobně jako lidé dlouhodobě přemýšlejí, když čelí obtížným otázkám.“

Vědci zabývající se umělou inteligencí však namítají. Věří, že umělá inteligence nemá lidskou inteligenci.

Studie databáze arXiv, kterou provedla skupina autorů z Arizonské státní univerzity (USA), ověřila schopnost umělé inteligence uvažovat pomocí jednoduchého experimentu.

Výsledky ukázaly, že „inference pomocí myšlenkového řetězce je křehká iluze“, nikoli skutečný logický mechanismus, ale pouze sofistikovaná forma porovnávání vzorů.

Termín „řetězec myšlenek“ (CoT) umožňuje umělé inteligenci nejen dojít s konečnou odpovědí, ale také prezentovat každý krok logického uvažování, jako v modelech GPT-o1 nebo DeepSeek V1.

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

Ilustrace jazykového modelu GPT-2 od OpenAI - Foto: ECHOCRAFTAI

Podívejte se, co umělá inteligence skutečně dělá

Vědci tvrdí, že rozsáhlé analýzy ukazují, že LLM má tendenci spoléhat se spíše na sémantiku a povrchní indicie než na logické uvažování.

„LLM konstruuje povrchní logické řetězce založené na naučených vstupních asociacích a často selhává u úkolů, které se odchylují od konvenčních metod uvažování nebo známých vzorců,“ vysvětluje tým.

Aby tým otestoval hypotézu, že LLM je pouze porovnávání vzorů a nikoli skutečná indukce, trénoval GPT-2, open-source model vydaný společností OpenAI v roce 2019.

Model byl zpočátku trénován na velmi jednoduchých úkonech s 26 anglickými písmeny, jako je například obrácení některých písmen, například převedení „APPLE“ na „EAPPL“. Poté tým úlohu změnil a požádal GPT-2, aby se o ni postaral.

Výsledky ukazují, že úlohy, které nejsou zahrnuty v trénovacích datech, nedokáže GPT-2 přesně vyřešit pomocí CoT.

Model se místo toho snaží aplikovat co nejpodobnější naučené úlohy. Jeho „závěry“ tedy zní rozumně, ale výsledky jsou často chybné.

Skupina dospěla k závěru, že by se člověk neměl příliš spoléhat nebo slepě důvěřovat odpovědím LLM, protože mohou produkovat „nesmysly, které zní velmi přesvědčivě“.

Zdůraznili také potřebu pochopit skutečnou podstatu umělé inteligence, vyhnout se humbuku kolem ní a přestat propagovat, že umělá inteligence má schopnost uvažovat jako lidé.

Zpět k tématu
ANH ČT

Zdroj: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


Štítek: gpt-o1SZOLLM

Komentář (0)

No data
No data

Ve stejném tématu

Ve stejné kategorii

Obdivujte sbírku starobylých luceren s motivem středu podzimu
Hanoj ​​v historických podzimních dnech: Atraktivní destinace pro turisty
Fascinují vás korálové zázraky období sucha v moři Gia Lai a Dak Lak
2 miliardy zhlédnutí na TikToku jmenovaly Le Hoang Hiepa: Nejžhavějšího vojáka z A50 do A80

Od stejného autora

Dědictví

Postava

Obchod

No videos available

Zprávy

Politický systém

Místní

Produkt