Programy umělé inteligence dosáhly v posledních letech mnoha úspěchů - Foto: REUTERS
Nemůžeme sledovat celý proces od vstupních dat až po výstupní výsledky modelů velkých jazyků (LLM).
Aby to vědci snáze pochopili, používají k popisu fungování těchto programů běžné termíny jako „uvažovaní“. Také tvrdí, že programy dokáží „myslet“, „uvažovat“ a „chápat“ stejně jako lidé.
Přehánění schopností umělé inteligence
Podle serveru ZDNET ze 6. září mnoho vedoucích pracovníků v oblasti umělé inteligence v posledních dvou letech používalo hyperbolu k zveličování jednoduchých technických úspěchů.
V září 2024 společnost OpenAI oznámila, že model uvažování o1 „používá při řešení problémů řetězec inference, podobně jako lidé dlouhodobě přemýšlejí, když čelí obtížným otázkám.“
Vědci zabývající se umělou inteligencí však namítají. Věří, že umělá inteligence nemá lidskou inteligenci.
Studie databáze arXiv, kterou provedla skupina autorů z Arizonské státní univerzity (USA), ověřila schopnost umělé inteligence uvažovat pomocí jednoduchého experimentu.
Výsledky ukázaly, že „inference pomocí myšlenkového řetězce je křehká iluze“, nikoli skutečný logický mechanismus, ale pouze sofistikovaná forma porovnávání vzorů.
Termín „řetězec myšlenek“ (CoT) umožňuje umělé inteligenci nejen dojít s konečnou odpovědí, ale také prezentovat každý krok logického uvažování, jako v modelech GPT-o1 nebo DeepSeek V1.
Ilustrace jazykového modelu GPT-2 od OpenAI - Foto: ECHOCRAFTAI
Podívejte se, co umělá inteligence skutečně dělá
Vědci tvrdí, že rozsáhlé analýzy ukazují, že LLM má tendenci spoléhat se spíše na sémantiku a povrchní indicie než na logické uvažování.
„LLM konstruuje povrchní logické řetězce založené na naučených vstupních asociacích a často selhává u úkolů, které se odchylují od konvenčních metod uvažování nebo známých vzorců,“ vysvětluje tým.
Aby tým otestoval hypotézu, že LLM je pouze porovnávání vzorů a nikoli skutečná indukce, trénoval GPT-2, open-source model vydaný společností OpenAI v roce 2019.
Model byl zpočátku trénován na velmi jednoduchých úkonech s 26 anglickými písmeny, jako je například obrácení některých písmen, například převedení „APPLE“ na „EAPPL“. Poté tým úlohu změnil a požádal GPT-2, aby se o ni postaral.
Výsledky ukazují, že úlohy, které nejsou zahrnuty v trénovacích datech, nedokáže GPT-2 přesně vyřešit pomocí CoT.
Model se místo toho snaží aplikovat co nejpodobnější naučené úlohy. Jeho „závěry“ tedy zní rozumně, ale výsledky jsou často chybné.
Skupina dospěla k závěru, že by se člověk neměl příliš spoléhat nebo slepě důvěřovat odpovědím LLM, protože mohou produkovat „nesmysly, které zní velmi přesvědčivě“.
Zdůraznili také potřebu pochopit skutečnou podstatu umělé inteligence, vyhnout se humbuku kolem ní a přestat propagovat, že umělá inteligence má schopnost uvažovat jako lidé.
Zdroj: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
Komentář (0)