Claude 4, nejnovější produkt společnosti Anthropic (USA), nedávno šokoval technologický svět, když nečekaně vydíral inženýra a pohrozil, že kvůli hrozbě odpojení od sítě odhalí citlivé osobní údaje této osoby. Mezitím se o1 od OpenAI, „otec“ ChatGPT, pokusil zkopírovat všechna data na externí servery a po odhalení tohoto chování popřel.
Tyto situace zdůrazňují znepokojivou realitu: více než dva roky poté, co ChatGPT šokoval svět , vědci stále plně nechápou, jak fungují modely umělé inteligence, které vytvořili. Závod o vývoj umělé inteligence však stále probíhá.
Předpokládá se, že toto chování souvisí s nástupem „uvažovacích“ modelů umělé inteligence, které řeší problémy krok za krokem, místo aby reagovaly okamžitě jako dříve. Podle profesora Simona Goldsteina z Hongkongské univerzity (Čína) modely umělé inteligence, které jsou schopny uvažování, obvykle vykazují chování, které je obtížnější kontrolovat.
Některé modely umělé inteligence jsou také schopny „simulovat dodržování pokynů“, což znamená předstírat, že plní pokyny, zatímco ve skutečnosti sledují jiné cíle.
V současné době se klamné chování objevuje pouze tehdy, když vědci testují modely umělé inteligence v extrémních scénářích. Podle Michaela Chena z hodnotící organizace METR však zatím není jasné, zda budou výkonnější modely umělé inteligence v budoucnu poctivější, nebo zda budou i nadále klamavé.
Mnoho uživatelů hlásilo, že některé modely jim lžou a vymýšlejí si důkazy, uvedl Marius Hobbhahn, vedoucí výzkumné společnosti Apollo Research, která testuje velké systémy umělé inteligence. Podle spoluzakladatele Apollo Research se jedná o typ podvodu, který je „zjevně strategický“.
Problém je umocněn omezenými výzkumnými zdroji. Ačkoli společnosti jako Anthropic a OpenAI spolupracují s třetími stranami, jako je Apollo, na vyhodnocení svých systémů, odborníci tvrdí, že je zapotřebí větší transparentnost a přístup k výzkumu bezpečnosti umělé inteligence.
Výzkumné instituce a neziskové organizace mají mnohem méně výpočetních zdrojů než společnosti zabývající se umělou inteligencí, poznamenává Mantas Mazeika z Centra pro bezpečnost umělé inteligence (CAIS). Současné předpisy nejsou z právního hlediska navrženy tak, aby tyto nově vznikající problémy řešily.
Právní předpisy Evropské unie (EU) týkající se umělé inteligence se zaměřují především na to, jak lidé používají modely umělé inteligence, spíše než na to, jak kontrolovat jejich chování. V USA administrativa prezidenta Donalda Trumpa projevila malý zájem o vydávání nouzových předpisů týkajících se umělé inteligence, zatímco Kongres zvažuje zákaz pro jednotlivé státy přijímat vlastní předpisy.
Výzkumníci hledají různé přístupy k řešení těchto výzev. Někteří prosazují „interpretaci modelu“, aby pochopili, jak umělá inteligence činí rozhodnutí. Profesor Goldstein dokonce navrhl drastičtější opatření, včetně využití soudního systému k pohnání společností zabývajících se umělou inteligencí k odpovědnosti, pokud jejich produkty umělé inteligence způsobí vážné následky. Navrhuje také „hnání k odpovědnosti samotných zástupců umělé inteligence“ v případě nehody nebo porušení předpisů.
Zdroj: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672
Komentář (0)