Telefon zobrazující výukové rozhraní OpenAI GPT-o1 - Foto: FINANCIAL TIMES
Podle deníku Financial Times z 13. září společnost OpenAI přiznala, že model GPT-o1, který byl spuštěn právě 12. září, „významně“ zvyšuje riziko zneužití umělé inteligence (AI) k vytváření biologických zbraní.
V článku vysvětlujícím fungování GPT-o1, který publikovala společnost OpenAI, se uvádí, že nový model má „střední úroveň rizika“ pro problémy související s chemickými, biologickými, radiologickými a jadernými zbraněmi. Jedná se o nejvyšší úroveň rizika, jakou kdy OpenAI svým modelům umělé inteligence přiřadila.
Podle OpenAI to znamená, že GPT-o1 by mohl „dramaticky zlepšit“ schopnosti expertů, kteří je chtějí zneužít k vytváření biologických zbraní.
Mira Murati, hlavní technologická ředitelka (CTO) společnosti OpenAI, uvedla, že ačkoliv je GPT-o1 stále v experimentální fázi, pokročilé funkce modelu stále nutí společnost k extrémní „opatrnosti“ ohledně jeho plánu pro veřejnost.
Paní Murati také potvrdila, že model byl důkladně otestován multidisciplinárním týmem expertů najatých společností OpenAI, aby otestovali limity modelu vyvinutého společností.
Testování ukázalo, že model GPT-o1 splňuje obecná bezpečnostní kritéria mnohem lépe než jeho předchůdci, uvedl Murati.
Zástupci OpenAI se tím nezastavili a ujistili také, že zkušební verze GPT-o1 je „bezpečná pro nasazení“ a nemůže vytvářet složitější rizika než vyvinuté technologie.
Navzdory výše uvedeným ujištěním stále velká část vědecké komunity a zájemců o umělou inteligenci není ohledně směru vývoje této technologie příliš optimistická.
Rostou obavy, že se umělá inteligence vyvíjí příliš rychle a předbíhá tempo, jakým se vyvíjejí a schvalují předpisy, které ji upravují.
Pokud OpenAI nyní představuje „střední riziko“ chemických a biologických zbraní, „pouze to posiluje důležitost a naléhavost“ legislativy, jako je ta, o které se v Kalifornii vášnivě diskutuje, aby tuto oblast regulovala, uvedl Yoshua Bengio, profesor informatiky na Montrealské univerzitě a jeden z předních světových vědců v oblasti umělé inteligence.
Tento vědec zdůraznil, že výše uvedené instituce jsou obzvláště nezbytné v kontextu stále se zvyšujícího blížení umělé inteligence k úrovni obecné umělé inteligence (AGI), což znamená schopnost uvažovat na úrovni lidí.
„Čím blíže se průkopnické modely umělé inteligence dostanou k obecné umělé inteligenci (AGI), tím více rizik se zvýší, pokud nebudou přijata vhodná opatření. Vylepšená schopnost uvažování umělé inteligence a její zneužívání k podvodům jsou extrémně nebezpečné,“ zhodnotil pan Bengio.
Zdroj: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
Komentář (0)