Australští vědci vyvinuli novou techniku, která by mohla zabránit systémům umělé inteligence (AI) v nelegálním učení se z obrázků, uměleckých děl a dalšího online obsahu.
Podle australské národní vědecké agentury (CSIRO) tato technika nenápadně mění obsah obrázků tak, aby byly pro modely umělé inteligence nečitelné, zatímco pro lidské oko zůstávají nezměněné. Jedná se o projekt vyvinutý organizací CSIRO ve spolupráci s australským Centrem pro výzkum kybernetické bezpečnosti (CSCRC) a Chicagskou univerzitou (USA).
Autoři tvrdí, že tento průlom by mohl pomoci umělcům, organizacím a uživatelům sociálních médií chránit jejich pracovní a osobní data před použitím k trénování systémů umělé inteligence nebo k vytváření deepfaků – neuvěřitelně realistických videí , obrázků nebo zvuku vytvořených umělou inteligencí. Uživatelé by například mohli před zveřejněním automaticky aplikovat na obrázky ochrannou vrstvu, která by zabránila umělé inteligenci v učení se rysů obličeje pro vytváření deepfaků.
Podobně by obranné organizace mohly chránit citlivé satelitní snímky nebo data o kybernetických hrozbách.
Podle Dr. Derui Wanga, vědce z CSIRO, tato metoda využívá silný matematický základ, který zajišťuje, že se modely umělé inteligence nemohou z tohoto obsahu učit, nebo jinými slovy, tato technika činí data pro umělou inteligenci „neučitelnými“ na úroveň, která chrání soukromí a autorská práva a zároveň si zachovává jejich užitečnost pro lidi.
Tato ochrana zůstává v platnosti, i když se umělá inteligence pokusí adaptovat nebo je přeškolena, dodal.
Dr. Wang uvedl, že tato technika by se dala automaticky aplikovat ve velkém měřítku. Dodal, že platforma nebo web sociálních médií by mohl tuto ochrannou vrstvu vložit do všech nahraných obrázků. To by mohlo omezit šíření deepfakes, snížit krádeže duševního vlastnictví a pomoci uživatelům udržet si kontrolu nad svým obsahem.
I když je metoda v současné době použitelná pouze pro obrázky, vědci plánují její rozšíření na text, hudbu a video. Technologie je stále v teoretické fázi a její efektivní fungování bylo prokázáno pouze v laboratorním prostředí.
Výše uvedená vědecká práce s názvem „Prokazatelně neučitelná data“ získala cenu za mimořádný výzkum na sympoziu Network and Distributed Systems Security Symposium (NDSS) v roce 2025.
Zdroj: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
Komentář (0)