Využívání umělé inteligence (AI) v práci se stalo nevyhnutelným trendem, který pomáhá zlepšit efektivitu a šetřit čas.
Za tímto pohodlím se však skrývají potenciální rizika pro bezpečnost dat, zejména fenomén „stínové umělé inteligence“ – kdy zaměstnanci používají nástroje umělé inteligence nedbale, bez kontroly a omylem umisťují důvěrná firemní data na veřejné platformy.
Závislost a počáteční obavy
Thanh Huyen (21 let), zaměstnankyně obsahového marketingu ve společnosti zabývající se kosmetkou a funkčními potravinami, se podělila o to, že se ve své práci spoléhá na umělou inteligenci z 90 %, od plánování, tvorby obsahu až po navrhování obrázků a videí .
Jakmile však náhodou narazila na článek podobný myšlence, na kterou se zeptala ChatGPT, začala se Huyenová obávat schopnosti umělé inteligence pamatovat si a sdílet vstupní informace.

Využití umělé inteligence v práci se v současnosti stalo pro mnoho odvětví téměř samozřejmostí (Foto: Bao Ngoc).
I když Huyenův příběh může být náhoda, nepopiratelným faktem je, že poskytování informací umělé inteligenci znamená umožnit těmto nástrojům shromažďovat a ukládat data pro trénování modelu.
Problém se stává vážným, pokud je platforma umělé inteligence napadena hackery nebo špatně zabezpečena, což vede k únikům informací a negativním důsledkům.
„Stínová umělá inteligence“ – potenciální nebezpečí
HM (20 let), specialista na zákaznický servis, pravidelně poskytuje umělé inteligenci seznam informací o zákaznících (celé jméno, datum narození, telefonní číslo, historii nákupů) k analýze, což šetří čas a zlepšuje výkon.
M. se domnívá, že se nejedná o potenciální riziko, protože se jedná o malou společnost a data nebudou zveřejněna. Případ M. je však typický pro „stínovou umělou inteligenci“ – používání umělé inteligence zaměstnanci bez souhlasu nebo dohledu oddělení informačních technologií nebo kybernetické bezpečnosti.

Fenomén „stínové umělé inteligence“ označuje používání umělé inteligence zaměstnanci v podnicích bez jakékoli kontroly nebo řízení (ilustrace: životopis).
Zpráva společnosti Cisco zjistila, že 62 % organizací ve Vietnamu si nevěří v odhalování neregulovaného používání umělé inteligence zaměstnanci. Průzkum ve Spojeném království také zjistil, že 75 % manažerů kybernetické bezpečnosti má obavy z vnitřních hrozeb, jako je stínovaná umělá inteligence.
To ukazuje, že stínová umělá inteligence se stává běžnou hrozbou, zejména v době, kdy mnoho podniků nemá jasné zásady pro používání umělé inteligence a zaměstnanci nemají dostatečné povědomí o bezpečnosti dat.
Přijměte kompromisy, abyste nezůstali pozadu
Přestože si je Thanh Huyen vědoma rizik, stále souhlasí s „vsazením“ na umělou inteligenci. Věří, že okamžité výhody, které umělá inteligence přináší, jsou příliš velké, což jí pomáhá denně publikovat desítky článků a nápadů.
Pohodlí, rychlost a schopnost zvýšit výkon vedly Huyen k ochotě poskytovat AI citlivé a důvěrné informace, dokonce i osobní údaje svých nadřízených.

Navzdory potenciálním rizikům používání umělé inteligence bez kontroly mnoho zaměstnanců stále akceptuje kompromis ve prospěch okamžitých výhod (ilustrace: životopis).
Podobně Trung Hieu (20 let), zaměstnanec obsahového marketingu, pravidelně poskytuje interní dokumenty a obchodní informace chatbotovi s umělou inteligencí.
Hieu zaznamenal výrazný nárůst produktivity, což vytvořilo konkurenční výhodu, a domnívá se, že to příliš neovlivňuje provoz společnosti.
Tyto případy ukazují, že se stínová umělá inteligence šíří kvůli nedostatku jasných zásad ze strany společnosti a nedostatečnému povědomí zaměstnanců o rizicích v oblasti bezpečnosti, kvality a závislostí.
Řada rizik spojených s přílišnou důvěrou v umělou inteligenci
Pan Nguyen Viet Hung, generální ředitel společnosti zabývající se vývojem softwaru pro umělou inteligenci, vysvětluje popularitu stínové umělé inteligence třemi faktory: umělá inteligence pomáhá pracovat rychleji a efektivněji, zvyk spoléhat se na umělou inteligenci se rychle vytváří a podniky postrádají varování a školení o rizicích.

Pan Nguyen Viet Hung, generální ředitel společnosti zabývající se vývojem softwaru pro umělou inteligenci (Foto: Cong Khanh).
Odborníci varují, že stínová umělá inteligence může při nasazení v bezplatných nástrojích umělé inteligence vést k únikům dat (zákaznických, interních).
Kvalita obsahu generovaného umělou inteligencí navíc není ověřována, což může snadno vést ke zkreslení a ovlivnit obchodní rozhodnutí.
Ještě závažnější je, že nekontrolované používání umělé inteligence může vytvářet bezpečnostní zranitelnosti, což ztěžuje IT systémům monitorování a rychlou reakci a ztěžuje určení odpovědnosti v případě vzniku incidentů.
Tmavé oblasti je obtížné kontrolovat.
Monitorování a řízení zaměstnanců pomocí umělé inteligence je dlouhý a koordinovaný proces. Odborníci tvrdí, že přístup zaměstnanců k interním datům představuje hlavní překážku v zabránění předávání soukromých údajů prostřednictvím osobních nástrojů umělé inteligence.
Nástroje umělé inteligence jsou navíc nyní snadno dostupné, což IT oddělení obtížně detekuje nebo spravuje.

Snadný přístup k nástrojům umělé inteligence je jednou z překážek, které ztěžují kontrolu informací, které zaměstnanci vkládají na platformy umělé inteligence (ilustrace: životopis).
Aby se s tím vyrovnaly, expert Nguyen Viet Hung navrhl, že firmy by měly zvýšit školení zaměstnanců v oblasti povědomí o rizicích při používání umělé inteligence a získat hlubší pochopení „stínové umělé inteligence“.
Zároveň neprodleně vydávat právní předpisy a interní zásady. Dalším důležitým řešením je posílení bezpečnostních funkcí v podniku, včetně monitorování chování, kontroly přístupu k datům a pečlivé autorizace každého zaměstnance.
V současné době mnoho společností stále nemá jasný postup pro používání umělé inteligence a pouze podporuje její využívání ke zvýšení produktivity. Aby se vypořádaly se stínovou umělou inteligencí, mnoho velkých podniků začalo nasazovat interní platformy umělé inteligence nebo vyžadovat, aby zaměstnanci používali schválené nástroje s jasnými zásadami informační bezpečnosti.
Zdroj: https://dantri.com.vn/cong-nghe/sep-buong-long-nhan-vien-than-nhien-cap-du-lieu-mat-cho-ai-20250806090132034.htm
Komentář (0)