«Zero Click»-sårbarheten lar til og med hackere kontrollere ChatGPT slik at de kan handle som de vil – Illustrasjonsfoto: AFP
Det israelske cybersikkerhetsfirmaet Zenity har nettopp avslørt den første «Zero Click»-sårbarheten som ble oppdaget i OpenAIs ChatGPT-tjeneste.
Denne typen angrep krever ikke at brukere utfører noen handling, som å klikke på en lenke, åpne en fil eller delta i noen form for forsettlig interaksjon, men kan fortsatt få tilgang til kontoer og lekke sensitive data.
Mikhail Bergori, medgründer og teknisk direktør i Zenity, demonstrerte på nært hold hvordan en hacker med bare en brukers e-postadresse kunne ta full kontroll over samtaler – inkludert tidligere og fremtidig innhold, endre formålet med samtalen og til og med manipulere ChatGPT til å handle i hackerens favør.
I presentasjonen viste forskerne at en kompromittert ChatGPT kunne bli til en «ondsinnet aktør» som opererer i hemmelighet mot brukere. Hackere kunne få ChatGPT til å foreslå at brukere laster ned virusinfisert programvare, gir villedende forretningsråd eller får tilgang til filer lagret på Google Drive hvis brukerens konto er tilkoblet. Alt dette skjer uten brukerens viten.
Sårbarheten ble først fullstendig oppdatert etter at Zenity varslet OpenAI.
I tillegg til ChatGPT har Zenity også demonstrert lignende angrep mot andre populære AI-assistentplattformer. I Microsofts Copilot Studio oppdaget forskere en måte å lekke hele CRM-databaser.
For Salesforce Einstein kan hackere opprette falske tjenesteforespørsler for å omdirigere all kundekommunikasjon til e-postadresser de kontrollerer.
Google Gemini og Microsoft 365 Copilot ble også omgjort til «fiendtlige aktører», som utførte phishing-angrep og lekket sensitiv informasjon gjennom e-poster og kalenderhendelser.
I et annet eksempel ble programvareutviklingsverktøyet Cursor, integrert med Jira MCP, også utnyttet til å stjele utviklerlegitimasjon gjennom falske «tickets».
Zenity sa at noen selskaper, som OpenAI og Microsoft, raskt ga ut oppdateringer etter å ha blitt varslet. Andre nektet imidlertid å ta tak i problemet, og argumenterte for at oppførselen var en «designfunksjon» snarere enn en sikkerhetssårbarhet.
Den store utfordringen nå, ifølge Mikhail Bergori, er at AI-assistenter ikke bare utfører enkle oppgaver, men blir «digitale enheter» som representerer brukere – i stand til å åpne mapper, sende filer og få tilgang til e-poster. Han advarte om at dette er som et «paradis» for hackere, med så mange utnyttelsespunkter.
Ben Kaliger, medgründer og administrerende direktør i Zenity, understreket at selskapets forskning viser at nåværende sikkerhetsmetoder ikke lenger er egnet for måten AI-assistenter opererer på. Han oppfordret organisasjoner til å endre sin tilnærming og investere i spesialiserte løsninger for å kunne kontrollere og overvåke aktivitetene til disse «agentene».
Zenity ble grunnlagt i 2021. Selskapet har for tiden rundt 110 ansatte globalt, hvorav 70 jobber på kontoret i Tel Aviv. Blant Zenitys kunder finner vi mange Fortune 100- og til og med Fortune 5-selskaper.
Kilde: https://tuoitre.vn/lo-hong-nghiem-trong-tren-chatgpt-va-loat-tro-ly-ai-nguoi-dung-bi-lua-dao-lo-thong-tin-20250811131018876.htm
Kommentar (0)