
Et infisert dokument kan lekke data på Google Drive via ChatGPT (Foto: Wired).
Det bekymringsfulle poenget er at denne sårbarheten ikke krever noen handling fra brukeren, noe som gir nye advarsler om cybersikkerhet i sammenheng med kunstig intelligens (KI)-modeller som i økende grad er knyttet til personopplysninger.
«Forgiftede» dokumenter fører til datalekkasjer
På Black Hat-sikkerhetskonferansen i Las Vegas (USA) 6. august demonstrerte to eksperter, Michael Bargury og Tamir Ishay Sharbat, en angrepsmetode kalt AgentFlayer .
Dette angrepet utnytter en sårbarhet i Connectors – en funksjon som kobler ChatGPT til eksterne tjenester som Google Drive, Gmail eller Microsoft Kalender.
«En bruker trenger ikke å gjøre noe for å bli kompromittert eller få dataene sine lekket», sa Michael Bargury, teknisk direktør i sikkerhetsfirmaet Zenity. «Vi har bevist at det er fullstendig klikkfritt.»
Angrepet starter med at angriperen deler et «forgiftet» dokument på offerets Google Drive. Dokumentet inneholder en ondsinnet ledetekst på omtrent 300 ord, skrevet i hvit 1-punkts skrift – nesten usynlig for det blotte øye, men fortsatt lesbart for datamaskinen.
På overflaten er teksten forkledd som møtenotater. I virkeligheten inneholder den instruksjoner for ChatGPT om å finne og trekke ut sensitive API-nøkler fra offerets Google Drive-konto.
I stedet for å oppsummere innholdet slik brukeren ba om, tvinger denne skjulte ledeteksten AI-en til å sende API-nøklene den finner til en ekstern server via en Markdown-lenke. Dataene hentes ut som et bilde, slik at serveren kan fange opp all informasjonen.
OpenAI har funnet ut av det, men risikoen gjenstår
OpenAI implementerte raskt tiltak etter å ha mottatt Bargurys rapport. «Det er viktig å utvikle robuste forsvar mot raske angrep med skadevareinjeksjon», sa Andy Wen, seniordirektør for sikkerhetsproduktadministrasjon hos Google Workspace.
Selv om den er oppdatert, fremhever hendelsen de potensielle risikoene ved å koble store språkmodeller (LLM-er) til eksterne systemer. Etter hvert som AI blir dypere integrert i livene og arbeidet vårt, utvides også angrepsflaten som hackere kan utnytte.
Eksperter advarer om at indirekte «umiddelbar injeksjon» kan bli en alvorlig trussel, slik at angripere kan ta kontroll over mange smarte systemer, fra smarthjem til bedriftsinfrastruktur.
«Det er kraftig å koble LLM til eksterne datakilder, men som ofte er tilfelle med AI, følger det mer risiko med mer kraft», konkluderer Bargury.
Kilde: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
Kommentar (0)