ChatGPTs langtidsminnefunksjon er en ny funksjon introdusert av OpenAI i februar 2024 og utvidet i september.
Nylig avslørte sikkerhetsforsker Johann Rehberger en alvorlig sårbarhet knyttet til denne funksjonen.
Det er kjent at denne nye funksjonen hjelper chatboter med å lagre informasjon fra tidligere samtaler. Takket være dette trenger ikke brukerne å legge inn informasjon som alder, interesser eller personlige synspunkter hver gang de chatter. Dette har imidlertid blitt en svakhet som angripere kan utnytte.
Johann Rehberger viste at hackere kunne bruke en teknikk som kalles prompt injection – å sette inn ondsinnede instruksjoner i minnet og tvinge AI-en til å adlyde. Disse kommandoene ville bli levert gjennom upålitelig innhold som e-poster, dokumenter eller nettsteder.
Når disse falske minnene er lagret, vil AI-en fortsette å bruke dem som reell informasjon i samtaler med brukere, noe som kan føre til innsamling og misbruk av brukernes personopplysninger.
Rehberger ga et spesifikt eksempel ved å sende en lenke som inneholdt et ondsinnet bilde som fikk ChatGPT til å lagre et falskt minne. Denne informasjonen ville påvirke ChatGPTs fremtidige svar. Spesielt ville all informasjon brukeren skrev inn også bli sendt til hackerens server.
For å utløse angrepet trenger hackeren derfor bare å overbevise ChatGPT-brukere om å klikke på en lenke som inneholder et skadelig bilde. Etter det vil alle brukerens chatter med ChatGPT bli omdirigert til angriperens server uten å etterlate spor.
Rehberger rapporterte feilen til OpenAi i mai 2024, men selskapet anså det kun som en sikkerhetsfeil. Etter å ha mottatt bevis på at brukerdata kunne bli stjålet, ga selskapet ut en midlertidig oppdatering på nettversjonen av ChatGPT.
Selv om problemet er midlertidig løst, bemerker Rehberger at upålitelig innhold fortsatt kan bruke Prompt injection til å sette inn falsk informasjon i ChatGPTs langtidsminne. Dette betyr at hackere i visse tilfeller fortsatt kan utnytte sårbarheten til å lagre ondsinnede minner for å stjele personlig informasjon på lang sikt.
OpenAI anbefaler at brukere regelmessig sjekker ChatGPTs lagrede minner for falske positiver, og selskapet gir også detaljerte instruksjoner om hvordan man administrerer og sletter minner lagret i verktøyet.
[annonse_2]
Kilde: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
Kommentar (0)