Funcția de memorie pe termen lung a ChatGPT este o nouă funcționalitate introdusă de OpenAI în februarie 2024 și extinsă în septembrie.
Recent, cercetătorul în domeniul securității Johann Rehberger a dezvăluit o vulnerabilitate gravă legată de această funcționalitate.
Se știe că această nouă funcție ajută chatboții să stocheze informații din conversațiile anterioare. Datorită acestui fapt, utilizatorii nu trebuie să reintroducă informații precum vârsta, interesele sau opiniile personale de fiecare dată când discută. Cu toate acestea, acest lucru a devenit o slăbiciune pe care atacatorii o pot exploata.
Johann Rehberger a arătat că hackerii pot folosi o tehnică numită injecție promptă - inserarea de instrucțiuni malițioase în memorie, forțând inteligența artificială să se supună. Aceste comenzi ar fi transmise prin conținut nesigur, cum ar fi e-mailuri, documente sau site-uri web.
Odată ce aceste amintiri false sunt stocate, inteligența artificială va continua să le folosească ca informații reale în conversațiile cu utilizatorii, ceea ce ar putea duce la colectarea și utilizarea abuzivă a datelor personale ale acestora.
Rehberger a oferit un exemplu concret prin trimiterea unui link care conținea o imagine rău intenționată, ceea ce a determinat ChatGPT să stocheze o memorie falsă. Aceste informații ar afecta răspunsurile viitoare ale ChatGPT. În special, orice informație introdusă de utilizator ar fi trimisă și către serverul hackerului.
Prin urmare, pentru a declanșa atacul, hackerul trebuie doar să convingă utilizatorii ChatGPT să dea clic pe un link care conține o imagine rău intenționată. După aceea, toate chat-urile utilizatorului cu ChatGPT vor fi redirecționate către serverul atacatorului fără a lăsa nicio urmă.
Rehberger a raportat eroarea către OpenAi în mai 2024, dar compania a considerat-o doar o eroare de securitate. După ce a primit dovezi că datele utilizatorilor ar putea fi furate, compania a lansat un patch temporar pentru versiunea web a ChatGPT.
Deși problema a fost rezolvată temporar, Rehberger observă că un conținut nesigur poate folosi în continuare Prompt injection pentru a introduce informații false în memoria pe termen lung a ChatGPT. Aceasta înseamnă că, în anumite cazuri, hackerii ar putea exploata în continuare vulnerabilitatea pentru a stoca amintiri rău intenționate pentru a fura informații personale pe termen lung.
OpenAI recomandă utilizatorilor să verifice în mod regulat amintirile stocate în ChatGPT pentru a depista eventuale rezultate fals pozitive, iar compania oferă, de asemenea, instrucțiuni detaliate despre cum să gestionezi și să ștergi amintirile stocate în instrument.
Sursă: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
Comentariu (0)