ChatGPT'nin uzun süreli hafıza özelliği, OpenAI tarafından Şubat 2024'te tanıtılan ve Eylül ayında genişletilen yeni bir özelliktir.
Güvenlik araştırmacısı Johann Rehberger, yakın zamanda bu özellikle ilgili ciddi bir güvenlik açığını ortaya çıkardı.
Bu yeni özelliğin, sohbet robotlarının önceki konuşmalardan bilgi depolamasına yardımcı olduğu biliniyor. Bu sayede kullanıcılar her sohbette yaş, ilgi alanları veya kişisel görüşleri gibi bilgileri tekrar girmek zorunda kalmıyor. Ancak bu, saldırganların yararlanabileceği bir zayıflık haline geldi.
Johann Rehberger, bilgisayar korsanlarının "hızlı enjeksiyon" adı verilen bir teknik kullanabileceklerini gösterdi: Hafızaya kötü amaçlı talimatlar yerleştirerek yapay zekayı bu talimatlara uymaya zorluyorlar. Bu komutlar, e-postalar, belgeler veya web siteleri gibi güvenilmeyen içerikler aracılığıyla iletiliyor.
Bu sahte anılar depolandıktan sonra, yapay zeka bunları kullanıcılarla yapılan görüşmelerde gerçek bilgi olarak kullanmaya devam edecek ve bu da kullanıcıların kişisel verilerinin toplanmasına ve kötüye kullanılmasına yol açabilir.
Rehberger, ChatGPT'nin sahte bir bellek depolamasına neden olan kötü amaçlı bir resim içeren bir bağlantı göndererek buna özel bir örnek verdi. Bu bilgi, ChatGPT'nin gelecekteki yanıtlarını etkileyecekti. Özellikle, kullanıcının girdiği tüm bilgiler bilgisayar korsanının sunucusuna da gönderilecekti.
Buna göre, saldırıyı başlatmak için saldırganın tek yapması gereken, ChatGPT kullanıcılarını kötü amaçlı bir görsel içeren bir bağlantıya tıklamaya ikna etmek. Ardından, kullanıcının ChatGPT ile yaptığı tüm sohbetler, hiçbir iz bırakmadan saldırganın sunucusuna yönlendirilecek.
Rehberger, hatayı Mayıs 2024'te OpenAi'ye bildirdi, ancak şirket bunu yalnızca bir güvenlik açığı olarak değerlendirdi. Kullanıcı verilerinin çalınabileceğine dair kanıt elde eden şirket, ChatGPT'nin web sürümü için geçici bir yama yayınladı.
Sorun geçici olarak giderilmiş olsa da Rehberger, güvenilmeyen içeriklerin hâlâ Prompt Injection özelliğini kullanarak ChatGPT'nin uzun süreli belleğine sahte bilgiler ekleyebileceğini belirtiyor. Bu, bazı durumlarda bilgisayar korsanlarının bu güvenlik açığından yararlanarak kötü amaçlı anıları uzun süreli kişisel bilgileri çalmaya devam edebileceği anlamına geliyor.
OpenAI, kullanıcıların ChatGPT'de depolanan anıları düzenli olarak yanlış pozitifler açısından kontrol etmelerini öneriyor ve şirket ayrıca araçta depolanan anıların nasıl yönetileceği ve silineceği konusunda ayrıntılı talimatlar da sağlıyor.
[reklam_2]
Kaynak: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
Yorum (0)