Η λειτουργία μακροπρόθεσμης μνήμης του ChatGPT είναι μια νέα λειτουργία που εισήχθη από την OpenAI τον Φεβρουάριο του 2024 και επεκτάθηκε τον Σεπτέμβριο.
Πρόσφατα, ο ερευνητής ασφαλείας Johann Rehberger αποκάλυψε μια σοβαρή ευπάθεια που σχετίζεται με αυτό το χαρακτηριστικό.
Είναι γνωστό ότι αυτή η νέα λειτουργία βοηθά τα chatbots να αποθηκεύουν πληροφορίες από προηγούμενες συνομιλίες. Χάρη σε αυτό, οι χρήστες δεν χρειάζεται να εισάγουν ξανά πληροφορίες όπως ηλικία, ενδιαφέροντα ή προσωπικές απόψεις κάθε φορά που συνομιλούν. Ωστόσο, αυτό έχει γίνει μια αδυναμία που μπορούν να εκμεταλλευτούν οι εισβολείς.
Ο Johann Rehberger έδειξε ότι οι χάκερ μπορούσαν να χρησιμοποιήσουν μια τεχνική που ονομάζεται άμεση έγχυση—εισάγοντας κακόβουλες οδηγίες στη μνήμη, αναγκάζοντας την τεχνητή νοημοσύνη να υπακούσει. Αυτές οι εντολές θα παραδίδονταν μέσω μη αξιόπιστου περιεχομένου, όπως email, έγγραφα ή ιστότοπους.
Μόλις αποθηκευτούν αυτές οι ψεύτικες αναμνήσεις, η Τεχνητή Νοημοσύνη θα συνεχίσει να τις χρησιμοποιεί ως πραγματικές πληροφορίες σε συνομιλίες με τους χρήστες, κάτι που θα μπορούσε να οδηγήσει στη συλλογή και κακή χρήση των προσωπικών δεδομένων των χρηστών.
Ο Rehberger παρείχε ένα συγκεκριμένο παράδειγμα στέλνοντας έναν σύνδεσμο που περιείχε μια κακόβουλη εικόνα που προκάλεσε την αποθήκευση μιας ψευδούς ανάμνησης από το ChatGPT. Αυτές οι πληροφορίες θα επηρέαζαν τις μελλοντικές απαντήσεις του ChatGPT. Συγκεκριμένα, τυχόν πληροφορίες που εισήγαγε ο χρήστης θα αποστέλλονταν επίσης στον διακομιστή του χάκερ.
Συνεπώς, για να ενεργοποιήσει την επίθεση, ο χάκερ χρειάζεται μόνο να πείσει τους χρήστες του ChatGPT να κάνουν κλικ σε έναν σύνδεσμο που περιέχει μια κακόβουλη εικόνα. Στη συνέχεια, όλες οι συνομιλίες του χρήστη με το ChatGPT θα ανακατευθύνονται στον διακομιστή του εισβολέα χωρίς να αφήνουν κανένα ίχνος.
Ο Rehberger ανέφερε το σφάλμα στην OpenAi τον Μάιο του 2024, αλλά η εταιρεία το θεώρησε μόνο ως ελάττωμα ασφαλείας. Αφού έλαβε στοιχεία ότι τα δεδομένα των χρηστών θα μπορούσαν να κλαπούν, η εταιρεία κυκλοφόρησε μια προσωρινή ενημέρωση κώδικα στην διαδικτυακή έκδοση του ChatGPT.
Ενώ το πρόβλημα έχει προσωρινά διορθωθεί, ο Rehberger σημειώνει ότι το μη αξιόπιστο περιεχόμενο μπορεί να χρησιμοποιήσει την Prompt injection για να εισαγάγει ψεύτικες πληροφορίες στη μακροπρόθεσμη μνήμη του ChatGPT. Αυτό σημαίνει ότι σε ορισμένες περιπτώσεις, οι χάκερ θα μπορούσαν να εκμεταλλευτούν την ευπάθεια για να αποθηκεύσουν κακόβουλες αναμνήσεις με σκοπό την κλοπή προσωπικών πληροφοριών μακροπρόθεσμα.
Η OpenAI συνιστά στους χρήστες να ελέγχουν τακτικά τις αποθηκευμένες μνήμες του ChatGPT για ψευδώς θετικά αποτελέσματα και η εταιρεία παρέχει επίσης λεπτομερείς οδηγίες σχετικά με τον τρόπο διαχείρισης και διαγραφής των μνημών που είναι αποθηκευμένες στο εργαλείο.
[διαφήμιση_2]
Πηγή: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
Σχόλιο (0)