Λειτουργία κοινής χρήσης συνομιλίας μέσω δημόσιου συνδέσμου στο ChatGPT - Φωτογραφία: Techradar
Το ChatGPT πλέον λαμβάνει πάνω από 2,5 δισεκατομμύρια ερωτήματα από χρήστες παγκοσμίως κάθε μέρα, γεγονός που δείχνει την αυξανόμενη δημοτικότητα αυτού του chatbot.
Ωστόσο, αυτό το εργαλείο αντιμετωπίζει έντονες αντιδράσεις από τους χρήστες, καθώς η λειτουργία «κοινής χρήσης» έχει προκαλέσει διαρροή ευαίσθητων πληροφοριών από χιλιάδες συνομιλίες στην Google και σε αρκετές μηχανές αναζήτησης στο Διαδίκτυο.
Υψηλός κίνδυνος ασφαλείας
Ο κ. Vu Ngoc Son - επικεφαλής τεχνολογίας της Εθνικής Ένωσης Κυβερνοασφάλειας (NCA) - εκτίμησε ότι το παραπάνω περιστατικό δείχνει υψηλό επίπεδο κινδύνου ασφαλείας για τους χρήστες του ChatGPT.
«Το παραπάνω περιστατικό δεν αποτελεί απαραίτητα τεχνικό ελάττωμα, καθώς υπάρχει μια συγκεκριμένη πρωτοβουλία του χρήστη κάνοντας κλικ στο κουμπί κοινής χρήσης. Ωστόσο, μπορεί να ειπωθεί ότι το πρόβλημα έγκειται στον σχεδιασμό του προϊόντος chatbot τεχνητής νοημοσύνης, καθώς έχει μπερδέψει τους χρήστες και δεν υπάρχουν αρκετά ισχυρά μέτρα προειδοποίησης σχετικά με τον κίνδυνο διαρροής προσωπικών δεδομένων σε περίπτωση κοινής χρήσης από τους χρήστες», ανέλυσε ο κ. Vu Ngoc Son.
Στο ChatGPT, αυτή η λειτουργία εφαρμόζεται αφού ο χρήστης επιλέξει να μοιραστεί τη συνομιλία μέσω ενός δημόσιου συνδέσμου. Το περιεχόμενο θα αποθηκευτεί στον διακομιστή του OpenAI ως δημόσιος ιστότοπος (chatgpt.com/share/...), χωρίς να απαιτείται όνομα χρήστη ή κωδικός πρόσβασης για πρόσβαση.
Τα προγράμματα ανίχνευσης της Google σαρώνουν και καταχωρούν αυτόματα αυτές τις σελίδες, με αποτέλεσμα να εμφανίζονται στα αποτελέσματα αναζήτησης, συμπεριλαμβανομένου κειμένου, εικόνων ή ευαίσθητων δεδομένων συνομιλίας.
Πολλοί χρήστες δεν γνώριζαν τον κίνδυνο, νομίζοντας ότι μοιράζονταν συνομιλίες με φίλους ή επαφές. Αυτό οδήγησε στην αποκάλυψη χιλιάδων συνομιλιών, μερικές από τις οποίες περιείχαν ευαίσθητα προσωπικά στοιχεία.
Παρόλο που η OpenAI αφαίρεσε γρήγορα τη λειτουργία στα τέλη Ιουλίου 2025 μετά από αντιδράσεις από την κοινότητα, χρειάστηκε χρόνος για να συντονιστεί με την Google για την αφαίρεση των παλιών ευρετηρίων. Ειδικά με το πολύπλοκο σύστημα αποθήκευσης, το οποίο περιλαμβάνει τους διακομιστές προσωρινής μνήμης της Google, αυτό δεν μπορεί να γίνει γρήγορα.
Μην αντιμετωπίζετε τα chatbots τεχνητής νοημοσύνης ως «μαύρο κουτί ασφαλείας»
Ο ειδικός σε θέματα ασφάλειας δεδομένων Vu Ngoc Son - επικεφαλής τεχνολογίας στην Εθνική Ένωση Κυβερνοασφάλειας (NCA) - Φωτογραφία: CHI HIEU
Η διαρροή χιλιάδων συνομιλιών μπορεί να θέσει σε κίνδυνο τους χρήστες, όπως η αποκάλυψη προσωπικών μυστικών, επιχειρηματικών μυστικών, η βλάβη στη φήμη, οι οικονομικοί κίνδυνοι ή ακόμη και οι κίνδυνοι για την ασφάλεια κατά την αποκάλυψη οικιακών διευθύνσεων.
«Τα chatbot που λειτουργούν με τεχνητή νοημοσύνη είναι χρήσιμα αλλά όχι «μαύρο κουτί», καθώς τα κοινόχρηστα δεδομένα μπορούν να ζουν στον ιστό για πάντα αν δεν ελεγχθούν.»
Το περιστατικό αποτελεί σίγουρα ένα μάθημα τόσο για τους παρόχους όσο και για τους χρήστες. Άλλοι πάροχοι υπηρεσιών Τεχνητής Νοημοσύνης μπορούν να μάθουν από αυτήν την εμπειρία και να σχεδιάσουν χαρακτηριστικά με πιο σαφείς και διαφανείς προειδοποιήσεις.
Ταυτόχρονα, οι χρήστες πρέπει επίσης να περιορίσουν προληπτικά την ανεξέλεγκτη δημοσίευση προσωπικά αναγνωρίσιμων ή εμπιστευτικών πληροφοριών σε πλατφόρμες τεχνητής νοημοσύνης», συνέστησε ο ειδικός σε θέματα ασφάλειας Vu Ngoc Son.
Σύμφωνα με τους ειδικούς στην ασφάλεια δεδομένων, το παραπάνω περιστατικό δείχνει ότι υπάρχει ανάγκη για νομικούς διαδρόμους και πρότυπα κυβερνοασφάλειας για την Τεχνητή Νοημοσύνη. Οι προμηθευτές και οι προγραμματιστές Τεχνητής Νοημοσύνης πρέπει επίσης να σχεδιάσουν συστήματα που διασφαλίζουν την ασφάλεια, αποφεύγοντας τον κίνδυνο διαρροής δεδομένων, όπως: διαρροή μέσω κακών τρωτών σημείων, τρωτά σημεία λογισμικού που οδηγούν σε επιθέσεις σε βάσεις δεδομένων, κακός έλεγχος που οδηγεί σε δηλητηρίαση, κατάχρηση για την απάντηση παραπλανητικών και διαστρεβλωμένων ερωτήσεων.
Οι χρήστες πρέπει επίσης να ελέγχουν την κοινοποίηση προσωπικών πληροφοριών με την Τεχνητή Νοημοσύνη και να μην κοινοποιούν ευαίσθητες πληροφορίες. Σε περιπτώσεις όπου είναι πραγματικά απαραίτητο, συνιστάται η χρήση ανώνυμης λειτουργίας ή η ενεργή κρυπτογράφηση πληροφοριών για να αποφευχθεί η άμεση σύνδεση των δεδομένων με συγκεκριμένα άτομα.
Πηγή: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm
Σχόλιο (0)