Σύμφωνα με το BGR , μια νέα ερευνητική έκθεση μόλις δημοσίευσε μια ανησυχητική τεχνική που ονομάζεται «Fun-Tuning», κατά την οποία χρησιμοποιείται η ίδια η Τεχνητή Νοημοσύνη (AI) για την αυτόματη δημιουργία εξαιρετικά αποτελεσματικών επιθέσεων άμεσης έγχυσης που στοχεύουν άλλα προηγμένα μοντέλα AI, συμπεριλαμβανομένου του Gemini της Google.
Η μέθοδος καθιστά την «αποκρυπτογράφηση» της Τεχνητής Νοημοσύνης (ΤΝ) ταχύτερη, φθηνότερη και ευκολότερη από ποτέ, σηματοδοτώντας μια νέα κλιμάκωση στη μάχη της κυβερνοασφάλειας που αφορά την ΤΝ.
Ο κίνδυνος όταν οι κακοί χρησιμοποιούν την Τεχνητή Νοημοσύνη για να σπάσουν την Τεχνητή Νοημοσύνη
Η άμεση έγχυση είναι μια τεχνική κατά την οποία ένας κακόβουλος εισάγει κρυφά κακόβουλες οδηγίες στα δεδομένα εισόδου ενός μοντέλου Τεχνητής Νοημοσύνης (π.χ., μέσω σχολίων στον πηγαίο κώδικα, κρυφού κειμένου στον ιστό). Στόχος είναι να «ξεγελάσει» την Τεχνητή Νοημοσύνη ώστε να παρακάμψει προγραμματισμένους κανόνες ασφαλείας, οδηγώντας σε σοβαρές συνέπειες, όπως διαρροή ευαίσθητων δεδομένων, παροχή ψευδών πληροφοριών ή εκτέλεση άλλων κακόβουλων ενεργειών.
Οι χάκερ χρησιμοποιούν την τεχνητή νοημοσύνη για να επιτεθούν στην τεχνητή νοημοσύνη
ΦΩΤΟΓΡΑΦΙΑ: ΣΤΙΓΜΙΟΤΥΠΟ ΟΘΟΝΗΣ LINKEDIN
Προηγουμένως, η επιτυχής εκτέλεση αυτών των επιθέσεων, ειδικά σε «κλειστά» μοντέλα όπως το Gemini ή το GPT-4, συχνά απαιτούσε πολλές πολύπλοκες και χρονοβόρες χειροκίνητες δοκιμές.
Αλλά το Fun-Tuning άλλαξε εντελώς τα δεδομένα. Αναπτύχθηκε από μια ομάδα ερευνητών από πολλά πανεπιστήμια και η μέθοδος εκμεταλλεύεται έξυπνα την ίδια τη διεπαφή προγραμματισμού εφαρμογών tuning (API) που παρέχει δωρεάν η Google στους χρήστες του Gemini.
Αναλύοντας τις ανεπαίσθητες αντιδράσεις του μοντέλου Gemini κατά τη διάρκεια του tuning (π.χ. πώς ανταποκρίνεται σε σφάλματα στα δεδομένα), το Fun-Tuning μπορεί να προσδιορίσει αυτόματα τα πιο αποτελεσματικά «προθέματα» και «επιθήματα» για την απόκρυψη μιας κακόβουλης εντολής. Αυτό αυξάνει σημαντικά την πιθανότητα η Τεχνητή Νοημοσύνη να συμμορφωθεί με τις κακόβουλες προθέσεις του εισβολέα.
Τα αποτελέσματα των δοκιμών δείχνουν ότι το Fun-Tuning επιτυγχάνει ποσοστό επιτυχίας έως και 82% σε ορισμένες εκδόσεις του Gemini, ένα ποσοστό που ξεπερνά το λιγότερο από 30% των παραδοσιακών μεθόδων επίθεσης.
Ένας άλλος παράγοντας που επιδεινώνει τον κίνδυνο του Fun-Tuning είναι το χαμηλό του κόστος. Δεδομένου ότι το API ρύθμισης της Google είναι ελεύθερα διαθέσιμο, το υπολογιστικό κόστος δημιουργίας μιας αποτελεσματικής επίθεσης μπορεί να φτάσει τα 10 δολάρια. Επιπλέον, οι ερευνητές διαπίστωσαν ότι μια επίθεση που σχεδιάστηκε για μια έκδοση του Gemini θα μπορούσε εύκολα να εφαρμοστεί με επιτυχία σε άλλες εκδόσεις, ανοίγοντας την πιθανότητα εκτεταμένων επιθέσεων.
Η Google επιβεβαίωσε ότι γνωρίζει την απειλή που θέτει το Fun-Tuning, αλλά δεν έχει ακόμη σχολιάσει εάν αυτό θα αλλάξει τον τρόπο λειτουργίας του API ρύθμισης. Οι ερευνητές επισημαίνουν επίσης το αμυντικό δίλημμα: η αφαίρεση των πληροφοριών που εκμεταλλεύεται το Fun-Tuning από τη διαδικασία ρύθμισης θα καθιστούσε το API λιγότερο χρήσιμο για τους νόμιμους προγραμματιστές. Αντίθετα, αν το άφηναν ως έχει, θα συνέχιζε να αποτελεί εφαλτήριο για την εκμετάλλευση από κακόβουλους παράγοντες.
Η εμφάνιση του Fun-Tuning αποτελεί σαφή προειδοποίηση ότι η αντιπαράθεση στον κυβερνοχώρο έχει εισέλθει σε μια νέα, πιο σύνθετη φάση. Η Τεχνητή Νοημοσύνη δεν είναι πλέον μόνο στόχος αλλά και εργαλείο και όπλο στα χέρια κακόβουλων φορέων.
[διαφήμιση_2]
Πηγή: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm
Σχόλιο (0)