Conform BGR , un nou raport de cercetare a publicat o tehnică alarmantă numită „Fun-Tuning”, care utilizează însăși inteligența artificială (IA) pentru a crea automat atacuri de tip prompt injection extrem de eficiente care vizează alte modele avansate de IA, inclusiv Gemini de la Google.
Metoda face ca „depistarea” inteligenței artificiale să fie mai rapidă, mai ieftină și mai ușoară ca niciodată, marcând o nouă escaladare în bătălia securității cibernetice care implică inteligența artificială.
Pericolul atunci când răufăcătorii folosesc inteligența artificială pentru a o distruge.
Injecția promptă este o tehnică prin care un adversar introduce instrucțiuni malițioase în datele de intrare ale unui model de inteligență artificială (de exemplu, prin comentarii în codul sursă, text ascuns pe web). Scopul este de a „păcăli” inteligența artificială să ocolească regulile de siguranță preprogramate, ceea ce duce la consecințe grave, cum ar fi scurgerea de date sensibile, furnizarea de informații false sau efectuarea altor acțiuni malițioase.
Hackerii folosesc inteligența artificială pentru a ataca inteligența artificială
FOTO: CAPTURĂ DE ECRAN LINKEDIN
Anterior, executarea cu succes a acestor atacuri, în special pe modele „închise” precum Gemini sau GPT-4, necesita adesea o mulțime de teste manuale complexe și consumatoare de timp.
Însă Fun-Tuning a schimbat complet regulile jocului. Dezvoltată de o echipă de cercetători de la mai multe universități, metoda exploatează inteligent chiar interfața de programare a aplicațiilor (API) de optimizare pe care Google o oferă gratuit utilizatorilor Gemini.
Prin analizarea reacțiilor subtile ale modelului Gemini în timpul reglajului (de exemplu, modul în care răspunde la erorile din date), Fun-Tuning poate determina automat cele mai eficiente „prefixe” și „sufixe” pentru a ascunde o comandă rău intenționată. Acest lucru crește semnificativ probabilitatea ca inteligența artificială să respecte intențiile rău intenționate ale atacatorului.
Rezultatele testelor arată că Fun-Tuning atinge o rată de succes de până la 82% pe unele versiuni de Gemini, o cifră care depășește rata de mai puțin de 30% a metodelor tradiționale de atac.
Costul redus sporește pericolul Fun-Tuning. Deoarece API-ul de optimizare Google este disponibil gratuit, costul computațional pentru crearea unui atac eficient poate fi de doar 10 dolari. În plus, cercetătorii au descoperit că un atac conceput pentru o versiune de Gemini ar putea fi aplicat cu ușurință și altor versiuni, deschizând posibilitatea unor atacuri pe scară largă.
Google a confirmat că este conștient de amenințarea reprezentată de Fun-Tuning, dar nu a comentat încă dacă va schimba modul în care funcționează API-ul de optimizare. Cercetătorii subliniază, de asemenea, dilema defensivă: eliminarea informațiilor pe care Fun-Tuning le exploatează din procesul de optimizare ar face API-ul mai puțin util pentru dezvoltatorii legitimi. În schimb, lăsarea lui așa cum este ar continua să fie o rampă de lansare pentru ca actorii rău intenționați să o exploateze.
Apariția Fun-Tuning este un avertisment clar că confruntarea în spațiul cibernetic a intrat într-o nouă fază, mai complexă. IA nu este acum doar o țintă, ci și un instrument și o armă în mâinile actorilor rău intenționați.
Sursă: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm
Comentariu (0)