De acordo com o BGR , um novo relatório de pesquisa acaba de publicar uma técnica alarmante chamada 'Fun-Tuning', que usa a própria IA (inteligência artificial) para criar automaticamente ataques de injeção rápida extremamente eficazes visando outros modelos avançados de IA, incluindo o Gemini do Google.
O método torna a "quebra" da IA mais rápida, barata e fácil do que nunca, marcando uma nova escalada na batalha da segurança cibernética envolvendo IA.
O perigo quando bandidos usam IA para quebrar a IA
Injeção rápida é uma técnica na qual um adversário insere instruções maliciosas nos dados de entrada de um modelo de IA (por exemplo, por meio de comentários no código-fonte ou texto oculto na web). O objetivo é "enganar" a IA para que ela contorne regras de segurança pré-programadas, levando a consequências graves, como vazamento de dados confidenciais, fornecimento de informações falsas ou outras ações maliciosas.
Os hackers estão usando IA para atacar a IA
FOTO: CAPTURA DE TELA DO LINKEDIN
Anteriormente, a execução bem-sucedida desses ataques, especialmente em modelos "fechados" como Gemini ou GPT-4, geralmente exigia muitos testes manuais complexos e demorados.
Mas o Fun-Tuning mudou completamente o jogo. Desenvolvido por uma equipe de pesquisadores de diversas universidades, o método explora de forma inteligente a interface de programação de aplicativos (API) de ajuste que o Google oferece gratuitamente aos usuários do Gemini.
Ao analisar as reações sutis do modelo Gemini durante o ajuste (por exemplo, como ele responde a erros nos dados), o Fun-Tuning pode determinar automaticamente os "prefixos" e "sufixos" mais eficazes para ocultar um comando malicioso. Isso aumenta significativamente a probabilidade de a IA obedecer às intenções maliciosas do invasor.
Os resultados dos testes mostram que o Fun-Tuning atinge uma taxa de sucesso de até 82% em algumas versões do Gemini, um número que supera os menos de 30% dos métodos de ataque tradicionais.
O baixo custo do Fun-Tuning aumenta o perigo. Como a API de ajuste do Google está disponível gratuitamente, o custo computacional para criar um ataque eficaz pode ser de apenas US$ 10. Além disso, os pesquisadores descobriram que um ataque projetado para uma versão do Gemini poderia ser facilmente aplicado com sucesso a outras versões, abrindo a possibilidade de ataques generalizados.
O Google confirmou estar ciente da ameaça representada pelo Fun-Tuning, mas ainda não se pronunciou sobre se a API de ajuste será alterada. Os pesquisadores também apontam o dilema defensivo: remover as informações que o Fun-Tuning explora do processo de ajuste tornaria a API menos útil para desenvolvedores legítimos. Por outro lado, deixá-la como está continuaria sendo um trampolim para a exploração por pessoas mal-intencionadas.
O surgimento do Fun-Tuning é um claro alerta de que o confronto no ciberespaço entrou em uma fase nova e mais complexa. A IA agora não é apenas um alvo, mas também uma ferramenta e arma nas mãos de agentes maliciosos.
Fonte: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm
Comentário (0)