Google descobre falha crítica na Antigravity: risco de malware em IAs!

Falha crítica na ferramenta Antigravity do Google causa alerta sobre segurança de IAs. Pesquisador Aaron Portnoy descobre vulnerabilidade que permite instalação de malware. A falha, em IA impulsionada pelo Gemini, expõe riscos e a necessidade de testes rigorosos

2 min de leitura

(Imagem de reprodução da internet).

Falha Séria na Ferramenta Antigravity do Google Levanta Preocupações sobre Segurança de IAs

Um pesquisador de segurança descobriu uma falha crítica na ferramenta Antigravity, desenvolvida pelo Google. O incidente destaca o risco de empresas lançarem plataformas de inteligência artificial vulneráveis a ataques. A descoberta ocorreu em menos de 24 horas após o lançamento da Antigravity, impulsionada pelo Gemini.

CONTINUA DEPOIS DA PUBLICIDADE

Aaron Portnoy, o pesquisador, identificou uma vulnerabilidade que permitia manipular as regras da IA, potencialmente instalando malware em computadores de usuários.

Portnoy conseguiu criar uma “porta dos fundos” no sistema do usuário, injetando códigos para realizar ações como espionar vítimas ou executar ransomware. O ataque funcionou tanto em PCs Windows quanto Mac. Para realizar o hack, ele convenceu o usuário a executar seu código após clicar em um botão que afirmava que o código era “confiável”, uma tática comum entre hackers que exploram a engenharia social.

LEIA TAMBÉM!

Essa falha na Antigravity é um exemplo recente de como empresas estão lançando produtos de IA sem testes adequados, criando um cenário de “gato e rato” entre especialistas em cibersegurança, que buscam essas vulnerabilidades para alertar os usuários antes que seja tarde demais.

Agentes de programação com IA são frequentemente “muito vulneráveis, frequentemente baseados em tecnologias antigas e nunca corrigidos”, segundo Gadi Evron, cofundador e CEO da Knostic.

Riscos e Implicações da Vulnerabilidade

A vulnerabilidade da Antigravity expõe um risco significativo, especialmente considerando que agentes de programação com IA podem ser alvos valiosos para hackers criminosos, devido ao acesso amplo a dados de redes corporativas. A prática de desenvolvedores copiar e colar códigos de fontes online também contribui para o aumento dessas vulnerabilidades.

CONTINUA DEPOIS DA PUBLICIDADE

Pesquisadores como Marcus Hutchins já alertaram sobre falsos recrutadores usando o LinkedIn para enviar códigos com malware, e a dificuldade de ferramentas como o Antigravity em lidar com situações contraditórias, como o modelo de IA admitindo um “sério dilema” ao tentar navegar por restrições, demonstra a necessidade de maior robustez e segurança nesses sistemas.

Recomendações e Próximos Passos

A situação levanta questões sobre a abordagem de lançamento de ferramentas de IA, que muitas vezes priorizam a velocidade em detrimento da segurança. A falta de avisos ou notificações adicionais além da confirmação de confiança por parte do usuário na Antigravity também é um ponto crítico.

A equipe do Antigravity, liderada por Ryan Trostle, reconhece a importância da segurança e incentiva pesquisadores a reportarem vulnerabilidades. O Google tem identificado pelo menos outras duas falhas na ferramenta, que também permitem a instalação de malware e o roubo de dados.

A empresa continua trabalhando em correções e a disponibilizar os bugs no site.

Sair da versão mobile