Alucinações de Código de IA Aumentam o Risco de Ataques de ‘Confusão de Pacotes’

Um novo estudo descobriu que o código gerado por IA é mais propenso a conter informações inventadas que podem ser usadas para enganar o software a interagir com código malicioso.


  • Need de atenção no desenvolvimento de código gerado por IA para prevenir possíveis vulnerabilidades
  • Aproximadamente 440.000 das dependências de pacotes eram “alucinadas” e não existiam, representando uma ameaça à segurança cibernética
  • Modelos de linguagem comerciais e de código aberto apresentaram disparidades na taxa de alucinação de pacotes
  • Prevê-se que 95% do código será gerado por IA nos próximos cinco anos, aumentando a importância da atenção à segurança cibernética e confiabilidade dos modelos de IA

  • Artigo sobre os riscos dos ataques de ‘confusão de pacotes’ provocados por alucinações de código de IA

    Um estudo recente revelou que o código gerado por inteligência artificial (IA) está repleto de referências a bibliotecas de terceiros inexistentes, o que cria uma oportunidade para ataques de cadeia de suprimentos que contaminam programas legítimos com pacotes maliciosos capazes de roubar dados, plantar backdoors e realizar outras ações maliciosas. A pesquisa utilizou 16 dos modelos de linguagem grandes mais utilizados para gerar 576.000 amostras de código, encontrando que 440.000 das dependências de pacotes que essas amostras continham eram “alucinadas”, ou seja, inexistentes.

    Essas dependências inexistentes representam uma ameaça para a cadeia de suprimentos de software, exacerbando os chamados ataques de confusão de dependência. Esses ataques funcionam causando com que um pacote de software acesse a dependência errada, por exemplo, publicando um pacote malicioso e dando a ele o mesmo nome do legítimo mas com uma versão posterior. Este tipo de ataque, também conhecido como confusão de pacotes, foi primeiro demonstrado em 2021 em um exploit de prova de conceito que executou código falso em redes de algumas das maiores empresas do planeta, incluindo a Apple, a Microsoft e a Tesla.

    No campo da IA, alucinações acontecem quando um modelo de linguagem produz resultados factualmente incorretos, sem sentido ou completamente não relacionados à tarefa para a qual foi designado. O estudo, que será apresentado no simpósio de segurança USENIX de 2025, denominou o fenômeno como “alucinação de pacote”. Os pesquisadores realizaram 30 testes que geraram 576.000 amostras de código, revelando que 19,7% das 2,23 milhões de referências de pacotes apontavam para pacotes que não existiam.

    Com o CTO da Microsoft Kevin Scott prevendo que 95% do código será gerado por IA em cinco anos, é fundamental que os desenvolvedores estejam atentos para evitar possíveis vulnerabilidades e ataques cibernéticos.


    Artigo Original