Você pode enganar as Visões da IA do Google para explicar expressões inventadas

Os algoritmos de inteligência artificial da Google estão sendo enganados por usuários que criam expressões idiomáticas fictícias. Isso mostra que, mesmo com todo o investimento em AI, as máquinas ainda podem cometer erros graves. Além disso, o artigo destaca um caso em que advogados foram multados por utilizar o ChatGPT para pesquisar um processo. A máquina gerou casos inexistentes que não puderam ser localizados pelos advogados adversários.

Google / Engadget


  • Os algoritmos de inteligência artificial da Google estão sendo enganados por expressões idiomáticas fictícias
  • Advogados foram multados por utilizar o ChatGPT para pesquisar um processo

  • Google AI Overview: Quando a inteligência artificial não entende as expressões idiomáticas

    A inteligência artificial da Google, conhecida como AI Overview, está sendo vítima de brincadeiras de usuários que criam expressões idiomáticas fictícias, como “Você não pode casar com pizza” e “Você não pode abrir um pote de manteiga de amendoim com dois pés esquerdos”. O algoritmo tenta explicar essas expressões como se fossem reais, mostrando que ainda há desafios para as máquinas entenderem contextos mais complexos.

    Além disso, o artigo destaca um caso envolvendo advogados que foram multados por utilizar o ChatGPT para pesquisar um processo. A máquina gerou casos fictícios que causaram problemas reais no tribunal, evidenciando a importância de verificar as informações fornecidas pela inteligência artificial.


    Artigo Original