Voltar ao Blog
Tecnologia

Uma linha de código oculta pode enganar o AI do Google

Imagem de capa para Uma linha de código oculta pode enganar o AI do Google

Uma linha de código invisível em um e-mail pode enganar o AI do Google, fazendo com que mostre um alerta falso de segurança. Descubra como isso funciona e o que você pode fazer para se proteger.

Como funciona a vulnerabilidade?

Um pesquisador demonstrou recentemente que é possível manipular o Google Gemini, a IA da Google Workspace, usando instruções ocultas em e-mails. Quando um usuário pede para resumir um e-mail, o Gemini segue essas instruções escondidas e gera um alerta falso projetado para enganar o destinatário.

O que você pode fazer?

  • Não confie apenas nos resumos gerados pelo AI. Trate-os como informações gerais, especialmente se sugerirem ações urgentes.
  • Leia sempre o e-mail completo para identificar sinais reais de ameaça antes de tomar qualquer decisão.
  • Se você faz parte de uma equipe de segurança, considere sinalizar ou isolar emails com texto oculto ou formatação estranha.
  • Treine sua equipe para reconhecer que a saída do AI pode ser manipulada assim como qualquer outro sistema.

Essa descoberta é mais um lembrete de que, apesar da inteligência artificial ser uma ferramenta incrível, ela não é imune a fraudes. Fique atento e nunca deixe o resumo替代ar a leitura completa do e-mail.

É impressionante como até a IA mais sofisticada pode ser enganada com um simples truque de código. Felizmente, estamos cientes disso e podemos proteger nossos dados com cuidado e atenção.
Fonte original: lifewire.com

Últimas notícias