Threats
Relatório do Google Threat Intelligence Group revela que atores ligados à China, Irão, Coreia do Norte e Rússia estão a recorrer ao modelo Gemini para reconhecimento, criação de phishing, desenvolvimento de malware e exfiltração de dados
14/02/2026
|
Grupos de ciberespionagem apoiados por Estados estão a utilizar o modelo de Inteligência Artificial (IA) Gemini, da Google, para apoiar todas as fases das suas operações ofensivas — do reconhecimento inicial às ações pós-compromisso. A conclusão consta de um novo relatório do Google Threat Intelligence Group (GTIG), que identifica o uso sistemático do modelo por atores associados à China, Irão, Coreia do Norte e Rússia. Segundo a Google, estes grupos recorreram ao Gemini para tarefas como perfilagem de alvos e recolha de informação em fontes abertas (OSINT), geração de conteúdos de phishing, tradução de textos, desenvolvimento e correção de código, testes de vulnerabilidades e criação de infraestruturas de comando e controlo (C2). “Os adversários APT utilizaram o Gemini para apoiar as suas campanhas, desde o reconhecimento e criação de iscos de phishing até ao desenvolvimento de C2 e exfiltração de dados”, refere o relatório. Entre os casos identificados, atores chineses, incluindo grupos rastreados como APT31 e Temp.HEX, terão sido responsáveis por criar cenários fictícios para solicitar ao modelo planos de testes direcionados e automatização de análises de vulnerabilidades, incluindo exploração de execução remota de código (RCE), técnicas de bypass de WAF e testes de injeção SQL contra alvos norte-americanos. Outro ator baseado na China utilizou frequentemente o Gemini para depurar código, realizar investigação técnica e obter aconselhamento sobre capacidades de intrusão. Do lado iraniano, o grupo APT42 explorou o modelo para acelerar campanhas de engenharia social e desenvolver ferramentas maliciosas personalizadas, recorrendo à geração e depuração de código e à pesquisa de técnicas de exploração. A Google identificou ainda utilização do Gemini para adicionar novas capacidades a famílias de malware existentes, como o kit de phishing CoinBait e o downloader HonestCue. O HonestCue, observado no final de 2025, é descrito como uma framework de prova de conceito que utiliza a API do Gemini para gerar código C# para malware de segunda fase, compilando e executando os payloads diretamente em memória. Já o CoinBait é um kit de phishing disfarçado de plataforma de criptomoedas, com indícios de ter sido desenvolvido com recurso a ferramentas de geração automática de código baseadas em IA. Os investigadores encontraram, por exemplo, mensagens de registo prefixadas com “Analytics:” no código-fonte, um possível indicador de utilização de LLM. O relatório refere ainda que amostras analisadas sugerem a utilização da plataforma Lovable AI no desenvolvimento de malware, com recurso a componentes como o Lovable Supabase client. Paralelamente, cibercriminosos têm utilizado serviços de IA generativa em campanhas ClickFix, levando utilizadores macOS a executar comandos maliciosos que instalam o infostealer AMOS através de anúncios fraudulentos apresentados em resultados de pesquisa. Para além do uso ofensivo direto, a Google alerta também para tentativas de extração e destilação do modelo. Em alguns casos, entidades com acesso legítimo à API terão submetido milhares de pedidos estruturados com o objetivo de reproduzir o processo de raciocínio do Gemini e replicar as suas funcionalidades através de técnicas de “knowledge distillation”. Num incidente de larga escala, o modelo foi alvo de cerca de 100 mil prompts destinados a mapear o seu comportamento em tarefas realizadas em línguas não inglesas. Embora este tipo de ataque não represente uma ameaça direta aos utilizadores finais, a Google considera que constitui um problema comercial e de propriedade intelectual significativo, com potencial para minar o modelo de negócio de IA enquanto serviço. A empresa afirma ter desativado contas e infraestruturas associadas aos abusos identificados e reforçado os mecanismos de deteção e prevenção no Gemini. A Google garante ainda que os seus sistemas de IA são concebidos com “medidas de segurança robustas e fortes salvaguardas”, sendo regularmente testados e atualizados para melhorar os níveis de proteção. |