Threats

Grupos patrocinados por Estados recorrem ao Gemini para operações de ciberespionagem

Relatório do Google Threat Intelligence Group revela que atores ligados à China, Irão, Coreia do Norte e Rússia estão a recorrer ao modelo Gemini para reconhecimento, criação de phishing, desenvolvimento de malware e exfiltração de dados

14/02/2026

Grupos patrocinados por Estados recorrem ao Gemini para operações de ciberespionagem

Grupos de ciberespionagem apoiados por Estados estão a utilizar o modelo de Inteligência Artificial (IA) Gemini, da Google, para apoiar todas as fases das suas operações ofensivas — do reconhecimento inicial às ações pós-compromisso. A conclusão consta de um novo relatório do Google Threat Intelligence Group (GTIG), que identifica o uso sistemático do modelo por atores associados à China, Irão, Coreia do Norte e Rússia.

Segundo a Google, estes grupos recorreram ao Gemini para tarefas como perfilagem de alvos e recolha de informação em fontes abertas (OSINT), geração de conteúdos de phishing, tradução de textos, desenvolvimento e correção de código, testes de vulnerabilidades e criação de infraestruturas de comando e controlo (C2). “Os adversários APT utilizaram o Gemini para apoiar as suas campanhas, desde o reconhecimento e criação de iscos de phishing até ao desenvolvimento de C2 e exfiltração de dados”, refere o relatório.

Entre os casos identificados, atores chineses, incluindo grupos rastreados como APT31 e Temp.HEX, terão sido responsáveis por criar cenários fictícios para solicitar ao modelo planos de testes direcionados e automatização de análises de vulnerabilidades, incluindo exploração de execução remota de código (RCE), técnicas de bypass de WAF e testes de injeção SQL contra alvos norte-americanos. Outro ator baseado na China utilizou frequentemente o Gemini para depurar código, realizar investigação técnica e obter aconselhamento sobre capacidades de intrusão.

Do lado iraniano, o grupo APT42 explorou o modelo para acelerar campanhas de engenharia social e desenvolver ferramentas maliciosas personalizadas, recorrendo à geração e depuração de código e à pesquisa de técnicas de exploração. A Google identificou ainda utilização do Gemini para adicionar novas capacidades a famílias de malware existentes, como o kit de phishing CoinBait e o downloader HonestCue.

O HonestCue, observado no final de 2025, é descrito como uma framework de prova de conceito que utiliza a API do Gemini para gerar código C# para malware de segunda fase, compilando e executando os payloads diretamente em memória. Já o CoinBait é um kit de phishing disfarçado de plataforma de criptomoedas, com indícios de ter sido desenvolvido com recurso a ferramentas de geração automática de código baseadas em IA. Os investigadores encontraram, por exemplo, mensagens de registo prefixadas com “Analytics:” no código-fonte, um possível indicador de utilização de LLM.

O relatório refere ainda que amostras analisadas sugerem a utilização da plataforma Lovable AI no desenvolvimento de malware, com recurso a componentes como o Lovable Supabase client. Paralelamente, cibercriminosos têm utilizado serviços de IA generativa em campanhas ClickFix, levando utilizadores macOS a executar comandos maliciosos que instalam o infostealer AMOS através de anúncios fraudulentos apresentados em resultados de pesquisa.

Para além do uso ofensivo direto, a Google alerta também para tentativas de extração e destilação do modelo. Em alguns casos, entidades com acesso legítimo à API terão submetido milhares de pedidos estruturados com o objetivo de reproduzir o processo de raciocínio do Gemini e replicar as suas funcionalidades através de técnicas de “knowledge distillation”. Num incidente de larga escala, o modelo foi alvo de cerca de 100 mil prompts destinados a mapear o seu comportamento em tarefas realizadas em línguas não inglesas.

Embora este tipo de ataque não represente uma ameaça direta aos utilizadores finais, a Google considera que constitui um problema comercial e de propriedade intelectual significativo, com potencial para minar o modelo de negócio de IA enquanto serviço.

A empresa afirma ter desativado contas e infraestruturas associadas aos abusos identificados e reforçado os mecanismos de deteção e prevenção no Gemini. A Google garante ainda que os seus sistemas de IA são concebidos com “medidas de segurança robustas e fortes salvaguardas”, sendo regularmente testados e atualizados para melhorar os níveis de proteção.


NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT SECURITY Nº28 FEVEREIRO 2026

IT SECURITY Nº28 FEVEREIRO 2026

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.