Threats

Fraude com deepfakes cresce e expõe falhas

Apenas 7% das organizações estão preparadas para fraude com inteligência artificial, enquanto ataques com deepfakes e engenharia social continuam a aumentar

28/03/2026

Fraude com deepfakes cresce e expõe falhas

A fraude baseada em Inteligência Artificial (IA), incluindo deepfakes, está a crescer rapidamente, enquanto a maioria das organizações continua pouco preparada para lidar com estas ameaças, segundo um estudo da Association of Certified Fraud Examiners (ACFE) e da SAS.

De acordo com o relatório “2026 Anti-Fraud Technology Benchmarking”, apenas 7% dos profissionais de combate à fraude consideram que as suas organizações estão mais do que moderadamente preparadas para detetar ou prevenir fraude impulsionada por IA.

O estudo, baseado num inquérito a 713 especialistas em várias regiões e setores, aponta para uma escalada generalizada das ameaças. Entre os principais vetores, destaca-se o recurso a deepfakes em esquemas de engenharia social, com 77% dos inquiridos a reportarem um aumento destes ataques nos últimos dois anos.

Outras formas de fraude também registaram crescimento significativo, incluindo fraudes ao consumidor (75%), falsificação de documentos com IA generativa (75%) e ataques com injeção digital baseada em deepfakes (72%).

Apesar deste cenário, a adoção de tecnologias de IA para combate à fraude ainda é limitada. Apenas 25% das organizações utilizam atualmente soluções de IA ou machine learning, embora 28% planeiem fazê-lo até 2028.

O estudo alerta ainda para lacunas ao nível da governação. Embora 86% das organizações considerem a precisão dos sistemas de IA essencial, apenas 18% testam os modelos para enviesamento ou equidade. Além disso, só 6% afirmam compreender totalmente como os seus modelos tomam decisões.

As limitações orçamentais continuam a ser um obstáculo relevante, apontado por 84% dos inquiridos, apesar de 55% preverem aumentar o investimento em tecnologia antifraude nos próximos dois anos.

Entre as tecnologias emergentes, a IA generativa e os agentes de IA ganham destaque. Atualmente, 16% das organizações utilizam IA generativa para deteção de fraude, enquanto 58% planeiam adotá-la. Já a IA agentic é utilizada por 8%, com 31% a preverem implementação até 2028.

A biometria física surge como a tecnologia mais adotada, presente em 45% das organizações, enquanto soluções baseadas na cloud e automação continuam subutilizadas.

O relatório indica ainda que 62% dos inquiridos acreditam que a computação quântica terá impacto significativo na deteção de fraude até 2030.

Para os autores do estudo, a evolução das ameaças está a ultrapassar a capacidade de resposta das organizações, num contexto em que os cibercriminosos adotam rapidamente novas tecnologias sem as restrições de governação ou orçamento.

O desafio passa agora por combinar tecnologia, velocidade e governação para enfrentar um cenário de fraude cada vez mais sofisticado e automatizado.


NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT SECURITY Nº29 ABRIL 2026

IT SECURITY Nº29 ABRIL 2026

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.