Threats
Apenas 7% das organizações estão preparadas para fraude com inteligência artificial, enquanto ataques com deepfakes e engenharia social continuam a aumentar
28/03/2026
|
A fraude baseada em Inteligência Artificial (IA), incluindo deepfakes, está a crescer rapidamente, enquanto a maioria das organizações continua pouco preparada para lidar com estas ameaças, segundo um estudo da Association of Certified Fraud Examiners (ACFE) e da SAS. De acordo com o relatório “2026 Anti-Fraud Technology Benchmarking”, apenas 7% dos profissionais de combate à fraude consideram que as suas organizações estão mais do que moderadamente preparadas para detetar ou prevenir fraude impulsionada por IA. O estudo, baseado num inquérito a 713 especialistas em várias regiões e setores, aponta para uma escalada generalizada das ameaças. Entre os principais vetores, destaca-se o recurso a deepfakes em esquemas de engenharia social, com 77% dos inquiridos a reportarem um aumento destes ataques nos últimos dois anos. Outras formas de fraude também registaram crescimento significativo, incluindo fraudes ao consumidor (75%), falsificação de documentos com IA generativa (75%) e ataques com injeção digital baseada em deepfakes (72%). Apesar deste cenário, a adoção de tecnologias de IA para combate à fraude ainda é limitada. Apenas 25% das organizações utilizam atualmente soluções de IA ou machine learning, embora 28% planeiem fazê-lo até 2028. O estudo alerta ainda para lacunas ao nível da governação. Embora 86% das organizações considerem a precisão dos sistemas de IA essencial, apenas 18% testam os modelos para enviesamento ou equidade. Além disso, só 6% afirmam compreender totalmente como os seus modelos tomam decisões. As limitações orçamentais continuam a ser um obstáculo relevante, apontado por 84% dos inquiridos, apesar de 55% preverem aumentar o investimento em tecnologia antifraude nos próximos dois anos. Entre as tecnologias emergentes, a IA generativa e os agentes de IA ganham destaque. Atualmente, 16% das organizações utilizam IA generativa para deteção de fraude, enquanto 58% planeiam adotá-la. Já a IA agentic é utilizada por 8%, com 31% a preverem implementação até 2028. A biometria física surge como a tecnologia mais adotada, presente em 45% das organizações, enquanto soluções baseadas na cloud e automação continuam subutilizadas. O relatório indica ainda que 62% dos inquiridos acreditam que a computação quântica terá impacto significativo na deteção de fraude até 2030. Para os autores do estudo, a evolução das ameaças está a ultrapassar a capacidade de resposta das organizações, num contexto em que os cibercriminosos adotam rapidamente novas tecnologias sem as restrições de governação ou orçamento. O desafio passa agora por combinar tecnologia, velocidade e governação para enfrentar um cenário de fraude cada vez mais sofisticado e automatizado. |