Analysis
As tentativas de fraude com deepfakes aumentaram 2.137% em três anos e custaram às empresas uma média de 500 mil dólares por incidente. O problema vai para além das tecnologias de deteção e entra nos processos que não acompanham a evolução das ameaças
Por Rui Damião . 05/02/2026
|
O crescimento de tentativas de fraude baseadas em deepfakes está a transformar a forma como as organizações gerem risco e validam identidades. Segundo o relatório “The Battle Against AI-Driven Identity Fraud” da Signicat, as tentativas aumentaram 2.137% entre 2022 e 2025. A Deepstrike, por sua vez, aponta que o volume passou de 500 mil ocorrências em 2023 para uma projeção de oito milhões de tentativas em 2025. O impacto financeiro é elevado; segundo a Entrust, deepfakes ocorrem agora a cada cinco minutos e as empresas perderam, em média, 500 mil dólares por incidente em 2024. As projeções indicam que as perdas por fraude facilitada por Inteligência Artificial (IA) generativa nos Estados Unidos vão atingir os 40 mil milhões de dólares até 2027. Luís Catarino, Head of Offensive Security Iberia na Thales, afirma que, “nas investigações forenses, os casos mais frequentes são deepfakes usados como peça de esquemas de fraude mais amplos. Em particular, vemos deepfakes em fraude de pagamento de faturas e em chantagem dirigida a executivos de topo”. A redefinição do riscoO caso da empresa Arup tornou-se numa referência global e é sobejamente conhecido na área. Em fevereiro de 2024, um colaborador da empresa participou numa videoconferência onde via o que acreditava ser o CFO e outros executivos. Recebeu instruções para várias transferências, totalizando 25 milhões de dólares. Todas as pessoas, no entanto, eram avatares gerados por IA. Bruno Castro, Fundador & CEO da VisionWare, reconhece que este tipo de ataques “demonstra a eficácia da combinação entre engenharia social, manipulação visual em tempo quase real e exploração da confiança”. Luís Catarino menciona uma tentativa de ataque em julho de 2024, onde um executivo da Ferrari conseguiu travar um ataque quando percebeu que a voz do suposto CEO, embora extremamente convincente, “não respondeu corretamente a uma pergunta pessoal”. Os atacantes replicaram não só a voz de Benedetto Vigna, mas também o seu sotaque regional e maneirismos numa tentativa de legitimar um pedido de “aquisição urgente”. Estes exemplos mostram como a realidade está a mudar. Um estudo da Pindrop documenta um aumento de 1.300% nas tentativas de fraudes a envolver deepfakes durante o ano de 2024 e, de acordo com a Keepnet, os esquemas de phishing com deepfake “estão a tornar-se cada vez mais difíceis de detetar”, com as perdas na América do Norte a terem ultrapassado os 200 milhões de dólares no primeiro trimestre de 2025. “Torna-se importante para as pessoas e para as organizações perceber o risco”, diz o relatório da Keepnet. O impacto dos falsos positivosSistemas demasiado agressivos geram falsos positivos que bloqueiam operações legítimas. Luís Catarino explica que “estudos de fornecedores como SEON e Sift apontam para taxas históricas de falsos positivos na ordem dos 8 a 10% em sistemas baseados em regras, o que significa, em organizações de grande volume, milhares de transações legítimas bloqueadas ou marcadas para revisão todos os dias”. A taxa aceitável situa-se abaixo de 3%.
Bruno Castro reforça que “a taxa aceitável depende sempre do risco do processo e do valor protegido, mas o objetivo deve ser manter um equilíbrio rigoroso entre segurança, fluidez operacional e capacidade de resposta humana”. O que se constrói, na prática, é uma arquitetura em camadas com “modelos de IA a reduzir o universo de casos suspeitos, regras de negócio a definir onde se aceita mais fricção, e validação humana nos pontos onde uma decisão errada é inaceitável”, descreve Luís Catarino, da Thales. Sofisticação onde não se esperaUm caso anonimizado descrito por Luís Catarino ilustra a natureza dos ataques. Numa multinacional, o atacante comprometeu o email de um fornecedor real, observou durante semanas o padrão de comunicação e pediu alteração do IBAN anexando o documento de autorização com assinatura do CFO. “Neste caso, o elemento IA não era um vídeo impressionante, mas uma assinatura num ficheiro PDF”, explica. “O logótipo, o formato, a linguagem e a assinatura correspondiam ao que a equipa esperava ver, o domínio de email era legítimo e o valor da fatura encaixava no histórico. O pagamento foi feito sem qualquer suspeita”, conta. O processo falhou em múltiplos pontos. Não havia validação por segundo canal para mudanças de dados bancários. A equipa não questionou uma alteração de IBAN que chegou por email, mesmo tratando-se de um fornecedor com anos de relacionamento estável. Não existia reconciliação frequente que permitisse detetar rapidamente que o dinheiro não tinha chegado. A assinatura no PDF era uma imagem sintetizada a partir de amostras anteriores, disponíveis em dezenas de documentos legítimos. “Muitas vezes, é uma pequena peça sintética inserida num processo que, de resto, parece perfeitamente normal”, alerta o representante da Thales. Limites na deteçãoA tecnologia de deteção enfrenta limitações significativas. Segundo a Brightside, modelos treinados em laboratório chegam a 95% de precisão, mas com videochamadas comprimidas e iluminação medíocre, os resultados podem cair 45 a 50 pontos percentuais, partilha Luís Catarino. O problema não é apenas tecnológico, mas também humano. Estudos apontam que a taxa de deteção humana de deepfakes de alta qualidade em vídeo é bastante baixa, indicando que três em cada quatro pessoas não conseguem identificar um vídeo falso sofisticado. Esta incapacidade humana torna crítica a necessidade de processos que não dependam da capacidade de julgamento individual. Bruno Castro, da VisionWare, reconhece que “a tecnologia atual é mais eficaz na identificação de conteúdos de menor sofisticação, frequentemente designados por cheapfakes”. Já Luís Catarino alerta para ataques de injeção de vídeo, em que os atacantes “recorrem a câmaras virtuais e software de face-swap para injetar vídeo sintético no fluxo”. Bruno Castro acrescenta que existem “limitações relevantes nas abordagens baseadas em watermarking” uma vez que estas marcas “não são universais, podem ser removidas ou degradadas por compressão, recodificação ou simples edição, e dependem fortemente da adoção voluntária por parte de plataformas e fornecedores, o que reduz a sua eficácia como mecanismo de confiança transversal”. A criação de deepfakes evolui mais rapidamente do que a deteção. Bruno Castro refere que existem “modelos generativos cada vez mais acessíveis, baratos e fáceis de utilizar que acelera a capacidade do cibercrime” enquanto, do lado da deteção, “cada nova técnica de ataque exige recolha de dados, etiquetagem, treino, validação e integração, num ciclo que se mede em semanas ou meses”, explica Luís Catarino. Ameaças emergentesLuís Catarino identifica três evoluções nas ameaças com deepfakes. A primeira é a síntese em tempo real que torna difícil distinguir o “pré-gravado” de “ao vivo”. Em segundo lugar são as redes de identidades sintéticas que se comportam de forma credível durante meses antes de entrarem em ação coordenada.
O terceiro é a infiltração de equipas remotas; os casos de trabalhadores IT norte-coreanos mostram isso mesmo. De acordo com o Office of Financial Sanctions Implementation e a Palo Alto Networks, milhares de trabalhadores norte-coreanos conseguiram empregos remotos em empresas ocidentais usando identidades roubadas, perfis fabricados no LinkedIn com fotos geradas por inteligência artificial e proxies humanos nas entrevistas. Uma vez contratados, operam através de VPN que escondem a sua localização, canalizando salários para Pyongyang e obtendo acesso a código- -fonte e infraestruturas críticas. Para empresas que contratam remotamente, este risco pode, até, ter implicações legais graves. Medidas imediatas (sem orçamento)Questionados sobre o que faziam imediatamente mesmo sem orçamento específico para tecnologia de deteção de deepfakes, Luís Catarino defende que a primeira decisão seria concetual e não tecnológica. “Assumir que nem as pessoas nem os sistemas da organização conseguem, por defeito, distinguir com fiabilidade um executivo real de um clone de IA”. As medidas imediatas são, assim, regras simples, como nenhuma transferência acima de determinado montante pode ser aprovada apenas por email ou chamada; mudanças de IBAN devem ser validadas por um canal secundário; decisões “urgentes” fora de horas exigem segunda confirmação. No caso da alteração de dados bancários de fornecedor, por exemplo, deve ser feito um contacto utilizando sempre o número que consta no contrato original e nunca o que vem no email. Para transferências acima do valor estipulado, exigir a aprovação de duas pessoas de departamentos diferentes, sendo que pelo menos uma após contacto telefónico direto. Para pedidos urgentes fora do horário normal, pode-se implementar uma espera de 24 horas ou validação presencial. Bruno Castro propõe três pilares: “prevenção antes do incidente com auditorias e formação; deteção durante o incidente com monitorização e alarmística; reação após o incidente com definição clara de resposta e recuperação”. Investir não significa apenas comprar tecnologia, mas alocar tempo sobre processos críticos, formação de equipas e avaliação de soluções. Como sintetiza Luís Catarino, “as organizações que fizerem este trabalho de base agora estarão melhor posicionadas não apenas para evitar o próximo incidente, mas também para demonstrar que levam a sério um problema que deixou de ser ficção científica para se tornar rotina de investigação forense”. |