O príncipe da Nigéria cresceu, agora usa AI

O príncipe da Nigéria cresceu, agora usa AI

A Internet foi, desde o início, um território onde inovação e risco caminharam lado a lado

Para muitos pais e avós, as primeiras experiências digitais ficaram marcadas por SMS estranhos, emails de “príncipes nigerianos” e chamadas de falso suporte técnico. Hoje parecem quase anedóticas, mas foram suficientes para enganar quem não estava preparado para um mundo onde a fraude desembarcava diretamente no bolso. Olhamos para tudo isso com distância, talvez até com alguma condescendência. “Como é que alguém acreditava nisto?” — perguntamos, esquecendo que também nós teremos, inevitavelmente, o nosso momento de ingenuidade digital.

A diferença é que, desta vez, o salto tecnológico é incomparavelmente maior. Se os golpes do passado se distinguiam pelo tom amador, os ataques que começam agora a popularizar-se têm um grau de sofisticação capaz de enganar até os mais atentos. Vídeos convincentes, vozes clonadas e interações inteiras produzidas por inteligência artificial estão a transformar a fraude digital num fenómeno difícil de detetar e, sobretudo, fácil de escalar.

Os números ajudam a perceber a dimensão. A Sumsub registou um aumento de dez vezes nos incidentes de deepfakes entre 2022 e 2023. Em algumas regiões, como a América do Norte ou a Ásia, os crescimentos ultrapassaram os 1500%. Só em 2024, foram identificados mais de 105 mil ataques com recurso a conteúdos sintéticos, o equivalente a um novo incidente a cada poucos minutos. É o tipo de estatística que deixa claro que não estamos perante uma curiosidade tecnológica, mas perante a próxima grande vaga de criminalidade online.

Os casos reais confirmam esta tendência. Em Londres, um funcionário da empresa de engenharia Arup participou numa videoconferência que parecia absolutamente legítima: rostos conhecidos, vozes reconhecíveis, instruções claras. O problema é que nada era real. Os “executivos” eram deepfakes criados por criminosos, que conseguiram induzir transferências no valor de 20 milhões de libras. Noutro episódio, amplamente noticiado, a voz e imagem do CEO da WPP, Mark Read, foram clonadas e usadas para tentar manipular equipas internas através de mensagens e reuniões simuladas. A fraude com IA já não é um cenário futurista, é um presente incómodo.

E a verdade é que o público sente isso. Num inquérito britânico, 90% dos participantes afirmaram estar preocupados com a capacidade da IA para manipular áudio e vídeo. Mesmo quando avisadas, as pessoas distinguem vozes reais de vozes falsas pouco mais de 70% das vezes. E os próprios detectores de deepfakes, muitas vezes vistos como a solução tecnológica ideal, mostram quedas de eficácia quando confrontados com conteúdos retirados da internet real.

O desafio torna-se ainda maior quando se olha para as gerações mais jovens. Crescidos com filtros, edições instantâneas e vozes transformadas, estes utilizadores já não estranham o artificial. O problema é que essa familiaridade pode transformar-se em vulnerabilidade. Assim como os nossos pais tiveram de aprender a desconfiar de mensagens duvidosas, também estas gerações terão de aprender a desconfiar de algo mais insidioso: vídeos que parecem verdadeiros, vozes que parecem familiares, conversas que parecem autênticas…, mas que nunca existiram.

Perante isto, a resposta instintiva tem sido pedir proibições. Proibir deepfakes, proibir modelos de voz, proibir ferramentas de geração de vídeo. Mas a história mostra-nos que a proibição raramente é eficaz. Não foi com a proibição que se acabou com o spam, nem com o bloqueio de websites que se travou a pirataria digital. Proibir a tecnologia que possibilita deepfakes seria tão prático como tentar proibir a internet para impedir o phishing. Se há algo que a evolução digital nos ensinou, é que a proibição gera apenas uma falsa sensação de segurança. Dá a impressão de que o problema foi resolvido, quando na verdade apenas foi empurrado para espaços menos visíveis. O público relaxa, acreditando que o perigo desapareceu, enquanto os atacantes se adaptam rapidamente e continuam a operar fora do radar. Esta ilusão de proteção é, paradoxalmente, mais perigosa do que a própria ameaça, substituindo aprendizagem por complacência.

Além disso, muitas das tecnologias que permitem criar deepfakes têm aplicações legítimas: cinema, entretenimento, acessibilidade digital, educação, preservação histórica. Uma proibição total travaria inovação positiva, enquanto os atores maliciosos continuariam a funcionar longe de qualquer escrutínio.

O caminho não está, portanto, na proibição, mas sobretudo, na literacia digital. Aliando boas práticas organizacionais, um esforço sério de educação pública e a criação de mecanismos legais de responsabilização, poderemos encontrar uma estratégia muito mais eficaz do que qualquer tentativa de banir tecnologias que já estão profundamente disseminadas.

No final, o problema não é a IA. É a diferença entre quem já aprendeu a usá-la para atacar e quem ainda não aprendeu a defender-se. As gerações passam, a tecnologia muda, mas o princípio mantém-se: a vulnerabilidade nasce da assimetria. Superá-la exige motivação, experiência, intuição e até uma certa memória emocional; competências humanas que (ainda) nenhuma inteligência artificial, por mais avançada que seja, consegue verdadeiramente compreender ou replicar.

Pedro Galveias

Pedro Galveias

Cybersecurity Operations Lead
TAP

Responsável pelas operações de cibersegurança da TAP, supervisionando a resposta a incidentes e orientando a otimização dos processos. Formado em Engenharia Informática e Segurança Informática, experiente em ambientes SOC complexos e na liderança de iniciativas de automação operacional de cibersegurança, elevando a maturidade das organizações em causa.

Outros artigos deste autor


REVISTA DIGITAL

IT SECURITY Nº27 DEZEMBRO 2025

IT SECURITY Nº27 DEZEMBRO 2025

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.