A Internet foi, desde o início, um território onde inovação e risco caminharam lado a lado
|
Para muitos pais e avós, as primeiras experiências digitais ficaram marcadas por SMS estranhos, emails de “príncipes nigerianos” e chamadas de falso suporte técnico. Hoje parecem quase anedóticas, mas foram suficientes para enganar quem não estava preparado para um mundo onde a fraude desembarcava diretamente no bolso. Olhamos para tudo isso com distância, talvez até com alguma condescendência. “Como é que alguém acreditava nisto?” — perguntamos, esquecendo que também nós teremos, inevitavelmente, o nosso momento de ingenuidade digital. A diferença é que, desta vez, o salto tecnológico é incomparavelmente maior. Se os golpes do passado se distinguiam pelo tom amador, os ataques que começam agora a popularizar-se têm um grau de sofisticação capaz de enganar até os mais atentos. Vídeos convincentes, vozes clonadas e interações inteiras produzidas por inteligência artificial estão a transformar a fraude digital num fenómeno difícil de detetar e, sobretudo, fácil de escalar. Os números ajudam a perceber a dimensão. A Sumsub registou um aumento de dez vezes nos incidentes de deepfakes entre 2022 e 2023. Em algumas regiões, como a América do Norte ou a Ásia, os crescimentos ultrapassaram os 1500%. Só em 2024, foram identificados mais de 105 mil ataques com recurso a conteúdos sintéticos, o equivalente a um novo incidente a cada poucos minutos. É o tipo de estatística que deixa claro que não estamos perante uma curiosidade tecnológica, mas perante a próxima grande vaga de criminalidade online. Os casos reais confirmam esta tendência. Em Londres, um funcionário da empresa de engenharia Arup participou numa videoconferência que parecia absolutamente legítima: rostos conhecidos, vozes reconhecíveis, instruções claras. O problema é que nada era real. Os “executivos” eram deepfakes criados por criminosos, que conseguiram induzir transferências no valor de 20 milhões de libras. Noutro episódio, amplamente noticiado, a voz e imagem do CEO da WPP, Mark Read, foram clonadas e usadas para tentar manipular equipas internas através de mensagens e reuniões simuladas. A fraude com IA já não é um cenário futurista, é um presente incómodo. E a verdade é que o público sente isso. Num inquérito britânico, 90% dos participantes afirmaram estar preocupados com a capacidade da IA para manipular áudio e vídeo. Mesmo quando avisadas, as pessoas distinguem vozes reais de vozes falsas pouco mais de 70% das vezes. E os próprios detectores de deepfakes, muitas vezes vistos como a solução tecnológica ideal, mostram quedas de eficácia quando confrontados com conteúdos retirados da internet real. O desafio torna-se ainda maior quando se olha para as gerações mais jovens. Crescidos com filtros, edições instantâneas e vozes transformadas, estes utilizadores já não estranham o artificial. O problema é que essa familiaridade pode transformar-se em vulnerabilidade. Assim como os nossos pais tiveram de aprender a desconfiar de mensagens duvidosas, também estas gerações terão de aprender a desconfiar de algo mais insidioso: vídeos que parecem verdadeiros, vozes que parecem familiares, conversas que parecem autênticas…, mas que nunca existiram. Perante isto, a resposta instintiva tem sido pedir proibições. Proibir deepfakes, proibir modelos de voz, proibir ferramentas de geração de vídeo. Mas a história mostra-nos que a proibição raramente é eficaz. Não foi com a proibição que se acabou com o spam, nem com o bloqueio de websites que se travou a pirataria digital. Proibir a tecnologia que possibilita deepfakes seria tão prático como tentar proibir a internet para impedir o phishing. Se há algo que a evolução digital nos ensinou, é que a proibição gera apenas uma falsa sensação de segurança. Dá a impressão de que o problema foi resolvido, quando na verdade apenas foi empurrado para espaços menos visíveis. O público relaxa, acreditando que o perigo desapareceu, enquanto os atacantes se adaptam rapidamente e continuam a operar fora do radar. Esta ilusão de proteção é, paradoxalmente, mais perigosa do que a própria ameaça, substituindo aprendizagem por complacência. Além disso, muitas das tecnologias que permitem criar deepfakes têm aplicações legítimas: cinema, entretenimento, acessibilidade digital, educação, preservação histórica. Uma proibição total travaria inovação positiva, enquanto os atores maliciosos continuariam a funcionar longe de qualquer escrutínio. O caminho não está, portanto, na proibição, mas sobretudo, na literacia digital. Aliando boas práticas organizacionais, um esforço sério de educação pública e a criação de mecanismos legais de responsabilização, poderemos encontrar uma estratégia muito mais eficaz do que qualquer tentativa de banir tecnologias que já estão profundamente disseminadas. No final, o problema não é a IA. É a diferença entre quem já aprendeu a usá-la para atacar e quem ainda não aprendeu a defender-se. As gerações passam, a tecnologia muda, mas o princípio mantém-se: a vulnerabilidade nasce da assimetria. Superá-la exige motivação, experiência, intuição e até uma certa memória emocional; competências humanas que (ainda) nenhuma inteligência artificial, por mais avançada que seja, consegue verdadeiramente compreender ou replicar. |
Pedro Galveias
Cybersecurity Operations Lead
TAP
Responsável pelas operações de cibersegurança da TAP, supervisionando a resposta a incidentes e orientando a otimização dos processos. Formado em Engenharia Informática e Segurança Informática, experiente em ambientes SOC complexos e na liderança de iniciativas de automação operacional de cibersegurança, elevando a maturidade das organizações em causa.
Outros artigos deste autor