S.Labs
Vivemos num mercado saturado por uma promessa da inteligência artificial (ia) como a solução definitiva para a cibersegurança. todos os dias somos bombardeados com "next-gen ai", "machine learning" e plataformas autónomas que prometem erradicar ameaças mesmo antes de estas se materializarem. a verdade é que, enquanto vendemos a ia como a nossa salvação, os atacantes já têm à disposição armas mais sofisticadas que alguma vez tiveram.
Por David Grave, Security Director, Claranet Portugal . 03/10/2025
|
Este é o paradoxo da era em que vivemos: a mesma IA que utilizamos para detetar anomalias é usada por threat actors para criar deepfakes perfeitos para fraude de CEO. Os mesmos modelos de linguagem que ajudam a analisar logs são usados para gerar e-mails de phishing com uma gramática e contexto impecáveis, tornando a deteção humana praticamente impossível. E, ao contrário do que acontece nas nossas organizações, estes atacantes não enfrentam constrangimentos de compliance ou aprovações de comités. Enquanto debatemos ROI e procurement, eles já estão para lá da implementação. Os dados são inequívocos. Nos últimos 18 meses, observámos um aumento de 340% em ataques de phishing assistidos por IA, segundo relatórios da nossa própria Threat Intelligence. Estes não são os emails mal escritos com erros de gramática que costumávamos receber. São mensagens personalizadas, contextualmente relevantes, que imitam perfeitamente o tom e estilo de comunicação das organizações-alvo. SOAR: Automação e a falsa sensação de segurançaO Security Orchestration, Automation and Response (SOAR) representa uma das aplicações mais prometedoras da IA em Cibersegurança. No entanto, não devemos ver esta solução como mágica; devemos encará-la como um amplificador de capacidade. O objetivo do SOAR não é substituir o analista de Segurança; é libertá-lo. É automatizar 80% das tarefas repetitivas – triagem de alertas, enriquecimento de dados, contenção inicial de ameaças – para que os especialistas possam concentrar-se nos 20% que exigem intuição, contexto de negócio e decisão estratégica. A IA amplifica capacidades existentes, não cria capacidades. Se não tem visibilidade adequada da sua rede, processos de resposta testados, ou equipas devidamente formadas, implementar IA apenas multiplica a confusão. A organização torna-se, ironicamente, mais vulnerável e dependente, confiando cegamente numa "caixa preta", enquanto os seus fundamentos de Cibersegurança não são testados nem evoluem e, em alguns caos, nem sequer existem. O fator humano: o elo mais ignorado da equação da IAUm sistema de IA mal configurado gera um ruído de falsos positivos que dessensibiliza a equipa. Os alertas críticos acabam por ser ignorados no meio de um oceano de irrelevâncias. A IA pode identificar um padrão; não pode compreender o impacto de um sistema crítico para o negócio estar offline por duas horas durante o pico de produção. Pode detetar uma anomalia de dados; não pode negociar com um diretor de produção a decisão de insular um segmento da rede, para investigação. A IA não substitui a competência humana; exige-a. Paradoxalmente, quanto mais sofisticada a tecnologia, mais especializada precisa de ser a equipa que a opera. O desafio para os líderesA IA transformou definitivamente o panorama da Cibersegurança, mas não de forma linear. Cada avanço defensivo é rapidamente espelhado do lado ofensivo. A diferença da correta adoção destas ferramentas continuará a ser a qualidade da implementação, a competência das equipas e a maturidade dos processos. Os seus problemas de falta de recursos humanos, processos mal definidos ou uma cultura de segurança inexistente não vão ser resolvidos pela IA. A IA é um amplificador. Vai amplificar uma boa estratégia, processos robustos e uma equipa competente. Mas também vai amplificar o caos, a ineficiência e a confusão de uma organização impreparada.
Conteúdo co-produzido pela MediaNext e pela Claranet Portugal |