Opinion
O tema unificador da cibersegurança tem sido, por demasiado tempo, sobretudo uma narrativa de contenção. Descreve-se uma luta assimétrica, uma defesa entrincheirada, reagindo a ameaças num perímetro digital cada vez mais poroso
Por Henrique Carreiro . 21/07/2025
|
É a doutrina do muro, do fosso e do alarme — uma estratégia que, embora necessária, consome recursos vastíssimos e coloca o defensor num estado de perpétua desvantagem. Perante este cenário, uma questão fundamental impõe-se: e se o paradigma defensivo estiver, na sua génese, incompleto? E se à contenção se pudesse sobrepor a antecipação? Um desvio conceptual significativo começa a tomar forma, materializado em projetos que redefinem a própria natureza da defesa. O mais notável é talvez o Big Sleep, desenvolvido em colaboração pela DeepMind e pelo Project Zero da Google, um agente de Inteligência Artificial que personifica esta nova filosofia. Não se trata de um vigilante passivo, mas de um caçador digital, um sentinela proativo. A sua função não é esperar por um ataque, mas procurar ativamente as fragilidades que o poderiam permitir. A sua recente descoberta de uma vulnerabilidade em SQLite (CVE-2025-6965), antecipando a sua exploração por atores hostis, não é apenas uma vitória técnica. É a prova de conceito de que é possível virar o tabuleiro do jogo e impor um novo ritmo ao adversário. E esta não é uma descoberta de somenos importância. O SQLite é uma ferramenta silenciosa, mas usada por milhões de utilizadores, e omnipresente, por exemplo, nas aplicações para smartphones. O seu código, produzido por um grupo restrito de colaboradores e sujeito a um dos mais intensivos escrutínios do mundo do software, parecia uma fortaleza quase inexpugnável. Que tenha sido um agente a descobrir uma vulnerabilidade perante tais circunstâncias, é um sinal inequívoco do potencial transformador da segurança assente em agentes. O corolário direto desta evolução é uma revalorização do analista humano, impulsionada pela introdução de agentes de IA em plataformas como o Timesketch — uma ferramenta de código aberto também desenvolvida pela Google que promete automatizar o trabalho de análise forense mais exaustivo. Delega-se à máquina a análise de força bruta sobre volumes de dados massivos, o "ruído" constante da atividade digital, libertando a cognição humana para a tarefa em que é insubstituível: a dedução estratégica, a interpretação de contextos subtis e a intuição. Assiste-se, assim, a uma transição do analista-operário, afogado em alertas, para o analista-estratega, cuja atenção se foca exclusivamente no "sinal" de uma ameaça complexa. A IA torna-se um amplificador da inteligência humana. Seria, contudo, uma ingenuidade celebrar este avanço sem um profundo sentido de responsabilidade. A potência destas ferramentas exige um ecossistema de governação robusto e transparente, onde a sua autonomia seja balizada por princípios de secure-by-design e por uma supervisão humana inequívoca. Este ecossistema, por sua vez, edifica-se sobre o alicerce da colaboração entre a indústria, a academia e o setor público. Iniciativas como a Coalition for Secure AI (CoSAI) são a prova deste movimento, e a decisão da Google em ceder dados do seu Secure AI Framework (SAIF) para acelerar o trabalho do consórcio é um exemplo tangível do seu potencial. Este esforço conjunto não é um mero apêndice, mas a condição sine qua non para gerar a confiança sobre a qual esta nova era de segurança deve assentar. Em última análise, o que testemunhamos é a passagem de uma cibersegurança de reação para uma de antecipação. Estamos a dotar o nosso ecossistema digital não apenas de escudos mais resistentes, mas de um sistema imunitário inteligente e preditivo. A questão crítica que se nos coloca já não é se conseguimos construir estes novos guardiões, mas se teremos a maturidade e a sabedoria para os integrar de forma segura e eficaz na nossa sociedade digital. |