Opinion
Não é propriamente uma novidade, mas o mais recente relatório de Riscos e Conflitos do Centro Nacional de Cibersegurança (CNCS) confirma isso mesmo: “a criminalidade informática no ciberespaço de interesse nacional aumentou em 2023”
Por Rui Damião . 22/07/2024
Ransomware, phishing e smishing, assim como outras formas de engenharia social, burlas online e comprometimento de contas são, segundo o mesmo relatório, as principais ameaças às organizações portuguesas. Diz o CNCS que “ocorreram menos incidentes com elevada visibilidade”, mas que “a atividade maliciosa foi intensa e com efeitos negativos em serviços e infraestruturas digitais”. O Centro Nacional de Cibersegurança salienta, também, ataques de engenharia social mais elaboradas, como CEO Fraud e chamadas telefónicas fraudulentas, algumas com spoofing do número de telefone. Este é um tema que terá tendência a aumentar. Com o advento das soluções de Inteligência Artificial (IA), quem anda na área percebe que esta será apenas a ponta do icebergue e que o problema será maior nos próximos anos. À medida que as soluções de IA vão sendo melhoradas, a probabilidade de serem utilizadas para fazer deep fakes de pessoas chave dentro das organizações também vai aumentar. Vídeos, áudio, fotografias e texto falsos, criados com recurso a inteligência artificial, já existem e vão continuar a existir; abriu-se a caixa de pandora e dificilmente se volta a fechar. Ainda que possam existir utilizações legítimas de deep fakes, a verdade é que estão e vão colocar as organizações em risco de exploração e de fraude, criando uma ameaça significativa para as tecnologias de autenticação. Assim, o que é que se pode fazer? A formação é um bom primeiro passo. É preciso explicar aos colaboradores que esta é uma ameaça real, que alguém se pode fazer passar por um CEO ou um CFO através de uma chamada telefónica a exigir a transferência de algum montante avultado, por exemplo. Deste modo, é preciso educar os colaboradores, enquanto se melhoram as estratégias de proteção das organizações para incorporar deep fakes no treino de resposta a incidentes. |