A inteligência artificial só pode ser “combatida” por mais inteligência artificial? Ou será que a partilha pode ter um papel (finalmente) determinante?

A inteligência artificial só pode ser “combatida” por mais inteligência artificial? Ou será que a partilha pode ter um papel (finalmente) determinante?

A inteligência artificial transformou, nos últimos dois anos, a forma como executamos várias tarefas na nossa vida profissional, seja na preparação de uma apresentação, na pesquisa por uma fórmula mais complexa em Excel ou na definição de um comando no portal de um cloud provider

Aplicada à CiberSegurança a Inteligência Artificial tem inúmeros casos de uso que há longos anos nos têm vindo a ser apresentados, nomeadamente desde que vários vendedores de soluções começaram a anunciar (e alguns deles mesmo a implementar) a introdução de mecanismos de Machine Learning para nos auxiliar em várias tarefas de deteção de padrões, por exemplo, em sistemas de anti-malware ou na deteção de tentativas de intrusão.

Obviamente que falar dos primeiros tempos do Machine Learning e comparar com estas novas tecnologias baseadas em LLM e IA Generativa pode ser considerado algo arriscado pela diferença de capacidades e acessibilidade a estas novas tecnologias, mas é importante fazer este contexto histórico para ser mais simples percebermos que aquilo que vamos enfrentar nos próximos tempos não se assemelha a nada que estejamos habituados. A Inteligência Artificial generativa, e não só, dos tempos atuais rapidamente se tornou um ator crucial no cenário da cibersegurança, tanto na defesa como para o ataque, nas organizações. A interseção entre IA e cibersegurança promete revolucionar a forma como as organizações protegem os seus ativos digitais e respondem a ciber-ameaças em constante evolução.

Em termos de defesa, a IA está a ser utilizada para fortalecer as capacidades de deteção, prevenção e resposta a ciber-ameaças. Os sistemas de deteção de intrusão baseados em IA podem analisar grandes volumes de dados em tempo real para identificar padrões anômalos e atividades suspeitas na rede. Essa capacidade de deteção precoce permite que as organizações respondam rapidamente a potenciais violações de segurança, mitigando danos e minimizando o tempo de inatividade. Esta, agora descrita, é apenas uma das muitas aplicações que a atual IA nos disponibiliza para respondermos a muitas das ameaças e riscos que continuam a proliferar e que, naturalmente, continuarão a crescer, até porque os agentes maliciosos também têm acesso, de forma muito simples e virtualmente sem custos, a esta nova tecnologia da IA Generativa para a realização das suas atividades ilícitas e, muitas delas, criminosas.

E é esta vertente, do ataque, que atualmente mais nos preocupa e que está na base deste texto. Aliás, falar em Inteligência Artificial nos tempos que correm certamente nos levariam a inúmeros deste tipo de textos se quiséssemos abordar as várias capacidades e decisões que estes novos modelos nos obrigam e irão continuar a obrigar de forma bastante efetiva nos próximos tempos, até que outra tecnologia tão disruptiva como esta apareça. Infeliz, ou felizmente (porque os conhecimentos das situações também nos ajudam a estarmos melhor preparados), já são muitos os exemplos de como agentes maliciosos usam novas técnicas de machine learning para criar malware e phishing personalizados, capazes de evadir sistemas de segurança tradicionais e enganar até mesmo os utilizadores mais atentos e conhecedores. Também já são conhecidas situações onde a IA foi utilizada para automatizar ataques de força bruta, explorando vulnerabilidades em sistemas de segurança mais fracos. Um exemplo preocupante é o uso de deepfakes, para difundir desinformação e executar inúmeros ataques de engenharia social. Os cibercriminosos já criam vídeos falsos de executivos de empresas solicitando transferências de dinheiro ou divulgando informações confidenciais, levando a perdas financeiras significativas e danos à reputação da organização. Sabendo que muitas organizações já estão a desenvolver e/ou a implementar soluções de segurança baseadas nos mesmos modelos de IA utilizados por estes agentes maliciosos, para detetarem este tipo de ataques tão sofisticados e elaborados, não deixa de ser evidente para muitos que continuamos a ter aquele desconforto de que, façamos o que fizermos, estaremos sempre um passo atrás em termos de utilização destas novas tecnologias para a defesa em comparação como as mesmas são utilizadas para realização de ataques.

E falar deste desconforto é sempre muito complicado para os vários responsáveis de segurança das nossas organizações, não porque não tenham os conhecimentos, capacidades humanas e os recursos financeiros disponíveis para implementarem mecanismos de defesa, mas porque existe sempre algum nível de dúvida sobre o nível de partilha que se pode esperar dos nossos pares nas outras organizações. Contudo, tenho a profunda convicção de que nunca estivemos em tão boas condições para beneficiarmos seriamente de uma partilha honesta, transparente e completa, já que os atuais modelos de IA beneficiam largamente dos dados que conseguem utilizar para alimentar os algoritmos de aprendizagem e, dessa forma, inferirem informações sobre ciber-ameaças recentes que outras organizações enfrentaram, permitindo que os novos modelos de IA identifiquem padrões e tendências emergentes no cenário de ameaças, melhorando assim sua capacidade de deteção e respostas de maneira mais eficaz. Assegurar esta partilha certamente ajudará todas as organizações a identificar vulnerabilidades comuns e tendências de ataque que podem afetar várias partes. Ao analisar esses dados em conjunto, as organizações podem desenvolver medidas preventivas mais robustas para mitigar ameaças antes que elas se tornem uma questão crítica.

Obviamente que a partilha deste tipo de informações deverá sempre ser executada da maneira mais segura e responsável para proteção da privacidade e da confidencialidade dos dados envolvidos, e para isso deverão ser definidos modelos de governo nas nossas organizações tanto para o uso dos dados, como para a utilização da IA e do seu cruzamento, para o benefício de todos os envolvidos nesta "guerra" pelo uso de modelos de IA para nos protegermos contra ataques que usam os modelos de IA. Agora que penso nisto, onde será que já vimos este enredo nas salas de cinemas?

Carlos Silva

Carlos Silva

Diretor de Segurança e Proteção de Dados
Banco CTT

Engenheiro Informático formado no IST, com mestrado em Segurança da Informação pela CMU e FCUL, tem ainda um MBA pelo LisbonMBA, trabalha na área da segurança desde 2002, com um percurso tecnológico na Portugal Telecom e na S21sec. Esteve 4 anos e meio a liderar práticas de cibersegurança em duas consultoras e, desde finais de 2021, é o Diretor de Segurança e Proteção de Dados no Banco CTT

Outros artigos deste autor


REVISTA DIGITAL

IT SECURITY Nº17 Abril 2024

IT SECURITY Nº17 Abril 2024

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.