News
A Kela revela que o uso de ferramentas maliciosas de IA por cibercriminosos aumentou 200% em 2024, destacando a rápida evolução das táticas no cibercrime
27/03/2025
|
O Relatório de Ameaças de IA de 2025 da Kela revela um crescimento alarmante no uso de Inteligência Artificial (IA) por cibercriminosos, com ênfase na proliferação de ferramentas maliciosas alimentadas por IA. Em 2024, as menções a essas ferramentas nos fóruns de cibercrimes dispararam 200%, um reflexo da crescente utilização da tecnologia para práticas ilícitas. O documento destaca que os criminosos têm adotado rapidamente novos métodos, como jailbreaks de IA, para contornar as restrições de sistemas públicos de IA, criando um novo paradigma de ameaças. O relatório aponta que a evolução das táticas de ataque está centrada no uso de grandes modelos de linguagem (LLM) como ChatGPT, Gemini e Claude. Esses agentes estão a aproveitar os sistemas para melhorar operações criminosas, contornando as salvaguardas de IA e desenvolvendo métodos para automatizar atividades como phishing e criação de malware. O aumento de 52% nas discussões sobre jailbreak em fóruns de cibercrimes em 2024 é uma clara evidência dessa mudança. Além disso, o estudo da Kela destaca a rápida disseminação das chamadas ferramentas de “Dark AI”, como WormGPT e FraudGPT, que são vendidas e distribuídas por cibercriminosos para facilitar a execução de atividades como fraudes e ataques de phishing, com a IA a desempenhar um papel fundamental na automação dessas operações. A combinação de ferramentas maliciosas com IA permite aos atacantes realizar campanhas mais eficazes e difíceis de detetar. Outro dado preocupante do relatório é o impacto das tecnologias deepfake em campanhas de phishing. Utilizadas para criar falsos vídeos e áudios de executivos, essas tecnologias geradas por IA estão a ser cada vez mais utilizadas para induzir vítimas a realizar transações fraudulentas. Com o cenário de ciberameaças a tornar-se mais complexo, a Kela alerta as organizações sobre a necessidade de adotar defesas orientadas por IA. A empresa recomenda que as organizações implementem medidas de segurança avançadas, como monitorização contínua das táticas em evolução e treino constante de funcionários, para se manterem à frente dessa nova onda de ciberataques alimentados por IA. Yael Kishon, AI Product & Research Lead da Kela, ressalta a urgência da adaptação: “as organizações devem adotar defesas orientadas por IA para combater essa ameaça crescente”. |