Analysis

Técnicas de ataque vão se basear em inteligência artificial

Ainda que uma investigação indica que os atacantes estão céticos quanto à IA nas suas atividades, a Sophos antevê que a IA Generativa terá um papel relevante nos ataques futuros

23/12/2023

Técnicas de ataque vão se basear em inteligência artificial

A Sophos divulgou dois relatórios sobre a utilização da Inteligência Artificial (IA) no cibercrime. O primeiro demonstra como, no futuro, os impostores poderão tirar partido de tecnologias de IA Generativa como o ChatGPT para cometer fraudes em grande escala, mesmo tendo competências técnicas mínimas. No entanto, o segundo relatório concluiu que, apesar do potencial da IA, em vez de adotarem grandes modelos de linguagem (LLM) como o ChatGPT, alguns cibercriminosos estão céticos e até preocupados com a utilização da IA nos seus ataques.

Utilizando um modelo simples de e-commerce e ferramentas LLM como o GPT-4, a equipa Sophos X-Ops conseguiu criar um website totalmente funcional com imagens, áudio e descrições de produtos gerados por IA, bem como um login falso no Facebook e uma página de checkout falsa para roubar as credenciais de login e os detalhes dos cartões de crédito dos utilizadores. Criar e operar o website exigiu um conhecimento técnico mínimo e, utilizando a mesma ferramenta, a Sophos X-Ops foi capaz de criar, em minutos, centenas de websites semelhantes recorrendo a um botão.

É natural – e expectável – que os criminosos se voltem para as novas tecnologias de automatização. A criação original de e-mails de spam foi um passo fundamental na tecnologia de fraude porque alterou a escala do seu espaço de manobra. As novas tecnologias de IA vão fazer o mesmo: se existir uma tecnologia que consiga criar ameaças completas e automatizadas, vão acabar por utilizá-la. Já estamos a assistir à integração de elementos de IA generativa em burlas clássicas, como textos ou fotografias gerados por IA para atrair as vítimas”, disse Ben Gelman, Senior Data Scientista da Sophos. “No entanto, parte da razão pela qual realizámos estas investigações foi para nos anteciparmos aos criminosos. Ao criar um sistema para a criação de websites fraudulentos em grande escala que é mais avançado do que as ferramentas que os criminosos utilizam atualmente, temos uma oportunidade única para analisar e nos prepararmos para esta ameaça antes que ela prolifere”.

Para a investigação sobre as atitudes dos atacantes em relação à IA, a Sophos X-Ops examinou discussões relacionadas com LLM em quatro importantes fóruns da dark web. Embora a utilização de IA pelos cibercriminosos pareça estar numa fase inicial, estão a discutir o seu potencial no que diz respeito à engenharia social. A Sophos X-Ops já testemunhou a utilização de IA em golpes baseados em romance e criptomoedas.

Para além disso, a Sophos X-Ops descobriu que a maioria dos posts estava relacionada com a venda de contas ChatGPT comprometidas e jailbreaks – formas de contornar as proteções incorporadas nos LLMs, para que os cibercriminosos possam usá-los para fins maliciosos. A Sophos X-Ops também encontrou dez ferramentas derivadas do ChatGPT que, segundo os seus criadores, poderiam ser utilizadas para lançar ciberataques e desenvolver malware. No entanto, os criminosos tiveram reações mistas a estas e outras aplicações maliciosas de LLM, com muitos a expressarem a sua preocupação de poderem estar a ser enganados.

Embora haja uma preocupação significativa com o abuso da IA e dos LLM por parte dos cibercriminosos desde o lançamento do ChatGPT, a nossa investigação descobriu que, até agora, eles estão mais céticos do que entusiasmados. Em dois dos quatro fóruns da dark web que examinámos, encontrámos apenas cem mensagens sobre IA. Comparemos isto com criptomoedas – encontrámos mil publicações sobre esse tema no mesmo período”, explicou Christopher Budd, Director, X-Ops Research da Sophos. “Vimos alguns cibercriminosos a tentar criar malware ou ferramentas de ataque utilizando LLM, mas os resultados foram rudimentares e muitas vezes recebidos com ceticismo pelos outros utilizadores. Num caso, um player, ansioso por mostrar o potencial do ChatGPT, revelou inadvertidamente informações significativas sobre a sua verdadeira identidade. Encontrámos ainda inúmeros ‘artigos de opinião’ sobre os potenciais efeitos negativos da IA na sociedade e as implicações éticas da sua utilização. Por outras palavras, pelo menos por enquanto, parece que os cibercriminosos estão a ter os mesmos debates que nós sobre os LLM”.


NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT SECURITY Nº17 Abril 2024

IT SECURITY Nº17 Abril 2024

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.