Opinion

Quando a IA invade a IA, as vítimas continuam a ser pessoas

Durante décadas, a cibersegurança baseou-se no axioma de que os utilizadores são humanos

Por Jorge Monteiro, CEO da Ethiack . 01/04/2026

Quando a IA invade a IA, as vítimas continuam a ser pessoas

Contudo, com a crescente adoção de IA nos ambientes empresariais, sobretudo para  automatizar processos e aumentar a eficiência, surgiram novos “utilizadores”, agentes de IA com acesso direto a plataformas, APIs, ferramentas SaaS e fluxos operacionais. 

O problema é que estes agentes de IA alteram profundamente o modelo de identidade e confiança nos sistemas. Eles vêm mudar por completo a definição do que é um utilizador.

É que, anteriormente, os cibercriminosos procuravam enganar pessoas, através de emails de phishing, malware ou simplesmente erro humano, para roubar credenciais e obter acessos de forma indevida. Agora, a coisa tornou-se bastante mais complexa. Na verdade, para um hacker hostil poder ganhar o controlo de um sistema de IA, já não precisa de invadir a privacidade de uma pessoa. 

Mais preocupante ainda é que, provavelmente, a captura de um agente de IA por um ator ameaçador poderá passar despercebida. Isto deve-se ao facto de a sabedoria convencional, de que os utilizadores são humanos, ter levado muitos sistemas de autenticação e deteção de fraudes a basear-se, apenas, no comportamento habitual das pessoas. Ou seja, quando é detetada uma atividade que se desvia do padrão 'normal', os alertas são disparados e as equipas de segurança investigam. Esta monitorização de segurança depende da análise comportamental, por exemplo, assinalando locais de login invulgares, horários de trabalho estranhos ou atividades inconsistentes com o histórico do utilizador.

Mas os agentes de IA minam estas suposições, porque um sistema de IA capturado pode operar continuamente e à velocidade da máquina, processando milhares de ações por hora. No entanto, prompts maliciosos, fontes de dados envenenadas ou plataformas de terceiros comprometidas podem levar o agente a causar danos enormes enquanto continua a operar dentro dos seus parâmetros autorizados. E do ponto de vista da verificação de identidade e dos registos de auditoria, tudo parecerá rotineiro. É por isso que a linha da frente da cibersegurança está a assistir a uma corrida armamentista de IA sem precedentes.

Um relatório de 2025 do Centro Nacional de Cibersegurança do Reino Unido concluiu que todos os tipos de atores de ameaças cibernéticas, estatais e não estatais, qualificados e menos qualificados, utilizam rotineiramente ferramentas de IA e para penetrar sistemas informáticos.

No entanto, os modelos de segurança existentes não abordam totalmente esta ameaça. As arquiteturas Zero Trust verificam a identidade e a integridade do dispositivo, mas um agente de IA comprometido irá passar rapidamente por essas verificações se se autenticar corretamente e usar contas aprovadas.

Assim, o que é preciso observar não é a autenticação, mas sim a autoridade de uma ação e se essa ação deveria ter sido realizada por um ator não humano, o que implica que as organizações precisam de adaptar os seus controlos de segurança para um futuro nativo da IA. Os agentes de IA devem ser tratados como identidades privilegiadas, mas com permissões mínimas. Por exemplo, ações críticas como pagamentos, alterações de fornecedores ou permissões de acesso devem ainda exigir um sistema de validação humano.

Por outro lado, a monitorização de segurança deve focar-se no que o agente faz e não apenas se está corretamente “logado”. As integrações entre sistemas devem ser isoladas e as organizações devem ser capazes de auditar porque é que uma decisão automática ocorreu e não apenas registar que ocorreu. Trata-se de uma grande transformação que vai obrigar as equipas de cibersegurança a verificar intenções fraudulentas em vez de detetar a intrusão.

Na prática, a segurança sempre foi uma questão de confiança e essa premissa mantém-se com os agentes de IA, com a agravante de que estes agentes estão a transferir a linha da frente da cibersegurança do muro exterior da organização para o seu núcleo operacional. 

O ponto crítico e de equilíbrio neste jogo do gato-e-do-rato, está na capacidade de sabermos usar a IA para nos mantermos um passo à frente dos atacantes que utilizam IA, ou seja, com a capacidade de identificarmos precocemente vulnerabilidades nos próprios sistemas de IA e corrigi-las rapidamente.

Porque no fim de contas, se algo correr mal o impacto vai sempre parar às pessoas.


RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT SECURITY Nº29 ABRIL 2026

IT SECURITY Nº29 ABRIL 2026

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.