iTech
Nova AI Security Suite responde às limitações das abordagens tradicionais, oferecendo visibilidade, governação e proteção ao longo de todo o ciclo de vida de aplicações, modelos e agentes de IA
29/01/2026
|
A Zscaler apresentou um conjunto de novas capacidades de segurança concebidas para apoiar as empresas na adoção segura e escalável de Inteligência Artificial (IA). A iniciativa surge numa fase em que a generalização da IA generativa e a preparação para modelos de IA com agência estão a expor limitações estruturais das abordagens tradicionais de cibersegurança, aumentando o risco de ataques e de perda de dados. Segundo a empresa, muitas organizações continuam sem uma visão completa das aplicações e serviços de IA em utilização — incluindo ferramentas de IA generativa, ambientes de desenvolvimento, IA incorporada em aplicações SaaS, modelos, agentes e a própria infraestrutura subjacente. Esta falta de visibilidade dificulta a avaliação do risco, o controlo do acesso aos dados e a aplicação consistente de políticas de segurança, sobretudo num cenário em que o tráfego de IA recorre a novos protocolos e padrões não humanos que escapam aos controlos convencionais. Os dados do ThreatLabz 2026 AI Security Report, divulgado em paralelo, ilustram a dimensão do desafio: de acordo com a Zscaler, a maioria dos sistemas empresariais de IA pode ser comprometida em apenas 16 minutos, tendo sido identificadas falhas críticas em 100% dos ambientes analisados. A nova Zscaler AI Security Suite procura eliminar o trade-off entre inovação e risco, oferecendo um mapeamento completo do ecossistema de IA das organizações. A solução agrega descoberta de ativos, relações de acesso, linhagem de dados, comportamento em tempo de execução e postura de segurança, permitindo às empresas avançar mais rapidamente com projetos de IA sem perder controlo nem capacidade de governação. “A IA está a mudar a forma como as empresas operam, mas as abordagens tradicionais de segurança não foram desenhadas para proteger IA”, afirma Jay Chaudhry, CEO, Chairman e fundador da Zscaler. Para o responsável, os líderes empresariais procuram soluções integradas e não mais produtos pontuais. “Na Zscaler, estamos a fornecer a segurança necessária para que os líderes avancem com confiança e abracem todo o espectro da IA. Não estamos apenas a proteger a era da IA; estamos a acelerá-la”. A empresa estrutura a sua proposta em torno de três casos de uso críticos. O primeiro é a gestão de ativos de IA, que oferece às equipas de CISO, IT e governação um inventário abrangente de aplicações, modelos, agentes e infraestrutura, ajudando a identificar shadow AI, compreender que dados estão a ser utilizados e priorizar riscos. O segundo foca-se no acesso seguro à IA, permitindo ativar serviços autorizados com princípios de Zero Trust, inspeção em linha e classificação de prompts, reduzindo riscos sem comprometer a produtividade. O terceiro eixo centra-se na proteção da infraestrutura e das aplicações de IA ao longo de todo o ciclo de vida, desde o desenvolvimento até à execução, com AI red teaming automatizado, reforço de prompts, runtime guardrails e avaliação contínua da postura de risco. Para Zeus Kerravala, Principal Analyst da ZK Research, o problema é estrutural. “A indústria está a enfrentar um enorme défice de visibilidade porque o tráfego de IA não se comporta como o tráfego web tradicional”, explica. “É mais rápido, não humano e utiliza protocolos que a maioria das stacks de segurança simplesmente não consegue ver. O que está em causa não é apenas mais uma ferramenta, mas a transição para um modelo Zero Trust que compreenda o contexto de uma conversa de IA. Sem este nível de inspeção profunda e guardrails automatizados, as empresas estão essencialmente a avançar às cegas para a maior transição tecnológica das nossas vidas”. Para além da vertente técnica, a Zscaler sublinha a importância da governação e da conformidade regulatória. A plataforma passa a apoiar explicitamente o alinhamento com frameworks como o NIST AI Risk Management Framework e o EU AI Act, complementado por reporting ao nível da gestão de topo sobre a utilização de IA generativa. |