News

NIST publica diretrizes de sobreposições de controlo para gerir segurança em sistemas de IA

A orientação pretende ajudar as organizações com vários use cases de Inteligência Artificial, auxiliando na gestão de riscos de utilização e desenvolvimento da IA

25/08/2025

NIST publica diretrizes de sobreposições de controlo para gerir segurança em sistemas de IA

O NIST anunciou recentemente um documento de conceito que estabelece diretrizes sobre como gerir os ciberriscos nas mais diversas implementações de Inteligência Artificial (IA), através do quadro de controlo NIST SP 800-53.

Depois do lançamento de um portfólio de diretrizes para a implementação de IA segura, e no âmbito do envolvimento contínuo de stakeholders de IA e cibersegurança, o NIST pretende, assim, continuar a fornecer diretrizes adicionais para melhorar a cibersegurança e proteger os sistemas de IA.

Lançado no passado dia 14 de agosto, o novo documento de conceito é composto por diretrizes focadas na implementação de diferentes sistemas de IA, componentes específicas e use cases. O objetivo passa por estruturar uma biblioteca de camadas à qual as organizações podem recorrer, individualmente ou combinadas, para gerir de forma mais eficaz os riscos de cibersegurança na utilização e desenvolvimento de IA. As camadas são concebidas para abordar riscos específicos sobre diferentes tipos de utilização de IA, em conjunto com o programa de gestão de riscos de cibersegurança da organização e a implementação de controlos existentes.

De acordo com o NIST, as sobreposições vão centrar-se na proteção da confidencialidade, integridade e disponibilidade da informação para cada use case, através do quadro de controlo NIST SP 800-53.

A iniciativa pretende alertar para a crescente necessidade de abordagens estruturadas de gestão de risco no desenvolvimento e implementação de sistemas de IA, quer seja em sistemas de IA generativa que criam conteúdo; em modelos de IA preditiva para previsões; ou em arquiteturas de IA multi-agente.

As organizações que avançarem com a implementação destas sobreposições vão necessitar também de mecanismos de monitorização contínua do comportamento dos sistemas de IA, assim como controlos de acesso para ambientes de desenvolvimento de IA.

Em simultâneo com o Control Overlays for AI Project, o NIST anunciou também a criação de um canal dedicado no Slack para recolher feedback e facilitar a colaboração com a comunidade interessada.


NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT SECURITY Nº29 ABRIL 2026

IT SECURITY Nº29 ABRIL 2026

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.