Analysis

NIST publica guia para ataques de adversarial machine learning

O NIST publicou um novo guia, desta vez dedicado a ataques de adversarial machine learning, mas alerta que não existe uma ‘bala de prata’

09/01/2024

NIST publica guia para ataques de adversarial machine learning

O NIST publicou um novo guia, intitulado “Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations” que cobre tanto o papel da Inteligência Artificial (IA) preditiva como generativa. Enquanto a IA generativa se foca na criação de novo conteúdo, a IA preditiva foca-se na utilização de dados históricos para prever situações futuras.

O relatório alerta que não existe uma ‘bala de prata’ para este tipo de ameaças. Adversarial machine learning conta com a extração de informação sobre características e comportamentos de sistemas de machine learning e manipula os inputs para obter um resultado desejado.

O NIST tem publicado vários guias sobre vários ataques que podem atacar os sistemas de inteligência artificial, alertando, ao mesmo tempo, os developers e utilizadores de que, atualmente, não há um método infalível que proteja estes sistemas.

O sumário executivo do relatório afirma que “o espectro de ataques eficazes contra machine learning é amplo, evolui rapidamente e abrange todas as fases do ciclo de vida de machine learning – desde a conceção e implementação até à formação, testes e, finalmente, à implementação no mundo real. A natureza e o poder destes ataques são diferentes e podem explorar não apenas as vulnerabilidades dos modelos de machine learning, mas também as fraquezas da infraestrutura em que os sistemas de IA são implementados”.


NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT SECURITY Nº17 Abril 2024

IT SECURITY Nº17 Abril 2024

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.