Analysis
O NIST publicou um novo guia, desta vez dedicado a ataques de adversarial machine learning, mas alerta que não existe uma ‘bala de prata’
09/01/2024
O NIST publicou um novo guia, intitulado “Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations” que cobre tanto o papel da Inteligência Artificial (IA) preditiva como generativa. Enquanto a IA generativa se foca na criação de novo conteúdo, a IA preditiva foca-se na utilização de dados históricos para prever situações futuras. O relatório alerta que não existe uma ‘bala de prata’ para este tipo de ameaças. Adversarial machine learning conta com a extração de informação sobre características e comportamentos de sistemas de machine learning e manipula os inputs para obter um resultado desejado. O NIST tem publicado vários guias sobre vários ataques que podem atacar os sistemas de inteligência artificial, alertando, ao mesmo tempo, os developers e utilizadores de que, atualmente, não há um método infalível que proteja estes sistemas. O sumário executivo do relatório afirma que “o espectro de ataques eficazes contra machine learning é amplo, evolui rapidamente e abrange todas as fases do ciclo de vida de machine learning – desde a conceção e implementação até à formação, testes e, finalmente, à implementação no mundo real. A natureza e o poder destes ataques são diferentes e podem explorar não apenas as vulnerabilidades dos modelos de machine learning, mas também as fraquezas da infraestrutura em que os sistemas de IA são implementados”. |