News

Deepfakes aumentarão a desconfiança em soluções de verificação de identidade e autenticação

Segundo a Gartner, 30% das empresas vão desconfiar de soluções de verificação de identidade e autenticação até 2026 devido aos deepfakes gerados por IA

02/02/2024

Deepfakes aumentarão a desconfiança em soluções de verificação de identidade e autenticação

A Gartner prevê que, face aos crescentes ciberataques com recurso a deepfakes gerados por Inteligência Artificial (IA) na biometria facial, 30% das empresas deixarão de considerar que as soluções de verificação de identidade e autenticação são confiáveis isoladamente até 2026.

“Na última década, ocorreram vários pontos de inflexão nos campos da IA que permitem a criação de imagens sintéticas. Estas imagens geradas artificialmente de rostos de pessoas reais, conhecidas como deepfakes, podem ser usadas por atores mal-intencionados para minar a autenticação biométrica ou torná-la ineficiente”, refere Akif Khan, vice-presidente analista da Gartner. “Como resultado, as organizações podem começar a questionar a confiabilidade das soluções de verificação e autenticação de identidade, pois não serão capazes de dizer se o rosto da pessoa que está a ser verificada é uma pessoa viva ou um deepfake”.

Atualmente, os processos de verificação e autenticação de identidade que recorrem a biometria facial estão dependentes da deteção de ataque de apresentação (PAD) para avaliar a “vivacidade do utilizador”, explica a Gartner. Segundo Khan, “os padrões e processos de teste atuais para definir e avaliar os mecanismos PAD não cobrem ataques de injeção digital que usam deepfakes gerados por IA que podem ser criados hoje”.

De acordo com a investigação da Gartner, embora os ataques de apresentação sejam o vetor de ciberataque mais comum, os ataques de injeção registaram um aumento de 200% em 2023. Desta forma, a sua prevenção exige uma combinação de PAD, deteção de ataque de injeção (IAD) e inspeção de imagem, sublinha consultora.

“As organizações devem começar a definir uma baseline mínima de controlos ao trabalhar com fornecedores que investiram especificamente na mitigação das mais recentes ameaças baseadas em deepfake que usam IAD juntamente com inspeção de imagem”, recomenda Khan.

Após a definição da estratégia e da baseline, os CISO e os líderes de gestão de riscos deverão incluir sinais adicionais de risco e reconhecimento, como identificação de dispositivos e análise comportamental, de modo a garantir a deteção de ataques nos seus processos de verificação de identidade.

O mais importante, diz a Gartner, é que os líderes de segurança e gestão de riscos encarregues da gestão de identidade e acesso tomem medidas de mitigação de riscos dos ataques deepfake impulsionados pela IA. Desta forma, a consultora recomenda a seleção de tecnologias capazes de provar a presença humana genuína, assim como a adoção de medidas adicionais para evitar o controlo de contas.


NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT SECURITY Nº17 Abril 2024

IT SECURITY Nº17 Abril 2024

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.