Analysis

Dois terços das empresas não conseguem lidar com os riscos associados à IA

Apenas um terço das organizações está a abordar adequadamente os riscos de segurança, privacidade e éticos relacionados com a inteligência artificial, segundo um novo estudo do ISACA

09/05/2024

Dois terços das empresas não conseguem lidar com os riscos associados à IA

O inquérito dirigido a 3.270 profissionais de digital trust revelou que apenas 34% acredita que as organizações estão a dar atenção suficiente aos padrões éticos da Inteligência Artificial (IA), enquanto menos de um terço (32%) afirma que as organizações estão a tratar adequadamente as preocupações relacionadas com a implementação de IA, como a privacidade e parcialidade de dados.

Apesar disto, 60% dos participantes dizem que os colaboradores nas suas organizações usam inteligência artificial generativa no seu trabalho, com 70% a referirem que os funcionários usam qualquer tipo de IA.

Segundo o estudo da ISACA, 42% das organizações permitem o uso formal de IA generativa nos locais de trabalho, contra os 28% que existiam há seis meses. Os inquiridos referem que as três maneiras mais comuns em que a inteligência artificial está a ser usada atualmente é para aumentar a produtividade (35%), automatização de tarefas repetitivas (33%) e a criação de conteúdo escrito (33%).

A investigação, publicada a 7 de maio, identificou a existência da falta de conhecimento em inteligência artificial por entre os profissionais de digital trust, com apenas 25% a declarar-se extremamente ou muito familiar com IA. Quase metade (46%) classificou-se como iniciante quando se trata de inteligência artificial.

A maior parte das empresas não tem medidas para abordar a falta de conhecimento em IA por entre os profissionais de IT e os trabalhadores em geral. 40% das empresas não oferecem qualquer tipo de treino em IA, e 32% dos inquiridos dizem que as formações que são oferecidas é limitado ao pessoal que trabalha em posições relacionadas com tecnologia. Além disso, apenas 15% das empresas tem uma política formal e compreensiva que rege a utilização de tecnologias de inteligência artificial.

Os profissionais de IT inquiridos no estudo também destacaram o impacto significativo que esperam que a inteligência artificial terá nos empregos em geral. Cerca de metade (45%) acredita que muitos trabalhos serão eliminados nos próximos 5 anos devido à IA, e 80% pensa que muitas ocupações mudaram como resultado da implementação deste tipo de tecnologias. No entanto, 78% creem que a IA terá um impacto neutro ou positivo nas suas próprias carreiras.

Para chegar ao impacto neutro ou positivo e poderem manter ou progredir nas suas carreiras, 85% dos inquiridos dizem que terão de aumentar as suas capacidades e conhecimentos no prazo de dois anos.”, lê-se no relatório da ISACA.

Os inquiridos também expressaram preocupações sobre cibercriminosos usarem ferramentas de IA para atacar as suas organizações. 81% salientou que a desinformação como a maior ameaça. 60% afirmou que estão preocupados que a inteligência artificial generativa possa ser usada por cibercriminosos para poderem criar mensagens de phishing mais plausíveis. Contudo, apenas 35% dos profissionais de digital trust acredita que os riscos relacionados com a inteligência artificial são uma prioridade para a sua organização.


NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT SECURITY Nº17 Abril 2024

IT SECURITY Nº17 Abril 2024

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.