Compliance
Reguladores da União Europeia investigam sobre o PaLM2 por possíveis violações de privacidade. A investigação tem como objetivo avaliar os riscos associados ao processamento de informações pessoais dos cidadãos europeus
12/09/2024
A Comissão de Proteção de Dados da Irlanda anunciou, esta quinta-feira, a abertura de uma investigação sobre o Pathways Language Model 2 (PaLM2), dada a preocupação sobre a sua conformidade com as regras de proteção de dados da União Europeia O PaLM2, um dos principais modelos de Inteligência Artificial (IA) da Google, é utilizado em diversos serviços de IA generativa da empresa, incluindo a funcionalidade de resumo de e-mails. A investigação, lançada com base no Regulamento Geral de Proteção de Dados, procura determinar se a Google avaliou corretamente os riscos potenciais que o processamento de dados pessoais pelo PaLM2 pode causar aos cidadãos europeus. O órgão regulador irlandês, que atua como principal autoridade de supervisão para a Google na União Europeia, está focado em verificar se o modelo representa um "alto risco para os direitos e liberdades dos indivíduos". Esta ação é parte de um esforço mais amplo dos reguladores europeus para fiscalizar o uso de dados pessoais em modelos de linguagem, como o PaLM2, que dependem de grandes quantidades de informações para teste e operação. Até ao momento, a Google não se pronunciou sobre a investigação. Recentemente, outras gigantes da tecnologia também enfrentaram pressão regulatória. A plataforma X (antigo Twitter), de Elon Musk, foi obrigada a interromper o processamento de dados dos utilizadores para o chatbot de IA, após intervenção legal do órgão irlandês. Já a Meta Platforms desistiu de usar dados de utilizadores europeus para treinar o modelo de linguagem. Recorde-se que a crescente preocupação com a privacidade de dados também resultou na suspensão temporária do ChatGPT na Itália, no ano passado, até que a OpenAI cumprisse exigências para mitigar os riscos à privacidade. |