Inscreva-se na lista e receba noticias, tutoriais e mais
Após meses de investigação, desde a suspensão do ChatGPT na Itália, temos mais um capítulo dessa novela
Para quem não lembra, o ChatGPT havia sido suspenso na Itália em abril do ano passado.
Após meses de investigação, a autoridade italiana de proteção de dados indicou que a OpenAI é de fato suspeita de violar as leis de proteção de dados da União Européia.
Em comunidade divulgado no dia 29 de janeiro, a DPA indica que notificou a OpenAI, dando 30 dias para comunicar seus argumentos de defesa sobre as violações denunciadas. No caso de “condenação”, a empresa pode ser multada em até 20 milhões de euros ou até 4% do faturamente global anual.
O problema é que não se trata apenas de uma multa pesada, as autoridades podem ordenar mudanças em como os dados são processados de modo a adequar as leis. Como não é tão simples re-treinar ou mudar o funcionamento de um modelo de linguagem, o mais provável é que o serviço do ChatGPT seja suspenso de alguns países da União Européia que concordem com a análise da autoridade italiana.
O problema principal é a falta de base legal para processar dados pessoais no treinamento dos modelos utilizados pelo ChatGPT.
Ou seja, quando a empresa vasculhou dados na internet e os utilizou para treinar os seus modelos, segungo a lei de proteção de dados da união européia, a GDPR, a empresa precisaria ter duas coisas muito importantes para a GDPR: consentimento ou legítimo interesse.
Como obter o consentimento de milhões de usuários da internet?
Impossível.
A outra opção é alegar que há o legítimo interesse. O problema é que nesse caso os usuários poderão se opor ao uso dos dados e pedir que os seus dados sejam retirados dos modelos. Algo complexo para a arquitetura tecnológica que o ChatGPT e similares usam.
A empresa se manifestou em resposta dizendo que colabora com as autoridade e que está tomando medidas para proteger os dados pessoais.
Veja o comunidado traduzido:
Acreditamos que as nossas práticas estão alinhadas com o GDPR e outras leis de privacidade e tomamos medidas adicionais para proteger os dados e a privacidade das pessoas. Queremos que a nossa IA aprenda sobre o mundo, não sobre indivíduos. Trabalhamos ativamente para reduzir os dados pessoais no treinamento de nossos sistemas como o ChatGPT, que também rejeita solicitações de informações privadas ou confidenciais sobre pessoas. Pretendemos continuar a trabalhar de forma construtiva com o Garante.
Essa situação demonstra os grandes desafios que as companhias de IA ainda vão enfrentar para se adequar as leis de proteções de dados da União Européia.
No final do ano o Parlamento Europeu chegou a um acordo sobre o AI ACT, banindo o uso de Inteligência Artificial em algumas aplicações e definindo exceções.
Nos EUA , o U.S. Federal Trade Commission abriu uma investigação sobre o uso de IA generativa pelas bigtechs e como isso pode trazer uma competição desleal no setor.
Muita coisa ainda vai acontecer ao longo desse ano e novas empresas vão lançar serviços similares ao ChatGPT, a questão é como serão impactadas pelas crescentes preocupações com privacidade e outras ameaças que essas tecnologias podem gerar.
Para mais informações, siga @aprendadatascience