Nesta terça-feira (2), a Autoridade Nacional de Proteção de Dados (ANPD) determinou uma medida preventiva contra a Meta, empresa proprietária do Instagram, Facebook e WhatsApp, suspendendo imediatamente o uso de dados de usuários brasileiros para o treinamento de modelos de inteligência artificial generativa.
A decisão foi motivada pelo risco iminente de dano grave e irreparável ou de difícil reparação aos direitos fundamentais dos titulares afetados, e prevê uma multa de R$ 50 mil por dia de descumprimento.
Desde maio deste ano, a Meta tem utilizado publicações de usuários no Facebook e Instagram para treinar suas IAs, conforme alteração em sua política de privacidade. No entanto, essa mudança não foi amplamente divulgada no Brasil, onde a empresa possui 113,5 milhões de usuários ativos no Instagram e 102 milhões no Facebook.
“Somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos”, declarou a Meta. Apesar disso, a página da política de privacidade que trata do uso de dados para IA continua disponível, assim como o formulário para que os usuários possam se opor à prática.
A ANPD justificou a medida preventiva apontando indícios de tratamento de dados pessoais com base em hipótese legal inadequada, falta de transparência, limitação aos direitos dos titulares e riscos para crianças e adolescentes.
A Meta poderá recorrer ao conselho diretor da ANPD para tentar reverter a decisão. Enquanto isso, a área técnica da agência reguladora continuará a analisar detalhadamente as práticas da empresa para uma decisão definitiva.
A Autoridade de Proteção de Dados destacou que, embora os usuários pudessem teoricamente se opor ao tratamento de dados, havia obstáculos excessivos e não justificados para o acesso às informações e ao exercício desse direito. Por exemplo, no Instagram, o acesso ao formulário para interromper o uso de dados pessoais exigia navegar por cinco páginas de configurações.
A avaliação preliminar também indicou que dados pessoais de crianças e adolescentes poderiam estar sendo coletados e utilizados sem as salvaguardas exigidas pela Lei Geral de Proteção de Dados (LGPD). O tratamento de dados de crianças e adolescentes deve ser sempre realizado em seu melhor interesse, com a adoção de salvaguardas e medidas de mitigação de risco, o que não foi verificado.
Rafael Zanatta, diretor da associação Data Privacy Brasil, considera a decisão da ANPD um marco importante, sendo a primeira medida preventiva contra uma gigante da tecnologia. A ação foi em resposta a um questionamento do Instituto de Defesa do Consumidor (Idec) sobre a política de privacidade da Meta. Para o Idec, a conduta da Meta viola a LGPD e o Código de Defesa do Consumidor (CDC).
Recentemente, a Meta adiou o lançamento de seu pacote de IA, Meta AI, na União Europeia após pedidos de mais informações do regulador europeu sobre o tratamento de dados para IA. No entanto, a política de mineração de fotos de usuários brasileiros continuou.
Nos Estados Unidos, onde não há legislação de proteção de dados, usuários reclamaram de negativas da Meta ao pedido de oposição ao uso de dados pessoais para IA, segundo o New York Times.
Para evitar que seus dados sejam utilizados pela Meta no treinamento de IA, siga os passos abaixo:
- Acesse seu perfil no Instagram e vá até a seção de configurações.
- Clique na opção sobre, localizada no fim da página.
- Selecione a política de privacidade e, na nova página, acesse o centro de privacidade.
- Clique na seta ao lado de outras políticas e artigos e selecione Como a Meta usa informações para recursos e modelos de IA generativa.
- No décimo nono parágrafo, clique na opção direito de se opor.
- Preencha e envie o formulário. A Meta confirmará a identidade com um código enviado ao email cadastrado. A confirmação do opt-out pode levar alguns minutos.