Ontem (29), a Autoridade Nacional de Proteção de Dados (ANPD) instaurou um procedimento de fiscalização contra a rede social X (anteriormente conhecida como Twitter), devido ao uso de dados dos usuários para treinar seu sistema de inteligência artificial generativa, Grok. Elon Musk, proprietário da rede, tem planos de competir com o ChatGPT por meio dessa nova ferramenta.
Dados pessoais como ‘combustível’ para IA: entenda a reação da ANPD
A utilização de dados pelos usuários foi implementada de forma discreta, apenas com uma atualização na página de configurações de privacidade, onde os usuários podem permitir ou não o uso de suas postagens e interações para o treinamento da IA. Essa opção vem ativada por padrão, e os usuários que não desejam ter seus dados coletados devem desativar manualmente.
Em resposta a esta prática, a ANPD enviou um ofício ao X pedindo esclarecimentos sobre a mudança na política de privacidade. A autoridade busca entender se houve violação das normas de proteção de dados ao utilizar informações dos usuários sem um consentimento claro e explícito.
Precedentes e comparações com outras big techs
Essa situação remete a um caso similar envolvendo a Meta, empresa dona do WhatsApp, Facebook e Instagram, que foi impedida pela ANPD de usar dados públicos para treinar sua IA no início de julho. A União Europeia também havia adotado uma postura semelhante. Em ambos os casos, a Meta foi obrigada a adiar o lançamento de sua IA na Europa e no Brasil devido às restrições.
A Meta expressou sua decepção com a decisão da ANPD, argumentando que “o treinamento de IA não é exclusivo de nossos serviços” e que a abordagem da empresa estava em conformidade com as leis de privacidade brasileiras. Especialistas em privacidade, como o sociólogo Sérgio Amadeu da Silveira, da Universidade Federal do ABC (UFABC), sugerem que a ANPD adote uma postura uniforme em relação a todas as grandes empresas de tecnologia, incluindo o Google, que alterou sua política de privacidade para práticas semelhantes.
Leia também:
Impacto global e reações internacionais
A falta de transparência no tratamento de dados dos usuários é uma preocupação global. Nos Estados Unidos, a OpenAI, responsável pelo ChatGPT, está enfrentando um processo na Califórnia por supostamente roubar “quantidades vastas” de informações pessoais para treinar sua IA. Na Europa, o Garantidor da Proteção de Dados Pessoais da Itália bloqueou temporariamente o ChatGPT em março, alegando que a ferramenta não respeitava a legislação de dados pessoais e não possuía um sistema para verificar usuários menores de idade. O chatbot só voltou a funcionar no país em abril, após ajustes.
Posicionamento do Idec e outros especialistas
Em nota, o Instituto de Defesa dos Consumidores (Idec) manifestou sua indignação com mais uma grande empresa de tecnologia explorando consumidores para fins econômicos. Eles criticaram a prática do X de pré-selecionar a opção de uso de dados para IA, afirmando que o consentimento deveria ser explícito, livre e informado.
O sociólogo Sérgio Amadeu destaca os riscos do tratamento e cruzamento de dados sem o conhecimento dos usuários. Ele utiliza a metáfora da radiação para explicar que dados dispersos representam pouco risco, mas, quando concentrados em grande volume, podem ser extremamente perigosos. Amadeu também alerta que o controle massivo de dados pelas grandes empresas de tecnologia levanta questões de segurança nacional, conferindo-lhes um poder de influência potencialmente perigoso sobre o comportamento dos usuários.
Como se proteger e impedir a coleta de dados pelo X
Se você deseja impedir o “roubo” de dados pessoais pelo X para treinar a IA da marca, siga os passos abaixo:
- Entre na sua conta no X pelo computador (não é possível desabilitar a opção pelo aplicativo).
- Vá à opção “Configurações”.
- Clique em “Privacidade e Segurança”.
- Selecione a opção “Grok”.
- Desabilite o “Compartilhamento de dados”.