Com a aproximação das eleições de 2024 e mais de 50 países em votação, também surge a preocupação com o uso de deepfake e da inteligência artificial na criação de fake news contra os candidatos. Por isso, a OpenAI, criadora do ChatGPT, adotou uma postura proativa para evitar abusos durante esse período. A empresa, conhecida por seu compromisso com a segurança, publicou um artigo detalhando seu plano para diminuir riscos. Essa estratégia inclui prevenir o abuso da tecnologia, promover a transparência de conteúdos gerados por IA e garantir acesso a informações credíveis sobre sistemas de votação.
O documento da OpenAI destaca três focos principais para suas ações durante as eleições: a prevenção de abusos, a garantia de transparência sobre conteúdos criados pela IA, e o fomento ao acesso a informações fidedignas sobre os sistemas eleitorais.
No que se refere a esta última iniciativa, a OpenAI revela sua colaboração com a Associação Nacional de Secretários de Estado dos EUA e a divulgação do site CanIVote.org. Embora não mencione parcerias em outros países, a empresa expressou à Folha seu interesse em expandir globalmente. Dessa forma, planeja aplicar os conhecimentos adquiridos na campanha americana a contextos internacionais variados, levando em conta as eleições presidenciais dos EUA em novembro e as brasileiras em outubro.
Adicionalmente, a OpenAI enfatiza seu compromisso em prevenir a criação de deepfakes. Para isso, adota medidas como a proibição de replicar imagens de pessoas reais, incluindo candidatos políticos. Além disso, se esforça para assegurar que seus sistemas de IA respeitem as diretrizes estabelecidas durante o treinamento dos modelos.
Google e redes sociais também se antecipam à regulamentação
Enquanto isso, o Google, outra gigante da tecnologia, afirma ter uma abordagem responsável no desenvolvimento da IA, focando tanto nas oportunidades quanto nos riscos. A empresa ressalta suas políticas contra a confusão dos eleitores e a interferência no processo democrático, incluindo o uso de mídia manipulada.
As redes sociais também estão atentas a esta questão. Elas criaram regras para garantir a transparência dos usuários quanto ao uso de tecnologias de IA. Isso mostra uma tendência crescente de preocupação com a integridade eleitoral no ambiente digital.
Postura de outras empresas sugere riscos
Por outro lado, empresas como Midjourney e Stability AI, notáveis por seus modelos de IA geradores de imagens, ainda não anunciaram estratégias específicas para as eleições de 2024. O Midjourney proíbe o uso de sua tecnologia para manipular processos eleitorais, mas não detalhou como isso será garantido. A Stability AI, responsável pelo modelo Stable Diffusion, destacou a neutralidade das tecnologias sob a legislação americana, mas reconheceu que o abuso dos recursos de IA pode levar a acusações criminais.
Essas iniciativas ocorrem em um contexto onde não há um arcabouço regulatório global sobre IA. Embora a Europa tenha feito progressos com um acordo sobre regulação, ainda falta sua promulgação. No Brasil, as medidas são válidas, mas focam principalmente nas eleições norte-americanas. A OpenAI pretende adaptar os aprendizados da campanha americana para outras regiões, refletindo um esforço para lidar com a complexidade global desse desafio.