Pesquisar
Close this search box.
conteúdo patrocinado

OpenAI adota medidas contra deepfake nas eleições 2024

OpenAI adota medidas contra deepfake nas eleições 2024
(Foto: Sanket Mishra/Pexels).

Com a aproximação das eleições de 2024 e mais de 50 países em votação, também surge a preocupação com o uso de deepfake e da inteligência artificial na criação de fake news contra os candidatos. Por isso, a OpenAI, criadora do ChatGPT, adotou uma postura proativa para evitar abusos durante esse período. A empresa, conhecida por seu compromisso com a segurança, publicou um artigo detalhando seu plano para diminuir riscos. Essa estratégia inclui prevenir o abuso da tecnologia, promover a transparência de conteúdos gerados por IA e garantir acesso a informações credíveis sobre sistemas de votação.

O documento da OpenAI destaca três focos principais para suas ações durante as eleições: a prevenção de abusos, a garantia de transparência sobre conteúdos criados pela IA, e o fomento ao acesso a informações fidedignas sobre os sistemas eleitorais.

No que se refere a esta última iniciativa, a OpenAI revela sua colaboração com a Associação Nacional de Secretários de Estado dos EUA e a divulgação do site CanIVote.org. Embora não mencione parcerias em outros países, a empresa expressou à Folha seu interesse em expandir globalmente. Dessa forma, planeja aplicar os conhecimentos adquiridos na campanha americana a contextos internacionais variados, levando em conta as eleições presidenciais dos EUA em novembro e as brasileiras em outubro.

conteúdo patrocinado
conteúdo patrocinado
conteúdo patrocinado

Adicionalmente, a OpenAI enfatiza seu compromisso em prevenir a criação de deepfakes. Para isso, adota medidas como a proibição de replicar imagens de pessoas reais, incluindo candidatos políticos. Além disso, se esforça para assegurar que seus sistemas de IA respeitem as diretrizes estabelecidas durante o treinamento dos modelos.

Google e redes sociais também se antecipam à regulamentação

Enquanto isso, o Google, outra gigante da tecnologia, afirma ter uma abordagem responsável no desenvolvimento da IA, focando tanto nas oportunidades quanto nos riscos. A empresa ressalta suas políticas contra a confusão dos eleitores e a interferência no processo democrático, incluindo o uso de mídia manipulada.

As redes sociais também estão atentas a esta questão. Elas criaram regras para garantir a transparência dos usuários quanto ao uso de tecnologias de IA. Isso mostra uma tendência crescente de preocupação com a integridade eleitoral no ambiente digital.

Postura de outras empresas sugere riscos

Por outro lado, empresas como Midjourney e Stability AI, notáveis por seus modelos de IA geradores de imagens, ainda não anunciaram estratégias específicas para as eleições de 2024. O Midjourney proíbe o uso de sua tecnologia para manipular processos eleitorais, mas não detalhou como isso será garantido. A Stability AI, responsável pelo modelo Stable Diffusion, destacou a neutralidade das tecnologias sob a legislação americana, mas reconheceu que o abuso dos recursos de IA pode levar a acusações criminais.

Essas iniciativas ocorrem em um contexto onde não há um arcabouço regulatório global sobre IA. Embora a Europa tenha feito progressos com um acordo sobre regulação, ainda falta sua promulgação. No Brasil, as medidas são válidas, mas focam principalmente nas eleições norte-americanas. A OpenAI pretende adaptar os aprendizados da campanha americana para outras regiões, refletindo um esforço para lidar com a complexidade global desse desafio.

Receba as últimas notícias do Economic News Brasil no seu WhatsApp e esteja sempre atualizado! Basta acessar o nosso canal: CLIQUE AQUI!

conteúdo patrocinado

MAIS LIDAS

conteúdo patrocinado
conteúdo patrocinado