À medida que as eleições presidenciais americanas de 2024 se aproximam, as preocupações sobre a possível interferência da inteligência artificial (IA) levaram a OpenAI a tomar medidas proativas. A empresa, conhecida por seu papel influente no desenvolvimento de IA, anunciou recentemente políticas para restringir políticos e campanhas no uso de suas ferramentas.

Essa ação faz parte de uma tendência mais ampla na indústria, onde gigantes da tecnologia lidam com o desafio de prevenir o uso indevido de conteúdo gerado por IA em cenários políticos.

Resposta à desinformação

Em resposta aos crescentes temores sobre desinformação gerada por IA afetando processos democráticos, a OpenAI estabeleceu regras rigorosas proibindo o uso de suas ferramentas de IA por entidades políticas.

Isso inclui uma proibição de criar chatbots que se passem por candidatos políticos ou autoridades governamentais, uma medida destinada a conter a disseminação de imagens falsas e desinformação gerada por computador durante o ciclo eleitoral.

Embora as políticas da OpenAI estejam alinhadas com medidas adotadas por outras plataformas de tecnologia, a eficácia dessas restrições permanece incerta. Mesmo empresas de mídia social maiores, apesar de equipes substanciais dedicadas à moderação de conteúdo, frequentemente enfrentam dificuldades para fazer cumprir suas regras.

A ausência de regulamentações federais deixa o público dependendo da credibilidade dessas empresas, enfatizando a necessidade de uma abordagem padronizada para governar o uso de IA na política.

O desafio dos deepfakes de IA

  • No âmbito dos “deepfakes“, conteúdo enganoso criado por IA generativa, diversas plataformas de big techs implementam políticas diversas.
  • Meta e YouTube, por exemplo, introduziram regras que restringem o uso de ferramentas de IA generativa em publicidade política e exigem a divulgação do envolvimento da IA.
  • Essa variedade de políticas destaca a falta de um padrão uniforme que governe o uso de IA na política.
  • Apesar de propostas para uma proibição nacional nos EUA do uso enganoso de IA em campanhas políticas, o progresso legislativo tem sido lento.
  • Esforços de campanhas individuais, como a equipe de reeleição do Presidente Joe Biden desenvolvendo um manual jurídico para combater mídia fabricada, destacam a ceticismo da indústria em relação à capacidade das plataformas de tecnologia para abordar plenamente o impacto da IA nas eleições.

OpenAI cria equipe com foco em processos democráticos

Simultaneamente, a OpenAI está tomando medidas para moldar proativamente a governança de seu software de IA. O estabelecimento da equipe “Collective Alignment” demonstra o compromisso da empresa em criar processos democráticos para governar a IA, abordando preocupações relacionadas ao viés e outros fatores.

“À medida que continuamos a buscar nossa missão em direção a modelos superinteligentes que potencialmente poderiam ser vistos como partes integrantes de nossa sociedade… é importante dar às pessoas a oportunidade de fornecerem input diretamente,” disse Tyna Eloundou, engenheira de pesquisa e membro fundador da nova equipe da OpenAI, à Reuters.

Compartilhar matéria no
OpenAI: “mãe” do ChatGPT foca em IA democrática e eleições sem fake news
Foto: T. Schneider / Shutterstock.com