Múltiplas operações de influência secreta que abusaram dos modelos de IA da OpenAI foram bloqueadas pela startup criadora do ChatGPT, segundo informações da companhia reveladas na última quinta-feira (30).
As operações, que a OpenAI encerrou entre 2023 e 2024, tiveram origem na Rússia, China, Irã e Israel e tentaram manipular a opinião pública e influenciar resultados políticos sem revelar as suas verdadeiras identidades ou intenções.
“Em maio de 2024, essas campanhas não parecem ter aumentado significativamente o envolvimento ou o alcance do público como resultado de nossos serviços”, disse a OpenAI em um relatório sobre a operação, e acrescentou que trabalhou com pessoas de toda a indústria de tecnologia, civis sociedade e os governos para isolar os autores das campanhas.
Preocupação sobre uso de IA para interferir nas eleições cresce
- O relatório da OpenAI surge em meio a preocupações sobre o impacto da IA generativa em múltiplas eleições em todo o mundo previstas para este ano, incluindo nos EUA.
- Nas suas descobertas, a OpenAI revelou como redes de pessoas envolvidas em operações de influência usaram IA generativa para gerar textos e imagens em volumes muito maiores do que antes.
- A operação russa, chamada “Doppelganger”, usou os modelos da empresa para gerar manchetes, converter artigos de notícias em postagens no Facebook e criar comentários em vários idiomas para minar o apoio à Ucrânia.
“Durante o último ano e meio, houve muitas questões sobre o que poderia acontecer se as operações de influência usassem IA generativa. Com este relatório, queremos realmente começar a preencher algumas lacunas.”, disse Ben Nimmo, investigador principal da equipe de Inteligência e Investigações da OpenAI, em uma coletiva de imprensa.