• Por Ricardo Maravalhas
    À medida que a Inteligência Artificial (IA) evolui, crescem as preocupações sobre o seu impacto na sociedade.
    Embora a recente inovação como o GPT-4, um modelo de linguagem da Open-AI, capaz de aprender rapidamente e responder a inúmeras questões, seja considerada útil em diversas maneiras, os avanços da IA levantam muitas preocupações sobre seus efeitos na sociedade.
    Na semana passada, Elon Musk, CEO da Tesla, Steve Wozniak, cofundador da Apple, e outros especialistas, em mais uma tentativa de alertar sobre os avanços da IA pediram por meio de uma “carta aberta” uma pausa de 06 meses nas pesquisas sobre IA, devido aos riscos catastróficos que podem representar para a humanidade.

  • A carta
    A carta aberta intitulada “Pause Giant AI Experiments: An open letter”, que já tem quase seis mil assinaturas, tem como objetivo urgente que os laboratórios de inteligência artificial “suspendam suas pesquisas por sistemas mais poderosos que o GPT-4”, conforme destacado no cabeçalho.
    A carta alerta que “os laboratórios de IA estão em uma corrida desenfreada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”.
    Além disso, traz trechos questionando e prevendo um futuro apocalíptico: “Devemos permitir que máquinas encham nossos canais de informação com propaganda e mentiras? Devemos automatizar todos os trabalhos, inclusive aqueles satisfatórios? Devemos criar mentes não-humanas que, eventualmente, nos superem em número, inteligência, tornando-nos obsoletos e nos substituindo? Devemos arriscar perder o controle de nossa civilização?”

Qual o impacto desse pedido?
Inicialmente, pode parecer fácil apoiar a causa. No entanto, é importante refletir sobre alguns contextos envolvidos.
Embora a carta seja endossada por uma longa lista de autoridades líderes em tecnologia, como engenheiros do Google e da Meta, algumas controvérsias surgiram em torno de alguns assinantes representativos que não são consistentes com suas práticas em relação aos limites de segurança envolvendo suas tecnologias.
Por exemplo, o próprio Elon Musk demitiu sua equipe de ‘IA ética’ no ano passado, conforme relatado por muitos sites de notícias na época.
Vale ressaltar que Musk foi um dos fundadores da Open-AI e deixou a empresa em 2018, agora tem criticado duramente os avanços do ChatGPT repetidamente no Twitter.
O cofundador da Open-AI, Sam Altman, afirma que reconhece que as preocupações sobre os experimentos de AGI são legítimas e que os riscos, como a desinformação, são reais. No entanto, Altman disse que a empresa tem se preocupado com a segurança de suas tecnologias há muito tempo e que passou mais de 6 meses testando a ferramenta antes de seu lançamento.

Conclusão
De fato não é uma questão simples, uma vez que sabemos o quanto a inteligência artificial pode ter benefícios significativos em diversas áreas, como saúde, finanças e segurança.
Enquanto grandes empresas disputam entre si para lançar soluções cada vez mais avançadas no mercado, pouco se tem feito em relação à regulamentação e outros cuidados que deveriam ter sido tomados há tempos.
Não é necessário pensar em eventos catastróficos de longo prazo, como os mencionados na carta, para perceber a urgência de agir. A desinformação já tem gerado problemas graves e imediatos, o que torna ainda mais evidente a necessidade de se pensar em soluções para lidar com os riscos que o desenvolvimento da inteligência artificial pode trazer.
Talvez a questão não é se devemos ou não avançar na pesquisa de IA, mas sim como podemos fazê-lo com segurança e responsabilidade. É preciso um equilíbrio cuidadoso entre a inovação e a proteção contra riscos potenciais, para garantir que a tecnologia possa ser usada sempre para o bem da sociedade.

Ricardo Maravalhas é CEO da DPOnet

Compartilhar matéria no
Grandes nomes da tecnologia pedem pausa em projetos de IA. É um pedido pertinente? Veja opinião do CEO da DPOnet, Ricardo Maravalhas