Charles Oppenheimer assinou uma carta aberta pedindo a adoção de medidas contra os perigos da crise climática e da IA
Charles Oppenheimer, neto do físico americano J. Robert Oppenheimer, é um dos nomes que assinaram uma carta aberta pedindo que os líderes mundiais tomem medidas contra os perigos crescentes da crise climática, pandemias, armas nucleares e inteligência artificial. A mensagem pede a criação de uma estratégia de visão de longo prazo para combater os problemas citados.
Ainda de acordo com o documento, é necessário “determinação para resolver problemas intratáveis, não apenas gerenciá-los”. A carta ainda cita sabedoria para tomar decisões com base em evidências científicas e na razão, e a humildade para ouvir todos os afetados.
Os signatários pediram uma ação multilateral urgente, incluindo o financiamento da transição para longe dos combustíveis fósseis, a assinatura de um tratado pandêmico equitativo, a retomada das negociações sobre armas nucleares e a construção da governança global necessária para tornar a IA uma força para o bem.
A carta foi divulgada nesta quinta-feira (15) pela The Elders, uma organização não governamental que foi criada pelo ex-presidente sul-africano Nelson Mandela para abordar questões globais de direitos humanos e defender a paz mundial.
A mensagem também é apoiada pelo Future of Life Institute, uma organização sem fins lucrativos que visa orientar tecnologias transformadoras como a IA para beneficiar a vida e afastar riscos em grande escala. As informações são da CNBC.
Futuro da IA gera temores
- O documento foi divulgado antes da Conferência de Segurança de Munique, realizada desta sexta-feira (16) até domingo (18).
- Na oportunidade, líderes internacionais discutirão a segurança global em meio à escalada dos conflitos armados como as guerras entre Rússia e Ucrânia e Israel e Hamas.
- No ano passado, o Future of Life Institute também divulgou uma carta aberta apoiada por figuras importantes, incluindo o bilionário Elon Musk e o cofundador da Apple, Steve Wozniak.
- Nela, havia um pedido para fossem suspensos os trabalhos de treinamento de modelos de IA mais poderosos do que o GPT-4.
- A justificativa era evitar uma “perda de controle” da civilização, o que poderia resultar em uma eliminação em massa de empregos.
Por Alessandro Di Lorenzo, editado por Bruno Capozzi