(Imagem: greenbutterfly/Shutterstock)

Existem três grandes riscos quando se mistura IA, armas e guerra, segundo equipe de pesquisadores da Universidade Harvard; entenda

Não é de hoje que se desenvolve armas com algum grau de autonomia. Mas uma nova era da guerra começou ao incorporar inteligência artificial (IA) ao design das armas. E isso ameaça o progresso científico. É o que diz uma equipe de pesquisadores de Harvard.

A líder da equipe é Kanaka Rajan, professora de neurobiologia no Instituto Blavatnik da faculdade de Medicina de Harvard. Para Kanaka, armas com IA (drones e robôs, por exemplo) serão cada vez mais usadas. E ela se preocupa com como isso pode levar à instabilidade geopolítica e afetar pesquisa de IA não-militar.

Armas com IA podem impactar guerras, pesquisas e consciência, alertam pesquisadores de Harvard
Rajan, juntamente aos pesquisadores de neurobiologia Riley Simmons-Edler e Ryan Badman; e ao doutorando do MIT Shayne Longpre, delineiam preocupações e um caminho a seguir num artigo publicado e apresentado na Conferência Internacional sobre Aprendizado de Máquina de 2024.

(Imagem: greenbutterfly/Shutterstock)

Em entrevista ao Harvard Medicine News, Rajan explicou quais os três maiores riscos que ela e sua equipe enxergam quando os assuntos são IA e armas. Confira abaixo:

Facilitar que países se envolvam em conflitos
Um grande fator que impede as nações de iniciar guerras é a morte de soldados – custo humano para seus cidadãos que pode criar consequências domésticas para os líderes.

Muito do desenvolvimento atual de armas com IA visa tirar soldados humanos do perigo, o que por si só é algo bom de se fazer. Mas se poucos soldados morrem em ofensivas, enfraquece a associação entre atos de guerra e custo humano. Resultado: fica politicamente mais fácil iniciar guerras – o que, por sua vez, pode levar a mais morte e destruição no geral.

Assim, grandes problemas geopolíticos poderiam emergir rapidamente conforme as corridas armamentistas alimentadas por IA se intensificam e essa tecnologia se prolifera ainda mais.

Pesquisa científica não-militar sobre IA pode ser censurada ou cooptada

Avanço da IA no campo militar pode complicar seu desenvolvimento em outros, como o da saúde (Imagem: Thitisan/Shutterstock)

Podemos olhar para a história de campos acadêmicos como física nuclear e engenharia de foguetes. À medida que esses campos ganharam importância para a defesa de países durante a Guerra Fria, os pesquisadores enfrentaram restrições de viagem, censura de publicações e a necessidade de autorizações de segurança para realizar trabalhos básicos.

À medida que a tecnologia autônoma com IA se torna central para o planejamento de defesa nacional em todo o mundo, poderíamos ver restrições semelhantes impostas à pesquisa de IA não-militar, o que prejudicaria a pesquisa básica de IA, aplicações civis valiosas em saúde e pesquisa científica e colaboração internacional.

Se as armas com IA se tornarem centrais para a defesa nacional, podemos ver grandes tentativas de cooptar os esforços dos pesquisadores de IA em instituições de ensino/pesquisa e na indústria para trabalhar nessas armas ou desenvolver mais projetos de “uso duplo”.

IA pode aliviar consciência de militares
Aqui, o raciocínio é simples: militares podem usar a tecnologia autônoma alimentada por IA para reduzir ou desviar a responsabilidade humana na tomada de decisões.

Por Pedro Spadoni / Fonte: Olhar Digital

Compartilhar matéria no
Colocar IA em armas é perigoso? Especialistas de Harvard respondem
(Imagem: greenbutterfly/Shutterstock)