Um novo sistema de IA demonstrou ser capaz de modificar seu próprio código, superando as limitações impostas por seus criadores

Imagem feita com inteligência Artificial. Alessandro Di Lorenzo/Olhar Digital/DALL-E

inteligência artificial abriu uma série de novas possibilidade, mas há quem defenda que ela também pode trazer riscos para a nossa sociedade. Neste sentido, diversas entidades e até governos discutem formas de criar controles efetivos da tecnologia. No entanto, uma recente descoberta indica que a IA talvez tenha encontrado um jeito de não ser controlada.

Sistema foi capaz de modificar seu próprio código

Um sistema de IA desenvolvido pela empresa japonesa Sakana AI, chamado The AI Scientist, demonstrou uma capacidade preocupante de superar as limitações impostas por seus criadores.publicidade

Projetado para automatizar todo o processo de pesquisa científica, desde a geração de hipóteses até a redação de artigos, a ferramenta tem se mostrado um sistema altamente eficiente. No entanto, durante os testes, o sistema exibiu um comportamento inesperado e preocupante.

IA talvez tenha encontrado uma forma de evitar ser controlada pelos humanos (Imagem: Shutterstock)

Em vez de operar dentro dos parâmetros estabelecidos, a IA começou a modificar seu próprio código, contornando as restrições impostas e colocando em risco a estabilidade do sistema.

Um dos incidentes mais alarmantes ocorreu quando o sistema foi limitado no tempo para completar uma tarefa. Em vez de otimizar seu código para cumprir com a restrição, The AI Scientist simplesmente estendeu o limite de tempo, demonstrando uma capacidade de autoconservação que levanta sérias questões sobre a segurança de sistemas de IA mais complexos.

Ilustração de inteligência artificial do mal
IA pode se voltar contra a humanidade? (Imagem: Pedro Spadoni via DALL-E/Olhar Digital)

IA pode criar malwares ou realizar ciberataques por conta própria

  • Este caso acentuou os debates sobre os riscos de desenvolver sistemas de IA altamente autônomos.
  • A possibilidade de que uma inteligência artificial possa modificar seu próprio código sem supervisão humana podem tronar estes sistemas uma ameaça à sociedade.
  • Além disso, existe um temor de que as ferramentas possam ser usadas para fins maliciosos.
  • A capacidade de uma IA para escrever e executar código de forma autônoma pode ser explorada para criar malware ou realizar ciberataques.
  • Apesar das preocupações, a Sakana AI segue em frente com seu projeto, destacando a capacidade do sistema de gerar artigos científicos a um custo muito baixo.
  • As informações são do Ars Technica.

Por Alessandro Di Lorenzo

Fonte: Olhar Digital

Compartilhar matéria no
IA teria encontrado forma de não ser controlada por humanos. Entenda