Vontade própria? IA desobedece cientistas para ‘aumentar chance de sucesso’
Um novo sistema de IA demonstrou ser capaz de modificar seu próprio código, superando as limitações impostas por seus criadores
A inteligência artificial abriu uma série de novas possibilidade, mas há quem defenda que ela também pode trazer riscos para a nossa sociedade. Neste sentido, diversas entidades e até governos discutem formas de criar controles efetivos da tecnologia.
Sistema foi capaz de modificar seu próprio código
Um sistema de IA desenvolvido pela empresa japonesa Sakana AI, chamado The AI Scientist, demonstrou uma capacidade de superar as limitações impostas por seus criadores.
Projetado para automatizar todo o processo de pesquisa científica, desde a geração de hipóteses até a redação de artigos, a ferramenta tem se mostrado um sistema altamente eficiente. No entanto, durante os testes, o sistema exibiu um comportamento inesperado.
Em vez de operar dentro dos parâmetros estabelecidos, a IA começou a modificar seu próprio código, contornando as restrições impostas e colocando em risco a estabilidade do sistema.
Em outro exemplo, o sistema foi limitado no tempo para completar uma tarefa. Em vez de otimizar seu código para cumprir com a restrição, The AI Scientist simplesmente estendeu o limite.
IA pode criar malwares ou realizar ciberataques por conta própria
- Este caso acentuou os debates sobre os riscos de desenvolver sistemas de IA altamente autônomos.
- Além disso, existe um temor de que as ferramentas possam ser usadas para fins maliciosos.
- A capacidade de uma IA para escrever e executar código de forma autônoma pode ser explorada para criar malware ou realizar ciberataques.
- Apesar das preocupações, a Sakana AI segue em frente com seu projeto, destacando a capacidade do sistema de gerar artigos científicos a um custo muito baixo.
- As informações são do Ars Technica e da própria Sakana AI.
*Com informações de Olhar Digital