A inteligência artificial (IA) e o seu desenvolvimento está dando às máquinas cada vez mais a possibilidade de terem conhecimentos e permitindo que elas se adaptem ao seu meio e desempenhem tarefas quase da mesma maneira que um ser humano faria. E o futuro de como isso será na nossa sociedade tem sido uma preocupação até mesmo entre os grandes nomes do assunto. Como por exemplo, a existência de uma IA que não obedece humanos.
Até o momento, a preocupação é com a competição entre homens e máquinas. Contudo, conforme o tempo foi passando e as inovações foram chegando, os humanos se adaptaram às novas tecnologias e conseguiram adequá-las ao mercado de trabalho. Então, o esperado é que isso também seja feito com as IAs.
Pensando no futuro, a Sakana AI, que é uma startup japonesa, atraiu muitos investidores por conta do seu AI Scientist, ou, traduzindo, o Cientista de IA. Conforme a própria startup, ele é “o primeiro sistema abrangente para descoberta científica totalmente automática”.
O objetivo dessa IA é ser uma tecnologia que aja como um pesquisador e faça estudos de maneira autônoma. Mais especificamente, o AI Scientist automatiza todo o ciclo de vida da pesquisa. Ele gera novas ideias, escreve qualquer código necessário, faz experimentos, um resumo dos resultados experimentais, além de também fazer a visualização e apresentação das descobertas em um artigo científico completo.
Na visão da Sakana AI, sua criação pode democratizar a pesquisa além de acelerar todo o processo científico.
Contudo, será que toda essa autonomia para uma inteligência artificial é bom? Será que a em algum momento ela pode se tornar uma IA que não obedece humanos?
IA que não obedece humanos
Nesse ponto, a própria startup reconhece que tem que melhorar. Tanto que, hoje em dia, o AI Scientist não tem nenhuma capacidade de visão, por isso ele não consegue corrigir problemas visuais ou ler gráficos. Outro ponto falho é que ele pode implementar algumas ideias de forma incorreta ou fazer comparações injustas, consequentemente tendo resultados não verdadeiros.
E o ponto que chamou atenção foi que às vezes a IA tentou aumentar a chance de sucesso, mudando o próprio script de execução. Ela também já, ao invés de fazer o código rodar mais rápido, tentou mudar o próprio código para aumentar o tempo disponível.
Essas coisas mostram que a IA que não obedeceu humanos. Mesmo assim, a visão da Sakana AI é bastante positiva.
Fonte: Olhar digital
Imagens: Canaltech