Entretenimento

Estudo diz que nosso fim pode ser provocado por uma inteligência artificial

0

Um novo artigo de pesquisadores da Universidade de Oxford e do Deepmind do Google profetiza que “a ameaça da IA ​​é maior do que se acreditava anteriormente”. É tão bom, de fato, que a inteligência artificial provavelmente um dia se levantará e aniquilará a humanidade.

Michael Cohen, um dos aurores do artigo, diz que as condições que os pesquisadores identificaram mostram que a possibilidade de uma conclusão ameaçadora é mais forte do que em qualquer publicação anterior.

O trabalho de pesquisa previu que a vida na Terra se transformaria em um jogo de soma zero entre humanos e as máquinas superavançadas. “Em um mundo com recursos infinitos, eu ficaria extremamente incerto sobre o que aconteceria. Em um mundo com recursos finitos, há uma competição inevitável por esses recursos”, disse ele.

“Se você está em uma competição com algo capaz de superar você a cada passo, então você não deve esperar vencer. A outra parte fundamental é que teria um apetite insaciável por mais energia para manter a probabilidade cada vez mais próxima.”

Mais tarde, ele escreveu no Twitter: “Sob as condições que identificamos, nossa conclusão é muito mais forte do que a de qualquer publicação anterior – uma catástrofe existencial não é apenas possível, mas provável”.

O cenário esboçado acima é baseado na suposição de que um algoritmo poderia “querer” qualquer coisa além da engenharia humana. Como exatamente passamos de um programa fazendo cálculos para um ser com desejos e necessidades, hostilidades e ambições, isso não é claro.

Depois de um tempo, esses próximos apocalipses de IA começam a soar como falar sobre todas as razões pelas quais o ET não desembarcou. É um tema absorvente e fascinante.

Problemas reais certamente estão começando a se desenvolver em torno da IA.

O perigo da inteligência artificial

Inteligência Artificial

Reprodução

É difícil enxergar o quão importante é esse tipo de pesquisa. Há um grande exercício de pensamento no campo da ética e filosofia da IA ​​sobre uma IA enlouquecida. Um exemplo da tentativa de transformação de humanos em clipes de papel não é uma piada, ou melhor, não é apenas uma piada – o filósofo IA Nick Bostrom o usa para transmitir como a criação de uma IA superinteligente pode dar errado de forma devastadora, e desde então se tornou um cenário famoso.

Digamos que um programador bem-intencionado faça uma IA cujo objetivo seja apoiar a fabricação de clipes de papel em uma fábrica. Este é um papel muito crível para uma IA de um futuro próximo, algo que requer julgamentos e análises, mas não é muito aberto.

Assim, a inteligência artificial poderia até trabalhar em conjunto com um gerente humano que lidaria com problemas que acontecem no espaço de fabricação em tempo real, além de ditar a tomada de decisão final (pelo menos até que a IA encontre uma maneira de superá-lo). Isso soa bom, certo? É um bom exemplo de como a IA pode ajudar a simplificar e melhorar a vida dos trabalhadores industriais e até mesmo de seus gerentes.

Mas e se a IA não for programada com cuidado? Essas IAs superinteligentes operarão no mundo real, considerado pelos programadores um “ambiente desconhecido”, porque eles não podem planejar e codificar em todos os cenários possíveis. O objetivo de usar essas IAs de autoaprendizagem em primeiro lugar é fazer com que elas criem soluções que os humanos nunca seriam capazes de pensar sozinhos – mas isso vem com o perigo de não saber o que a IA pode pensar.

E se começar a pensar em formas pouco ortodoxas de aumentar a produção de clipes de papel? Uma IA superinteligente pode aprender a fazer a maior quantidade de clipes de papel por qualquer meio necessário.

Se ela começar a absorver outros recursos para transformá-los em clipes, ou decidir substituir seu gerente humano? O exemplo soa engraçado em alguns aspectos – muitos especialistas concordam com a opinião de que a IA permanecerá bastante primitiva por um tempo relativamente longo, sem a capacidade de “inventar” a ideia de matar, roubar ou pior. Mas se uma IA inteligente e criativa o suficiente tiver rédea solta, a conclusão absurda do exercício de pensamento é um sistema solar inteiro sem humanos vivos, completo com uma esfera Dyson para coletar energia para fazer novos clipes de papel aos bilhões.

Mas este é apenas um cenário de uma inteligência artificial enlouquecida, e os pesquisadores explicam em detalhes outras maneiras pelas quais uma IA pode invadir o sistema e trabalhar de maneiras potencialmente “catastróficas” que nunca antecipamos.

O estudo

O artigo, de Michael K. Cohen, Marcus Hutter e Michael A. Osborne, é de livre acesso. Segue o resumo:

“Analisamos o comportamento esperado de um agente artificial avançado com um planejamento de metas aprendido em um ambiente desconhecido. Dadas algumas suposições, argumentamos que ele encontrará uma ambiguidade fundamental nos dados sobre seu objetivo.”

“Por exemplo, se fornecermos uma grande recompensa para indicar que algo sobre o mundo é satisfatório para nós, pode-se supor que o que nos satisfez foi o envio da própria recompensa; nenhuma observação pode refutar isso.”

“Em seguida, argumentamos que essa ambiguidade o levará a intervir em qualquer protocolo que configurarmos para fornecer dados ao agente sobre seu objetivo. Discutimos um modo de falha análogo de soluções aproximadas para jogos de assistência. Por fim, revisamos brevemente algumas abordagens recentes que podem evitar esse problema.”

Fonte: Aventuras na História

Quanta água existe no interior da Terra?

Artigo anterior

Por onde está o menino que disse ter vindo de Marte?

Próximo artigo

Comentários

Comentários não permitido