Curiosidades

Cálculos sugerem que será impossível controlar uma IA superinteligente

0

A inteligência artificial (IA) e o seu desenvolvimento está dando às máquinas cada vez mais a possibilidade de terem conhecimentos e permitindo que elas se adaptem ao seu meio e desempenhem tarefas quase da mesma maneira que um ser humano faria. E o futuro de como isso será na nossa sociedade tem sido uma preocupação até mesmo entre os grandes nomes do assunto.

Tanto é que, de acordo com um estudo feito pelos cientistas do Instituto Max-Planck para o Desenvolvimento Humano, na Alemanha, os seres humanos podem não conseguir controlar uma IA de alto nível. O estudo considerou que para conseguir controlar uma IA super inteligente, teria que se fazer uma simulação dela. Mas como ela ainda não pode ser compreendida, é impossível que essa simulação seja feita.

IA super inteligente

LinkedIn

De acordo com os autores, regras como a de “não causar danos aos humanos” não podem ser estabelecidas e implementadas se os cientistas não compreenderem qual é o cenário que a IA pode apresentar no futuro. E se o sistema de computador estiver funcionando um nível acima do que os programadores compreendem, não será possível que limites sejam estabelecidos.

“Uma superinteligência apresenta um problema diferente daqueles estudados sob a bandeira da ‘ética robótica’. Isso ocorre porque uma superinteligência é multifacetada e, portanto, capaz de mobilizar uma diversidade de recursos para atingir objetivos potencialmente incompreensíveis para os humanos. Por isso são muito menos controláveis”, escreveram os pesquisadores.

Uma parte desse raciocínio veio da “problemática da parada” que o matemático britânico Alan Turing apresentou em 1936. O ponto que ela prega é saber se um programa de computador irá ou não chegar a uma conclusão, ou seja, irá parar, ou se ele ficará em um looping eterno procurando uma resposta.

O que fazer?

IHU

Mesmo que em casos específicos seja possível saber a resposta, é logicamente impossível que se encontre uma forma em que os cientistas saibam hoje a resposta para cada programa que possa ser feito no futuro. Já no caso da IA, qualquer programa que seja escrito para impedir que ela prejudique os humanos pode chegar a uma conclusão e parar ou não. Ou seja, é impossível ter uma certeza absoluta.

Por conta disso, de acordo com os pesquisadores, uma alternativa para ensinar alguma ética para a IA e falar para ela não destruir o mundo é limitar suas capacidades. Isso pode ser feito através de cortes de conexão com determinadas redes com a internet.

Mesmo assim, o estudo rejeitou essa ideia e pontuou que se isso fosse feito iria limitar o alcance da IA. Eles argumentaram que se a IA não for usada para solucionar problemas que os humanos não conseguem, qual o motivo de ela ser criada?

“Uma máquina superinteligente que controla o mundo soa como ficção científica. Mas já existem máquinas que realizam tarefas importantes de forma independente, sem que os programadores entendam totalmente como elas aprenderam. Surge, portanto, a questão de saber se isso pode, em algum momento, se tornar incontrolável e perigoso para a humanidade”, disse Manuel Cebrian, do Instituto Max-Planck para o Desenvolvimento Humano, em Berlim, e coautor do estudo.

Cuidados

Cryptoid

Todo o desenvolvimento das IA’s tem deixado vários especialistas no assunto bem preocupados. Na visão de Paul Christiano, um veterano na OpenAI, o caminho que está sendo percorrido pode levar a uma chance de 50/50 de acontecer uma catástrofe, na qual a maior parte dos humanos pode acabar morta. Ele pontua que existe sim uma chance razoável de que a inteligência artificial se erga, bem no estilo Exterminador do Futuro, e acabe governando e, dependendo, arruinando todos os humanos.

“Acho que talvez exista algo como uma chance de 10 a 20 por cento de uma tomada de poder pela IA, [com] muitos [ou] a maioria dos humanos mortos. No geral, talvez estejamos falando de uma chance de 50/50 de catástrofe logo após termos sistemas no nível humano”, disse ele no podcast Bankless.

E por que a visão dele tem que ser levada em consideração? Porque por muito tempo Christiano era o chefe da equipe de alinhamento de modelos de linguagem na OpenAI. Ou seja, as previsões dele não são alarmistas apenas para chocar as pessoas.

Atualmente, ele está comandando uma organização sem fins lucrativos chamada Centro de Pesquisa de Alinhamento. O objetivo deles é garantir que os sistemas de IA sejam amigáveis e que eles tenham em mente os interesses humanos.

Fonte: Época negócios,  Mistérios do mundo

Imagens: LinkedIn, IHU, Cryptoid

Entenda o fenômeno: pesquisa liderada por brasileiros desvenda por que o amendoim se mexe na cerveja

Artigo anterior

Não perca o fenômeno astronômico: os destinos imperdíveis no Brasil para observar o próximo eclipse solar

Próximo artigo

Comentários

Comentários não permitido