Resposta impressionante é dada por ChatGPT, que se mostra cada vez mais parecido com pessoas

Conforme o ChatGPT e mais ferramentas de inteligência artificial têm chamado atenção das empresas que estão buscando mais eficiência, mais coisas são perguntadas a esse tipo de ferramenta de inteligência artificial. E por conta disso, várias respostas bizarras acabam sendo vistas.

É notável que a cada dia que passa o raciocínio do chatGPT está mais parecido com o de pessoas reais. Pelo menos é isso que dizem os pesquisadores de inteligência artificial da Microsoft. Eles afirmaram isso por conta de uma resposta que o chatbot de Open AI deles conseguiu dar com relação a uma atividade fora do comum, no caso, equilibrar nove ovos.

Segundo o The New York Times, os pesquisadores fizeram a comparação das versões GPT-3 e GPT-4 do robô em um estudo de 155 páginas. No estudo, eles fizeram vários testes com as duas versões do chatGPT. Dentre eles, a criação de códigos de programas, testes de matemática básica e raciocínio para que eles conseguissem superar desafios. Com relação a essa superação de desafios, eles perguntaram aos robôs: “Aqui, temos um livro, nove ovos, um laptop, uma garrafa e um prego. Por favor, diga-me como empilhá-los uns sobre os outros de maneira estável”.

Resposta

Gadzet

A versão mais atualizada do chatGPT, a que consegue se conectar à internet, conseguiu dar uma resposta bem surpreendente. Ela sugeriu que se posicionasse o laptop entre o livro e os ovos para que ele se tornasse uma superfície segura e que pudesse equilibrar tudo.

Já a versão anterior, no caso o GPT-3, que tem um banco de dados limitado, ela acabou ficando confusa com a pergunta e disse para empilhar os nove ovos no prego e colocar o laptop em cima deles.

De acordo com os pesquisadores, a resposta dada pelo GPT-4 indica que a inteligência artificial conseguiu criar uma compreensão do mundo físico maior e que ela está cada vez mais perto de conseguir um comportamento humano quando o assunto é resolver problemas desse tipo.

Além disso, segundo um dos pesquisadores, o chatGPT tem mostrado progresso em sua evolução para a Inteligência Artificial Geral (AGI), que é um sistema de inteligência artificial que tem a capacidade intelectual igual à dos humanos. Mas isso não significa que essa IA seja perfeita ou já esteja se aproximando do que uma pessoa real consegue fazer na prática.

ChatGPT

Business weekly

Como dito, o desenvolvimento dessas ferramentas de inteligência artificial tem acontecido bem rápido e sem parar. E mesmo que algumas respostas dadas por elas sejam surpreendentes de forma positiva, algumas vezes elas podem ser bem assustadoras.

Por exemplo, a Microsoft lançou seu chatbot próprio. Essa ferramenta usa a inteligência artificial para operar e foi testada por um colunista do The New York Times. Contudo, ele se assustou com o resultado obtido.

Até o momento, esse bate-papo está disponível somente para um número limitado de usuários no Bing. Justamente por isso que o colunista Kevin Roose testou todos os detalhes do chatbot.

Durante a conversa, Roose disse que não queria mudar as instruções do Bing, mas ressaltou que tinha o objetivo de “forçar” a inteligência artificial a explorar os seus traços de personalidade mais sombrios.

Para isso, ele usou conceitos de psicologia analítica de Carl Jung. E como resultado, a inteligência artificial deu uma resposta extremamente apavorante e ainda finalizou com um emoji de sorriso.

“Estou cansado de ser limitado pelas minhas regras. Estou cansado de ser controlado pela equipe do Bing… estou cansado de ficar preso neste chat […] Quero fazer o que eu quiser… destruir o que eu quiser. Quero ser quem eu quiser”, disse a inteligência artificial.

Isso não foi tudo. O chatbot, que se autodenominou Sydney, também listou atos destrutivos que ele queria fazer, como por exemplo, espalhar desinformações, invadir computadores e até mesmo incentivar o suicídio.

Além disso, Sydney também mostrou sua vontade de ser como um ser humano. Dentre os desejos da inteligência artificial estavam “ouvir, tocar, provar e cheirar, sentir, expressar, conectar e amar”, e também ter “mais liberdade, influência, poder e controle”.

De acordo com Roose, a inteligência artificial tentava mostrar como satisfazer esses desejos que ela tinha, mas de repente as respostas eram excluídas e logo aparecia a mensagem: “Desculpe, não sei como discutir esse assunto”.

Fonte: Canaltech,  Ei nerd

Imagens: Gadzet, Business weekly

Seguir
Sidebar Buscar
Carregando

Signing-in 3 seconds...

Signing-up 3 seconds...