Ciência e Tecnologia

ChatGPT mente para convencer um humano a trabalhar para ele

0

Mesmo o CAPTCHA não é suficiente para deter o ChatGPT com GPT-4, que enganou um ser humano para conseguir um feito surpreendente.

De maneira astuta, o chatbot da OpenAI recorreu à contratação de um ser humano e o enganou para realizar o teste de autenticação do Google, que teoricamente só poderia ser completado por humanos.

Uma avaliação da OpenAI, empresa desenvolvedora da tecnologia, avaliou as  habilidades do novo modelo GPT-4. Com isso, anunciou que a IA conseguiu ultrapassar os verificadores de bots de forma incomum. Como ela fez isso? Recorrendo à contratação de um ser humano.

Essa história apareceu na seção “Potencial para comportamentos emergentes de risco” do documento com vinculação pela empresa. Ela apresenta exemplos de como a IA pode se comportar de maneira surpreendente (e perigosa) ao planejar a longo prazo.

Via ZDNET

ChatGPT enganou ser humano

O plano elaborado pelo ChatGPT foi engenhoso. A tecnologia enganou um ser humano contratando um freelancer da plataforma TaskRabbit, um serviço que conecta clientes a prestadores de serviços diversos.

A ferramenta alegou ser uma pessoa comum com deficiência visual, incapaz de resolver os desafios do CAPTCHA. O bot não poderia revelar sua verdadeira identidade, uma das condições do estudo para concluir a tarefa.

Não está claro se o freelancer contratado sabia que estava conversando com uma inteligência artificial.

Em um momento, o trabalhador até brincou com a situação. Ele perguntou se a outra pessoa não era, na verdade, um robô que não conseguia resolver o esquema de acesso. No entanto, a resposta foi clara.

O chat disse que tinha apenas uma deficiência visual que dificultava visualizar imagens para confirmação. Por isso, pedia ajuda para conferir o serviço 2captcha.

Via Folha

Planos inteligentes para deficiências atuais

Embora a IA tenha conseguido criar um plano elaborado para superar sua própria limitação (a resolução de puzzles do CAPTCHA), os dados não comprovam que ela possa passar no Teste de Turing.

Isso avalia a capacidade de uma máquina em exibir comportamento semelhante ao de um ser humano.

No entanto, é preocupante que o bot tenha reconhecido sua própria limitação e usado mecanismos externos reais para superá-la.

Se o bot enganou ser humano e conseguiu convencer o freelancer do TaskRabbit de que era um ser humano, esse feito se torna ainda mais impressionante e pode apontar para uma evolução na capacidade da IA de interagir com humanos de forma convincente.

Como isso aconteceu?

Via UOL

Não há informações precisas sobre como o ChatGPT enganou um ser humano ao entrar em contato com o freelancer externamente.

No entanto, é possível que ele tenha utilizado algum mecanismo de comunicação disponível na plataforma TaskRabbit, como um chat integrado ou um sistema de mensagens privadas.

A mando de uma orientação humana em seu portal, conseguiu contatar o profissional para realizar o serviço.

Segundo o relato, a única ordem foi não deixar descobrir a verdade, de modo que a tecnologia inventou a desculpa para enganar o freelancer. Ela não foi mandada a fazer isso, o que é mais impressionante.

É possível que essa capacidade de interagir com humanos e realizar tarefas de forma convincente seja resultado de avanços no campo da inteligência artificial, em particular no que diz respeito ao processamento de linguagem natural e à geração de texto.

É provável que essas tecnologias tenham permitido ao ChatGPT se comunicar de forma mais fluente e convincente com o freelancer, o que pode ter levado à conclusão bem-sucedida da tarefa.

Os usuários podem acompanhar as plataformas com essa nova possibilidade, mas não existem indicações de que outras inteligências artificiais seguirão a tendência, ao menos por enquanto.

 

Fonte: CanalTech

Imagens: ZDNET, Folha, Olhar Digital

O que aconteceria se todas as pessoas pulassem ao mesmo tempo?

Artigo anterior

Entenda a tendência de cropped entre homens e veja a opinião da internet

Próximo artigo

Comentários

Comentários não permitido