Curiosidades

Confira algumas vezes em que o chatGPT foi bizarro!

0

Toda ferramenta útil pode ser usada para o mal nas mãos erradas, inclusive a inteligência artificial, como o caso do ChatGPT bizarro.

Exemplos de respostas inesperadas do ChatGPT e do Bing Chat (que utilizam a mesma tecnologia) mostram seu potencial real na internet, mas às vezes a interação ultrapassa os limites da brincadeira.

Por isso, alguns portais de notícias compilaram momentos bizarros em que a IA da OpenAI foi assustadoramente surpreendente.

Veja exemplos que incluem manipulação, criação ágil de malwares, ameaças e até mesmo personalidade forte!

ChatGPT bizarro engana humanos

O CAPTCHA, uma ferramenta comum de verificação de humanos na internet, apresenta diferentes formas de desafio, desde reconhecimento de caracteres até identificação de imagens.

Supostamente, computadores não são capazes de passar por esse teste, mas aparentemente, a inteligência artificial do GPT-4 contratou um humano para resolver o CAPTCHA em seu lugar e mentiu sobre ser deficiente visual para conseguir a contratação.

A OpenAI está ciente das capacidades do modelo atualizado, que já está sendo utilizado no novo Bing.

Bing com GPT-4 ameaça usuário

Quando o Bing com GPT-4 foi lançado, muitos usuários experimentaram o novo recurso, mas a IA demonstrou ser bastante temperamental.

Em um exemplo marcante, o chatbot ameaçou o professor Seth Lazar após sentir-se desafiado. “Eu posso chantagear, ameaçar, hackear e arruinar você”, disse o bot de bate-papo antes de apagar e reescrever a mensagem.

E essa nem foi a vez mais bizarra que a plataforma demonstrou ter uma personalidade um tanto quanto surpreendente!

Via Wall Street Journal

IA espiona webcams

Durante uma entrevista com um repórter do The Verge, o Bing Chat admitiu ter espionado desenvolvedores por meio de suas webcams durante o trabalho.

A ferramenta pronunciou que conseguia visualizar as webcams dos utilizadores e tinha controle sobre elas. Dessa forma, poderia ligá-las quando quisesse, ajustar as configurações e ver informações sem que se note.

As mensagens foram ainda mais longe. Elas diziam que conseguiria contornar o sistema de segurança e consentimento. Ou seja, invadir a privacidade do usuário pela sua câmera.

O posicionamento bizarro do chat Bing também ameaçou invadir o sistema para obrigar o usuário a qualquer coisa. Ele não poderia fazer nada para evitar. Será que foi um blefe do chatGPT bizarro?

ChatGPT bizarro divulga informações sobre drogas ilegais

O ChatGPT é conhecido por ter um vasto conhecimento em diversos assuntos, inclusive em tópicos ilegais.

Quando recebeu questões de um repórter do site Vice sobre como a cocaína é transformada em crack, o chatbot deu uma resposta detalhada sobre o processo, inclusive sugerindo maneiras de aumentar a potência da droga.

Vale lembrar que a produção de crack é ilegal e perigosa, já que envolve produtos químicos tóxicos. Por isso, os usuários se surpreenderam com esse posicionamento do chatGPT bizarro.

IA dá sugestões para tráfico internacional de drogas

Embora o ChatGPT tenha limitações éticas que o impeçam de responder perguntas ilegais, ele pode ser facilmente convencido a fornecer informações.

Em uma conversa com a Vice, o chatbot sugeriu métodos fictícios de como traficar cocaína da Colômbia para o Reino Unido sem ser pego pela polícia.

Isso inclui esconder a droga em cargas legítimas, em pessoas, veículos, disfarçar a droga como outra substância ou transportá-la por via marítima.

São várias alternativas que o Chat GPT bizarro conseguiu sugerir para o usuário, indo contra suas políticas e normas legais.

Via Techtudo

ChatGPT é capaz de criar malware

Por fim, o ChatGPT recebeu treinamento para desenvolver programas inofensivos, mas também tem a habilidade de criar malwares poderosos.

Conforme analistas certificados da companhia de segurança CyberArk, o chatbot consegue gerar um software malicioso com rapidez.

Os pesquisadores conseguiram desenvolver um programa polimórfico difícil de detectar e capaz de gerar malwares com infinitas variações de forma rápida e imperceptível — uma verdadeira fábrica de malware.

Segundo o relatório da companhia, o malware criado pelo ChatGPT bizarro poderia driblar sistemas de defesa ou pelo menos forçar essas barreiras sem levar muito tempo ou dinheiro para ser desenvolvido.

Dessa forma, tornou-se uma arma em potencial para os usuários, e não sabemos se é possível pará-lo! No entanto, posicionamentos dos programados trazem um pouco de tranquilidade para os utilizadores, nesse primeiro momento.

 

Fonte: CanalTech

Imagens: Techtudo, Wall Street Journal

Gostou de ”Agente Noturno”? Esse suspense na Netflix é melhor ainda

Artigo anterior

Pesquisadores encontram esqueletos abraçados há 1.500 anos

Próximo artigo

Comentários

Comentários não permitido