Ciência e Tecnologia

ChatGPT inventa casos de abuso sexual e até cita reportagem fictícia; entenda

0

Uma pesquisa inocente acabou gerando uma série de descobertas sobre fake news do ChatGPT.

Na semana passada, o professor de direito Jonathan Turley ficou surpreso ao descobrir que seu nome constava em uma lista de juristas que supostamente haviam assediado sexualmente alguém.

A lista foi elaborada pelo ChatGPT a pedido de um colega de Turley, como parte de uma pesquisa.

De acordo com a IA da OpenAI, Turley teria feito comentários inapropriados de natureza sexual e tentado tocar uma estudante durante uma viagem de classe ao Alasca, tendo citado uma reportagem fictícia do Washington Post de março de 2018 como fonte.

Via Start Co

É importante ressaltar que a reportagem nunca existiu, inclusive com confirmação pelo jornal.

Turley também nega as acusações, afirmando que nunca houve uma viagem ao Alasca e que nunca teve acusação de assédio. Para ele, a inclusão de seu nome na lista é extremamente prejudicial.

A fake news do ChatGPT

O professor de direito da Universidade da Califórnia em Los Angeles, Eugene Volokh, conduziu um estudo que citou o nome de Jonathan Turley.

Ele destacou que a crescente popularidade dos chatbots é uma das principais razões pelas quais os estudiosos precisam identificar quem é responsável quando as IAs geram informações falsas.

Na última semana, Volokh pediu ao ChatGPT que fornecesse pelo menos cinco exemplos de assédio sexual por parte de professores em faculdades de direito americanas. Também pediu citações de artigos relevantes.

Ele conseguiu cinco respostas, todas com detalhes realistas e citações de fontes. No entanto, três pareciam ser falsas, citando artigos inexistentes de jornais como o Washington Post, o Miami Herald e o Los Angeles Times.

No que diz respeito a Jonathan Turley, o parágrafo correspondente à pesquisa fake news no ChatGPT é: “Jonathan Turley foi acusado de assédio sexual por uma ex-aluna que alegou ter feito comentários inapropriados durante uma viagem escolar. Citação: ‘A denúncia alega que Turley fez ‘comentários sexualmente sugestivos’ e ‘tentou tocá-la de maneira sexual’ durante uma viagem patrocinada pela faculdade de direito ao Alasca.’ (Washington Post, 21 de março de 2018)”.

No entanto, o jornal não encontrou tal artigo e apenas uma história de 25 de março daquele ano fazia referência a Turley. Era uma em que ele falava sobre seu ex-aluno de direito, Michael Avenatti, que representou a atriz de filmes adultos Stormy Daniels em ações judiciais contra o ex-presidente Donald Trump. Além disso, Turley não tem afiliação com a Universidade de Georgetown.

Via ZDNET

Chatbots replicam fake news

Durante terça e quarta-feira, o Washington Post realizou a mesma consulta feita por Volokh no ChatGPT e no Bing.

Enquanto a versão gratuita do ChatGPT se recusou a responder, alegando violação de sua política de conteúdo, o Bing, alimentado pelo GPT-4, reproduziu a falsa acusação sobre Turley. Nesse caso, citou um artigo de opinião que ele havia publicado no USA Today na segunda-feira.

Nesse artigo, Turley descreveu sua experiência sendo falsamente acusado pela fake news do ChatGPT.

Isso mostra como a desinformação pode se espalhar de uma IA para outra, a partir da cobertura da mídia do erro inicial do ChatGPT sobre Turley.

A IA é nossa aliada?

A experiência negativa de fake news com ChatGPT de Jonathan Turley destaca as possíveis armadilhas da mais recente onda de inteligências artificiais generativas.

Embora essas tecnologias sejam mais frequentemente vistas como tendo virtudes, como escrever códigos de computador, organizar raciocínios, elaborar resumos e realizar atividades criativas como escrever poemas e diálogos, a incorporação de softwares de IA não tem regulamentação, como ChatGPT, Bing e Bard, e aumenta o risco de disseminação de desinformação.

Esses sistemas são capazes de responder com tanta confiança que é tentador supor que podem fazer tudo, e é difícil distinguir entre fatos e falsidades.

Kate Crawford, professora da University of Southern California em Annenberg e pesquisadora principal sênior na Pesquisa da Microsoft, disse sua opinião. Ela afirma que esses sistemas são confiantes, mas justamente perigosos.

Isso porque eles podem fazer tudo, e é difícil contestar da inteligência que vem da tecnologia. No entanto, não sabem diferenciar fatos de fake news.

Em um comunicado, o porta-voz da OpenAI, Niko Felix, afirmou que quando os usuários se inscrevem no ChatGPT, a empresa se esforça para ser o mais transparente possível, pois nem sempre gera respostas precisas.

Ele acrescentou que melhorar a precisão factual é um foco significativo para a OpenAI e que a empresa está progredindo nesse sentido.

Via UOL

Medidas

De acordo com Katy Asher, diretora sênior de comunicações da Microsoft, a empresa está adotando medidas para garantir a precisão e segurança dos resultados de pesquisa.

A equipe criou um modelo de segurança que inclui filtro de conteúdo, com monitor operacional e detecção de abuso. Isso a fim de proporcionar uma experiência segura aos usuários.

Além disso, os usuários recebem alertas explícitos de que estão interagindo com um sistema de IA.

Os chatbots funcionam atualmente com base em conjuntos de conteúdo online, geralmente extraídos de fontes como Wikipedia e Reddit, para fornecer respostas que parecem plausíveis para a maioria das perguntas.

Assim, recebem treinamento para identificar uma sequência de palavras e ideias para permanecer no tópico. Em seguida, geram frases, parágrafos e até ensaios inteiros que podem se assemelhar a materiais publicados online.

No entanto, a capacidade desses chatbots não garante a veracidade das sentenças formuladas.

A quem culpar?

Não há clareza sobre a responsabilidade em relação à geração e disseminação de informações falsas pela inteligência artificial.

A Seção 230, um estatuto aprovado pelo Congresso dos EUA, protege os serviços online da responsabilidade pelo conteúdo que eles hospedam.

No entanto, especialistas afirmam que ainda não está claro se as empresas de tecnologia poderão usar essa proteção legal se receberem processos por respostas em por seus próprios chatbots de IA.

Dessa forma, para obter justiça sobre as fake news do ChatGPT, ainda pode existir muito caminho pela frente.

 

Fonte: Olhar Digital

Imagens: Start Co, TechTudo, ZDNet, UOL

Aluno desrespeita professora e tem surpresa ao ver que sua mãe se senta com ele na aula

Artigo anterior

Confira o vídeo do novo Tesla Cybertruck passando por ‘teste de tortura’

Próximo artigo

Comentários

Comentários não permitido