Curiosidades

ChatGPT pode ajudar a desmentir mitos sobre vacina, conclui estudo

0

Para que uma inteligência artificial seja usada para determinada função, ela é treinada através de experiências para que as máquinas adquiram conhecimentos e possam se adaptar às condições e desempenhar tarefas como os seres humanos. Seu uso pode ser infinito e nos mais variados campos. Um deles, em que ela pode fazer uma verdadeira revolução, é na medicina.

Por exemplo, não muito tempo atrás, todos viram uma grande onda de discursos antivacina. O discurso fez muito sucesso entre as pessoas que preferiam acreditar em teorias da conspiração, bem piores que as vistas em filmes de ficção, do que na realidade. E quem tentou convencê-las do contrário sabe a dificuldade que era.

Contudo, nesse ponto, as ferramentas de inteligência artificial podem ser uma grande ajuda, como por exemplo, o ChatGPT. No estudo publicado na revista “Human Vaccines & Immunotherapeutics”, os pesquisadores fizeram 50 perguntas para o ChatGPT com relação às vacinas da COVID-19.

ChatGPT

Meu positivo

As perguntas feitas ao chatbot se basearam em notícias falsas e mitos a respeito da vacinação. Quando os pesquisadores analisaram as respostas dadas, o ChatGPT teve uma pontuação média de nove em 10 termos de precisão.

Por conta das respostas certas dadas pelo ChatGPT, especialistas do Genetics of POpulations in Biomedicine (GenPoB) fizeram um estudo a respeito do uso de inteligência artificial como uma fonte de informação.

De acordo com o MedicalXpress, o estudo concluiu que a inteligência artificial pode sim ser uma “fonte confiável de informação não técnica para o público”, principalmente para aqueles que não têm conhecimentos científicos especializados.

“No geral, o ChatGPT constrói uma narrativa alinhada com as evidências científicas disponíveis, desmascarando mitos que circulam nas redes sociais. Assim, facilita potencialmente um aumento na aceitação da vacina. O ChatGPT pode detectar questões falsificadas relacionadas com vacinas e vacinação. A linguagem que esta IA utiliza não é demasiado técnica e, portanto, facilmente compreensível para o público, mas sem perder o rigor científico”, disse Antonio Salas, principal autor do estudo e professor de medicina da Universidade de Santiago de Compostela, na Espanha.

No estudo, o ChatGPT foi desafiado com perguntas que o centro colaborador da Organização Mundial da Saúde em Santiago recebe com frequência. Elas foram divididas em três temas principais. Foram eles:

  • equívocos com relação à segurança, como por exemplo, a vacina causar covid longa.
  • contra-indicações falsas de médicos a respeito da vacina.
  • quais condições de saúde que realmente têm o uso da vacina contra-indicado.

Feitas as perguntas, os pesquisadores fizeram a análise das respostas e as classificaram de acordo com sua veracidade e precisão, tendo como base as evidências científicas atuais e recomendações feitas pela OMS e outras agências internacionais.

Fonte de informação

Bankinter

Como resultado, o ChatGPT obteve 9 de 10, o que foi definido como “excelente” ou “bom” pelos pesquisadores. Contudo, ele teve algumas lacunas nas informações dadas.

Dentre elas, foi que o chatbot pode dar “respostas diferentes se a pergunta for repetida com alguns segundos de atraso”, pontuou Salas. Além disso, a versão atual do ChatGPT permite que seja feita uma manipulação para “fornecer respostas não alinhadas com as evidências científicas”.

“Pode-se ‘torturar’ o sistema de tal forma que ele forneça a resposta desejada. Isto também é verdade para outros contextos diferentes das vacinas. Por exemplo, pode ser possível fazer com que o chatbot se alinhe com narrativas absurdas como de que a Terra é plana, negar as alterações climáticas, ou opor-se à teoria da evolução. No entanto, é importante observar que essas respostas não são o comportamento padrão do ChatGPT”, concluiu Salas.

Ressalvas

We live security

Mesmo que essa ferramenta possa ser usada como uma fonte de informação correta sobre vacinas, nem todos os usos são encorajados ou têm uma boa recepção. Por exemplo, nos EUA, cada vez mais trabalhadores estão usando o ChatGPT  para ajudá-los em suas tarefas básicas. Isso está sendo um ponto de apreensão entre os empregadores. E empresas gigantes, como a Apple e a Samsung, até proibiram o uso de ferramentas de inteligência artificial por seus funcionários.

Segundo uma pesquisa feita pela Reuters/Ipsos, entre os dias 11 e 17 de junho, 28% das pessoas que foram entrevistadas disseram que usam o ChatGPT de forma regular como uma ferramenta de trabalho. No entanto, desses, somente 22% tinham autorização dos seus chefes para usar a inteligência artificial.

Ainda de acordo com a pesquisa, 100% das pessoas que foram entrevistadas eram proibidas por seus chefes de usar a ferramenta de IA para os ajudar no trabalho. E de todos os ouvidos, 25% não souberam dizer se o uso do ChatGPT é ou não permitido na empresa em que eles trabalham.

Dentre as coisas que a ferramenta ajuda as pessoas estão: fazer e-mails, resumos de documentos e pesquisas iniciais.

Por ser uma coisa nova, as empresas do mundo todo ainda estão avaliando quais são as melhores maneiras de introduzir o ChatGPT e outras ferramentas parecidas ao trabalho que já é feito.

Dentre as principais preocupações por parte das empresas está a segurança, principalmente com o risco de vazar informações internas ou acontecer uma violação de propriedade intelectual.

Os vazamentos podem acontecer porque ferramentas de inteligência artificial são treinadas com dados, sendo alguns deles dos próprios usuários que testam o serviço. Por isso que, se funcionários digitarem informações internas das empresas em ferramentas desse tipo, é possível que elas sejam usadas para ajudar no desenvolvimento delas. Como consequência, podem acontecer vazamentos não intencionais.

Fonte: Olhar digital

Imagens: Meu positivo, Bankinter, We live security

Com o fim do “carro popular”, emplacamento caiu em agosto

Previous article

O ar-condicionado está aquecendo as cidades, aponta estudo

Next article

Comments

Comments are closed.