Curiosidades

PERIGO: funcionários de empresas dos EUA usam cada vez mais ChatGPT

0

Conforme o ChatGPT e mais ferramentas de inteligência artificial chamam atenção do mundo todo, preocupações sobre seu uso também vêm junto. Tanto é que, nos EUA, cada vez mais trabalhadores estão usando o ChatGPT  para ajudá-los em suas tarefas básicas. Isso está sendo um ponto de apreensão entre os empregadores. E empresas gigantes, como a Apple e a Samsung, até proibiram o uso de ferramentas de inteligência artificial por seus funcionários.

Segundo uma pesquisa feita pela Reuters/Ipsos, entre os dias 11 e 17 de junho, 28% das pessoas que foram entrevistadas disseram que usam o ChatGPT de forma regular como uma ferramenta de trabalho. No entanto, desses, somente 22% tinham autorização dos seus chefes para usar a inteligência artificial.

Ainda de acordo com a pesquisa, 100% das pessoas que foram entrevistadas eram proibidas por seus chefes de usar a ferramenta de IA para os ajudar no trabalho. E de todos os ouvidos, 25% não souberam dizer se o uso do ChatGPT é ou não permitido na empresa em que eles trabalham.

Dentre as coisas que a ferramenta ajuda as pessoas estão: fazer e-mails, resumos de documentos e pesquisas iniciais.

Preocupações

Olhar digital

Por ser uma coisa nova, as empresas do mundo todo ainda estão avaliando quais são as melhores maneiras de introduzirem o ChatGPT e outras ferramentas parecidas ao trabalho que já é feito.

Dentre as principais preocupações por parte das empresas está a segurança, principalmente com o risco de vazar informações internas ou acontecer uma violação de propriedade intelectual.

Os vazamentos podem acontecer porque ferramentas de inteligência artificial são treinadas com dados, sendo alguns deles dos próprios usuários que testam o serviço. Por isso que, se funcionários digitarem informações internas das empresas em ferramentas desse tipo, é possível que elas sejam usadas para ajudar no desenvolvimento delas. Como consequência, podem acontecer vazamentos não intencionais.

ChatGPT

Olhar digital

Além das empresas, a União Europeia também se preocupa com o uso dessas novas ferramentas. Com o uso do ChatGPT, mecanismo de conhecida “IA generativa”, cada vez mais comum nos países pertencentes à UE, os reguladores europeus trouxeram de volta um projeto antigo a respeito de como regular os serviços de inteligência artificial que são oferecidos.

Então, uma proposta inicial de lei a respeito desse tema foi aprovada pelo Parlamento europeu em junho desse ano. Isso marcou as primeiras regras vistas no mundo todo a respeito da regulamentação da inteligência artificial. E até o final de 2023, Bruxelas deve bater o martelo com relação ao texto.

Depois que isso acontecer, o projeto terá que ter a aprovação nos parlamentos de cada país membro da UE. E caberá a cada um deles supervisionar a aplicação dessas regulamentações na prática.

Essa proposta surgiu no Parlamento em 2021, época em que outros serviços com inteligência artificial foram surgindo aos montes. Contudo, ele voltou com mais força recentemente por conta do avanço da inteligência artificial generativa. Essa tecnologia é a base do chatGPT, que foi lançado pela OpenAI nesse ano.

Embora tenha sido lançado esse ano, o site que hospeda o ChatGPT recebe praticamente dois bilhões de visitas todo mês.

“Nós, como União, estamos fazendo algo que considero verdadeiramente histórico. Não queremos vigilância em massa, não queremos pontuação social, não queremos policiamento preditivo na União Europeia, ponto final. Isso é o que a China faz, não nós”, disse o parlamentar europeu Dragos Tudorache, da Romênia, e um dos líderes do debate sobre o AI Act.

O texto chamado, em inglês, “EU AI Act” propõe que os sistemas de inteligência artificial passem por uma análise e classificação conforme seu risco. Ao todo são quatro os grupos de risco: inaceitável, alto, limitado e mínimo.

Conforme a UE, o objetivo é que esses sistemas de inteligência artificial que serão usados dentro do seu território “sejam seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do ambiente”, sendo as regras mais rigorosas para aqueles sistemas que são considerados como sendo de alto risco. Exemplo disso seriam os que atuam em setores críticos, como saúde, transporte e segurança.

Assim como o visto no “Digital Services Act”, aprovado pela UE para regular redes sociais e outros pontos da internet, o ponto principal nesse novo texto é a tentativa de transparência para os serviços que são classificados como de riscos “inaceitáveis”. Nesses casos, o exigido é que os reguladores entendam como o sistema é feito e quais são os tipos de parâmetros usados para a geração das respostas. Sabendo disso, os reguladores irão ou não autorizar o lançamento comercial da ferramenta.

Fonte: Olhar digital, Metrópoles

Imagens: Olhar digital

Dá para prevenir ataques cardíacos com décadas de antecedência, diz pesquisa

Artigo anterior

Água é encontrada em galáxia distante pela primeira vez

Próximo artigo

Comentários

Comentários não permitido