Curiosidades

Revelar segredos e opiniões para sistemas de IA é imprudente, diz especialista na tecnologia

0

A inteligência artificial (IA) é uma tecnologia que dá às máquinas a possibilidade de terem conhecimentos através de experiências, e permite que elas se adaptem ao seu meio e desempenhem tarefas quase da mesma maneira que um ser humano faria. O ponto é que ninguém sabe ao certo até onde essa tecnologia pode nos ajudar ou então ser a nossa ruína.

O fato é que cada vez mais ela está presente em nosso cotidiano, por exemplo, com o aumento do uso de ferramentas de IA com o ChatGPT. Com um uso maior, várias pessoas estão revelando coisas pessoas para essas ferramentas. No entanto, isso não é um hábito seguro de se ter.

De acordo com Mike Wooldridge, professor de IA na Universidade de Oxford, da Inglaterra, compartilhar informações privadas ou ter uma conversa franca com um chatbot é “extremamente imprudente”. Até porque, qualquer coisa que for dita a essa IA pode ser usada para treinar versões futuras da tecnologia.

Segredos para a IA

Freepik

Esse assunto é tão importante e pertinente que ele preparou palestras que foram feitas no Royal Institution abordando esse tema. Nelas, Wooldridge analisou as “grandes questões enfrentadas pela pesquisa em IA e os mitos sobre como essa tecnologia inovadora realmente funciona”.

Entre os tópicos que ele abordou estavam: como uma máquina pode ser ensinada a traduzir de um idioma para outro, como funcionam os chatbots e se eles realmente serão como os humanos no futuro.

O professor disse em entrevista ao DailyMail que, por mais que os humanos tenham sido programados para procurar consciência na IA, isso foi um esforço inútil. Até porque, de acordo com ele, a tecnologia “não tem empatia e nem simpatia”. “A tecnologia é basicamente projetada para tentar dizer o que você quer ouvir – isso é literalmente tudo o que ela faz”, acrescentou.

Ainda na visão de Wooldridge, ter a IA como um amigo ou terapeuta e reclamar com ela a respeito do chefe, ou expressar opiniões políticas é uma coisa arriscada. “Você deve presumir que qualquer coisa que você digitar no ChatGPT será usado para alimentar versões futuras da tecnologia”, afirmou.

O último ponto levantado pelo especialista foi que, por conta da forma como os modelos de IA funcionam, é quase impossível recuperar os dados depois que eles estiverem no sistema.

Cuidados

Freepik

Além dos perigos de revelar segredos para um chatbot, as pessoas tem que tomar cuidado com os golpes que são aplicados usando a IA. Isso acontece porque os softwares de inteligência artificial podem ser empregados das mais variadas formas. Infelizmente, uma delas pode acabar facilitando o “trabalho” dos golpistas. Além disso, as formas com que eles podem ser feitos são bem variadas. Saiba quais são as mais comuns.

Usando imagem ou voz feita por IA

Um golpe bem comum é quando uma pessoa finge ser outra e entra em contato com um parente por WhatsApp contando uma situação de problema financeiro e pedindo dinheiro. E existem também as versões em que o criminoso finge um sequestro e pede um resgate.

Agora, com a inteligência artificial, esse golpe pode ser “melhorado”. Isso porque os criminosos podem usar o deep fake para simular a voz, ou até mesmo a imagem de um familiar ou ente querido. Isso faz com que a vítima fique ainda mais vulnerável e propensa a enviar o dinheiro pedido.

Instalando malware

O malware é um software que pode ser instalado nos dispositivos com a intenção de roubar dados, clonar contas e cometer vários outros crimes. Eles conseguem “entrar” no dispositivo de alguém com iscas, como por exemplo, e-mail falso e links maliciosos.

Usando ChatGPT

Muito comentado hoje em dia, o ChatGPT pode ser uma ferramenta usada pelos criminosos para dar golpes. Até porque, é possível treiná-lo para que ele imite o estilo de escrever de uma pessoa, o que faz com que as mensagens fiquem mais críveis.

Se protegendo

Assim como qualquer outro golpe, é importante não só saber que ele existe, mas também formas de se proteger contra ele. Essas são algumas das coisas que podem ser feitas com relação aos golpes que usam inteligência artificial.

Combinar uma palavra de segurança

É recomendável que as pessoas conversem com os parentes e combinem uma palavra de segurança, que funcionará como uma “senha”, que os protegerá nos momentos em que eles acharem que estão caindo em um golpe. Isso porque a palavra pode ser perguntada na conversa e se quem estiver escrevendo não a souber é possível saber que se trata de um golpe.

Conhecer os traços de linguagem da inteligência artificial

Mesmo sendo algo mais difícil, não é uma coisa impossível. Isso porque, as IAs generativas têm uns tipos de marcação de linguagem que podem ser percebidos por um olhar mais atento. Por exemplo, vários termos repetidos, linguagem extremamente simples e falhas na coesão entre as frases.

Confrontar as informações ditas

Nas conversas geradas por IA, informações falsas podem aparecer. E quando ela não sabe a resposta certa para alguma coisa que foi perguntada, ela geralmente cria respostas para preencher a lacuna. Justamente por isso é bom confrontar a “pessoa” digitando para ver se é ou não uma inteligência artificial e se se trata de um golpe.

Não confiar em áudios

Mesmo que muitas pessoas tenham o costume de pedir um áudio como forma de confirmar se é realmente a pessoa que está falando, com as novas ferramentas de inteligência artificial isso pode não ser mais garantia. Até porque, elas conseguem criar áudios como se fossem as pessoas. Então, é importante procurar outras formas de confirmação.

Fonte: Época negócios, Tecmundo

Imagens: Freepik

Robô da Tesla está mais magro e ágil em atualização; vai custar R$ 99 mil

Artigo anterior

Califórnia ganha hamburgueria totalmente autônoma, onde robôs alimentados por IA comandam a cozinha

Próximo artigo

Comentários

Comentários não permitido