Curiosidades

Golpes feitos por inteligência artificial: saiba como se proteger

0

A inteligência artificial (IA) é uma tecnologia que dá às máquinas a possibilidade de terem conhecimentos através de experiências, e permite que elas se adaptem ao seu meio e desempenhem tarefas quase da mesma maneira que um ser humano faria. O ponto é que ninguém sabe ao certo até onde essa tecnologia pode nos ajudar ou então ser a nossa ruína.

Por mais que ela tenha sido criada para ser uma ferramenta que ajude a aumentar a eficiência no processamento e na classificação de grandes volumes de dados, elas podem ser usadas por várias pessoas, até mesmo criminosos.  Tanto é que golpes já estão sendo feitos através de ferramentas de IA.

Isso acontece porque os softwares de inteligência artificial podem ser empregados das mais variadas formas. Infelizmente, uma delas pode acabar facilitando o “trabalho” dos golpistas. Além disso, as formas com que eles podem ser feitos são bem variadas. Saiba quais são as mais comuns.

Golpes com inteligência artificial

Tecmundo

Usando imagem ou voz feita por IA

Um golpe bem comum é quando uma pessoa finge ser outra e entra em contato com um parente por WhatsApp contando uma situação de problema financeiro e pedindo dinheiro. E existem também as versões em que o criminoso finge um sequestro e pede um resgate.

Agora, com a inteligência artificial, esse golpe pode ser “melhorado”. Isso porque os criminosos podem usar o deep fake para simular a voz, ou até mesmo a imagem de um familiar ou ente querido. Isso faz com que a vítima fique ainda mais vulnerável e propensa a enviar o dinheiro pedido.

Instalando malware

O malware é um software que pode ser instalado nos dispositivos com a intenção de roubar dados, clonar contas e cometer vários outros crimes. Eles conseguem “entrar” no dispositivo de alguém com iscas, como por exemplo, e-mail falso e links maliciosos.

Usando ChatGPT

Muito comentado hoje em dia, o ChatGPT pode ser uma ferramenta usada pelos criminosos para dar golpes. Até porque, é possível treiná-lo para que ele imite o estilo de escrever de uma pessoa, o que faz com que as mensagens fiquem mais críveis.

Protegendo-se dos golpes

Tecmundo

Assim como qualquer outro golpe, é importante não só saber que ele existe, mas também formas de se proteger contra ele. Essas são algumas das coisas que podem ser feitas com relação aos golpes que usam inteligência artificial.

Combinar uma palavra de segurança

É recomendável que as pessoas conversem com os parentes e combinem uma palavra de segurança, que funcionará como uma “senha”, que os protegerá nos momentos em que eles acharem que estão caindo em um golpe. Isso porque a palavra pode ser perguntada na conversa e se quem estiver escrevendo não a souber é possível saber que se trata de um golpe.

Conhecer os traços de linguagem da inteligência artificial

Mesmo sendo algo mais difícil, não é uma coisa impossível. Isso porque, as IAs generativas têm uns tipos de marcação de linguagem que podem ser percebidos por um olhar mais atento. Por exemplo, vários termos repetidos, linguagem extremamente simples e falhas na coesão entre as frases.

Confrontar as informações ditas

Nas conversas geradas por IA, informações falsas podem aparecer. E quando ela não sabe a resposta certa para alguma coisa que foi perguntada, ela geralmente cria respostas para preencher a lacuna. Justamente por isso é bom confrontar a “pessoa” digitando para ver se é ou não uma inteligência artificial e se se trata de um golpe.

Não confiar em áudios

Mesmo que muitas pessoas tenham o costume de pedir um áudio como forma de confirmar se é realmente a pessoa que está falando, com as novas ferramentas de inteligência artificial isso pode não ser mais garantia. Até porque, elas conseguem criar áudios como se fossem as pessoas. Então, é importante procurar outras formas de confirmação.

Fonte: Tecmundo

Imagens: Tecmundo

Viver no espaço pode prejudicar o sistema imunológico dos astronautas, diz estudo

Artigo anterior

Fera da Penha: o crime brutal no Rio de Janeiro que chocou o Brasil

Próximo artigo

Comentários

Comentários não permitido