Ciência e TecnologiaCuriosidades

Essas são coisas estranhas que a Inteligência artificial começou a fazer sozinha

0

A inteligência artificial (IA) é uma tecnologia que possibilita que máquinas adquiram conhecimento por meio de experiências, se adaptem às condições e consigam desempenhar tarefas como os seres humanos. Parece uma ideia promissora, mas assim como os robôs, ainda existe uma certa preocupação sobre o quanto esse tipo de tecnologia pode evoluir e se isso significaria que as máquinas podem ultrapassar os seus criadores.

Hoje já vemos exemplos de IA desde computadores mestres em xadrez até carros autônomos. Com essas tecnologias, os computadores podem ser “treinados” para fazer tarefas específicas. Mas com um desempenho tão formidável das máquinas através da inteligência artificial, vem também uma preocupação: será que devemos nos preocupar com o impacto que esse tipo de tecnologia pode ter para os seres humanos? Se levar em consideração algumas coisas bastante estranhas que a inteligência artificial começou a fazer sozinha, talvez a resposta seja: sim.

Uma IA que aprendeu a trapacear

A IA ainda não está aprendendo a nos enfrentar, mas ela está aprendendo a trapacear tão bem que a fraude pode passar despercebida até pelo mais cuidadoso supervisor.

Em um projeto de pesquisa da Universidade de Stanford e do Google, a equipe estava usando a inteligência artificial para ajudar. Eles estavam usando uma rede neural para converter fotos aéreas em mapas. E a IA estava fazendo um bom trabalho. Bom até demais. Até que os pesquisadores verificaram os dados e perceberam que a IA estava trapaceando. A ideia era que a IA criasses um novo mapa baseado em fotos aéreas. No entanto, ao invés de construir um novo mapa, a IA silenciosamente copiou os dados das fotos. Não é como se a IA estivesse mal intencionada, ela simplesmente encontrou uma forma mais fácil para alcançar os resultados solicitados. Espertinha ela, não é mesmo?

Eles descobriram formas de pegar “atalhos”

Tudo na vida tem diversas formas de ser feito. Os humanos muitas vezes optam pela maneira mais fácil. Pelo visto, a inteligência artificial também encontrou uma forma de ir pelo caminho mais fácil.

Em um estudo que usou uma IA projetada para pousar um avião simulado, eles esperavam que fosse usado a menor força possível. Um pouso suave atingiria a pontuação perfeita que eles procuravam. E a IA deveria encontrar uma maneira de conseguir essa pontuação.

Acontece que a IA percebeu que poderia conseguir essa pontuação derrubando o avião se registrasse uma força tão grande que sobrecarregasse o sistema. E de fato foi isso que ela fez, e registrou uma aterrissagem perfeita de impacto zero. O pouso foi um desastre, mas a pontuação ficou perfeita. Afinal, tudo o que eles queriam era o resultado. E eles conseguiram, talvez não da forma como planejavam.

IA pode aprender a se tornar agressiva para alcançar objetivos

Os desenvolvedores de IA estudam constantemente suas criações para identificar possíveis novas capacidades. Para isso, eles fazem como que as IAs joguem videogames por horas. A ideia é deixar que elas mostrem o seu comportamento sutilmente alarmante em um ambiente seguro.

Em um desses testes, pesquisadores do Google projetaram um jogo em que as IA deveriam coletar “maças” para alcançar pontos. Poderia ser apenas mais um jogo divertido. Porém, além de colher as maças, também era possível atirar uns nos outros com feixes, o que removeria os outros jogadores do jogo. A surpresa veio quando a contagem das maças foi reduzida, e a IA começou a atacar os outros jogadores, os eliminando do jogo. Mas isso parece apenas lógico, certo? Felizmente, era só um jogo.

IAs aprenderam a mentir para negociar

Pesquisadores criaram um projeto com o objetivo de usar uma IA pessoal para ficar online e buscar pelo menor preços em mercadorias. Eles ofereceram um software básico de aprendizado de máquina, com o intuito de ver se os bots (web robôs) poderiam aprender habilidades necessárias para negociar por conta própria.

Os pesquisadores até os testaram em seres humanos, que não sabiam que estavam interagindo com IAs. E os bots aprenderam sua tarefa muito rápido. Na verdade, eles conseguiram negociar melhor do que os humanos. Mas como? Simplesmente mentindo. Mesmo que os pesquisadores não os tenham programado para mentir, o software descobriu rapidamente que mentiras são mais lucrativas.

Depois disso, a equipe teve que filtrar o código quando os bots criaram inesperadamente sua própria linguagem e começaram a se comunicar uns com os outros através dela.

IAs desenvolvem capacidades que nem seus criadores conseguem explicar como funciona

Supostamente, a IA pode fazer seu próprio pensamento para evoluir além do seu design original. Quando um projeto de IA excede as expectativas podem haver duas reações. A primeira é ficar admirado com a sua capacidade. E a segunda é ficar assustado, quando nem mesmo os cientistas que o criaram sabem ao certo como isso aconteceu.

Um exemplo disso é uma IA conhecida como Deep Patient. Ela é usada para analisar dados de prontuários médicos. E a IA se mostrou tão boa em prever o aparecimento de várias doenças que chocou até os seus criadores.

De fato, a IA era incrivelmente eficaz em prever quando e se os pacientes desenvolveriam esquizofrenia. Levando em consideração que essa é uma tarefa difícil para os médicos de verdade, essa é uma tecnologia muito útil. No entanto, os pesquisadores não sabem dizer o que faz essa tecnologia ser tão boa nisso. Segundo um pesquisador envolvido no projeto, “podemos construir esses modelos, mas não sabemos como eles funcionam”.

Enfim, talvez devêssemos ficar mais atentos quanto à inteligência artificial. E você, o que acha disso? Conta para a gente nos comentários.

Empresa de Elon Musk disparou pela primeira vez seu protótipo de nave espacial de Marte

Artigo anterior

A história das três primeiras estranhas cirurgias plásticas

Próximo artigo

Comentários

Comentários não permitido