Curiosidades

Inteligência artificial é inteligente o suficiente para saber quando não pode ser confiável

0

inteligência artificial (IA) é uma tecnologia que possibilita que máquinas adquiram conhecimentos, por meio de experiências. Além de se adaptarem às condições e conseguirem desempenhar tarefas como os seres humanos. Parece uma ideia promissora. No entanto, assim como os robôs, ainda existe uma certa preocupação sobre o quanto esse tipo de tecnologia pode evoluir. E claro, se isso significaria que as máquinas podem ultrapassar os seus criadores.

Conforme o tempo vai passando, as máquinas vão ficando cada vez mais inteligentes. Elas podem aprender e tomar decisões sozinhas. Existem até mesmo máquinas que sonham, leem palavras no cérebro das pessoas e se desenvolvem para serem pintores. Contudo, alguns desses sistemas de inteligência artificial mostram sinais de doenças mentais. Já outros são perigosos demais, para serem liberados para o público.

Rede neural

E nós podemos ter sido salvos de um futuro apocalíptico liderado por uma inteligência artificial, graças aos cientistas que criaram redes neurais que sabem quando não são confiáveis.

Tais redes neurais foram projetadas para imitar o cérebro humano pensando em uma infinidade de fatores em equilíbrio entre si. Além de identificar padrões em massas de dados, que os humanos não têm capacidade de analisar.

Surpreendentemente, a inteligência artificial já está tomando decisões que afetam a vida humana. Como por exemplo, a direção autônoma e o diagnóstico médico. Por conta disso é preciso que ela seja o mais precisa possível. E para que esse objetivo fosse alcançado, esse sistema de rede neural foi criado. Ele consegue gerar seu nível de confiança. Além de também identificar o nível de suas previsões.

“Precisamos da capacidade não apenas de ter modelos de alto desempenho, mas também de entender quando não podemos confiar nesses modelos”, disse o cientista da computação Alexander Amini,  do Laboratório de Ciência da Computação e Inteligência Artificial do MIT (CSAIL).

Autoconsciência

Essa autoconsciência se chama “Deep Evidential Regression”. Ela baseia a sua pontuação na qualidade dos dados disponíveis com os quais ela tem que trabalhar. Ou seja, quanto mais precisos e abrangentes, é mais provável que as previsões irão dar certo.

Com isso é feito uma comparação com carro que se dirige sozinho. Tendo ele vários níveis de certeza a respeito se deve ou não passar por um cruzamento, ou se deve esperar. A classificação da confiança da rede neural inclui até mesmo dicas para aumentar a classificação.

Mesmo que coisas parecidas já tenham sido feitas em redes neurais antes, o diferencial dessa é a velocidade. Ela funciona sem demandas excessivas de computação.

“Essa ideia é importante e amplamente aplicável. Ele pode ser usado para avaliar produtos que dependem de modelos aprendidos. Ao estimar a incerteza de um modelo aprendido. Também aprendemos quanto erro esperar do modelo e quais dados ausentes podem melhorar o modelo”, explicou a cientista da computação, Daniela Rus.

Funcionamento

Contudo, por mais que essa rede neural esteja certa 99% das vezes, esse 1% pode ter consequências graves, dependendo do cenário. No entanto, os pesquisadores dizem estar confiantes de que o novo teste de confiança mais simplificado poderá ajudar a melhorar a segurança em tempo real. Mesmo que esse trabalho ainda não tenha passado por uma revisão.

“Estamos começando a ver muito mais desses modelos de rede neural saindo do laboratório de pesquisa e entrando no mundo real, em situações que afetam humanos com consequências potencialmente fatais. Qualquer usuário do método, seja um médico ou uma pessoa no banco do passageiro de um veículo, precisa estar ciente de qualquer risco ou incerteza associada a essa decisão”, finalizou Amini.

Radiografias de múmias antigas mostram uma descoberta surpreendente

Artigo anterior

Conheça esses casos incríveis de pessoas que sobreviveram a execuções

Próximo artigo

Comentários

Comentários não permitido