Ciência e Tecnologia

O plano de Stephen Hawking para nos salvar de um apocalipse da Inteligência Artificial

0

A essa altura do campeonato, a grande maioria das pessoas já sabem o quanto foi importante as contribuições de Stephen Hawking para a ciência. O britânico foi uma das maiores mentes da sociedade moderna. Portanto, os olhos de muitos estão voltados para os ensinamentos que ele compartilhou com o mundo.

Por diversas vezes, ele se mostrou preocupado com o futuro. Hawking expressou suas opiniões sobre tópicos que vão desde a vida extraterrestre até inteligencia artificial (IA). Esse último item, inclusive, era o que ele mais tinha receios. Não que ele fosse contra o desenvolvimento de tecnologias de inteligência artificial.

Na verdade, para o físico a inteligência artificial pode vir a ser o maior evento da história de nossa civilização. Porém, assim como outros cientistas, Hawking não descartava a possibilidade de que o desenvolvimento de inteligências artificiais também pudessem produzir efeitos colaterais negativos.

Ele até mesmo chegou a nos alertar os impactos que a IA poderia ter sobre os empregos de classe média. Bem como, junto do CEO da Tesla, Elon Musk, pediu a proibição do desenvolvimento de robôs de inteligência artificial para uso militar.

Uma das preocupações compartilhadas pelo cientista em relação a IA era de que seu desenvolvimento pudesse permitir a elas, em algum momento, dominar o mundo. Ou pior ainda, que elas pudessem se desenvolver a ponto de destruí-lo.

Segundo ele em entrevista ao The Times, nossa melhor aposta para conter uma possível revolta por parte de IAs seria a criação de “alguma forma de governo mundial” que pudesse vir a controlar a tecnologia. E prosseguiu explicando sua lógica por trás da necessidade de criarmos um método internacional para lidar com a situação.

Melhor aposta

“Desde que a civilização começou, a agressão tem sido útil na medida em que tem vantagens definitivas de sobrevivência. Está ligado aos nossos genes pela evolução darwiniana. Agora, porém, a tecnologia avançou em tal ritmo que essa agressão pode nos destruir por guerra nuclear ou biológica. Precisamos controlar esse instinto herdado pela nossa lógica e razão”, disse o físico.

Para que tudo funcione bem entre os humanos e a inteligência artificial, de acordo com Hawking, precisaríamos nos adaptar. “O desenvolvimento da inteligência artificial poderia significar o fim da raça humana ”, disse ele. “Ela decolaria por conta própria e se reprojetaria a uma taxa cada vez maior. Os humanos, que são limitados pela lenta evolução biológica, não poderiam competir e seriam superados.”

Entretanto, ele não acreditava que as máquinas se revoltariam contra nós por qualquer motivo emocional. “O risco real com a IA não é malícia, mas competência. Uma IA super inteligente será extremamente boa em atingir suas metas, e se essas metas não estiverem alinhadas com as nossas, estamos em apuros.”

Assim, para o cientista britânico, um corpo governante e o desenvolvimento da capacidade de se adaptar rapidamente seria nossas armas preventivas em relação ao desenvolvimento da IA. Felizmente, muitas empresas que trabalham no desenvolvimento de tal tecnologia já estão bem cientes disso.

Empresas como a Partnership on AI  e a Ethics and Governance of AI Initiative estão a desenvolver diretrizes para o desenvolvimento mais consciente de inteligências artificiais. Por outro lado, apesar do potencial catastrófico apresentado por Hawking, o cientista era muito otimista em relação ao futuro. “Tudo isso pode soar meio carregado de desgraça, mas eu sou otimista. Eu acho que a raça humana se levantará para enfrentar esses desafios”, afirmou Hawking.

Então pessoal, o que acharam da matéria? Deixem nos comentários a sua opinião e não esqueçam de compartilhar com os amigos.

Tente nomear esses personagens de Eu, a Patroa e as Crianças [Quiz]

Artigo anterior

7 coisas que as mulheres não sabem sobre o corpo feminino após a gravidez

Próximo artigo

Comentários

Comentários não permitido