• MAIS LIDAS
  • QUIZ
  • VÍDEOS
  • ANUNCIE


O que aconteceria se um robô infringisse a lei?

POR Arthur Porto    EM Ciência e Tecnologia      10/07/19 às 19h26

Precisaríamos de leis específicas para robôs? A questão parece pertencer mais ao mundo da ficção científica do que da realidade. Por outro lado, os avanços tecnológicos tornaram a questão acima totalmente válida. O que importa é que tal questionamento foi o viés de um debate realizado na British Academy, em 31 de janeiro, em Londres. O debate foi criado para discutir se seria necessário ou não começarmos a pensar em criar leis para casos que envolvem o homem e o surgimento de máquinas altamente evoluídas.

No ano passado, por exemplo, um homem foi morto por um carro da Tesla que estava em modo de auto-direção. Isso aconteceu quando o veículo colidiu com um caminhão. A tecnologia foi a culpada ou foi ser humano que a desenvolveu? E as autoridades, como podem julgar tal caso?

Para Patrick Haggard, professor de neurociência cognitiva na University College London, a tecnologia não tem culpa. "Do ponto de vista cognitivo, precisamos entender que os robôs não são responsáveis por suas ações", explica. Os robôs, ainda de acordo com o professor, não podem ser responsáveis porque eles não possuem o senso do que é certo ou errado.

Agora, os robôs poderiam aprender a distinguir o que é correto ou não? Haggard acredita que sim. Ele acha que poderia ser possível, mas que tal discernimento poderia causar ainda mais problemas. Estamos preparados para aceitar que os robôs podem cometer os mesmos erros dos humanos? E o que acontece quando um sistema inteligente, como esse do carro, falha?

Há muito o que se pensar, claro. Quem, por exemplo, vai controlar todos esses dispositivos? Em que momentos, aceitaremos ou não o poder de autonomia das máquinas? Para muitos, tais leis precisam ser criadas. Já para outros, é preciso ter cuidado, pois não se deve deixar de lado o que é inovador por causa de certas fatalidades, até porque, é mais provável que uma máquina seja, no futuro, muito mais eficiente que o ser humano. Mas para que isso ocorra, erros precisam ser cometidos.

Agora, existe outro fator importante que deve ser colocado em questão. Se algo der errado, podemos responsabilizar a pessoa que fez o robô? E se o fizermos, as máquinas, então, não são seriam de fato autônomas? Para Susanne Beck, professora de Direito Penal e Filosofia do Direito, na Universidade de Hannover, em casos como esse, o melhor seria instituir um sistema de seguro. No entanto, a docente acredita que esse seja apenas um dos caminhos, mas não a solução. Isso porque, quando lidamos com normas morais, o cenário muda totalmente. Com leis ou não, todo cuidado é pouco.

O acidente

Na Flórida, nos Estados Unidos, um motorista morreu quando o carro em que estava, um Tesla Model S, colidiu com um caminhão. O veículo estava no modo "Autopilot", em que o carro dirige sozinho. O caso aconteceu no ano passado. Porém, só foi divulgado após a abertura de uma investigação pela agência de segurança de transporte do país (NHTSA). De acordo com o site The Verge, o motorista Joshua Brown, que morreu no acidente, tinha postado um vídeo no YouTube dizendo que o modo "Autopilot" já havia salvado-o antes. Ele gravou o momento em que o veículo se aproximava pela esquerda. Logo depois, o Tesla, subitamente, desvia para o outro lado, evitando a colisão.

Próxima Matéria
Via   G1     Prospect Magazine  
Imagens Tesla
Arthur Porto
EQUIPE FATOS DESCONHECIDOS, BRASIL
Viu algum erro ou gostaria de adicionar alguma sugestão a essa matéria? Colabore, Clique aqui.


Matérias selecionadas especialmente para você

Curta Fatos Desconhecidos no Facebook
Confira nosso canal no Youtube
Siga-nos no
Instagram
Siga Fatos Desconhecidos no Google+