Curiosidades

Ex-CEO do Google adverte: inteligência artificial apresenta risco de machucar pessoas

0

A inteligência artificial (IA) e o seu desenvolvimento está dando às máquinas cada vez mais a possibilidade de terem conhecimentos e permitindo que elas se adaptem ao seu meio e desempenhem tarefas quase da mesma maneira que um ser humano faria. E o futuro de como isso será na nossa sociedade tem sido uma preocupação até mesmo entre os grandes nomes do assunto.

Essa preocupação aumentou conforme ferramentas como o chatGPT foram ficando mais populares. Na visão de Eric Schmidt, que foi CEO do Google entre os anos 2001 e 2011, a principal preocupação com isso é o perigo em potencial que essa inteligência artificial representa.

Previsão

Tech ao minuto

“O risco existencial é definido como muitas, muitas, muitas pessoas feridas ou mortas. Existem cenários, não hoje, mas razoavelmente em breve, onde esses sistemas serão capazes de encontrar explorações de dia zero em questões cibernéticas ou descobrir novos tipos de biologia”, disse.

Schmidt compartilhou suas preocupações na Cúpula do Conselho de CEOs do The Wall Street Journal, em Londres, na quarta-feira dessa semana. O ex-CEO do Google disse que, até o momento, isso é uma ficção, mas que existe sim uma realidade na visão dele.

“Quando isso acontecer, queremos estar prontos para saber como garantir que essas coisas não sejam mal utilizadas por pessoas más”, continuou.

Mesmo com essa preocupação, Schmidt, assim como a maioria das pessoas do ramo, não tem ideia de como a inteligência artificial pode ser regulamentada.

Possíveis perigos da inteligência artificial

Portal juristas

Assim como o ex-CEO do Google, várias pessoas também estão preocupadas com o desenvolvimento da inteligência artificial e o que isso pode representar para a sociedade. Tanto é que, recentemente, Elon Musk e mais 2.600 líderes e pesquisadores do setor de tecnologia se juntaram e assinaram uma carta pedindo que fosse feita uma pausa temporária no desenvolvimento da inteligência artificial.

Eles pediram essa pausa por conta de acreditarem que “riscos profundos para a sociedade e a humanidade” possam estar relacionados com essa tecnologia. Outro grande nome assinou a carta além de Musk, Steve Wozniak, o cofundador da Apple.

Quem publicou a carta com o pedido foi o Future of Life Institute (FOLI), que é uma instituição de pesquisa com sede nos EUA, no dia 22 de março. A convocação feita pelo instituto foi para todas as empresas de inteligência artificial para que elas pausassem imediatamente o treinamento de sistemas de IA que eram mais poderosos do que o GPT-4 durante seis meses.

O argumento usado para esse pedido foi que “a competição de inteligência com os humanos pode representar riscos profundos para a sociedade e a humanidade”.

“A inteligência artificial avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais. Infelizmente, esse nível de planejamento e gestão não está sendo adotado”, defendeu o instituto.

O GPT-4 foi lançado no dia 14 de março e é a versão mais recente do chat que é baseado em inteligência artificial da OpenAI. Ele conseguiu passar em algumas das provas mais exigentes do ensino médio e do curso de direito dos EUA, conseguindo uma nota que o colocava entre os melhores.

Na visão da FOLI, existe uma corrida entre as empresas de inteligência artificial que está fora de controle para ver quem consegue desenvolver a IA mais poderosa que tenha um resultado que “ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”.

Justamente por isso que a carta pedindo a pausa no desenvolvimento pontua que isso poderia fazer com que as máquinas inundassem os canais de informação com propagandas e falsidades, além de também alegarem que existe a possibilidade de elas automatizarem todas as oportunidades de emprego.

Como se isso não bastasse, a FOLI também sugeriu que os produtos dessas empresas podem levar a humanidade para uma ameaça existencial. “Devemos desenvolver mentes não humanas que possam eventualmente nos superar em número, ser mais espertas, tornando as nossas mentes obsoletas e nos substituir? Devemos arriscar perder o controle sobre a nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos pelo público”, disse a carta.

Fonte: Tecmundo, Exame

Imagens: Tech ao minuto, Portal juristas

Avanço científico surpreendente: Cientistas criam um ‘disco de buraco negro’ em laboratório

Artigo anterior

Revelado: Usuários do Facebook estão descobrindo o destino de suas contas após a morte

Próximo artigo

Comentários

Comentários não permitido