Curiosidades

OpenAI adota medidas para combater os perigos da IA

0

A inteligência artificial (IA) e o seu desenvolvimento estão dando às máquinas cada vez mais a possibilidade de terem conhecimentos e permitindo que elas se adaptem ao seu meio e desempenhem tarefas quase da mesma maneira que um ser humano faria. E o futuro de como isso será na nossa sociedade tem sido uma preocupação até mesmo entre os grandes nomes do assunto.

Essa preocupação aumentou conforme ferramentas como o chatGPT e IAs generativas foram ficando mais populares. Tanto é que a OpenAI revelou planos para combater os perigos que ela pensa que estão relacionados com a tecnologia que ela mesma desenvolve, dentre eles, a possibilidade de que pessoas com más intenções consigam aprender a construir armas químicas e biológicas.

A empresa tem uma equipe para fazer isso que se chama “Preparação”. Ela é liderada pelo professor de inteligência artificial do MIT, Aleksander Madry, e terá como membros pesquisadores, cientistas da computação, especialistas em segurança nacional e profissionais de políticas que irão monitorar e testar de maneira constante a tecnologia. Isso será feito para que a OpenAI seja alertada caso os especialistas pensem que alguma de seus capacidades de IA esteja ficando perigosa.

Como dito, conforme o ChatGPT e a IA generativa avançam, líderes como a OpenAI, Google e Microsoft, começaram a fazer alertas esse ano de que a tecnologia pode representar um perigo existencial para a humanidade, assim como as armas nucleares e pandemias.

Monitoramento da IA

Refinitiv

De acordo com alguns pesquisadores de IA, ter o foco nesses riscos maiores e mais assustadores dá às empresas a possibilidade de se distanciarem dos efeitos prejudiciais que a tecnologia já está causando.

Contudo, um grupo de líderes empresariais em IA pontua que os riscos são exagerados e que as empresas têm que seguir em frente com o desenvolvimento da tecnologia para que ela possa ajudar a melhorar a sociedade, e claro, ganhar dinheiro com isso.

No caso da OpenAI, sua posição é meio intermediária. Conforme o CEO da empresa, Sam Altman, realmente existem riscos sérios a longo prazo que são inerentes à IA. Contudo, ele enfatiza que é importante resolver os problemas que já existem.

Ainda de acordo com o CEO, a regulamentação para que os impactos nocivos da IA sejam prevenidos não deve dificultar a competição para as empresas menores. Ele também dá impulso para que a empresa comercialize sua tecnologia e arrecade fundos para que o crescimento mais rápido seja possível.

Preocupações

Dig watch

Esse ano, Aleksander Madry, pesquisador experiente em IA que dirige o Center for Deployable Machine Learning do MIT e co-lidera o MIT AI Policy Forum, juntou-se à OpenAI. Ele foi um dos poucos líderes da empresa que renunciaram quando Altman foi demitido em novembro, mas voltou depois de cinco dias quando o CEO foi reintegrado ao time.

A equipe que Madry lidera está contratando especialistas em segurança nacional fora do mundo da IA para ajudar a empresa no entendimento em como lidar com grandes riscos.

Além disso, a OpenAI está começando discussões com organizações, como a National Nuclear Security Administration, que faz a supervisão tecnológica nuclear nos EUA, para que ela possa estudar de forma adequada os riscos da IA.

A equipe “Preparação” irá monitorar como e quando a tecnologia da OpenAI irá instruir as pessoas a hackear computadores ou construir armas químicas, biológicas ou nucleares.

Na visão de Madry, não há motivos para temer que a IA já tenha ultrapassado a inteligência humana e querer eliminar todas as barreiras para o desenvolvimento da IA. De acordo com ele, essa dicotomia é extremamente simplista. Por isso que é preciso fazer um trabalho que garanta que os benefícios da IA sejam alcançados e seus aspectos negativos sejam minimizados.

Riscos

Tech ao minuto

Além da OpenAI, outros grandes nomes do ramo também já levantaram uma preocupação com os possíveis riscos da IA, como por exemplo, Eric Schmidt, que foi CEO do Google entre os anos 2001 e 2011.

“O risco existencial é definido como muitas, muitas, muitas pessoas feridas ou mortas. Existem cenários, não hoje, mas razoavelmente em breve, onde esses sistemas serão capazes de encontrar explorações de dia zero em questões cibernéticas ou descobrir novos tipos de biologia”, disse.

Schmidt compartilhou suas preocupações na Cúpula do Conselho de CEOs do The Wall Street Journal, em Londres, em maio desse ano. O ex-CEO do Google disse que, até o momento, isso é uma ficção, mas que existe sim uma realidade na visão dele.

“Quando isso acontecer, queremos estar prontos para saber como garantir que essas coisas não sejam mal utilizadas por pessoas más”, continuou.

Mesmo com essa preocupação, Schmidt, assim como a maioria das pessoas do ramo, não tem ideia de como a inteligência artificial pode ser regulamentada.

Fonte: Olhar digital,  Tecmundo

Imagens: Refinitiv, Dig watch, Tech ao minuto

Celulares podem ouvir conversas para gerar anúncios, pontua relatório

Artigo anterior

Meteoro transformou noite em dia na região central da Bahia

Próximo artigo

Comentários

Comentários não permitido