O bilionário Elon Musk e centenas de especialistas assinaram, nesta quarta-feira (29), um apelo para uma pausa de seis meses na pesquisa sobre Inteligências Artificiais (IAs) mais potentes do que o GPT-4, o modelo da OpenAI lançado este mês, alertando para "grandes riscos para a humanidade".

Na carta publicada no site futureoflife.org, eles pedem uma pausa até que sejam estabelecidos sistemas de segurança com novas autoridades reguladoras, vigilância de sistemas de IA, técnicas que ajudem a distinguir entre o real e o artificial e instituições capazes de fazer frente à "drama perturbação econômica e política (especialmente para a democracia) que a IA causará".

 

 Musk, dono do Twitter, da SpaceX e da Tesla, Evan Sharp, cofundador do Pinterest e Jaan Tallinn, cofundador do Skype são alguns dos signatários.

A lista inclui ainda o cofundador da Apple, Steve Wozniak; membros do laboratório de IA do Google, o DeepMind; o diretor da Stability AI, Emad Mostaque, além de especialistas americanos em IA, acadêmicos e engenheiros-executivos da Microsoft, parceira da OpenAI.

O diretor da Open AI, que criou o ChatGPT, Sam Altman, reconheceu ter "um pouco de medo" de que sua criação seja usada para "desinformação em larga escala, ou para ciberataques".

"A empresa precisa de tempo para se adaptar", disse ele recentemente à emissora ABCNews.

"Nos últimos meses, vimos os laboratórios de IA se lançando em uma corrida descontrolada para desenvolver e implantar cérebros digitais cada vez mais potentes que ninguém, nem mesmo seus criadores, podem entender, prever, ou controlar, de forma confiável", dizem eles na carta.
"Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis", completam.

 AFP