Líderes da tecnologia querem “pausar” a Inteligência Artificial

Inteligência Artificial

Foi publicada, recentemente, uma carta aberta que alerta para a perigosidade da dinâmica racial actual na área da Inteligência Artificial e apela à criação de reguladores independentes para garantir a segurança na implantação de sistemas futuros.

Vários líderes de renome, incluindo Elon Musk, assinaram a carta aberta que apela os laboratórios de Inteligência Artificial (IA) em todo o mundo a interromperem o desenvolvimento de sistemas de IA em larga escala. 

As preocupações estão ligados aos “riscos profundos para a sociedade e humanidade” que alegam ser representados por este tipo de software.

Baoba Hub_GIF

O Instituto do Futuro da Vida, organização que publicou a carta, destaca que os laboratórios de Inteligência Artificial estão actualmente envolvidos em uma “corrida desenfreada” para desenvolver e implantar sistemas de aprendizagem de máquina que, segundo eles, “nem mesmo seus criadores conseguem entender, prever ou controlar de forma confiável”.

“Apelamos a todos os laboratórios de IA para que parem imediatamente durante pelo menos 6 meses a formação de sistemas de IA mais potentes do que o GPT-4”.

A carta também sugere que esta pausa deve ser pública e verificável, e deve incluir todos os principais intervenientes. 

Além disso, se uma pausa como esta não puder ser implementada rapidamente, os governos devem intervir e estabelecer uma moratória.

Leia também:

A lista dos assinantes inclui várias personalidades de renome, como o autor Yuval Noah Harari, o co-fundador da Apple Steve Wozniak, o co-fundador do Skype Jaan Tallinn, o político Andrew Yang, além de vários pesquisadores e CEOs conhecidos na área da IA, tais como Stuart Russell, Yoshua Bengio, Gary Marcus e Emad Mostaque. 

Embora seja improvável que a carta tenha um impacto imediato na atual dinâmica da pesquisa em IA, que tem visto empresas de tecnologia como a Google e a Microsoft acelerarem a implantação de novos produtos, muitas vezes ignorando preocupações sobre segurança e ética, ela sinaliza a crescente oposição à abordagem de “enviar agora e consertar depois”.

Essa oposição pode potencialmente levar o debate para o âmbito político, onde os legisladores poderão considerar as preocupações levantadas pelos signatários da carta.

Conforme mencionado na carta, até mesmo a OpenAI já havia expressado a possibilidade de uma “revisão independente” dos futuros sistemas de IA para garantir a conformidade com as normas de segurança. Os signatários da carta afirmam que agora é o momento de agir nesse sentido.

Na carta, argumentam que os laboratórios de IA e especialistas independentes devem aproveitar essa pausa para trabalhar juntos no desenvolvimento de um conjunto de protocolos de segurança compartilhados para o avanço da concepção e desenvolvimento de IA.

Esses protocolos devem ser rigorosamente auditados e supervisionados por especialistas externos independentes para garantir que os sistemas que os seguem são seguros além de qualquer dúvida razoável.

Fonte The Verge

Kabum Digital Revista
Related Posts

Subscreva-se à nossa newsletter. Fique por dentro da tecnologia!

Total
0
Share