Foi publicada, recentemente, uma carta aberta que alerta para a perigosidade da dinâmica racial actual na área da Inteligência Artificial e apela à criação de reguladores independentes para garantir a segurança na implantação de sistemas futuros.
Vários líderes de renome, incluindo Elon Musk, assinaram a carta aberta que apela os laboratórios de Inteligência Artificial (IA) em todo o mundo a interromperem o desenvolvimento de sistemas de IA em larga escala.
As preocupações estão ligados aos “riscos profundos para a sociedade e humanidade” que alegam ser representados por este tipo de software.
O Instituto do Futuro da Vida, organização que publicou a carta, destaca que os laboratórios de Inteligência Artificial estão actualmente envolvidos em uma “corrida desenfreada” para desenvolver e implantar sistemas de aprendizagem de máquina que, segundo eles, “nem mesmo seus criadores conseguem entender, prever ou controlar de forma confiável”.
“Apelamos a todos os laboratórios de IA para que parem imediatamente durante pelo menos 6 meses a formação de sistemas de IA mais potentes do que o GPT-4”.
A carta também sugere que esta pausa deve ser pública e verificável, e deve incluir todos os principais intervenientes.
Além disso, se uma pausa como esta não puder ser implementada rapidamente, os governos devem intervir e estabelecer uma moratória.
Leia também:
- Empresa de implantes cerebrais busca por parceiro para testes em humanos
- CEO do ChatGPT com “medo” do poder da Inteligência Artificial
A lista dos assinantes inclui várias personalidades de renome, como o autor Yuval Noah Harari, o co-fundador da Apple Steve Wozniak, o co-fundador do Skype Jaan Tallinn, o político Andrew Yang, além de vários pesquisadores e CEOs conhecidos na área da IA, tais como Stuart Russell, Yoshua Bengio, Gary Marcus e Emad Mostaque.
Embora seja improvável que a carta tenha um impacto imediato na atual dinâmica da pesquisa em IA, que tem visto empresas de tecnologia como a Google e a Microsoft acelerarem a implantação de novos produtos, muitas vezes ignorando preocupações sobre segurança e ética, ela sinaliza a crescente oposição à abordagem de “enviar agora e consertar depois”.
Essa oposição pode potencialmente levar o debate para o âmbito político, onde os legisladores poderão considerar as preocupações levantadas pelos signatários da carta.
Conforme mencionado na carta, até mesmo a OpenAI já havia expressado a possibilidade de uma “revisão independente” dos futuros sistemas de IA para garantir a conformidade com as normas de segurança. Os signatários da carta afirmam que agora é o momento de agir nesse sentido.
Na carta, argumentam que os laboratórios de IA e especialistas independentes devem aproveitar essa pausa para trabalhar juntos no desenvolvimento de um conjunto de protocolos de segurança compartilhados para o avanço da concepção e desenvolvimento de IA.
Esses protocolos devem ser rigorosamente auditados e supervisionados por especialistas externos independentes para garantir que os sistemas que os seguem são seguros além de qualquer dúvida razoável.
Fonte The Verge