CEO do ChatGPT com “medo” do poder da Inteligência Artificial

ChatGPT

Sam Altman, CEO da OpenAI, a empresa responsável pelo desenvolvimento do aplicativo de inteligência artificial ChatGPT, alertou sobre os reais perigos da tecnologia, à medida que ela transforma a sociedade. 

Altman, destacou a importância de reguladores e da sociedade se envolverem com a tecnologia para prevenir consequências potencialmente negativas para a humanidade. 

“Precisamos ter cuidado”, disse Altman à ABC News, “Acho que as pessoas devem estar confortáveis em estar um pouco assustadas com isso”. 

Baoba Hub_GIF

Altman expressou preocupação especial sobre a possibilidade de esses modelos serem usados para disseminar desinformação em grande escala, e que o aprimoramento da escrita de código de computador poderia levar a ciberataques ofensivos.

Apesar dos perigos potenciais, Sam Altman reconheceu que a inteligência artificial poderia também ser “a maior tecnologia que a humanidade já desenvolveu”.

O CEO da OpenAI fez os comentários quando a empresa lançou o GPT-4, a última versão do seu modelo de linguagem, menos de quatro meses depois de a versão original ter se tornado a aplicação de consumo de crescimento mais rápido da história.

Numa entrevista, Altman observou que embora a nova versão “não seja perfeita”, alcançou uma pontuação de 90% nos exames de advogados dos EUA e uma pontuação quase perfeita no teste de matemática do SAT do liceu.

Também afirmou que o GPT-4 pode escrever código informático na maioria das linguagens de programação.

As preocupações com a inteligência artificial têm-se centrado frequentemente na ideia de que as máquinas irão substituir os humanos em várias tarefas. Altman, contudo, enfatizou que a IA só funciona sob a direcção ou entrada de seres humanos.

Leia também

Altman enfatizou que a Inteligência Artificial é uma ferramenta que permanece sob controle humano e só funciona quando é dada um comando ou assistência. Contudo, expressou preocupações sobre quem tem controle sobre a entrada de dados.

Advertiu ainda que pode haver pessoas que não dão prioridade a medidas de segurança, e a sociedade precisa de descobrir como reagir, regular e lidar com tais cenários.

Elon Musk, o CEO da Tesla e um dos primeiros investidores na Opinião quando ainda era uma organização sem fins lucrativos, advertiu repetidamente que a IA representa uma ameaça maior do que as armas nucleares.

Musk também manifestou preocupação com a decisão da Microsoft de dissolver a sua divisão de supervisão ética, dado que o gigante tecnológico hospeda o ChatGPT no seu motor de busca Bing.

Em uma publicação no Twitter, Elon Musk declarou que a falta de supervisão regulamentar da IA é um “grande problema” e tem vindo a apelar à regulamentação da segurança da IA.

Altman reconhece que a última versão do ChatGPT utiliza raciocínio dedutivo em vez de memorização, o que pode levar a respostas estranhas ou bizarras.

Altman adverte sobre o “problema das alucinações” na IA, onde o modelo pode afirmar com confiança as coisas como factos que são completamente inventados.

Desta forma, salientou que os modelos de IA devem ser vistos como motores de raciocínio, e não como bases de dados de factos.

Embora a tecnologia possa armazenar informação factual, o seu verdadeiro valor reside na sua capacidade de raciocinar e não de memorizar.

Fonte CNBC

Kabum Digital Revista
Related Posts

Subscreva-se à nossa newsletter. Fique por dentro da tecnologia!

Total
0
Share