Ainda é cedo para confiar na Inteligência Artificial

Vice-Presidente da Google

A inteligência Artificial (IA), tem sido um assunto em destaque nos últimos tempos com o surgimento em alta de soluções voltadas a esta área que tem ajudado o público na realização de várias actividades. 

Numa análise deste “boom”, o vice-presidente da Google, Prabhakar Raghavan, revelou que vai demorar muito tempo para que os grandes modelos de linguagem (LLM) que alimentam plataformas de inteligência artificial e chatbots tenham 100% de credibilidade. O alerta foi feito durante uma palestra promovida pelo Instituto de Estudos Avançados (IEA) da Universidade de São Paulo (USP), Brasil.

Inteligência Artificial é um campo da ciência da computação que se concentra no desenvolvimento de sistemas de computador e software capazes de realizar tarefas que normalmente exigiriam inteligência humana. Isso inclui atividades como aprendizado, raciocínio, resolução de problemas, reconhecimento de padrões, compreensão da linguagem natural e interação com o ambiente.

“As pessoas me perguntam quando os LLMs serão 100% confiáveis, e é preciso entender que esses modelos não estão recolhendo fatos em uma base de dados, eles estão inventando coisas”, disse Raghavan, responsável globalmente pelo Google Search, Assistant, Geo, Ads, Commerce e Payments, citado pelo site Folha de São Paulo.

Prabhakar Raghavan reconhece que está claro que os modelos estão a melhorar gradualmente, mas, se o seu padrão de precisão que se espera é 100%, o público pode preparar-se para continuar decepcionado por bom tempo.

Da palestra, sob o lema  “Mecanismos de Busca e Sociedade: Qualidade da Informação e Potencial da Inteligência Artificial”, conversou com os presentes sobre a incorporação da inteligência artificial no mecanismo de buscas do Google pelo Bard, modelo desenvolvido pela empresa.

Bard foi desenvolvido pela empresa para manter a sua posição de líder em serviços de busca na internet, como também para competir com o ChatGPT. Ambas plataformas permitem que o utilizador possa fazer perguntas e obter respostas. 

O vice-presidente realçou ainda que os LLMs simplesmente preveem a próxima palavra em uma frase, e que correlação é diferente de causalidade. “De vez em quando, a correlação se traduz em causalidade, mas isso não quer dizer que exista inteligência.”

LLMs são um tipo de modelo de linguagem composto por uma rede neural com muitos parâmetros que são treinados com grandes quantidades de texto usando aprendizado de máquina supervisionado. 

Leia também:


Raghavan também falou sobre a dificuldade de incluir as fontes das informações nos resultados de buscas alimentados por inteligência artificial.

A resposta a uma busca que usa LLM normalmente é uma frase —e ela não existe literalmente em nenhum lugar da internet, porque, em geral, é uma combinação de informações “raspadas” de diversos sites.

Contudo, o vice-presidente revelou que a empresa está a trabalhar em um mecanismo que pode detectar quando existe uma fonte dominante para uma resposta de Inteligência Artificial , na qual outras fontes se apoiam.

Segundo Raghavan, é mais fácil quando a resposta a um comando de busca é um resumo das dezenas de resultados obtidos, pois a partir destes resultados é possível saber de onde veio cada texto a ser usado.

A discussão sobre as fontes das informações usadas para treinar modelos de IA se tornou central para empresas jornalísticas, que começam a se movimentar para cobrar direitos autorais das plataformas.

Ainda neste cenário, a Google disponibilizou-se para ajudar jornalistas na criação de notícias através da criação de uma plataforma que possa ajudar os profissionais da área na construção de histórias únicas.

 
Fonte Folha de São Paulo

Related Posts

Subscreva-se à nossa newsletter. Fique por dentro da tecnologia!

Total
0
Share