A OpenAI lançou uma nova ferramenta com o objectivo de identificar se uma imagem foi criada com o seu gerador de imagens DALL-E AI, bem como novos métodos de marca de água para assinalar mais claramente os conteúdos que são criados pela Inteligência Artificial.
O anúncio foi feito no blogue da OpenAI onde revelou que começou a desenvolver novos métodos de proveniência para rastrear conteúdos e provar se foram gerados por Inteligência Artificial.
“Estamos a introduzir novas ferramentas para ajudar os investigadores a estudar a autenticidade dos conteúdos e estamos a aderir ao Comité Diretivo da Coligação para a Proveniência e Autenticidade dos Conteúdos”,
escreve a empresa no site oficial em comunicado.
Segundo a OpenAI, empresa que detem a plataforma de Inteligência Artificial mais utilizada no mundo (ChatGPT), acredita que é importante para toda a sociedade adoptar novas tecnologias e normas que ajudem as pessoas a compreender as ferramentas utilizadas para criar o conteúdo que encontram online, uma vez que cresce a adopção de IA generativa para criar e editar imagens, vídeos e áudio de forma a impulsionar a criatividade, a produtividade e a aprendizagem.
O sistema de classificação prevê a probabilidade de uma imagem ter sido criada pelo DALL-E 3 e a OpenAI afirma que o classificador funciona mesmo que a imagem seja cortada ou comprimida ou que a saturação seja alterada.
Outras notícias:
- OpenAI apresenta solução que imita vozes humanas
- Ilya Sutskever, um dos criadores do ChatGPT, abandona a empresa
A precisão para identificação de imagens é forte do lado das imagens que foram feitas com o DALL-E 3 com cerca de 98% de precisão, porém, o desempenho para descobrir se o conteúdo era de outros modelos de IA não é tão eficiente.
Neste momento, a ferramenta para identificar imagens criadas por IA está a ser aperfeiçoada através da recolha do feedback dos utilizadores para testar a sua eficácia.
Neste combate. a OpenAI também se juntou a um grupo da indústria de tecnologia que inclui a Google, a Microsoft e a Adobe com o plano de fornecer uma norma que ajudaria a rastrear a origem de diferentes meios de comunicação.
A OpenAI tem vindo a trabalhar na deteção de conteúdos gerados por Inteligência Artificial há vários anos. No entanto, em 2023, teve de terminar um programa que tentava identificar texto escrito por IA porque o classificador de texto de IA tinha consistentemente uma baixa precisão.
Segundo a empresa, os esforços são apenas uma parte de um esforço mais vasto da indústria, onde muitos dos laboratórios de investigação estão a fazer avanços nesta área.
Fonte The Verge Reuters