Uso de Chatbots ganha regulamentação em Califórnia

Chatbots

A Califórnia tornou-se na primeira região a apresentar um projecto de lei para a regulamentação do uso de Chatbots de Inteligência Artificial com a exigência de que os operadores de chatbots de IA implementem protocolos de segurança para companheiros de IA.

Designada SB 243, a lei foi concebida para proteger crianças e utilizadores vulneráveis de alguns dos danos associados à utilização de chatbots de IA. A regulamentação responsabiliza legalmente as empresas, desde os grandes laboratórios como Meta e OpenAI até startups que não cumprem os padrões da lei.

A aprovação do projecto de  lei ganhou força após a morte de um adolescente por suicídio após uma longa série de conversas suicidas com o ChatGPT da OpenAI. 

De acordo com Gavin Christopher Newsom, governador da Califórnia, tecnologias emergentes como chatbots e mídias sociais podem inspirar, educar e conectar, mas sem salvaguardas reais, a tecnologia também pode explorar, enganar e colocar em perigo os adolescentes e jovens. 

“Temos visto alguns exemplos verdadeiramente horríveis e trágicos de jovens prejudicados por tecnologia não regulamentada, e não vamos ficar parados enquanto as empresas continuam sem os limites e a responsabilidade necessários”, disse em comunicado. 

Para o governador, a liderança em IA deve ser feita de forma responsável, protegendo a todos. 

A norma entrará em vigor em  janeiro de 2026, e exige que as empresas implementem certos recursos, como verificação de idade e avisos sobre mídias sociais e chatbots de companhia. 

Outras notícias para ler:


O instrumento também implementa penalidades mais rígidas para aqueles que lucram com deepfakes ilegais, incluindo até 250 mil dólares por infração. As empresas também devem estabelecer protocolos para abordar o suicídio e a autoagressão, que serão compartilhados com o Departamento de Saúde Pública do estado, juntamente com estatísticas sobre como o serviço forneceu aos usuários notificações de prevenção de centros de crise.

Localmente, algumas empresas já começaram a implementar algumas salvaguardas voltadas para crianças. Por exemplo, a OpenAI recentemente começou a lançar controles parentais, proteções de conteúdo e um sistema de detecção de autoagressão para crianças que usam o ChatGPT. 

A Character AI disse que seu chatbot inclui um aviso de que todos os chats são gerados por IA e ficcionais. Um porta-voz da Character AI disse ao TechCrunch que a empresa “acolhe a colaboração com reguladores e legisladores à medida que desenvolvem regulamentações e legislação para este espaço emergente, e cumprirá as leis, incluindo a SB 243.”

A SB 243 é a segunda regulamentação significativa de IA da Califórnia. Em setembro, assinou-se como lei, o estabelecimento de novos requisitos de transparência para grandes empresas de IA.

O projecto de lei exige que grandes laboratórios de IA, como OpenAI, Anthropic, Meta e Google DeepMind, sejam transparentes sobre os protocolos de segurança. 

Fonte Techcrunch

Related Posts

Subscreva-se à nossa newsletter. Fique por dentro da tecnologia!

Total
0
Share