A Califórnia tornou-se na primeira região a apresentar um projecto de lei para a regulamentação do uso de Chatbots de Inteligência Artificial com a exigência de que os operadores de chatbots de IA implementem protocolos de segurança para companheiros de IA.
Designada SB 243, a lei foi concebida para proteger crianças e utilizadores vulneráveis de alguns dos danos associados à utilização de chatbots de IA. A regulamentação responsabiliza legalmente as empresas, desde os grandes laboratórios como Meta e OpenAI até startups que não cumprem os padrões da lei.
A aprovação do projecto de lei ganhou força após a morte de um adolescente por suicídio após uma longa série de conversas suicidas com o ChatGPT da OpenAI.
De acordo com Gavin Christopher Newsom, governador da Califórnia, tecnologias emergentes como chatbots e mídias sociais podem inspirar, educar e conectar, mas sem salvaguardas reais, a tecnologia também pode explorar, enganar e colocar em perigo os adolescentes e jovens.
“Temos visto alguns exemplos verdadeiramente horríveis e trágicos de jovens prejudicados por tecnologia não regulamentada, e não vamos ficar parados enquanto as empresas continuam sem os limites e a responsabilidade necessários”, disse em comunicado.
Para o governador, a liderança em IA deve ser feita de forma responsável, protegendo a todos.
A norma entrará em vigor em janeiro de 2026, e exige que as empresas implementem certos recursos, como verificação de idade e avisos sobre mídias sociais e chatbots de companhia.
Outras notícias para ler:
- Kabum Digital capacita líderes no uso de Inteligência Artificial como vantagem competitiva
- Banco de Moçambique lança assistente virtual para aproximar-se do público
O instrumento também implementa penalidades mais rígidas para aqueles que lucram com deepfakes ilegais, incluindo até 250 mil dólares por infração. As empresas também devem estabelecer protocolos para abordar o suicídio e a autoagressão, que serão compartilhados com o Departamento de Saúde Pública do estado, juntamente com estatísticas sobre como o serviço forneceu aos usuários notificações de prevenção de centros de crise.
Localmente, algumas empresas já começaram a implementar algumas salvaguardas voltadas para crianças. Por exemplo, a OpenAI recentemente começou a lançar controles parentais, proteções de conteúdo e um sistema de detecção de autoagressão para crianças que usam o ChatGPT.
A Character AI disse que seu chatbot inclui um aviso de que todos os chats são gerados por IA e ficcionais. Um porta-voz da Character AI disse ao TechCrunch que a empresa “acolhe a colaboração com reguladores e legisladores à medida que desenvolvem regulamentações e legislação para este espaço emergente, e cumprirá as leis, incluindo a SB 243.”
A SB 243 é a segunda regulamentação significativa de IA da Califórnia. Em setembro, assinou-se como lei, o estabelecimento de novos requisitos de transparência para grandes empresas de IA.
O projecto de lei exige que grandes laboratórios de IA, como OpenAI, Anthropic, Meta e Google DeepMind, sejam transparentes sobre os protocolos de segurança.
Fonte Techcrunch




