Início Tecnologia China elabora o primeiro regulamento de segurança emocional desse tipo para IA

China elabora o primeiro regulamento de segurança emocional desse tipo para IA

17
0
China elabora o primeiro regulamento de segurança emocional desse tipo para IA

A China está a elaborar regulamentos novos e mais rigorosos sobre IA que poderão colocar o país no caminho de se tornar o primeiro a regular as repercussões emocionais dos companheiros de chatbot.

VEJA TAMBÉM:

ChatGPT está mudando o cenário do aborto

Detalhado em um novo projeto de proposta escrito pela Administração do Ciberespaço da China e traduzido pela CNBC, a política exigiria o consentimento do tutor para que menores se envolvessem com companheiros de chatbot, bem como a verificação abrangente da idade. Os chatbots de IA não teriam permissão para gerar conteúdo relacionado a jogos de azar, obsceno ou violento, nem se envolver em conversas sobre suicídio, automutilação ou outros tópicos que pudessem prejudicar a saúde mental de um usuário. Além disso, os “provedores” de tecnologia devem instituir protocolos de escalonamento que conectem moderadores humanos a usuários em perigo e sinalizem conversas arriscadas aos responsáveis.

Os reguladores chineses dizem que o objetivo é focar não apenas na segurança do conteúdo, mas também na segurança emocional, incluindo o monitoramento de bate-papos para detecção de dependência emocional e vício.

Velocidade da luz mashável

É um dos primeiros conjuntos de leis projetadas para controlar especificamente ferramentas antropomórficas de IA, dizem os especialistas. Para esse fim, as regras serão aplicadas a qualquer ferramenta de IA projetada para “simular a personalidade humana e envolver emocionalmente os usuários por meio de texto, imagens, áudio ou vídeo”, relata a CNBC.

VEJA TAMBÉM:

Faça de 2026 o ano em que seu filho deixará de usar o dispositivo

As regras propostas pela China refletem várias disposições de uma lei de IA da Califórnia recentemente aprovada, conhecida como SB 243, assinada pelo governador Gavin Newsom em outubro. A lei exige restrições de conteúdo mais rigorosas, lembretes aos usuários de que estão falando com uma IA não humana, bem como protocolos de emergência para discussões sobre suicídio. Alguns especialistas criticaram o projeto de lei por não ir longe o suficiente para proteger os usuários menores, deixando espaço para as empresas de tecnologia evitarem a supervisão.

Entretanto, a administração Trump suspendeu a regulamentação da IA ​​a nível estatal em favor de um “quadro nacional para a segurança da IA”. A ordem executiva retém financiamento federal de infraestrutura de estados que fortalecem a supervisão da IA. Os líderes federais argumentam que o aumento da regulamentação da IA ​​irá travar a inovação interna e colocar os EUA atrás da China na aparente corrida global da IA.

Fuente