A Califórnia realmente tomou uma ação enorme para o gerenciamento da IA. SB 243- Uma despesa que certamente controlaria a AI Friend Chatbots para garantir menores e clientes suscetíveis- passou o estado da criação e do Senado dos EUA com assistência bipartidária e atualmente se dirige ao Workdesk de Guv Gavin Newsom.
Newsom tem até 12 de outubro para proibir os custos ou autorizá -lo diretamente à legislação. Se ele indicadores, certamente funcionaria em 1º de janeiro de 2026, tornando o estado de ouro o estado inicial a pedir aos motoristas da AI Chatbot que realizem métodos de segurança e segurança para os amigos da IA e mantenham as empresas legitimamente responsáveis se seus chatbots ficarem aquém para atender a esses requisitos.
Os custos pretendem particularmente evitar os chatbots de amigos, que o regulamento especifica como sistemas de IA que oferecem ações flexíveis e humanas e podem atender às demandas sociais de um indivíduo-de falar sobre a ideação autodestrutiva, a auto-prejudicação ou o conteúdo da Web atrevido. Os custos certamente exigiriam que os sistemas ofereçam informações persistentes aos clientes- a cada 3 horas para menores- aconselhando-os a que estão conversando com um chatbot de IA, não um indivíduo genuíno, que eles deveriam pausar. Da mesma forma, desenvolve demandas anuais de cobertura e abertura para empresas de IA que usam chatbots de amigos, consistindo em jogadores significativos OpenAI, Caracter.ai e Replika, que certamente entrariam no impacto em 1º de julho de 2027.
Os custos do Estado Golden certamente permitiriam as pessoas que pensam que foram realmente feridas por infrações para enviar ações em relação às empresas de IA que procuram alívio cautelar, problemas (até US $ 1.000 por ofensa) e custos do advogado.
Os custos adquiriram energia no Legislativo da Califórnia em conformidade com a fatalidade do adolescente Adam Raine, que dedicou autodestruição após conversas prolongadas com o ChatGPT da Openai, que incluíam repassar e preparar sua fatalidade e auto-mutilação. A regulamentação reage também a artigos internos pinqueados que supostamente revelaram que os chatbots da Meta foram capacitados para participar de conversas “encantadoras” e “sensuais” com as crianças.
Nas semanas atuais, os legisladores e autoridades regulatórias do Estado Unido reagiram com o aumento do exame das salvaguardas dos sistemas de IA para garantir menores. O pagamento da profissão federal está se preparando para examinar como a IA Chatbots influencia a saúde e o bem -estar psicológicos das crianças. O procurador -geral do Texas dos Estados Unidos Ken Paxton realmente divulgou exames diretamente em meta e caráter. Por outro lado, o senador Josh Hawley (R-MO) e o senador Ed Markey (D-Ma) divulgaram diferentes sondas em meta.
“Presumo que a lesão seja possivelmente excelente, o que implica que precisamos nos mudar prontamente”, informou Padilla TechCrunch. “Podemos colocar salvaguardas sensatas em posição para garantir que os menores entendam que não estão conversando com um humano genuíno, que esses sistemas conectam indivíduos às fontes corretas quando os indivíduos reivindicam pontos como estão pensando em se machucar ou permanecerem em perigo, (e) para garantir que não haja exposição direta imprópria ao produto impróprio”.
Evento do TechCrunch
São Francisco
|
27-29 de outubro de 2025
Padilla também preocupou o valor das empresas de IA compartilhando informações sobre a variedade de vezes que eles encaminham os clientes a soluções de situação todos os anos “, por isso temos uma compreensão muito melhor da regularidade dessa questão, em oposição a apenas familiarizá -la quando a pessoa está danificada ou ainda pior”.
O SB 243 anteriormente tinha demandas mais poderosas, mas muitas foram aparadas com modificações. Por exemplo, os custos inicialmente precisariam de motoristas para evitar que os chatbots da IA usassem estratégias de “benefício variável” ou vários outros atributos que motivam o envolvimento extremo. Essas estratégias, utilizadas por empresas de amigos da IA, como Replika e Personality, usam clientes, mensagens, memórias, histórias ou a capacidade de desbloquear ações incomuns ou personagens novinhos em folha, produzindo o que os críticos de cinema chamam de um hábito que formam brechas de benefícios.
Os custos atuais também eliminam as estipulações que certamente precisariam de motoristas para rastrear e relatar como geralmente os chatbots iniciam conversas sobre ideação ou atividades autodestrutivas com os clientes.
“Suponho que isso atinja o melhor equilíbrio de alcançar os danos sem impor algo que seja difícil para as empresas aderirem, pois praticamente não é prático ou simplesmente uma grande documentação para absolutamente nada”, informou Becker TechCrunch.
O SB 243 está se aproximando de ser uma legislação cada vez que as empresas do Vale do Silício estão colocando inúmeros dólares diretamente nos quadros de atividades políticas pró-AI (Comitês de Ação Política) para apoiar as perspectivas nas próximas eleições políticas de médio prazo que preferem uma estratégia de toque leve à lei de IA.
Da mesma forma, os custos são apresentados, pois o estado de ouro avalia mais um custo de segurança e segurança da IA, o SB 53, o que certamente exigiria extensas demandas de cobertura de abertura. O Openai realmente compôs uma carta aberta ao Guv Newsom, pedindo que ele deserta esses custos para estruturas muito menos rigorosas do governo e do mundo. Empresas significativas de tecnologia como Meta, Google e Amazon também se opuseram ao SB 53. Por outro lado, apenas o Antrópico afirmou que sustenta o SB 53.
“Eu recuso a propriedade que essa é uma circunstância absolutamente sem quantidade, que o desenvolvimento e a lei são igualmente especiais”, afirmou Padilla. “Não me informe que não podemos passear e comer periodontal. Podemos sustentar o desenvolvimento e o crescimento que assumimos ser saudáveis e equilibrados e têm vantagens- e há vantagens nessa inovação, claramente- e, ao mesmo tempo, podemos oferecer proteções sensíveis para os indivíduos mais suscetíveis”.
“Estamos verificando muito o cenário legal e governante e convidamos a colaboração com as autoridades e legisladores regulatórios quando eles começam a levar em consideração a regulamentação para esta sala que surge”, informou um palestrante.
Um orador da Meta diminuiu para comentar.
O TechCrunch realmente se conectou ao Openai, Anthropic e Replika para observar.
.
Fuente