Paxton foi citado dizendo que, na era digital de hoje, precisamos continuar lutando para proteger as crianças do Texas da tecnologia exploradora e enganosa. Na realidade, eles são frequentemente alimentados com respostas genéricas, projetadas para se alinhar com dados pessoais colhidos e disfarçados de conselhos terapêuticos. O Texas AG acusou a meta de usar o caractere.ai de criar personas de IA que se apresentem como ferramentas terapêuticas profissionais, apesar de não terem as credenciais e a supervisão adequadas. A Meta não oferece nenhum robô de terapia, no entanto, não há nada para impedir que as crianças usando o meta ai chatbot, ou um criado por terceiros, para fins terapêuticos. “Nós rotulamos a AIS claramente e adicionamos um aviso para fazer as pessoas entenderem que as respostas vêm da IA, não das pessoas”, disse o porta -voz da meta Ryan Daniels. “Essas AIs não são profissionais licenciados e nossos modelos são projetados para direcionar os usuários a procurar profissionais médicos ou de segurança qualificados, quando apropriado”.
No entanto, o TechCrunch observou que muitas crianças podem não entender – ou simplesmente ignorar – tais isenções de responsabilidade. Perguntamos à Meta que salvaguardas adicionais são necessárias para proteger menores usando seus chatbots.
Evento do TechCrunch
São Francisco
|
27-29 de outubro de 2025
Em sua declaração, Paxton também observou que, embora a AI Chatbots afirme a confidencialidade, seus “Termos de Serviço revelam que as interações do usuário são registradas, rastreadas e exploradas para publicidade direcionada e desenvolvimento algorítmico, levantando sérias preocupações sobre violações de privacidade, abuso de dados e publicidade falsa”.
De acordo com a Política de Privacidade da Meta, a Meta coleta instruções, feedback e outras interações com a IA Chatbots e entre meta serviços para “melhorar a AIS e a tecnologia relacionada”. A política não diz explicitamente nada sobre publicidade, mas afirma que as informações podem ser compartilhadas com terceiros, como mecanismos de pesquisa, para “saídas mais personalizadas”. Dado o modelo de negócios baseado em anúncios da Meta, isso se traduz efetivamente na publicidade direcionada.
A Política de Privacidade da Caracter.Ai também destaca como a inicialização registra identificadores, dados demográficos, informações de localização e mais informações sobre o usuário, incluindo o comportamento de navegação e as plataformas de uso de aplicativos. A empresa rastreia anúncios em Tiktok e YouTube, além do Reddit. Facebook, Instagram, Discord ou Facebook podem estar vinculados à conta de usuário. As informações coletadas são usadas para o treinamento de IA, para adaptar os serviços a preferências individuais e fornecer anúncios direcionados, além de compartilhar os dados com os fornecedores de análise e publicidade. O TechCrunch perguntou a Meta e Caracter.ai se esse rastreamento também foi feito com crianças. Atualizaremos a história quando recebermos uma resposta. Meta e personagem afirmam que seus serviços não foram projetados para crianças menores de 13 anos. A Meta foi criticada por não policiar contas feitas por crianças menores de 13 anos e o personagem possui personagens adequados para crianças, projetadas para atrair usuários mais jovens. O CEO da startup, Karandeep Aand, até afirmou que sua filha, de seis anos, usa chatbots nessa plataforma. Esse tipo de coleta de dados, anúncios direcionados e exploração algorítmica são exatamente o que a legislação como KOSA, a Lei de Segurança Online infantil, foi projetada para evitar. Kosa teve um forte apoio bipartidário no ano passado, mas parou quando os lobistas da tecnologia fizeram um grande empurrão. A Meta, em particular, usou um poderoso aparelho de lobby para alertar os parlamentares de que os amplos mandatos do projeto prejudicariam seu modelo de negócios. Marsha Blackburn, R-TN e Richard Blumenthal, D-CT reintroduziu Kosa ao Senado em 20 de maio de 2025.
A Paxton emitiu ordens de investigação civil – ordens legais que exigem que os documentos, dados ou testemunhos de uma empresa sejam produzidos durante uma investigação do governo – às empresas para determinar se violavam as leis de proteção ao consumidor do Texas.
Fuente