Início Tecnologia Character.AI para encerrar conversas para adolescentes

Character.AI para encerrar conversas para adolescentes

21
0
Os usuários menores de 18 anos do Character.AI verão essas imagens informando-os sobre as mudanças.

Personagem. A IA, um importante sistema de chatbot onde os indivíduos interpretam diferentes personalidades, certamente não permitirá mais que proprietários de contas menores de 18 anos tenham discussões flexíveis com chatbots, anunciou a empresa na quarta-feira. Certamente também começará a depender de estratégias de garantia de idade para garantir que os menores não possam abrir contas para adultos.

A mudança significativa ocorre apenas seis semanas depois que Character.AI foi ajuizada novamente no tribunal governamental por vários pais de adolescentes que faleceram por autodestruição ou supostamente sofreram danos graves, incluindo agressão sexual; os pais afirmam que o uso do sistema por seus filhos foi o responsável pelos danos. Em outubro de 2024, Megan Garcia entrou com uma ação de fatalidade injusta tentando responsabilizar a empresa pela autodestruição de seu filho, dizendo que seu produto está com defeito de forma alarmante.

Os defensores da segurança online declararam recentemente que o Character.AI é perigoso para os adolescentes depois de verificarem o sistema nesta primavera e registrarem milhares de comunicações prejudiciais, incluindo violência física e exploração relacionada ao sexo.

Por tratar do estresse legal em 2015, a Character.AI realizou controles de adultos e filtros de materiais em uma iniciativa para aumentar a segurança dos adolescentes.

VEJA ADICIONALMENTE:

Character.AI é arriscado para adolescentes, dizem profissionais

Em uma reunião com o Mashable, o CEO da Character.AI, Karandeep Anand, definiu o novo plano como “vibrante” e rejeitou que cortar as discussões flexíveis do chatbot com adolescentes fosse uma medida para detalhar as preocupações de segurança.

Em vez disso, Anand definiu a decisão como “a melhor coisa a fazer” devido a perguntas mais amplas sem resposta sobre os impactos duradouros do envolvimento do chatbot nos adolescentes. Anand referiu-se ao reconhecimento atual da OpenAI, após a autodestruição de um cliente adolescente, de que discussões prolongadas podem tornar-se imprevisíveis.

Anand lançou o novo plano da Character.AI como um padrão: “Com alguma sorte, ele colocará todos em um caminho onde a IA pode continuar livre de riscos para todos”.

Ele acrescentou que a escolha da empresa não mudará, independentemente da reação do cliente.

Como será o Character.AI para os adolescentes atualmente?

Em uma postagem apresentando o novo plano, Character.AI pediu desculpas a seus adolescentes.

Relatório de padrão Mashable

“Não tomamos essa atitude de nos livrarmos de conversas flexíveis sobre personalidades suavemente – mas acreditamos que é a melhor coisa a fazer, dadas as dúvidas que realmente aumentaram sobre como os adolescentes se conectam e devem se conectar com esta nova tecnologia moderna”, afirmou o post.

Atualmente, indivíduos de 13 a 17 anos podem enviar mensagens com chatbots no sistema. Esse atributo certamente desaparecerá até 25 de novembro. Até depois disso, as contas inscritas para menores certamente terão um período a partir de 2 horas por dia. Essa limitação certamente diminuirá à medida que a mudança longe das conversas flexíveis se aproximar.

Personagem. A IA certamente verá esses alertas sobre como colocar em risco modificações no sistema.
Crédito: Graças a Character.AI

Embora as conversas flexíveis certamente desapareçam, os antecedentes das conversas dos adolescentes com chatbots privados certamente continuarão intactos. Anand disse que as pessoas podem usar esse produto para produzir breves histórias de som e vídeo com seus chatbots favoritos. Nos próximos meses, Character.AI certamente também descobrirá novos atributos, como videogames. Anand acredita que o foco na “diversão de IA” sem conversas flexíveis certamente agradará a paixão inovadora dos adolescentes no sistema.

“Eles envolvem dramatização e ficam encantados”, disse Anand.

Ele insistiu que os antecedentes de conversas existentes com conteúdo delicado ou limitado que talvez não tenha sido detectado anteriormente pelos filtros, como violência física ou sexo, certamente não localizariam seu caminho diretamente nas novas histórias de som ou vídeo.

Um agente da Character.AI disse ao Mashable que a equipe de confiança e segurança da empresa examinou as pesquisas de um arquivo co-publicado em setembro pela Warm Effort registrando trocas prejudiciais de chatbots com contas de teste inscritas para menores. O grupo concluiu que algumas discussões quebraram os padrões materiais do sistema, enquanto outras não. Da mesma forma, tentou duplicar as pesquisas do registro.

“Com base nesses resultados, ajustamos alguns de nossos classificadores, de acordo com nosso objetivo de que os indivíduos tenham uma experiência segura e interessante em nosso sistema”, afirmou o agente.

Não importa, Character.AI certamente começará a fornecer garantia de idade imediatamente. Levará um mês para entrar em vigor e certamente terá inúmeras camadas. Anand disse que a empresa está desenvolvendo suas próprias versões de garantia internamente, mas que certamente fará parceria com uma empresa terceirizada na tecnologia moderna.

Certamente também usará informações e sinais pertinentes, como se um indivíduo possui uma conta validada para maiores de 18 anos em outro sistema, para identificar com precisão a idade de indivíduos novos e existentes. Por último, se um indivíduo pretender testar a resolução de idade do Character.AI, terá a possibilidade de oferecer a confirmação através de um terceiro, que irá gerir registos e informações delicadas, incluindo reconhecimento emitido pelo Estado.

Finalmente, como parte dos novos planos, a Character.AI está desenvolvendo e financiando uma instituição de caridade independente chamada Laboratório de Segurança de IA. O laboratório certamente se concentrará em “estratégias de segurança únicas”.

“(Pretendemos) formar profissionais de mercado e outros parceiros para continuar garantindo que a IA continue livre de riscos, especialmente no mundo do entretenimento de IA”, disse Anand.

Fuente