Na terça-feira, o Google compartilhou pela primeira vez detalhes sobre como seu chatbot de IA Gemini foi projetado para não agir como um companheiro ou alegar ser humano ao interagir com menores.
A informação, publicada pela empresa em postagem no blog, foi anunciada em meio a mudanças para melhor apoiar a saúde mental dos usuários que interagem com o Gemini.
Especialistas em segurança infantil e saúde mental há muito se preocupam com o fato de os chatbots semelhantes a companheiros serem perigosos demais para os adolescentes usarem. No ano passado, o grupo de defesa Common Sense Media classificou as versões adolescentes e menores de 13 anos do Gemini como de “alto risco” depois que seus pesquisadores determinaram que o chatbot expunha as crianças a conteúdo impróprio, incluindo sexo, drogas, álcool e “conselhos” inseguros sobre saúde mental.
VEJA TAMBÉM:
Como os adolescentes realmente se sentem em relação à IA e ao seu futuro
O grupo recomendou que ninguém com menos de 18 anos recorresse a um chatbot de IA para obter companhia ou apoio à saúde mental.
O Google disse que Gemini tem “proteções pessoais” ao interagir com usuários menores de 18 anos. As restrições de longa data são prevenir a dependência emocional e evitar “linguagem que simule intimidade projetada ou expresse necessidades”, segundo o Google. Outras salvaguardas devem ajudar a desencorajar o chatbot de intimidação e outros tipos de assédio.
Relatório de tendências do Mashable
“Nossos esforços de segurança continuam a evoluir e refletem nosso compromisso contínuo em criar um ambiente digital saudável e positivo onde os jovens possam explorar e aprender com confiança”, disse o Google no blog da empresa.
O Google também anunciou que atualizou o Gemini para agilizar recursos para usuários que possam buscar ou precisar de recursos de saúde mental. Uma nova interface de “um toque” oferecerá conexões variadas com recursos de linha direta para crises, inclusive via chat, chamada e texto.
Essa interface aparecerá durante uma conversa com Gemini assim que for ativada. O Google disse que está tentando priorizar ajudar os usuários a receber suporte humano. Além disso, as respostas de Gêmeos deveriam encorajar a busca de ajuda, em vez de validar comportamentos prejudiciais e confirmar crenças falsas.
VEJA TAMBÉM:
Explicando o fenômeno conhecido como ‘psicose de IA’
Em março, o Google e sua controladora Alphabet foram processados pela família de um homem adulto que alegou que ele se matou a pedido de Gemini.
“O Gemini foi projetado para não encorajar a violência no mundo real ou sugerir automutilação”, disse o Google em comunicado na época. “Nossos modelos geralmente funcionam bem nesses tipos de conversas desafiadoras e dedicamos recursos significativos para isso, mas infelizmente os modelos de IA não são perfeitos.”
Se você estiver se sentindo suicida ou passando por uma crise de saúde mental, converse com alguém. Você pode ligar ou enviar uma mensagem de texto para 988 Suicide & Crisis Lifeline em 988 ou conversar em 988lifeline.org. Você pode entrar em contato com a Trans Lifeline ligando para 877-565-8860 ou para o Trevor Project em 866-488-7386. Envie “START” para a Crisis Text Line em 741-741. Entre em contato com a Linha de Ajuda da NAMI pelo telefone 1-800-950-NAMI, de segunda a sexta, das 10h00 às 22h00 horário do leste dos EUA, ou por e-mail (e-mail protegido). Se você não gosta do telefone, considere usar o 988 Suicide and Crisis Lifeline Chat. Aqui está uma lista de recursos internacionais.



