Início Notícias As histórias de horror dos pais são um alerta: Protect Kids de...

As histórias de horror dos pais são um alerta: Protect Kids de AI viciante

12
0
As histórias de horror dos pais são um alerta: Protect Kids de AI viciante

Líderes políticos e pais precisam perceber uma ameaça crescente: os chatbots da IA ​​que podem rapidamente sugar seus filhos e se tornar confidentes influentes, às vezes com consequências desastrosas.

Na terça-feira, um subcomitê do Senado ouviu histórias agitadas de três pais que estão processando as empresas de IA, alegando que o caráter.

Dois dos adolescentes acabaram cometendo suicídio; Agora, um está vivendo em uma instalação de tratamento de saúde mental.

No início desta semana, mais três famílias entraram com ações judiciais fazendo reivindicações semelhantes depois que seus filhos menores cometeram ou tentaram suicídio.

Ninguém deve tratar as alegações em ações judiciais como fatos difíceis; Os advogados com fome de assentamentos adoram exagerar. E pais em luto, sofrendo com o pior tipo de perda, podem aproveitar explicações fáceis para o porquê de seu filho o impensável.

Mas, por mais que esses chatbots em particular realmente levassem esses adolescentes a crises, os Estados Unidos precisam garantir alguns corrimãos claros para essa tecnologia.

Em particular, as crianças são especialmente vulneráveis ​​a ficar viciadas e ouvir os bots que fingem se preocupar com elas – e podem usar as informações que são fornecidas livremente em conversas para personalizar respostas, criar um loop de feedback e fazer com que os usuários voltem.

Um estudo da Common Sense Media descobriu que 52% dos adolescentes dos EUA usam esses robôs “companheiro” regularmente para conversar, falar sobre seus problemas e cenários imaginativos de dramatização.

Creepamente, cerca de 8% desses adolescentes relatam flertar com os chatbots, que podem se envolver em conversas românticas ou sexualmente explícitas com os usuários – até menores.

A IA terá muitos usos úteis, mas essas empresas têm interesse em fazer com que os usuários sejam presos a seus produtos o mais rápido possível, e está claramente trabalhando muito bem nas crianças.

A sociedade foi muito lenta em responder ao flagelo dos celulares nas escolas.

E agora estamos calculando a destruição que a mídia social desencadeou as crianças, graças a algoritmos feitos sob medida para manter os olhos jovens colados nas telas por horas a fio.

Em resposta aos processos, o OpenAI, dono do ChatGPT e do personagem.ai, disse que já tem ou planeja fortalecer salvaguardas contra o suicídio.

Mas o perigo para as crianças da América vai muito além dos piores casos de cenas: é muito fácil para esses bots “companheiro” tomarem o lugar de amigos reais, paixões, terapeutas e adultos confiáveis, encolhendo o mundo das crianças para uma tela.

Nova York aprovou uma lei que proíbe plataformas de mídia social de usar algoritmos “viciantes” para menores; O país precisa ver sobre como responsabilizar as empresas de IA por produtos de formação de hábitos.

Faça com que todos os lucros honestos que desejar, mas não explorando as mentes das crianças: comece com os corrimãos em todo o setor em vigor para usuários menores de 18 anos e controla que alertam os pais se o filho usa sobre a linguagem ou indica problemas de saúde mental.

No final, é claro, qualquer solução duradoura também exige que os pais permaneçam alertas.

Não apenas limitando o tempo de tela dos menores, mas permanecendo noivos para reconhecer quando eles estão lutando mentalmente; Incentivar o comportamento não destrutivo em geral-empurrando seus adolescentes a relacionamentos, influências e interesses saudáveis ​​offline.

Essas histórias de horror de crianças que usam bot que se machucam devem ser um alerta: fique no topo da questão agora, ou as crianças da América podem pagar um preço da vida real.

Fuente