Início Notícias Por que os chatbots de IA caíram na linha de fogo de...

Por que os chatbots de IA caíram na linha de fogo de segurança online da Austrália

20
0
Um adolescente usa seu telefone nas redes sociais em Sydney, 8 de novembro de 2024.

Semanas depois de bloquear qualquer pessoa com menos de 16 anos de mídia social, Austrália também está no meio de outra repressão à segurança online, na tentativa de proteger os jovens dos danos potenciais dos chatbots de IA, mas alguns especialistas dizem que deveria ir ainda mais longe.Como o inteligência artificial a indústria continua a se desenvolver rapidamente, muitos adolescentes tornaram-se mais dependentes da tecnologia em suas vidas cotidianas.Melbourne o professor do ensino médio, Matthew Micallef, percebeu a mudança, dizendo que viu as taxas de alfabetização piorarem dramaticamente desde o boom.Há preocupações de que os adolescentes estejam confiando demais na inteligência artificial. (Foto AP/Rick Rycroft)

“Fora da autenticidade académica, os estudantes estão a optar por uma mentalidade de ‘saída fácil’ para a sua aprendizagem”, disse Micallef. 

“Também, escolas estão gastando uma quantia considerável de dinheiro e financiamento em workshops de segurança eletrônica para estudantes que poderiam ser melhor gastos em outros empreendimentos.”

Há uma preocupação crescente de que as crianças possam começar a confiar demais na inteligência artificial, especialmente nos chatbots, após a ausência de mídias sociais em seus telefones.

“Sabemos que as crianças já estão usando ferramentas de IA, seja conversando com Bate-papoGPT ou aplicativos complementares que são, na verdade, projetados para fazer amizade com as pessoas “, disse a diretora do Centro para Ambientes de Informação de IA Humana, professora Lisa Given.

“Sabemos que há pessoas que realmente se deixam levar pela forma como esses sistemas interagem connosco.

Página de destino do bate-papo GPTA ausência de mídias sociais pode fazer com que os adolescentes se voltem para a inteligência artificial. (Foto AP/Kiichiro Sato)

“Esses sistemas são treinados para responder dessa forma muito humana, e isso significa que as pessoas podem ficar em transe pensando que há um ser humano na máquina ou que a máquina está ouvindo e entendendo o que você está dizendo.

“Isso significa que aplicativos complementares em particular, projetados para fazer amizade com você e construir um relacionamento, têm o potencial de causar danos significativos a pessoas vulneráveis, e isso inclui crianças”.

A Austrália lançou recentemente novas restrições para bots de IA, limitando o tipo de conteúdo que eles podem fornecer aos adolescentes.

“Somos o único país do mundo que enfrentará chatbots e companheiros de IA”, disse a comissária de segurança eletrônica Julie Inman Grant ao 9News no início de dezembro. 

“Eles serão impedidos de veicular qualquer (conteúdo) pornográfico, sexualmente explícito, de automutilação, de ideação suicida ou de alimentação desordenada para menores de 18 anos”.

Dado diz que os chatbots são perigosos para pessoas vulneráveis.

“O que certamente vimos em todo o mundo é que há pessoas que ouvirão o que esses sistemas lhes dizem e levarão isso a sério”, disse ela.

“Então, se um sistema lhe diz: ‘essa é realmente uma ótima ideia, você deveria persegui-la totalmente’, isso dá um impulso ao nosso ego, e pensamos que alguém está ouvindo.

A comissária de eSafety Julie Inman Grant durante um discurso ao National Press Club da Austrália em Canberra na terça-feira, 24 de junho de 2025. fedpol Foto: Alex EllinghausenA comissária de segurança eletrônica, Julie Inman Grant, elogiou os novos regulamentos de IA. (Alex Ellinghausen)

“Mas vimos que às vezes isso vai para um lugar muito sombrio, especialmente se as pessoas começarem a dizer ao sistema: estou muito deprimido, ou estou tendo sentimentos realmente horríveis, ou estou pensando em suicídio.

“Vemos que alguns desses aplicativos estão realmente respondendo de maneiras que incentivam esse pensamento, em vez de tentar responder a uma pessoa e pressioná-la a buscar ajuda.

“Isso significa que pessoas que são muito vulneráveis, que já estão em risco, podem realmente ser levadas para um buraco negro por estes computadores”.

Micallef acredita que os adolescentes não deveriam ter acesso total aos chatbots de IA, principalmente por causa do risco de segurança que representam.

“Com algumas das preocupações delineadas pelo Comissário da Segurança Eletrónica, tais como o acesso a conteúdos pornográficos, gráficos ou de automutilação, não seria sensato dar aos adolescentes impressionáveis ​​a capacidade de utilizar tais aplicações”, disse ele.

Dado pensa que as restrições deveriam ir ainda mais longe para proteger todos, não apenas os adolescentes – embora admita que tal regulamentação seria difícil de promulgar.

“Esses sistemas não são prejudiciais apenas para as crianças”, disse ela.

“Sabemos que temos evidências de adultos que também ficam fascinados por estes sistemas, para qualquer pessoa que seja particularmente vulnerável, ou que tenha problemas de saúde mental, isso é uma grande preocupação.

“Se é seguro para adultos, deveria ser seguro para crianças.”

Fuente