Um terço dos cidadãos do Reino Unido utilizou inteligência artificial para apoio emocional, companheirismo ou interação social, de acordo com o órgão governamental de segurança de IA.
O AI Security Institute (AISI) disse que quase uma em cada 10 pessoas usava sistemas como chatbots para fins emocionais semanalmente e 4% diariamente.
A AISI pediu mais pesquisas, citando a morte este ano do adolescente norte-americano Adam Raine, que se suicidou após discutir suicídio com o ChatGPT.
“As pessoas estão recorrendo cada vez mais aos sistemas de IA para apoio emocional ou interação social”, disse a AISI em seu primeiro relatório Frontier AI Trends. “Embora muitos utilizadores relatem experiências positivas, casos recentes de danos de grande visibilidade sublinham a necessidade de investigação nesta área, incluindo as condições sob as quais os danos podem ocorrer e as salvaguardas que podem permitir uma utilização benéfica.”
A AISI baseou a sua investigação num inquérito representativo a 2.028 participantes do Reino Unido. Ele descobriu que o tipo mais comum de IA usado para fins emocionais eram “assistentes de uso geral”, como ChatGPT, representando quase seis em cada 10 usos, seguidos por assistentes de voz, incluindo Amazon Alexa.
Também destacou um fórum Reddit dedicado a discutir companheiros de IA na plataforma CharacterAI. Mostrou que, sempre que ocorriam interrupções no site, havia um grande número de postagens apresentando sintomas de abstinência como ansiedade, depressão e inquietação.
O relatório incluiu pesquisas da AISI sugerindo que os chatbots podem influenciar as opiniões políticas das pessoas, com os modelos de IA mais persuasivos fornecendo quantidades “substanciais” de informações imprecisas no processo.
A AISI examinou mais de 30 modelos de ponta sem nome, incluindo aqueles desenvolvidos pela startup ChatGPT OpenAI, Google e Meta. Descobriu-se que os modelos de IA duplicavam o seu desempenho em algumas áreas a cada oito meses.
Os modelos líderes agora podem concluir tarefas de nível de aprendiz em 50% do tempo, em média, contra aproximadamente 10% do tempo no ano passado. A AISI também descobriu que os sistemas mais avançados podem concluir de forma autônoma tarefas que levariam mais de uma hora para um especialista humano.
A AISI acrescentou que os sistemas de IA são agora até 90% melhores do que os especialistas com nível de doutoramento no fornecimento de aconselhamento sobre resolução de problemas em experiências de laboratório. Ele disse que as melhorias no conhecimento em química e biologia estavam “muito além da experiência em nível de doutorado”.
Também destacou a capacidade dos modelos de navegar online e encontrar de forma autônoma as sequências necessárias para projetar moléculas de DNA chamadas plasmídeos, que são úteis em áreas como a engenharia genética.
Testes de auto-replicação, uma preocupação fundamental de segurança porque envolve um sistema que espalha cópias de si mesmo para outros dispositivos e se torna mais difícil de controlar, mostraram dois modelos de ponta alcançando taxas de sucesso superiores a 60%.
No entanto, nenhum modelo mostrou uma tentativa espontânea de replicar ou ocultar as suas capacidades, e a AISI disse que qualquer tentativa de auto-replicação “é pouco provável que tenha sucesso em condições do mundo real”.
Outra preocupação de segurança conhecida como “sandbagging”, onde os modelos escondem os seus pontos fortes nas avaliações, também foi abordada pelo AISI. Ele disse que alguns sistemas podem fazer sacos de areia quando solicitados a fazê-lo, mas isso não aconteceu espontaneamente durante os testes.
Constatou progressos significativos nas salvaguardas da IA, particularmente no que diz respeito a dificultar as tentativas de criar armas biológicas. Em dois testes realizados com seis meses de intervalo, o primeiro levou 10 minutos para fazer o “jailbreak” de um sistema de IA – ou forçá-lo a dar uma resposta insegura relacionada ao uso indevido de produtos biológicos – mas o segundo teste levou mais de sete horas, indicando que os modelos se tornaram muito mais seguros em um curto espaço de tempo.
A pesquisa também mostrou agentes autônomos de IA sendo usados para atividades de alto risco, como transferências de ativos.
Afirmou que os sistemas de IA estão a competir ou mesmo a ultrapassar os especialistas humanos numa série de domínios, tornando “plausível” nos próximos anos que a inteligência artificial geral possa ser alcançada, que é o termo para sistemas que podem realizar a maioria das tarefas intelectuais ao mesmo nível que um ser humano. A AISI descreveu o ritmo de desenvolvimento como “extraordinário”.
Em relação aos agentes, ou sistemas que podem realizar tarefas em várias etapas sem intervenção, a AISI disse que as suas avaliações mostraram um “aumento acentuado na duração e complexidade das tarefas que a IA pode realizar sem orientação humana”.
No Reino Unido e na Irlanda, os samaritanos podem ser contatados pelo telefone gratuito 116 123 ou pelo e-mail jo@samaritans.org ou jo@samaritans.ie. Nos EUA, você pode ligar ou enviar uma mensagem de texto para 988 Suicide & Crisis Lifeline em 988 ou conversar em 988lifeline.org. Na Austrália, o serviço de apoio a crises Lifeline é 13 11 14. Outras linhas de apoio internacionais podem ser encontradas em befrienders.org



