Início Tecnologia Os relacionamentos com IA poderiam realmente ser bons para nós?

Os relacionamentos com IA poderiam realmente ser bons para nós?

17
0
Os relacionamentos com IA poderiam realmente ser bons para nós?

Thoje em dia há muita ansiedade sobre os perigos das relações entre humanos e IA. Relatos de suicídio e automutilação atribuíveis a interações com chatbots ganharam, compreensivelmente, manchetes. A frase “psicose de IA” tem sido usada para descrever a situação de pessoas que experimentam delírios, paranóia ou dissociação após conversarem com grandes modelos de linguagem (LLMs). A nossa ansiedade colectiva tem sido agravada por estudos que mostram que os jovens estão cada vez mais a abraçar a ideia de relacionamentos com IA; Metade dos adolescentes conversa com um companheiro de IA pelo menos algumas vezes por mês, e um em cada três considera que as conversas com IA “são tão ou mais satisfatórias do que aquelas com amigos na vida real”.

Mas precisamos pisar no freio no pânico. Os perigos são reais, mas também o são os benefícios potenciais. Na verdade, pode-se argumentar que – dependendo do que futuras pesquisas científicas revelarem – as relações de IA poderiam na verdade ser uma bênção para a humanidade.

Considere como as relações não-humanas sempre foram onipresentes para a nossa espécie. Temos uma longa história de envolvimento em interações saudáveis ​​com não-humanos, sejam eles animais de estimação, bichos de pelúcia ou objetos ou máquinas amados – pense na pessoa da sua vida que é totalmente obcecada pelo seu carro, a ponto de lhe dar um nome. No caso dos animais de estimação, estas são relações reais na medida em que os nossos cães e gatos entendem que se relacionam connosco. Mas as relações parassociais unilaterais que temos com bichos de pelúcia ou carros acontecem sem que essas coisas saibam que existimos. Somente nos casos mais raros é que essas relações se transformam em algo patológico. A parasocialidade é, em sua maior parte, normal e saudável.

E, no entanto, há algo perturbador nas relações com a IA. Por serem usuários fluentes da linguagem, os LLMs geram a estranha sensação de que têm pensamentos, sentimentos e intenções semelhantes aos humanos. Também geram respostas bajuladoras que reforçam os nossos pontos de vista, raramente desafiando o nosso pensamento. Essa combinação pode facilmente levar as pessoas ao caminho da ilusão. Isso não acontece quando interagimos com gatos, cachorros ou objetos inanimados. Mas a questão permanece: mesmo nos casos em que as pessoas são incapazes de ver através da ilusão de que as IAs são pessoas reais que realmente se preocupam connosco, será isso sempre um problema?

O surgimento da IA ​​não é diferente da descoberta das propriedades analgésicas do ópio

Consideremos a solidão: uma em cada seis pessoas neste planeta experimenta-a, e está associada a um aumento de 26% na morte prematura; o equivalente a fumar 15 cigarros por dia. Estão a surgir pesquisas que sugerem que os companheiros de IA são eficazes na redução dos sentimentos de solidão – e não apenas por funcionarem como uma forma de distração, mas como resultado da própria relação parassocial. Para muitas pessoas, um chatbot de IA é a única opção de amizade disponível, por mais vazio que possa parecer. Tal como a jornalista Sangita Lal explicou recentemente num relatório sobre aqueles que recorrem à IA em busca de companhia, não devemos julgar tão rapidamente. “Se você não entende por que os assinantes desejam, buscam e precisam dessa conexão”, disse Lal, “você tem a sorte de não ter experimentado a solidão”.

Para ser justo, pode-se argumentar que o surgimento das novas tecnologias e das mídias sociais desempenhou, por si só, um papel na condução da epidemia de solidão. É por isso que Mark Zuckerberg foi criticado por seu apoio brilhante à IA como uma solução para um problema que ele pode ser parcialmente responsável pela criação. Mas se a realidade é que ajuda, isto não pode ser descartado imediatamente.

Também há pesquisas que mostram que a IA pode ser usada como uma ferramenta eficaz de psicoterapia. Num estudo, pacientes que conversaram com um chatbot de terapia alimentado por IA mostraram uma redução de 30% nos sintomas de ansiedade. Não tão eficaz quanto os terapeutas humanos, que geraram uma redução de 45%, mas ainda assim é melhor que nada. Vale a pena considerar este argumento utilitário; existem milhões de pessoas que, por qualquer motivo, não conseguem ter acesso a um terapeuta. E, nesses casos, recorrer a uma IA é provavelmente preferível a não procurar ajuda alguma.

Mas um estudo não prova nada. E aí está o problema. Estamos nos estágios iniciais da pesquisa sobre os potenciais benefícios ou danos da companhia da IA. É fácil concentrar-se nos poucos estudos que apoiam as nossas noções preconcebidas sobre os perigos ou benefícios desta tecnologia.

É neste vácuo de investigação que os verdadeiros perigos da IA ​​são revelados. A maioria das entidades que implantam parceiros de IA são empresas com fins lucrativos. E se há uma coisa que sabemos sobre as empresas com fins lucrativos é que elas estão dispostas a evitar regulamentações e a evitar provas que possam prejudicar os seus resultados financeiros. Eles são incentivados a minimizar os riscos, escolher as evidências e promover apenas os benefícios.

O surgimento da IA ​​não é diferente da descoberta das propriedades analgésicas do ópio; se forem aproveitados pelas partes responsáveis ​​com o objectivo de aliviar a dor e o sofrimento, tanto a IA como os opiáceos podem ser uma ferramenta legítima de cura. Mas se os maus actores explorarem as suas propriedades viciantes para enriquecerem, o resultado será a dependência ou a morte.

Continuo esperançoso de que haja um lugar para a companhia da IA. Mas apenas se for apoiada por uma ciência robusta e implementada por organizações que existem para o bem público. As IAs devem evitar o problema da bajulação que leva as pessoas vulneráveis ​​à ilusão. Isto só pode ser alcançado se forem explicitamente treinados para o fazer, mesmo que isso os torne menos atraentes como potenciais companheiros; uma noção que é um anátema para as empresas que querem que você pague uma assinatura mensal, sem a qual você perde o acesso ao seu “amigo”. Eles também devem ser projetados para ajudar o usuário a desenvolver as habilidades sociais necessárias para interagir com humanos reais no mundo real.

O objetivo final dos companheiros de IA deveria ser tornar-se obsoleto. Não importa quão úteis possam ser para colmatar as lacunas no acesso à terapia ou aliviar a solidão, será sempre melhor falar com um ser humano real.

Justin Gregg é biólogo e autor de Humanish (Oneworld).

Leitura adicional

Dependente de código: vivendo na sombra da IA ​​por Madhumita Murgia (Picador, £ 20)

A próxima onda: IA, poder e nosso futuro por Mustafa Suleyman (Vintage, £ 10,99)

Supremacia: IA, ChatGPT e a corrida que mudará o mundo por Parmy Olson (Macmillan, £ 10,99)

Fuente