Início Tecnologia AI -significando: uma ameaça de amar ou uma evolução?

AI -significando: uma ameaça de amar ou uma evolução?

50
0
AI -significando: uma ameaça de amar ou uma evolução?

À medida que nossas vidas se tornam mais digitais e passamos mais tempo na interação com chatbots humanos assustadores, a linha entre conexão humana e máquinas começa a desaparecer.

Atualmente, mais de 20% dos daters relatam com a ajuda da IA para coisas como fazer perfis de namoro ou conversas de faísca, de acordo com uma pesquisa recente do Match.com. Alguns vão além, formando laços emocionais, incluindo relacionamentos românticos, com as empresas de IA.

Milhões de pessoas em todo o mundo usam companheiros de IA de empresas como Replika, personagem AI e Nomi AI, incluindo 72% dos adolescentes americanos. Algumas pessoas relataram que se apaixonam por LLMs mais gerais, como o ChatGPT.

Para alguns, a tendência dos datingbots é distópica e prejudicial, uma versão real do filme “Her” e um sinal de que o amor autêntico é substituído pelo código de uma empresa de tecnologia. Para outros, os companheiros de IA são uma linha de vida, uma maneira de sentir e apoiar você em um mundo onde a intimidade humana é cada vez mais difícil de encontrar. Um estudo recente mostrou que um quarto dos jovens adultos pensa que os relacionamentos de IA podem substituir rapidamente as pessoas.

O amor, ao que parece, não é mais estritamente humano. A questão é: deveria ser? Ou pode namorar uma IA melhor do que namorar uma pessoa?

Esse foi o assunto da discussão no mês passado, durante um evento em que participei na cidade de Nova York, organizada pelo Open to Debate, uma organização de mídia que não faz parte, orientada a debates. O TechCrunch obteve acesso exclusivo para publicar o vídeo completo (inclusive eu que faço uma pergunta aos debatedores, porque sou um repórter e não posso me ajudar!).

O jornalista e cineasta Nayeema Raza moderou o debate. Raza foi anteriormente produtora executiva no ar do podcast “On With Kara Swisher” e é o atual anfitrião de “Smart Girl Dumb question”.

Evento do TechCrunch

São Francisco
|
27-29 de outubro de 2025

A Batting for the AI-Companions foi Thao Ha, professora associada de psicologia da Universidade Estadual do Arizona e co-fundadora do Modern Love Collective, onde ela defende tecnologias que melhoram nossa capacidade de amar, empatia e bem-estar. Durante o debate, ela argumentou que “a IA é uma nova e emocionante forma de conexão … não é uma ameaça de amar, mas uma evolução”.

A conexão humana foi Justin Garcia, diretor executivo e cientista sênior do Instituto Kinsey e principal consultor científico do Match.com. Ele é um biólogo evolutivo focado na ciência do sexo e dos relacionamentos, e seu próximo livro é intitulado “O Animal íntimo”.

Você pode ver tudo aqui, mas continue lendo para ter uma idéia dos argumentos mais importantes.

Sempre para você, mas isso é uma coisa boa?

Ha diz que os ramos da IA podem oferecer às pessoas o apoio emocional e a validação que muitos não podem entrar em seus relacionamentos humanos.

“Ai ouve você sem o ego dele”, disse Ha. “Ele se ajusta sem julgamento. Aprende a amar maneiras consistentes, responsivas e talvez até mais seguras. Entende você de uma maneira que ninguém mais tem. É curioso o suficiente sobre seus pensamentos, isso pode fazer você rir e pode até surpreendê -lo com um poema. As pessoas geralmente se sentem amadas por sua IA.

Ela pediu ao público que sempre comparasse esse nível de atenção com “seu ex falível ou talvez com seu parceiro atual”.

“Aquele que suspira quando você começa a falar, ou aquele que diz:” Eu escuto “, sem olhar para cima enquanto eles continuam rolando no telefone”, disse ela. “Quando eles pediram a última vez que você faz, o que você sente, o que você pensa?”

Ha admitiu que, como a IA não tem consciência, ela não afirma que “a IA pode nos amar autenticamente”. Isso não significa que as pessoas não tenham a experiência de serem amadas pela IA.

Garcia respondeu que não é bom que as pessoas tenham validação e atenção constantes, confiar em uma máquina que foi solicitada a responder de uma maneira que você gosta. Esse não é “um indicador honesto de uma dinâmica de um relacionamento”, argumentou.

“Essa ideia de que a IA substituirá os altos e baixos e a confusão dos relacionamentos que desejamos? Acho que não”.

Rodas de treinamento ou substituição

Garcia observou que os companheiros de IA podem ser boas rodas de treinamento para certas pessoas, como pessoas neurodivergentes que podem ter medo de fazer datas e praticar como flertar ou resolver conflitos.

“Acho que se o usarmos como uma ajuda para criar habilidades, sim … isso pode ser muito útil para muitas pessoas”, disse Garcia. “A ideia de que será o modelo de relacionamento permanente? Não.”

De acordo com um estudo do Match.com Singles in America, divulgado em junho, quase 70% das pessoas dizem que considerariam infiel se o parceiro se preocupe com uma IA.

“Agora acho que, por um lado, isso vai ao ponto (ha), que as pessoas dizem que esses são relacionamentos reais”, disse ele. “Por outro lado, custa que são ameaças para nossos relacionamentos. E o animal humano não tolera ameaças por seus relacionamentos de longo prazo”.

Como você pode amar algo em que não pode confiar?

Garcia diz que a confiança é a parte mais importante de todo relacionamento humano, e as pessoas não confiam na IA.

“Segundo uma pesquisa recente, um terço dos americanos pensa que a IA destruirá a humanidade”, disse Garcia, e observou que uma pesquisa recente do YouGe descobriu que 65% dos americanos têm pouca confiança na IA para tomar decisões éticas.

“Um pouco de risco pode ser emocionante para um relacionamento de curto prazo, uma posição de uma noite, mas você geralmente não quer acordar ao lado de alguém que acha que poderia matar ou destruir a sociedade”, disse Garcia. “Não podemos prosperar com uma pessoa, um organismo ou um osso em que não confiamos”.

Ha foi contra o fato de as pessoas tendem a confiar seus companheiros de IA de maneiras comparáveis às relações humanas.

“Eles confiam em suas vidas e nas histórias e emoções mais íntimas que têm”, disse Ha. “Acho que a IA em um nível prático não o salvará agora se houver um incêndio, mas acho que as pessoas confiam na IA da mesma maneira”.

Toque físico e sexualidade

Os companheiros de IA podem ser uma ótima maneira de as pessoas interpretarem suas fantasias sexuais mais íntimas e vulneráveis, disse Ha e notaram que as pessoas podem usar brinquedos ou robôs sexuais para ver algumas dessas fantasias.

Mas não é um substituto para o toque humano, do qual Garcia diz que fomos programados organicamente e desejamos. Ele observou que, por causa da era digital isolada em que nos encontramos, muitas pessoas tiveram “fome” – uma condição que acontece quando você não recebe tanto toque físico quanto você precisa, o que pode causar estresse, ansiedade e depressão. Isso ocorre porque entrando em um toque agradável, como um abraço, permite que seu cérebro solte a ocitocina, um hormônio bem-bom.

Ha disse que testou o toque humano entre casais na realidade virtual com a ajuda de outras ferramentas, como possíveis processos hápticos.

“O potencial do contato na RV e também conectado à IA é enorme”, disse Ha. “As tecnologias táteis que estão sendo desenvolvidas estão realmente crescendo”.

O lado sombrio da fantasia

A violência do parceiro íntimo é um problema em todo o mundo, e grande parte da IA é treinada nessa violência. Ha e Garcia concordaram que a IA poderia ser problemática, por exemplo, fortalecer o comportamento agressivo – especialmente se isso for uma fantasia que alguém brinca com sua IA.

Esse cuidado não é infundado. Vários estudos mostraram que homens que vêem mais pornografia podem incluir sexo violento e agressivo são bastante agressivos sexualmente com parceiros reais.

“O trabalho de um dos meus colegas do Instituto Kinsey, Ellen Kaufman, analisou essa questão exata do idioma de permissão e como as pessoas podem treinar seus chatbots para fortalecer a linguagem não consensual”, disse Garcia.

Ele observou que as pessoas usam companheiros de IA para experimentar o bem e o mal, mas a ameaça é que você possa treinar pessoas sobre como pode ser parceiros agressivos e não consensuais.

“Já tive o suficiente disso na sociedade”, disse ele.

HA acha que esses riscos podem ser limitados com regulamentação bem considerada, algoritmos transparentes e design ético.

É claro que ela fez esse comentário antes da Casa Branca lançar seu plano de ação da IA, que não diz nada sobre transparência – onde muitas empresas de IA fronteiriça são contra – ou ética. O plano também deseja eliminar muitos regulamentos na IA.

Fuente