Início Tecnologia ‘Este trem não vai parar’: filme chocante de Sundance mostra promessas e...

‘Este trem não vai parar’: filme chocante de Sundance mostra promessas e perigos da IA

27
0
‘Este trem não vai parar’: filme chocante de Sundance mostra promessas e perigos da IA

UMestamos caminhando em direção à catástrofe da IA? A IA é uma ameaça existencial ou uma oportunidade histórica? Estas são as questões mais importantes para um novo documentário em Sundance, que apresenta os principais especialistas, críticos e empreendedores em IA, incluindo Sam Altman, o CEO da OpenAI, com visões sobre o futuro próximo a médio prazo que vão da desgraça à utopia.

The AI ​​Doc: Or How I Became an Apocaloptimist, dirigido por Daniel Roher e Charlie Tyrell e produzido por Daniel Kwan (metade de The Daniels, a dupla vencedora do Oscar por trás de Everything Everywhere All At Once), investiga o controverso tópico da IA ​​​​por meio da própria ansiedade de Roher. O cineasta canadense, que ganhou um Oscar em 2023 pelo documentário Navalny, se interessou pelo tema pela primeira vez ao experimentar ferramentas lançadas pela OpenAI, empresa por trás do chatbot ChatGPT. A sofisticação das ferramentas públicas – a capacidade de produzir parágrafos inteiros em segundos ou de produzir ilustrações – ao mesmo tempo o emocionou e enervou. A IA já estava a moldar radicalmente a indústria cinematográfica, e as proclamações sobre a promessa e o perigo da IA ​​estavam por todo o lado, com poucas possibilidades para as pessoas fora da indústria tecnológica as avaliarem. Como artista, ele se perguntava, como conseguiria entender tudo isso?

A ansiedade de Roher só aumentou quando ele e sua esposa, a também cineasta Caroline Lindy, souberam que estavam esperando o primeiro filho. “Parecia que o mundo inteiro estava a precipitar-se para algo sem pensar”, diz ele no filme, quando o seu entusiasmo pela paternidade colidiu com o medo da variável desconhecida da IA, que em apenas alguns anos passou de experiência proprietária a bem público.

O AI Doc surge assim da questão mais premente de Roher: é seguro trazer uma criança a este mundo? Ao lado de Kwan, Roher reuniu uma série de especialistas para explicar a mecânica da tecnologia – e esclarecer alguns termos nebulosos e alienantes – e procurar uma resposta. (É ao mesmo tempo reconfortante e um pouco perturbador, por exemplo, que ninguém pareça ter uma resposta clara à pergunta “o que é IA?”). Em entrevistas individuais, os principais pesquisadores de aprendizado de máquina, incluindo Yoshua Bengio, Ilya Sutskever e Shane Legg, cofundador da DeepMind, concordam que existem aspectos dos modelos de IA que os humanos não podem e nunca serão capazes de entender. Os modelos padrão de IA são treinados em “mais dados do que alguém jamais poderia ler em várias vidas”, como disse um especialista em aprendizado de máquina. E o ritmo do aprendizado de máquina excede o do precedente – ou do filme. “Qualquer exemplo que você colocar neste filme parecerá absolutamente desajeitado quando o filme for lançado”, disse Tristan Harris, cofundador do Center for Humane Technology e uma voz proeminente no apocalíptico documentário da Netflix de 2020, The Social Dilemma, a Roher.

Charlie Tyrell e Daniel Roher em Sundance Fotografia: Arturo Holmes/Getty Images

O filme ouve pela primeira vez uma série de doomeristas, ou pessoas preocupadas com a IA – e em particular a Inteligência Geral Artificial (AGI), uma forma ainda teórica de IA cujas capacidades excedem as dos humanos – poderia levar ao extermínio da humanidade, incluindo Harris, seu cofundador do Centro de Tecnologia Humana, Aza Raskin, Ajeya Cotra, um consultor de risco de IA, e Eli Yudkowsky, um pioneiro do alinhamento de IA. Esses números alertam que os humanos podem facilmente perder o controlo dos modelos de IA superinteligentes, com pouco ou nenhum recurso. O livro de Yudkowsky de 2025 é intitulado sem rodeios Se alguém construir, todos morrerão.

As empresas de IA, dizem eles, não estão preparadas para as consequências de alcançar a AGI, que poderá “tornar-se sobre-humana talvez nesta década”, afirma Dan Hendrycks, diretor do Center for AI Safety. Caso os humanos deixem de ser os seres mais inteligentes da Terra, alertam eles, é possível que a AGI considere a espécie irrelevante. Connor Leahy, co-fundador da EleutherAI, comparou a potencial relação futura entre AGI superinteligente e humanos com a de humanos e formigas: “Não odiamos formigas. Mas se quisermos construir uma estrada” sobre um formigueiro – “bem, é uma merda para a formiga.”

Vários membros do campo da destruição, muitos dos quais não têm filhos, reagem de forma desanimadora à pergunta de Roher sobre a paternidade. “Conheço pessoas que trabalham com o risco da IA ​​e que não esperam que os seus filhos cheguem ao ensino secundário”, diz Harris, numa frase que provocou espanto numa audiência em Park City.

Do outro lado estão figuras optimistas como Peter Diamandis, fundador da Fundação XPRIZE que tenta prolongar a vida humana, que afirma que “as crianças nascidas hoje estão prestes a entrar num período de transformação gloriosa”; Guillaume Verdon, líder do movimento de “aceleração eficaz” no Vale do Silício; Peter Lee, presidente da Microsoft Research; e Daniela Amodei, cofundadora e presidente da Anthropic, rival da OpenAI. Os chamados “aceleracionistas” vêem a IA como uma cura potencial para uma miríade de questões aparentemente intratáveis ​​que afligem a humanidade: cancro, escassez de alimentos e água para uma população cada vez maior, energia renovável insuficiente e, talvez o mais premente, a emergência climática. Sem a IA, argumentam eles, inúmeras vidas futuras seriam perdidas devido à seca, à fome, às doenças e às catástrofes naturais.

O desenvolvimento da IA, no entanto, depende do poder computacional, que requer grandes quantidades de energia. Um último grupo de entrevistados, críticos e observadores, em grande parte fora do mundo da tecnologia – incluindo Karen Hao, jornalista e autora do livro Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI, e Liv Boeree, podcast hos Win-Win – conecta a IA ao mundo físico e tangível, como os data centers que sugam água no oeste americano, deixando os residentes com contas de eletricidade altíssimas e reservatórios drenados. As narrativas atuais em torno da IA, de acordo com Emily M Bender, professora de linguística computacional, excluem e desumanizam as pessoas que já impactam e continuarão a perturbar.

Daniel Kwan, Jonathan Wang, Daniel Roher, Shane Boris, Charlie Tyrell e Ted Tremper no Sundance Fotografia: Mat Hayward / Getty Images para IMDb

Roher finalmente chega às cinco pessoas mais poderosas – todos homens – que atualmente lideram a corrida armamentista da IA: Altman; Elon Musk, CEO da xAI; Dario Amodei, CEO da Antrópico; Demis Hassabis da DeepMind e Mark Zuckerberg da Meta. Altman, Amodei e Hassabis participam de entrevistas que defendem mais ou menos as respectivas posições de suas empresas. Segundo o filme, Zuckerberg recusou-se a participar; Musk concordou, mas depois ficou muito ocupado.

Altman, que no momento da entrevista estava esperando o primeiro filho, insiste que “não tem medo que uma criança cresça em um mundo com IA”. Ele e seu marido Oliver Mulherin deram as boas-vindas ao filho por meio de uma barriga de aluguel em fevereiro de 2025, um evento que Altman disse mais tarde “hackeou neuroquimicamente” seu cérebro, levando as pessoas em sua vida a pensar que ele “tomaria decisões melhores” para OpenAI e ChatGPT quando se trata da “humanidade como um todo”. O CEO de 40 anos prosseguiu dizendo que tanto o seu filho como o de Roher provavelmente “nunca seriam mais inteligentes do que a IA”, o que “me perturba um pouco, mas é a realidade”.

A certa altura, Roher pergunta a Altman se é realmente impossível tranquilizá-lo de que tudo em relação à IA vai ficar bem. “Isso é impossível”, afirma Altman, embora diga que a liderança da OpenAI na corrida armamentista de IA permite que ela dedique mais tempo a testes de segurança.

O AI Doc acaba por chegar a algum lugar entre o doomerismo e o otimismo – o apocalotimismo, como o chamam, procurando “um caminho entre a promessa e o perigo”. Esse caminho deve incluir, de acordo com numerosos temas cinematográficos: uma coordenação internacional significativa, sustentada e de mudança de paradigma, semelhante aos quadros e acordos de meados do século introduzidos para moderar o desenvolvimento de armas atómicas – mais transparência corporativa para as empresas de IA, um órgão regulador independente para policiar os criadores de IA, responsabilidade legal para os produtos das empresas, como o ChatGPT, divulgação obrigatória da utilização de genAI para os meios de comunicação e uma vontade de continuar a adaptar as regras para a tecnologia em rápida mudança.

Se o governo e as empresas dos EUA, e muito menos o mundo, podem ou não fazê-lo, permanece uma questão em aberto, com opiniões divergentes sobre os primeiros passos. Mas se há uma coisa em que todos os assuntos concordam é que não há como voltar a um tempo anterior à IA. Como afirma o cofundador e CEO da Anthropic, Amodei: “Este trem não vai parar”.

Fuente