Início Tecnologia ‘A maior decisão até agora’: Jared Kaplan sobre permitir que a IA...

‘A maior decisão até agora’: Jared Kaplan sobre permitir que a IA se treine

23
0
‘A maior decisão até agora’: Jared Kaplan sobre permitir que a IA se treine

A humanidade terá de decidir até 2030 se assumirá o “risco final” de permitir que os sistemas de inteligência artificial se treinem para se tornarem mais poderosos, disse um dos principais cientistas de IA do mundo.

Jared Kaplan, cientista-chefe e coproprietário da startup americana Anthropic, avaliada em US$ 180 bilhões (£ 135 bilhões), disse que havia uma escolha iminente sobre quanta autonomia os sistemas deveriam ter para evoluir.

A mudança pode desencadear uma “explosão de inteligência” benéfica – ou ser o momento em que os humanos acabarão perdendo o controle.

Numa entrevista sobre a corrida intensamente competitiva para alcançar a inteligência artificial geral (AGI) – por vezes chamada de superinteligência – Kaplan apelou aos governos internacionais e à sociedade para se envolverem no que chamou de “a maior decisão”.

A Anthropic faz parte de um grupo de empresas fronteiriças de IA, incluindo OpenAI, Google DeepMind, xAI, Meta e rivais chinesas lideradas pela DeepSeek, que competem pelo domínio da IA. Seu assistente de IA amplamente utilizado, Claude, tornou-se particularmente popular entre os clientes empresariais.

A decisão de “soltar” as rédeas da IA ​​provavelmente ocorrerá entre 2027 e 2030, diz Kaplan. Fotografia: Bloomberg/Getty Images

Kaplan disse que, embora os esforços para alinhar a tecnologia que avança rapidamente aos interesses humanos tenham sido bem-sucedidos até o momento, liberá-la para se autoaperfeiçoar recursivamente “é, de certa forma, o risco final, porque é como deixar a IA ir embora”. A decisão pode ocorrer entre 2027 e 2030, disse ele.

Fotografia: Cayce Clifford/The Guardian

“Se você imaginar que cria este processo onde você tem uma IA que é mais inteligente que você, ou quase tão inteligente quanto você, isso está (então) criando uma IA que é muito mais inteligente.”

Fotografia: Cayce Clifford/The Guardian

“Parece um processo meio assustador. Você não sabe onde vai parar.”

Kaplan passou de cientista físico teórico a bilionário de IA em sete anos trabalhando na área. Em uma ampla entrevista, ele também disse:

  • Os sistemas de IA serão capazes de realizar “a maior parte do trabalho de colarinho branco” em dois a três anos.

  • Que seu filho de seis anos nunca será melhor do que uma IA em trabalhos acadêmicos, como escrever uma redação ou fazer uma prova de matemática.

  • Que era certo preocupar-se com a possibilidade de os humanos perderem o controlo da tecnologia se as IA começassem a melhorar.

  • Os riscos na corrida para a AGI parecem “assustadores”.

  • O melhor cenário poderia permitir que a IA acelerasse a investigação biomédica, melhorasse a saúde e a cibersegurança, aumentasse a produtividade, desse às pessoas mais tempo livre e ajudasse os seres humanos a florescer.

Kaplan conheceu o Guardian na sede da Anthropic em São Francisco, onde o interior de tapetes tricotados e a animada música jazz desmentem as preocupações existenciais sobre a tecnologia que está sendo desenvolvida.

São Francisco se tornou o epicentro de startups e investimentos em IA. Fotografia: The Washington Post/Getty Images

Kaplan é um professor de física formado em Stanford e Harvard que pesquisou na Universidade Johns Hopkins e no Cern na Suíça antes de ingressar na OpenAI em 2019 e ser cofundador da Anthropic em 2021.

Ele não está sozinho na Anthropic ao expressar preocupações. Um de seus cofundadores, Jack Clark, disse em outubro que era ao mesmo tempo otimista e “profundamente receoso” em relação à trajetória da IA, que chamou de “uma criatura real e misteriosa, não uma máquina simples e previsível”.

Kaplan disse estar muito optimista quanto ao alinhamento dos sistemas de IA com os interesses da humanidade até ao nível da inteligência humana, mas estava preocupado com as consequências se e quando ultrapassarem esse limite.

Ele disse: “Se você imaginar que cria este processo onde você tem uma IA que é mais inteligente que você, ou quase tão inteligente quanto você, isso (então) está criando uma IA que é muito mais inteligente. Isso vai recrutar a ajuda da IA ​​para tornar uma IA mais inteligente do que isso. Parece uma espécie de processo assustador. Você não sabe onde vai parar.”

Foram lançadas dúvidas sobre os ganhos obtidos com a implantação de IA na economia. Do lado de fora da sede da Anthropic, um outdoor de outra empresa de tecnologia perguntava incisivamente “Toda aquela IA e nenhum ROI?”, uma referência ao retorno do investimento. Um estudo da Harvard Business Review publicado em Setembro afirmou que o “workslop” da IA ​​– trabalho de qualidade inferior possibilitado pela IA que os humanos têm de corrigir – estava a reduzir a produtividade.

Alguns dos ganhos mais claros foram o uso de IA para escrever código de computador. Em setembro, a Anthropic revelou sua IA de ponta, Claude Sonnet 4.5, um modelo de codificação de computador que pode construir agentes de IA e usar computadores de forma autônoma.

Os invasores usaram a ferramenta Claude Code para atingir várias organizações. Fotografia: Antrópica

Ela manteve o foco em tarefas complexas de codificação em várias etapas por 30 horas ininterruptas, e Kaplan disse que, em alguns casos, o uso de IA estava dobrando a velocidade com que os programadores de sua empresa eram capazes de trabalhar.

Mas em Novembro, a Anthropic disse acreditar que um grupo patrocinado pelo Estado chinês tinha manipulado a sua ferramenta Claude Code – não só para ajudar humanos a lançar um ataque cibernético, mas para executar ele próprio cerca de 30 ataques, alguns dos quais foram bem sucedidos. Kaplan disse que permitir que as IAs treinem as próximas IAs foi “uma decisão de risco extremamente alto a ser tomada”.

“Isso é o que consideramos talvez a maior decisão ou a coisa mais assustadora a fazer… uma vez que ninguém está envolvido no processo, você realmente não sabe. Você pode iniciar um processo e dizer: ‘Oh, está indo muito bem. É exatamente o que esperávamos. É muito seguro.’ Mas você não sabe – é um processo dinâmico. Aonde isso leva?”

Ele disse que se o autoaperfeiçoamento recursivo, como esse processo às vezes é conhecido, fosse permitido de forma descontrolada, haveria dois riscos.

“Uma delas é: você perde o controle sobre isso? Você ao menos sabe o que as IAs estão fazendo? A questão principal é: as IAs são boas para a humanidade? Elas são úteis? Serão inofensivas? Elas entendem as pessoas? Elas vão permitir que as pessoas continuem a ter poder de ação sobre suas vidas e sobre o mundo?”

Fotografia: Cayce Clifford/The Guardian

“Acho que prevenir a tomada de poder e o uso indevido da tecnologia também é muito importante.”

Fotografia: Cayce Clifford/The Guardian

“Parece muito perigoso cair em mãos erradas”

O segundo risco é a segurança resultante do facto de as IA autodidatas excederem as capacidades humanas na investigação científica e no desenvolvimento tecnológico.

“Parece muito perigoso cair em mãos erradas”, disse ele. “Você pode imaginar uma pessoa (decidindo): ‘Quero que esta IA seja apenas minha escrava. Quero que ela cumpra minha vontade.’ Acredito que prevenir a tomada de poder – prevenir o uso indevido da tecnologia – também é muito importante.”

Pesquisas independentes sobre modelos de IA de ponta, incluindo ChatGPT, mostram que a duração das tarefas que as IAs podem realizar tem duplicado a cada sete meses.

O futuro da IA

Os rivais correm para criar superinteligência. Isso foi elaborado em colaboração com a equipe de Design Editorial. Leia mais da série.

Palavras

Nick Hopkins, Rob Booth, Amy Hawkins, Dara Kerr, Dan Milmo

Design e Desenvolvimento

Primos Ricos, Harry Fischer, Pip Lev, Alessia Amitrano

Editores de imagens

Fiona Shields, Jim Hedge, Gail Fletcher

Kaplan disse estar preocupado com o facto de a velocidade do progresso significar que a humanidade em geral não foi capaz de se habituar à tecnologia antes de esta avançar novamente.

“Estou preocupado com isso… pessoas como eu podem ficar loucas e tudo pode estagnar”, disse ele. “Talvez a melhor IA de todos os tempos seja a que temos agora. Mas realmente não achamos que seja esse o caso. Achamos que vai continuar melhorando.”

Ele acrescentou: “É algo que está acontecendo muito rapidamente e as pessoas não têm necessariamente tempo para absorvê-lo ou descobrir o que fazer”.

A Anthropic está competindo com OpenAI, Google DeepMind e xAI para desenvolver sistemas de IA cada vez mais avançados no impulso para AGI. Kaplan descreveu a atmosfera na Bay Area como “definitivamente muito intensa, tanto do ponto de vista da IA ​​como do ponto de vista da competitividade”.

“A forma como pensamos sobre isso é que tudo está nesta tendência exponencial em termos de investimento, receita, capacidades da IA, quão complexas são as tarefas que a IA pode realizar”, disse ele.

A velocidade do progresso significa que o risco de um dos pilotos escorregar e ficar para trás é grande. “Os riscos são altos para permanecer na fronteira, no sentido de que você sai da (curva) exponencial e muito rapidamente pode ficar muito atrás, pelo menos em termos de recursos.”

Até 2030, prevê-se que os datacenters exijam 6,7 biliões de dólares em todo o mundo para acompanhar a procura por poder computacional, estimou a McKinsey. Os investidores querem apoiar as empresas mais próximas do grupo.

Alguns dos maiores ganhos foram no uso de IAs para escrever códigos de computador. Fotografia: Cheng Xin/Getty Images

Ao mesmo tempo, a Anthropic é conhecida por incentivar a regulamentação da IA. Sua declaração de propósito inclui uma seção intitulada: “Construímos sistemas mais seguros”.

“Não queremos realmente que seja uma situação semelhante à do Sputnik, em que o governo de repente acorda e pensa: ‘Uau, a IA é um grande negócio’… Queremos que os decisores políticos estejam tão informados quanto possível ao longo da trajetória para que possam ter isso em conta.”

Em outubro, a posição da Anthropic desencadeou uma reprimenda por parte da Casa Branca de Donald Trump. David Sacks, conselheiro de IA do presidente dos EUA, acusou a Antrópica de “fomentar o medo” para encorajar a regulamentação estado a estado que beneficiaria a sua posição e prejudicaria as startups.

Depois de Sacks ter afirmado que se tinha posicionado como “inimigo” da administração Trump, Dario Amodei, cofundador da Kaplan e diretor executivo da Anthropic, respondeu dizendo que a empresa tinha elogiado publicamente o plano de ação de IA de Trump, trabalhado com os republicanos e que, tal como a Casa Branca, queria manter a liderança dos EUA na IA.

Fuente