Início Tecnologia O problema do consertador: Chris Lehane e o difícil objetivo da OpenAI

O problema do consertador: Chris Lehane e o difícil objetivo da OpenAI

20
0
O problema do consertador: Chris Lehane e o difícil objetivo da OpenAI

Chris Lehane está entre os melhores do mundo dos negócios em fazer com que os problemas desapareçam. Assessor de imprensa de Al Gore durante os anos Clinton, o principal supervisor de situação do Airbnb com todas as dores de cabeça do governo daqui até Bruxelas – Lehane sabe exatamente como alternar. Atualmente, ele está há dois anos no que pode ser seu trabalho mais difícil: como vice-presidente de plano global da OpenAI, sua tarefa é mostrar ao mundo que a OpenAI realmente dá a mínima para o sistema especialista de equalização enquanto a empresa age significativamente como, bem, qualquer outro titã da tecnologia que já foi afirmado como diferente.

Eu tive 20 minutos com ele no palco na reunião do Elevate em Toronto hoje cedo – 20 minutos para superar os pontos de bate-papo e chegar às oposições reais que corroem a imagem totalmente construída do OpenAI. Não foi muito fácil nem totalmente eficaz. Lehane é realmente eficiente em sua tarefa. Ele é legal. Ele parece sensato. Ele confessa imprevisibilidade. Ele também discute o despertar às 3 da manhã, estressado sobre se isso irá de fato beneficiar a humanidade.

No entanto, grandes intenções não indicam muito quando o seu negócio é convocar críticos de cinema, drenar canos de comunidades de água e energia clinicamente deprimidas financeiramente e trazer celebridades mortas de volta à vida para insistir na sua supremacia no mercado.

A questão Sora do negócio está realmente na origem de tudo o mais. O dispositivo de geração de videoclipe lançado recentemente com produtos protegidos por direitos autorais relativamente embutidos nele. Foi um grande passo para uma empresa que atualmente está entrando com uma ação contra o New York Times, o Toronto Celebrity e metade do mercado de postagem. Do ponto de vista organizacional e publicitário, também foi ótimo. O aplicativo somente para convidados chegou ao topo da Loja de Aplicativos à medida que os indivíduos produziam versões eletrônicas de si mesmos, disse o CEO da OpenAI, Sam Altman; personalidades como Pikachu e Cartman de “South Park”; e celebridades mortas como Tupac Shakur.

Questionado sobre o que motivou a decisão da OpenAI de apresentar esta versão mais recente do Sora com essas personalidades, Lehane afirmou que Sora é uma “inovação objetiva básica” como a máquina de impressão, equalizando a imaginação para indivíduos sem habilidade ou recursos. Além disso, ele – que se autodenomina absolutamente nada imaginativo – pode fazer videoclipes atualmente, disse ele no palco.

O que ele disse é que a OpenAI inicialmente “permite” que os proprietários de direitos legais deixem de ter seu trabalho utilizado para educar Sora, o que não é exatamente como o uso de direitos autorais normalmente funciona. Depois disso, depois que a OpenAI percebeu que as pessoas realmente gostavam de usar imagens protegidas por direitos autorais, ela “evoluiu” para um design opcional. Isso não está se repetindo. Isso é avaliar o quanto você pode escapar. (Aliás, embora a Movie Organization tenha feito algum barulho recentemente sobre perigos legais, o OpenAI parece ter escapado bastante.)

Naturalmente, a circunstância evoca a irritação dos autores que cobram da OpenAI a formação no seu trabalho sem partilhar os despojos monetários. Quando pressionei Lehane sobre a eliminação dos autores da economia empresarial, ele evocou o uso razoável, aquela doutrina legal americana que deve estabilizar os direitos legais dos desenvolvedores versus a acessibilidade pública à tecnologia. Ele o chamou de ás na manga da supremacia tecnológica dos Estados Unidos.

Evento Techcrunch

São Francisco
|
27 a 29 de outubro de 2025

Talvez. Mas conversei recentemente com Al Gore – o antigo empregador de Lehane – e percebi que qualquer pessoa poderia simplesmente perguntar ao ChatGPT sobre isso, em vez de revisar meu item no TechCrunch. “É ‘repetitivo'”, afirmei, “mas também é um substituto.”

Lehane prestou atenção e abandonou a tagarelice. “É provável que todos precisemos descobrir isso”, disse ele. “É muito inteligente e fácil descansar aqui no estágio e na condição que precisamos para determinar novas versões de lucros. Mas acredito que o faremos.” (Estamos inventando à medida que avançamos, foi o que ouvi.)

Depois, há a investigação das instalações que ninguém pretende abordar com sinceridade. A OpenAI administra atualmente uma universidade de instalações de informação em Abilene, Texas, e recentemente iniciou uma grande instalação de informações em Lordstown, Ohio, em colaboração com Oracle e SoftBank. Na verdade, Lehane comparou a promoção da IA ​​ao desenvolvimento do poder – alegando que aqueles que a acederam por último ainda estão a tentar recuperar o atraso – mas o trabalho Stargate da OpenAI visa relativamente algumas dessas mesmas áreas financeiramente testadas para estabelecer centros com os seus assistentes e grandes desejos por água e energia.

Questionado durante a nossa reunião se estas áreas irão lucrar ou apenas pagar a conta, Lehane respondeu provavelmente aos gigawatts e à geopolítica. OpenAI exige cerca de um gigawatt de energia por semana, ele lembrou. A China gerou 450 gigawatts em 2014, além de 33 centros nucleares. Se as liberdades exigem IA autônoma, afirmou ele, elas precisam ser concluídas. “O optimista que há em mim afirma que isto irá certamente actualizar os nossos sistemas de energia”, diria ele, sugerindo uma América reindustrializada com redes eléctricas alteradas.

Foi motivador, mas não foi uma solução para saber se os indivíduos em Lordstown e Abilene têm maior probabilidade de aproveitar o aumento de seus gastos com energia enquanto a OpenAI cria videoclipes de The Infamous BIG. Realmente vale a pena ter em mente que a geração de videoclipes é uma das IA que mais consome energia disponível.

Há também um preço humano, que ficou mais claro no dia anterior ao nosso encontro, quando Zelda Williams se conectou ao Instagram para implorar a estranhos que parassem de enviar seus videoclipes gerados por IA de seu falecido pai, Robin Williams. “Você não está fazendo arte”, ela compôs. “Você está transformando a vida das pessoas em cachorros-quentes horríveis e superprocessados.”

Quando perguntei exatamente como a empresa integra esse tipo de dano íntimo ao seu objetivo, Lehane abordou discutindo procedimentos, incluindo estilo de responsabilidade, estruturas de triagem e colaborações do governo federal. “Não existe um manual para essas coisas, certo?”

Lehane revelou suscetibilidade em alguns minutos, alegando que identifica as “grandes tarefas que caracterizam” tudo o que OpenAI faz.

Se essas atas foram feitas para o mercado-alvo, acho que é ele. Sem dúvida, deixei Toronto acreditando que certamente iria gostar de um curso de mestrado em mensagens políticas – Lehane enfiando a linha numa agulha difícil enquanto evita preocupações relativas a escolhas empresariais com as quais, pelo que sei, ele também não concorda. Depois que essa informação danificou o que tornou a imagem complexa que atualmente tornava a imagem complexa.

Nathan Calvin, um representante legal que atende ao plano de IA em uma campanha sem fins lucrativos para a empresa, Encode AI, revelou que, ao mesmo tempo em que eu estava conversando com Lehane em Toronto, a OpenAI havia enviado um substituto de policial para a residência de Calvin em Washington, DC, durante o jantar para lhe oferecer uma intimação. Eles queriam suas mensagens pessoais com legisladores do Golden State, estudantes universitários e ex-funcionários da OpenAI.

Calvin afirma que a medida pertencia aos métodos de intimidação da OpenAI em torno de um novo item da diretriz de IA, o SB 53 do Golden State. Ele afirma que a empresa transformou sua contínua luta legal com Elon Musk como uma pretensão de atingir os críticos de cinema, indicando que Encode foi secretamente financiado por Musk. Calvin acrescentou que lidou com a resistência da OpenAI ao SB 53 do estado dourado, um custo de segurança de IA, que quando viu o seguro OpenAI alegar que “funcionava para aumentar os custos”, ele “realmente riu alto”. Nas redes sociais, ele passou a chamar Lehane, especialmente, de “mestre das artes políticas obscuras”.

Em Washington, isso poderia ser um elogio. Em uma empresa como a OpenAI, cujo objetivo é “construir uma IA que beneficie cada pessoa da humanidade”, parece uma cobrança.

Mas o que é mais importante é que também os próprios indivíduos da OpenAI são contrastados em relação ao que estão se tornando.

Como meu colega de trabalho Max relatou recentemente, vários funcionários existentes e anteriores acessaram as redes sociais após o lançamento do Sora 2, compartilhando suas preocupações. Entre eles estava Boaz Barak, cientista da OpenAI e professor de Harvard, que discutiu o Sora 2 que é “praticamente fantástico, mas é cedo para nos elogiarmos por evitar os desafios de vários outros aplicativos de sites de mídia social e deepfakes”.

Na sexta-feira, Josh Achiam – chefe de posicionamento objetivo da OpenAI – tuitou algo muito mais surpreendente sobre a reclamação de Calvin. Precedendo seus comentários alegando que eles eram “potencialmente uma ameaça a todo o meu trabalho”, Achiam começou a criar a OpenAI: “Não podemos fazer coisas que nos tornem uma potência assustadora em vez de uma potência virtuosa.

Vale a pena parar para pensar nisso. Um executivo da OpenAI examinando abertamente se seu negócio está se tornando “um poder assustador em oposição a um poder virtuoso” não é comparável a um rival atirando ou a um repórter de imprensa fazendo perguntas. É uma pessoa que escolheu operar na OpenAI, que conta com o seu objetivo, e que atualmente reconhece uma situação de princípios independente da ameaça especializada.

É um minuto em formação, cujas oposições podem aumentar à medida que a OpenAI avança em direção ao conhecimento básico criado pelo homem. Também me fez acreditar que a verdadeira questão não é se Chris Lehane pode cumprir o objetivo da OpenAI. É se os outros – incluindo, sério, as outras pessoas que trabalham lá – ainda pensam assim.

.

Fuente