Início Tecnologia As empresas de IA sabem que têm um problema de imagem. Será...

As empresas de IA sabem que têm um problema de imagem. Será que o financiamento de documentos políticos e grupos de reflexão os desenterrará?

23
0
As empresas de IA sabem que têm um problema de imagem. Será que o financiamento de documentos políticos e grupos de reflexão os desenterrará?

A OpenAI fez um anúncio surpresa esta semana – não uma atualização do ChatGPT ou de outro datacenter multibilionário – mas um documento político que pedia uma reimaginação do contrato social com base em “uma lista de ideias que priorizam as pessoas”. É o mais recente movimento num esforço agressivo dos principais intervenientes na IA para remodelar a narrativa em torno da sua indústria, à medida que as sondagens mostram que a desaprovação pública da IA ​​está a aumentar.

O artigo de 13 páginas da OpenAI, intitulado Política Industrial para a Era da Inteligência, segue a aquisição surpresa do podcast amigável à tecnologia TBPN e o anúncio de planos para abrir um escritório em Washington DC que contará com um espaço dedicado chamado workshop OpenAI para organizações sem fins lucrativos e legisladores aprenderem e discutirem a tecnologia da empresa.

Enquanto isso, o rival da OpenAI, Anthropic, anunciou seu próprio grupo de reflexão, o Anthropic Institute, que também anunciou a intenção de explorar como o crescimento da IA ​​perturbaria a sociedade.

À medida que as perturbações provocadas pela IA se tornam mais tangíveis e os apelos a um maior escrutínio das grandes empresas tecnológicas se tornam mais ruidosos, a indústria parece estar a reconhecer o descontentamento generalizado e a procurar formas de reformular o debate.

Sam Altman, CEO da OpenAI, falou sobre os problemas de percepção pública enfrentados pelas empresas de IA na conferência das empresas de investimento BlackRock em Washington DC no mês passado: “Você pode ver uma série de potenciais ventos contrários. A IA não é muito popular nos EUA neste momento. Os datacenters estão sendo culpados pelos aumentos dos preços da eletricidade, quase todas as empresas que fazem demissões estão culpando a IA, independentemente de se tratar realmente de IA ou não”, disse ele.

Ainda, o esforço de marketing da empresa não visa apenas queimar sua imagem. Ao desenvolver grupos de reflexão e institutos de investigação, ao mesmo tempo que gastam milhões em esforços de lobby, alguns especialistas também veem empresas de IA a tentar minar os esforços independentes para regular a indústria.

“O artigo da OpenAI parece querer mais supervisão regulatória”, disse Sarah Myers West, co-diretora executiva do AI Now Institute, uma organização sem fins lucrativos, que defende mais responsabilidade pública sobre a indústria de IA. “Mas quando você olha nos bastidores, eles fizeram lobby com muito sucesso por um governo que adotou uma postura desregulamentadora muito agressiva em relação à IA.”

OpenAI e Anthropic não responderam a um pedido de comentário.

PR por proposta política: uma semana de trabalho de quatro dias e um fundo de riqueza pública

Artigo da OpenAI marca uma mudança de tom que parece refletir preocupações dentro da empresa sobre como sua tecnologia está sendo recebida publicamente. Em vez de falar sobre como os trabalhadores podem adaptar-se às novas tecnologias para evitar a exclusão do mercado de trabalho, o documento fala sobre “construir uma sociedade resiliente” e pede aos decisores políticos que criem barreiras de protecção para a IA segura.

As ideias políticas incluem propostas geradoras de manchetes, como uma semana de trabalho de quatro dias e a criação de um “fundo de riqueza pública” que devolveria lucros directamente aos cidadãos – uma reviravolta no cavalo de batalha da indústria tecnológica do rendimento básico universal.

O documento sublinha que as propostas não devem ser consideradas como respostas firmes sobre como abordar o impacto da IA ​​na sociedade, mas sim “um ponto de partida para uma conversa mais ampla sobre como garantir que a IA beneficie todos”.

“A menos que a política acompanhe a mudança tecnológica, as instituições e as redes de segurança necessárias para navegar nesta transição poderão ficar para trás”, afirma o documento. “Garantir que a IA expanda o acesso, a agência e as oportunidades é um desafio central à medida que avançamos em direção à superinteligência.”

Os críticos do artigo caracterizam os argumentos mais como uma manobra de relações públicas do que como um verdadeiro documento político. E argumentam que, na sua essência, isso transfere a responsabilidade da empresa para o público e os legisladores. Grande parte do artigo descreve a visão da OpenAI de um mundo dominado pela IA como uma conclusão precipitada. Ao mesmo tempo que apresenta objetivos ambiciosos para o governo e a sociedade, a OpenAI está a enquadrar a sua tecnologia como uma força inevitável a ser combatida, em vez de um produto que pode ser regulamentado tanto internamente como através de legislação, argumentam os especialistas.

“O que eles fizeram de forma muito astuta aqui foi delinear um conjunto de metas de bem-estar social, ao mesmo tempo em que abdicaram de qualquer responsabilidade ou de qualquer comprometimento significativo de recursos para atingir essas metas”, disse Myers West.

Na verdade, argumentam os críticos, embora a empresa defenda que os legisladores e o público assumam a responsabilidade, ela está fazendo forte lobby atrás de portas fechadas por regulamentações mais flexíveis e tentam bloquear a regulamentação estatal que os controla.

“Se esperarmos que o Congresso aja, essas empresas poderão crescer sem regulamentação”, disse Caitriona Fitzgerald, vice-diretora do Centro de Informações de Privacidade Eletrônica. “O que é, claro, o que eles querem.”

Um lobby de IA cada vez mais intenso

A OpenAI gastou quase US$ 3 milhões em lobby em 2025. O presidente da empresa, Greg Brockman, cofundou um Super Pac pró-AI que arrecadou mais de US$ 125 milhões no ano passado. O Pac já publicou anúncios em Nova Iorque contra o candidato ao Congresso Alex Bores, que é a favor da regulamentação da IA. A empresa está apoiando um projeto de lei em Illinois que protegeria as empresas de IA de responsabilidades nos casos em que um modelo de IA causasse sérios danos sociais, como a criação de uma arma química ou a morte em massa, informou a Wired na semana passada.

A falta de conscientização no nível do governo estadual em torno da tecnologia ainda nascente proporcionou à indústria de IA uma abertura para influenciar a aparência da regulamentação, de acordo com Fitzgerald.

“Eles estão a aproveitar-se, essencialmente, do facto de estas pessoas terem sessões curtas e não terem pessoal, para os convencer de que qualquer regulamentação da IA ​​irá sufocar a inovação”, disse Fitzgerald.

A OpenAI não está sozinha no seu esforço de lobby. A rival Anthropic investiu mais de 3 milhões de dólares nos seus próprios esforços de lobby e apoiou um Super Pac diferente, com um conjunto diferente de objectivos, mais receptivo à regulamentação.

Apesar da recente luta da Anthropic com o Departamento de Defesa sobre as linhas vermelhas no uso militar de seus modelos, a indústria de IA também permanece estreitamente alinhada com a Casa Branca de Donald Trump, e o governo continua a agir em seu interesse.

A administração Trump tentou acabar com a regulamentação da IA ​​a nível estatal de várias maneiras, adoptando o argumento da indústria de que uma colcha de retalhos de leis prejudicaria a tecnologia e sufocaria o crescimento económico. Trump assinou uma ordem executiva legalmente contestada no ano passado que tenta impedir os estados de impor limites à IA. Nos últimos meses, a Casa Branca pressionou um senador republicano do estado do Utah a não propor um projeto de lei que apela à transparência e à regulamentação da proteção infantil na IA.

E as relações públicas são um problema

A construção de grupos de reflexão, os esforços de relações públicas e o aumento do lobby ocorrem num momento em que a indústria da IA ​​enfrenta um problema generalizado de imagem no seu país de origem e já se está a tornar um foco de campanhas políticas durante as próximas eleições intercalares.

As sondagens têm mostrado uma profunda e crescente desconfiança do público em relação à IA, não apenas no que diz respeito aos seus potenciais efeitos sobre o trabalho, mas também como força social. Uma pesquisa do Pew Research Center divulgada em setembro passado descobriu que apenas 16% dos americanos acreditam que a IA ajudará as pessoas a pensar de forma mais criativa, enquanto apenas 5% dos americanos acreditam que ela ajudará as pessoas a formar melhores relacionamentos significativos umas com as outras. Uma pesquisa da NBC News no mês passado também descobriu que apenas 26% dos eleitores tinham uma opinião favorável sobre a IA e que a classificação líquida negativa da tecnologia estava 2 pontos percentuais abaixo do Departamento de Imigração e Alfândega dos EUA (ICE).

As razões exactas pelas quais as pessoas se sentem tão negativas em relação à IA – quer tenha sido o discurso de vendas inicial da indústria de que a sua tecnologia poderia destruir o mundo, as ansiedades económicas em torno da deslocação de empregos ou a antiga antipatia pelas grandes tecnologias – são mais difíceis de definir. O que está claro é que a indústria de IA começou a olhar para o movimento incipiente de oposição aos datacenters, as propostas de lei que restringem a IA e o desgosto público com preocupação crescente.

Nos últimos anos, a indústria se reuniu para apresentar seu caso aos legisladores e ao público. Laboratórios de propriedade corporativa atraíram acadêmicos e pesquisadores anteriormente independentes. Nos últimos anos, Myers West disse que esses laboratórios também deixaram de publicar em periódicos revisados ​​por pares em direção a publicações internas e maior controle. Embora investigadores respeitados tenham deixado o mundo académico e organizações sem fins lucrativos para trabalhar nestas empresas, a dinâmica cria questões mais amplas sobre os incentivos e a propriedade corporativa da sua investigação.

“Não creio que se possa dizer que eles sejam de alguma forma significativamente independentes”, disse Myers West.

Fuente