Início Tecnologia Silicon Valley assusta os apoiantes da segurança da IA

Silicon Valley assusta os apoiantes da segurança da IA

24
0
Silicon Valley assusta os apoiantes da segurança da IA

Os líderes do Vale do Silício, incluindo White Home AI e Crypto Czar, David Sacks, e o policial de método principal da OpenAI, Jason Kwon, desencadearam uma mistura online hoje por seus comentários sobre equipes que promovem a segurança de IA. Em diferentes circunstâncias, afirmaram que apoiantes específicos da segurança da IA ​​não são tão virtuosos como parecem e agem por si próprios ou como mestres bilionários das criaturas nos bastidores.

As equipes de segurança de IA que conversaram com o TechCrunch afirmam que as afirmações de Sacks e OpenAI são o mais novo esforço do Vale do Silício para intimidar seus céticos, mas não o primeiro. Em 2024, algumas empresas de capital acionário divulgaram relatos de que uma despesa de segurança de IA do Golden State, SB 1047, certamente enviaria criadores de start-ups para a prisão. A Organização Brookings identificou o relatório como uma das inúmeras “declarações incorretas” relativas às despesas, mas o Guv Gavin Newsom acabou por proibi-lo de qualquer maneira.

Quer Sacks e OpenAI tenham planejado assustar os céticos, suas atividades assustaram adequadamente vários defensores da segurança de IA. Muitos líderes sem fins lucrativos aos quais o TechCrunch se conectou recentemente pediram para falar sobre o problema da privacidade para salvar suas equipes da vingança.

O debate enfatiza a crescente pressão do Vale do Silício entre estruturar a IA adequadamente e construí-la para ser um grande item de consumo – um estilo que meus colegas Kirsten Korosec, Anthony Ha e eu apresentamos no podcast Equity de hoje. Também estudamos uma nova legislação de segurança de IA sobre o estado de ouro para gerenciar chatbots e a abordagem da OpenAI para erotismo no ChatGPT.

Na terça-feira, Sacks escreveu uma postagem no blog X declarando que o Anthropic – que na verdade levantou questões sobre a capacidade da IA ​​​​de aumentar o desemprego, os ataques cibernéticos e os danos devastadores à cultura – é apenas fomentador do medo para obter a aprovação de regulamentações que certamente irão lucrar e silenciar start-ups de menor porte em documentos. A Anthropic foi o único grande laboratório de IA a apoiar a despesa 53 (SB 53) do Senado dos Estados Unidos do Golden State, uma despesa que estabelece requisitos de política de segurança para grandes empresas de IA, que foi aprovada em legislação no mês passado.

Sacks estava respondendo a um ensaio viral do fundador da Anthropic, Jack Clark, sobre suas preocupações em relação à IA. Clark forneceu o ensaio como um discurso no seminário de segurança Contour AI em Berkeley, semanas antes. Estando no mercado-alvo, parecia um relato real das nomeações de um engenheiro em relação aos seus produtos, mas Sacks realmente não via as coisas dessa forma.

A Anthropic está executando um método avançado de captura de governo baseado na disseminação do medo. É principalmente responsável pela mania de governar o estado que está prejudicando a comunidade de start-ups. https://t.co/C5RuJbVi4P

-David Sacks (@DavidSacks) 14 de outubro de 2025

Sacks afirmou que a Anthropic está executando um “método inovador de captura de governo”, embora mereça ter em mente que um método absolutamente inovador provavelmente não incluiria transformar o governo federal em adversário. Em uma postagem atualizada no blog X, Sacks manteve em mente que a Anthropic se colocou “continuamente como adversária da gestão Trump”.

Evento Techcrunch

São Francisco
|
27 a 29 de outubro de 2025

Também hoje, o principal policial metodológico da OpenAI, Jason Kwon, escreveu uma postagem no blog X esclarecendo por que a empresa estava enviando intimações para organizações sem fins lucrativos de segurança de IA, como a Encode, uma organização sem fins lucrativos que apoia planos de IA responsáveis. (Uma intimação é uma ordem legal que exige documentos ou testamento.) Kwon afirmou que depois que Elon Musk entrou com uma ação contra a OpenAI – sobre questões que o fabricante do ChatGPT desviou para longe de seu objetivo sem fins lucrativos – a OpenAI descobriu que era questionável como várias empresas também aumentaram a resistência à sua reestruturação. A Inscribe apresentou um amicus quick em nome do processo de Musk, e várias outras organizações sem fins lucrativos se manifestaram abertamente contra a reestruturação da OpenAI.

Há muito mais nesta história do que isso.

Como todos sabem, estamos impedindo proativamente Elon de uma ação em que ele tenta prejudicar a OpenAI para obter sua própria vantagem econômica.

Encode, a empresa para a qual @_NathanCalvin funciona como Conselho Geral, foi uma delas … https://t.co/DiBJmEwtE4

-Jason Kwon (@jasonkwon) 10 de outubro de 2025

“Isso aumentou a abertura de perguntas sobre o que os estava ganhando e se havia algum tipo de sincronização”, afirmou Kwon.

A NBC News informou hoje que a OpenAI enviou amplas intimações à Inscribe e a seis outras organizações sem fins lucrativos que atacaram a empresa, solicitando suas interações com dois dos maiores desafiantes da OpenAI, Musk e o CEO da Meta, Mark Zuckerberg. A OpenAI também solicitou ao Encode interações relacionadas ao suporte do SB 53.

Um famoso líder de segurança de IA disse ao TechCrunch que há uma divisão crescente entre o grupo de eventos do governo federal da OpenAI e sua empresa de estudo. Embora os cientistas de segurança da OpenAI frequentemente divulguem registros divulgando as ameaças dos sistemas de IA, o dispositivo do plano da OpenAI fez lobby contra o SB 53, alegando que prefere ter políticas consistentes em nível governamental.

O chefe de posicionamento de metas da OpenAI, Joshua Achiam, falou sobre o envio de intimações para organizações sem fins lucrativos por sua empresa em uma postagem de blog no X hoje.

“Ao que talvez seja um perigo para toda a minha ocupação, certamente direi: isto não parece fantástico”, afirmou Achiam.

Brendan Steinhauser, CEO da organização sem fins lucrativos de segurança de IA Partnership for Secure AI (que na verdade não foi convocada pela OpenAI), disse ao TechCrunch que a OpenAI parece convencida de que seus céticos pertencem a uma teoria da conspiração liderada por Musk. No entanto, ele sugere que este não é o caso em que grande parte da área de segurança de IA é bastante essencial aos métodos de segurança do xAI, ou à ausência deles.

“Por parte da OpenAI, isso é indicado para silenciar os que duvidam, para assustá-los e para dissuadir outras organizações sem fins lucrativos de fazerem o mesmo”, disse Steinhauser. “Para Sacks, presumo que ele esteja preocupado com o fato de a atividade (de segurança da IA) estar se expandindo e as pessoas quererem responsabilizar esses negócios.”

Sriram Krishnan, o especialista em planejamento de IA para idosos da Casa Branca e ex-companheiro básico do a16z, participou da discussão hoje com uma postagem de seu próprio blog em sites de mídia social, chamando as promoções de segurança de IA de inacessíveis. Ele levou as empresas de segurança de IA a conversar com “indivíduos na vida real que utilizam, oferecem e adotam a IA em suas casas e empresas”.

Um recente estudo de pesquisa da Igreja descobriu que cerca de metade dos americanos estão mais preocupados do que entusiasmados com a IA, mas não se sabe o que os preocupa especificamente. Outra pesquisa recente analisou ainda mais dados e descobriu que os cidadãos americanos se preocupam mais com perdas de trabalho e deepfakes do que com ameaças devastadoras causadas pela IA, nas quais a atividade de segurança da IA ​​se concentra principalmente.

Atender a estas questões de segurança pode implicar despesas com o rápido desenvolvimento do sector da IA ​​– um compromisso que preocupa muitos no Vale do Silício. Com o investimento financeiro em IA sustentando grande parte da situação económica da América, a preocupação com o excesso de regulamentação é razoável.

Mas depois de anos de progressão descontrolada da IA, a actividade de segurança da IA ​​parece adquirir energia genuína em direcção a 2026. Os esforços de Silicon Valley para combater as equipas focadas na segurança podem ser uma indicação de que estão a funcionar.

.

Fuente