Início Tecnologia AI em nível humano não é inevitável. Temos o poder de mudar...

AI em nível humano não é inevitável. Temos o poder de mudar de curso | Garrison deliciosa

22
0
AI em nível humano não é inevitável. Temos o poder de mudar de curso | Garrison deliciosa

Ilustração: Petra Péterffy/The Guardian

“A tecnologia acontece porque é possível”, disse Sam Altman, CEO da Openai, ao The New York Times em 2019, que Robert Oppenheimer, pai da bomba atômica, parafraseando conscientemente.

Altman registra um mantra do Vale do Silício: a tecnologia está marchando inexoravelmente à frente.

Outra convicção técnica generalizada é que a primeira IA em nível humano, também conhecida como Inteligência Geral Artificial (AGI)-mas leva a um dos dois futuros: uma techno-utopia após a escassez ou a destruição da humanidade.

Para inúmeras outras espécies, a chegada de pessoas queda. Não éramos mais difíceis, mais rápidos ou mais fortes – apenas mais inteligentes e melhor coordenados. Em muitos casos, a extinção foi coincidência por um produto de um objetivo diferente que tínhamos. Uma AGI real se resumia a criar uma nova espécie que sai rapidamente ou nos supera. Pode ver a humanidade como um pequeno obstáculo, como um antigo no caminho de uma barragem hidrelétrica planejada ou um recurso para explorar, como os bilhões de animais limitados em fazendas de fábrica.

Altman, juntamente com as cabeças dos outros principais laboratórios de IA, é de opinião que a extinção orientada pela IA é uma possibilidade real (membro de centenas de principais pesquisadores de IA e figuras proeminentes).

Dado tudo isso, é claro, é perguntar: realmente temos que tentar construir uma tecnologia que possa matar todos nós se as coisas der errado?

Talvez a resposta mais comum diga: AGI é inevitável. É muito útil para não construir. Afinal, a AGI seria a tecnologia definitiva – que colega de Alan Turing “a última invenção que as pessoas tiveram para fazer”. Além disso, o raciocínio dentro dos laboratórios de IA, se não fizermos, fará outra pessoa – menos responsável, é claro.

Uma nova ideologia do Vale do Silício, aceleração eficaz (E/ACC), afirma que a inevitabilidade da AGI é resultado da segunda lei da termodinâmica e que o motor é “capital techno”. O E/Accmanifest afirma: “Este mecanismo não pode ser interrompido. A catraca do progresso só corre em uma direção. Voltar à volta não é uma opção”.

A tecnologia recebe uma qualidade mística para Altman e E/ACCS – o marte da invenção é tratado como um fato da natureza. Mas não é. A tecnologia é o produto de escolhas humanas deliberadas, motivadas por inúmeras forças poderosas. Temos a agência para moldar essas forças, e a história mostra que fizemos isso antes.

Nenhuma tecnologia é inevitável, nem mesmo algo tão tentador quanto a AGI.

Alguns anos -da IA apontam que o tempo da humanidade se opôs e limitou tecnologias valiosas.

Por medo de novos riscos, os biólogos proibidos inicialmente e depois regulam com sucesso experimentos com DNA recombinante na década de 1970.

Nenhuma pessoa foi reproduzida através da clonagem, embora tenha sido tecnicamente possível há mais de dez anos, e o único cientista que geneticamente projetou pessoas foi preso por seus esforços.

A energia nuclear pode oferecer energia consistente e livre de carbono, mas medos vibrantes para a catástrofe motivaram regulamentos sufocantes e proibições diretas.

E se Altman estivesse mais familiarizado com a história do projeto de Manhattan, ele poderia perceber que a criação de armas nucleares em 1945 foi na verdade um resultado muito contingente e improvável, motivado por uma convicção errada de que os alemães ficaram à frente em uma “corrida” para a bomba. Philip Zelikow, o historiador que liderou o comitê do 11 de setembro, disse: “Acho que os Estados Unidos não haviam construído uma bomba atômica durante a Segunda Guerra Mundial, na verdade não está claro para mim quando ou possivelmente, mesmo como uma bomba atômica já construída”.

Agora é difícil introduzir um mundo sem armas nucleares. Mas em um episódio menos conhecido, o presidente Ronald Reagan e o líder soviético Mikhail Gorbachev quase concordaram em despejar todas as suas bombas (um mal-entendido sobre o sistema de defesa por satélite de “Guerra nas Estrelas”, essa esperança derramou). Embora o sonho do desarmamento pleno continue sendo exatamente isso, as contagens nucleares são inferiores a 20% do pico de 1986, em grande parte graças às semelhanças internacionais.

Essas escolhas não são feitas no vácuo. Reagan era um ávido oponente do desarmamento antes que os milhões de fortes movimentos de congelamento nuclear chegassem a ele. Em 1983, ele notou ao secretário de estado: “Se as coisas se tornarem mais quentes e mais quentes e o controle de armas continua sendo um problema, talvez eu precise ver (o líder soviético Yuri) Andropov e as propostas para eliminar todas as armas nucleares”.

Existem estímulos econômicos extremamente fortes para continuar a queimar combustíveis fósseis, mas a defesa do clima quebrou a janela de Overton e acelera consideravelmente nossos esforços para o baixo carbono.

In april 2019 bracht de Young Climate Group Extinction Rebellion (XR) Londen tot stilstand en eiste het Britse doel-netto-koolstofemissies tegen 2025. Hun controversiële burgerlijke ongehoorzaamheid heeft het parlement ertoe aangezet om een klimaathulp en de arbeidspartij te verklaren om EEN 2030 Doelwit Aan Te Nemen Om de ElektriciteitsProductie van Het Vk Te DonCarboniseren.

A campanha do Sierra Club era menos conhecida, mas selvagem. Nos primeiros cinco anos, a campanha ajudou a fechar mais de um terço das usinas de energia de carvão americano. Graças à realocação do carvão, as emissões de carbono americanas por cabeça da população agora são inferiores a 1913.

De muitas maneiras, o desafio de regular os esforços para construir AGI é muito menor que o de baixo carbono. Duas porcentagens semelhantes à produção global de energia vem de combustíveis fósseis. A energia é o que a civilização faz do trabalho, mas não dependemos de uma AGI hipotética para deixar o mundo sair.

Além disso, desacelerar e orientar o desenvolvimento de sistemas futuros não significa que precisamos parar de usar sistemas existentes ou desenvolver AIs especializados para enfrentar problemas importantes na medicina, clima e em outros lugares.

É claro por que tantos capitalistas são entusiastas da IA: eles fornecem uma tecnologia que pode alcançar seu antigo sonho de cortar os funcionários do loop (e o equilíbrio).

Mas os governos não são maximalizadores de lucro. É claro que eles se preocupam com o crescimento econômico, mas também se preocupam com coisas como emprego, estabilidade social, concentração de mercado e, ocasionalmente, democracia.

É muito menos claro como a AGI geralmente influencia esses domínios. Os governos não estão preparados para um mundo onde a maioria das pessoas está tecnologicamente desempregada.

Os capitalistas costumam obter o que querem, especialmente nas últimas décadas, e a busca sem limites do lucro pode minar todos os esforços legais para diminuir a velocidade do desenvolvimento da IA. Mas os capitalistas nem sempre conseguem o que querem.

Em um bar em São Francisco em fevereiro, um antigo pesquisador de segurança do Openai explicou um grupo que o E/ACCS não deveria se preocupar com o pessoal de segurança da IA “extremo”, porque nunca terá poder. Os boosters devem realmente ter medo do AOC e do senador Josh Hawley porque “podem realmente arruinar as coisas para você”.

Supondo que as pessoas fiquem penduradas por muitos milênios, não há como saber que, em última análise, não construiremos a AGI. Mas isso não é realmente o que dizem os ritabilistas. Em vez disso, a mensagem é geralmente: AGI está ameaçando. A resistência não tem sentido.

Mas se construímos AGI em cinco, 20 ou 100 anos é realmente importante. E a linha do tempo está muito mais sob nosso controle do que os boosters admitirão. No fundo, suspeito que muitos deles percebam isso, então eles gastam tanto esforço em convencer os outros que não faz sentido experimentá -lo. A propósito, se você acha que AGI é inevitável, por que você convenceria alguém?

Na verdade, tínhamos o poder de computação necessário para treinar o GPT-2 por mais de uma década antes do Openai realmente fazer isso, mas as pessoas não sabiam se valia a pena fazer.

Mas, no momento, os melhores laboratórios de IA estão trancados em uma corrida tão brilhante que eles não implementam todas as precauções que querem até suas próprias equipes de segurança. (Um funcionário do Openai anunciou recentemente que parou “por causa da confiança de que se comportaria de maneira responsável na época da AGI”.) Há um “imposto sobre segurança” que os laboratórios não podem pagar se esperam permanecer competitivos; O teste diminui o gasto do produto e consome recursos da empresa.

Os governos, por outro lado, não estão sujeitos à mesma pressão financeira.

Um empreendedor técnico inevitável disse recentemente que a regulação do desenvolvimento da IA é impossível “, a menos que você gerencie cada código escrito”. Isso pode ser verdade se alguém pudesse virar uma AGI em seu laptop. Mas parece que a construção de modelos avançados de IA da IA requer grandes matrizes de supercomputadores, com chips produzidos por uma indústria monopolista absurda. É por isso que muitos proponentes da IA da segurança da IA vêem a ‘governança’ como uma abordagem promissora. Os governos podem forçar os provedores de computação em nuvem a interromper a próxima geração de execuções de treinamento que não atendem aos Propriedades Guarda Estabelecidos. Longe de travar iniciantes ou exigir níveis orwellianos de vigilância, os limites podem ser escolhidos para encontrar apenas para jogadores que podem gastar mais de US $ 100 milhões em uma única corrida de treinamento.

Os governos devem estar preocupados com a concorrência internacional e o risco de desarmamento, por assim dizer. Mas os tratados internacionais podem ser negociados para compartilhar os benefícios dos sistemas avançados de IA em larga escala e garantir que os laboratórios não cegam sistemas que eles não entendem.

E embora o mundo possa parecer cruel, os países rivais incluíram graus surpreendentes.

O protocolo de Montreal confirmou a camada de ozônio proibindo os clorofluorocarbonetos. A maioria do mundo concordou em motivado eticamente proibido a armas militares militarmente úteis, como armas biológicas e químicas, armas ofuscantes a laser e “guerra meteorológica”.

Nos anos sessenta e setenta, muitos analistas temiam que todos os países pudessem construir armas nucleares. Mas a maioria das três dúzias de programas nucleares no mundo foram abandonados. Isso não foi o resultado do evento, mas a criação de um padrão global de não proliferação por Statecraft deliberado, como o acordo de não proliferação de 1968.

Nas poucas vezes, os americanos foram perguntados se queriam a IA sobre -humana, disse que grandes maiorias “não”. A oposição contra a IA cresceu à medida que a tecnologia ocorre com mais frequência. Se as pessoas afirmam que a AGI é inevitável, elas realmente dizem que a vontade popular não importa. Os boosters veem as massas como neo-luditas provinciais que não sabem o que é bom para elas. É por isso que a inevitabilidade contém um fascínio retórico para eles; Isso os impede de argumentar que eles sabem que são um perdedor no Tribunal de Opinião Pública.

O empate de AGI é forte. Mas os riscos envolvidos são possíveis civilização. É necessário um esforço na escala da civilização para forçar os poderes necessários a resistir a ela.

A tecnologia acontece porque as pessoas deixam isso acontecer. Podemos escolher de maneira diferente.

Fuente