Início Tecnologia Especialista líder em IA atrasa cronograma para sua possível destruição da humanidade

Especialista líder em IA atrasa cronograma para sua possível destruição da humanidade

25
0
Especialista líder em IA atrasa cronograma para sua possível destruição da humanidade

Um importante especialista em inteligência artificial reverteu o seu cronograma para a destruição da IA, dizendo que levará mais tempo do que inicialmente previsto para que os sistemas de IA sejam capazes de codificar de forma autónoma e, assim, acelerar o seu próprio desenvolvimento em direção à superinteligência.

Daniel Kokotajlo, um antigo funcionário da OpenAI, desencadeou um debate enérgico em Abril ao lançar a IA 2027, um cenário que prevê o desenvolvimento descontrolado da IA ​​levando à criação de uma superinteligência, que – depois de enganar os líderes mundiais – destrói a humanidade.

O cenário rapidamente conquistou admiradores e detratores. O vice-presidente dos EUA, JD Vance, pareceu fazer referência à AI 2027 numa entrevista em Maio passado, ao discutir a corrida armamentista de inteligência artificial dos EUA com a China. Gary Marcus, professor emérito de neurociência na Universidade de Nova York, chamou a peça de “obra de ficção” e várias de suas conclusões de “pura besteira de ficção científica”.

“Nossos prazos… são um pouco mais longos ainda”, escreveu Daniel Kokotajlo. Fotografia: Twitter/X

Os prazos para a inteligência artificial transformadora – por vezes chamada AGI (inteligência artificial geral), ou IA capaz de substituir os humanos na maioria das tarefas cognitivas – tornaram-se um elemento fixo nas comunidades dedicadas à segurança da IA. O lançamento do ChatGPT em 2022 acelerou enormemente esses prazos, com autoridades e especialistas prevendo a chegada do AGI dentro de décadas ou anos.

Kokotajlo e sua equipe nomearam 2027 como o ano em que a IA alcançaria “codificação totalmente autônoma”, embora tenham dito que esse era um palpite “mais provável” e alguns deles tinham prazos mais longos. Agora, algumas dúvidas parecem estar surgindo sobre a iminência da AGI e se o termo é significativo em primeiro lugar.

“Muitas outras pessoas têm alargado ainda mais os seus prazos no ano passado, à medida que se apercebem de como o desempenho da IA ​​é irregular”, disse Malcolm Murray, especialista em gestão de riscos da IA ​​e um dos autores do Relatório Internacional de Segurança da IA.

“Para que um cenário como o da IA ​​2027 aconteça, (a IA) precisaria de muito mais competências práticas que sejam úteis nas complexidades do mundo real. Penso que as pessoas estão a começar a perceber a enorme inércia no mundo real que atrasará a mudança social completa.”

“O termo AGI fazia sentido desde muito longe, quando os sistemas de IA eram muito restritos – jogar xadrez e jogar Go”, disse Henry Papadatos, diretor executivo da organização francesa sem fins lucrativos de IA SaferAI. “Agora temos sistemas que já são bastante gerais e o termo não significa tanto.”

A IA 2027 de Kokotajlo baseia-se na ideia de que os agentes de IA irão automatizar totalmente a codificação e a I&D de IA até 2027, levando a uma “explosão de inteligência” na qual os agentes de IA criam versões cada vez mais inteligentes de si próprios e depois – num final possível – matam todos os humanos até meados de 2030, a fim de abrir espaço para mais painéis solares e centros de dados.

No entanto, na sua atualização, Kokotajlo e os seus coautores revêem as suas expectativas sobre quando a IA poderá ser capaz de codificar de forma autónoma, colocando isso como provável que aconteça no início da década de 2030, em oposição a 2027. A nova previsão define 2034 como o novo horizonte para a “superinteligência” e não contém uma estimativa de quando a IA poderá destruir a humanidade.

“As coisas parecem estar indo um pouco mais devagar do que o cenário AI 2027. Nossos cronogramas eram mais longos do que 2027 quando publicamos e agora são um pouco mais longos ainda”, escreveu Kokotajlo em um post no X.

Criar IAs que possam realizar pesquisas em IA ainda é um objetivo firme das principais empresas de IA. O CEO da OpenAI, Sam Altman, disse em outubro que ter um pesquisador automatizado de IA até março de 2028 era um “objetivo interno” de sua empresa, mas acrescentou: “Podemos falhar totalmente nesse objetivo”.

Andrea Castagna, pesquisadora de políticas de IA baseada em Bruxelas, disse que há uma série de complexidades que os cronogramas dramáticos da AGI não abordam. “O facto de termos um computador superinteligente focado na actividade militar não significa que possamos integrá-lo nos documentos estratégicos que compilámos nos últimos 20 anos.

“Quanto mais desenvolvemos a IA, mais vemos que o mundo não é ficção científica. O mundo é muito mais complicado do que isso.”

Fuente