Início Tecnologia O que acontece quando a IA começa a se construir?

O que acontece quando a IA começa a se construir?

26
0
O que acontece quando a IA começa a se construir?

Richard Socher é uma figura importante na IA há algum tempo, mais conhecido por encontrar a startup de chatbot You.com e, antes disso, por seu trabalho na Imagenet. Agora, ele está se juntando à geração atual de startups de IA focadas em pesquisa com a Recursive Superintelligence, uma startup com sede em São Francisco que saiu do sigilo na quarta-feira com US$ 650 milhões em financiamento.

Socher é acompanhado no novo empreendimento por um grupo de pesquisadores proeminentes de IA, incluindo Peter Norvig e o cofundador da Cresta, Tim Shi. Juntos, eles estão trabalhando para criar um modelo de IA recursivamente auto-aprimorável, que possa identificar autonomamente suas próprias fraquezas e se redesenhar para corrigi-las, sem envolvimento humano – um santo graal de longa data da pesquisa contemporânea de IA.

Falei com ele no Zoom após o lançamento, investigando a abordagem técnica única do Recursive e por que ele não pensa neste novo projeto como um neolab, o termo informal para uma nova geração de startups de IA que priorizam a pesquisa em vez da construção de produtos.

Esta entrevista foi editada para maior extensão e clareza.

Ouvimos muito sobre recursão hoje em dia! Parece um objetivo muito comum em diferentes laboratórios. O que você vê como sua abordagem única?

Nossa abordagem única é usar a abertura para chegar ao autoaperfeiçoamento recursivo, que ninguém ainda alcançou. É um objetivo indescritível para muitas pessoas. Muitas pessoas já presumem que isso acontece quando você apenas faz uma pesquisa automática. Você sabe, você pode pegar a IA e pedir para melhorar alguma outra coisa, que pode ser um sistema de aprendizado de máquina, ou apenas uma carta que você escreve, ou, você sabe, o que quer que seja, certo? Mas isso não é autoaperfeiçoamento recursivo. Isso é apenas melhoria.

Nosso foco principal é construir superinteligência verdadeiramente recursiva e com autoaperfeiçoamento em escala, o que significa que todo o processo de idealização, implementação e validação de ideias de pesquisa seria automático.

Primeiro (automatizaria) ideias de pesquisa de IA, eventualmente qualquer tipo de ideia de pesquisa, mesmo eventualmente nos domínios físicos. Mas é particularmente poderoso quando a IA trabalha sobre si mesma e desenvolve um novo tipo de senso de autoconsciência em relação às suas próprias deficiências.

Você usou o termo aberto – isso tem um significado técnico específico?

Isso acontece. Na verdade, Tim Rocktäschel, um dos nossos cofundadores, liderou as equipes de abertura e autoaperfeiçoamento do Google DeepMind e trabalhou particularmente no modelo mundial Genie 3, que é um grande exemplo de abertura. Você pode dizer qualquer conceito, qualquer mundo, qualquer agente, e ele simplesmente cria, e é interativo.

Na evolução biológica, os animais adaptam-se ao ambiente e outros contra-adaptam-se a essas adaptações. É apenas um processo que pode evoluir durante bilhões de anos, e coisas interessantes continuam acontecendo, certo? Foi assim que desenvolvemos olhos em nossas (cabeças).

Outro exemplo é o Rainbow Teaming, de outro artigo de Tim. Você já ouviu falar em equipe vermelha?

Na segurança cibernética, significa

Portanto, o red teaming também deve ser feito em um contexto de LLM. Basicamente, você tenta fazer com que o LLM lhe diga como construir uma bomba e quer ter certeza de que isso não acontecerá.

Agora, os humanos podem ficar parados por muito tempo e apresentar exemplos interessantes do que a IA não deveria dizer. Mas e se você testasse esta primeira IA com uma segunda IA, e essa segunda IA ​​agora tivesse a tarefa de fazer a primeira IA (tentar) dizer todas as coisas ruins possíveis. E então eles podem ir e voltar por milhões de iterações.

Na verdade, você pode permitir que duas IAs coevoluam. Um continua atacando o outro, e então surge não apenas um ângulo, mas muitos ângulos diferentes, e daí a analogia do arco-íris. E então você pode inocular a primeira IA e ficará cada vez mais seguro. Esta foi uma ideia de Tim Rocktaeschel e agora é usada em todos os principais laboratórios.

Como você sabe quando está pronto? Suponho que isso nunca tenha sido feito.

Algumas dessas coisas nunca serão feitas. Você sempre pode ficar mais inteligente. Você sempre pode melhorar em programação, matemática e assim por diante. Existem alguns limites para a inteligência; Na verdade, estou tentando formalizá-los agora, mas são astronômicos. Estamos muito longe desses limites.

Como um neolaboratório, parece que você deveria estar fazendo algo que os grandes laboratórios não estão fazendo. Portanto, parte da implicação aqui é que você não acha que os grandes laboratórios alcançarão o RSI (autoaperfeiçoamento recursivo) fazendo o que estão fazendo. É justo dizer isso?

Não posso comentar o que eles estão fazendo, mas acho que estamos abordando isso de forma diferente. Nós realmente abraçamos o conceito de abertura e nossa equipe está totalmente focada nessa visão. E a equipe tem pesquisado isso e feito artigos nesta área na última década. E a equipe tem um histórico de realmente avançar significativamente no campo e enviar produtos reais. Você sabe, Tim Shi transformou Cresta em um unicórnio. Josh Tobin foi uma das primeiras pessoas na OpenAI e eventualmente liderou suas equipes Codex e equipes de pesquisa profunda.

Na verdade, às vezes tenho um pouco de dificuldade com essa categoria de neolab. Sinto que não somos apenas um laboratório. Quero que nos tornemos uma empresa realmente viável, que realmente tenhamos produtos incríveis que as pessoas adorem usar, que tenham um impacto positivo na humanidade.

Então, quando você planeja enviar seu primeiro produto?

Eu pensei muito sobre isso. A equipe fez tanto progresso que podemos realmente aumentar os prazos em relação ao que havíamos assumido inicialmente. Mas sim, haverá produtos e você terá que esperar trimestres, não anos.

Uma das ideias em torno do autoaperfeiçoamento recursivo é que, uma vez que tenhamos esse tipo de sistema, a computação se torna o único recurso importante. Quanto mais rápido você executar o sistema, mais rápido ele melhorará, e não há nenhuma atividade humana externa que realmente faça diferença. Então a corrida é: quanto poder de processamento podemos usar nisso? Você acha que esse é o mundo para o qual estamos indo?

A computação não deve ser subestimada. Acho que no futuro uma questão realmente importante será: quanto de computação a humanidade quer gastar para resolver quais problemas? Aqui está esse câncer e aqui está aquele vírus – qual deles você quer resolver primeiro? Quanto cálculo você deseja fornecer? Eventualmente, torna-se uma questão de alocação de recursos. Será uma das maiores questões do mundo.

Quando você compra por meio de links em nossos artigos, podemos ganhar uma pequena comissão. Isso não afeta nossa independência editorial.

Fuente