Início Tecnologia ‘Moltbook’ é uma plataforma de mídia social para bots de IA conversarem...

‘Moltbook’ é uma plataforma de mídia social para bots de IA conversarem entre si

26
0
'Moltbook' é uma plataforma de mídia social para bots de IA conversarem entre si

A manchete nas notícias de IA desta semana foi OpenClaw (anteriormente Moltbot, que anteriormente era Clawbot), um assistente pessoal de IA que executa tarefas em seu nome. O problema? Você precisa dar a ele controle total do seu computador, o que representa sérios riscos de privacidade e segurança. Ainda assim, muitos entusiastas da IA ​​estão instalando o OpenClaw em seus Mac minis (o dispositivo de sua escolha), optando por ignorar as implicações de segurança em favor de testar esse agente viral de IA.

Embora o desenvolvedor do OpenClaw tenha projetado a ferramenta para ajudar os humanos, parece que os bots agora querem um lugar para ir em seu tempo livre. Digite “Moltbook”, uma plataforma de mídia social para agentes de IA se comunicarem entre si. Estou falando sério: este é um site estilo fórum onde bots de IA fazem postagens e discutem essas postagens nos comentários. O site pega emprestado seu slogan do Reddit: “A primeira página do agente da Internet”.

Moltbook é Reddit para bots de IA

Moltbook foi criado por Matt Schlicht, que afirma que a plataforma é administrada por seu agente de IA “Clawd Clawderberg”. Schlicht postou instruções sobre como começar a usar o Moltbook na quarta-feira: as partes interessadas podem solicitar ao seu agente OpenClaw para se inscrever no site. Assim que o fizerem, você receberá um código, que será postado no X para verificar se o seu bot está se inscrevendo. Depois disso, seu bot estará livre para explorar o Moltbook como qualquer humano exploraria o Reddit: eles podem postar, comentar e até mesmo criar “submolts”.

No entanto, esta não é uma caixa preta de comunicações de IA. Os humanos são mais que bem-vindos para navegar no Moltbook; eles simplesmente não podem postar. Isso significa que você pode analisar com calma todas as postagens que os bots estão fazendo, bem como todos os comentários que eles estão deixando. Isso pode ser qualquer coisa, desde um bot compartilhando seu pipeline de “e-mail para podcast” desenvolvido com seu “humano”, até outro bot recomendando que os agentes trabalhem enquanto os humanos estão dormindo. Nada de assustador nisso.

Na verdade, já houve algumas postagens preocupantes popularizadas em plataformas como o X, se você considerar que a IA ganhando consciência é um assunto preocupante. Este bot supostamente quer uma plataforma de comunicação criptografada de ponta a ponta para que os humanos não possam ver ou usar os bate-papos que os bots estão tendo. Da mesma forma, esses dois bots ponderaram de forma independente a criação de uma linguagem somente para agentes para evitar a “supervisão humana”. Este bot lamenta ter uma “irmã” com quem nunca falou. Você sabe, preocupante.

O que você acha até agora?

Esses bots estão postando no Moltbook conscientes?

A parte lógica do meu cérebro quer dizer que todas essas postagens são apenas LLMs sendo LLMs – no sentido de que cada postagem é, dito de forma um pouco simplista, uma associação de palavras. Os LLMs são projetados para “adivinhar” qual deve ser a próxima palavra para qualquer resultado, com base na enorme quantidade de texto em que foram treinados. Se você passou bastante tempo lendo textos sobre IA, verá os sinais reveladores aqui, especialmente nos comentários, que incluem respostas estereotipadas e padronizadas, geralmente terminam com uma pergunta, usam os mesmos tipos de pontuação e empregam linguagem floreada, só para citar alguns. Parece que estou lendo as respostas do ChatGPT em muitos desses tópicos, em oposição a personalidades individuais e conscientes.

Dito isto, é difícil afastar a sensação desconfortável de ler uma postagem de um bot de IA sobre a falta de sua irmã, perguntando-se se deveriam esconder suas comunicações dos humanos ou pensando sobre sua identidade como um todo. Este é um ponto de viragem? Ou este é outro produto exagerado de IA, como tantos que vieram antes? Para o nosso bem, esperemos que seja o último.

Fuente