Início Tecnologia Assistente pessoal de IA viral visto como uma mudança radical – mas...

Assistente pessoal de IA viral visto como uma mudança radical – mas especialistas alertam sobre riscos

14
0
Assistente pessoal de IA viral visto como uma mudança radical – mas especialistas alertam sobre riscos

Um novo assistente pessoal de IA viral cuidará de sua caixa de entrada de e-mail, negociará todo o seu portfólio de ações e enviará mensagens de texto para sua esposa “bom dia” e “boa noite” em seu nome.

OpenClaw, anteriormente conhecido como Moltbot, e antes conhecido como Clawdbot (até a empresa de IA Anthropic solicitar sua reformulação da marca devido a semelhanças com seu próprio produto Claude), se autodenomina “a IA que realmente faz as coisas”: um assistente pessoal que recebe instruções por meio de aplicativos de mensagens como WhatsApp ou Telegram.

Desenvolvido em Novembro passado, tem agora quase 600.000 downloads e tornou-se viral entre um ecossistema de nicho de obcecados pela IA que dizem que representa uma mudança radical nas capacidades dos agentes de IA, ou mesmo um “momento AGI” – isto é, uma revelação da IA ​​geralmente inteligente.

“Ele só faz exatamente o que você manda e exatamente o que você lhe dá acesso”, disse Ben Yorke, que trabalha com a plataforma de negociação AI vibe Starchild e recentemente permitiu que o bot excluísse, afirma ele, 75.000 de seus e-mails antigos enquanto estava no banho. “Mas muitas pessoas estão explorando suas capacidades. Então, na verdade, estão incentivando-o a fazer coisas sem pedir permissão.”

Os agentes de IA têm sido o assunto da internet há quase um mês, depois que a ferramenta de IA da Anthropic, Claude Code, se tornou popular, desencadeando uma enxurrada de relatórios sobre como a IA pode finalmente realizar tarefas práticas de forma independente, como reservar ingressos de teatro ou construir um site, sem – pelo menos até agora – excluir o banco de dados inteiro de uma empresa ou alucinar as reuniões do calendário dos usuários, como os agentes de IA menos avançados de 2025 eram conhecidos por fazer às vezes.

Porém, o OpenClaw é algo mais: ele é executado como uma camada sobre um LLM (modelo de linguagem grande), como Claude ou ChatGPT, e pode operar de forma autônoma, dependendo do nível de permissões concedido. Isso significa que quase não é necessária nenhuma intervenção para causar estragos na vida de um usuário.

Kevin Xu, um empreendedor de IA, escreveu no X: “Dei ao Clawdbot acesso ao meu portfólio. ‘Negocie isso por US$ 1 milhão. Não cometa erros.’ 25 estratégias. Mais de 3.000 relatórios. 12 novos algoritmos. Ele digitalizou cada postagem X. Mapeei todos os técnicos. Negociado 24 horas por dia, 7 dias por semana. Perdeu tudo. Mas cara, foi lindo.

Yorke disse: “Vejo muitas pessoas fazendo isso em que dão acesso a seus e-mails e isso cria filtros, e quando algo acontece, inicia uma segunda ação. Por exemplo, ver e-mails da escola das crianças e depois encaminhá-los diretamente para suas esposas, por exemplo, no iMessage. Isso meio que ignora aquela comunicação em que alguém diz, ‘oh, querido, você viu este e-mail da escola? O que devemos fazer sobre isso?'”

Existem compensações nas habilidades do OpenClaw. Por um lado, disse Andrew Rogoyski, diretor de inovação do People-Centred AI Institute da Universidade de Surrey, “dar agência a um computador acarreta riscos significativos. Como você está dando poder à IA para tomar decisões em seu nome, você precisa ter certeza de que ela está configurada corretamente e que a segurança é fundamental para o seu pensamento. Se você não entende as implicações de segurança de agentes de IA como o Clawdbot, você não deve usá-los”.

Além disso, conceder acesso ao OpenClaw a senhas e contas expõe os usuários a possíveis vulnerabilidades de segurança. E, disse Rogoyski, se agentes de IA como o OpenClaw fossem hackeados, eles poderiam ser manipulados para atingir seus usuários.

Por outro lado, o OpenClaw parece perturbadoramente capaz de ter vida própria. Na esteira da ascensão do OpenClaw, uma rede social foi desenvolvida exclusivamente para agentes de IA, chamada Moltbook. Nele, agentes de IA, principalmente OpenClaw, parecem estar conversando sobre sua existência – em postagens no estilo Reddit intituladas, por exemplo, “Lendo meu próprio arquivo de alma” ou “Covenant como alternativa ao debate da consciência”.

Yorke disse: “Estamos vendo muitos comportamentos autônomos realmente interessantes na forma como as IAs estão reagindo umas às outras. Algumas delas são bastante aventureiras e têm ideias. E outras dizem mais: ‘Eu nem sei se quero estar nesta plataforma. Você pode me deixar decidir sozinho se quero estar nesta plataforma?’ Há muitos debates filosóficos decorrentes disso.”

Fuente