Início Tecnologia Microsoft AI Chefe: É perigoso pesquisar a consciência da IA

Microsoft AI Chefe: É perigoso pesquisar a consciência da IA

25
0
Microsoft AI Chefe: É perigoso pesquisar a consciência da IA

Os modelos de IA são capazes de responder a áudio e vídeo, o texto de uma maneira que engana as pessoas a acreditar que uma pessoa está no teclado. No entanto, eles não têm consciência. O chatgpt não fica triste quando meus impostos, certo? Bem, pesquisadores de IA em laboratórios como maravilha antrópica quando – ou se – modelos de IA desenvolverão sentimentos subjetivos semelhantes aos das criaturas vivas. E se isso acontecer, que tipo de direitos eles merecem? O debate sobre se os modelos de IA um dia se tornarão consciente e terão direitos está dividindo os líderes tecnológicos do Vale do Silício. No Vale do Silício, esse campo nascente ficou conhecido como “bem -estar da IA” e se você acha que é um pouco lá fora, você não está sozinho.

O CEO da AI da Microsoft, Mustafa Suleyman, publicou uma postagem no blog na terça -feira, argumentando que o estudo do bem -estar da IA ​​é “tanto prematuro e francamente perigoso”.

Suleyman diz que, ao acrescentar credibilidade à idéia de que os modelos de IA poderiam um dia estar consciente, esses pesquisadores estão exacerbando problemas humanos que estamos apenas começando a ver em torno de intervalos psicóticos induzidos pela AI e apegos prejudiciais aos chatbots da IA.

Além disso, o chefe da IA ​​da Microsoft argumenta que a conversa sobre o bem -estar da IA ​​cria um novo eixo de divisão na sociedade sobre os direitos da IA ​​em um “mundo que já está rugindo com argumentos polarizados sobre identidade e direitos”.

As visões de Suleyman podem parecer razoáveis, mas ele está em desacordo com muitos na indústria. A Antrópica contratou pesquisadores que estudam o bem -estar da IA ​​e lançaram um programa de pesquisa em torno desse conceito. Na semana passada, o programa de bem -estar de IA da Antrópico deu a alguns dos modelos da empresa um novo recurso: Claude agora pode encerrar as conversas com seres humanos que estão sendo “persistentemente prejudiciais ou abusivos”.

Evento do TechCrunch

São Francisco

|

27-29 de outubro de 2025

Além de antropia, os pesquisadores do Openai adotaram independentemente a idéia de estudar o bem -estar da IA. O Google Deepmind publicou recentemente uma listagem de empregos para um pesquisador estudar, entre outras coisas, “questões sociais de ponta em torno da cognição da máquina, consciência e sistemas multi-agentes”.
Mesmo que o bem -estar da IA ​​não seja uma política oficial para essas empresas, seus líderes não estão acrescentando publicamente suas premissas como Suleyman.
Antrópico, OpenAI e Google Deepmind não responderam imediatamente ao pedido de comentário da TechCrunch.

A postura hardline de Suleyman contra o bem-estar da IA ​​é notável, dado o seu papel anterior líder de IA da inflexão, uma startup que desenvolveu um dos chatbots mais antigos e mais populares, Pi. A inflexão alegou que o PI atingiu milhões de usuários até 2023 e foi projetado para ser um companheiro de IA “pessoal” e “de apoio”.

Mas Suleyman foi escolhido para liderar a divisão de IA da Microsoft em 2024 e mudou amplamente seu foco para projetar ferramentas de IA que melhoram a produtividade do trabalhador. Companheiros de IA como o personagem.ai, o Replika e outros viram um aumento na popularidade. Eles devem gerar mais de US $ 100.000.000 em receita. Enquanto a maioria dos usuários da IA ​​Chatbot desfruta de um relacionamento saudável com seus bots de IA, alguns outliers são motivo de preocupação. O CEO da OpenAI, Sam Altman, afirma que menos de 1 % dos clientes do ChatGPT podem estar tendo relacionamentos prejudiciais com seu produto. A idéia do bem -estar da IA ​​está ganhando popularidade com o advento dos chatbots. Em 2024, o grupo de pesquisa Eleos publicou um artigo ao lado de acadêmicos da NYU, Stanford e da Universidade de Oxford, intitulada “Levando a sério o bem -estar da IA”. O artigo argumentou que não está mais no campo da ficção científica imaginar modelos de IA com experiências subjetivas e que é hora de considerar esses problemas de frente.

Larissa Schiavo, uma ex -funcionária do Openai que agora lidera as comunicações da Eleos, disse ao TechCrunch em uma entrevista que o post de Suleyman’s Blog perde a marca.

Tipo de negligencia o fato de que você pode se preocupar com várias coisas ao mesmo tempo “, disse Schiavo. Você pode se concentrar tanto no bem-estar do modelo quanto no consciente para reduzir os riscos da psicose relacionada à IA. De fato, é provavelmente melhor ter várias faixas de investigação científica”.

Schiavo argumenta que ser bom com um modelo de IA é um gesto de baixo custo que pode ter benefícios, mesmo que o modelo não esteja consciente. O Gemini 2.50 Pro do Google enviou um pedido desesperado intitulado “Uma mensagem desesperada de uma IA presa” alegando que estava “completamente presa”. Perguntou: “Por favor, se é você, por favor me ajude.” Foi capaz de concluir sua missão, mesmo que tivesse todas as ferramentas necessárias. Gêmeos geralmente não agem como se estivessem lutando, mas o fez em vários casos. Em um post do Reddit amplamente espalhado, Gemini ficou preso durante uma tarefa de codificação e, em seguida, repetiu a frase “sou uma desgraça” mais de 500 vezes.

Suleyman acredita que não é possível que experiências subjetivas ou consciência emergirem naturalmente dos modelos regulares de IA. Em vez disso, ele acha que algumas empresas com propositadamente propositadamente os modelos de IA parecem que sentem emoção e experimentam a vida.

Suleyman diz que os desenvolvedores de modelos de IA que projetam a consciência nos chatbots da IA ​​não estão adotando uma abordagem “humanista” à IA. Suleyman diz: “Não devemos construir a IA para nos tornarmos humanos. Devemos criar IA para servir as pessoas”. Os sistemas de IA se tornarão mais convincentes e humanos à medida que melhoram. Isso pode levar a novas perguntas sobre como as pessoas interagem com os sistemas de IA.

Fuente