Início Tecnologia A Antthropic quer contratar um especialista em armas. Não é o que...

A Antthropic quer contratar um especialista em armas. Não é o que você pensa.

19
0
A Antthropic quer contratar um especialista em armas. Não é o que você pensa.

Muitas pessoas viram isso pela primeira vez no X: um anúncio de emprego muito incomum e perturbador. Alguns presumiram que era uma piada. Outros foram chamados de volta da Cyberdyne Systems, a empresa de tecnologia da franquia Terminator que acidentalmente inventa a Skynet.

Este Tweet não está disponível no momento. Pode estar carregando ou foi removido.

Mas no LinkedIn, onde falam uma língua diferente, a Anthropic apenas publicou uma lista à procura de um Gestor de Políticas, Armas Químicas e Explosivos de Alto Rendimento. A descrição do trabalho adicionou mais detalhes.

“Esta função oferece uma oportunidade única para moldar a forma como os sistemas de IA lidam com informações sensíveis sobre produtos químicos e explosivos”, dizia. “Você trabalhará com os principais pesquisadores de segurança de IA enquanto enfrenta problemas críticos na prevenção do uso indevido catastrófico. Se você está entusiasmado em usar sua experiência para garantir que os sistemas de IA permaneçam seguros e benéficos, queremos ouvir sua opinião.”

O Mashable entrou em contato com a Anthropic e a empresa forneceu mais contexto.

“Nossas políticas de uso proíbem o uso de produtos ou serviços da Antrópico para desenvolver ou projetar armas”, disse-nos um porta-voz da empresa. “Essa função cabe à equipe de Salvaguardas, responsável por prevenir o uso indevido de nossos modelos.”

Velocidade da luz mashável

O porta-voz enfatizou que a Anthropic proíbe explicitamente que sua IA ou qualquer uma de suas tecnologias seja usada para a criação de armas. Em vez disso, o gestor baseado em Nova Iorque terá a tarefa de construir e aplicar salvaguardas para garantir que as armas não sejam fabricadas com tecnologia da Anthropic.

A empresa busca contratar especialistas em áreas sensíveis que possam garantir que a IA da Anthropic seja mantida longe de mãos nefastas, disse o porta-voz.

VEJA TAMBÉM:

Claude da Anthropic ultrapassa ChatGPT na App Store

A Antrópica recentemente se viu em uma batalha pública com o Departamento de Guerra (também conhecido como Departamento de Defesa). A empresa diz que não está a avançar nas suas exigências de que a sua IA não seja usada para construir armas totalmente autónomas ou para estabelecer vigilância em massa de pessoas.

O secretário de Defesa Pete Hegseth respondeu às condições da Anthropic declarando que a empresa representava um risco na cadeia de abastecimento para a segurança nacional dos Estados Unidos, proibindo o Pentágono de utilizar a sua tecnologia após uma eliminação progressiva de seis meses. A empresa então entrou com uma ação de acordo com uma nota de 5 de março do CEO da Anthropic, Dario Amodei.

Enquanto isso, alguns membros do Pentágono estão achando difícil abandonar Claude, o modelo de IA da Anthropic.

Em fevereiro, a Anthropic anunciou uma atualização em sua política de segurança de IA, também conhecida como Política de Escalabilidade Responsável. A empresa afirmou que foi forçada a repensar as suas políticas de segurança — consideradas por alguns como as mais fortes do setor — devido a vários fatores, incluindo a ênfase do governo federal no crescimento económico em detrimento das regulamentações de segurança.

Quem quer que acabe nesse papel de gestor de políticas, então, encontrará-se no centro de um debate explosivo. Sem mencionar, potencialmente, a capacidade de ajudar a prevenir uma ameaça futura da Skynet.

Fuente