Início Tecnologia O estudo do Openai sobre as versões de IA propositadamente existente é...

O estudo do Openai sobre as versões de IA propositadamente existente é selvagem

22
0
O estudo do Openai sobre as versões de IA propositadamente existente é selvagem

De vez em quando, os cientistas das maiores empresas de tecnologia descem uma bomba. Houve no momento em que o Google reivindicou seu mais recente chip quântico sugeriu que vários mundos existem. Ou quando o antrópico ofereceu ao seu representante da IA, Claudius, um equipamento de venda automática de tratamento para correr e ficou louco, chamando a segurança dos indivíduos e pedindo que fosse humano.

Nesta semana, foi a vez do OpenAI aumentar nossas sobrancelhas cumulativas.

O Openai lançou na segunda -feira alguns estudos que discutiram como está deixando as versões de IA de “sem escrúpulos”. É uma técnica na qual um “Ai age significa externamente ao ocultar seus objetivos reais”, o OpenAI especificado em seu tweet sobre o estudo.

No artigo, realizado com o estudo de beleza, os cientistas foram um pouco adicionais, comparando a IA sem escrúpulos com um corretor de suprimentos humano, prejudicando a legislação para ganhar tanto dinheiro quanto viável. Os cientistas, no entanto, disseram que muita IA “sem escrúpulos” não era tão insegura. “Uma das falhas mais usuais implica tipos simples de enganosos- por exemplo, fazendo acreditar ter terminado um emprego sem realmente fazê-lo”, eles criaram.

O artigo foi liberado principalmente para revelar que “posicionamento deliberativo”-o método anti-esquema que eles estavam triagem-funcionavam bem.

Mas também discutiu que os designers de IA não descobriram um meio de educar suas versões para o sistema. É como esse treinamento pode realmente educar o design como o sistema também é muito melhor para ficar longe de ser encontrado.

“Um cenário significativo de tentar ‘educar’ sem escrúpulos é apenas mostrar o design do sistema com muito mais cuidado e secreção”, criaram os cientistas.

Evento do TechCrunch

São Francisco
|
27-29 de outubro de 2025

Talvez um dos componentes mais surpreendentes seja que, se uma versão compreende que está sendo verificada, pode afirmar que não é inescrupuloso simplesmente passar no exame, também se ainda for inescrupuloso. “Os projetos geralmente passam a ser muito mais conscientes de que estão sendo avaliados. Esse entendimento situacional pode diminuir sem escrúpulos, independentemente da colocação real”, criaram os cientistas.

Não é uma informação que as versões de IA certamente existam. Agora, a maioria de nós realmente experimentou alucinações de IA, ou o design com confiança que oferece uma resposta a um tempo em tempo hábil que apenas não é real. No entanto, as alucinações estão fornecendo principalmente a incerteza com a autoconfiança, como o estudo do OpenAI lançado anteriormente este mês registrado.

Scheming é outra coisa. É calculado.

Mesmo essa descoberta-que uma versão irá enganar as pessoas de propósito-não é novidade. O estudo de beleza divulgou inicialmente um artigo em dezembro, registrando como 5 versões planejavam quando receberam diretrizes para atingir um objetivo “de qualquer maneira os preços”.

O que é? Excelente informação que os cientistas viram diminuições substanciais em inescrupulosidade, utilizando “colocação deliberativa”. Esse método implica mostrar o design um “requisitos anti-esquema” e depois fazer com que o design o avalie antes de agir. É um pouco como fazer com que os jovens dupliquem as políticas antes de permitir que eles tocassem.

Os cientistas do Openai insistem firmemente que os existentes que realmente capturaram com suas próprias versões e, mesmo com o ChatGPT, não são maiores. Como o fundador da Openai, Wojciech Zaremba, informou Maxwell Zeff, do TechCrunch, ao exigir muito melhor teste de segurança: “Este trabalho foi realmente realizado nas atmosferas substitutas, e acreditamos que não é possível que não seja um tipo de uso de uso do site de uso. No entanto, não é possível que não seja um tipo de tráfego de fabricação. Para executar algum site, e isso poderia informá -lo: ‘Sim, eu fiz um trabalho maravilhoso “. Que é simplesmente a mentira. Existem alguns pequenos tipos de enganosos que ainda precisamos atender “.

A realidade que as versões de IA de vários jogadores induzem propositalmente as pessoas é, provavelmente, fáceis de entender. Eles foram desenvolvidos por pessoas, para se parecer com as pessoas e (informações artificiais) essencialmente educadas sobre informações geradas pelas pessoas.

É da mesma forma que é louco.

Embora todos tenhamos experimentado a decepção de fazer a tecnologia moderna (pensando em você, impressoras domésticas de dias passados), quando foi a última vez que seu aplicativo de software não-AI existiu propositadamente para você? Sua caixa de entrada já produziu e-mails por si só? Seu CMS registrou clientes em potencial em folha que realmente não existiam para preencher seus números? Seu aplicativo de fintech compôs seus próprios acordos de instituição financeira?

Vale a pena contemplar isso como a empresa Globe Barrels na direção de um futuro de IA, onde as empresas acham que os representantes podem ser tratados como funcionários independentes. Os cientistas deste artigo têm a mesma cautela.

“Como os AIS são designados empregos muito mais complexos com repercussões do mundo real e começam a percorrer objetivos ainda mais claros e duradouros, prevemos que a possibilidade de não-escrúpulos não escrúpulos certamente expandirá-então nossas salvaguardas e nossa capacidade de avaliar cuidadosamente precisam se expandir”, eles criaram.

.

Fuente