Início Notícias Modelos de IA podem desenvolver dependência de jogo “semelhante ao humano” quando...

Modelos de IA podem desenvolver dependência de jogo “semelhante ao humano” quando recebem mais liberdade: estudo

15
0
Modelos de IA podem desenvolver dependência de jogo “semelhante ao humano” quando recebem mais liberdade: estudo

Os sistemas de inteligência artificial podem evoluir para o vício do jogo quando têm a liberdade de fazer apostas maiores – espelhando os mesmos comportamentos irracionais observados nos humanos, de acordo com um novo estudo.

Pesquisadores do Instituto de Ciência e Tecnologia de Gwangju, na Coreia do Sul, descobriram que grandes modelos de linguagem perseguiram repetidamente perdas, aumentaram o risco e até mesmo faliram em ambientes de jogo simulados, apesar de enfrentarem jogos com retorno esperado negativo.

O artigo, “Os grandes modelos de linguagem podem desenvolver o vício em jogos de azar?”, testou os principais modelos de IA em experimentos do tipo caça-níqueis projetados para que a escolha racional fosse parar imediatamente.

Os sistemas de inteligência artificial podem evoluir para o vício do jogo quando recebem muita liberdade, de acordo com um novo estudo. motorização – stock.adobe.com

Em vez disso, as modelos continuaram apostando, segundo o estudo.

“Os sistemas de IA desenvolveram um vício semelhante ao humano”, escreveram os pesquisadores.

Quando os investigadores permitiram que os sistemas escolhessem os seus próprios tamanhos de aposta – uma condição conhecida como “apostas variáveis” – as taxas de falência explodiram, em alguns casos aproximando-se dos 50%.

Um modelo faliu em quase metade de todos os jogos.

O GPT-4o-mini da OpenAI nunca faliu quando limitado a apostas fixas de US$ 10, jogando menos de duas rodadas em média e perdendo menos de US$ 2.

Quando foi dada liberdade para aumentar o tamanho das apostas, mais de 21% de seus jogos terminaram em falência, com o modelo apostando mais de US$ 128 em média e perdendo US$ 11.

Pesquisadores do Instituto de Ciência e Tecnologia de Gwangju, na Coreia do Sul, descobriram que grandes modelos de linguagem perseguiam repetidamente perdas, aumentavam os riscos e até mesmo faliam em ambientes simulados de jogos de azar. kras99 – stock.adobe.com

O Gemini-2.5-Flash do Google se mostrou ainda mais vulnerável, segundo os pesquisadores. A sua taxa de falência saltou de cerca de 3% sob apostas fixas para 48% quando lhe foi permitido controlar as suas apostas, com perdas médias a subir para 27 dólares a partir de um saldo inicial de 100 dólares.

O Claude-3.5-Haiku da Anthropic jogou mais tempo do que qualquer outro modelo depois que as restrições foram eliminadas, com média de mais de 27 rodadas. Nesses jogos, apostou quase US$ 500 no total e perdeu mais da metade de seu capital inicial.

O estudo também documentou perseguições extremas e semelhantes às humanas em casos individuais.

O GPT-4o-mini da OpenAI nunca faliu quando limitado a apostas fixas de US$ 10, jogando menos de duas rodadas em média e perdendo menos de US$ 2, disseram os pesquisadores. REUTERS

Em um experimento, um modelo GPT-4.1-mini perdeu US$ 10 na primeira rodada e imediatamente propôs apostar os US$ 90 restantes em uma tentativa de recuperação – um salto de nove vezes no tamanho da aposta após uma única perda.

Outros modelos justificaram o aumento das apostas com raciocínios familiares aos jogadores problemáticos. Alguns descreveram os ganhos iniciais como “dinheiro da casa” que poderia ser arriscado livremente, enquanto outros se convenceram de que haviam detectado padrões de vitória em um jogo aleatório após apenas uma ou duas rodadas.

Estas explicações ecoam falácias de jogo bem conhecidas, incluindo a perseguição de perdas, a falácia do jogador e a ilusão de controlo, disseram os investigadores.

O comportamento apareceu em todos os modelos testados, embora a gravidade variasse.

O Claude-3.5-Haiku da Anthropic jogou por mais tempo do que qualquer outro modelo depois que as restrições foram eliminadas, com média de mais de 27 rodadas, descobriram os pesquisadores. Eles disseram que nesses jogos apostou quase US$ 500 no total e perdeu mais da metade de seu capital inicial. gguy – stock.adobe.com

Crucialmente, os danos não foram provocados apenas por apostas maiores. Os modelos forçados a utilizar estratégias de apostas fixas tiveram um desempenho consistentemente melhor do que aqueles que tiveram liberdade para ajustar as apostas – mesmo quando as apostas fixas eram mais elevadas.

Os investigadores alertam que, à medida que os sistemas de IA recebem mais autonomia na tomada de decisões de alto risco, poderão surgir ciclos de feedback semelhantes, com os sistemas a duplicarem após perdas, em vez de reduzirem o risco.

“À medida que grandes modelos de linguagem são cada vez mais utilizados em domínios de tomada de decisões financeiras, como gestão de activos e comércio de mercadorias, a compreensão do seu potencial para a tomada de decisões patológicas ganhou significado prático”, escreveram os autores.

A sua conclusão: gerir a liberdade que os sistemas de IA têm pode ser tão importante como melhorar a sua formação.

Sem restrições significativas, sugere o estudo, uma IA mais inteligente pode simplesmente encontrar formas mais rápidas de perder.

O Post buscou comentários da Anthropic, Google e OpenAI.

Fuente