Início Tecnologia Não peça dicas de limpeza a Alexa, a menos que queira arriscar...

Não peça dicas de limpeza a Alexa, a menos que queira arriscar uma reação letal

18
0
O logotipo da Amazon Alexa contra uma imagem desfocada.

Se você deseja limpar o mofo de sua máquina de lavar, evite seguir as dicas de Alexa.

O assistente de voz da Amazon não é necessariamente famoso por fornecer informações perigosas, mas seu registro também não é isento de falhas.

Relacionado

Amazon Alexa oferece a uma criança de 10 anos um desafio chocantemente inapropriado

Não se preocupe, a criança está bem

No final de 2021, Alexa deu a uma criança de 10 anos um desafio “chocantemente” perigoso. Ele dizia ao garoto para “conectar um carregador de telefone até a metade da tomada e depois tocar uma moeda nos pinos expostos”. A empresa corrigiu prontamente o erro.

Agora, quase cinco anos depois, Alexa está sob ataque novamente, e é por dar conselhos igualmente descuidados (via TechIssuesToday).

De acordo com uma postagem do Reddit compartilhada pelo usuário cansado_time no subreddit r/alexa, quando questionada sobre como limpar o mofo preto de uma máquina de lavar, Alexa sugeriu usar “vinagre branco, alvejante, bicarbonato de sódio e sabão em pó”.

Para quem não sabe, o alvejante para limpeza doméstica é feito de hipoclorito de sódio diluído em água. O vinagre, por outro lado, é a forma diluída do ácido acético.

O faxineiro casual pode não encontrar nada de errado com esta lista e começar a misturar os ingredientes. O hipoclorito de sódio, quando misturado com ácido acético, resulta na liberação de gás cloro potencialmente letal.

Alexa citou dicasbulletin.com como fonte da informação. A ironia é que a fonte realmente listou as informações corretas, Alexa apenas as reformulou de uma forma que as tornou perigosas. “Use vinagre branco, sabão em pó, alvejante ou bicarbonato de sódio para manter a vedação da porta higiênica”, escreveu o boletim informativo. Alexa mudou isso para “vinagre branco, alvejante, bicarbonato de sódio e sabão em pó”.

A diferença está no uso de “ou” versus “e”. Individualmente, esses ingredientes são seguros para uso, então “ou” funciona. O perigo potencial só surge quando os ingredientes são misturados, e é por isso que usar “e” na lista de ingredientes não funciona.

Esta não é a primeira vez que vemos ferramentas modernas alimentadas por IA divulgando informações falsas (e perigosas). O clássico fiasco do Pizza Glue do Google deixou um gosto ruim na boca dos usuários, sem trocadilhos, com a reputação do AI Overviews ainda um tanto prejudicada por causa do incidente.

Uma exibição da experiência de pesquisa generativa do Google

Relacionado

A IA do Google criou um rebuliço para consumir cola e depois aprendeu a recomendar cola novamente com a cobertura que se seguiu

O Google parece não conseguir escapar do fiasco da cola para pizza

Fuente