Se você deseja limpar o mofo de sua máquina de lavar, evite seguir as dicas de Alexa.
O assistente de voz da Amazon não é necessariamente famoso por fornecer informações perigosas, mas seu registro também não é isento de falhas.
Relacionado
Amazon Alexa oferece a uma criança de 10 anos um desafio chocantemente inapropriado
Não se preocupe, a criança está bem
No final de 2021, Alexa deu a uma criança de 10 anos um desafio “chocantemente” perigoso. Ele dizia ao garoto para “conectar um carregador de telefone até a metade da tomada e depois tocar uma moeda nos pinos expostos”. A empresa corrigiu prontamente o erro.
Agora, quase cinco anos depois, Alexa está sob ataque novamente, e é por dar conselhos igualmente descuidados (via TechIssuesToday).
De acordo com uma postagem do Reddit compartilhada pelo usuário cansado_time no subreddit r/alexa, quando questionada sobre como limpar o mofo preto de uma máquina de lavar, Alexa sugeriu usar “vinagre branco, alvejante, bicarbonato de sódio e sabão em pó”.
Para quem não sabe, o alvejante para limpeza doméstica é feito de hipoclorito de sódio diluído em água. O vinagre, por outro lado, é a forma diluída do ácido acético.
O faxineiro casual pode não encontrar nada de errado com esta lista e começar a misturar os ingredientes. O hipoclorito de sódio, quando misturado com ácido acético, resulta na liberação de gás cloro potencialmente letal.
Alexa citou dicasbulletin.com como fonte da informação. A ironia é que a fonte realmente listou as informações corretas, Alexa apenas as reformulou de uma forma que as tornou perigosas. “Use vinagre branco, sabão em pó, alvejante ou bicarbonato de sódio para manter a vedação da porta higiênica”, escreveu o boletim informativo. Alexa mudou isso para “vinagre branco, alvejante, bicarbonato de sódio e sabão em pó”.
A diferença está no uso de “ou” versus “e”. Individualmente, esses ingredientes são seguros para uso, então “ou” funciona. O perigo potencial só surge quando os ingredientes são misturados, e é por isso que usar “e” na lista de ingredientes não funciona.
Esta não é a primeira vez que vemos ferramentas modernas alimentadas por IA divulgando informações falsas (e perigosas). O clássico fiasco do Pizza Glue do Google deixou um gosto ruim na boca dos usuários, sem trocadilhos, com a reputação do AI Overviews ainda um tanto prejudicada por causa do incidente.

Relacionado
A IA do Google criou um rebuliço para consumir cola e depois aprendeu a recomendar cola novamente com a cobertura que se seguiu
O Google parece não conseguir escapar do fiasco da cola para pizza



