O diretor e filme de Hollywood Jamese Cameron Warn “, existe o perigo de” Apocalipse no estilo Terminator se você “monta a IA com os sistemas de armas”.
Embora Cameron tenha expressado anteriormente que a inteligência artificial foi capaz de ajudar a dirigir filmes, ainda estava preocupado que sua franquia de terminais potencialmente se tornasse realista se ele estivesse fora de controle.
“Acho que ainda existe o perigo de apocalipse no estilo do Terminator, onde você coloca a IA com sistemas de armas, mesmo até armas nucleares nucleares, defesas nucleares”, disse Cameron em entrevista.
No mundo, Cameron se passa no mundo em que a rede defensiva da IA se torna autoconsciente e começa a ganhar pessoas.
Oscar que derrotou o diretor Titanic e Avatarographic para dizer: “Como o teatro é tão rápido que as janelas de decisão são tão rápidas que devem ser capazes de processá-lo, e podemos ser inteligentes e manter um homem no circuito”.
“Mas as pessoas estão erradas, e houve muitos erros que estavam à beira dos incidentes internacionais que poderiam levar a uma guerra nuclear. Então eu não sei”, acrescentou Cameron.
“Sinto que estamos neste topo em desenvolvimento humano, onde você tem três ameaças existenciais: clima e nossa degradação geral do mundo natural, armas nucleares e super inteligência”, continuou ele. “Eles são todos os tipos de manifestação e clímax ao mesmo tempo”.
Cameron também se estabeleceu “talvez a resposta da super inteligência”, acrescentando “, eu não sei. Não prevejo isso, mas isso pode ser”.
Em 2023. Ele disse que suspeitava que se chamava de “desconfortável com a mente mais regurgitadora disse” – uma história “boa” a um ponto em que a tecnologia substitui o ponto.
“Não acredito que isso tenha algo para mover o público”, disse Cameron. “Você tem que ser humano para escrever. Não conheço ninguém que sequer pensou em escrever o roteiro.”
Alan Mastrangelo é um repórter do Breitbart News. Você pode segui -la no Facebook e X em @ Armastrangelo e Instagram.