Início Tecnologia O fundador da Apple, Steve Wozniak, mantém uma restrição de atuação à...

O fundador da Apple, Steve Wozniak, mantém uma restrição de atuação à superinteligência de IA

24
0
O cofundador da Apple, Steve Wozniak, apóia uma proibição provisória da superinteligência de IA | Light painting futurista do rosto de uma mulher

O fundador da Apple, Steve Wozniak, é apenas um entre mais de mil pessoas que pedem uma restrição temporária ao desenvolvimento da superinteligência de IA. Várias outras assinaturas incluem ganhadores do Nobel, líderes de IA e várias outras estrelas da tecnologia…

A declaração é breve e direta. Abaixo permanece em sua totalidade:

Dispositivos de IA de ponta podem trazer saúde, bem-estar e sucesso incomparáveis. No entanto, juntamente com os dispositivos, muitas empresas líderes de IA têm o objetivo específico de superinteligência estrutural nos próximos anos, que pode ofuscar significativamente todos os seres humanos em basicamente todas as funções cognitivas. Na verdade, isto aumentou as preocupações, variando desde a obsolescência financeira humana e a perda de poder, perdas de flexibilidade, direitos constitucionais, respeito próprio e controlo, até aos perigos de segurança e protecção a nível nacional e também à possível demissão humana. A declaração concisa listada abaixo visa revelar o segredo do crescente número de especialistas e pessoas que se opõem ao entusiasmo pela superinteligência.

Pedimos uma restrição ao avanço da superinteligência, não levantada antes que haja

  1. amplo acordo clínico de que isso certamente será feito de forma segura e controlada, e
  2. forte adesão pública.

Algumas outras assinaturas notáveis ​​consistem em:

  • O líder da IA, Geoffrey Hinton, em alguns casos referido como “o padrinho da descoberta profunda”
  • Cientista fundamental de IA, Yoshua Bengio
  • Stuart Russell, professor de CS da UC Berkeley e profissional de segurança de IA
  • Os físicos ganhadores do Nobel Frank Wilczek e John C. Mather
  • Os ganhadores do Nobel Beatrice Fihn e Daron Acemoğlu
  • Ex-consultora nacional de segurança e proteção dos Estados Unidos, Susan Rice

Muitas das mesmas assinaturas afirmaram anteriormente que o conhecimento básico produzido pelo homem (AGI) representa um enorme risco de extinção humana como pandemias e batalhas nucleares.

Acessórios em destaque

Foto de Contrast Fiber no Unsplash

FTC: Usamos links da web para associados de automóveis que geram receitas. Muito mais.

.

Fuente