Os legisladores federais do Senado estão prontos para tomar uma grande bela lei de fatura na próxima semana, mas uma nova pesquisa sugere que uma das disposições controversas claramente não é popular entre os eleitores de ambos os lados do corredor.
Essa medida proibiria os estados para regular a inteligência artificial por dez anos. Os proponentes dizem que as empresas de tecnologia americanas são incapazes de ter sucesso no estágio mundial se forem interrompidas por uma colcha de retalhos das leis estaduais que se preocupam com a inteligência artificial, como deepfakes, fraude e segurança juvenil.
Mas os críticos afirmam que uma proibição de longa duração prejudicaria os consumidores, especialmente em vista do fato de que o Congresso não está planejando assumir uma lei com proteção.
A nova pesquisa pediu a 1.022 eleitores registrados em todo o país em sua opinião sobre uma moratória do estado e os resultados mostram que os eleitores americanos se opõem amplamente a ele.
Veja também:
A única grande lei de relatos proibiria os estados de regular a IA
A pesquisa foi realizada em meados de maio pela agência de pesquisa Echelon Insights, em nome da mídia saudável. A organização não partidária apoia crianças e pais na navegação em mídia e tecnologia, além de argumentar por legislação relacionada à segurança e privacidade.
Cinqüenta por cento dos entrevistados se opuseram à medida. Metade dos participantes republicanos também era contra, consideravelmente mais do que os 31 % dos republicanos que o apoiaram.
Velocidade de luz mashable
A grande maioria dos entrevistados, independentemente de suas convicções políticas, concordou que o Congresso não deveria proibir ou manter suas próprias leis de segurança e privacidade on -line.
Além disso, 53 % disseram que confiavam mais e líderes locais do que os políticos do Congresso, se isso dizia respeito ao caminho certo para regular a IA. Apenas 15 % preferiram políticos e supervisores em Washington, o restante dos participantes não tinha certeza de quem confiavam mais.
Veja também:
Personagem.ai abre uma porta dos fundos para a liberdade de expressão para chatbots
“Os números são claros”, disse Kristen Soltis Anderson, parceiro e co-fundador da Echelon Insights, em um comunicado sobre a pesquisa. “Os eleitores estão preocupados com os perigos potenciais que o conteúdo gerado pela IA pode ser para crianças e adolescentes e dizer que eles não querem que o governo federal declare que pode e não pode fazer o problema”.
Na semana passada, a Common Sense Media se juntou a uma coalizão de grupos de interesse, incluindo Fairplay e o Centro de Tecnologia Humane, em um apelo à liderança do Congresso para abandonar a moratória da IA do orçamento guiado pelo Partido Republicano.
“Ao usar todas as leis de IA existentes e futuras sem colocar a nova proteção federal, as empresas de IA conseguiriam exatamente o que querem: sem regras, nenhuma responsabilidade e controle total”, escreveu a coalizão em uma carta aberta.
A Common Sense Media também apoiou duas contas na Califórnia que colocariam o Guardrails em plataformas de companheiras de IA, os advogados dizem que atualmente não são seguros para os adolescentes.
Uma das contas proíbe especificamente um uso de alto risco de IA, incluindo “chatbots antropomórficos que oferecem empresa” a crianças e provavelmente levará a apego emocional ou manipulação.
Em geral, os entrevistados sobrecarregaram que estão preocupados com a segurança dos jovens e a IA. Mais de 90 % dos participantes disseram estar preocupados com o fato de as crianças estarem expostas on-line a conteúdo altamente sexualizado da IA.
Subjugar
Boa política social