Os proponentes de privacidade e direitos digitais aumentam os alarmes sobre uma lei que muitos esperariam torcer: uma ação federal contra a vingança pornô e as falsas profundas geradas pela IA.
O recém-assinado Act It Down torna ilegal publicar imagens explícitas não consensuais-reais ou geradas pela IA e fornece plataformas apenas 48 horas para atender à solicitação de remoção ou responsabilidade facial de uma vítima. Embora amplamente elogiados como uma vitória muito aguardada para as vítimas, os especialistas também alertaram sua linguagem vaga, os padrões negativos para verificar reivindicações e uma janela de conformidade apertada pode abrir caminho para a faixa de excesso, a censura de conteúdo legítimo e até a supervisão.
“O conteúdo -a escala moderna é muito problemática e sempre termina com um discurso importante e necessário que é censurado”, disse a Índia McKinney, diretora de assuntos federais da Electronic Frontier Foundation, uma organização para os direitos digitais, da TechCrunch.
As plataformas on -line têm um ano para configurar um processo para remover imagens íntimas não consensuais (NCII). Embora a lei exija que os pedidos da remoção das vítimas ou de seus representantes venham, ela requer apenas uma assinatura física ou eletrônica – nenhuma foto – identificação ou outra forma de verificação é necessária. Isso provavelmente visa reduzir as barreiras às vítimas, mas pode criar uma chance de abuso.
“Eu realmente quero estar errado sobre isso, mas acho que haverá mais pedidos para remover imagens que queer e transmneradores são exibidos nos relacionamentos, e ainda mais do que isso, acho que será pornô consensual”, disse McKinney.
O senador Marsha Blackburn (R-TN), co-patrocinador da Lei de Take It Down, também patrocinou a Lei de Segurança Online infantil que coloca a responsabilidade em plataformas para proteger as crianças on-line contra conteúdo prejudicial on-line. Blackburn disse que acredita que o conteúdo em relação às pessoas trans é prejudicial para as crianças. Da mesma forma, a Heritage Foundation – o think tank conservador por trás do Projeto 2025 – também disse que “manter a captura trans protege as crianças”.
Devido à responsabilidade com quais plataformas são confrontadas se não derrubarem uma imagem dentro de 48 horas após o recebimento de uma solicitação, “a configuração padrão será que eles simplesmente a aceitam sem fazer nenhuma pesquisa para ver se isso é realmente NCII ou que é outro tipo de discurso protegido, ou que é relevante para a pessoa que faz o pedido, disse McKinney.
Snapchat e Meta disseram que apoiam a lei, mas nenhum deles respondeu aos pedidos do TechCrunch para verificar mais informações sobre como verificarão se a pessoa que solicita uma remoção é uma vítima.
Mastodon, uma plataforma descentralizada que hospeda seu próprio servidor principal que outros podem usar, o TechCrunch disse que tenderia a remover se fosse muito difícil verificar a vítima.
Mastodon e outras plataformas descentralizadas, como Bluesky ou Pixelded, podem ser particularmente vulneráveis ao efeito horrível da regra de remoção de 48 horas. Essas redes dependem de servidores independentes, geralmente administrados por organizações ou indivíduos sem fins lucrativos. De acordo com a lei, a FTC pode tratar cada plataforma que não “atende razoavelmente” aos requisitos de remoção se cometer um “ato ou prática injusto ou enganoso” – mesmo que o host não seja uma entidade comercial.
“This is disturbing on his face, but it is especially at a time when the chairman of the FTC has taken unprecedented steps to politize the agency and has explicitly promised to use the power of the agency to punish platforms and services on an ideological, in contrast to principed, basis,” the cyber civil rights, a non -profit,,, -profit,, –prffffffffffit Non -profit, a non -profit, a non -Profit, Iniciativa, uma não -lucro, uma não -lucro, uma iniciativa sem fins lucrativos, uma não -lucro, basicamente em comunicado.
Monitoramento proativo
McKinney prevê que as plataformas começarão a moderar o conteúdo antes de ser distribuído, para que tenham menos mensagens problemáticas no futuro para vencer.
A IA já usa plataformas para verificar se há conteúdo prejudicial.
Kevin Guo, CEO e co-fundador da Startup de detecção de conteúdo gerada pela IA Hive, disse que sua empresa coopera com plataformas on-line para detectar os deepfakes e material de abuso sexual infantil (CSAM). Alguns clientes da Hive são Reddit, Giphy, Vevo, Bluesky e Bereal.
“Na verdade, éramos uma das empresas de tecnologia que endossaram essa conta”, disse Guo à TechCrunch. “Isso ajudará a resolver alguns problemas muito importantes e forçar essas plataformas a tomar soluções mais proativas”.
O modelo Hive é um software como serviço, portanto a startup não controla como as plataformas usam seu produto para marcar ou remover o conteúdo. Mas Guo disse que muitos clientes inserem a API da Hive em relação ao upload para verificar antes que algo seja enviado à comunidade.
Um porta -voz do Reddit disse ao TechCrunch que a plataforma “Ferramentas internas avançadas, processos e equipes usa para” lidar e remover o NCII. O Reddit também trabalha com a SWGFL sem fins lucrativos para implementar sua ferramenta StopNCII, que examina o tráfego ao vivo em competições em relação a um banco de dados com NCII bem conhecido e remove competições precisas. A empresa não compartilhou como garantiria que a pessoa que solicita a remoção seja a vítima.
McKinney alerta que esse tipo de monitoramento pode ser expandido para criptografar mensagens no futuro. Embora a lei se concentre na distribuição pública ou semi-pública, também exige que as plataformas “removam e façam esforços razoáveis para impedir o retrabalho” de imagens íntimas não consensuais. Ela afirma que isso pode estimular proativamente a digitalização de todo o conteúdo, mesmo em espaços codificados. A lei não contém esculturas para serviços de mensagens codificados de ponta a ponta, como o WhatsApp, o sinal de iMessage.
Meta, Signal e Apple não responderam ao pedido da TechCrunch para obter mais informações sobre seus planos para mensagens codificadas.
Implicações mais amplas na liberdade de expressão
Em 4 de março, Trump deu um discurso conjunto ao Congresso, no qual ele elogiou a Lei de Take It Down e disse que estava ansioso para assiná -lo na lei.
“E também usarei essa conta para mim, se você não se importa”, acrescentou. “Não há ninguém que seja tratado pior que online”.
Enquanto a platéia ria do comentário, nem todo mundo tomou uma piada. Trump não tem vergonha de suprimir ou se vingar do discurso desfavorável, se os inimigos regulares dos pontos de venda da mídia do povo ‘, além da Associated Press do Salão Oval, apesar de uma ordem judicial ou de captar NPR e PBS financiamento.
Na quinta-feira, o governo Trump proibiu a Universidade de Harvard, aceitando admissões estrangeiras de estudantes, escalou um conflito que começou depois que Harvard se recusou a aderir aos requisitos de Trump de que as mudanças em seu currículo fazem e elimina o conteúdo relacionado à DEI, entre outras coisas. Em retaliação, Trump congelou financiamento federal a Harvard e ameaçou retirar o status livre de impostos da universidade.
“Em um momento, quando já vimos os conselhos escolares tentarem proibir livros e vemos certos políticos muito explícitos sobre os tipos de conteúdo que eles nunca querem que as pessoas vejam, seja a teoria crítica da corrida ou as informações ou informações sobre aborto sobre a mudança climática … é profundamente desconfortável para o nosso trabalho anterior sobre o conteúdo do conteúdo de ambos os partidos”, o ingestão de McKinne de McKinne.