euOntem à noite eu estava tirando fotos com um aplicativo de namoro. Uma pessoa chamou a atenção: “Henrique VIII, 34, Rei da Inglaterra, não monogamia”. Seguindo o ponto que entendi, vou a um bar à luz de velas e compartilho um martini com o maior namorador em série do século XVI.
No entanto, a noite não acabou. Em seguida, vou tocar lado a lado com Diana, Princesa de Gales. “O grupo está preparado para a diminuição”, ela grita no meu ouvido, segurando um fone de ouvido com uma linda tiara. No final das contas, Karl Marx está discutindo por que ele não consegue obter até 60% de desconto, enquanto esperamos no frio para obter os direitos iniciais nas vendas da Black Friday.
No Sora 2, se você puder acreditar, provavelmente poderá ver – mesmo quando entender que não deveria. Lançado em outubro nos Estados Unidos e Canadá apenas por convite, o aplicativo de vídeo da OpenAI atingiu 1 milhão de downloads em apenas cinco dias, superando a estreia do ChatGPT.
O videoclipe deepfake gerado por IA faz uso das semelhanças de Henrique VIII e Kobe Bryant
Sora não é o único dispositivo de IA generativo de texto para vídeo que existe, mas na verdade se tornou popular por dois fatores principais. Inicialmente, é o método mais conveniente para os clientes estrelarem seus próprios deepfakes. Seja pontual e um videoclipe de 10 segundos apareça em poucos minutos. Depois disso, ele pode ser compartilhado no feed estilo TikTok do próprio Sora ou exportado para outros lugares. Ao contrário do “resíduo de IA” produzido em massa e de baixa qualidade que bloqueia a Internet, esses clipes têm um valor de fabricação irritantemente alto.
A segunda coisa é que Sora permite as semelhanças entre estrelas, esportistas e líderes políticos – com um cuidado importante: eles devem estar mortos. Indivíduos vivos precisam oferecer atributo de concessão, mas há uma isenção para “números históricos”, que Sora parece especificar como qualquer indivíduo popular e não mais ativo.
Isso parece ser o que muitos usuários têm feito desde o lançamento. O feed principal é um redemoinho único de podridão mental e líderes históricos. Adolf Hitler passa os dedos pelos cabelos brilhantes em uma propaganda de shampoo para cabelos. A Rainha Elizabeth II se catapulta de uma mesa de bar enquanto pronuncia blasfêmias. Abraham Lincoln aparece encantado em uma televisão ao ouvir: “Você não é o pai”. O reverendo Martin Luther King Jr informa a uma equipe de posto de gasolina sobre seu desejo de que naquele dia todas as bebidas lamacentas sejam gratuitas – depois disso, ele pega a bebida gelada e fode antes de completar sua sentença.
No entanto, os familiares dos retratados não estão rindo.
“É profundamente rude e doloroso ver a foto do meu pai ser usada de uma forma tão não tão séria e indiferente quando ele comprometeu sua vida com os fatos”, disse o filho de Malcolm X, Ilyasah Shabazz, ao Washington Article. Ela tinha 2 anos quando seu pai foi executado. Hoje, os clipes de Sora mostram o manifestante das liberdades civis atrapalhando-se com MLK, falando sobre excretar sobre si mesmo e fazer piadas não refinadas.
As pessoas estão com medo… esse tipo de material provavelmente resultará em uma distorção dessas pessoas e de como elas são lembradasHenry Ajder
Zelda Williams, filha da estrela Robin Williams, implorou às pessoas que “por favor, parem” de enviar vídeos de IA de seu pai, em um artigo de história no Instagram. “É estúpido, é uma busca inútil e um poder, e pense bem, NÃO é o que ele certamente desejaria”, disse ela. Pouco antes de sua morte em 2014, a falecida estrela entrou com uma ação judicial para impedir qualquer pessoa de usar sua semelhança em anúncios ou colocá-lo eletronicamente em filmes até 2039. “Para aproveitar as tradições de pessoas reais, ser comprimido para … terrível, o TikTok manejá-los é frustrante”, acrescentou seu filho.
Os videoclipes que utilizam a semelhança do falecido comediante George Carlin são “frustrantes e sombrios”, afirmou sua filha, Kelly Carlin, em um artigo da BlueSky.
Indivíduos que faleceram muito mais recentemente também foram identificados. O aplicativo está repleto de videoclipes de Stephen Hawking obtendo um “#powerslap” que derruba seu dispositivo de mobilidade. Kobe Bryant mergulha em uma mulher idosa enquanto grita sobre coisas em seu ânus. Amy Winehouse pode ser vista tropeçando pelas estradas de Manhattan ou chorando direto para a câmera de vídeo enquanto o rímel diminui seu rosto.
As fatalidades dos dois anos anteriores – Ozzy Osbourne, Matthew Perry, Liam Payne – estão faltando, sugerindo um corte que cai em algum ponto intermediário.
Sempre que eles faleceram, essa “manipulação de marionetes” dos mortos ameaça revisar os antecedentes, afirma Henry Ajder, um profissional generativo de IA. “As pessoas temem que um mundo cheio desse tipo de material possa levar a uma distorção dessas pessoas e de como elas nascem”, diz ele.
A fórmula de Sora incentiva o valor do choque. Um videoclipe no topo do meu feed revela King fazendo áudios de macacos durante seu discurso I Have a Desire. Outros mostram Bryant reencenando o acidente de helicóptero que eliminou ele e seu filho.
(Há) probabilidade de haver imprevisibilidade legal até que o tribunal superior ocupe uma instância – o que representa mais 2 a 4 anos Ashkhen Kazaryan
Embora estrelas ou animes também possam retratar indivíduos postumamente, existem proteções legais mais poderosas. Um estúdio de animação é responsável pelo seu material; OpenAI nem sempre é responsável por aparecer no Sora. Retratar uma pessoa para uso industrial também requer permissão de uma propriedade em alguns estados.
“Não poderíamos simplesmente reanimar completamente Christopher Lee para estrelar um novo filme de terror, então por que a OpenAI pode reanimá-lo para estrelar centenas de curtas?” pergunta James Grimmelmann, especialista em regulamentação da web da Cornell Legislation Institution e Cornell Technology.
A escolha da OpenAI de entregar as identidades da esquerda aos bens comuns aumenta as preocupações inquietantes sobre como os mortos deveriam residir no período da IA generativa.
A questão legal
Consignar os fantasmas das estrelas para sempre assombrar Sora pode parecer incorreto, mas é legal? Isso depende do que você pergunta.
Uma questão importante continua sem solução na regulamentação da web: os negócios de IA são abrangidos pela secção 230 e, por esse motivo, não são responsáveis pelo material de terceiros nos seus sistemas? Se o OpenAI estiver protegido na área 230, não será possível exigir o que os usuários ganham no Sora.
“No entanto, a menos que haja regulamentações governamentais sobre o assunto, é provável que haja imprevisibilidade legal até que o tribunal superior tome uma instância – o que significa mais dois a quatro anos”, diz Ashkhen Kazaryan, especialista em modificação inicial e plano de tecnologia moderna.
Sam Altman, CEO da OpenAI, fala durante o Snow Top 2025 em São Francisco, Golden State, em 2 de junho. Ele está entre os números vivos que permitiram que Sora utilizasse sua semelhança. Foto: Justin Sullivan/Getty Images
Enquanto isso, a OpenAI precisa evitar processos. Isso sugere pedir permissão aos vivos. A regulamentação sobre difamação dos Estados Unidos protege os indivíduos vivos de qualquer tipo de “interação simbolizada na forma física que seja prejudicial à reputação online de um indivíduo”. Além disso, muitos estados têm regulamentações de direito de atenção que impedem que a voz, a personalidade ou a semelhança de uma pessoa sejam utilizadas sem permissão para fins “industriais” ou “enganosos”.
Permitir os mortos “é o método de mergulhar o dedo do pé na água”, afirma Kazaryan.
Os falecidos não estão protegidos contra difamação, mas três estados – Nova York, Golden State e Tennessee – oferecem um direito de atenção post-mortem (o direito industrial à semelhança). Navegar por essas regulamentações no contexto da IA continua a ser um “local cinzento” sem critérios legais, afirma Grimmelmann.
As pessoas estão tratando isso como diversão, vendo que coisas malucas podem gerar ou quantas coisas podem reunirBo Bergstedt
Para registrar uma reclamação de forma eficaz, as propriedades certamente precisariam revelar que a OpenAI é responsável – por exemplo, dizendo que motiva os usuários a mostrar os mortos.
Grimmelmann tem em mente que a página inicial de Sora tem muitos desses videoclipes, anunciando efetivamente esse material. E se Sora foi informado sobre grandes quantidades de vídeos de números históricos, os reclamantes podem sugerir que o aplicativo seja desenvolvido para recriá-lo.
A OpenAI poderia, no entanto, se proteger declarando que Sora é simplesmente para diversão. Cada vídeo traz uma marca d’água, evitando que desinforme as pessoas ou seja classificado como comercial.
Bo Bergstedt, um cientista generativo de IA, afirma que a maioria dos clientes está verificando, não monetizando.
“As pessoas estão tratando isso como diversão, vendo que coisas malucas podem gerar ou quantas espécies podem coletar”, diz ele. Por mais perturbador que isso possa ser para os membros da família, ainda pode aderir aos regulamentos de atenção.
No entanto, se um cliente Sora construir um mercado-alvo criando clipes preferidos de números históricos e começar a monetizar essa adesão, ele poderá se encontrar em dificuldades legais. Alexios Mantzarlis, supervisor da campanha de segurança e proteção, contagem e proteção da Cornell Technology, lembra que “resíduos de IA financeira” consiste em gerar renda indiretamente com sistemas monetizados. Os “influenciadores de IA” emergentes de Sora podem, portanto, lidar com processos de propriedades se beneficiarem dos mortos.
Uma abordagem ‘Whac-A-Mole’
Em resposta à reação, a OpenAI revelou recentemente que certamente começaria a permitir que representantes de pessoas “falecidas recentemente” exigissem que sua semelhança fosse obstruída nos videoclipes de Sora.
“Embora existam interesses sólidos de expressão livre na representação de números históricos, nossa empresa acredita que alguém e seus familiares precisam eventualmente ter controle sobre como sua semelhança é usada”, disse um representante da OpenAI.
A empresa ainda não especificou “recentemente” ou discutiu como as demandas certamente serão atendidas. A OpenAI não reagiu rapidamente ao pedido de comentário do Guardian.
Na verdade, ele também voltou atrás em sua técnica de direitos autorais livres para todos, depois que material subversivo como “Bob Esponja nazista” se espalhou por todo o sistema e a Movie Organization acusou a OpenAI de violação. Uma semana após o lançamento, mudou para um design opcional para proprietários de liberdades civis.
Grimmelmann antecipa um pivô comparável em relação às representações dos mortos. “Insistir firmemente que os indivíduos devem retirar-se se não gostarem disto pode não ser sustentável”, afirma. “É monstruoso, e se eu tiver essa reação, outros certamente também terão – incluindo tribunais.”
Bergstedt chama isso de técnica “Whac-A-Mole” para barreiras de proteção que provavelmente continuará até que os tribunais governamentais especifiquem a responsabilidade da IA.
Na opinião de Ajder, o desacordo de Sora prenuncia uma questão maior com a qual todos os povos acabarão por lidar: o que conseguirá controlar a nossa semelhança na era artificial?
“É uma situação estressante se as pessoas simplesmente aprovarem que provavelmente serão usadas e abusadas em material hiper-realista gerado por IA.”
.
Fuente