Leis marcantes direcionadas ao ascensão perturbadora de Deepfake A pornografia será apresentada ao Parlamento Federal.
O governo disse que reprimirá o conteúdo gerado por IA sexualmente explícito, proibindo aplicativos de DeepFake que criam imagens nuas.
DeepFakes são imagens ou visão manipuladas usando o rosto ou o corpo de uma pessoa para fazer parecer que eles estão fazendo algo que nunca aconteceu, geralmente um ato sexual.
O governo federal disse que as novas leis são outro passo para proteger as crianças online. (Getty)
A nova legislação restringirá o acesso ou proibirá ferramentas on -line que “nudificam” imagens de pessoas.
Os aplicativos de perseguição on -line também serão capturados na legislação introduzida no Parlamento.
“Há um lugar para a IA e a tecnologia de rastreamento legítima na Austrália, mas não há lugar para aplicativos e tecnologias que sejam usados apenas para abusar, humilhar e prejudicar as pessoas, especialmente nossos filhos”, disse o ministro da Comunicação Anika Wells.
“É por isso que o governo albaneês usará todas as alavancas à nossa disposição para restringir o acesso à nudificação e aos aplicativos de perseguição on -line indetectáveis e manter os australianos mais seguros dos graves danos que causam.
“Isso é importante demais para não agirmos.
“As tecnologias abusivas são amplamente e facilmente acessíveis e estão causando danos reais e irreparáveis agora”.
Wells disse que o ônus estará em grandes empresas de tecnologia para impedir a disponibilidade desses aplicativos assim que a proibição estiver consagrada.
O Ministro da Comunicação Anika Wells disse que o governo federal restringirá o acesso a aplicativos Deepfake. (Alex Ellinghausen)
Estima -se que 98 % dos foscos de Deepfakes que circulavam on -line são pornográficos e a maioria das vítimas retratadas são mulheres.
A pesquisa em esfera descobriu que três por cento das crianças relataram ter uma imagem nua falsa não consensual feita de si mesmas.
Líderes políticos e advogados de crianças também se reuniram hoje em Canberra para discutir ações urgentes e reforma da IA para garantir que a proteção da criança esteja à frente à medida que a tecnologia evolui rapidamente.
A Mesa Redonda, organizada pelo Centro Internacional de Crianças Falsas e Exploradas (ICMEC) da Austrália, pediu treinamento de IA basal para investigações policiais, uma revisão de 120 dias de capacidade de reconhecimento facial e uma campanha de prevenção e conscientização nacional em danos habilitados para Ai.
Estima -se que 98 % dos foscos de Deepfakes que circulavam on -line são pornográficos e a maioria das vítimas retratadas são mulheres. (Getty)
“Reconhecemos a IA como uma espada e um escudo na paisagem de proteção infantil”, disse o executivo -chefe da ICMEC Australia, Colm Gannon.
“A IA pode ajudar a proteger as crianças mais rapidamente e reduzir os danos no local de trabalho para investigações anotando ou desolando imagens prejudiciais.
“Mas a Austrália precisa de um roteiro claro e financiado para aproveitar o bem e fechar o dano”.