SA Coreia do Sul embarcou numa incursão na regulamentação da IA, lançando o que foi considerado o conjunto de leis mais abrangente do mundo, que poderia servir de modelo para outros países, mas a nova legislação já encontrou resistência.
As leis, que obrigarão as empresas a rotular o conteúdo gerado pela IA, foram criticadas por startups tecnológicas locais, que dizem que vão longe demais, e por grupos da sociedade civil, que dizem que não vão longe o suficiente.
A lei básica da IA, que entrou em vigor na quinta-feira da semana passada, surge num contexto de crescente desconforto global relativamente aos meios de comunicação criados artificialmente e à tomada de decisões automatizadas, à medida que os governos lutam para acompanhar o rápido avanço das tecnologias.
A lei forçará as empresas que fornecem serviços de IA a:
-
Adicione marcas d’água digitais invisíveis para resultados claramente artificiais, como desenhos animados ou obras de arte. Para deepfakes realistas, são necessários rótulos visíveis.
-
A “IA de alto impacto”, incluindo sistemas utilizados para diagnóstico médico, contratação e aprovação de empréstimos, exigirá que os operadores realizem avaliações de risco e documentem como as decisões são tomadas. Se um ser humano tomar a decisão final, o sistema poderá ficar fora da categoria.
-
Modelos de IA extremamente poderosos exigirão relatórios de segurança, mas o limite é tão alto que as autoridades governamentais reconhecem que nenhum modelo em todo o mundo o atinge atualmente.
As empresas que violarem as regras enfrentam multas de até 30 milhões de won (£ 15.000), mas o governo prometeu um período de carência de pelo menos um ano antes que as penalidades sejam impostas.
A legislação está a ser anunciada como a “primeira do mundo” a ser totalmente aplicada por um país e é fundamental para a ambição da Coreia do Sul de se tornar uma das três principais potências mundiais de IA, ao lado dos EUA e da China. Funcionários do governo afirmam que a lei está 80-90% focada na promoção da indústria, em vez de restringi-la.
Alice Oh, professora de ciência da computação no Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST), disse que embora a lei não fosse perfeita, sua intenção era evoluir sem sufocar a inovação. No entanto, uma pesquisa realizada em dezembro pela Startup Alliance descobriu que 98% das startups de IA não estavam preparadas para a conformidade. Seu codiretor, Lim Jung-wook, disse que a frustração era generalizada. “Há um pouco de ressentimento”, disse ele. “Por que temos que ser os primeiros a fazer isso?”
As empresas devem autodeterminar se os seus sistemas se qualificam como IA de alto impacto, um processo que os críticos dizem ser demorado e criar incerteza.
Alertam também para o desequilíbrio competitivo: todas as empresas coreanas enfrentam regulamentação, independentemente da sua dimensão, enquanto apenas as empresas estrangeiras que cumprem determinados limiares – como a Google e a OpenAI – devem cumpri-las.
O impulso para a regulamentação desenvolveu-se num contexto interno singularmente carregado que deixou grupos da sociedade civil preocupados com o facto de a legislação não ir suficientemente longe.
A Coreia do Sul é responsável por 53% de todas as vítimas globais de pornografia deepfake, de acordo com um relatório de 2023 da Security Hero, uma empresa de proteção de identidade com sede nos EUA. Em agosto de 2024, uma investigação expôs enormes redes de salas de chat do Telegram criando e distribuindo imagens sexuais de mulheres e meninas geradas por IA, prenunciando o escândalo que mais tarde eclodiria em torno do chatbot Grok de Elon Musk.
As origens da lei, no entanto, são anteriores a esta crise, com o primeiro projeto de lei relacionado com a IA apresentado ao parlamento em julho de 2020. Esta lei estagnou repetidamente, em parte devido a disposições que foram acusadas de dar prioridade aos interesses da indústria em detrimento da proteção dos cidadãos.
Grupos da sociedade civil sustentam que a nova legislação proporciona protecção limitada às pessoas prejudicadas pelos sistemas de IA.
Quatro organizações, incluindo Minbyun, um colectivo de advogados de direitos humanos, emitiram uma declaração conjunta no dia seguinte à sua implementação, argumentando que a lei quase não continha disposições para proteger os cidadãos dos riscos da IA.
Os grupos observaram que, embora a lei estipulasse proteção para “utilizadores”, esses utilizadores eram hospitais, empresas financeiras e instituições públicas que utilizam sistemas de IA, e não pessoas afetadas pela IA. A lei não estabelecia sistemas de IA proibidos, argumentaram, e as isenções para o “envolvimento humano” criavam lacunas significativas.
A comissão de direitos humanos do país criticou o decreto de aplicação pela falta de definições claras de IA de alto impacto, observando que aqueles com maior probabilidade de sofrer violações de direitos permanecem em pontos cegos regulamentares.
Num comunicado, o Ministério da Ciência e TIC disse esperar que a lei “elimine a incerteza jurídica” e construa “um ecossistema doméstico de IA saudável e seguro”, acrescentando que continuará a clarificar as regras através de orientações revistas.
Especialistas disseram que a Coreia do Sul escolheu deliberadamente um caminho diferente de outras jurisdições.
Ao contrário do modelo regulatório estrito baseado no risco da UE, das abordagens em grande parte sectoriais e orientadas para o mercado dos EUA e do Reino Unido, ou da combinação da China de política industrial liderada pelo Estado e regulamentação detalhada específica de serviços, a Coreia do Sul optou por um quadro mais flexível e baseado em princípios, disse Melissa Hyesun Yoon, professora de direito na Universidade de Hanyang, especializada em governação de IA.
Essa abordagem está centrada no que Yoon descreve como “promoção e regulação baseadas na confiança”.
“A estrutura da Coreia servirá como um ponto de referência útil nas discussões globais sobre governança de IA”, disse ela.



