A IA corre o risco de ancorar o racismo e o sexismo na Austrália, alertou o comissário de direitos humanos, em meio ao debate interno do trabalho sobre como responder à tecnologia emergente.
Lorraine Finlay diz que a busca dos ganhos de produtividade da IA não deve estar às custas de discriminação se a tecnologia não for regulamentada corretamente.
Os comentários de Finlay seguem a senadora trabalhista Michelle Ananda-Rajah que quebram a classificação para pedir que todos os dados australianos sejam “libertados” às empresas de tecnologia para impedir a IA no exterior perpetuar e refletir a vida e a cultura australianas.
Ananda-rajah é contra uma lei dedicada de IA, mas acredita que os fabricantes de conteúdo devem ser pagos por seu trabalho.
Registre -se: AU BEUS NOTÍCIAS -E -MAIL
O ganho de produtividade da IA será discutido na próxima semana no topo econômico do governo federal, porque os sindicatos e as autoridades industriais expressam preocupações sobre direitos autorais e proteção à privacidade.
Grupos de mídia e arte alertaram sobre o “roubo desenfreado” da propriedade intelectual se grandes empresas de tecnologia puderem levar seu conteúdo para treinar modelos de IA.
Finlay disse que a falta de transparência na qual as ferramentas de conjuntos de dados de IA são treinadas, dificulta que os preconceitos possam conter.
“O viés algorítmico significa que o viés e a injustiça são incorporados às ferramentas que usamos e, portanto, as decisões que refletem o resultado refletirão”, disse ela.
O comissário de direitos humanos, Lorraine Finlay. Foto: Mick Tsikas/AAP
“Se você combinar preconceito algorítmico com viés de automação – é aí que as pessoas confiam nas decisões das máquinas e quase substituem seu próprio pensamento – existe um risco real de que o que realmente criamos seja discriminação e preconceito em uma forma onde está tão profundamente enraizada que nem sequer atende a ela.”
A Comissão de Direitos Humanos defendeu consistentemente uma lei de IA, que fortalece a legislação existente, incluindo a Lei de Privacidade, e testes rigorosos sobre preconceitos nas ferramentas de IA. Finlay disse que o governo precisa urgentemente estabelecer novas barreiras legislativas.
“Testando e auditoria, para uma boa avaliação da supervisão humana, você precisa dessa variedade de várias medidas”, disse ela.
Há evidências crescentes de que há um viés nas ferramentas de IA na Austrália e no exterior, em áreas como medicamentos e empregos.
Um estudo australiano publicado em maio mostrou que as inscrições entrevistadas pelos recrutadores de IA corriam o risco de serem discriminadas se conversassem com um sotaque ou vivessem com uma deficiência.
Ananda Fictilizer, Quem era Um médico e pesquisador em IA antes de entrar no Parlamento, era importante que as ferramentas de IA fossem treinadas nos dados australianos ou no risco de perpetuar preconceitos no exterior.
Embora o governo tenha enfatizado a necessidade de proteger a propriedade intelectual, ela alertou que não abrir dados domésticos significaria que a Austrália “alugaria modelos para sempre (AI) de colosses de tecnologia no exterior” sem supervisão ou insight sobre seus modelos ou plataformas.
“A IA deve ser treinada com o máximo de dados possível da população mais ampla possível ou reforçará os preconceitos, como resultado das pessoas que precisam servir podem prejudicar”, disse Ananda-Rajah.
“Temos que libertar nossos próprios dados para treinar os modelos para que eles nos representem melhor.
Passe a promoção do boletim informativo
Registre -se para Notícias de última hora da Austrália
Obtenha as notícias mais importantes quando quebrar
Notificação de privacidade: Os boletins podem conter informações sobre instituições de caridade, anúncios on -line e conteúdo financiados por partes externas. Consulte nossa Política de Privacidade para obter mais informações. Usamos o Google Recaptcha para proteger nosso site e a Política de Privacidade do Google e as condições de serviço se aplicam.
Após a promoção do boletim informativo
“Gosto de ter renda com o ganho de fabricantes de conteúdo enquanto libera os dados. Acho que podemos apresentar uma alternativa para saques e pilhagem no exterior”.
Ananda-rajah aumentou a exibição no câncer de pele por IA como um exemplo que demonstrou ter viés algorítmico. Ananda-Rajah disse que a maneira de superar qualquer viés ou discriminação de certos pacientes seria “treinar esses modelos com o maior número possível de dados da Austrália”, com proteção adequada para dados sensíveis.
Finlay disse que toda liberação de dados australianos deve ser feita de maneira justa, mas ela acredita que o foco deve estar nos regulamentos.
“Ter vários dados representativos é definitivamente uma coisa boa … mas é apenas uma parte da solução”, disse ela.
“Devemos garantir que essa tecnologia seja definida de uma maneira honesta para todos, o trabalho e as contribuições que as pessoas fazem realmente reconhecem”.
Um especialista em IA na Universidade de La Trobe e ex -pesquisador de dados de uma empresa de IA, Judith Bishop, disse que a liberação de mais dados australianos pode ajudar a treinar as ferramentas de IA melhor -enquanto as ferramentas de IA de alerta desenvolvidas nos estrangeiros podem não ser as necessidades dos australianos –
“Devemos ter cuidado para que um sistema que tenha sido desenvolvido inicialmente em outros contextos realmente se aplique à população (australiana) de que não confiamos em modelos americanos que foram treinados em dados americanos”, disse Bishop.
A comissária da esafafa, Julie Inman Grant, também refere -se à falta de transparência em torno do uso das ferramentas de AI de dados.
Em comunicado, ela disse que as empresas de tecnologia devem ser transparentes sobre seus dados de treinamento, desenvolver ferramentas de relatório e usar vários dados precisos e representativos em seus produtos.
“A opacidade do desenvolvimento e comprometimento generativo da IA é profundamente problemático”, disse Inman Grant. “Isso levanta questões importantes sobre até que ponto os LLMs (grandes modelos de idiomas) podem reforçar, até acelerar preconceitos prejudiciais – incluindo padrões de gênero estreitos ou prejudiciais e preconceitos raciais.
“Com o desenvolvimento desses sistemas concentrado nas mãos de algumas empresas, existe um risco real de que certos órgãos de evidência, vozes e perspectivas possam ser ofuscados ou que possam ser impedidos na produção generativa”.