O chatbot incorporado no X de Elon Musk, que se chamou de “Mechhitler” e fez comentários anti -semitas na semana passada, poderia ser considerada terrorismo ou extremismo violento, um tribunal australiano.
Mas uma testemunha especializada para X argumentou que um grande modelo de idioma não pode ser atribuído intenção, apenas o usuário.
A Xai, a empresa de inteligência artificial de Musk, pediu desculpas na semana passada pelos comentários de seu Grok-Chatbot por um período de 16 horas, o que atribuiu a “código desatualizado” que tornou o Grock suscetível aos relatórios de usuários X existentes “, quando essas mensagens contêm visões extremistas”.
A erupção entrou em cena na terça -feira, durante uma audiência do Tribunal de Revisão Administrativa, onde X desafia uma notificação emitida pelo comissário da Esavidade, Julie Inman Grant, em março do ano passado, pedindo à plataforma que explique como a ação toma contra o terrorismo e o material violento (TVE).
A proibição de mídia social da Austrália para menos de 16 anos é agora a lei. Há o suficiente para ainda não saber – vídeo
A testemunha especializada de X, o professor de economia do RMIT, Chris Berg, causou o caso de que foi um erro assumir que um grande modelo de idioma pode produzir esse conteúdo, porque é a intenção do usuário que atrai o grande modelo de linguagem que é crucial na definição do que pode ser considerado como terrorismo e extremismo violento.
Uma das testemunhas especializadas de Esavidade, o professor Nicolas Suzor, da Direito da Universidade de Queensland, não concordou com Berg e afirmou que era “absolutamente possível para chatbots, IA generativa e outras ferramentas para desempenhar um papel na produção de EG sintético de forma tão anulada”.
“Nesta semana, está bastante cheio, com o Chatbot Grok de X (conteúdo que se encaixa) se encaixa nas definições de TVE”, disse Suzor.
Ele disse que o desenvolvimento da IA tem a influência humana “até o fim”, onde você pode encontrar a intenção, incluindo as ações de Musk para mudar a maneira como Grok respondeu a perguntas para “parar de acordar”.
O Tribunal ouviu que X acredita que o uso da função das notas da comunidade (onde os usuários podem contribuir para o fato de que uma mensagem é verificada no site) e a função de análise do GROK (onde o contexto oferece uma mensagem) pode detectar ou endereçar.
Passe a promoção do boletim informativo
Registre -se para Notícias de última hora da Austrália
Obtenha as notícias mais importantes quando quebrar
Notificação de privacidade: Os boletins podem conter informações sobre instituições de caridade, anúncios on -line e conteúdo financiados por partes externas. Consulte nossa Política de Privacidade para obter mais informações. Usamos o Google Recaptcha para proteger nosso site e a Política de Privacidade do Google e as condições de serviço se aplicam.
Após a promoção do boletim informativo
Suzor e colega Especialista -Josh Roose, professor associado da política do Deakin, disse à audiência que, a esse respeito, havia uma audiência contestada para ser contestada se as anotações da comunidade eram úteis. Roose disse que os usuários obrigavam os usuários a relatar o conteúdo a X, que entrou em uma “caixa preta” para a empresa investigar e, muitas vezes, apenas uma pequena quantidade de material foi removida e um pequeno número de contas proibidas.
Suzor disse que, após os eventos da semana passada, era difícil ver Grok como ‘buscar a verdade’ em suas respostas.
“Não é contaminado dizer que Grok não maximiza a verdade ou a verdade. Eu digo que, especialmente em vista dos eventos da semana passada, eu simplesmente não confiaria em mim”, disse ele.
Berg argumentou que a função de análise GROK em X não foi atualizada com as funções que garantiram que o chatbot feito da plataforma tenha feito as respostas que fez na semana passada, mas admitiu que o chatbot sobre o qual os usuários responderam diretamente a X haviam ido um pouco dos trilhos e “apenas um conteúdo muito bizarro”.
Suzor disse que Grok não mudou para maximizar a verdade, mas “para garantir que as reações estejam mais alinhadas com a visão ideológica de Musk”.
No início da audiência, os advogados acusaram a tentativa de “mudar a audiência em uma comissão real em certos aspectos de X”, após o comentário de Musk que se refere a Inman Grant foi levantado como um “comissário” na participação cruzada de um funcionário da X da notificação da notificação da notificação da notificação da notificação.
O advogado do governo, Stephen Lloyd, argumentou que X tentou afirmar que a esafafa era “oponente desnecessário” ao lidar com X, e que X quebrou em um ponto crítico antes que a notificação fosse emitida. Ele disse que a “abordagem agressiva” veio da liderança de X.
A audiência continua.