Início Tecnologia Estou no Conselho de Supervisão Meta. Precisamos de proteções de IA agora...

Estou no Conselho de Supervisão Meta. Precisamos de proteções de IA agora | Suzanne Nossel

23
0
Estou no Conselho de Supervisão Meta. Precisamos de proteções de IA agora | Suzanne Nossel

TA velocidade com que a IA está transformando nossas vidas é estonteante. Ao contrário das revoluções tecnológicas anteriores – rádio, fissão nuclear ou Internet – os governos não estão a liderar o caminho. Sabemos que a IA pode ser perigosa; chatbots aconselham adolescentes sobre suicídio e em breve poderão instruir sobre como criar armas biológicas. No entanto, não há equivalente à Administração Federal de Medicamentos, testando novos modelos de segurança antes da divulgação pública. Ao contrário da indústria nuclear, as empresas muitas vezes não precisa divulgar violações ou acidentes perigosos. A força do lobby da indústria tecnológica, a polarização paralisante de Washington e a enorme complexidade de uma tecnologia tão potente e em rápida evolução mantiveram a regulamentação federal sob controle. As autoridades europeias enfrentam resistências contra regras que, segundo alguns, prejudicam a competitividade do continente. Embora vários estados dos EUA estejam a testar leis sobre IA, elas funcionam numa colcha de retalhos provisória e Donald Trump tentou invalidá-las.

Chefes de plataformas de IA como ChatGPT da OpenAI e Gemini do Google dizem que se preocupam com a segurança. Mas possuir o futuro da IA ​​significa investir milhares de milhões em modelos que nem mesmo os seus criadores compreendem totalmente, e fazer escolhas como adicionar anúncios – e as capacidades que o Pentágono procura agora da Antrópico – que aumentam o risco. A Anthropic, que se autodenomina a empresa de IA de fronteira mais consciente, diz que seu modelo é treinado para “imaginar como um funcionário sênior atencioso da Anthropic” pesaria a utilidade contra possíveis danos. A directiva faz eco às críticas feitas há anos às empresas do Vale do Silício que moldaram a vida dos utilizadores em todo o mundo a partir de salas de reuniões isoladas. Os consumidores não acreditam que estão em boas mãos. Um total de 77% dos americanos entrevistados no ano passado acham que a IA pode representar uma ameaça para a humanidade.

aspas duplasPelo menos até que os legisladores atuem, a supervisão independente oferece o potencial para julgar entre o potencial da IA ​​e os seus perigos

Não estamos presos entre a esperança ilusória de uma regulamentação governamental robusta e de ter as empresas mais poderosas da história a policiarem-se. Pelo menos até que os legisladores ajam, a supervisão independente oferece o potencial para julgar entre o potencial da IA ​​e os seus perigos. Ao adoptarem uma supervisão independente, as empresas de IA podem demonstrar que são suficientemente sérias relativamente à confiança pública para estarem dispostas a lutar por ela.

A lógica por trás da supervisão independente é simples. Independentemente das boas intenções dos executivos empresariais, os seus deveres para com os acionistas e investidores moldam a forma como abordam os compromissos entre custo e segurança, incentivando receitas e lucros. Embora as considerações de longo prazo sobre a reputação corporativa, a lealdade do cliente e a ética possam funcionar como obstáculos, vencer a corrida da IA ​​exige apetite pelo risco. Os cálculos tardios sobre a forma como as redes sociais podem alimentar assassinatos, promover eleições e prejudicar a saúde mental dos jovens ilustram como o poder inebriante da tecnologia pode obscurecer os sinais de alerta intermitentes.

A supervisão independente da IA ​​oferece o potencial de revelar, analisar e abordar os seus riscos, dando aos defensores e às comunidades um pouco mais de controlo sobre a forma como estas tecnologias refazem a sociedade. A mídia social fornece um exemplo. Em 2020, magoado por acusações de ter ajudado a alimentar a crise dos Rohingya em Mianmar, o Meta (então Facebook) criou um conselho de supervisão, na esperança de tirar a empresa da berlinda. No início do ano seguinte, a empresa adotou uma política comprometendo-se a seguir as leis de direitos humanos. Embora o conselho, agora com cinco anos, tenha ficado aquém do que algumas pessoas esperavam que pudesse servir como um “tribunal supremo do Facebook”, o seu historial oferece lições importantes sobre as perspectivas de uma supervisão independente eficaz para a IA, e por que razão é importante.

A supervisão exige perspectivas diversas. Como outras empresas fronteiriças de IA, a Meta tem usuários em todos os continentes povoados. Decidir o que podem ou não postar na segurança de um campus de Menlo Park deixou pontos cegos e alimentou ressentimentos. Os 21 membros do conselho de supervisão trazem amplo conhecimento cultural e profissional para a decisão de questões sensíveis de moderação de conteúdo (como se um vídeo violento deve ser compartilhável como notícia ou removido como uma afronta à dignidade da vítima). O conselho, com membros que viveram em mais de 27 países, inclui conservadores e liberais, jornalistas, juristas, um antigo primeiro-ministro da Dinamarca e um prémio Nobel da paz.

O conselho de supervisão utiliza os “padrões comunitários” do próprio Meta para avaliar se as postagens violam regras, incluindo proibições contra bullying ou apoio a terroristas. O conselho mantém a Meta no seu compromisso de defender o direito internacional dos direitos humanos, incluindo o Artigo 19 do Pacto Internacional sobre os Direitos Civis e Políticos, que consagra a liberdade de expressão. As empresas de IA devem assumir o mesmo compromisso e estabelecer supervisão para obrigá-las a cumpri-lo. Ao contrário da Primeira Emenda nos EUA ou do “direito a ser esquecido” da União Europeia online, a legislação em matéria de direitos humanos oferece uma moeda comum através das fronteiras. As suas normas fornecem métodos de raciocínio para orientar decisões sobre IA, tais como se a recusa de um bot em responder a uma pergunta nega injustificadamente o direito de um utilizador à informação, ou se a reaproveitamento dos dados do utilizador viola os direitos de privacidade.

Acessibilidade, consulta e transparência são fundamentais. O conselho de supervisão aceita apelos do público, anuncia os casos que decide analisar, convida comentários públicos e convoca sessões com especialistas e comunidades relevantes. Já emitiu mais de 200 decisõesé em pareceres escritos detalhados que foram citados por tribunais de todo o mundo.

Um órgão de supervisão voluntário é tão forte quanto os poderes que lhe são conferidos pela empresa que o originou. Embora o conselho de supervisão queira poderes mais amplos, deu crédito ao Meta por ir muito além dos conselhos consultivos leves que outros players de tecnologia convocaram e dissolveram periodicamente. O conselho de supervisão do Meta tem jurisdição para decidir se um conteúdo específico permanece ativo ou desativado, embora usar essa autoridade sobre postagens individuais possa ser como combater um incêndio, soprando brasas. O seu impacto mais consequente reside na escolha de casos emblemáticos de conteúdo errôneo, na oferta de fundamentação pública para decisões e na emissão de recomendações às quais a Meta deve responder. A Meta implementou 75% das mais de 300 recomendações do conselho, conforme relatado em dezembro, levando a mudanças significativas para bilhões de usuários.

Isso inclui fornecer notificações sobre qual política um usuário supostamente violou quando o conteúdo desaparece, garantir que insultos retóricos e sátiras não sejam removidos como ameaças e garantir que a empresa aumente os recursos em crises como desastres naturais e conflitos armados. O conselho também emite pareceres consultivos detalhados sobre questões políticas mais amplas, como a extensão da leniência da Meta para violações de políticas por cartazes de alto perfil, ou quanta desinformação relacionada à Covid deve ser removida à medida que a pandemia diminui. Embora o conselho opere de forma independente na tomada de decisões e recomendações, ele depende do Meta para obter informações cruciais, como se as determinações de conteúdo específico são feitas por seres humanos ou por automação, e o que exatamente deu errado quando o conteúdo foi removido por engano. As empresas de IA terão de oferecer pelo menos a mesma visibilidade para que a supervisão tenha algum significado.

Como sempre, o dinheiro é importante. A Meta coloca periodicamente o financiamento do conselho de supervisão em um fundo fiduciário para que não possa ser cortado da noite para o dia. Mas recursos mais diversificados e garantidos aumentariam a independência do conselho. A supervisão de tecnologia de ponta custa dinheiro. Requer financiamento para uma equipe especializada para apoiar a análise e a tomada de decisões e consultores que tragam conhecimentos culturais e linguísticos específicos. Contudo, tendo em conta as centenas de milhares de milhões investidos em IA, o preço mesmo de uma supervisão robusta é insignificante.

A IA está dominando nossas salas de aula, faculdades e corporações. A supervisão independente é o mínimo que as empresas de IA podem fazer para garantir que, intencionalmente ou não, também não assumam os nossos direitos.

Fuente