Um dia, em novembro, uma estrategista de produto que chamaremos de Michelle (nome fictício), entrou em sua conta do LinkedIn e mudou seu gênero para masculino. Ela também mudou seu nome para Michael, disse ela ao TechCrunch.
Ela estava participando de um experimento chamado #WearthePants, onde mulheres testaram a hipótese de que o novo algoritmo do LinkedIn era tendencioso contra as mulheres.
Durante meses, alguns usuários frequentes do LinkedIn reclamaram de quedas no engajamento e nas impressões na rede social voltada para carreiras. Isso ocorreu depois que o vice-presidente de engenharia da empresa, Tim Jurka, disse em agosto que a plataforma havia implementado LLMs “mais recentemente” para ajudar a revelar conteúdo útil aos usuários.
Michelle (cuja identidade é conhecida pelo TechCrunch) suspeitou das mudanças porque ela tem mais de 10.000 seguidores e escreve postagens fantasmas para seu marido, que tem apenas cerca de 2.000. Mesmo assim, ela e o marido tendem a obter o mesmo número de impressões de postagens, disse ela, apesar de ter mais seguidores.
“A única variável significativa foi o gênero”, disse ela.
Marilynn Joyner, fundadora, também mudou o gênero do perfil. Ela publica no LinkedIn de forma consistente há dois anos e percebeu nos últimos meses que a visibilidade de suas postagens diminuiu. “Mudei meu gênero em meu perfil de feminino para masculino e minhas impressões aumentaram 238% em um dia”, disse ela ao TechCrunch.
Megan Cornish relatou resultados semelhantes, assim como Rosie Taylor, Jessica Doyle Mekkes, Abby Nydam, Felicity Menzies, Lucy Ferguson e assim por diante.
Evento Techcrunch
São Francisco
|
13 a 15 de outubro de 2026
O LinkedIn disse que seu “algoritmo e sistemas de IA não usam informações demográficas como idade, raça ou sexo como um sinal para determinar a visibilidade do conteúdo, perfil ou postagens no Feed” e que “um instantâneo lado a lado de suas próprias atualizações de feed que não são perfeitamente representativas ou de alcance igual não implicam automaticamente tratamento injusto ou preconceito” dentro do Feed.
Os especialistas em algoritmos sociais concordam que o sexismo explícito pode não ter sido a causa, embora o preconceito implícito possa estar em ação.
As plataformas são “uma intrincada sinfonia de algoritmos que acionam alavancas matemáticas e sociais específicas, simultânea e constantemente”, disse Brandeis Marshall, consultor de ética de dados, ao TechCrunch.
“A mudança da foto e do nome do perfil é apenas uma dessas alavancas”, disse ela, acrescentando que o algoritmo também é influenciado, por exemplo, pela forma como um usuário interage e interage atualmente com outros conteúdos.
“O que não sabemos são todas as outras alavancas que fazem esse algoritmo priorizar o conteúdo de uma pessoa em detrimento de outra. Este é um problema mais complicado do que as pessoas imaginam”, disse Marshall.
Bro-codificado
O experimento #WearthePants começou com duas empreendedoras – Cindy Gallop e Jane Evans.
Eles pediram a dois homens que criassem e publicassem o mesmo conteúdo que eles, curiosos para saber se o gênero era o motivo pelo qual tantas mulheres estavam sentindo uma queda no engajamento. Gallop e Evans têm seguidores consideráveis – mais de 150.000 combinados em comparação com os dois homens que tinham cerca de 9.400 na época.
Gallop relatou que sua postagem alcançou apenas 801 pessoas, enquanto o homem que postou exatamente o mesmo conteúdo alcançou 10.408 pessoas, mais de 100% de seus seguidores. Outras mulheres então participaram. Alguns, como Joyner, que usa o LinkedIn para divulgar seu negócio, ficaram preocupados.
“Eu realmente adoraria ver o LinkedIn assumir a responsabilidade por qualquer preconceito que possa existir em seu algoritmo”, disse Joyner.
Mas o LinkedIn, como outras plataformas de pesquisa e mídia social dependentes do LLM, oferece poucos detalhes sobre como os modelos de seleção de conteúdo foram treinados.
Marshall disse que a maioria dessas plataformas “incorporou inatamente um ponto de vista branco, masculino e centrado no Ocidente” devido a quem treinou os modelos. Os pesquisadores encontram evidências de preconceitos humanos, como sexismo e racismo, em modelos populares de LLM porque os modelos são treinados em conteúdo gerado por humanos, e os humanos geralmente estão diretamente envolvidos no pós-treinamento ou na aprendizagem por reforço.
Ainda assim, a forma como qualquer empresa individual implementa os seus sistemas de IA está envolta no segredo da caixa preta algorítmica.
O LinkedIn diz que o experimento #WearthePants não poderia ter demonstrado preconceito de gênero contra as mulheres. A declaração de agosto de Jurka dizia – e o chefe de IA responsável e governança do LinkedIn, Sakshi Jain, reiterou em outro post em novembro – que seus sistemas não estão usando informações demográficas como um sinal de visibilidade.
Em vez disso, o LinkedIn disse ao TechCrunch que testa milhões de postagens para conectar os usuários a oportunidades. Ela disse que os dados demográficos são usados apenas para testes, como ver se as postagens “de diferentes criadores competem em pé de igualdade e se a experiência de rolagem, o que você vê no feed, é consistente entre os públicos”, disse a empresa ao TechCrunch.
O LinkedIn se destacou por pesquisar e ajustar seu algoritmo para tentar fornecer uma experiência menos tendenciosa aos usuários.
São as variáveis desconhecidas, disse Marshall, que provavelmente explicam por que algumas mulheres tiveram um aumento nas impressões depois de mudarem o gênero do perfil para masculino. Participar de uma tendência viral, por exemplo, pode aumentar o engajamento; algumas contas estavam postando pela primeira vez em muito tempo, e o algoritmo poderia tê-las recompensado por isso.
O tom e o estilo de escrita também podem desempenhar um papel. Michelle, por exemplo, disse que na semana em que postou como “Michael”, ela ajustou ligeiramente o tom, escrevendo em um estilo mais simplista e direto, como faz com o marido. Foi quando ela disse que as impressões aumentaram 200% e os engajamentos aumentaram 27%.
Ela concluiu que o sistema não era “explicitamente sexista”, mas parecia considerar os estilos de comunicação comumente associados às mulheres “uma representação de valor mais baixo”.
Acredita-se que os estilos estereotipados de escrita masculina são mais concisos, enquanto os estereótipos de estilo de escrita para mulheres são considerados mais suaves e emocionais. Se um LLM for treinado para impulsionar uma escrita que cumpra os estereótipos masculinos, isso é um preconceito sutil e implícito. E como relatamos anteriormente, os pesquisadores determinaram que a maioria dos LLMs está repleta deles.
Sarah Dean, professora assistente de ciência da computação em Cornell, disse que plataformas como o LinkedIn costumam usar perfis inteiros, além do comportamento do usuário, ao determinar o conteúdo a ser impulsionado. Isso inclui empregos no perfil de um usuário e o tipo de conteúdo com o qual ele costuma interagir.
“Os dados demográficos de alguém podem afetar ‘ambos os lados’ do algoritmo – o que eles veem e quem vê o que postam”, disse Dean.
O LinkedIn disse ao TechCrunch que seus sistemas de IA analisam centenas de sinais para determinar o que é enviado a um usuário, incluindo insights do perfil, rede e atividade de uma pessoa.
“Realizamos testes contínuos para entender o que ajuda as pessoas a encontrar o conteúdo mais relevante e oportuno para suas carreiras”, disse o porta-voz. “O comportamento dos membros também molda o feed, o que as pessoas clicam, salvam e interagem diariamente e quais formatos elas gostam ou não. Esse comportamento também molda naturalmente o que aparece nos feeds junto com quaisquer atualizações nossas.”
Chad Johnson, um especialista em vendas ativo no LinkedIn, descreveu as mudanças como uma despriorização de curtidas, comentários e repostagens. O sistema LLM “não se importa mais com a frequência com que você posta ou a que horas do dia”, escreveu Johnson em um post. “É importante se sua escrita mostra compreensão, clareza e valor.”
Tudo isso torna difícil determinar a verdadeira causa de qualquer resultado do #WearthePants.
As pessoas simplesmente não gostam do algo
No entanto, parece que muitas pessoas, de todos os sexos, não gostam ou não entendem o novo algoritmo do LinkedIn – seja ele qual for.
Shailvi Wakhulu, cientista de dados, disse ao TechCrunch que ela fez uma média de pelo menos uma postagem por dia durante cinco anos e costumava ver milhares de impressões. Agora ela e o marido têm sorte de ver algumas centenas. “É desmotivador para criadores de conteúdo com muitos seguidores leais”, disse ela.
Um homem disse ao TechCrunch que viu uma queda de cerca de 50% no engajamento nos últimos meses. Ainda assim, outro homem disse que viu as impressões de postagens e o alcance aumentarem mais de 100% em um período de tempo semelhante. “Isso ocorre principalmente porque escrevo sobre tópicos específicos para públicos específicos, e é isso que o novo algoritmo recompensa”, disse ele ao TechCrunch, acrescentando que seus clientes estão vendo um aumento semelhante.
Mas, na experiência de Marshall, ela, que é negra, acredita que as postagens sobre suas experiências têm um desempenho pior do que as postagens relacionadas à sua raça. “Se as mulheres negras só interagem quando falam sobre mulheres negras, mas não quando falam sobre as suas competências específicas, então isso é um preconceito”, disse ela.
O pesquisador Dean acredita que o algoritmo pode simplesmente amplificar “quaisquer sinais que já existam”. Poderia ser recompensador para certas postagens, não por causa da demografia do escritor, mas porque há mais histórico de respostas a elas em toda a plataforma. Embora Marshall possa ter tropeçado em outra área de preconceito implícito, sua evidência anedótica não é suficiente para determinar isso com certeza.
O LinkedIn ofereceu alguns insights sobre o que funciona bem agora. A empresa disse que a base de usuários cresceu e, como resultado, as postagens aumentaram 15% ano após ano, enquanto os comentários aumentaram 24% em relação ao ano anterior. “Isso significa mais competição na alimentação”, disse a empresa. Postagens sobre insights profissionais e lições de carreira, notícias e análises do setor e conteúdo educacional ou informativo sobre trabalho, negócios e economia estão indo bem, disse.
Na verdade, as pessoas estão simplesmente confusas. “Quero transparência”, disse Michelle.
No entanto, como os algoritmos de seleção de conteúdo sempre guardaram de perto os segredos de suas empresas, e a transparência pode levar a enganá-los, essa é uma grande pergunta. É improvável que fique satisfeito.



