Como palestino, o Meta falhou comigo mais uma vez. Em mais um exemplo de desumanização, um recurso do WhatsApp que permite que os usuários pesquisem imagens geradas por IA revela retratos flagrantemente racistas de palestinos.
Um relatório recente do Guardian mostrou que uma busca por “menino muçulmano palestino” gerou um desenho animado de um menino empunhando uma arma, enquanto “menino israelense” mostrou crianças sorridentes brincando.
Essa é apenas a mais recente iteração de tendências problemáticas na Meta, a empresa controladora do WhatsApp. Em meus sete anos à frente da organização palestina de direitos digitais 7amleh, observei essas tendências se intensificarem.
Confiar em IA geradora tendenciosa, seja para emojis ou moderação de conteúdo, desumaniza os palestinos. Isso também é um insulto.
Durante toda a crise atual, o Meta silenciou e censurou sistematicamente as vozes palestinas, abafando uma das únicas vias não filtradas para o mundo ouvir os palestinos diretamente. Mantenha-se informado com os boletins informativos do MEEInscreva-se para receber os alertas, insights e análises mais recentes, começando com Turkey Unpacked
À medida que o genocídio se desenrolou diante do mundo no último mês, as pessoas têm confiado nas mídias sociais para compartilhar suas vozes e relatar os fatos em campo. Mas o Meta foi acusado de visar e remover principalmente conteúdo pró-palestino.
O conflito em andamento serviu como um teste crucial para a Meta, e a empresa falhou inequivocamente. A censura das vozes palestinas ocorreu tanto em nível individual quanto organizacional.
Silenciando os palestinos
No mês passado, a Meta desativou a página do Facebook da Quds News Network, um importante veículo palestino com cerca de 10 milhões de seguidores, juntamente com várias outras páginas da mídia palestina. O Estado de Israel, que rotineiramente pressiona as empresas de mídia social em um esforço para controlar a narrativa, rapidamente foi ao X (antigo Twitter) para publicar um “obrigado” aparentemente discreto.
Essa não é a primeira vez que a Meta falha com os palestinos durante uma crise. Em maio de 2021, em meio a protestos em massa contra o despejo forçado de famílias palestinas do bairro ocupado de Sheikh Jarrah, em Jerusalém Oriental, os palestinos recorreram em massa às mídias sociais para compartilhar suas perspectivas – e foram recebidos com censura generalizada.
Um relatório subsequente encomendado pela Meta, publicado em 2022, citou evidências de preconceito contra os palestinos – exatamente as questões sobre as quais venho me manifestando há anos. A Meta disse que estava empenhada em mudar, e eu senti que finalmente estávamos progredindo.
Mas essa sensação durou pouco. A recente proliferação de censura unilateral, visibilidade limitada e outras formas de silenciar os palestinos foram explicadas como “falhas técnicas”, mas apresentam barreiras inaceitáveis para o compartilhamento de perspectivas on-line.
Não há responsabilidade em um erro técnico e, o que é mais importante, não há nada que impeça que isso aconteça novamente
No passado, as proibições do alcance de histórias levaram alguns usuários a acusar o Meta de censura deliberada. Os últimos problemas “técnicos” parecem ainda mais graves.
O emoji da bandeira da Palestina, por exemplo, foi marcado como “potencialmente ofensivo” pelo Instagram, o que resultou na sua ocultação. Outro “erro técnico” encontrado por usuários palestinos no Facebook e no Instagram impediu a exibição de imagens de vítimas palestinas em hospitais, porque elas foram consideradas fotos de “nudez”.
Entre os exemplos mais significativos e perturbadores, está a inexplicável tradução incorreta feita pela Meta de frases árabes inócuas nas biografias de alguns usuários palestinos do Instagram para adicionar a palavra “terrorista”. Posteriormente, a empresa atribuiu esse fato a um erro de interpretação.
Não há responsabilidade em um erro técnico e, o que é mais importante, não há nada que impeça que isso aconteça novamente.
Ceticismo público
Por que todos esses erros técnicos parecem afetar exclusivamente os palestinos e por que esse padrão se repete a cada escalada?
O uso da palavra “terrorista”, em vez de um termo mais neutro, só aumentou o ceticismo do público em relação à credibilidade e à capacidade da empresa de tratar os usuários palestinos e árabes de forma justa. Parece haver um profundo preconceito nos conjuntos de dados e nos sistemas de aprendizado de máquina da Meta, apesar dos arrependimentos expressos pela empresa.
Não houve nenhuma indicação de que o Meta pretenda conduzir uma investigação interna rigorosa sobre essas questões. Como em muitos outros momentos de conflito, o conteúdo inflamatório em hebraico ou o racismo contra os palestinos não enfrentou as mesmas restrições ou censura.
As políticas de moderação de conteúdo geralmente refletem a dinâmica do poder internacional. Como muitas outras estratégias corporativas, elas são orientadas por uma mistura de preocupações comerciais e políticas que filtram o mundo pelas lentes dos interesses globais americanos.
Isso gera preocupações sobre a aplicação equitativa e universal das políticas de moderação de conteúdo e até que ponto as plataformas de mídia social priorizam os interesses políticos e econômicos em detrimento dos direitos humanos. Atualmente, os israelenses não estão sofrendo o mesmo tipo de censura que os palestinos.
As políticas de moderação de conteúdo devem ser imparciais. Devemos defender o direito à liberdade de expressão, sem levar em conta o poder político ou econômico e sua proximidade com os interesses dos governos dos EUA ou de Israel. As políticas devem ser orientadas pelos direitos humanos e pelo direito humanitário internacional; qualquer padrão que não atenda a isso deve ser inequivocamente rejeitado.
Artigo publicado originariamente em inglês em Middle East Eye
As opiniões expressas neste artigo são de responsabilidade do autor e não refletem necessariamente a política editorial do Middle East Monitor.