COLONIALISMO DIGITAL E RACISMO ALGORÍTMICO: AS PLATAFORMAS DIGITAIS COMO AMPLIFICADORAS DA DESIGUALDADE ESTRUTURAL E O PAPEL DO DIREITO NA PERPETUAÇÃO DO RACISMO NO BRASIL

Autores

  • Victor Gomes Soares de Barros Universidade Federal de Pernambuco

DOI:

https://doi.org/10.51891/rease.v11i9.20927

Palavras-chave:

Racismo algorítmico. Colonialismo digital. Plataformização do trabalho. Desigualdade social. Direito digital.

Resumo

Este artigo buscou compreender como as tecnologias digitais e a inteligência artificial, sob a lógica capitalista, perpetuam e amplificam discriminações estruturais de gênero, raça e classe no Brasil. A metodologia empregada foi uma análise crítica multidisciplinar da literatura acadêmica, dados demográficos brasileiros e exemplos empíricos, com enfoque nas plataformas digitais e sua relação com o racismo algorítmico. Os principais resultados indicam que o colonialismo digital e o racismo algorítmico reproduzem desigualdades históricas, opera sob a aparência de neutralidade técnica e sistematiza a exclusão social em múltiplas esferas, sobretudo no mercado de trabalho digital. Constatou-se que o direito brasileiro ainda trata a tecnologia como neutra, legitimando novas formas de opressão, e que a plataformização do trabalho reforça a precarização principalmente para jovens negros e periféricos. Conclui-se que é urgente a regulamentação específica do racismo algorítmico, a promoção de políticas públicas inclusivas e a integração de abordagens interdisciplinares para uma sociedade mais justa e igualitária.

Downloads

Não há dados estatísticos.

Biografia do Autor

Victor Gomes Soares de Barros, Universidade Federal de Pernambuco

Discente, Universidade Federal de Pernambuco.

Downloads

Publicado

2025-09-08

Como Citar

Barros, V. G. S. de. (2025). COLONIALISMO DIGITAL E RACISMO ALGORÍTMICO: AS PLATAFORMAS DIGITAIS COMO AMPLIFICADORAS DA DESIGUALDADE ESTRUTURAL E O PAPEL DO DIREITO NA PERPETUAÇÃO DO RACISMO NO BRASIL. Revista Ibero-Americana De Humanidades, Ciências E Educação, 11(9), 1000–1015. https://doi.org/10.51891/rease.v11i9.20927