Algorithmic Assemblages of Power: AI Harm and the Question of Responsibility

Palabras clave: derechos humanos, feminismo descolonial, inteligencia artifical, violencia algorítmica, aprendizaje automático
Disponibilidad de datos: https://doi.org/10.5281/zenodo.15001281

Resumen

Los debates actuales sobre el daño causado por los sistemas de IA se centran principalmente en los sesgos algorítmicos o de los datos. En este artículo, argumento que el daño producido por la IA debe analizarse desde una perspectiva de poder, utilizando un enfoque sistémico y multidimensional que tenga en cuenta las múltiples escalas en las que se manifiesta el daño: macro, meso y micro. Reducir el daño de la IA a un simple fallo técnico o a la falta de representación en los datos corre el riesgo de simplificar el problema. La IA, como un ensamblaje sociotécnico hegemónico, reproduce activamente el daño y la violencia estructural a gran escala, exacerbando las asimetrías de poder tanto dentro de los países como entre ellos. Esto plantea la cuestión de quién debe ser responsable del daño en múltiples escalas y qué marcos deben establecerse para abordarlo. Una crítica feminista de la IA enmarca el daño a través de una ética del cuidado, subrayando la necesidad de colocar los derechos humanos en el centro de la gobernanza, los ecosistemas y los sistemas de IA.

Descargas

Los datos de descargas todavía no están disponibles.

##plugins.generic.pfl.publicationFactsTitle##

Metric
##plugins.generic.pfl.thisArticle##
##plugins.generic.pfl.otherArticles##
##plugins.generic.pfl.peerReviewers## 
2,4 promedio

##plugins.generic.pfl.reviewerProfiles##  N/D

##plugins.generic.pfl.authorStatements##

##plugins.generic.pfl.authorStatements##
##plugins.generic.pfl.thisArticle##
##plugins.generic.pfl.otherArticles##
##plugins.generic.pfl.dataAvailability## 
##plugins.generic.pfl.dataAvailability.unsupported##
##plugins.generic.pfl.averagePercentYes##
##plugins.generic.pfl.funders## 
N/D
32% con financiadores
##plugins.generic.pfl.competingInterests## 
N/D
##plugins.generic.pfl.averagePercentYes##
Metric
Para esta revista
##plugins.generic.pfl.otherJournals##
##plugins.generic.pfl.articlesAccepted## 
Artículos aceptados: 68%
33% aceptado
##plugins.generic.pfl.daysToPublication## 
##plugins.generic.pfl.numDaysToPublication##
145

Indexado: {$indexList}

    ##plugins.generic.pfl.indexedList##
##plugins.generic.pfl.editorAndBoard##
##plugins.generic.pfl.profiles##
##plugins.generic.pfl.academicSociety## 
N/D
Editora: 
Grupo de Investigación Cultura Digital y Movimientos Sociales. Cibersomosaguas

Biografía del autor/a

Paola Ricaurte Quijano, Tecnológico de Monterrey

Investigadora titular del Tecnológico de Monterrey e investigadora asociada del Berkman Klein Center for Internet & Society de la Universidad de Harvard. Es cofundadora de la red Tierra Común para avanzar la agenda de la descolonialidad de los datos e integrante de la Alianza A+ por algoritmos inclusivos, desde donde coordina el nodo de América Latina y El Caribe de la Red Feminista de Investigación en Inteligencia Artificial. Co-lideró el proyecto Towards Substantive Equality in Artificial Intelligence: Transformative AI Policy for Gender Equality and Diversity en el grupo de trabajo de IA Responsable de la Alianza Global para la Inteligencia Artificial. Participa en el Grupo de Expertos para la implementación de la Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial y es integrante de la red AI Ethics Experts Without Borders y la plataforma Women for Ethical AI, W4EAI, también de la UNESCO.

Ver citas

Descarga artículo

Métricas

Publicado
2025-03-25
REVISIONES EN ABIERTO
Cómo citar
Ricaurte Quijano P. (2025). Algorithmic Assemblages of Power: AI Harm and the Question of Responsibility. Teknokultura. Revista de Cultura Digital y Movimientos Sociales, 22(2), 201-208. https://doi.org/10.5209/tekn.101084