“Creando” una auditoría para verificar la ética de la Inteligencia artificial

Palabras clave: ética, Inteligencia Artificial, auditoría, sesgos y protección de datos

Resumen

El presente artículo se centra en la creación de una auditoría para verificar la ética en la inteligencia artificial (IA) puesto que constituye el tercer pilar de la IA junto con cuestiones legales y técnicas. Precisamente por la importancia de auditar la ética que hay detrás de las decisiones de la IA, la autora utiliza ChatGPT para proponer una auditoría ética basándose, en un primer momento, en dar respuesta a ocho cuestiones esenciales, a saber: ¿Cómo se garantiza que los datos utilizados para entrenar la IA están libres de sesgos discriminatorios?; ¿Qué mecanismos hay para que los usuarios afectados por decisiones de la IA puedan apelar decisiones sesgadas?;¿Qué medidas se implementan para evitar que los modelos generen contenido ofensivo o dañino?; ¿Cómo se gestiona el uso de IA para prevenir su abuso en la creación de deepfakes o la manipulación de imágenes y videos?;¿Cómo se asegura que los datos utilizados para entrenar la IA cumplen con las normativas de protección de datos como el GDPR?; ¿Cómo se maneja el impacto ambiental del entrenamiento de sus modelos de IA?; ¿Qué medidas se implementan para garantizar que su IA no sea utilizada con fines maliciosos?; ¿Qué medidas se toman para proteger a los menores de la exposición a IA que pueden influir negativamente en su desarrollo? El objetivo del artículo es sentar las bases de una auditoría de la ética de la IA, asegurando que la ética esté integrada en el ADN de cualquier IA diseñada.

Ver citas

Descarga artículo

Crossmark

Métricas

Publicado
2025-06-19
Cómo citar
Fernández de Marcos L. D. (2025). “Creando” una auditoría para verificar la ética de la Inteligencia artificial. Derecom. Revista Internacional de Derecho de la Comunicación y de las Nuevas Tecnologías, 38(1), 95-102. https://doi.org/10.5209/dere.102348
Sección
Opiniones