e-ISSN: 1988-2629
ARTÍCULOS
Resumen: En el presente artículo se ofrece un análisis de cinco cuestiones esenciales del Reglamento de Inteligencia Artificial (RIA) para 2025. En primer lugar, se destaca el objetivo del RIA de promover una IA centrada en el ser humano y fiable. En segundo lugar, se recuerda que el ámbito de aplicación del reglamento va más allá de los creadores de IA, incluyendo a todos los operadores y responsables de su implementación. El tercer punto aborda la importancia de definiciones claras para asegurar el cumplimiento del RIA. En cuarto lugar, se subraya que ciertas prácticas de IA están explícitamente prohibidas para evitar daños y discriminación. La quinta clave, como no podía ser de otra manera, es la necesidad de información y transparencia puesto que constituyen elementos esenciales e innegociables según el RIA. Además, el artículo menciona fechas importantes para la implementación del reglamento y ofrece una breve referencia a las infracciones y sanciones previstas. En conclusión, se enfatiza que la verdadera clave del RIA es asegurar una inteligencia artificial centrada en el ser humano, priorizando la ética y la protección de los derechos humanos.
Palabras clave: Reglamento de Inteligencia Artificial, ética, Inteligencia Artificial, Transparencia, sanciones.
Abstract: In this article, an analysis of five essential aspects of the Artificial Intelligence Regulation (AIR) for 2025 is provided. Firstly, the RIA’s objective of promoting a human-centered and reliable AI is highlighted. Secondly, it is noted that the regulation’s scope goes beyond AI creators, including all operators and those responsible for its implementation. The third point addresses the importance of clear definitions to ensure compliance with the RIA. Fourthly, it is emphasized that certain AI practices are explicitly prohibited to prevent harm and discrimination. The fifth key aspect is the need for information and transparency, as these are essential and non-negotiable elements according to the AIR. Additionally, in the paper we mention key dates for the regulation’s implementation, and we provide a brief reference to the infractions and sanctions foreseen. In conclusion, it is emphasized that the true key of the AIR is to ensure a human-centered AI, prioritizing ethics and the protection of human rights.
Keywords: Artificial Intelligence Regulation, ethics, Artificial Intelligence, transparency, sanctions.
Sumario: 1. Razón de ser. 2. Estado de la cuestión. 3. En 2025, cinco son las cuestiones necesarias del RIA. 3.1. “Objeto del RIA: una inteligencia artificial centrada en el ser humano y fiable”. 3.2. Ámbito de aplicación: no solo a los creadores. 3.1. “Objeto del RIA: una inteligencia artificial centrada en el ser humano y fiable”. 3.2. Ámbito de aplicación: no solo a los creadores. 4. Definiciones: entienda y comprenda para aplicar y cumplir. 5. No todo vale: prácticas expresamente prohibidas. 6. Información y transparencia: no son negociables. 7. Bonus track : fechas clave y breve referencia a las infracciones y sanciones. 8. A modo de conclusión: la verdadera clave está en una inteligencia artificial “humano-céntrica”. 9. Referencias.
Cómo citar: : Davara Fernández de Marcos, E. (2025). Practical summary of the Artificial Intelligence Regulation: 5 Key Points for 2025. Derecom 38(1), 103-109. https://dx.doi.org/10.5209/dere.102349. https://dx.doi.org/https://doi.org/10.5209/dere.102349
El 12 de julio de 2024 se publicó en el Diario Oficial de la Unión Europea el –por qué no decirlo, tan ansiado– Reglamento de Inteligencia Artificial o lo que es lo mismo: el Reglamento 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (En adelante, también, Reglamento de Inteligencia Artificial o RIA).
En los últimos dos años parece que “todo” es inteligencia artificial y aunque somos plenamente conscientes de que no es así, también somos plenamente conscientes de que es absolutamente imprescindible poner límites –legales y éticos– a esta herramienta porque, no nos engañemos, la inteligencia artificial no deja de ser una herramienta.
Y es precisamente el objetivo del presente trabajo: poner el foco en las cinco cuestiones que, a nuestro humilde entender, conforman la estructura esencial de los aspectos jurídicos que se han de tener en cuenta a la hora de implementar la inteligencia artificial.
¿Y por qué hemos puesto cinco? Porque, por lo limitado del espacio, no hemos podido poner más. Si hubiéramos tenido más espacio, hubiéramos ido a doce ideas clave porque creemos que son de tal importancia que, mínimo, se debería dedicar un mes del año a cada una de las cuestiones porque la inteligencia artificial –y, sobre todo, sus implicaciones– no se pueden tomar como algo baladí sino que la normativa que analizaremos en el presente trabajo unida a todas las decisiones, acciones y medidas adoptadas por gobiernos, entidades públicas, empresas privadas y, por supuesto, usuarios han de ir encaminadas, precisamente, a que la inteligencia artificial– en todas sus facetas, funciones, servicios y aplicaciones– ayude a mejorar, de verdad, nuestra vida.
Basta con teclear en un buscador de Internet “inteligencia artificial” y seleccionar el apartado “noticias” para ser conscientes, precisamente, del estado de la cuestión que no es otro que la cuasi omnipresencia y absoluta diversidad y variedad de la presencia de la IA en los diferentes sectores, ámbitos y realidades. A continuación, compartimos algunas:
“Cómo crear un menú semanal saludable con Inteligencia Artificial basándose en tus gustos y rutinas: esta app lo hace por ti” (El Economista, 2024a).
“La inteligencia artificial ya es un problema medioambiental” (El País, 2024a).
“La Inteligencia Artificial logra que famosos actores y cantantes abracen a sus versiones jóvenes que les lanzaron a la fama” (Jiménez, 2024).
“Cómo la inteligencia artificial está siendo utilizada en la investigación del autismo” (María, 2024).
“Las cámaras con Inteligencia Artificial se multiplican en España” (Servimedia, 2024).
“China está obsesionada con ‘revivir a los muertos’ usando inteligencia artificial. Esta app gratis logra crear retratos vivientes” (GENBETA, 2024).
“Cómo predecir el Alzheimer con inteligencia artificial en personas con problemas de memoria: los científicos dan con la clave” (El Economista, 2024b).
“Un estudio cifra en cerca de 2.500 millones de euros las pérdidas por la IA en la música hasta 2028” (EFE, 2024).
“Dos de cada tres españoles ya están familiarizados con la inteligencia artificial” (ItReseller, 2024).
“El gasto en soluciones de IA en Europa rondará los 47.600 millones de dólares en 2024” (ItUser, 2024).
“Se disparan fraudes impulsados por la Inteligencia Artificial en el mundo” (Banca y Negocios, 2024).
“La IA aumentará el PIB de España a un ritmo medio del 0,9% entre 2023 y 2030” (ItReseller, 2023).
“La inteligencia artificial pone en riesgo 300 millones de puestos de trabajo en todo el mundo” (El Mundo, 2023).
“La inteligencia artificial produjo en 365 días la misma cantidad de imágenes que la fotografía en 150 años” (TN, 2023).
“La inteligencia artificial aceleró una “epidemia de phishing” en la región” (Unidiversidad, 2023).
“EE.UU. celebra el primer juicio con una defensa ‘robotizada’: Es un salto demasiado atrevido” (Marín, 2024).
“La Comunidad de Madrid usa la inteligencia artificial para facilitar cien servicios y sesenta trámites en el móvil” (ABC, 2024).
“El uso de la inteligencia artificial debilita la memoria y reduce la capacidad para pensar y resolver problemas” (Infosalus, 2024).
“OpenAI prohíbe a sus empleados advertir sobre los riesgos de la inteligencia artificial, según una nueva demanda” (Wired, 2024).
“Por qué es tan peligroso que la inteligencia artificial aprenda a mentir: “Nos engañarán como hacen los ricos”(El País, 2024b).
“Nuevo drama en OpenAI: disuelven al equipo que controlaba el riesgo de una inteligencia artificial superpeligrosa” (El Economista, 2024c).
“El G7 acuerda un código de conducta para que los desarrolladores de Inteligencia Artificial mitiguen riesgos” (RTVE, 2023).
“Reino Unido implantarán la Inteligencia Artificial en todos los sectores e impulsar la economía” (Antena 3, 2025).
“EE.UU. anuncia restricciones en inteligencia artificial para casi todo el mundo y las firmas de chips caen (El Economista, 2025).
“Desmontando mitos: cuando la Inteligencia Artificial y el empleo van de la mano” (Vives, 2025).
Con estas noticias lo único que hemos querido es aterrizar ese famoso dicho que afirma “para muestra, un botón” en el sentido de ejemplificar cómo la IA está presente –y va a estar presente– en prácticamente todos los campos de acción y actuación de nuestra vida personal y profesional.
Y es que es innegable que la inteligencia artificial –aunque no sea lo más correcto técnicamente denominarla así puesto que hay diferentes sistemas, programas y aplicaciones que utilizan inteligencia artificial con los más diversos fines y grados de intensidad y aplicabilidad y, por tanto, sería más correcto hablar de aplicaciones, sistemas o agentes de inteligencia artificial– ha llegado para quedarse y que son muchos y muy variados los usos –en el sector médico, en el legal, en el tecnológico, en el del ocio, en el de la productividad, en el de la logística o en la educación, por citar solo algunos– y aún más variados los riesgos y problemas a los que nos podemos enfrentar tanto como usuarios como proveedores o desarrolladores.
Y es por ello por lo que, con esta certeza, entramos ya a analizar las cinco cuestiones clave para este 2025 en las que queremos poner el énfasis partiendo, siempre, de lo dispuesto por el Reglamento europeo de inteligencia artificial.
Tal y como hemos explicado al comienzo de este breve trabajo, incluiremos los cinco puntos de mayor importancia del Reglamento de Inteligencia artificial –lo que no los convierte en los únicos que han de ser tenidos en cuenta a la hora de implementar un sistema de inteligencia artificial por cuanto el RIA ha de ser llevado a la práctica en su totalidad y no de manera parcial o resumida–.
Para ello, los enumeraremos, incluiremos un breve título que resuma la cuestión esencial sobre la que se ha de trabajar y, a continuación, desarrollaremos brevemente la cuestión para facilitar al lector los puntos clave sobre los que debe profundizar de cara a su implementación.
El primer artículo del RIA establece expresamente que:
El objetivo del presente Reglamento es mejorar el funcionamiento del mercado interior y promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de IA en la Unión así como prestar apoyo a la innovación (RIA, Art. 1).
De este artículo, destacamos dos ideas fundamentales:
El ser humano es el centro de la IA. Y lo ha de seguir siendo. No es el objeto, ni el objetivo ni el destinatario ni el usuario. Es el centro y, por evidente que pueda resultar, la realidad es que, si perdemos el foco de esta afirmación, absolutamente todos los problemas que nos podemos imaginar van a llegar irremediablemente: usar a la persona, denigrar a la persona, monetizar a la persona, “pisar” a la persona…
Los derechos fundamentales siguen siendo “fundamentales” cuando hablamos de IA. Y es que, en algunas ocasiones, podemos caer en el error de olvidar que la IA no es lo primero ni lo más importante –pese a los enormes beneficios que pueda conllevar– sino que, por encima de toda IA, están los derechos de las personas. Derechos entre los que podemos citar: el derecho a la vida, el derecho a la integridad –física y psíquica–, derecho a la libertad y a la seguridad, derecho a la vida familiar, derecho a la protección de datos, derecho a la libertad de pensamiento y a la libertad de expresión y de información…y un largo etcétera.
Y es aquí donde lanzamos una pregunta ¿se le viene al lector a la cabeza algún uso de un sistema de IA en el que estas dos cuestiones no se hayan tenido en cuenta o no, al menos, al 100%?
Como segunda cuestión, queremos desterrar un mito que hemos escuchado alguna vez, especialmente en redes sociales, por los que se autodenominan “expertos en IA” por ser conocedores de las últimas aplicaciones y sistemas que han sido lanzados al mercado o por ser hábiles y duchos en la aplicación de trucos para sacar un mayor partido pero que, lejos de expertos en IA en todo el sentido de la palabra, son ágiles con la tecnología pero desconocen en muchos casos las implicaciones jurídicas y éticas. Pues bien, uno de los mitos más extendidos es que la normativa aplicable a la IA únicamente deben cumplirla los creadores de dichos sistemas. Y nada más lejos de la realidad, el artículo 2 del RIA establece que su ámbito de aplicación abarca a:
Los proveedores que introduzcan en el mercado o pongan en servicio sistemas de IA o que introduzcan en el mercado modelos de IA de uso general en la Unión
1,
Los responsables del despliegue de sistemas de IA que estén establecidos o ubicados en la Unión;
Los proveedores y responsables del despliegue de sistemas de IA que estén establecidos o ubicados en un tercer país, cuando los resultados de salida generados por el sistema de IA se utilicen en la Unión
Los importadores y distribuidores de sistemas de IA;
Los fabricantes de productos que introduzcan en el mercado o pongan en servicio un sistema de IA junto con su producto y con su propio nombre o marca;
Los representantes autorizados de los proveedores que no estén establecidos en la Unión;
Las personas afectadas que estén ubicadas en la Unión.
De esta cuestión, es imprescindible saber qué papel desempeñamos cada vez que hagamos uso –de una manera u otra– de un sistema de inteligencia artificial y ser conscientes –y cumplidores– de la normativa que se nos aplica. Porque, aquí también se cumple el famoso refrán que dice: “el desconocimiento de la ley no exime de su cumplimiento”.
Afirma la RAE que una definición es una “Proposición que expone con claridad y exactitud los caracteres genéricos y diferenciales de algo material o inmaterial”. Y eso es precisamente lo que ofrece el artículo 3 del RIA.
Y es que, lejos de ofrecer una o dos definiciones, el RIA incorpora ni más ni menos que un total de 68 definiciones que es imprescindible comprender para saber aplicar las obligaciones y derechos que prevé el Reglamento.
Por lo limitado de este trabajo, simplemente queremos hacer hincapié en que define lo que es un “sistema de IA” por lo que animamos al lector a acudir con detenimiento y profundidad a lo dispuesto por cada una de las 68 definiciones y, especialmente, que parta de lo que define el RIA como “sistema de IA” y no se deje engañar por todas las falsas –y erróneas– afirmaciones que ofrecen “sistemas de IA” cuando, al menos tomando como base lo dispuesto en el RIA– no lo son. Y así, acabamos como empezamos este apartado: entienda y comprenda para aplicar y cumplir.
En el artículo 5 del RIA se establece un amplio listado de las prácticas de inteligencia artificial que quedan expresamente prohibidas por la normativa y que, de hecho, darán lugar a las mayores sanciones que la normativa contempla al entender que es una vulneración grave de la normativa por los enormes daños que puede causar violar cualquiera de las prohibiciones que, a continuación, resumimos, siempre tomando como base la literalidad de lo dispuesto en el artículo 5 del RIA.
En concreto, las prácticas de IA que quedan terminantemente prohibidas son las siguientes:
la introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que se sirva de técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas con el objetivo o el efecto de alterar de manera sustancial el comportamiento de una persona o un colectivo de personas (…);
la introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que explote alguna de las vulnerabilidades de una persona física o un determinado colectivo de personas derivadas de su edad o discapacidad, o de una situación social o económica específica (…);
la introducción en el mercado, la puesta en servicio o la utilización de sistemas de IA para evaluar o clasificar a personas físicas o a colectivos de personas durante un período determinado de tiempo atendiendo a su comportamiento social o a características personales o de su personalidad conocidas, inferidas o predichas, de forma que la puntuación ciudadana provoque diferentes situaciones –también tasadas en el artículo 5.1.c) del RIA–.
la introducción en el mercado, la puesta en servicio para este fin específico o el uso de un sistema de IA para realizar evaluaciones de riesgos de personas físicas con el fin de valorar o predecir el riesgo de que una persona física cometa un delito basándose únicamente en la elaboración del perfil de una persona física o en la evaluación de los rasgos y características de su personalidad;
la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión;
la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de IA para inferir las emociones2 de una persona física en los lugares de trabajo y en los centros educativos (…);
la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual (…)
De estas siete prohibiciones, queremos resaltar una idea fundamental: el potencial de la inteligencia artificial es enorme y absolutamente innegable. Y, por supuesto, el legislador, conocedor precisamente de esa potencialidad de los sistemas de inteligencia artificial, ha querido poner el límite, precisamente, en cuestiones fundamentales que, afectan, de lleno, a los derechos de las personas y que pueden causar un enorme daño en ellos.
Por ello, y pese a que haciendo uso de los sistemas de inteligencia artificial se puede llegar a inferir emociones, predecir comportamientos e incluso llegar a alterarlos, la propia normativa ha sido tajante en la prohibición, haciendo uso para ello de un lenguaje que no deja lugar a dudas: “queda expresamente prohibido”.
Por ello, es fundamental que quienes trabajen – desde una u otra óptica– en el mundo de la inteligencia artificial sean plenos conocedores de que, no por el mero hecho de que la inteligencia artificial lo permita –técnicamente hablando–, pueden llevarlo a cabo.
De hecho, el planteamiento y el propio enfoque debería ser el contrario, el de “prohibición por defecto cuando afecte a derechos fundamentales de las personas y a aspectos de su personalidad”. Y lo ponemos entre comillas porque no queremos que se caiga en el error de pensar que el RIA es una norma que solo prohíbe, porque no es verdad. Es una norma que establece límites y ofrece garantías.
El título del apartado no deja lugar a dudas, pero la realidad es que, también en lo que a inteligencia artificial se refiere, el binomio “información y transparencia” cobra, de nuevo, todo el protagonismo.
De hecho, el artículo 50 del RIA está dedicado íntegramente a regular las obligaciones de transparencia de los proveedores y responsables de los sistemas que implementen inteligencia artificial. Del artículo 50, destacamos las siguientes tres ideas como fundamentales y eje vertebrador de toda persona física o jurídica que utilice inteligencia artificial desde cualquiera de los diferentes enfoques desde los que se puede abordar:
Exige el RIA a los proveedores una cierta “transparencia por defecto” en los sistemas de IA cuyo objetivo sea interactuar con personas físicas. En este sentido, una de las principales obligaciones es la de que el propio sistema de IA sea tan transparente que, la persona física, en todo momento sepa que está interactuando con una IA.
Respecto a los vídeos y fotografías generados gracias a la IA, se exige que dichos contenidos estén marcados “en un formato legible por máquina y que sea posible detectar que han sido generados o manipulados de manera artificial”. De nuevo, la transparencia en la información vuelve a jugar un papel fundamental.
Cuando se utilice IA para crear o manipular texto que tenga la finalidad de informar sobre asuntos de interés público, exige el RIA que dicho texto incluya información clara sobre el uso de la IA en dicho contenido.
Evitando cualquier tipo de confusión o duda interpretativa sobre el modo de cumplir con el citado deber de información –y de transparencia, que es un complemento y característica esencial de la información y no un sinónimo–, el RIA afirma que la información ha de proporcionarse a los interesados de manera “clara y distinguible”, teniendo en cuenta también las cuestiones de accesibilidad en los casos en los que sea necesario.
Y, respecto al momento en el que se ha de proporcionar la citada información, el RIA es tajante, afirma expresamente que se ha de cumplir con el deber de informar “a más tardar con ocasión de la primera interacción o exposición” por lo que, de nuevo, podríamos hacer un nombramiento analógico del principio de “privacidad desde el diseño y por defecto” previsto en el RGPD para hablar de “información y transparencia desde el diseño y por defecto”. O, dicho con otras palabras, primero la información y la transparencia y luego la comercialización, uso, venta, publicidad y divulgación de la IA. En este caso, el orden de los factores sí altera el producto y el primer factor ha de ser, siempre, la información y la transparencia.
Es imposible resumir en cinco las cuestiones clave del RIA, pero no queríamos dejar de incluir –aunque sea, si se nos permite la expresión, a modo de bonus track– una breve alusión a dos cuestiones esenciales que, sin duda, complementan lo reflexionado en el presente trabajo. De un lado: las fechas clave de entrada en vigor y aplicabilidad del RIA y, de otro, las sanciones en caso de incumplimiento.
En lo que respecta a lo que podríamos llamar “calendario del RIA”, las fechas son las siguientes:
– 1 de agosto de 2024: entró en vigor.
– 2 de febrero de 2026: será aplicable, salvo:
Capítulos I y II: aplicables desde 2 de febrero de 2025.
Capítulo III, sección 4, el capítulo V, el capítulo VII y el capítulo XII y el artículo 78 –excepto artículo 101–: aplicable a partir de 2 de agosto de 2025.
Artículo 6, apartado 1, y las obligaciones correspondientes del presente Reglamento: aplicables a partir de 2 de agosto de 2027.
Y, por último, respecto a las sanciones, el artículo 99 establece una graduación de sanciones dividida en tres:
– Para las infracciones menos graves –las no relacionadas con lo dispuesto en el artículo 5 del Reglamento–, el RIA prevé multas de hasta 15 millones de euros o, si el infractor es una empresa, de hasta el 3 % de su volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior.
– Para las infracciones que supongan violar alguna de las prohibiciones establecidas en el artículo 5 serán sancionadas con multas administrativas de hasta 35 millones de euros o, al igual que en el caso anterior, si quien comete la infracción fuera una empresa, también podría ser multada con una cuantía de hasta el 7 % de su volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior.
– Para las infracciones que supongan la presentación de información inexacta, incompleta o engañosa a organismos notificados o a las autoridades nacionales competentes en respuesta a una solicitud estará sujeta a multas administrativas de hasta 7 millones y medio de euros o, si el infractor es una empresa, de hasta el 1 % del volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior.
Ya con el título se ha querido ser totalmente transparente con lo que, para nosotros, podría resumir el RIA en una única frase “velar por sistemas de inteligencia artificial humano-céntricos”.
Y es que podríamos hablar mucho de obligaciones, principios, derechos, sanciones, prácticas prohibidas, sistemas de alto riesgo…y un sinfín de cuestiones más. Pero la realidad es que el RIA nace con la vocación de dar respuesta a una inquietud generalizada que, si bien no estaba “puesta sobre la mesa tal cual”, sí que protagonizaba charlas, conferencias, libros y artículos. Esta inquietud se plasmaba en alguna –o varias– de las siguientes preguntas: ¿Dará de lado la inteligencia artificial al ser humano? ¿Quedará relegado el ser humano a un segundo plano? ¿Superará la inteligencia artificial la capacidad creativa, de aprendizaje, de divulgación y de compartir del ser humano? ¿Podrá ofrecerme un sistema de inteligencia artificial un marido del que nunca me divorcie porque es perfecto? ¿Podrá la inteligencia artificial modificar comportamientos del ser humano y moldearle “a su imagen y semejanza”? Nos van a perdonar que utilicemos este término cristiano empleado en la Biblia para recordar cómo “Dios creó al hombre y a la mujer a su imagen y semejanza” (Génesis 1, 26-28) pero creemos que viene totalmente al caso. Y, por ello, lanzamos esta pregunta ¿Hemos querido convertir a la inteligencia artificial en Dios – con las características de Dios: omnisciente –todo lo sabe–, omnipresente –está en todas partes– y omnipotente –todo lo puede-?
Queremos animar al lector a la reflexión y concluir con una idea clara: si el ser humano –y el respeto a todos y cada uno de sus derechos– está en el centro del diseño, del pensamiento, de la creación y del uso de la inteligencia artificial, sin duda se respetará todo lo dispuesto por el RIA y, sin duda también, podremos disfrutar de las innumerables ventajas que ofrecen los sistemas de inteligencia artificial y vernos libres de los –enormes– peligros que comporta un uso contrario a ese “humano-centrismo” del que hablamos.
ABC (2024). “La Comunidad de Madrid usa la inteligencia artificial para facilitar cien servicios y sesenta trámites en el móvil”, 16 de julio. https://www.abc.es/espana/madrid/comunidad-madrid-usa-inteligencia-artificial-facilitar-cien-20240715173859-nt.html
Antena 3 (2025). “Reino Unido implantará la Inteligencia Artificial en todos los sectores e impulsar la economía”, 13 de enero. https://www.antena3.com/noticias/mundo/reino-unido-implantara-inteligencia-artificial-todos-sectores-impulsar-economia_202501136785249a4f1fb7000187a3a4.html
Banca y Negocios (2024). “Se disparan fraudes impulsados por la Inteligencia Artificial en el mundo”, 18 de marzo. https://www.bancaynegocios.com/cifras-se-disparan-fraudes-impulsados-por-la-inteligencia-artificial-en-el-mundo/
EFE (2024). “Un estudio cifra en cerca de 2.500 millones de euros las pérdidas por la IA en la música hasta 2028”, 15 de marzo. https://efe.com/cultura/2024-03-15/perdidas-musica-por-la-inteligencia-artificial-ia/
El Economista (2024a). “Cómo crear un menú semanal saludable con Inteligencia Artificial basándose en tus gustos y rutinas: esta app lo hace por ti”, 17 de julio. https://www.eleconomista.es/tecnologia/noticias/12905514/07/24/como-crear-un-menu-semanal-saludable-con-inteligencia-artificial-basandose-en-tus-gustos-y-rutinas-esta-app-lo-hace-por-ti.html
El Economista (2024b). “Cómo predecir el Alzheimer con inteligencia artificial en personas con problemas de memoria: los científicos dan con la clave”, 16 de julio. https://www.eleconomista.es/tecnologia/noticias/12910179/07/24/como-predecir-el-alzheimer-con-inteligencia-artificial-en-personas-con-problemas-de-memoria.html
El Economista (2024c). “Nuevo drama en OpenAI: disuelven al equipo que controlaba el riesgo de una inteligencia artificial superpeligrosa”, 20 de mayo. https://www.eleconomista.es/tecnologia/noticias/12823302/05/24/nuevo-drama-en-openai-disuelven-al-equipo-que-controlaba-el-riesgo-de-una-inteligencia-artificial-superpeligrosa.html
El Economista (2025). “EE.UU. anuncia restricciones en inteligencia artificial para casi todo el mundo y las firmas de chips caen”, 13 de enero. https://www.eleconomista.es/mercados-cotizaciones/noticias/13169154/01/25/eeuu-anuncia-restricciones-en-inteligencia-artificial-para-casi-todo-el-mundo-y-las-firmas-de-chips-caen.html
El Mundo (2023). “La inteligencia artificial pone en riesgo 300 millones de puestos de trabajo en todo el mundo”, 29 de marzo. https://www.elmundo.es/tecnologia/2023/03/29/64248311fdddffab0b8b45cf.html
El País (2024a). “La inteligencia artificial ya es un problema medioambiental”, 15 de julio. https://elpais.com/tecnologia/2024-07-16/la-inteligencia-artificial-ya-es-un-problema-medioambiental.html
El País (2024b). “Por qué es tan peligroso que la inteligencia artificial aprenda a mentir: “Nos engañarán como hacen los ricos”, 11 de mayo. https://elpais.com/tecnologia/2024-05-11/por-que-es-tan-peligroso-que-la-inteligencia-artificial-aprenda-a-mentir-nos-enganaran-como-hacen-los-ricos.html
GENBETA (2024). “China está obsesionada con ‘revivir a los muertos’ usando inteligencia artificial. Esta app gratis logra crear retratos vivientes”, 17 de julio. https://www.genbeta.com/actualidad/china-esta-obsesionada-revivir-a-muertos-usando-inteligencia-artificial-esta-app-gratis-logra-crear-retratos-vivientes
Infosalus (2024). “El uso de la inteligencia artificial debilita la memoria y reduce la capacidad para pensar y
resolver problemas”, 9 de abril. https://www.infosalus.com/salud-investigacion/noticia-uso-inteligencia-artificial-debilita-memoria-reduce-capacidad-pensar-resolver-problemas-20240409141358.html
ItReseller (2024). “Dos de cada tres españoles ya están familiarizados con la inteligencia artificial”, 20 de junio. https://www.itreseller.es/en-cifras/2024/06/dos-de-cada-tres-espanoles-ya-estan-familiarizados-con-la-inteligencia-artificial
ItReseller (2023). “La IA aumentará el PIB de España a un ritmo medio del 0,9% entre 2023 y 2030”, 3 de
ItUser (2024). “El gasto en soluciones de IA en Europa rondará los 47.600 millones de dólares en 2024”, 26 de marzo. https://www.ituser.es/en-cifras/2024/03/el-gasto-en-soluciones-de-ia-en-europa-rondara-los-47600-millones-de-dolares-en-2024
Jiménez, C. (2024). “La Inteligencia Artificial logra que famosos actores y cantantes abracen a sus versiones jóvenes que les lanzaron a la fama”. La Vanguardia, 17 de julio. https://www.lavanguardia.om/cribeo/viral/20240717/9810170/inteligencia-artificial-logra-famosos-actores-cantantes-abracen-versiones-jovenes-fama-mmn.html
María, F. (2024). “Cómo la inteligencia artificial está siendo utilizada en la investigación del autismo”. OK Diario, 17 de julio. https://okdiario.com/ciencia/como-inteligencia-artificial-esta-siendo-utilizada-investigacion-del-autismo-13174148
Marín, R. (2024). “EE.UU. celebra el primer juicio con una defensa ‘robotizada’: Es un salto demasiado atrevido”. Voz Pópuli, 15 de enero. https://www.vozpopuli.com/internacional/eeuu-juicio-defensa-robotizada.html
RTVE (2023). “El G7 acuerda un código de conducta para que los desarrolladores de Inteligencia Artificial mitiguen riesgos”, 30 de octubre. https://www.rtve.es/noticias/20231030/g7-codigo-conducta-inteligencia-artificial/2459656.shtml
Servimedia (2024). “Las cámaras con Inteligencia Artificial se multiplican en España”, 17 de julio. https:// www.servimedia.es/noticias/camaras-inteligencia-artificial-multiplican-espana/1410203674
TN (2023). “La inteligencia artificial produjo en 365 días la misma cantidad de imágenes que la fotografía en 150 años”, 21 de agosto. https://tn.com.ar/tecno/novedades/2023/08/21/la-inteligencia-artificial-produjo-en-365-dias-la-misma-cantidad-de-imagenes-que-la-fotografia-en-150-anos/
Unidiversidad (2023). “La inteligencia artificial aceleró una “epidemia de phishing” en la región”, 5 de septiembre. https://www.unidiversidad.com.ar/la-inteligencia-artificial-acelero-una-epidemia-de-phishing-en-la-region
Vives, J. (2025). “Desmontando mitos: cuando la Inteligencia Artificial y el empleo van de la mano”. La Vanguardia, 14 de enero. https://www.lavanguardia.com/vida/junior-report/20250114/10280908/desmontando-mitos-inteligencia-artificial-empleo-mano.html
Wired (2024). “OpenAI prohíbe a sus empleados advertir sobre los riesgos de la inteligencia artificial, según una nueva demanda”, 15 de julio. https://es.wired.com/articulos/openai-prohibe-a-sus-empleados-advertir-sobre-los-riesgos-de-la-inteligencia-artificial-segun-una-nueva-demanda.