ISSN-e: 1988-2696
ARTÍCULOS
Pablo Lara-Navarra
Universitat Oberta de Catalunya (UOC) ✉ 
Antonia Ferrer-Sapena
Universitat Politècnica de València (UPV) ✉ 
Enrique A. Sánchez-Pérez
Universitat Politècnica de València (UPV) ✉ 
Ana Coronado-Ferrer
Florida Uniersitària (UV-UPV) ✉ 
Recibido: 22 de enero de 2025 / Aceptado: 7 de abril de 2025 |
ES Resumen. Este estudio analiza la relevancia de las teorías clásicas de la comunicación —agenda setting y representaciones sociales— y destaca su vigencia en el comportamiento de audiencias masivas en el entorno digital. La investigación propone un enfoque metodológico basado en inferencia bayesiana, que permite cuantificar la propagación de la información y segmentar grupos de usuarios impactados por una campaña comunicativa específica. Este procedimiento se aplica al análisis computacional de 40 noticias y 61 840 tuits relacionados con un caso mediático controvertido. Los resultados evidencian el doble papel que desempeñan los medios y las plataformas digitales: por un lado, orientan la atención pública hacia determinados temas; por otro, amplifican su alcance y profundidad a través de la viralización. Esta dinámica facilita la formación de comunidades polarizadas, alimentadas por la sobreexposición a contenidos no verificados. El estudio subraya la urgencia de implementar estrategias y contramedidas eficaces para mitigar los efectos de la polarización mediática digital. En este sentido, propone herramientas analíticas para la detección de patrones de manipulación, la identificación de comunidades vulnerables y la promoción de una opinión pública más informada, crítica y participativa.
Palabras clave: Opinión pública, polarización social, redes sociales, propaganda digital, desinformación.
ENG Redefining the Configuration of Public Opinion in the Digital Era: A Computational Analysis of Media and Social Dynamics
Abstract. This study analyzes the relevance of classical communication theories —agenda setting and social representations— and highlights their continued applicability in explaining the behavior of mass audiences in the digital environment. The research proposes a methodological approach based on Bayesian inference that allows quantifying the spread of information and segmenting user groups affected by a given communication campaign. This procedure is applied to the computational analysis of 40 news articles and 61,840 tweets related to a controversial media. The findings reveal the dual role of traditional media and digital platforms: on the one hand, they focus public attention on certain issues; on the other hand, they amplify the reach and intensity of these narratives through viral dissemination. This dynamic fosters the emergence of polarized communities, often driven by overexposure to unverified content. The study underscores the urgent need to implement effective strategies and countermeasures to mitigate the effects of digital media polarization. In this regard, it proposes analytical tools to detect patterns of manipulation, identify vulnerable communities, and promote a more informed, critical, and participatory public.
Keywords: Public opinion, social polarization, social networks, digital propaganda, disinformation.
Cómo citar: Lara-Navarra, P., Ferrer-Sapena, A., Sánchez-Pérez, E. A. y Coronado-Ferrer, A. (2025). Redefiniendo la configuración de la opinión pública en la era digital: análisis computacional de dinámicas mediáticas y sociales. Estudios sobre el Mensaje Periodístico, 31(2), 431-444. https://dx.doi.org/10.5209/emp.100391
Las redes sociales y las plataformas digitales han revolucionado la forma en que interactuamos socialmente (Papacharissi, 2010) e influyen de manera significativa en la transformación de la comunicación contemporánea. Estas herramientas no solo facilitan la difusión de información y el establecimiento de relaciones personales y profesionales (Blasco, 2021), sino que también se han convertido en poderosos medios para aprender y conectarse globalmente. Sin embargo, su misma efectividad y rapidez las han hecho susceptibles a usos negativos, para propagar desinformación, generar tensiones políticas o incluso apropiarse de datos personales (Amedie, 2015; Berners-Lee, 2017), por lo que se han convertido en herramientas para la manipulación social. Estudios recientes constatan cómo las redes sociales, especialmente en contextos de crisis, como la pandemia, intensifican la manipulación de la opinión (Zunino et al., 2022).
En los últimos años, se ha registrado un incremento de la polarización social, lo que representa un problema de gran envergadura en los ámbitos social, económico y político (Wardle y Derakhshan, 2017). Las redes sociales, en particular, han actuado como un catalizador para la difusión de narrativas tóxicas (Fontana, 2021) al facilitar la propagación de discursos crispadores. Además, se ha identificado un vínculo entre estas dinámicas y movimientos organizados, denominados por algunos autores como «ingenieros del caos» (Da Empoli, 2020), quienes utilizan estrategias digitales deliberadas para manipular el discurso público y reforzar divisiones sociales.
La decisión de las redes como Facebook, Instagram y X (antes conocida como Twitter) de prescindir de verificadores de datos independientes para adoptar un modelo de notas comunitarias ejemplifica los cambios que experimentan las políticas de moderación y verificación en las redes. No obstante, algunos trabajos académicos advierten que supeditar la verificación al conocimiento colectivo sin contar con un sistema robusto de educación mediática y rendición de cuentas puede abrir la puerta a la perpetuación de la polarización y a la consolidación de discursos sesgados (Freedman, 2019). Este giro pone de relieve la facilidad con la que se pueden modificar los procedimientos de supervisión de la información, incide en la dinámica de propagación de contenidos y refuerza la responsabilidad de los propios usuarios en su creación y validación (Cambronero-Saiz, 2022; Fontenla-Pedreira et al., 2020; Mula-Grau, 2022), algo que propicia las redes sociales sean un espacio, relativamente sencillo, para la propaganda digital, la desinformación y los discursos de odio. Este problema se acentúa cuando el epicentro es la desinformación en redes sociales para propagar discursos de odio hacia comunidades vulnerables, lo cual incrementa conflictos sociales y políticos (Blanco Herrero, 2023).
En este sentido, el uso de los medios masivos de información para moldear estados de opinión no es en absoluto nuevo. Desde las décadas de 1970 y 1980, se han propuesto diversas corrientes de pensamiento que explican la propagación y la manipulación informativa en entornos masivos con el fin de configurar la opinión pública en beneficio de un fin claramente establecido. Aunque las redes sociales han intensificado estos procesos mediante su inmediatez y su capacidad de alcance, las teorías clásicas siguen siendo clave para analizar la comunicación posmoderna, en especial cuando se examinan los efectos de la desinformación en la formación de comunidades con convicciones poco fundamentadas (Morales, 2022). En este trabajo, se identifican dos pilares teóricos que resultan fundamentales para analizar la transformación y manipulación de la opinión pública en la sociedad digital: el enfoque de la agenda setting (McCombs y Shaw, 1972) y la teoría de las representaciones sociales (Farr, 1984, 1989; Moscovici, 1976, 1979).
La teoría de la agenda setting sostiene que los medios de comunicación masivos determinan qué noticias se consideran relevantes y cuáles quedan relegadas (McCombs, 1996). Aunque no imponen una postura a la audiencia, sí focalizan su atención en determinados temas (Guo, 2012; Vargo y Guo, 2017) y, en la actualidad, los algoritmos acentúan esta priorización, al personalizar la información que ve cada usuario (Lara-Navarra et al., 2020; Pariser y Vaquero Serrano, 2017). La orientación ideológica y los algoritmos de las redes sociales refuerzan esta capacidad de influencia y promueven narrativas dominantes (Santiago Guervós, 2020).
Por su parte, la teoría de las representaciones sociales examina cómo los grupos construyen y comparten significados, lo cual explica que la sobreexposición a información termine por consolidar estructuras cognitivas que eluden la evidencia objetiva (Goffman, 1974; Lakoff, 2007, 2009; Timoteo-Álvarez, 2005, 2007). Esta idea se vincula con aquellos estudios donde se señalan que las redes sociales facilitan la creación de burbujas informativas y refuerzan creencias preconcebidas mediante actos de desinformación intencional (Calvo y Aruguete, 2020).
Es evidente que las dinámicas se multiplican en las redes sociales, espacios de consumo inmediato de información (Pennycook y Rand, 2021) donde la facilidad de publicación y la alta propagación en poco tiempo dificultan la verificación y fomentan la formación de grupos de opinión fuertemente marcados por informaciones parciales (Cabezuelo-Lorenzo y Manfredi, 2019; Sunstein y Vermeule, 2009). La arquitectura tecnológica de estas plataformas, basada en la ubicuidad, la conectividad y viralización, fomenta la propagación acelerada de mensajes difíciles de contrastar (Martel et al., 2020), lo que incrementa el riesgo de generar comunidades desinformadas y polarizadas.
A partir de este marco conceptual, la investigación se centra en estudiar si las noticias generadas en la prensa escrita son el catalizador que provoca un debate en redes sociales. Cuando esta discusión es masiva, los usuarios establecen grupos de opinión en base a información no contrastable. Nuestra metodología pretende recoger evidencias para determinar mensajes y grupos de interés con el fin de favorecer ciertos intereses políticos, comerciales o personales (Lewandowsky et al., 2012). Proponemos una nueva metodología de análisis que proporcione una estrategia para combinar el uso de la tecnología con el análisis conceptual. Para ello, la clave de la propuesta es identificar de manera automática la propagación de información, establecer las temáticas y grupos de personas receptoras de la intencionalidad en la propagación de información en una red social, para que posteriormente especialistas en información puedan establecer la intencionalidad comunicativa.
Esta investigación tiene como objetivo principal demostrar la vigencia de los procesos de construcción colectiva de significados, descritos por la teoría de las representaciones sociales (Farr, 1984, 1989; Moscovici, 1976, 1979), junto con la capacidad de dirigir la atención pública, como sugiere la teoría de la agenda setting (McCombs y Shaw, 1972). Aunque estos fundamentos teóricos emergieron durante el siglo XX, se considera su plena validez en el entorno digital actual. La novedad no reside tanto en las formas de generar opinión o difundir información, sino que radica en la inmediatez y el alcance exponencial que posibilitan las plataformas sociales. Estudios recientes como los de Santiago Guervós (2023) refuerzan este argumento al mostrar cómo las representaciones sociales se construyen y consolidan en las plataformas digitales, amplificando las narrativas preferidas por las élites.
En segundo lugar, el estudio se centra en analizar la relación entre las noticias difundidas en medios de comunicación escritos y la discusión que se produce en X (anteriormente conocida como Twitter). Concretamente, se busca esclarecer cómo la rapidez y la viralización propias de esta red pueden desencadenar un posicionamiento de los usuarios y la adopción de encuadres temáticos que desemboquen en la configuración de un estado de opinión contrario a —o independiente de— la información objetiva (Rubio-Nuñez, 2018). En este sentido, investigaciones destacan cómo las redes sociales potencian la viralidad de las noticias y facilitan la creación de estados de opinión basados en desinformación (Calvo y Aruguete, 2020). Además, la estructura de estas plataformas, caracterizada por la brevedad de los mensajes y su rápida retransmisión, incrementa la visibilidad de los contenidos y sus autores (Orihuela, 2011), lo que las convierte en espacios idóneos para estudiar el mensaje informativo y los efectos de la posverdad (Postill, 2018; Rovira, 2017; Treré, 2018).
Para ello, se aprovechan las posibilidades que ofrece la plataforma X, que destaca por su capacidad de proporcionar contenido de consumo inmediato y de distribuirlo de forma simultánea a millones de usuarios (Bernal-Triviño y Clares-Gavilán, 2019; Fontenla-Pedreira et al., 2020), así como por su aptitud para detectar tendencias y fomentar la interacción con diversas fuentes (Rubio-García, 2014). Esta relación es respaldada por Blasco Duatis y Coenders (2018), quienes analizaron cómo los procesos de la agenda setting tradicionales se transforman en el entorno digital y cómo los encuadres mediáticos influyen significativamente en los debates generados en plataformas sociales.
En tercer lugar, el trabajo pretende evaluar la viabilidad de un modelo estadístico bayesiano que, en consonancia con las teorías de la agenda setting y las representaciones sociales, permita identificar la propagación de noticias, establecer conexiones temáticas en los debates y delimitar el alcance de potenciales campañas dirigidas a perfiles concretos de usuarios. Este modelo busca integrar la perspectiva teórica con herramientas matemáticas para analizar la propagación de la información e impacto del contenido en generación de grupos de opinión. Al respecto, Alaminos-Fernández y Alaminos (2023) han demostrado que la combinación de estadística bayesiana y análisis de series temporales resulta eficaz para modelar procesos de difusión informativa en redes sociales. Asimismo, Reynoso (2023) resalta la utilidad de estos modelos matemáticos para el estudio de dinámicas sociales digitales.
Finalmente, la investigación se propone validar la utilidad de la codificación matemática para estudiar la actividad en la difusión de contenidos y el posicionamiento de los usuarios, de modo que se superen los enfoques meramente descriptivos. Esta aproximación, apoyada en la estadística bayesiana, aspira a ofrecer un método más preciso para la detección y la predicción de estrategias de comunicación para configurar la opinión pública. Aporta, además, una ampliación de los principios de la comunicación clásica al integrar un enfoque cuantitativo que permite medir fenómenos característicos de la inmediatez y el alcance global del entorno digital. Viñán Ludeña (2023) y Ustarroz Molina (2021) respaldan esta perspectiva, al subrayar cómo la estadística bayesiana y otras técnicas analíticas pueden ser aplicadas para predecir patrones de comportamiento informativos y analizar la influencia de las redes sociales en la formación de opinión pública.
PI1. ¿Existe una relación entre las noticias publicadas en medios escritos online y los debates que se generan en X en términos de agenda y posicionamiento temático?
PI2. ¿Permite el modelo bayesiano propuesto establecer conexiones e inferencias en los mensajes que ayuden a detectar y clasificar los intereses informativos?
PI3. ¿Facilita este enfoque la identificación de contenidos desinformados y la delimitación de grupos de usuarios objeto de campañas de comunicación manipuladora?
PI4. ¿Puede la codificación matemática, basada en la estadística bayesiana, convertirse en una herramienta efectiva para el análisis del tratamiento informativo y la comunicación social en redes como X?
La estrategia metodológica utilizada en esta investigación adopta un enfoque mixto, secuencial cualitativo-cuantitativo, que combina el estudio de redes sociales, la modelización estadística y el estudio del impacto de la información en la opinión pública. En concreto, se presenta un modelo bayesiano aplicado a un grafo dinámico, a fin de explicar y cuantificar la propagación de contenidos a lo largo del tiempo. A continuación, se describen los pasos principales de esta metodología.
En esta etapa, se propone un estudio de las noticias publicadas en medios digitales sobre el caso seleccionado, así como de los titulares, las fechas de publicación y los encuadres temáticos, junto a la identificación de los hashtags con mayores tendencias con el fin de establecer su relación con la agenda en redes sociales. El objetivo principal consiste en validar y complementar los hallazgos cuantitativos obtenidos posteriormente a través de la modelización bayesiana y el análisis relacional de redes y, de esta forma, contrastar las hipótesis formuladas sobre la teoría de la agenda setting (McCombs y Shaw, 1972) y la conformación de representaciones sociales (Moscovici, 1976, 1979) en las redes sociales.
En primer lugar, se seleccionan y verifican las noticias publicadas en medios digitales que estén relacionadas con el caso de estudio, utilizando para ello buscadores como Google Noticias o Google Web. Google Noticias, en particular, ha demostrado ser una herramienta valiosa para el análisis científico, ya que permite identificar palabras clave y facilita la recuperación de información mediante el uso de lenguajes naturales (Lopezosa et al., 2024). Además, el uso de agregadores como Google News no solo incrementa la visibilidad web de los contenidos, sino que también desempeña un papel clave en la configuración de la agenda setting, aspecto central del objeto de estudio planteado en esta metodología (Young y Atkin, 2022). Seguidamente, se clasifican las noticias según su fecha de publicación, el medio que las difunde. A continuación, se procede a analizar el contenido de los titulares de las noticias extraídas y se busca contrastar con la información de fuentes oficiales u otros estándares de veracidad. En caso de existir un criterio formal de validación —por ejemplo, un fallo judicial—, este se emplea para determinar qué noticias resultan objetivas y cuáles difunden información sin sustento, lo que permite establecer un parámetro sólido para medir la exactitud de cada publicación (Freedman, 2019; Lakoff, 2007; Wardle y Derakhshan, 2017).
Seguidamente, se examinan de los titulares el vocabulario dominante en los textos, con el propósito de identificar las palabras clave más frecuentes y determinar de esta manera cómo se orienta la atención de la audiencia y en qué medida se promueven narrativas parciales o tendenciosas. Este recuento de términos y expresiones se asocia con fenómenos de polarización mediática y con la posible creación de grupos de opinión vinculados a encuadres específicos del caso estudiado. Posteriormente, se busca en redes sociales la presencia de hashtags que se alineen con el caso y se consultan diversas métricas de impacto para verificar si dichos hashtags lograron ser tema destacado en un día concreto. Para este fin, se registra la fecha y hora de publicación de cada noticia y se contrasta con los picos de interés o tendencias en la plataforma X (antes Twitter). Esta correlación cronológica posibilita comprobar si la cobertura mediática focaliza la discusión en redes, con lo que se confirma o refuta la hipótesis de que los medios escritos actúan como catalizador del debate (McCombs y Shaw, 1972).
Finalmente, se efectúa una lectura y categorización cualitativa de los textos para analizar la forma en que se presenta el suceso (por ejemplo, «escándalo político», «rescate legítimo» o «conexión con actores externos») y evaluar la creación de significados colectivos, en consonancia con los postulados de la teoría de las representaciones sociales (Moscovici, 1976, 1979). Se presta especial atención a la aparición de posturas inamovibles, propias del refuerzo de convicciones grupales (Farr, 1984, 1989). De este modo, el análisis cualitativo de la cobertura en prensa y la verificación de titulares, fechas y enfoques temáticos se articulará con la información proporcionada por análisis cuantitativo.
Con este proceso se dispone de un criterio sólido para distinguir las noticias objetivas de aquellas basadas en afirmaciones infundadas y, al mismo tiempo, se esclarece el rol de la prensa en la propagación de la desinformación, ya sea amplificando narrativas engañosas o pasando inadvertida a pesar de ofrecer información veraz. Por consiguiente, el método cualitativo adquiere los datos necesarios para complementar y corroborar los resultados cuantitativos.
En esta etapa, se persigue la identificación, cuantificación y caracterización de los contenidos potencialmente engañosos o sesgados, así como la delimitación de los grupos de usuarios más relevantes en la difusión de desinformación. Para ello, se emplea una aproximación sistemática que integra la teoría de grafos, la codificación semántica de los mensajes, el análisis exploratorio a través de técnicas de clustering y la inferencia bayesiana para estimar la probabilidad de que determinados tuits o usuarios promuevan narrativas falsas.
En primer lugar, se representa la red social X (antes Twitter) como un grafo relacional dinámico, en el cual cada nodo corresponde a un usuario y cada arista simboliza la transmisión temporal de mensajes (tuits, retuits, menciones). Dado que las interacciones se registran a lo largo de un eje cronológico, el grafo refleja la propagación de información de manera secuencial (Gamboa, 2023). Cada nodo se caracteriza por un conjunto de atributos —palabras clave, hashtags, enlaces— que aluden a la posible presencia de desinformación. Este enfoque relacional ofrece una lectura sistemática de la dinámica de publicación y retuit, asignando un peso probabilístico a la probabilidad de que el contenido sea engañoso o malintencionado.
Tras la conceptualización del grafo, se vectoriza cada mensaje con el fin de capturar sus dimensiones léxicas, semánticas y contextuales (Orozco et al., 2022). Dicha codificación comprende indicadores léxicos y sintácticos, metadatos de usuario y rasgos temporales. Esta vectorización multidimensional sienta las bases tanto para la clasificación de contenidos mediante algoritmos de clustering como para la modelización estadística posterior.
En la siguiente fase, se aplican algoritmos de clustering K-means y métodos de reducción de dimensionalidad para agrupar tuits con rasgos temáticos similares y delimitar subcomunidades de usuarios que comparten patrones afines de difusión (mismo uso de hashtags, intereses políticos, etcétera). Con el objeto de optimizar la calidad de la segmentación, se emplean métricas de entropía (Cicalese et al., 2019; Chen et al., 2013) que minimizan la diversidad interna y maximizan la diferencia entre clústeres (Krauskopf y Salgado, 2023). Este proceso, que arroja una representación preliminar de la estructura semántica y relacional de los mensajes, sienta las bases para examinar la influencia de cada grupo en la propagación de información potencialmente engañosa.
En este punto hay que destacar que el análisis cuantitativo tiene como foco la inferencia bayesiana, cuyo propósito es estimar la probabilidad de que un mensaje o usuario promueva campañas de informativas dirigidas a un marco conceptual concreto. Se asume un modelo de red bayesiana con dos características principales: dependencia secuencial —cada evento (tuit, retuit, mención) depende de los mensajes que lo preceden en el grafo, excluyendo la influencia simultánea de otros nodos coetáneos— y actualización continua, en la que, a medida que se incorporan nuevos datos (denuncias, verificaciones, patrones de interacción), se recalculan las probabilidades de engaño (Gamboa, 2023; Orozco et al., 2022). De este modo, no solo se cuantifica la probabilidad de que cada tuit sea engañoso, sino que también se obtiene un mapa dinámico de aquellos nodos (usuarios) que desempeñan un papel central en la difusión de narrativas falsas o tendenciosas.
Finalmente, debe tenerse en cuenta que los resultados son dependientes del momento en el que se hizo la captación de datos y las particularidades del modelo. Siguiendo los estándares para asegurar la replicabilidad en este tipo de modelos, así como la fiabilidad de los resultados, se usaron validaciones internas y externas, tal y como comentaremos más adelante. En el caso del algoritmo de clustering utilizado para agrupar mensajes según similitudes semánticas, se observó el decrecimiento de la curva de la varianza explicada para evaluar la coherencia interna de los grupos generados. Se estableció como número óptimo cuando la pendiente negativa de la curva pasaba a ser menos pronunciada, tal y como se hace habitualmente. El modelo bayesiano se planteó con un enfoque simple (Naive Bayes) y distribución a priori uniforme. Se consideró la independencia condicional entre variables textuales. La actualización de las probabilidades en los diferentes pasos del proceso se ejecutó mediante una base de entrenamiento etiquetada manualmente y se buscó siempre una proporción equilibrada entre mensajes informativos y desinformativos. Este procedimiento es ampliamente utilizado y ha demostrado su eficacia en análisis similares de difusión de información en redes sociales.
Para alcanzar los objetivos de esta investigación, se buscaron casos de controversia política que abarcaban una amplia variedad de temáticas, incluidas las de corrupción política y financiera, abuso de poder, tráfico de influencias, escándalos relacionados con ayudas públicas, políticas fiscales polémicas, manipulación en contextos de crisis y el uso de propaganda digital. La literatura especializada indica que este tipo de casos no solo recibe una cobertura mediática considerable, sino que también genera un alto nivel de atención pública, especialmente cuando se difunden a través de plataformas digitales y redes sociales. En estos entornos, la visibilidad de los escándalos se amplifica mediante mecanismos como la viralización, el uso de narrativas polarizadoras y la simplificación de los hechos (Berganza et al., 2024).
Además, se observa una tendencia de los medios a enfatizar aspectos sensacionalistas, con personalización de los casos en torno a figuras públicas, lo cual refuerza el interés informativo pero también puede distorsionar la comprensión del problema. Este fenómeno se inscribe en lo que diversos autores denominan la «era del escándalo político», caracterizada por un creciente interés académico en el análisis de cómo estos acontecimientos son comunicados y representados en los medios, y cómo impactan en la opinión pública, la confianza institucional y el comportamiento electoral (Berganza et al., 2023). Estos elementos se consideran clave para analizar la amplificación de narrativas para la manipulación de la opinión pública en redes sociales, como parte de estrategias de propaganda digital.
En este contexto, el caso de estudio elegido corresponde a la controversia generada en torno a las ayudas financieras otorgadas durante la pandemia de COVID-19 por el gobierno español a diversas empresas, especialmente la ayuda de 53 millones concedida a la aerolínea Plus Ultra, la cual atrajo una significativa atención mediática y desencadenó debates masivos tanto en medios tradicionales como en redes sociales. Este caso, iniciado en marzo de 2021 y cerrado cuando la justicia archiva el caso en enero de 2023, presenta un alto grado de repercusión mediática y resulta idóneo para poner en práctica las técnicas de modelización y análisis propuestas. En la primera etapa de la validación, se analizó de forma cualitativa si las noticias publicadas en diversos diarios ejercían un efecto de focalización temático —consistente con los postulados de la agenda setting— y si, ulteriormente, desencadenaban discusiones masivas en la red social X (antes Twitter).
Para ello, se realizaron búsquedas en Google Noticias y Google Web con la ecuación «ayudas AND Plus Ultra» y se filtraron las publicaciones comprendidas entre el 9 y el 20 de marzo de 2021. Se identificaron 40 noticias de 27 medios escritos, cuyo contenido se correspondía con el tema analizado tras un examen crítico de la información, reflejado en la Tabla 1. El fallo judicial definitivo, que descartó malversación de caudales públicos, cohecho, prevaricación y otros delitos, sirvió como referente objetivo para establecer qué proporción de noticias era fácticamente correcta frente a cuáles inducían a la desinformación. De este modo, se pudo constatar que el 21,95 % de las noticias seleccionadas presentaban datos objetivos y concordantes con la resolución judicial, mientras que el resto contenía enfoques tendenciosos o afirmaciones sin sustento probado.
Tabla 1. Medios de comunicación que participaron en el caso político.
Diario |
Fecha |
Hora |
Titular |
Diario |
Fecha |
Hora |
Titular |
Diario.es |
9/3/21 |
15:06 |
El Gobierno rescata a Duro Felguera y la aerolínea Plus Ultra con 173 millones |
Clarín |
17/3/21 |
06:00 |
El rescate de Plus Ultra, una compañía aérea vinculada al círculo íntimo de Nicolás Maduro, complica al gobierno de España |
EuropaPress |
9/3/21 |
15:26 |
El Consejo de Ministros aprueba un rescate de 53 millones de euros para la aerolínea Plus Ultra |
ABC |
17/3/21 |
09:01 |
Los vuelos de Plus Ultra a Venezuela los organiza el Consulado español |
El Confidencial |
9/3/21 |
16:08 |
El Gobierno aprueba ayudas de 120 M a Duro Felguera y de 53 M a la aerolínea Plus Ultra |
La Rázon |
17/3/21 |
18:14 |
La aerolínea Plus Ultra es “estratégica”, española y cumple los criterios para recibir ayudas |
El Periódico |
9/3/21 |
17:25 |
El Gobierno aprueba ayudas para Duro Felguera y a aerolínea Plus Ultra |
El Mundo |
17/3/21 |
22:34 |
Plus Ultra opera solo el 0,03% de los vuelos en España y recibe el rescate récord del Estado: 150.000 euros por empleado |
El País |
9/3/21 |
18:53 |
El Consejo de Ministros también da luz verde a una ayuda de 53 millones para la aerolínea Plus Ultra |
Preferente |
17/3/21 |
Plus Ultra se defiende de las críticas por vínculos chavistas |
|
Vozpópuli |
10/3/21 |
04:45 |
El Gobierno rescata una aerolínea 'venezolana' conectada con el chavismo |
FactoresPoder |
17/3/21 |
Plus Ultra: la aerolínea española que vincula a enchufados venezolanos con el gobierno español |
|
BancaNegocios |
10/3/21 |
08:39 |
Gobierno español rescata a aerolínea vinculada al chavismo al invertir más de US$63 millones |
Vozpópuli |
17/3/21 |
18:29 |
El PP pregunta al Gobierno por los vínculos de Plus Ultra con la aerolínea pública chavista |
Libre Mercado |
10/3/21 |
12:41 |
El Gobierno rescata con 53 millones a una aerolínea conectada con el chavismo |
P. Digital |
18/3/21 |
09:52 |
|
La Información |
11/3/21 |
04:30 |
La 'conexión Caracas' del fondo SEPI: de Plus Ultra a Duro Felguera y Zapatero |
Información |
18/3/21 |
12:08 |
Qué es Plus Ultra, la aerolínea del polémico rescate que bloquea la Justicia |
ABC |
11/3/21 |
Polémica por el rescate de Plus Ultra, una aerolínea sin apenas vuelos vinculada al chavismo |
Libre Mercado |
18/3/21 |
14:27 |
¿Estratégica y viable? Plus Ultra, la compañía de un solo avión vinculada al chavismo que rescata el Gobierno |
|
Vozpópuli |
12/3/21 |
04:45 |
Un empresario cercano a Delcy Rodríguez compartió sede en España con Plus Ultra |
El Nacional |
18/3/21 |
16:38 |
La compañía aérea rescatada por Sánchez al ser "estratégica" solo tiene un avión |
Libertad Digital |
12/3/21 |
11:31 |
El PP carga contra el rescate a la aerolínea "bolivariana" Plus Ultra |
20 Minutos |
18/3/21 |
17:23 |
La polémica 'Plus Ultra': una aerolínea de cuatro aviones, 53 millones de rescate y acusaciones de cercanía al chavismo |
Vozpópuli |
13/3/21 |
04:45 |
Los dueños de Plus Ultra figuran como directivos de empresas en paraísos fiscales |
El Mundo |
18/3/21 |
19:38 |
Mario Cortés (PP): "Detrás del rescate de Plus Ultra hay alianzas estratégicas con el Gobierno de Maduro" |
El Español |
14/3/21 |
03:29 |
De quebrar Air Madrid a acumular demandas: así es Plus Ultra, la aerolínea rescatada por el Gobierno |
El político |
18/3/21 |
Rescate de Plus Ultra… ¿Pareja de Delcy Rodríguez involucrada con esta aerolínea? |
|
El Confidencial |
14/3/21 |
El PP recurre el pago a Plus Ultra y pide hipotecar sus naves para evitar daño al erario |
Las Provincias |
19/3/21 |
01:23 |
Los turbulentos vuelos de Plus Ultra |
|
Vozpopuli |
14/3/21 |
04:45 |
El oscuro magnate que conecta Plus Ultra y Zara en Venezuela |
OkDiario |
04:55 |
Iberia cubre las rutas de Plus Ultra y desmonta la tesis de Calviño sobre su «rescate estratégico» |
|
El Confidencial |
15/3/21 |
15:01 |
Ábalos se desvincula del rescate de Plus Ultra aunque intervino en el de Air Europa |
Libre Mercado |
19/3/21 |
09:04 |
Ryanair llevará el rescate de Plus Ultra al Tribunal General de la UE |
El Pais |
16/3/21 |
00:30 |
La polémica de Plus Ultra: el Gobierno rescató a la aerolínea para asegurar los vuelos de los migrantes latinoamericanos |
El Economista |
20/3/21 |
07:00 |
El único avión de Plus Ultra solo ha hecho un vuelo a Venezuela este año |
El Mundo |
16/3/21 |
17:46 |
Los cuatro aviones 'chatarra' (de ricos 'bolichicos' venezolanos) por los que España paga 53 millones |
Galicia Press |
20/3/21 |
14:48 |
El PP pide que el Congreso "controle" las ayudas a empresas tras el rescate a Plus Ultra, aerolínea "vinculada a Maduro" |
El Economista |
16/3/21 |
19:21 |
La aerolínea rescatada Plus Ultra se financió de forma 'opaca' desde Panamá |
El Correo |
20/3/21 |
Más allá (Plus Ultra) del escándalo |
Fuente: elaboración propia a partir de los titulares de los diarios en línea.
La Tabla 1 recoge los principales titulares publicados en medios online, junto con la fecha y hora de su difusión. El análisis preliminar reveló que, aunque los diarios iniciaron la cobertura el 9 de marzo, muchas de estas noticias con datos objetivos pasaron desapercibidas en redes sociales (véase la Tabla 2). Este hallazgo sugiere la relevancia del factor inmediatez y de la selección temática en la formación de la agenda: las informaciones más polémicas o sesgadas alcanzaron un impacto significativamente mayor, coherente con la teoría de la posverdad y la orientación de la atención pública. Los términos más frecuentes en este conjunto de titulares de prensa son: «rescate» (20 %), «Plus Ultra» (18 %), «chavismo» (10 %), «aerolínea» (9 %), «Gobierno» (7 %), «Venezuela» (5 %), «polémica» y «avión» (4 %), y «alianzas», «Maduro» y «España» (3 %). El conjunto de otras palabras representa el 13 % restante.
Tabla 2. Tendencia en Twitter de la etiqueta Plus Ultra.
Fecha |
10/03/21 |
11/3/21 |
18/3/21 |
19/3/21 |
||||
Hora |
Posición |
Menciones |
Posición |
Menciones |
Posición |
Menciones |
Posición |
Menciones |
6:00 |
33 |
>10 k |
41 |
19,4k |
||||
7:00 |
4 |
>10k |
7 |
20,5k |
18 |
59,8k |
||
8:00 |
6 |
>10 k |
35 |
31.0 k |
3 |
24,6k |
9 |
57,4k |
9:00 |
10 |
>10 k |
20 |
27,4k |
2 |
28,9k |
12 |
55,6k |
10:00 |
13 |
>10 k |
24 |
25,2k |
3 |
32,9k |
15 |
54,7k |
11:00 |
17 |
10,8 k |
28 |
23,4k |
3 |
36,5k |
26 |
53,7k |
12:00 |
out 50 |
31 |
22,3k |
6 |
40k |
21 |
10k |
|
13:00 |
39 |
21,4k |
8 |
43,2k |
Out 50 |
|||
14:00 |
out 50 |
9 |
45,9k |
|||||
15:00 |
8 |
48,4k |
||||||
16:00 |
10 |
50,7k |
||||||
17:00 |
14 |
52,3k |
||||||
18:00 |
25 |
53,8k |
||||||
19:00 |
38 |
55 |
||||||
20:00 |
Out 50 |
|||||||
Fuente: elaboración propia.
La segunda fase del estudio se basó en la recolección y análisis cuantitativo de tuits relacionados con la ecuación «ayudas AND Plus Ultra». En línea con la metodología propuesta, se aplicó un enfoque de aprendizaje automático no supervisado que integró técnicas de clustering y la asignación latente de Dirichlet (LDA). A partir de la búsqueda propuesta se realizó la recuperación de datos de X (antes Twitter) y se monitorizaron tendencias surgidas en España entre el 9 y el 20 de marzo de 2021, periodo que coincidía con la aparición del caso en la prensa escrita. El hashtag “#PlusUltra” se identificó como el principal término de agrupación temático. La Tabla 2 muestra las posiciones y menciones de dicha etiqueta en la lista de tendencias. Se evidencia una escalada notoria a partir del 10 de marzo, coincidente con la publicación de informaciones más controvertidas en medios digitales.
Se contrastaron las fechas y horas de publicación en prensa (Tabla 1) con la aparición de picos de interés en la red X. La publicación de noticias en diferentes medios provocó que la etiqueta «Plus Ultra» alcanzara un impacto muy relevante, pues llegó a ser trending topic en España durante 15 horas el día 18 de marzo y generando un volumen de 552,1k de interacciones. En este sentido, se puede establecer que las temáticas publicadas por los medios de comunicación tradicionales coinciden en temática y tiempo con el inicio de los debates en Twitter con mayor impacto, como se desprende al analizar las horas de publicación de las noticias en comparación con las horas de inicio de los trending topics. Ello confirma, en el plano cualitativo, que la prensa escrita constituyó un catalizador de la conversación en redes, lo cual materializa los supuestos de agenda setting sobre la relevancia temática.
Para el clustering y análisis semántico se recopilaron 61 840 tuits de 28 103 usuarios únicos para el periodo mencionado. Tras el procesamiento semántico y la aplicación de LDA (Blei et al., 2003), se obtuvieron 11 agrupaciones temáticas, donde cada tuit quedó asignado a un clúster con base en su contenido vectorizado (por ejemplo, palabras clave, menciones y etiquetas).
Tras el análisis cualitativo, se llevó a cabo el proceso matemático de inferencia bayesiana descrito en la metodología. Con base en la identificación de clústeres, se asignaron probabilidades previas a la hipótesis de que determinadas publicaciones constituían desinformación, ajustando continuamente dichas probabilidades mediante la observación de retuits, menciones y nuevas publicaciones. Cada tuit o usuario recibió una probabilidad previa en función de indicadores de fiabilidad (por ejemplo, existencia de datos verificados o concordancia con la sentencia judicial). A medida que surgieron nuevas interacciones y evidencias (por ejemplo, denuncias de otros usuarios o contrastes con medios de verificación), se recalculó la probabilidad de que un contenido perteneciera a una narrativa falsa o manipulada, lo cual permitió establecer un diagrama de relaciones entre usuarios y clústeres para estimar la fuerza de influencia de cada grupo. Los clústeres en los que la probabilidad de contenido engañoso sobrepasaba un umbral preestablecido indicaban focos de posible manipulación. La Tabla 3 refleja cómo se agruparon los tuits en torno a diversas dimensiones y muestra a la vez el volumen de usuarios y el interés suscitado por cada grupo. Este enfoque se alinea con la aproximación descrita en la metodología, que integra técnicas de inteligencia artificial para segmentar y clasificar mensajes relacionados con la desinformación.
Tabla 3. Impacto de tweets según los grupos temáticos.
Grupos temáticos |
Interés |
Usuarios |
Gobierno-ayuda-aerolínea |
0.1365 |
46982 |
Relaciones Venezuela-España |
0.2036 |
21276 |
Ayuda-Empleo-España |
0.2041 |
11989 |
Periódicos-Venezuela-Gobierno |
0.2083 |
25168 |
Subida-Impuestos-Política |
0.2150 |
19348 |
Solicitud-Investigación-Ayuda |
0.2184 |
42131 |
Solicitud-Justicia-Malversación |
0.2215 |
46855 |
Fuente: elaboración propia
Además se profundizó en el análisis al introducir la variable temporal, como se puede apreciar en el Gráfico 2, que muestra la actividad en Twitter del caso estudiado a lo largo de 7 meses, con picos en ciertos meses y una disminución gradual en otros. Esta información subraya la necesidad de investigar la configuración de la opinión pública más allá de los momentos de mayor actividad, pues el impacto informativo no es un fenómeno puntual, sino que puede transformarse y manipular la opinión pública a lo largo del tiempo, según los objetivos de quienes la generan. En general, estos resultados ilustran la utilidad del análisis de redes sociales para comprender la dinámica de la opinión pública en torno a temas de interés social y político.
Gráfico 2. Impacto de tweets según los grupos de usuarios.

Fuente: elaboración propia
La combinación de análisis cualitativo a partir de la identificación de temas y verificación judicial y cuantitativo con técnicas de clustering basado volúmenes de interacciones permitió corroborar la vinculación entre las noticias publicadas en prensa y el aumento de la discusión en la red social. Asimismo, la metodología evidenció la facilidad con que las narrativas sesgadas ganan relevancia, especialmente en torno a asuntos políticos controvertidos, por lo que se valida la importancia de los postulados de la agenda setting y las representaciones sociales en la propagación de la desinformación.
Los resultados del modelo apoyan la efectividad de la aproximación bayesiana para diferenciar entre contenido simplemente erróneo y campañas de desinformación deliberadas; para cuantificar el papel de determinados «nodos» o usuarios altamente activos en la propagación de narrativas sesgadas (Lewandowsky et al., 2012), y para comprobar la relevancia de la prensa escrita como punto de partida de la discusión, confirmado por el salto en menciones tras la publicación de noticias polémicas.
Aunque los resultados obtenidos validan en gran medida el marco metodológico, conviene señalar algunas limitaciones. En primer lugar, la muestra y el horizonte temporal pueden condicionar las conclusiones y el grado de generalización. Asimismo, la calidad de los datos recolectados influye directamente en la eficacia del enfoque. Pese a estos condicionantes, el análisis mixto empleado se presenta como una estrategia sólida para detectar, clasificar y mitigar la desinformación, así como para comprender la interacción entre medios tradicionales y redes sociales en la configuración de la opinión pública.
En definitiva, el estudio demuestra que la inmediatez y el gran alcance de las redes sociales no han alterado la naturaleza de los procesos descritos por las teorías clásicas de la comunicación, sino que los han acelerado y expandido. Esto exige marcos analíticos cada vez más sofisticados que combinen la revisión conceptual con herramientas tecnológicas avanzadas, de manera que se puedan comprender cabalmente las consecuencias de la desinformación y, en última instancia, proponer soluciones efectivas para mitigar su impacto en la sociedad.
Así, nuestro planteamiento presenta sin duda algunas limitaciones metodológicas, pero tiene la ventaja de ser fácilmente interpretable por cualquier analista, lo que facilita la transparencia del proceso y la estimación por parte de cualquier lector conocedor del problema de la posible fiabilidad de los resultados. Por ejemplo, la recolección de datos se vio condicionada por el uso de términos de búsqueda específicos y por las restricciones de acceso impuestas por las plataformas de origen (Twitter, medios digitales), lo que puede haber introducido sesgos en el muestreo y limitar la representatividad de la muestra, como es habitual en este tipo de estudios. La opción de priorizar los mensajes mas visibles en la red, de manera manual o automática, también puede ser metodológicamente un problema, pues puede haberse excluido contenido marginal o no consolidado aún que podría ser fundamental para el proceso de desinformación. Estos factores podrían influir en que, en realidad, se esté limitando mucho la diversidad semántica de los mensajes, lo cual afectaría a su validez interna y podría restringir la posible generalización de los resultados a otros contextos.
Aunque limitantes, estos hechos forman parte de los riesgos habituales del análisis de difusión de la información. Nuestra metodología podría ser mejorada en futuras investigaciones con la incorporación de modelos probabilísticos más robustos, como pueden ser los modelos bayesianos jerárquicos o enfoques basados en deep learning en contextos semánticos (por ejemplo, transformers en el procesamiento del lenguaje natural), que quizá permitirían analizar con mayor precisión la complejidad de los discursos desinformativos. También se podría incluir algún tipo de procedimiento de triangulación en el que se utilizaran otros conjuntos de datos, preferiblemente provenientes de otras fuentes (noticias de periódicos u otras redes sociales), validando además mediante el análisis cualitativo los resultados que se fueran obteniendo, lo cual aseguraría su verosimilitud paso a paso.
Los resultados de este estudio reafirman la hipótesis inicialmente planteada: las noticias difundidas por medios escritos tradicionales pueden operar como un catalizador de los debates que surgen en redes sociales. Cuando dichos debates adquieren una gran magnitud, se configura un ambiente propicio para la aparición de grupos de opinión que a menudo se basan en información sesgada o directamente falsa. Esta constatación se alinea con las teorías clásicas de la agenda setting (McCombs, 1996; McCombs y Shaw, 1972) y las representaciones sociales (Moscovici, 1976, 1979), cuya vigencia en entornos digitales se ve amplificada por la velocidad y el volumen de la interacción en plataformas sociales. Estudios recientes, como los de Santana y Cánepa (2019), evidencian cómo los medios tradicionales interactúan con redes sociales para amplificar contenidos desinformativos, proceso en el que cabe destacar la influencia de la agenda setting.
La investigación no se centra en la verificación puntual de contenidos, sino que enfatiza la medición y cuantificación de temáticas, identificación de usuarios afectados y la detección de patrones que fomentan la propagación de información (Nicasio-Varea, 2023). Este enfoque es reforzado con modelos bayesianos para analizar la difusión y el arraigo de las noticias en las redes sociales, iniciadas a menudo por los medios tradicionales (Calvo y Aruguete, 2020). Además, se subraya la relevancia de estrategias que promuevan una opinión pública informada y participativa mediante alfabetización mediática y el desarrollo de tecnologías más precisas para la detección de manipulación informativa. Los datos corroboran la existencia de un fuerte vínculo entre la publicación de noticias en medios tradicionales y la repercusión que dichas noticias tienen en redes sociales, particularmente en X. Se evidenció que la información publicada con mayor carga emocional o controversia incrementa la intensidad del debate online, en consonancia con las teorías de la agenda setting, según las cuales los medios desempeñan un papel central para jerarquizar temas y dirigir la atención de la audiencia (Carazo, 2020; McCombs y Shaw, 1972; Tran, 2014).
Este trabajo subraya cómo en casos mediáticos los medios tradicionales funcionan como iniciadores de narrativas que luego son amplificadas en redes sociales, de manera que se crean ciclos de retroalimentación mediática (Molina, 2022). El caso estudiado ilustra de forma elocuente este fenómeno: mientras que las publicaciones objetivas iniciales no despertaron mayor respuesta en redes, las informaciones más tendenciosas, aparecidas a partir del 10 de marzo, detonaron un volumen sustancialmente más alto de menciones y discusiones, lo cual conforma un ciclo de retroalimentación mediático. Este hallazgo resalta la capacidad de los medios para influir en los temas de interés público y la importancia de abordar su impacto en la configuración de la opinión.
Los resultados muestran que la mayoría de mensajes generados están provocados por contenidos sesgados o difícil de contrastar de manera rápida, lo que confirma la facilidad con la que circula la desinformación en entornos digitales de alta inmediatez. El enfoque computacional posibilitó agrupar y clasificar estos mensajes en siete dimensiones temáticas distintas, lo que contribuye a una visión estructurada de la conversación en línea. Este enfoque está alineado con el trabajo de Valeria (2021), quien demuestra la utilidad del teorema de Bayes en la clasificación de noticias falsas a partir de factores como la hora de publicación, la intensidad de los retuits o la semántica de los mensajes. De esta forma, no solo se han identificado grupos temáticos claramente vinculados a la desinformación, sino que también se han delineado grupos de opinión que potencian dichas narrativas.
La tercera pregunta de investigación se centraba en la potencialidad del modelo bayesiano para identificar, además de la propagación de información con intereses políticos y sociales, los grupos de usuarios que pudieran ser blanco de dichas campañas. De acuerdo con los datos, el 78 % de las interacciones de la muestra estaban ligadas a noticias falsas, lo que refuerza la hipótesis de que ciertos usuarios podrían estar sobreexpuestos a narrativas sesgadas. El modelo propuesto, al incorporar información contextual (perfil de usuario, contenido del mensaje, momento de publicación) y probabilidades condicionadas, construye un árbol de inferencia que revela la intensidad de la influencia entre clústeres y usuarios (Haupt et al., 2021).
Este hallazgo se apoya en los análisis de Calvo y Aruguete (2020), quienes resaltan cómo los métodos bayesianos permiten identificar patrones de contagio informativo y nodos clave en la propagación de desinformación. A diferencia de enfoques puramente descriptivos, el método aquí propuesto actualiza continuamente la probabilidad posterior en función de nueva evidencia, lo que permite reaccionar con mayor inmediatez ante brotes desinformativos. Este hallazgo también es respaldado por Molina (2022), quien analiza cómo las redes sociales amplifican mensajes con alta carga emocional y contribuyen a la polarización.
Además de cumplir con los objetivos planteados, la presente investigación abre nuevas vías para el estudio de la propagación de información para la polarización social. Por un lado, se destaca la relevancia de formar a analistas forenses de información para profundizar en el impacto social, económico y político que generan estas campañas (Lewandowsky et al., 2012). Por otro, resulta esencial establecer indicadores estandarizados de desinformación, de tal manera que el modelo bayesiano —u otras aproximaciones cuantitativas— disponga de criterios unificados para asignar probabilidades de veracidad o manipulación a los contenidos compartidos. Este esfuerzo de estandarización y formación podría, a su vez, sentar las bases para una estimación más robusta del daño provocado por la diseminación de noticias engañosas (Pichel, 2023). Este tipo de investigaciones también puede ser clave para desarrollar herramientas más precisas en la detección y clasificación de la propagación de contenidos tendenciosos a colectivos claramente caracterizados en redes sociales.
Estudio apoyado por el Observatorio Valenciano de Datos Abiertos y Transparencia Generalitat Valenciana y la Universidad Politécnica de Valencia, Línea presupuestaria 2022 de la Generalitat Valenciana: S8333000. Financiado por la Generalitat Valenciana PROMETEO CIPROM/2023/32.
Conceptualización |
Ideas; formulación o evolución de los objetivos y metas generales de la investigación. |
Autores 1, 2 y 3 |
Curación de datos |
Actividades de gestión para anotar (producir metadatos), depurar datos y mantener los datos de la investigación (incluido el código de software, cuando sea necesario para interpretar los propios datos) para su uso inicial y su posterior reutilización. |
Autores 2 y 4 |
Análisis formal |
Aplicación de técnicas estadísticas, matemáticas, computacionales u otras técnicas formales para analizar o sintetizar datos de estudio. |
Autores 1, 2 y 3 |
Adquisición de fondos |
Adquisición del apoyo financiero para el proyecto que conduce a esta publicación. |
Autores 1, 2 |
Investigación |
Realización de una investigación y proceso de investigación, realizando específicamente los experimentos, o la recolección de datos/evidencia. |
Autores 1 y 4 |
Metodología |
Desarrollo o diseño de la metodología; creación de modelos. |
Autores 1, 2 y 3 |
Administración del proyecto |
Responsabilidad de gestión y coordinación de la planificación y ejecución de la actividad de investigación. |
Autores 1 y 2 |
Recursos |
Suministro de materiales de estudio, reactivos, materiales, pacientes, muestras de laboratorio, animales, instrumentación, recursos informáticos u otras herramientas de análisis. |
Autores 3 y 4 |
Software |
Programación, desarrollo de software; diseño de programas informáticos; implementación del código informático y de los algoritmos de apoyo; prueba de los componentes de código existentes. |
Autores 3 y 4 |
Supervisión |
Responsabilidad de supervisión y liderazgo en la planificación y ejecución de actividades de investigación, incluyendo la tutoría externa al equipo central. |
Autores 1 y 2 |
Validación |
Verificación, ya sea como parte de la actividad o por separado, de la replicabilidad/reproducción general de los resultados/experimentos y otros productos de la investigación. |
Autores 1 y 3 |
Visualización |
Preparación, creación y/o presentación del trabajo publicado, específicamente la visualización/presentación de datos. |
Autores 3 y 4 |
Redacción / Borrador original |
Preparación, creación y/o presentación del trabajo publicado, específicamente la redacción del borrador inicial (incluyendo la traducción sustantiva). |
Autores 1, 2 y 3 |
Redacción / Revisión y edición |
Preparación, creación y/o presentación del trabajo publicado por los miembros del grupo de investigación original, específicamente revisión crítica, comentario o revisión, incluidas las etapas previas o posteriores a la publicación. |
Autores 1, 2, 3 y 4 |
En este artículo, se ha utilizado la inteligencia artificial desarrollada por el grupo de investigación Open Future Labs, una tecnología propia diseñada para el cálculo de proyecciones, relaciones semánticas y embeddings. Gracias a esta inteligencia artificial, se ha logrado proponer un modelo que permite agrupar y clasificar mensajes de forma automática.
Amedie, J. (2015). The impact of social media on society. Pop Culture Intersections, (2). https://scholarcommons.scu.edu/engl_176/2
Bernal-Triviño, A. y Clares-Gavilán, J. (2019). Uso del móvil y las redes sociales como canales de verificación de fake news. El caso de Maldita.es. El Profesional de la Información, 28(3). https://doi.org/10.3145/epi.2019.may.12
Berganza R., Herrero Jiménez B. y Ortiz-González A. (2024). Teoría y práctica de la corrupción: triangulación metodológica sobre la opinión de los periodistas acerca de los escándalos y su cobertura real. Estudios sobre el Mensaje Periodístico, 30(4), 793-815. https://doi.org/10.5209/emp.96913
Berners-Lee, T. (2017). La web está bajo amenaza. Únete a nosotros y lucha por ello. World Wide Web Foundation. https://webfoundation.org/2017/03/web-turns-28-letter
Blei, D. M., Ng, A. Y. y Jordan, M. I. (2003). Latent Dirichlet Allocation. Journal of Machine Learning Research, 3, 993–1022. https://dl.acm.org/doi/pdf/10.5555/944919.944937
Blanco Herrero, D. (2023). El uso de la desinformación para propagar discursos de odio contra personas migrantes y refugiadas en redes sociales. [Tesis doctoral]. Universidad de Salamanca. https://doi.org/10.14201/gredos.156044
Blanco Herrero, D., Arcila Calderón, C. y Tovar Torrealba, M. (2024). Pandemia, politización y odio: características de la desinformación en España. Estudios sobre el Mensaje Periodístico, 30(3), 503–515. https://doi.org/10.5209/emp.96593
Blasco Fontecilla, H. (2021). El impacto de las redes sociales en las personas y en la sociedad: redes sociales, redil social, ¿o telaraña? Tarbiya, Revista de Investigación e Innovación Educativa, 49. https://doi.org/10.15366/tarbiya2021.49.007
Cabezuelo-Lorenzo, F. y Manfredi, J. L. (2019). Posverdad, fake news y agenda política en el discurso de Trump en Twitter. Historia y Comunicación Social, 24(2), 471–483. https://doi.org/10.5209/hics.66291
Calvo, E. y Aruguete, N. (2020). Fake News, trolls y otros encantos: cómo funcionan (para bien y para mal) las redes sociales. Siglo XXI Editores.
Chen, B., Zhu, Y., Hu, J. y Príncipe, J. C. (2013). System Identification Based on Mutual Information Criteria En System Parameter Identification. Academic Press. https://doi.org/10.1016/B978-0-12-404574-3.00006-3
Cicalese, F., Laber, E. y Murtinho, L. (2019). New results on information theoretic clustering. Proceedings of the 36th International Conference on Machine Learning. In Proceedings of Machine Learning Research 97: 1242-1251. https://proceedings.mlr.press/v97/cicalese19a.html
Da Empoli, G. (2020). Los ingenieros del caos. Anaya.
Farr, R. M. (1984). Representaciones sociales: su papel en el diseño y ejecución de experimentos de laboratorio. En S. Moscovici (Ed.), Representaciones sociales (pp. 125–147). Academic Press.
Farr, R. M. (1989). La naturaleza social y colectiva de las representaciones. En J. Forgas y J. M. Innes (Eds.), Recent advances in social psychology: An international perspective (pp. 575–593). Elsevier.
Fontana, W. (2021). La desinformación en el actual contexto informativo. El caso de la pandemia del COVID-19. Uru: Revista de Comunicación y Cultura, 4, 146–163. https://doi.org/10.32719/26312514.2021.4.3
Fontenla-Pedreira, J., Rúas-Araújo, J. y Puentes-Rivera, I. (2020). El debate electoral de las elecciones generales del 10N de 2019 en las redes sociales de RTVE. El Profesional de la Información, 29(6). https://doi.org/10.3145/epi.2020.nov.03
Freedman, D. (2018). Populism and media policy failure. European Journal of Communication, 33(6), 604-618. https://doi.org/10.1177/0267323118790156
Goffman, E. (1974). Frame Analysis. Harvard University Press.
Grandvalet, Y. y Bengio, Y. (2004). Semi-supervised Learning by Entropy Minimization. Adv. Neural Inform. Process. Syst.. 17. https://papers.nips.cc/paper/2004/file/96f2b50b5d3613adf9c27049b2a888c7-Paper.pdf
Guo, L. (2012). The Application of Social Network Analysis in Agenda Setting Research: A Methodological Exploration. Journal of Broadcasting & Electronic Media, 56(4), 616–631. https://doi.org/10.1080/08838151.2012.732148
Haupt, M. R., Jinich-Diamant, A., Li, J., Nali, M. y Mackey, T. K. (2021). Characterizing Twitter user topics and communication network dynamics of the “Liberate” movement during COVID-19 using unsupervised machine learning and social network analysis. Online Social Networks and Media, 21, 100114. https://doi.org/10.1016/j.osnem.2020.100114
Jodelet, D. (1986). La representación social: fenómenos, concepto y teoría. En S. Moscovici (Ed.), Psicología Social II: Pensamiento y vida social. Psicología social y problemas sociales (pp. 469–494). Ediciones Paidós.
Lakoff, G. (2007). No pienses en un elefante. Editorial Complutense.
Lakoff, G. (2009). The Political Mind: A Cognitive Scientist’s Guide to Your Brain and Its Politics. Penguin Books.
Lara-Navarra, P., Falciani, H., Sánchez-Pérez, E. A. y Ferrer-Sapena, A. (2020). Gestión de la información en salud y medio ambiente: hacia un sistema automático para la detección de noticias falsas. International Journal of Environmental Research and Public Health, 17(3), 1066. https://doi.org/10.3390/ijerph17031066
Lewandowsky, S., Ecker, U. K. H., Seifert, C. M., Schwarz, N. y Cook, J. (2012). Misinformation and Its Correction: Continued Influence and Successful Debiasing. Psychological Science in the Public Interest, 13(3), 106–131. https://doi.org/10.1177/1529100612451018
Lopezosa, C., Vállez, M. y Guallar, J. (2024). La visión de Google News desde la academia: scoping review. Doxa Comunicación. Revista Interdisciplinar De Estudios De Comunicación Y Ciencias Sociales, 38, 317-332. https://doi.org/10.31921/doxacom.n38a1891
Martel, C., Pennycook, G. y Rand, D. G. (2020). Reliance on emotion promotes belief in fake news. Cognitive Research: Principles and Implications, 5(1), 47. https://doi.org/10.1186/s41235-020-00252-3
McCombs, M. (1996). Influencia de las noticias sobre nuestras imágenes del mundo. En J. Bryant y D. Zillman (Eds.), Los efectos de los medios de comunicación. Investigaciones y teorías (pp. 1–18). Paidós.
McCombs, M. y Shaw, D. (1972). The agenda-setting function of mass media. Public Opinion Quarterly, 36(2), 176–187. https://doi.org/10.1086/267990
Morales, I. M. (2022). Apuntes sobre ciberperiodismo y problemáticas conexas. Vida Digital, 273. Universidad Nacional Autónoma de México.
Moscovici, S. (1976). Influence sociale et changement social. Academic Press. https://doi.org/10.1002/ejsp.2420090410
Moscovici, S. (1979). El psicoanálisis, su imagen y su público. Huemul.
Moscovici, S. y Duveen, G. (2001). Social Representations: Explorations in Social Psychology. New York University Press.
Mula-Grau, J. y Cambronero-Saiz, B. (2022). Identificación de las fake news que se publican en la edición en papel de un diario provincial en la era de la desinformación digital de Trump y el inicio del COVID. Vivat Academia. Revista de Comunicación, 155. https://doi.org/10.15178/va.2022.155.e1329
Nicasio Varea, B., Pérez Gabaldón, M. y Chávez, M. (2023). Estrategias de comunicación divergentes: entre el rigor y la manipulación. Análisis comparativo de la comunicación política de Estados Unidos y España frente a la etapa inicial de la crisis del COVID-19. Revista Latina de Comunicación Social, 81, 275–296. https://doi.org/10.4185/RLCS-2023-1899
Orihuela, J. L. (2011). Mundo Twitter: Una guía para comprender y dominar la plataforma que cambió la red. Alienta Editorial.
Papacharissi, Z. (2010). A Networked Self: Identity, Community, and Culture on Social Network Sites. Routledge.
Pennycook, G. y Rand, D. G. (2021). The psychology of fake news. Trends in Cognitive Sciences, 25(5), 388–402. https://doi.org/10.1016/j.tics.2021.02.007
Postill, J. (2018). El auge de la política nerd: Activismo digital y cambio político. Pluto Press. https://doi.org/10.2307/j.ctv4ncp67
Rubio-García, R. (2014). Twitter y la teoría de la agenda-setting: Mensajes de la opinión pública digital. Estudios sobre el Mensaje Periodístico, 20(1), 249–264. https://doi.org/10.5209/rev_esmp.2014.v20.n1.45230
Rubio Hancock, J. (2017). De la red social a la burbuja social: Por qué todo el mundo te da la razón en Facebook. El País. https://verne.elpais.com/verne/2017/05/08/articulo/1494256354_211697.html
Rubio-Núñez, R. (2018). Los efectos de la posverdad en la democracia. Revista de Derecho Político, 1, 191–228. https://doi.org/10.5944/rdp.103.2018.23201
Rovira, G. (2017). Activismo en red y multitudes conectadas: Comunicación y acción en la era de Internet. Icaria Editorial.
Santiago-Guervós, J. (2020). La orientación ideológica en los medios de comunicación social y la eficacia persuasiva de la desinformación. Discurso & Sociedad, 14(1), 107–141. http://www.dissoc.org/es/ediciones/v14n01/DS14(1)SantiagoGuervos.pdf
Sunstein, C. R. y Vermeule, A. (2009). Conspiracy Theories: Causes and Cures. The Journal of Politic Philosophy, 17, 202–227. https://doi.org/10.1111/j.1467-9760.2008.00325.x
Timoteo-Álvarez, J. (2005). Gestión del poder diluido: La construcción de la sociedad mediática (1989–2004). Alhambra.
Timoteo-Álvarez, J. (2007). Neurocomunicación. Propuesta para una revisión de los fundamentos teóricos de la comunicación y sus aplicaciones industriales y sociales. Mediaciones Sociales, 1, 355-386. https://revistas.ucm.es/index.php/MESO/article/view/MESO0707110355A
Tran, H. (2014). Online agenda setting: A new frontier for theory development. En T. Johnson (Ed.), Agenda Setting in a 2.0 World. New Agendas in Communication. Routledge.
Treré, E. (2018). Activismo mediático híbrido: Ecologías, imaginarios, algoritmos. Routledge. https://doi.org/10.4324/9781315438177
Vargo, C. J. y Guo, L. (2017). Networks, Big Data, and Intermedia Agenda Setting: An Analysis of Traditional, Partisan, and Emerging Online U.S. News. Journalism & Mass Communication Quarterly, 94(4), 1031–1055. https://doi.org/10.1177/1077699016679976
Wardle, C. y Derakhshan, H. (2017). Information Disorder: Toward an Interdisciplinary Framework for Research and Policymaking. Council of Europe. https://rm.coe.int/information-disorder-toward-an-interdisciplinary-framework-for-researc/168076277c
Young, A. y Atkin, D. (2022). An agenda-setting test of Google News world reporting on foreign nations. Electronic News, 17(2), 113–132. https://doi.org/10.1177/19312431221106375
Zunino, E., Kessler, G. y Vommaro, G. (2022). Consumo de información en redes sociales en tiempos de pandemia: Evidencias del caso argentino. InMediaciones De La Comunicación, 17(1), 129–161. https://doi.org/10.18861/ic.2022.17.1.3231
Pablo Lara Navarra. Profesor Titular en la Universitat Oberta de Catalunya (UOC) y actualmente codirector del grupo Open Future Lab en la UOC/UPV. Con una trayectoria de más de 25 años de investigación, acreditada por AQU y ANECA, su enfoque es interdisciplinar y con una marcada vocación de transferencia en colaboración con empresas. Ha dirigido más de 20 proyectos de investigación competitivos y ha codirigido seis doctorados industriales. Destaca su participación en más de 100 congresos (como ponente, conferenciante invitado o ponente principal). Además, cuenta con más de 60 publicaciones, entre libros, actas de conferencias y artículos en revistas científicas nacionales e internacionales, que han contribuido a difundir la investigación realizada y a una extensa divulgación científica mediante la coordinación de foros, talleres, conferencias y cursos. ORCID: https://orcid.org/0000-0003-0595-3161
Antonia Ferrer Sapena. Catedrática de la Universidad Politécnica de Valencia. Licenciada en Geografía e Historia Contemporánea por la Universidad de Valencia (UV). Doctora en Técnicas y Métodos de Información y Documentación por la Universidad Politécnica de Valencia (UPV). Es directora de la Cátedra de Transparencia y Participación de la Consellería de Transparencia, Responsabilidad Social, Participación y Cooperación. Miembro del Grupo ThinkEPI: estrategia y prospectiva de la información. Su interés se centra en la investigación sobre datos abiertos y sus implicaciones en la empresa, la administración y la ciencia que aborda el proyecto de I+D del Ministerio de Economía y Competitividad Datasea, datos abiertos de investigación, open research data. Editora en España del repositorio de acceso abierto e-Lis, E-prints in library & information science. Actualmente centra sus trabajos de investigación en métricas de detección del fraude, aplicación del blockchain a la edición científica y a los datos abiertos. ORCID: https://orcid.org/0000-0001-6432-917X
Enrique A. Sánchez Pérez. Catedrático de la Universitat Politècnica de València desde 2011, donde inició su carrera científica como investigador en 1992. Estudió Matemáticas, Química y Filosofía en la Universitat de València. El tema principal que ha estudiado es Análisis Funcional, una rama de las matemáticas puras, en la que ha publicado más de un centenar de artículos. También ha desarrollado algunas colaboraciones con grupos de investigación en otras materias, como ciencias de la información, acústica, microbiología y ciencias de la salud. En la actualidad su principal actividad de investigación, además de los temas habituales de análisis matemático y topología, está relacionada con las técnicas matemáticas de las ciencias de la información, machine learning y optimización multiobjetivo. ORCID: https://orcid.org/0000-0001-8854-3154
Ana Coronado Ferrer. Arquitecta. Es experta en el análisis de la comunicación aplicada al área de diseño y animación 3D. Actualmente realiza los estudios de doctorado y ejerce como profesora en Florida Universitària en Catarroja (Valencia). ORCID: https://orcid.org/0009-0005-6489-3279