SciELO - Scientific Electronic Library Online

 
 número100O duplo encargo das professoras durante a pandemia: superar os desafios e o dilema entre carreira e famíliaDinâmicas de investigação nas universidades europeias: mudanças, tensões e possibilidades índice de autoresíndice de assuntosPesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

Links relacionados

  • Não possue artigos similaresSimilares em SciELO

Compartilhar


Sociologia, Problemas e Práticas

versão impressa ISSN 0873-6529

Sociologia, Problemas e Práticas  no.100 Lisboa dez. 2022  Epub 18-Fev-2023

https://doi.org/10.7458/spp202210025549 

Artigo Original

Astroturfing y debate político español desde las redes sociales: Un estudio de caso

Astroturfing e debate político espanhol nas redes sociais: um estudo de caso

Astroturfing and Spanish political debate from social networks: a case study

Astroturfing et débat politique espagnol à partir des réseaux sociaux: une étude de cas

Sergio Arce-García1  , Metodología, software, captura y curación de datos, redacción metodología y resultados, visualización de figuras
http://orcid.org/0000-0003-0578-9787

Elias Said-Hung2  , conceptualización, análisis formal, redacción introducción y conclusiones, bibliografía y revisión final
http://orcid.org/0000-0002-0594-5906

1 Universidad Internacional de la Rioja, La Rioja, España, E-mail: sergio.arce@unir.net

2 Universidad Internacional de la Rioja, La Rioja, España, E-mail: elias.said@unir.net


Resumen

El trabajo tiene como objetivos estimar el uso del astroturfing, como estrategia de promoción de debates políticos en España, a través de Twitter. Se recopilan y analizan un total de 89.528 tuits asociados al debate generado alrededor de las vacaciones del vicepresidente primero y ministra de igualdad del gobierno de España, Pablo Iglesias e Irene Montero, entre el 14 y el 20 de agosto de 2020. El caso estudiado permite ver un escenario político no electoral donde se expone mensajes basados en el astroturfing, y nano-influencers, capaces distribuir, amplificar e inundar redes sociales como Twitter, con contenido desinformativo y confrontativo.

Palabras-clave: redes sociales; debate político; manipulación; astroturfing.

Resumo

O objetivo do trabalho é estimar a utilização do astroturfing, como estratégia para promover debates políticos em Espanha, por meio do Twitter. Um total de 89.528 twits associados ao debate gerado em torno das férias do primeiro vice-presidente e da ministra da igualdade do governo da Espanha, Pablo Iglesias e Irene Montero, são coletados e analisados entre 14 e 20 de agosto de 2020. O caso estudado permite ver um cenário político não eleitoral onde mensagens baseadas em astroturfing e nanoinfluenciadores são expostas, capazes de distribuir, amplificar e inundar redes sociais, como o Twitter, com conteúdo desinformativo e confrontacional.

Palavras-chave: redes sociais; debate político; manipulação; astroturfing.

Abstract

The objective of the work is to estimate the use of astroturfing as a strategy to promote political debates in Spain through Twitter. A total of 89,528 twits associated with the discussion generated around the holidays of the First Vice President and the Minister of Equality of the Government of Spain, Pablo Iglesias, and Irene Montero, are collected and analyzed between August 14 and 20, 2020. The case studied allows seeing a non-electoral political scenario based on astroturfing and nano-influencers capable of distributing, amplifying, and flooding social networks such as Twitter, disinformative and confrontational content.

Keywords: social networks; political debate; manipulation; astroturfing.

Résumé

L’objectif du travail est d’estimer l’utilisation de l’astroturfing comme stratégie pour promouvoir les débats politiques en Espagne via Twitter. Un total de 89.528 twits associés à la discussion générée pendant les vacances du premier vice-président et de lá ministre de l’égalité du gouvernement espagnol, Pablo Iglesias et Irene Montero, sont collectés et analysés entre le 14 et le 20 août 2020. Le cas étudié permet de voir un scénario politique non électoral basé sur l’astroturfing et les nano-influenceurs capables de diffuser, d’amplifier et d’inonder les réseaux sociaux tels que Twitter, des contenus désinformatifs et conflictuels.

Mots-clés: réseaux sociaux; débat politique; manipulation; astroturfing.

Introducción

En los últimos años, el debate alrededor de las fake news, la desinformación y los contenidos desinformativos, han cobrado cada vez mayor peso, tanto a nivel académico como periodístico (Alfonso, Galera y Calvo, 2019). El escenario digital actual se ha convertido en un espacio especialmente importante, al momento de captar e influir en la opinión pública dispuesta en nuestras sociedades (Campos-Domínguez y Calvo, 2017). Se presentan entornos cada vez más caracterizados por un ecosistema comunicativo híbrido, en el que conviven medios tradicionales y digitales, al momento de llevar a cabo acciones de difusión por parte de actores políticos o sociales (López-García, 2016). Lo antes expuesto estaría favoreciendo la promoción de una cultura de la desinformación, en la que se promueve contenido falso creado intencionalmente para condicional o manipular la opinión pública, alrededor de un determinado tema o grupo social (Wardle y Derakshan, 2017).

El escenario digital actual se ha convertido en un espacio para captar e influir en la opinión pública (Campo Domínguez y Calvo, 2017). Las redes sociales se han convertido en nuevos contenedores de acceso inmediato a contenidos por parte de ciudadanos-usuarios (Casero-Ripollés, Feenstra y Tormey, 2016), los cuales crean un ambiente propicio para que estos se conviertan en ecos de resonancia de contenidos, muchas veces sin verificar (Van der Linden et al., 2017; Rodríguez Fernández, 2021). Este entorno favorece el avance y la transmisión de información falsa y contenidos desinformativos, destinados a favorecer la polarización de la opinión pública (Søe, 2018; Hrcková, et al., 2019; Levi, 2019).

Tanto en Twitter como en otras redes sociales (ej.: Facebook, Instagram o Tik Tok), la propagación de contenidos desinformativos se suele realizar de forma viral de diferentes formas (Kucharski, 2016), las cuales comienzan en distintas fases ya establecidas: la distribución, la amplificación y, por último, la inundación de espacios digitales como las redes sociales (Zhao et al., 2020). Una acción que estaría llevándose a cabo por micro y nano-influencers (por debajo de 100.000 y 10.000 seguidores respectivamente) (Wissman, 2018), y la capacidad de influencia que estos pueden generar, a causa de la mayor afinidad y fidelidad que tienen con sus seguidores, desde los temas que suelen ser tratados por estos (mayormente temas políticos y cultura-pop), abordados de forma humorística, emocional y vocabulario vulgar (Ong, Tapsell y Curato, 2019).

La estrategia empleada por los micro y nano-influencers se lleva a cabo desde lo que se ha dado en llamar como astroturfing, es decir, desde una acción comunicativa digital centrada en la espontaneidad y la libertad de expresión, hecha de forma organizadas y coordinada (Lits, 2020). Una estrategia destinada, principalmente, en la promoción de contenidos y temas, empleado en política, relaciones públicas y publicidad desde hace décadas (Sorensen, Andrews y Drennan, 2017), y que, con el auge de los escenarios digitales actuales ha cobrado un creciente uso e interés para la divulgación de contenido desinformativo (Elmas et al., 2019).

Bajo esta estrategia de difusión de contenidos desinformativos (astroturfing), los usuarios que lideran (alfa) no siguen la cuenta del cliente (influencers) para evitar ser detectados estos últimos, además de contar con un equipo de usuarios (no necesariamente bots, denominados beta) - quienes actúan de forma itinerante y con varias cuentas en redes sociales (en nuestro caso Twitter) asociadas a la vez -, encargados de: (1) contestar las diferentes interacciones generadas por los mensajes difundidos en este tipo de escenarios digitales; y (2) pasar el contenido desinformativo transmitido por los usuarios líderes (alfa) a usuarios influencers (ej.: periodistas y medios), con el propósito de generar tendencia (trending topics). Labores que sirven al monitoreo de la tasa de efectividad de la campaña de promoción de contenidos y temas de interés puesta en marcha por ambos perfiles de usuarios (alfas y betas), y que se hace a través de los diferentes small worlds o ultra-small-world, representados, el primero, por una alta densidad de pequeños grupos a los que los usuarios en las redes sociales suelen participar y que pueden tener una fuerte interconexión entre sí (Milgram, 1967; Himelboim et al., 2017); mientras que el segundo, se representa por una distancia más corta que lo observado en los small worlds, entre nodos que integran la red elaborada y promovida, a través de los mensajes publicados por determinados usuarios (Barabási, 2016; Menczer, Fortunato y Davis, 2020).

Aunque el astroturfing se ha usado desde hace décadas y su origen se enmarca en el período de la Segunda Guerra Mundial, el auge de los escenarios digitales de comunicación ha contribuido a su empleo y efectividad, desde seguidores asociados a cuentas creadas para compartir y reafirmar las creencias y las formas de pensamiento e ideología (Niño González, Barquero Cabrero y García García, 2017; Kovic et al., 2018).

Los mensajes creados y enmarcados en el astroturfing parten inicialmente desde contenidos dirigidos a un número determinado de usuarios, durante un marco de tiempo reducido. Algo que, posteriormente, es reforzado por mensajes compartidos por cuentas, controladas por humanos o por bots automatizados, encargados de detectar y monitorear el éxito o no de la campaña en las redes (Keller et al., 2019).

Existen organizaciones o grupos interesados en alcanzar la manipulación de la opinión pública desde las redes sociales, desde el uso activo de granjas de trolls o farm trolls, que tienen como objetivo la concreción del propósito expuesto en el párrafo anterior (Bradshaw y Howard, 2017). Ello, desde la diseminación intencional de información sarcástica y/o falsa, destinadas a promover las condiciones socio-comunicativas que favorecen la alteración del sentido de credibilidad colectiva online (Del Vicario et al., 2016), pero, sobre todo, intentar ocultar el interés en incidir en la opinión pública, mediante vectores neutros de discurso y otros métodos (Pérez Colomé, 2020). Algo, identificado por autores como Bastos y Marcea (2018), Golovchenko et al. (2020) o Santana y Huerta Cánepa (2019), durante el Brexit en el Reino Unido (2016), las elecciones de los Estados Unidos (2016), o las elecciones en Chile en (2017).

La existencia de empresas centradas en crear campañas de desinformación (basadas en el astroturfing), desde el uso masivo de trolls procedente de Filipinas o Macedonia del Norte, a través de redes sociales (ej.: Facebook, Instagram o Twitter), ha sido analizado por autores como Ong y Cabañes (2019) o Collins y Zadrozni (2020). Acciones que se llevan a cabo desde países sin regulación legislativa, ni políticas que luchen contra los contenidos desinformativos, y cuya experiencia e infraestructura podrían ser exportados hacia otros países, desviar la atención en debates políticos, desde la sobreexposición de temas directamente o no relacionados con estos (Mahtani y Cabato, 2019; Bengali y Halper, 2019).

Método

Este trabajo tiene como objetivos estimar hasta qué punto se está haciendo uso del astroturfing, como estrategia para la promoción de debates políticos en España, a través de Twitter. Además de identificar desde dónde se distribuyen, amplifican e inundan los espacios digitales con contenidos asociados a hechos o actores políticos en dicho país.

El abordaje del objetivo planteado en este trabajo se llevará a cabo desde el estudio de caso asociado al debate generado alrededor las vacaciones llevadas a cabo por el vicepresidente segundo del Gobierno de España, Pablo Iglesias, junto con su pareja, la ministra de Igualdad Irene Montero, durante el mes de agosto de 2020, en el Principado de Asturias, al norte de España. Un debate que trascendió la opinión pública en España, al generarse ataques desde las redes sociales (Sánchez, 2020), alrededor de la etiqueta #LaFascistaDeLaSole y mensajes asociados con palabras como “Iglesias AND Asturias”, directamente relacionados con dos momentos claves dentro del debate abordado como caso de estudio en este trabajo:

Durante la identificación y arribo de los ministros españoles al Principado de Asturias (España).

Cuando se ataca a la supuesta persona que ubicó e hizo público el lugar donde se encontraban estos ministros.

El trabajo parte de un enfoque cuantitativo de investigación, que toma como unidad de análisis la totalidad de los mensajes emitidos y capturados en Twitter, a través del software libre para estadística R bajo entorno RStudio (versión 1.2.5033) y aplicando la librería RTweet (Kearney, 2019).

La selección final de la muestra está integrada por 89.528 tuits publicados en lengua española por 42.584 usuarios, emitidos entre el 14 y el 20 de agosto de 2020 y que siguen la siguiente distribución de la muestra:

74.826 tuits publicados por 35.327 usuarios de Twitter, asociados a mensajes que cumplan el filtro que contengan las palabras “Iglesias AND Asturias”.

14.702 tuits por parte de 7257 usuarios de Twitter, asociados a la etiqueta hashtag #LaFascistadelaSole.

Una muestra que fue ordenada, de acuerdo con la geolocalización de los mensajes, mediante coordenadas de latitud, longitud y el radio de influencia. Una tarea que tomó en consideración el listado de países identificados como emisores de mensajes de desinformación en redes sociales, por autores como Bradshaw, Bailey y Howard (2021) y Collins y Zadrozni (2020).

La búsqueda geolocalizada de los países en que fueron emitidos los mensajes que integran la muestra tomada para el abordaje del tema considerado como caso de estudio aplicó la técnica de análisis geolocalizado de los tuits, empleada por autores como Holbrook et al. (2016), a través del uso de la API Mapbox geocoding.1 Pese a no lograrse una fiabilidad del 100%, en la identificación de los países emisores de los mensajes analizados, se cumple con los niveles de fiabilidad global media aplicado en otros estudios (Van der Veen et al., 2015), de 77,8%; alcanzando niveles superiores al antes expuesto, en países como Estados Unidos y Reino Unido (90%), España (85,8%) o Filipinas (83,9%).

Los resultados mostrados en este trabajo parten del análisis de redes (Hu, 2006; Blondel et al., 2008; Barabási, 2016), hecho a través de Gephi (versión 0.9.2). Lo que nos ayudará a observar las estructuras y relaciones entre las cuentas vinculadas a los tuits capturados, en los términos expuestos por Bastian, Heymann y Jacomy (2009).

La probabilidad de comportamiento bot de los usuarios asociados a los mensajes que integran la muestra estudiada, se hizo a través del uso de la librería experimental en R Tweetbotornot (Kearney, 2018), la cual tiene en consideración el historial de cada cuenta analizada, así como los mensajes emitidos a lo largo del tiempo y la naturaleza de sus perfiles. Este análisis logró alcanzar una media de acierto del 91,9%.

Se realiza, por último, un estudio de valencia o polarización positiva-negativa del discurso, así como de las emociones básicas mostradas en los mensajes. De esta forma se pretende determinar la percepción de un grupo de opinión ante unos hechos específicos (Fernández Vallejo, 2018). Para establecer tanto el sentido, positivo o negativo, y su intensidad, en esta investigación se atribuyó a través del léxico desarrollado por el National Research Council of Canada (NRC), versión 0.9.2 en su versión en castellano (Mohammad y Turney, 2012). Mediante la comparación de cada frase frente al léxico, centrado en nombres, adverbios y adjetivos, se le asigna un valor positivo o negativo de +1 o -1, que se ve amplificado o disminuido por adjetivos o adverbios, obteniendo un global del mensaje (Swati, Pranali y Pragati, 2015) y obtener una orientación semántica del conjunto (Taboada et al., 2011). Aprovechando el mismo léxico, que presenta atribuciones de las emociones básicas planteadas por Plutchik (1980): asco, alegría, tristeza, enfado, confianza, ira, anticipación y sorpresa, se atribuyeron valores para determinar su presencia en cada mensaje. Dichos estudios sobre las emociones fueron desarrollados posteriormente en la teoría de las inteligencias múltiples (Sautera et al., 2010). Todo este proceso se realizó mediante la librería Syuzhet en R, mediante técnicas de machine learning sobre grandes volúmenes de texto, con la limitación de que aunque está muy consolidado en lengua inglesa, presenta una eficacia menor, en torno al 70%, en lenguas latinas (Mohammad, 2016). Los gráficos fueron representados en R mediante la librería Ggplot2 en R.

Resultados

A pesar de que las primeras noticias, alrededor del tema estudiado, salieron en los principales medios de comunicación de prensa local de Asturias en España, el 15 y 16 de agosto de 2020 en la tarde (a partir de las 14 horas), el debate en Twitter se puede encontrar, con anterioridad en el tiempo, algunos tuits, publicados por cuentas asociadas a contenidos ideológicos de tendencia ultraderecha (con abundantes banderas de España en su perfil, así como uso de emblemas y colores verdes usados por el partido Vox).2 En los mismos se da cuenta de la presencia del vicepresidente primero Pablo Iglesias, y la ministra de Igualdad del gobierno de España, Irene Montero, en el pequeño pueblo de Felgueras (Asturias, España) (ver figura 1).

Nota: Tuits recabados el 14 de agosto de 2020 (a las 08:37), y el 15 de agosto de 2020, por los autores

Figura 1 Primeros tuits localizados que hablan del tema analizado  

A la derecha de la figura 1 se sitúa el tuit que es identificado, como el mensaje que realiza una ubicación exacta de la ubicación, emitido el 15 de agosto de 2020 a las 19:02 horas, por parte de la cuenta @_soledad_R.3 Este mensaje dará lugar a la etiqueta #LaFascistadelaSole, aparecida por primera vez el 17 de agosto a las 20:39 (horario peninsular español) (ID: 1295430014557663232) junto a la llamada o nombramiento de otras diez cuentas.

Primer momento de debate alrededor de los ministros

La figura 2, nos permite ver el análisis de clúster de los mensajes asociados con a mensajes con palabras como “Iglesias AND Asturias” (74.826 tuits publicados por 35.327 usuarios de Twitter), compuesto por 142 comunidades de usuarios distintas, con un valor de modularidad de 0,549. Entre dichas agrupaciones se pueden observar dos grandes conjuntos muy interrelacionados entre si internamente pero poco a nivel externo, siguiendo la formación de filtros burbuja destacada por Pariser (2011). A la izquierda de la figura 2, muestran los usuarios que apoyan a los ministros (con un tráfico del 36,8% del total de tuits); mientras que a la derecha se encuentran los grupos de usuarios (más numerosos), que critican a los ministros (con un tráfico del 45,4% del total de tuits). En general, el bloque a favor de los ministros mueve menos de un 40% de los tuits, mientras que los críticos movilizan más del 60% de los mensajes analizados.

Fuente. Elaborado por los autores

Figura 2 Grafo de tuits y representación en función del tiempo de ser bots alrededor de los mensajes com palabras como “Iglesias AND Asturias  

Alrededor de los mensajes asociados a mensajes con palabras como “Iglesias AND Asturias”, se aprecian reenvíos de mensajes emitidos por medios de comunicación y columnistas, empleados como fuentes conocidas entre los usuarios que se muestran a favor o en contra del debate considerado para el desarrollo del caso de estudio aquí expuesto. De esta forma, se detectan reenvíos de mensajes entre los favorables a los ministros de @eldiario.es, @JesusCintora, @rosamariaartal o @sextanoticias; mientras que, entre los que se mostraron críticos con estos, destacan los reenvíos de los diarios @abc_es y @okdiario. Además, se observa cómo, entre los que atacan a los ministros, hay un seguimiento mayor de usuarios desconocidos, con un rol de influenciadores del debate muy activo, en comparación con quienes mostraron una posición favorable a estos. Únicamente se encuentra como usuario conocido la cuenta de la diputada de Vox @Macarena_Olona.

La figura 2, también revela que los mensajes se concentran en determinados momentos. Al representar la probabilidad de comportamiento bot, frente al tiempo entre tuits directos y RT, los tuits primeros aparecen principalmente tras el mediodía del día 15 de agosto de 2020. Dos días después, (en el mediodía del 17 de agosto de 2020), se observa una fase de inundación de mensajes en Twitter en el que, inicialmente, los mensajes publicados apenas son marcados como favoritos, y no tienen casi o nula relación de agrupación social (valores de intermediación de valor cero o muy pequeño). Por lo que, estos mensajes fueron lanzados desde numerosas cuentas, sin conexión entre sí, sin una gran cantidad de seguidores y sin relación aparente de interés alrededor del tema.

A pesar de que pueden encontrarse en mensajes directos, numerosas cuentas con alta probabilidad de comportamiento bot (figura 3), la media global de todas estas se mantiene por debajo del 50% y no varía a lo largo del tiempo. En el caso de los RT, en cambio, puede apreciarse un aumento de la media de probabilidad de ser bot, por encima del 50%, con la llegada de la fase inundación, del 17 de agosto de 2020, y se reduce considerablemente a partir del 19 de agosto de 2020, después de haberse logrado la viralización alrededor del tema analizado.

El estudio de intermediación (tamaño del punto en la figura) de la figura 3, refleja que existen cuentas que relacionan y vertebran la red entre sí que, aunque son escasas, una gran parte de estas presentan una alta probabilidad de ser bot (incluso por encima del 80%), tantos en mensajes directos como RT. Por tanto, las cuentas que conforman la red, alrededor de los mensajes, asociados con palabras como “Iglesias AND Asturias”, son principalmente sospechosas de comportamiento bot.

El análisis de geolocalización nos muestra diferentes ubicaciones desde donde fueron publicados los 74.826 tuits analizados. Pese a que el 30% de estos tuits no lograron identificarse el país de procedencia, 26.305 tuits fueron publicados desde España (de los cuales 19.389 proceden de Madrid, 480 de Asturias, 932 de Valencia, 477 desde Málaga-Almería o 306 desde Sevilla), y el resto en países como Filipinas (8.911 tuits), Estados Unidos (2.360 tuits), o Venezuela (1.544 tuits), por ejemplo (ver tabla 1). Este patrón de comportamiento geolocalizado que se va dando por tramos horarios a lo largo de los días analizados, en los que se van alternando distintos lugares de emisión muy concretos con mensajes publicados desde otros puntos, centrados en ayudar a promover la confrontación y polarización, bajo el intercalado de mensajes en ambos sentidos, a favor y en contra (ver tabla 1).

Tabla 1 Ejemplo alrededor de los mensajes, asociados con palabras como “Iglesias AND Asturias”, geolocalizados fuera de España 

Fuente. Elaborado por los autores.

Segundo momento de debate alrededor de los ministros

Los tuits unidos a la etiqueta #LaFascistadelaSole, así como las llamadas a otras cuentas se va reproduciendo, durante las primeras horas de viralización junto a dos mensajes: “#LaFascistaDeLaSole No le cuentes un secreto. Lo divulga todo https://t.co/0DrSQdC0T7" (ID: 1295432145633239042), y ”#lafascistadelaSole quiere que todos los de UP pasen por su casa a saludarla, si sabéis su dirección, haced el favor de mandarla... https://t.co/sqOdQY0fKB" (ID: 1295434536554303490).

En el grafo mostrado en la figura 3 se expresan los retuits (RT) agrupados por clúster, alrededor de la etiqueta #LaFascistaDeLaSole, con un total de 6.897 nodos o usuarios y 12.687 enlaces. Se presenta un grado de modularidad de 0,573, en el que se observan dos grupos de mensajes (a la derecha), emitidos el 18 y 19 de agosto de 2020: Uno de los clústeres, genera el 20,17% del tráfico de tuits, mientras que el otro genera el 18,81%. Estos grupos se centran en protestar por la polarización de la red, y atribuyendo el origen de que quien sacó a la luz el lugar de vacaciones de los ministros, a la cuenta de la agrupación de Podemos de la localidad de Lena (ID: 1295660335706386432). A la izquierda de la figura 3 se encuentran grupos de usuarios desagregados en diferentes agrupaciones, pero muy próximos y conectados entre sí, concentrando el 71% del tráfico de tuits alrededor de la etiqueta analizada. En ambos grupos, no se encuentran cuentas oficiales o de personajes conocidos entre los distribuidores, a excepción de la politóloga rusa @liusivaya que en 2020 atacaba mucho al gobierno Socialista-Podemos, recibiendo apoyos públicos por parte de dirigentes del partido Vox, y que en 2022 defiende las posturas del gobierno ruso de Vladimir Putin en medios españoles y redes por la guerra de Ucrania (Marrón, 2022).

Fuente: Elaborado por los autores a través de Gephi y R.

Figura 3 Grafo de tuits y representación en función del tiempo de ser bots alrededor de la etiqueta #LaFascistadelaSole  

En el análisis de probabilidad bot de las cuentas asociadas a la etiqueta #LaFascistadelaSole (figura 3), se observa una distribución inicial, amplificación e inundación posterior. Igualmente se aprecia una probabilidad bot del 50%, tanto en cuentas que escriben contenido directo como en retuits. También, se advierte una mayor probabilidad bot entre las cuentas que presentan intermediación o betweenness centrality e integran la red entre sí; pero también, una mayor probabilidad de marcaje de mensajes de favorito entre cuentas con mayor probabilidad bot.

El análisis de geolocalización nos muestra cómo de los 14.702 tuits asociados a la etiqueta #LaFascistadelaSole, solo 5.039 se ubican en España (547 de ellos desde Madrid, 229 desde Asturias, 1.180 desde Málaga, 116 Sevilla, 289 Santander-Bilbao); mientras que 1707 tuits se geolocalizan en Filipinas, 246 en Londres, 270 en los Estados Unidos y 199 en Venezuela; quedando alrededor de un 30% de los mensajes sin posibilidad de estimarse su procedencia (tabla 2).

Tabla 2 Ejemplo de mensajes sobre #LaFascistaDeLaSole, geolocalizados fuera de España 

Fuente. Elaborado por los autores.

La tabla 2 nos muestra que los mensajes emitidos y retuiteados fuera de España se caracterizan por promover contenidos confrontativos y polarizados, en los que, principalmente (desde supuestas cuentas de seguidores del partido Podemos), se intenta: buscar a una posible divulgadora de la ubicación; o acusar a supuestos miembros de los cuerpos de seguridad del Estado (ej.: Guardias Civiles) de increpar a los ministros (como los tuits geolocalizados desde Londres).

Perfiles de usuarios identificados

Un análisis de la naturaleza y comportamiento de los usuarios, involucrados en estas campañas, muestra la mediana y la media de alguno de los rasgos que caracterizan a las cuentas participantes en cada una de las tres fases estudiadas (ver tabla 3).

La tabla 3 nos permite ver cómo un bajo número de seguidores y amigos en las cuentas asociadas a los mensajes que integraron la muestra analizada en este trabajo. Por lo que podemos considerar que la mayoría de los usuarios relacionados con la viralización del debate tomado como caso de estudio, cumplen o tienen un perfil de tipo nano-influencers (menos de 10.000 seguidores), según Ong, Tapsell y Curato (2019), que alcanzan una difusión limitada pero que no presentan posibles rechazos, aunque todos ellos unidos logran alcanzar a muchos otros usuarios, más allá de sus seguidores y amigos, desde la aplicación de la estrategia astroturfing, tenida en consideración en este estudio.

La tabla 3 también permite apreciar una similitud entre cuentas, en la forma en cómo se comportan en Twitter, al observarse una gran actividad en esta red social, con decenas de miles de tuits emitidos o marcados como favoritos desde su creación. Lo que supone una actividad constante y diaria en Twitter muy intensa. Otro dato para resaltar es la media y la mediana de la fecha en que se crearon las cuentas participantes en las campañas, siendo muy semejantes entre sí, incluso de unos pocos días.

Tabla 3 Estadísticas de la naturaleza y comportamiento de las cuentas participantes 

Fuente. Elaborado por los autores.

Determinación de la polarización de los mensajes

Un análisis temporal de los niveles de polarización de los mensajes, mostrados en la figura 4, muestran una cantidad de textos con unos niveles muy elevados, especialmente de tipo negativo. Puede observarse como, a lo largo del tiempo de las dos campañas, la media es siempre negativa llegando a valores de -2 a lo largo del día 19. Tomando como premisa que unos valores en una frase superiores a tres pueden considerarse como mensajes muy intensos, se encuentran algunos hasta niveles de -16 en el primero y -7 en el segundo, y valores positivos de +7 y +8 respectivamente, pero en una cantidad casi testimonial.

Fuente: Elaborado por los autores a través de R.

Figura 4 Polaridad de los tuits en función del tiempo en las campañas “Iglesias AND Asturias” (izquierda) y #LaFascistadelaSole (derecha)  

Estos niveles de mensajes muy intensos pueden complementarse con los niveles de emociones básicas ligadas a los tuits. De esta forma en la campaña detectada con “Iglesias AND Asturias” tienen presencia de tristeza (20,3%), miedo (18,6%), asco (17,5%) y disgusto (16,3%). El resto de las emociones detectadas están por debajo del 8,5%. En cuanto a la campaña alrededor de #LaFascistadelaSole las emociones más presentes son confianza (16,4%), miedo (16,8%), tristeza (16,0%), disgusto (13,7%) y asco (13,6%). El resto de las emociones cae por debajo del 9%.

Estos valores de polaridad y de emociones vienen a mostrar un discurso, no solo muy polarizado, sino además muy intenso y emocional de sentimientos donde la tristeza, miedo y asco son elementos comunes y destacados. De esta forma, se estaría ante un discurso con mucha intensidad, muy partisano y de ataque. La emoción analizada en el estudio denominada como anticipación, ligada al pensamiento racional y elaborado, es escaso y no aparece casi entre las estudiadas, con una presencia del 8,5% y 7,9% respectivamente con cada campaña.

Conclusiones

El análisis del caso estudiado en este artículo, más allá del alcance de la viralización que tuvo a nivel nacional en España, ayuda a tener acceso a una serie de datos que nos permiten observar como el astroturfing, estaría siendo usado para condicionar la opinión pública, en nuestro caso a nivel de la sociedad española, desde acciones comunicativas digitales centradas en un supuesto marco de espontaneidad, en los términos expuestos por Niño González, Barquero Cabrero y García García (2017), Kovic et al. (2018) y Lits (2020). Algo que estaría dándose desde usuarios que no necesariamente son simples bots o se encuentran localizados en España, quienes, en un marco reducido de tiempo, publican y comparten mensajes que, bajo una aparente exposición aleatoria de mensajes, publicadas por cuentas con perfil nano-influencer, que distribuyen, amplifican e inundan redes sociales como Twitter con mensajes cargados con información sarcástica y/o falsa, que ayudan a la alteración del sentido de credibilidad colectiva online, como bien apuntan autores como Del Vicario et al. (2016). Un hecho que, alrededor del caso estudiado, toma un tema que, inicialmente, debería encontrarse dentro de la esfera privada de los personales receptores de esta campaña, que al final trasciende y se posiciona dentro del debate político español, durante el período analizado.

Pese a las limitaciones que implica el abordaje del tema propuesto, al centrarse en un debate asociado a un tema puntual, acontecido y relacionado con la esfera política nacional española, consideramos que los resultados mostrados en este trabajo dan visibilidad a la aplicación del astroturfing en contextos políticos no electorales, como los abordados por autores como Bastos y Marcea (2018) y otros expuestos en el apartado introductorio. Lo que ayudaría a entender cómo este tipo de estrategias, orientadas a la manipulación de la opinión pública desde las redes sociales, pudiesen estar asentándose a nivel español, en general. Sobre todo, alrededor de actores que hacen parte activa y diaria de la realidad política española, que pudiesen estar siendo objeto de este tipo de campañas de desinformación, impulsadas, no solo desde España, sino desde el extranjero, a través de usuarios con perfil micro o nano-influencers que ayudan a evitar la detección de posibles empresas que autores como Ong y Cabañes (2019) o Bradshaw, Bailey y Howard (2021), han destacado que hacen parte de una industria cada vez más floreciente, encargada de emitir contenidos coordinadamente.

Finalmente, las implicaciones de todo lo aquí expuesto, consideramos que también abriría un debate alrededor de la capacidad que tendrían iniciativas de detección (académicas y periodísticas) de contenido desinformativo, ante la dificultad que entrañaría la identificación de nano y micro-infuencers, quienes sacan provecho de su perfil para ocultarse entre la amplia diversidad de cuentas con características morfológicas similares. Unas cuentas que se alternan con otras (con alta probabilidad de ser bots) a lo largo de cada una de las fases (distribución, amplificación e inundación) puestas en marcha hasta el posicionamiento del tema de interés en la opinión pública, a través de este tipo de estrategia (astroturfing).

Bibliografía

Alfonso, Ignacio Blanco, Carmen García Galera, y Santiago Tejedor Calvo (2019), “El impacto de las fake news en la investigación en Ciencias Sociales: revisión bibliográfica sistematizada”, Historia y Comunicación Social, 24 (2), pp. 449-469. [ Links ]

Barabási, Albert-Lázló (2016), Network Science, Cambridge, Cambridge University Press. [ Links ]

Bastian, Mathieu, Sebastien Heymann, y Mathieu Jacomy (2009), Gephi: An Open Source Software for Exploring and Manipulating Networks [Archivo PDF], disponible en: Bastian, Mathieu, Sebastien Heymann, y Mathieu Jacomy (2009), Gephi: An Open Source Software for Exploring and Manipulating Networks [Archivo PDF], disponible en: https://gephi.org/publications/gephi-bastian-feb09.pdf (última consulta en julio de 2022). [ Links ]

Bastos, Marco, y Dan Mercea (2018), “The public accountability of social platforms: lessons from a study on bots and trolls in the Brexit campaign”, Philosophical Transactions of the Royal Society A - Mathematical, Physical and Engineering Sciences, 376 (2128), disponible en: https://doi.org/10.1098/rsta.2018.0003 (última consulta en julio de 2022). [ Links ]

Bengali, Shashank, y Evan Halper (2019), “Troll armies, a growth industry in the Philippines, may soon be coming to an election near you”, Los Ángeles Times, 19 de noviembre, disponible en: Bengali, Shashank, y Evan Halper (2019), “Troll armies, a growth industry in the Philippines, may soon be coming to an election near you”, Los Ángeles Times, 19 de noviembre, disponible en: https://www.latimes.com/politics/story/2019-11-19/troll-armies-routine-in-philippine-politics-coming-here-next (última consulta en julio de 2022). [ Links ]

Blondel, Vincent, Jean-Loup Guillaume, Renaud Lambiotte, y Etienne Lefebvre (2008), “Fast unfolding of communities in large networks”, Journal of Statistical Mechanics - Theory and Experiment, 10, disponible en: https://doi.org/10.1088/1742-5468/2008/10/P10008 (última consulta en julio de 2022). [ Links ]

Bradshaw, Samantha, y Philip N. Howard (2017), “Troops, trolls and troublemakers: a global inventory of organized social media manipulation”, Oxford, Universidad de Oxford, disponible en: Howard (2017), “Troops, trolls and troublemakers: a global inventory of organized social media manipulation”, Oxford, Universidad de Oxford, disponible en: http://governance40.com/wp-content/uploads/2018/11/Troops-Trolls-and-Troublemakers.pdf (última consulta en julio de 2022). [ Links ]

Bradshaw, Samantha , Hannah Bailey, y Philip N. Howard (2021), “Industrialized disinformation: 2020 global inventory of organized media manipulation”, Oxford, Universidad de Oxford , disponible en: Howard (2021), “Industrialized disinformation: 2020 global inventory of organized media manipulation”, Oxford, Universidad de Oxford , disponible en: https://demtech.oii.ox.ac.uk/wp-content/uploads/sites/127/2021/01/CyberTroop-Report-2020-v.2.pdf (última consulta en julio de 2022). [ Links ]

Campos-Domínguez, Eva, y Dafne Calvo (2017), “La campaña electoral en Internet: planificación, repercusión, y viralización en Twitter durante las elecciones españolas de 2015”, Comunicación y Sociedad, 29, disponible en: Campos-Domínguez, Eva, y Dafne Calvo (2017), “La campaña electoral en Internet: planificación, repercusión, y viralización en Twitter durante las elecciones españolas de 2015”, Comunicación y Sociedad, 29, disponible en: https://cutt.ly/jyHur81 (última consulta en julio de 2022). [ Links ]

Casero-Ripollés, Andreu, Ramón Feenstra, y Simon Tormey (2016), “Old and new media logics in an electoral campaign: the case of Podemos and the two-way street mediatization of politics”, The International Journal of Press/Politics, 21 (3), pp. 378-397, disponible en: https://doi.org/10.1177/1940161216645340 (última consulta en julio de 2022). [ Links ]

Collins, Ben, y Brandy Zadrozni (2020), “Troll farms from North Macedonia and the Philippines pushed coronavirus disinformation on Facebook”, NBC News, 29 de mayo, disponible en: Collins, Ben, y Brandy Zadrozni (2020), “Troll farms from North Macedonia and the Philippines pushed coronavirus disinformation on Facebook”, NBC News, 29 de mayo, disponible en: https://www.nbcnews.com/tech/tech-news/troll-farms-macedonia-philippines-pushed-coronavirus-disinformation-facebook-n1218376 (última consulta en julio de 2022). [ Links ]

Del Vicario, Michela, Alessandro Bessi, Fabiana Zollo, Fabio Petroni, Antonio Scala, Guildo Caldarelli, H. Eugene Stanley, y Walter Quattrociocchi (2016), “The spreading of misinformation online”, Proceedings of the National Academy of Sciences, 113 (3), pp. 554-559, disponible en: https://doi.org/10.1073/pnas.1517441113 (última consulta en julio de 2022). [ Links ]

Elmas, Tugrulcan, et al. (2019), “Lateral astroturfing attacks on Twitter trending topics”, [Conferencia] AMLD EPFL, Suiza, Ecublens, disponible en: (2019), “Lateral astroturfing attacks on Twitter trending topics”, [Conferencia] AMLD EPFL, Suiza, Ecublens, disponible en: https://cutt.ly/4yGaj5L (última consulta en julio de 2022). [ Links ]

Fernández Vallejo, Ana María (2018), “Comunicar emociones en el discurso metapolítico de twitter: el caso de #MADURO versus @NICOLASMADURO”. Observatorio (OBS*) Journal, 12 (3), pp. 175-194, disponible en: https://doi.org/10.15847/obsOBS12320181214 (última consulta en julio de 2022). [ Links ]

Golovchenko, Yevgeniy, Cody Buntain, Gregory Eady, Megan Brown, y Joshua Tucker (2020), “Cross-platform state propaganda: Russian trolls on Twitter and YouTube during the 2016 U.S. presidential election”, The International Journal of Press/Politics , 25 (3), pp. 357-389, disponible en: https://doi.org/10.1177/1940161220912682 (última consulta en julio de 2022). [ Links ]

Himelboim, Itai, Marc Smith, Lee Rainie, Ben Shneiderman, y Camila Espina (2017), “Classifying Twitter topic-networks using social network analysis”, Social Media + Society, 3 (1), pp. 1-13, disponible en: https://doi.org/10.1177/2056305117691545 (última consulta en julio de 2022). [ Links ]

Holbrook, Erik, Gupreet Kaur, Jared Bond, Josh Imbriani, Elaine Nsoesie, y Christan Grant (2016), “Tweet geolocation error estimation”, International Conference on GIScience Short Paper Proceedings, 1 (1), pp. 130-133, disponible en: https://doi.org/10.21433/b3110wf6w9p9 (última consulta en julio de 2022). [ Links ]

Hrcková, Andrea, Ivan Srba, Róbert Móro, Rodoslav Blaho, Jakub Šimko, Pavol Návrat, y Mária Bieliková (2019), “Unravelling the basic concepts and intents of misbehavior in post-truth society”, Bibliotecas - Anales de Investigación, 15 (3), pp. 421-428. [ Links ]

Hu, Yifan (2006), “Efficient, high-quality force-directed graph drawing”, The Mathematica Journal, 10 (1), pp. 37-71, disponible en: 37-71, disponible en: https://cutt.ly/VyDIfpR (última consulta en julio de 2022). [ Links ]

Kearney, Michael (2018), Tweetbotornot: An R Package for Classifying Twitter Accounts as Bot or Not, [Archivo PDF], disponible en: Kearney, Michael (2018), Tweetbotornot: An R Package for Classifying Twitter Accounts as Bot or Not, [Archivo PDF], disponible en: https://github.com/mkearney/tweetbotornot (última consulta en julio de 2022). [ Links ]

Kearney, Michael (2019), “Rtweet: collecting and analyzing Twitter data”, Journal of Open Source Software, 4 (42), pp. 1829, disponible en: https://doi.org/10.21105/joss.01829 (última consulta en julio de 2022). [ Links ]

Keller, Franziska, David Schoch, Sebastian Stier, y JungHwan Yang (2019), “Political astroturfing on Twitter: how to coordinate a disinformation campaign”, Political Communication, 1 (25), pp. 256-280, disponible en: https://doi.org/10.1080/10584609.2019.1661888 (última consulta en julio de 2022). [ Links ]

Kovic, Marko, Adrian Rauchfleisch, Marc Sele, y Christian Caspar (2018), “Digital astroturfing in politics: definition, typology, and countermeasures”, Studies in Communication Sciences, 18 (1), pp. 69-85, disponible en: https://doi.org/10.24434/j.scoms.2018.01.005 (última consulta en julio de 2022). [ Links ]

Kucharski, Adam (2016), “Study epidemiology of fake news”, Nature, 540, p. 525, disponible en: https://doi.org/10.1038/540525a (última consulta en julio de 2022). [ Links ]

Levi, Simona (2019), #Fakeyou. Fake News y Desinformación, Barcelona, Rayo Verde Editorial. [ Links ]

Lits, Brieuc (2020), “Exploring astroturf lobbying in the EU: the case of responsible energy citizen coalition”, European Policy Analysis, 7 (1), pp. 226-239, disponible en: https://doi.org/10.1002/epa2.1086 (última consulta en julio de 2022). [ Links ]

López-García, G. (2016), “ ‘Nuevos’ y ‘viejos’ liderazgos: la campaña de las elecciones generales españolas de 2015 en Twitter”, Comunicación y Sociedad , 29 (3), pp. 149-167, disponible en: https://doi.org/10.15581/003.29.3.sp.149-167 (última consulta en julio de 2022). [ Links ]

Mahtani, Shibani, y Regine Cabato (2019), “Why crafty Internet trolls in the Philippines may be coming to a website near you”, The Washington Post, 26 de junio, disponible en: Mahtani, Shibani, y Regine Cabato (2019), “Why crafty Internet trolls in the Philippines may be coming to a website near you”, The Washington Post, 26 de junio, disponible en: https://www.washingtonpost.com/world/asia_pacific/why-crafty-internet-trolls-in-the-philippines-may-be-coming-to-a-website-near-you/2019/07/25/c5d42ee2-5c53-11e9-98d4-844088d135f2_story.html (última consulta en julio de 2022). [ Links ]

Marrón, Mireya (2022), “Quién es Liu Sivaya, la polémica politóloga rusa que irrita en los debates: ‘vivo con miedo’”, Nius Diario, 24 de marzo, disponible en: Marrón, Mireya (2022), “Quién es Liu Sivaya, la polémica politóloga rusa que irrita en los debates: ‘vivo con miedo’”, Nius Diario, 24 de marzo, disponible en: https://bit.ly/3JaMdSr (última consulta en julio de 2022). [ Links ]

Menczer, Filippo, Santo Fortunato, y Clayton A. Davis (2020), A First Course in Network Science , Cambridge, Cambridge University Press. [ Links ]

Milgram, Stanley (1967), “The small world problem”, Psychology Today, 1 (1), pp. 61-67. [ Links ]

Mohammad, Saif M. (2016), “Sentiment analysis: detecting valence, emotions, and other affectual states from text”, Emotion Measurement, pp. 201-237, disponible en: https://doi.org/10.1016/B978-0-08-100508-8.00009-6 (última consulta en julio de 2022). [ Links ]

Mohammad, Saif M., y Peter D. Turney (2012), “Crowdsourcind a word-emotion association lexicon”, Computational Intelligence, 29 (3), pp. 436-465, disponible en: https://doi.org/10.1111/j.1467-8640.2012.00460.x (última consulta en julio de 2022). [ Links ]

Niño González, José Ignacio, Mario Barquero Cabrero, y Enrique García (2017), “Public opinion and infoxication in the networks: fundamentals of post-truth”, Vivat Academia - Revista de Comunicación, 139, pp. 83-94, disponible en: https://doi.org/10.15178/va.2017.139.83-94 (última consulta en julio de 2022). [ Links ]

Ong, Jonathan, y Jason Cabañes (2019), “Politics and profit in the fake news factory: four work models of politicial trolling in the Philippines”, NATO Strategic Communications, Centre of Excellence, disponible en: Ong, Jonathan, y Jason Cabañes (2019), “Politics and profit in the fake news factory: four work models of politicial trolling in the Philippines”, NATO Strategic Communications, Centre of Excellence, disponible en: https://www.stratcomcoe.org/four-work-models-political-trolling-philippines (última consulta en julio de 2022). [ Links ]

Ong, Jonathan , Ross Tapsell y Nicole Curato (2019), “Tracking digital disinformation in the 2019 Philippine midterm election”, New Mandala, august, disponible en: Ong, Jonathan , Ross Tapsell y Nicole Curato (2019), “Tracking digital disinformation in the 2019 Philippine midterm election”, New Mandala, august, disponible en: https://www.newmandala.org/disinformation (última consulta en julio de 2022). [ Links ]

Pariser, Eli (2011), The Filter Bubble. What the Internet is Hiding from You, Londres, Penguin Books. [ Links ]

Pérez Colomé, Jordi (2020), “ ‘Yo fui un bot’: las confesiones de un agente dedicado al engaño en Twitter”, El País (España), 21 de mayo, disponible en: Pérez Colomé, Jordi (2020), “ ‘Yo fui un bot’: las confesiones de un agente dedicado al engaño en Twitter”, El País (España), 21 de mayo, disponible en: https://elpais.com/tecnologia/2020-05-20/yo-fui-un-bot-las-confesiones-de-un-agente-dedicado-al-engano-en-twitter.html (última consulta en julio de 2022). [ Links ]

Plutchik, Robert (1980), “A general psychoevolutionary theory of emotion”, en R. Plutchic y H. Kellerman (orgs.), Emotion. Theory, Research, and Experience, Londres y Berverly Hills, Academic Press, pp. 3-33. [ Links ]

Rodríguez Fernández, Leticia (2021), Propaganda digital. Comunicación en Tiempos de Desinformación, Barcelona, Editorial UOC. [ Links ]

Sánchez, Veronica (2020), “Iglesias y Montero dejan sus vacaciones en Asturias tras unas pintadas y ‘presiones’ a un bar”, El Periódico, 17 de agosto, disponible en: Sánchez, Veronica (2020), “Iglesias y Montero dejan sus vacaciones en Asturias tras unas pintadas y ‘presiones’ a un bar”, El Periódico, 17 de agosto, disponible en: https://www.elperiodico.com/es/politica/20200817/iglesias-montero-adios-vacaciones-asturias-pintadas-8078673 (última consulta en julio de 2022). [ Links ]

Santana, Luis, y Gonzalo Huerta Cánepa (2019), “¿Son bots? Automatización en redes sociales durante las elecciones presidenciales de Chile 2017", Cuadernos.Info, 44, pp. 61-77, disponible en: https://doi.org/10.7764/cdi.44.1629 (última consulta en julio de 2022). [ Links ]

Sautera, Disa A., Frank Eisner, Paul Ekman, y Sophie K. Scott (2010), “Cross-cultural recognition of basic emotions through nonverbal emotional vocalizations”, Proc Natl Acad Sci USA, 107 (6), pp. 2408-2412, disponible en: https://doi.org/10.1073/pnas.0908239106 (última consulta en julio de 2022). [ Links ]

Søe, Sille (2018), “Algorithmic detection of misinformation and disinformation: Gricean perspectives”, Journal of Documentation, 74 (2), pp. 309-332, disponible en: https://doi.org/10.1108/JD-05-2017-0075 (última consulta en julio de 2022). [ Links ]

Sorensen, Anne, Lynda Andrews, y Judy Drennan (2017), “Using social media posts as resources for engaging in value co-creation: the case for social media-based cause brand communities”, Journal of Service Theory and Practice, 27 (4), pp. 898-922, disponible en: https://doi.org/10.1108/JSTP-04-2016-0080 (última consulta en julio de 2022). [ Links ]

Swati, Ubale, Chilekar Pranali, y Sonkamble Pragati (2015), “Sentiment analysis of news articles using machine learning approach”, International Journal of Advances in Electronics and Computer Science, 2 (4), pp. 114-116. [ Links ]

Taboada, Maite, Julian Brooke, Milan Tofiloski, Kimberly Voll, y Manfred Stede (2011), “Lexicon-based methods for sentiment analysis”, Computational linguistics, 37 (2), pp. 267-307, disponible en: https://doi.org/10.1162/coli_a_00049 (última consulta en julio de 2022). [ Links ]

Van der Linden, Sander, Edward Maibach, John Cook, Anthony Leiserowitz, y Stephan Lewandowsky (2017), “Inoculating against misinformation”, Science, 358 (6367), pp. 1141-1142, disponible en: https://doi.org/10.17863/CAM.26207 (última consulta en julio de 2022). [ Links ]

Van der Veen, Han Djoerd Hiemstra, Tijs van den Broek, Michel Ehrenhard, y Ariana Need (2015), “Determine the user country of a tweet”, Social and Information Networks, disponible en: Van der Veen, Han Djoerd Hiemstra, Tijs van den Broek, Michel Ehrenhard, y Ariana Need (2015), “Determine the user country of a tweet”, Social and Information Networks, disponible en: https://arxiv.org/abs/1508.02483 (última consulta en julio de 2022). [ Links ]

Wardle, Claire, y Hossein Derakshan (2017), Information Disorder. Toward an Interdisciplinary Framework for Research and Policy Making, Estrasburgo, Council of Europe, disponible en: Toward an Interdisciplinary Framework for Research and Policy Making, Estrasburgo, Council of Europe, disponible en: https://rm.coe.int/%20information-disorder-toward-an-interdisciplinary-framework-for-researc/168076277c (última consulta en julio de 2022). [ Links ]

Wissman, Barrett (2018), “Micro-influencers: the marketing force of the future?”, Forbes, 2 de marzo, disponible en: Wissman, Barrett (2018), “Micro-influencers: the marketing force of the future?”, Forbes, 2 de marzo, disponible en: https://www.forbes.com/sites/barrettwissman/2018/03/02/micro-influencers-the-marketing-force-of-the-future/#6b90cd756707 (última consulta en julio de 2022). [ Links ]

Zhao, Zilong, Jichang Shao, Yukie Sano, Hideki Takayasy, Misako Takayasu, Daqing Li, Junjie Wu, y Shlomo Havlin (2020), “Fake news propagates differently from real news even at early stages of spreading”, EPJ Data Science , 9, disponible en: https://doi.org/10.1140/epjds/s13688-020-00224-z (última consulta en julio de 2022). [ Links ]

1https://docs.mapbox.com/api/search/geocoding/

2Noticia publicada en El Comercio: “Pablo Iglesias e Irene Montero, en Lena”, disponible en: https://www.elcomercio.es/asturias/cuencas/pablo-iglesias-irene-montero-lena-20200815145821-nt.html; y noticia publicada en La Nueva España, “Iglesias y Montero, libres de mascarilla”, disponible en https://www.lne.es/asturias/2020/08/16/iglesias-montero-libres-mascarilla/2671412.html (última consulta en julio de 2022).

3Dicha cuenta es eliminada poco tiempo después, por lo que es imposible controlar la veracidade de sus mensajes y de los datos de su perfil.

Recibido: 24 de Julio de 2021; Aprobado: 10 de Febrero de 2022

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons