Discover
MOOC Exploradores de la Posverdad: Literacidad Inf

MOOC Exploradores de la Posverdad: Literacidad Inf
Author: e-UAEM
Subscribed: 0Played: 0Subscribe
Share
© 2025 e-UAEM
Description
Podcast del curso MOOC Exploradores de la Posverdad, impartido por la Universidad Autónoma del Estado de Morelos.
Este curso fue desarrollado por la Dra. María Luisa Zorrilla, profesora investigadora del Instituto de Ciencias de la Educación y Coordinadora del Programa de Formación Multimodal (e-UAEM).
Este curso fue desarrollado por la Dra. María Luisa Zorrilla, profesora investigadora del Instituto de Ciencias de la Educación y Coordinadora del Programa de Formación Multimodal (e-UAEM).
42 Episodes
Reverse
Pulso del grupo es una emisión semanal en donde la Dra. María Luisa Zorrilla y Bruno Hernández comentan los sucesos más relevantes vividos durante el MOOC Exploradores de la Posverdad.
En este episodio final se comenta sobre la actividad de los participantes a lo largo de la semana 4.
Esta es una producción del Espacio de Formación Multimodal e-UAEM.
Pulso del grupo es una emisión semanal en donde la Dra. María Luisa Zorrilla y Bruno Hernández comentan los sucesos más relevantes vividos durante el MOOC Exploradores de la Posverdad.
En este episodio se comenta sobre la actividad de los participantes a lo largo de la semana 3.
Esta es una producción del Espacio de Formación Multimodal e-UAEM.
Pulso del grupo es una emisión semanal en donde la Dra. María Luisa Zorrilla y Bruno Hernández comentan los sucesos más relevantes vividos durante el MOOC Exploradores de la Posverdad.
En este episodio se comenta sobre la actividad de los participantes a lo largo de la semana 2.
Esta es una producción del Espacio de Formación Multimodal e-UAEM.
Pulso del grupo es una emisión semanal en donde la Dra. María Luisa Zorrilla y Bruno Hernández comentan los sucesos más relevantes vividos durante el MOOC Exploradores de la Posverdad.
En este episodio se comenta sobre la actividad de los participantes a lo largo de la semana 1.
Esta es una producción del Espacio de Formación Multimodal e-UAEM.
Entrevista a María Luisa Zorrilla y Bruno Hernández para promover el curso Exploradores de la Posverdad: Literacidad Informacional vs. Noticias Falsas al auditorio de Línea Caliente Noticias en Mundo 96.5 Mhz.
Este programa se transmitió en el estado de Morelos el 5 de junio de 2019 a las 15:00 hrs.
Entrevista a María Luisa Zorrilla y Bruno Hernández para promover el curso Exploradores de la Posverdad: Literacidad Informacional vs. Noticias Falsas al auditorio de Teodoro Rentería en Capital FM Morelos 105.3 Mhz.
Este programa se transmitió en el estado de Morelos el 5 de junio de 2019 a las 9:00 hrs.
Pulso del grupo es una emisión semanal en donde la Dra. María Luisa Zorrilla y Bruno Hernández comentan los sucesos más relevantes vividos durante el MOOC Exploradores de la Posverdad.
En este episodio se da la bienvenida a los escuchas y se les comentan algunas generalidades del curso.
Esta es una producción del Espacio de Formación Multimodal e-UAEM.
Pulso del grupo es una emisión semanal en donde la Dra. María Luisa Zorrilla y Bruno Hernández comentan los sucesos más relevantes vividos durante el MOOC Exploradores de la Posverdad.
En este episodio nos acompaña Gustavo Medina, el artista que está detrás del cómic Exploradores de la Posverdad.
Hablamos sobre algunos temas que destacaron durante la semana 4, algunos comentarios generales, profundizamos en la experiencia de crear la historia de Los Exploradores de la Posverdad, destacamos a las y los participantes que obtuvieron 100 puntos y ofrecemos algunas recomendaciones.
Les invitamos también a inscribirse al curso MOOC Búsqueda en Internet para Universitarios que comenzará el 3 de septiembre de 2018.
Puedes ver parte de esta emisión en video en IGTV:
Primera parte
https://www.instagram.com/tv/BkyYh4_AW9T/?utm_source=ig_share_sheet&igshid=1dk72be3wrrow
Segunda parte
https://www.instagram.com/tv/BkyYSgDAFAV/?utm_source=ig_share_sheet&igshid=jb654lsdli7x
Tercera parte
https://www.instagram.com/tv/BkyWZE_AED9/?utm_source=ig_share_sheet&igshid=4f3ectwww4vx
Cuarta parte
https://www.instagram.com/tv/BkyURVoAY_-/?utm_source=ig_share_sheet&igshid=17fve3gsuigzk
Esta es una producción del Espacio de Formación Multimodal e-UAEM.
Pulso del grupo es una emisión semanal en donde la Dra. María Luisa Zorrilla y Bruno Hernández comentan los sucesos más relevantes vividos durante el MOOC Exploradores de la Posverdad.
En este episodio hablamos sobre la historia de esta semana en donde escuchamos una conversación en el café en la que decían que el presidente Tramp mandó contaminar el Río Bravo para envenenar a los mojados. En ese momento los Exploradores de la Posverdad comenzaron a revisar una nota que les llegó en las distintas plataformas, pero con la característica de no estar publicado en medios oficiales. Esto les hace pensar que hay alguien que está tratando de generar pánico en la población.
Describimos también qué sucedió con el final interactivo grupal.
Dimos respuesta a algunos comentarios y destacamos las participaciones de los primeros en terminar el curso.
Finalmente, expresamos algunas recomendaciones para un buen cierre.
Esta es una producción del Espacio de Formación Multimodal e-UAEM.
El contenido de este audio es autoría de la Dra. María Luisa Zorrilla Abascal, profesora investigadora del Instituto de Ciencias de la Educación en la Universidad Autónoma del Estado de Morelos en México. Para más información puede ponerse en contacto al correo: maria.zorrilla@uaem.mx.
Cada vez que aceptamos pasivamente un dato sin revisarlo o cuando compartimos una publicación, imagen o video antes de verificarlo, nos sumamos al ruido, el caos y la confusión que privan en la infoesfera en que estamos inmersos. La contaminación que agobia a este 'ecosistema informativo', por tanto, es responsabilidad de cada uno de nosotros.
Si bien existen esfuerzos de organizaciones que verifican la información, así como desarrollos tecnológicos basados en inteligencia artificial para detectar los engaños, las personas también necesitamos usar nuestra inteligencia humana para combatir la malinformación y la desinformación. La lectura crítica y reflexiva implica una combinación de actitud y conocimiento:
Y, para terminar… manos a la obra
¿Quieres sumarte a las filas de los Exploradores de la Posverdad?
No compartas ni reacciones en redes sociales a información que no hayas verificado o que sea de dudosa procedencia.
Dialoga con otros para promover la construcción social del conocimiento y evita ofender o exhibir a otras personas que tienen igual derecho a expresarse que tú.
Infórmate en temas de actualidad.
Denuncia cuando identifiques información falsa. Las principales redes sociales han incorporado mecanismos de denuncia por parte de los propios usuarios. ¿Quieres saber más de este tema? Te recomendamos consultar: How to report fake news to social media en http://www.bbc.com/news/38053324
El contenido de este audio es autoría de la Dra. María Luisa Zorrilla Abascal, profesora investigadora del Instituto de Ciencias de la Educación en la Universidad Autónoma del Estado de Morelos en México. Para más información puede ponerse en contacto al correo: maria.zorrilla@uaem.mx.
Las redes sociales han sido señaladas no sólo por propagar noticias falsas, sino por el papel que han jugado en la expansión del terrorismo y la pornografía infantil, entre otros males que aquejan a nuestra sociedad digital.
Según un artículo del diario británico The Guardian, las labores de antiterrorismo en redes sociales se llevan a cabo en compañías como Facebook, Google y Twitter por contratistas mal pagados, a veces voluntarios, con poca capacitación, que actúan como moderadores. Aunque estas grandes compañías han asegurado que están implementando medidas que combinan equipos especializados e inteligencia artificial, la realidad es que no han podido detener los males antes señalados (Solon, 2017a).
Google por su parte informó a finales de 2017 que contrató a miles de moderadores después de las duras críticas que recibió por facilitar la dispersión de videos de abuso de menores y otros contenidos ofensivos en YouTube. La CEO de YouTube informó que además de los moderadores humanos, continuarían trabajando en desarrollar tecnología inteligente para detectar y remover contenido problemático en forma automática. También comentó que gracias a herramientas tecnológicas basadas en inteligencia artificial (machine learning), los moderadores humanos estaban detectando y removiendo hasta cinco veces más videos que violaban las políticas de YouTube que antes y que el 98% de los videos detectados como violentos extremistas eran identificados por algoritmos. Afirmó que gracias a la tecnología podían detectar y retirar 70% del contenido extremista en un lapso de 8 horas después de haber sido publicado (Levin, 2017).
En un artículo publicado en Expansión (Chávez, 2018), se reporta que una tendencia reciente para la propagación de noticias falsas son las llamadas "historias", que surgieron en Instagram en 2016 y que se han ido integrando a otras plataformas como Facebook y WhatsApp. Se espera que en 2019 el formato sobrepasará el uso de texto e imágenes en las publicaciones hechas por los usuarios.
Para combatir las fake news en este nuevo formato, Tessa Lyons, directora de producto de Newsfeed en Facebook, informó que se ha integrado un equipo de técnicos, académicos y científicos de datos que buscan implementar técnicas de inteligencia artificial para detectar y combatir información falsa en estos formatos.
Actualmente son varios los esfuerzos por desarrollar inteligencia artificial capaz de detectar noticias falsas. A continuación una breve cronología de los desarrollos que identificamos disponibles para el público usuario:
Herramienta Fecha de desarrollo o reporte Vínculo
BS Detector (Extensión para diferentes navegadores que señala sitios web no confiables) BBC News y The Guardian informaron de este plug-in en diciembre de 2016
http://bsdetector.tech/
Fake news detector (extensión para navegador Chrome) Última actualización: 22 octubre 2017 https://chrome.google.com/webstore/detail/fake-news-detector/aebaikmeedenaijgjcfmndfknoobahep
Open Mind (extensión para Chrome) Reseñado en diciembre de 2017 https://openmind.press/
Fakebox (identificador de noticias falsas) Blog publicado al respecto: Enero 2018 https://machinebox.io/docs/fakebox
La otra cara de la moneda
Si bien la inteligencia artificial puede ayudarnos a detectar y combatir la información falsa en internet, lo preocupante es que también puede aprender a crear y circular material engañoso. Los sistemas de aprendizaje automático están demostrando ya una espeluznante capacidad para crear lo que se denomina deepfakes (falsificaciones profundas): fotos y videos que sustituyen de manera realista el rostro de una persona por el de otra para que parezca, por ejemplo, que un famoso ha sido fotografiado en una situación comprometedora o que una figura pública está diciendo cosas que en realidad nunca diría (Susarla, 2018).
Para entender cómo funciona esto en video, te invitamos a ver estos ejemplos. En el primero, el expresidente Barack Obama dice cosas que nunca diría. En el segundo, vemos cómo funciona el truco y la forma en que se pueden manipular no sólo la boca, sino toda la gesticulación del rostro. La máxima "ver para creer" ha quedado sin duda superada por estos programas:
Es una carrera entre los desarrollos para engañar y los desarrollos que pretenden usar Inteligencia Artificial para detectar esas falsificaciones. Por ejemplo, hay técnicas de magnificación de imagen para detectar cambios en el pulso humano que podrían ayudar a determinar si una persona incluida en un video es real o está generada por computadora (Susarla 2018).
El contenido de este audio es autoría de la Dra. María Luisa Zorrilla Abascal, profesora investigadora del Instituto de Ciencias de la Educación en la Universidad Autónoma del Estado de Morelos en México. Para más información puede ponerse en contacto al correo: maria.zorrilla@uaem.mx.
Hasta el momento, las agencias de verificación, surgidas en su mayoría a partir de iniciativas de grupos mediáticos y de organizaciones de la sociedad civil, han sido mecanismos eficaces en la labor de desmentir noticias falsas. Si bien su labor es muy valiosa, es una tarea que se realiza a posteriori, es decir, una vez que las noticias falsas ya están circulando y se hace necesario desmentirlas. Para incrementar su efectividad, se requiere que los ciudadanos consulten estos servicios antes de circular noticias de dudosa procedencia, para evitar una mayor dispersión. A continuación reseñamos brevemente algunos de estos servicios:
Verificado 2018
https://verificado.mx/
Es un proyecto de periodismo colaborativo sin precedentes en el que participan más de 80 medios, universidades y organizaciones civiles en México para revisar y desmentir noticias falsas, manipuladas e imprecisas sobre el proceso electoral a realizarse el 1º de julio de 2018.
Esta iniciativa busca combatir las noticias falsas y denunciar el uso tramposo de la información, especialmente por parte de los candidatos o de sus partidarios. Quienes colaboran en este megaproyecto "cazan" noticias falsas e informan al público de su falsedad, con datos verificados. La labor de #Verificado2018 concluirá cuando termine el proceso electoral, según informan sus promotores en el sitio web de esta iniciativa.
WikiTribune
https://es.wikitribune.com/
Es una plataforma de noticias que reúne a periodistas y a una comunidad de voluntarios que se aseguran de ofrecer a sus suscriptores artículos con información verificada y que tiene un impacto real en eventos locales y globales. El único detalle es que alguien tiene que pagar por estos servicios y por ello se trata de una plataforma de suscripción pagada.
Snopes
https://www.snopes.com/
El sitio web de Snopes fue fundado por David Mikkelson en 1994 como una expresión de interés en la investigación de las llamadas "leyendas urbanas". Desde entonces ha crecido y madurado, convirtiéndose en el sitio más antiguo y robusto de verificación de datos. Es consultado y citado como recurso esencial por periodistas, folkloristas y personas comunes en todo tipo de indagaciones.
FactCheck.org
https://www.factcheck.org/fake-news/
Se trata de un Proyecto no partidista y no lucrativo enfocado a los votantes de los Estados Unidos, para reducir los engaños y la confusión en la esfera política en ese país. Monitorea la exactitud de lo dicho por los principales actores políticos en los medios y aplica las mejores prácticas periodísticas y académicas para incrementar el conocimiento y entendimiento del público. FactCheck.org es un proyecto del Annenberg Public Policy Center de la Universidad de Pennsylvania, establecido por Walter Annenberg para crear una comunidad de académicos dentro de esa institución, atentos a temas de política pública en los niveles local, estatal y federal.
First Draft
https://es.firstdraftnews.org/ y https://firstdraftnews.org/
First Draft es un Proyecto del Shorenstein Center on Media, Politics and Public Policy de la Universidad de Harvard que emplea métodos de investigación para combatir la malinformación y la desinformación en línea. Proporciona además guía práctica y ética para encontrar, verificar y publicar contenido proveniente de la web social. Su sitio cuenta con variados recursos, entre los que se encuentra una sección dedicada a desenmascarar noticias falsas: https://firstdraftnews.org/tag/fake-news/
Maldita Hemeroteca
https://www.facebook.com/mhemeroteca/
Maldita Hemeroteca busca ser la memoria que le falta al público para que los políticos no le puedan mentir y tengan que explicar sus contradicciones. Es un proyecto independiente gestionado en España por dos periodistas, Julio Montes Moreno y Clara Jiménez Cruz, que colaboran con laSexta y eldiario.es
BuzzFeed
https://www.buzzfeed.com
Es una red global multiplataforma que incluye un sitio web y aplicaciones móviles como Facebook, Snapchat, YouTube y muchas otras plataformas digitales. Ofrecen noticias y entretenimiento y en tiempos recientes se han sumado al movimiento contra las noticias falsas (Pichihua, 2016). Su sede está en Nueva York, y cuentan con oficinas en diferentes partes del mundo incluyendo Londres, París, Berlín, Madrid, Sidney, Bombay, Tokio, São Paulo, Ciudad de México y Toronto.
Otros proyectos. Además de los proyectos antes reseñados, grandes organizaciones como el New York Times, la BBC y AP han establecido equipos dedicados a la verificación de datos y al desmentido de noticias falsas. También existe un proyecto para crear un Observatorio de Noticias que sería implementado por universidades mexicanas. Para conocer más de estas iniciativas visita los vínculos incluidos en la bibliografía de este tema.
El contenido de este audio es autoría de la Dra. María Luisa Zorrilla Abascal, profesora investigadora del Instituto de Ciencias de la Educación en la Universidad Autónoma del Estado de Morelos en México. Para más información puede ponerse en contacto al correo: maria.zorrilla@uaem.mx.
El medio principal de circulación de las llamadas noticias falsas (fake news) son las redes sociales. Según un estudio reciente realizado por el Reuters Institute for the Study of Journalism, el cual cubrió 34 países en Europa, América y Asia y que contó con el patrocinio de la BBC y de Google entre otros, se identificó que las redes sociales que más usa la gente para compartir noticias (verdaderas y falsas) son Facebook, YouTube, WhatsApp y Twitter (en este orden de importancia) (Kelion, 2017).
Si las redes sociales son la principal fuente del problema, debería estar en ellas la solución. En este tenor, en fechas recientes se ha presentado una gran presión por parte de los gobiernos y de organizaciones de la sociedad civil para que quienes gestionen dichas redes sociales introduzcan mecanismos de regulación.
No obstante, la solución no es tan fácil. Las principales razones que han impedido un control eficiente de las noticias falsas en las redes sociales son:
Las estrategias basadas en personal (humanos) son muy costosas y la rapidez con que se propagan algunas noticias rebasa este tipo de soluciones.
Las soluciones automatizadas aún son deficientes y han fallado en regular diversos tipos de contenidos no-deseables, al tiempo que han regulado contenido que no debería estar prohibido.
El empleo de inteligencia artificial para evaluar la información puede acentuar sesgos que ya existen en la sociedad, relacionados con género, raza y diversos estereotipos.
La línea entre regulación y censura es fina y a muchas organizaciones de la sociedad civil les preocupa que estos espacios de libre intercambio de información empiecen a ser censurados para responder a intereses de grupos en el poder, lo que a la postre resultaría en restricción de espacios de expresión para puntos de vista alternativos o disidentes
En una encuesta llevada a cabo en 2017 en los Estados Unidos, resultó que el 49% de los que respondieron apoyarían la regulación de servicios tecnológicos como Google, Twitter o Facebook y 51% estuvo en desacuerdo. Esto muestra lo dividida que está la opinión pública en los Estados Unidos respecto a la necesidad de una mayor regulación de internet en oposición al ejercicio de las libertades que hasta ahora se han gozado en línea. También se preguntó a los encuestados si estas compañías son buenas para el mundo: Google obtuvo el 58% de acuerdo, Facebook un 32% y Twitter un 20% (Solon, 2017b). Después de todo no es una respuesta fácil, pues temas como la libertad de expresión, la censura y el derecho a la privacidad están sobre la mesa.
Una encuesta similar llevada a cabo por el periódico The Guardian sólo respecto a Facebook obtuvo peores resultados para la compañía, pues sólo 10% de los participantes indicaron que Facebook era buena para el mundo (Solon, 2017b).
Pulso del grupo es una emisión semanal en donde la Dra. María Luisa Zorrilla y Bruno Hernández comentan los sucesos más relevantes vividos durante el MOOC Exploradores de la Posverdad.
En este episodio, comentamos sobre el argumento del cómic, e hilamos algunas de las situaciones que se comentan en la teoría con lo que sucedió en los foros y el quiz del Dr. Falaz. Platicamos sobre algunos de sus comentarios, destacamos a los usuarios con mejores puntajes hasta el momento y como cada semana, damos algunas recomendaciones para una mejor experiencia.
Esta es una producción del Espacio de Formación Multimodal e-UAEM.
El contenido de este audio es autoría de la Dra. María Luisa Zorrilla Abascal, profesora investigadora del Instituto de Ciencias de la Educación en la Universidad Autónoma del Estado de Morelos en México. Para más información puede ponerse en contacto con al correo: maria.zorrilla@uaem.mx.
Hasta hace pocos años, los intentos por influir en la opinión pública se basaban en prácticas de dispersión masivas de uno a muchos (medios masivos tradicionales). Sin embargo, las redes sociales permiten potenciar una práctica que antes era mucho más lenta y de alcance limitado, que es la dispersión de boca en boca. Cuando un usuario recibe un contenido que le parece interesante, es probable que lo comparta. Una vez hecho esto, quienes lo reciban juzgarán el contenido por la persona que se los compartió, en quien probablemente confían, y lo compartirán igualmente. Esto genera una cadena que en forma acelerada logra dispersar la información a partir de las redes de pares.
La clave en estas cadenas, como es fácil observar, son las interacciones con la información. Dichas interacciones son de dos tipos: a) Reaccionar (me gusta, me enoja, me hace reír, etc.) y b) Compartir.
La explicación previa da cuenta del proceso. Sin embargo, para comprender en forma cabal este fenómeno social es importante considerar varios ángulos:
1) Los actores: ¿Quiénes comparten noticias?
Un estudio publicado en la revista Social Media + Society (Kalogeropoulos et al., 2017) identificó qué usuarios son los más proclives a compartir y comentar noticias. La investigación se llevó a cabo en seis países. Entre los hallazgos más importantes se cuentan: a) la gente que usa redes sociales para consumo de noticias es más proclive a seguir las noticias en otros medios fuera de las redes sociales y a compartir por otras vías, como el correo electrónico; b) los partidarios políticos son más proclives a compartir y comentar cierto tipo de noticias en redes sociales; y c) la gente interesada en las noticias "duras" es más proclive a comentar y compartir cualquier tipo de noticias (duras o suaves) vía correo electrónico.
Las noticias "duras" son las referentes a tópicos importantes y de actualidad como política, asuntos internacionales y negocios. Las noticias "suaves" incluyen entretenimiento, celebridades y estilos de vida.
Quienes interactúan (reaccionan y/o comparten) pueden ser de tres tipos:
Aliados y cómplices (reaccionan favorablemente, comparten y son seguidores).
Oponentes: (reaccionan en forma adversa, desmienten, señalan (flag) y refutan).
Mirones: testigos que no interactúan (no comparten ni reaccionan).
2) Nuestras motivaciones: ¿Por qué compartimos?
Si bien es interesante revisar los estudios que perfilan a los actores que encabezan la interacción con las noticias en línea, es aún más interesante analizar sus motivaciones, es decir, por qué lo hacen (o lo hacemos).
El reporte titulado "La Psicología de compartir" (The Psychology of Sharing), citado por Dafonte-Gómez (2018) identifica varias motivaciones en la práctica de compartir:
el altruismo, motivado/a por el deseo de ofrecer contenido valioso a otros;
el entretenimiento, en donde el contenido compartido atiende la necesidad propia y de terceros de escapismo, disfrute y relajamiento emocional;
la socialización, que implica afecto, inclusión, aprobación, pertenencia a un grupo social;
la utilidad percibida, que es un motor importante para recomendar contenido que se considera de valor;
la autopromoción, es decir, la construcción de una identidad a partir de la información que compartimos y a la que reaccionamos (profundo, serio, informado, divertido, politizado, etc.).
3) El valor de un titular: ¿Cómo elegimos qué compartir?
Se pensaría que la gente que comparte una noticia ya la leyó y, dado que la considera interesante, la comparte. Sin embargo, estudios recientes reportados en Forbes (DeMers, 2016) indican que 59% de los vínculos compartidos en redes sociales son socializados sin hacer clic en ellos, es decir, que las motivaciones antes revisadas (altruismo, entretenimiento, utilidad, etc.) muchas veces no se basan en el contenido de las noticias, sino sólo en sus titulares.
Esto sucede por dos razones:
Lapsos de atención. Los lapsos de atención de los seres humanos se han ido reduciendo en esta era digital y la mayoría de los usuarios toman decisiones apresuradas basadas en primeras impresiones, sin darse tiempo para una revisión más a fondo.
Esfuerzo. Requiere menos tiempo y esfuerzo compartir una noticia que leerla. En contramano, la recompensa de compartirla es mayor, porque genera atención de amigos y familia, que creerán que la leímos, y contribuye a la construcción de nuestra identidad en línea. Leer la noticia, en cambio, no ofrece recompensas extrínsecas.
4) Las motivaciones de terceros: Nadie sabe para quién trabaja
Interactuamos con la información en línea en función de nuestras motivaciones, pero también estamos a merced de motivaciones de terceros que explotan nuestros gustos, preferencias e intereses para diferentes propósitos.
Para develar dichas motivaciones, la mejor vía es seguir el rastro de eso que llamamos noticias falsas.
La carnada: Quienes publican noticias falsas saben cómo explotar nuestras emociones y los temas a los que responderemos con mayor intensidad. Las noticias falsas exitosas explotan temas populistas tales como sentimientos contra el establishment, nacionalismo y fundamentalismos (fanatismos de diversa índole), así como las debilidades percibidas de figuras públicas, como misoginia o corrupción. La carnada nos hace morder el anzuelo y hacemos clic en esas noticias (por eso se llaman en inglés clickbait).
Aunque no interactuemos con la noticia (reaccionar o compartir), es muy probable que nuestro clic haya sido registrado por los rastreadores y por tanto nos hemos sumado a la contabilidad de ojos disponibles para cierta publicidad que convenientemente se ha situado adyacente a la noticia en cuestión. Esta práctica publicitaria poco ética ha provocado quejas de corporaciones serias cuyos anuncios han aparecido en sitios que promueven terrorismo, racismo o abuso a menores.
Por tanto, noticias que parecen favorecer o atacar a un candidato en una campaña, no necesariamente son generadas por los seguidores u opositores. Como sucedió en la campaña presidencial de 2016 en los Estados Unidos, la figura polémica de Trump fue explotada por hábiles mercaderes para atraer tráfico a sus sitios web a fin de generar ganancias publicitarias, y en el camino propulsaron su popularidad. Obvia decir que muchas de estas estrategias sí fueron patrocinadas por sus seguidores, pero otras tantas fueron mero producto del oportunismo.
Los desmentidos: Refutar noticias falsas (debunk) es algo que se considera positivo, pues busca corregir los entuertos provocados por información falaz. Sin embargo, paradójicamente a veces los desmentidos, al citar la noticia falsa que pretenden desmentir, contribuyen a hacerla más visible.
Como se puede apreciar, las dinámicas sociales en torno a la viralización de las noticias son intrincadas redes de actores y motivaciones en las que jugamos o juegan con nosotros.
El contenido de este audio es autoría de la Dra. María Luisa Zorrilla Abascal, profesora investigadora del Instituto de Ciencias de la Educación en la Universidad Autónoma del Estado de Morelos en México. Para más información puede ponerse en contacto con al correo: maria.zorrilla@uaem.mx.
Un estudio científico publicado en la prestigiada revista Science (Vosoughi et al., 2018) y comentado en Fortune (Morris, 2018), reporta que un seguimiento efectuado en la dispersión de 126,000 noticias en Twitter entre septiembre de 2006 y diciembre de 2016, arrojó que la falsedad se disemina más ampliamente, más rápidamente y más profundamente que la verdad en todas las categorías de información.
Los autores atribuyen el fenómeno a las emociones de los usuarios, ya que las noticias falsas generan miedo, disgusto y sorpresa, que son detonadores de reacciones en redes sociales, en tanto las noticias veraces generan anticipación, tristeza, alegría y confianza, emociones que generan menos reacciones. Al parecer, el miedo y la sorpresa son más virales que la tristeza y la confianza.
El estudio afirma que los bots no son tan cruciales, como las reacciones emocionales de los usuarios.
Otro estudio presentado en la Conferencia Internacional de la World Wide Web (Guerini y Staiano, 2015) obtuvo resultados similares. Según los autores, en las prácticas de compartir noticias, hay dos niveles, lo que se conoce como broadcasting, cuando el usuario comparte con todos sus contactos, y narrowcasting cuando sólo comparte con algunos contactos seleccionados.
En este estudio realizado con población de diferentes contextos culturales, los investigadores encontraron que las prácticas de compartir dependen en gran medida de las emociones que genera la información. Las emociones tienen valores positivos o negativos, según nos hagan sentir bien o mal (valencia), pero también puntúan diferente en el nivel de agitación que provocan en nosotros y en qué tanto nos hacen sentir en control o no de la situación. Hay emociones como el miedo, que es negativo, nos hace sentir agitados y en menor control de la situación. Hay otras emociones, como el enojo, la felicidad y la inspiración, que nos agitan, en forma negativa o positiva, pero nos hacen sentir más en control de la situación. La tristeza, por ejemplo, nos agita menos y también nos hace sentir menos en control.
Conforme a esta caracterización de las emociones, a partir del modelo VAD (Valence, Arousal y Dominance) que son las características de las emociones antes descritas, los autores identificaron que los lectores son más proclives a compartir ampliamente (broadcast) contenido que los agita, positiva o negativamente, pero que los hace sentir en control (sorpresa, alegría, inspiración). En tanto el narrowcasting (compartir en forma selectiva) corresponde a contenido que los agita, pero los hace sentir menos en control (enojo, miedo, tristeza). Un resultado que se repitió en general es que el contenido con valencia negativa es más viral que el contenido con valencia positiva, a pesar de que a menudo fluye en bloques más compactos mediante el narrowcasting.
El contenido de este audio es autoría de la Dra. María Luisa Zorrilla Abascal, profesora investigadora del Instituto de Ciencias de la Educación en la Universidad Autónoma del Estado de Morelos en México. Para más información puede ponerse en contacto con al correo: maria.zorrilla@uaem.mx.
Lo que se denomina fake news o noticias falsas, no puede analizarse sólo a la luz de su contenido, pues son sus lógicas de flujo y circulación, en parte, las que construyen este fenómeno social. Si un blog dice que el Papa Francisco visitará la Luna es sólo una mentira. Pero si esa información se disemina aceleradamente, es decir, se vuelve viral, entonces puede decirse que se trata de una noticia falsa o fake news. Por tanto, este fenómeno es la combinación de contenidos y de dinámicas de dispersión.
Se dice que una noticia es viral, sea verdadera o falsa, cuando se trata de información que circula rápidamente a través de internet y de las redes sociales en línea. Este fenómeno es impulsado por la combinación de tres factores: a) Mecanismos y agentes automatizados; b) Motivaciones individuales; c) Dinámicas sociales.
En este primer apartado revisaremos brevemente los principales mecanismos y agentes que propician la propagación de la información de todo tipo, incluidas noticias falsas.
1) Recolección de datos conductuales (behavioral data collection)
Originalmente las herramientas para seguir la pista del comportamiento de los usuarios en línea fueron desarrolladas por la industria publicitaria, para ofrecer anuncios "a la medida" de los gustos y necesidades de los usuarios. Esta tecnología se conoce como "rastreo" o "tracking" y su forma más conocida son las llamadas cookies, que se depositan en los navegadores y que recaban y envían información de lo que hace un usuario en línea… es decir, qué sitios visita, qué información busca, etc.
Cuando visitamos un sitio web, podemos encontrar dos tipos de cookies, las de los propietarios del sitio (first party cookies) y las de sus anunciantes (third party cookies).
Los mecanismos de rastreo establecen perfiles de usuarios (preferencias, intereses, creencias) y se usan para dirigir información específica, según dichos perfiles.
Dado que violan la privacidad, en muchos países es obligatorio que los sitios desplieguen una advertencia respecto al uso de cookies y que el usuario acepte su uso en forma explícita o tácitamente.
Otra herramienta de rastreo es el web beacon o beacon. Son objetos de programación que se insertan en una página web (generalmente en páginas de alto tráfico en donde un tercero paga por instalar su beacon). Cuando el usuario carga la página, el tercero recibe una señal y manda su beacon para que rastree la actividad del usuario en el sitio.
Algunas de las herramientas más usadas en el rastreo son Google Adsense, DoubleClick, Google Analytics, Gravatar, Wordpress Stats y Facebook Connect. Si bien muchas de estas herramientas son usadas por anunciantes, también están siendo empleadas por quienes diseminan noticias falsas con diferentes propósitos.
Un problema importante con los rastreadores y los filtros de redes sociales que analizan el comportamiento de los usuarios para proveerles con contenido personalizado, es que terminan confinándolos a una "burbuja" de opiniones sociales y políticas que se reciclan en sí mismas, generando lo que se conoce como filter bubble.
2) Trolls, bots y "sock-puppets"
Otro mecanismo para la dispersión de las noticias falsas con las identidades falsas que se usan para desviar e influir en la opinión pública vía las redes sociales.
Los trolls pueden ser humanos o bots (robots) cuyos blancos son generalmente cuentas de Twitter de líderes de opinión a quienes buscan descalificar. Su estrategia es publicar mensajes provocadores para generar respuestas emocionales negativas.
Diferentes estudios que han revisado cuentas de trollers en torno a procesos electorales, por ejemplo, han detectado que es común que tengan perfiles similares entre sí, compartan seguidores y que sus cuentas hayan sido creadas en fechas iguales o cercanas, lo que permite identificarlos como cuentas títere ("sock-puppet") generadas con el único fin de agredir a blancos específicos. Cabe aclarar que no todos los trollers en línea son cuentas títere.
Los bots (nombre corto para robots) son programas que pueden comportarse como seres humanos en las redes sociales, interactuando con la información para compartir y generar reacciones. Esto permite que una noticia parezca ser muy popular, aunque dicha popularidad esté sostenida por un montón de usuarios falsos.
Se estima que entre 9 y 15% de las cuentas activas de Twitter son bots (Bounegru, L. et al., 2017). Una publicación del prestigiado diario inglés The Guardian reporta que en Rusia 45% de las cuentas más activas en Twitter son bots (Hern, 2017). Un artículo de Lazer, D.M.J. et al., (2018) indica que se estima una población de 60 millones de bots entre los usuarios de Facebook. Una noticia en el diario Excélsior (2018) reporta que también Instagram tiene numerosos usuarios "fantasma".
3) Manipulación de buscadores
Dado que Google es el buscador más usado en numerosos países, una táctica importante para las campañas de malinformación y desinformación ha sido manipular el algoritmo de búsqueda de dicho motor. Estas técnicas, conocidas como black hat SEO (SEO son las siglas de search engine optimization), se diseñaron para engañar al algoritmo del famoso buscador y dominar los resultados de la búsqueda por unas horas, antes de que Google corrija la distorsión. Quienes usan estas estrategias intentan llevar sus contenidos a los primeros resultados de las búsquedas.
Es preocupante saber que hay agentes tratando de engañar al algoritmo de búsqueda de Google para posicionar información falsa. Sin embargo, es más preocupante aún que de origen, el algoritmo de un sitio web tan popular como YouTube esté orientado a privilegiar contenido sesgado y/o conspirativo. Un artículo publicado en The Guardian (Lewis, 2018) afirma que el algoritmo de YouTube está diseñado para distorsionar la realidad. Por tanto, habría que revisar con ojo crítico los videos que nos presenta como más populares o recomendados.
Además de las técnicas de sombrero negro (black hat), hay técnicas más legítimas, pero que también pueden engañar al algoritmo de Google. Se basan en tres características que Google valora:
Contenido: En la medida que exista consistencia entre titulares, textos y palabras clave, el contenido será mejor puntuado.
Vínculos: Si el sitio es referido (vinculado) desde otros sitios web (backlinks) puede contribuir o no en su puntaje. Si son de sitios creíbles, incrementan el puntaje, si son de sitios spam, perjudican el puntaje. También cuentan links de redes sociales.
Popularidad: Cada clic de visitantes a un sitio mejora su puntuación.
4) Gestores de Redes Sociales
Otra estrategia para perfilar usuarios, es el uso de los llamados Social Media Management Services (SMMS) o gestores de redes sociales. Estas soluciones usan las analíticas de datos de los usuarios de redes sociales para dirigirles los mensajes correctos en el tiempo correcto, a través de canales múltiples en forma simultánea y automática. Algunas firmas que ofrecen estos servicios son Hootsuite, Sprinklr, Hubspot y Sprout Social. Estas herramientas buscan una mayor automatización en la gestión de contenidos publicitarios en redes sociales para que los grandes anunciantes puedan gestionar sus campañas sin necesitar de gestores humanos para ello. Esto se basa en inteligencia artificial (también llamada machine learning).
Como otras herramientas enumeradas en este apartado, aunque estos gestores fueron creados para la industria publicitaria, también están al servicio de dispersores de noticias falsas.
Pulso del grupo es una emisión semanal en donde la Dra. María Luisa Zorrilla y Bruno Hernández comentan los sucesos más relevantes vividos durante el MOOC Exploradores de la Posverdad.
En este episodio, comentamos sobre su experiencia con el Quizz de Buzzfeed, sobre la globalidad del curso, la polémica sobre Ignacia Cienfuegos, dudas sobre las respuestas en los finales interactivos y como cada semana, damos algunas recomendaciones para una mejor experiencia.
Esta es una producción del Espacio de Formación Multimodal e-UAEM.
Cápsula producida por Radio UAEM como parte de la promoción del MOOC Exploradores de la Posverdad: Literacidad Informacional vs. Noticias Falsas impartido por la Universidad Autónoma del Estado de Morelos en la plataforma MéxicoX.
Cápsula producida por Radio UAEM como parte de la promoción del MOOC Exploradores de la Posverdad: Literacidad Informacional vs. Noticias Falsas impartido por la Universidad Autónoma del Estado de Morelos en la plataforma MéxicoX.



