"El Papa Francisco conmociona al mundo, respalda a Donald Trump para presidente". "El asistente de Clinton, JW McGill, es encontrado muerto". "'Decenas de miles' de votos fraudulentos de Clinton encontrados en el almacén de Ohio". Estos titulares de noticias impactantes del año pasado tuvieron algo en común: no eran ciertos. En lo mas minimo. Cada uno fue fabricado, ya sea por malicia o por un intento de sacar provecho de los ingresos publicitarios, en un esfuerzo por engañar a la mayor cantidad posible de lectores involuntarios de Internet. Eran, en otras palabras, "noticias falsas".
contenido relacionado
- Luchando contra los nazis con noticias falsas
- El falso programa de radio británico que ayudó a derrotar a los nazis
- ¿El remedio para la difusión de noticias falsas? Profesores de historia
Las noticias falsas, por supuesto, no son nada nuevo. En el pasado tomó la forma de panfletos creados para difamar enemigos políticos o historias sensacionalistas diseñadas para "volverse virales" a la antigua usanza de las ventas de periódicos. Pero el reciente aumento de información falsa habilitado por nuestros nuevos paisajes de redes sociales lo ha impulsado hacia adelante como un problema serio digno de debate nacional e incluso internacional.
El problema, dice la gente, es el medio. Lo que tiene sentido: las plataformas de redes sociales como Facebook enfrentan críticas por permitir la difusión de este tipo de información engañosa o incorrecta, porque permiten que cualquier usuario o incluso bots automatizados publiquen artículos de aspecto legítimo, que luego se propagan como incendios forestales a través de "me gusta" "y" compartir ". Ahora Facebook ha lanzado nuevas herramientas para acabar con los artículos virales falsos, mientras que Twitter está probando una nueva característica para permitir a los usuarios marcar información engañosa, falsa o dañina.
Pero un nuevo estudio publicado esta semana en la revista Nature Human Behavior muestra que las limitaciones del cerebro humano también tienen la culpa. Cuando las personas se sobrecargan con nueva información, tienden a confiar en mecanismos de afrontamiento menos que ideales para distinguir lo bueno de lo malo, y terminan privilegiando la popularidad sobre la calidad, sugiere el estudio. Es esta combinación letal de saturación de datos y períodos de atención cortos y extendidos lo que puede permitir que las noticias falsas se difundan de manera tan efectiva.
"A través de redes como Twitter y Facebook, los usuarios están expuestos diariamente a una gran cantidad de información transmisible que compite para alcanzar el éxito", dice Diego Fregolente Mendes de Oliveira, físico de la Universidad Northwestern que estudia cómo funcionan y lideran las redes de personas. autor del estudio.
Debido a los importantes impactos que las redes sociales pueden tener en la política y la vida, dice Oliveira, discriminar entre información buena y mala se ha vuelto "más importante en las redes de información en línea de hoy que nunca". Sin embargo, a pesar de que las apuestas son más altas, la dinámica de los grupos de ideas afines, como los que se encuentran en las redes sociales, puede socavar el juicio colectivo de esos grupos, lo que hace aún más difícil hacer juicios sobre las noticias falsas. Como dice el estudio, cuando se les da demasiada información, los humanos se vuelven "vulnerables a la manipulación".
En 2016, Oliveira se propuso estudiar cómo se difunde la información en las redes sociales y, en particular, cómo la "información de baja calidad" o las noticias falsas pueden convertirse en un contagio. Diseñó un modelo teórico para predecir cómo se propagan las noticias falsas en las redes sociales.
El modelo no incorporó usuarios humanos reales o artículos falsos reales. Pero se basó en datos recopilados por observadores independientes sobre artículos de Facebook y Twitter desacreditados (pero no obstante populares) para calcular una proporción promedio de noticias reales a noticias falsas en publicaciones marcadas para su revisión por los usuarios. Oliveira usó esta relación para ejecutar un algoritmo que diseñó para compartir noticias en una red.
Este modelo fue similar en diseño a un estudio anterior en el que Oliveira mostró cómo las personas que se segregan en redes separadas, las burbujas sociales de personas con ideas afines que uno tiende a crear en Facebook, por ejemplo, pueden contribuir a engaños y a la difusión de información falsa. Según se piensa, es menos probable que estas personas estén expuestas a información contraria a las publicaciones que comparten sus amigos de ideas afines que podrían expulsar noticias falsas y revelar la verdad.
Con flujos de información relativamente bajos, su algoritmo predijo que un usuario teórico de las redes sociales podía discriminar bien entre noticias genuinas y falsas, compartiendo principalmente noticias genuinas. Sin embargo, a medida que Oliveira y sus coautores modificaron el algoritmo para reflejar flujos de información cada vez mayores, el equivalente a desplazarse a través de un feed interminable de Twitter o Facebook, el usuario teórico demostró ser cada vez menos capaz de separar la información de calidad de la mala información.
Oliveira descubrió que, en general, la popularidad tenía un efecto más fuerte sobre si una persona compartía algo más que calidad. A niveles más altos de flujo de información, ese efecto se hizo más pronunciado, lo que significa que, en teoría, las personas pasarían menos o ningún tiempo evaluando la calidad de la información antes de decidir compartirla. Pronto, a medida que prestaban cada vez menos atención a cada información, la gente compartía noticias falsas a tasas cada vez más altas.
Con las tasas más altas modeladas, la calidad de una información no tuvo ningún efecto en la popularidad de esa información. "Mostramos que tanto la sobrecarga de información como la atención limitada contribuyen a una degradación en el poder discriminatorio del sistema", dijo Oliveira por correo electrónico.
Si bien el modelo tiene limitaciones claras, proporciona una interpretación de cómo se difunden las noticias falsas. "Tradicionalmente se cree que la verdad tiene cierto poder inherente para vencer a lo falso", dice Haluk Bingol, ingeniero informático de la Universidad Boğaziçi en Turquía, que ha estudiado durante mucho tiempo las redes en línea. "Del mismo modo, lo bueno finalmente vence a lo malo. Las normas sociales se basan en estos supuestos. Curiosamente, esto nunca se ha probado empíricamente".
Bingol, que no participó en este estudio, dice que el estudio destaca cómo la calidad de la información no siempre gana cuando se trata de distribución. La investigación de Oliveira se alinea con los hallazgos anteriores de Bingol sobre la elección de la relación y la cantidad de información. En un artículo, descubrió que la recomendación de un comerciante que anunciaba un determinado artículo a un cliente potencial importaba aún más cuando al cliente se le presentaban más opciones para elegir.
"Es decir, si aumenta artificialmente el número de opciones, puede obtener mejores resultados con el mismo 'impulso de marketing'", dice Bingol. En otras palabras, una persona que está sobrecargada de información es mucho más fácil de manipular, tanto para anunciantes como para proveedores de noticias falsas. "Claramente, esto no es difícil de hacer hoy", agrega.
Walter Quattrociocchi, un informático de la Escuela IMT de Estudios Avanzados de Lucca en Italia, es más escéptico sobre el modelo de Oliveira. "Simplificar demasiado la compleja dinámica social detrás del surgimiento de las narrativas podría ser engañoso", dice Quattrociocchi, que no participó en esta investigación. Por ejemplo, el modelo utilizado funcionó con la suposición simplificada de que los usuarios de las redes sociales introducen nueva información al mismo ritmo, y que todos los usuarios comienzan con los mismos intervalos de atención.
Si bien el estudio le pareció interesante, Quattrociocchi señala que otras investigaciones han demostrado cómo el sesgo de confirmación y otros factores más allá del alcance del modelo de Oliveira pueden afectar significativamente la difusión de información en línea.
Para futuras investigaciones, Oliveira espera mejorar su modelo con algunos de estos otros hechos, incluida la forma en que la relación de una persona con el que comparte la información afecta la forma en que la procesan y la probabilidad de que las personas cambien de opinión al recibir información en línea que entra en conflicto con sus creencias actuales
Al final del día, Oliveira cree que detener las noticias falsas comienza con los lectores. Sugiere que las personas lean detenidamente lo que comparten en línea, eviten dejar de ser amigos o dejar de seguir a las personas para crear una cámara de eco en línea, y eviten asumir que cualquier cosa es confiable incluso si confían en la persona que la comparte. "Tenga en cuenta que nuestros amigos probablemente no son buenos editores y están motivados por emociones y prejuicios más que por la objetividad y la confiabilidad", señala.
Por lo tanto, lea este artículo otra vez y compruebe de dónde vino antes de hacer clic en "compartir".