lidiar con la desinformación 4 26
La cantidad de información en línea es abrumadora. Shyntartanya

De la pandemia de COVID-19 a la guerra en Ucrania, la desinformación abunda en todo el mundo. Se han diseñado muchas herramientas para ayudar a las personas a detectar información errónea. El problema con la mayoría de ellos es lo difícil que es entregarlos a escala.

Pero es posible que hayamos encontrado una solución. en nuestro nuevo estudio diseñamos y probamos cinco videos cortos que "prevencen" a los espectadores, para vacunarlos de las técnicas engañosas y manipuladoras que a menudo se usan en línea para engañar a las personas. Nuestro estudio es el más grande de su tipo y el primero en probar este tipo de intervención en YouTube. A cinco millones de personas se les mostraron los videos, de los cuales un millón los vio.

Descubrimos que estos videos no solo ayudan a las personas a detectar información errónea en experimentos controlados, sino también en el mundo real. Ver uno de nuestros videos a través de un anuncio de YouTube aumentó la capacidad de los usuarios de YouTube para reconocer información errónea.

A diferencia del desmentido previo, el desmentido (o la verificación de hechos) de la información errónea tiene varios problemas. A menudo es difícil establecer cual es la verdad. Fact-checks también con frecuencia fallar para llegar a las personas que tienen más probabilidades de creer en la información errónea y hacer que las personas aceptar las verificaciones de hechos pueden ser un desafío, especialmente si las personas tienen una fuerte identidad política.


gráfico de suscripción interior


Los estudios muestran que la publicación de verificaciones de hechos en línea no revierte por completo los efectos de la desinformación, un fenómeno conocido como el efecto de influencia continua. Hasta ahora, los investigadores se han esforzado por encontrar una solución que pueda llegar rápidamente a millones de personas.

La gran idea

teoría de la inoculación es la noción de que puedes forjar una resistencia psicológica contra los intentos de manipularte, al igual que una vacuna médica es una versión debilitada de un patógeno que incita a tu sistema inmunológico a crear anticuerpos. Las intervenciones de prebunking se basan principalmente en esta teoría.

La mayoría de los modelos se han centrado en contrarrestar ejemplos individuales de información errónea, como publicaciones sobre cambio climático. Sin embargo, en los últimos años investigadores de alta calidad que incluyen nosotros mismos han explorado formas de inocular a las personas contra las técnicas y los tropos que subyacen en gran parte de la información errónea que vemos en línea. Dichas técnicas incluyen el uso de lenguaje emotivo para provocar indignación y miedo, o convertir a personas y grupos en chivos expiatorios por un problema sobre el que tienen poco o ningún control.

Juegos en línea como Tío malhumorado y Malas noticias estuvieron entre los primeros intentos de probar este método de prebunking. Hay varias ventajas de este enfoque. No tiene que actuar como árbitro de la verdad, ya que no tiene que verificar las afirmaciones específicas que ve en línea. Le permite eludir debates emotivos sobre la credibilidad de las fuentes de noticias. Y quizás lo más importante, no necesita saber qué información errónea se volverá viral a continuación.

Un enfoque escalable

Pero no todo el mundo tiene el tiempo o la motivación para jugar un juego, así que colaboramos con Rompecabezas (unidad de investigación de Google) en una solución para llegar a más de estas personas. Nuestro equipo desarrolló cinco videos de prebunking, cada uno con una duración de menos de dos minutos, cuyo objetivo era inmunizar a los espectadores contra una técnica de manipulación diferente o una falacia lógica. Como parte del proyecto, lanzamos un página web donde la gente puede ver y descargar estos videos.

Primero probamos su impacto en el laboratorio. Realizamos seis experimentos (con alrededor de 6,400 participantes en total) en los que las personas vieron uno de nuestros videos o un video de control no relacionado sobre quemadura por congelamiento. Luego, dentro de las 24 horas posteriores a la visualización del video, se les pidió que evaluaran una serie de ejemplos de contenido de redes sociales (no publicados) que hacían o no uso de técnicas de desinformación. Descubrimos que las personas que vieron nuestros videos de prebunking eran significativamente menos propensas a la manipulación que los participantes de control.

Pero los hallazgos de los estudios de laboratorio no necesariamente se traducen al mundo real. Así que también realizamos un estudio de campo en YouTube, el segundo sitio web más visitado del mundo (propiedad de Google), para probar la efectividad de las intervenciones de video allí.

Para este estudio, nos enfocamos en los usuarios de YouTube de EE. UU. mayores de 18 años que previamente habían visto contenido político en la plataforma. Ejecutamos una campaña publicitaria con dos de nuestros videos, mostrándoselos a alrededor de 1 millón de usuarios de YouTube. Luego usamos YouTube MarcaLift herramienta de participación para pedir a las personas que vieron un video de prebunking que respondan una pregunta de opción múltiple. La pregunta evaluó su capacidad para identificar una técnica de manipulación en un titular de noticias. También tuvimos un grupo de control, que respondió la misma pregunta de la encuesta pero no vio el video de prebunking. Descubrimos que el grupo de prebunking fue un 5-10 % mejor que el grupo de control para identificar correctamente la información errónea, lo que demuestra que este enfoque mejora la resiliencia incluso en un entorno de distracción como YouTube.

Uno de los videos de prebunking ("falsas dicotomías")

 

Nuestros videos costarían menos de 4 peniques por visualización de video (esto cubriría las tarifas de publicidad de YouTube). Como resultado de este estudio, Google lanzará una campaña publicitaria con videos similares en septiembre de 2022. Esta campaña se realizará en Polonia y la República Checa para contrarrestar la desinformación sobre los refugiados en el contexto de la guerra entre Rusia y Ucrania.

Cuando intenta desarrollar resiliencia, es útil evitar ser demasiado directo al decirle a la gente qué creer, porque eso podría desencadenar algo llamado reactancia psicológica. La reactancia significa que las personas sienten que su libertad para tomar decisiones está siendo amenazada, lo que hace que se obstinen y rechacen nueva información. La teoría de la inoculación se trata de empoderar a las personas para que tomen sus propias decisiones sobre qué creer.

A veces, la difusión de teorías de conspiración e información falsa en línea puede ser abrumadora. Pero nuestro estudio ha demostrado que es posible cambiar el rumbo. Cuanto más trabajen las plataformas de redes sociales junto con científicos independientes para diseñar, probar e implementar soluciones escalables basadas en evidencia, mayores serán nuestras posibilidades de hacer que la sociedad sea inmune a la avalancha de información errónea.

Sobre el Autor

jon roozenbeek, Becaria Postdoctoral, Psicología, Universidad de Cambridge; Sander van der Linden, Profesor de Psicología Social en la Sociedad y Director del Laboratorio de Toma de Decisiones Sociales de Cambridge, Universidad de Cambridgey Stephan Lewandowsky, Catedrático de Psicología Cognitiva, Universidad de Bristol

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.

libros_conciencia