Cómo se podría ganar la guerra contra las noticias falsas con la ayuda de la ciencia del comportamiento
No está claro si la campaña de noticias antifalsas de Malasia también cuenta con el respaldo de la ciencia del comportamiento.
AP Photo / Vincent Thian

CEO de Facebook Mark Zuckerberg recientemente reconocido la responsabilidad de su empresa de ayudar a crear la enorme cantidad de noticias falsas que plagaron las elecciones de 2016 después de negaciones anteriores. Sin embargo, no ofreció detalles concretos sobre lo que Facebook podría hacer al respecto.

Afortunadamente, hay una forma de luchar contra las noticias falsas que ya existen y que tiene a la ciencia del comportamiento de su lado: la Compromiso Pro-Verdad proyecto.

I fue parte de un equipo de científicos del comportamiento que se le ocurrió la idea de una promesa como una forma de limitar la propagación de la información errónea en línea. Dos estudios que intentaron evaluar su eficacia sugieren que realmente funciona.

La lucha contra la falsificación de noticias

Un creciente número de legisladores estadounidenses y ciudadanos comunes creen que las compañías de medios sociales como Facebook y Twitter necesitan hacer más para luchar contra la difusión de noticias falsas, incluso si resulta en censura.

A encuesta reciente, por ejemplo, mostró que el porcentaje de 56 de encuestados dice que las compañías tecnológicas "deberían tomar medidas para restringir la información falsa en línea, incluso si limita la libertad de información".


gráfico de suscripción interior


Pero qué pasos podrían tomar, menos la censura y el control del gobierno, es una gran pregunta.

Antes de responder eso, consideremos cómo se difunden las noticias falsas. En las elecciones de 2016, por ejemplo, hemos aprendido que mucha desinformación fue el resultado de bots rusos que falsedades usadas para tratar de exacerbar las divisiones religiosas y políticas estadounidenses.

Sin embargo, las publicaciones hechas por bots no significarían mucho a menos que millones de usuarios regulares de redes sociales elijan compartir la información. Y resulta que la gente común difundir desinformación en las redes sociales mucho más rápido y más allá de historias reales.

En parte, este problema resulta de personas que comparten historias sin leerlos. No sabían que estaban diseminando falsedades.

Sin embargo, 14 porcentaje de estadounidenses encuestados en un Encuesta 2016 informaron a sabiendas de que compartían noticias falsas. Esto puede deberse a que la investigación muestra que las personas son mayor riesgo engañar a los demás cuando Beneficia su partido político u otro grupo al que pertenecen, especialmente cuando ven que otros de ese grupo comparten información errónea.

Afortunadamente, las personas también tienen un tic conductual que puede combatir esto: queremos ser percibidos como honestos. La investigación ha demostrado que el incentivo de las personas para mentir disminuye cuando creen que hay una riesgo mayor de consecuencias negativas, son recordados sobre ética, o hacer comportarse honestamente

Es por eso que los códigos de honor reducir el engaño y promesas de virginidad retrasar inicio sexual

'Being Patriotic' era una página de Facebook que según los informes era dirigida por provocadores rusos
'Being Patriotic' fue una página de Facebook que, según los informes, estaba dirigida por provocadores rusos que intentaban influir en las elecciones de 2016. Pero no habría llegado a nada si los usuarios habituales no lo hubieran compartido.
AP Photo / Jon Elswick

Tomando la promesa

Ahí es donde entra la "promesa a favor de la verdad".

Horrorizado por la desinformación que caracterizó tanto a las elecciones estadounidenses como a las Campaña Brexit del Reino Unido, un grupo de científicos del comportamiento en la Universidad Estatal de Ohio y la Universidad de Pensilvania, incluyéndome a mí, quería crear una herramienta para luchar contra la desinformación. La promesa, lanzada en diciembre 2016, es un proyecto de una cofundada sin fines de lucro que yo denomino Intentional Insights.

El objetivo del compromiso es promover la honestidad al pedirles a las personas que se comprometan con los comportamientos de 12 que la investigación muestra se correlacionan con una orientación hacia la veracidad. Por ejemplo, la promesa pide a los tomadores que comprueben la información antes de compartirla, citan fuentes, piden a amigos y enemigos que retracten la información que se muestra como falsa y desalientan a otros a usar fuentes de noticias poco confiables.

Hasta el momento, las personas y organizaciones de 6,700 han asumido el compromiso, incluido el psicólogo social estadounidense. Jonathan Haidt, Filósofo moral australiano Peter Singer, Sesgo de medios / Verificación de hechos y legisladores estadounidenses Beto O'Rourke, Matt Cartwright y Marcia Fudge.

Alrededor de 10 meses después de lanzar la promesa, mis colegas y yo queríamos evaluar si, de hecho, ha sido eficaz para cambiar el comportamiento y reducir la difusión de noticias no verificadas. Por lo tanto, realizamos dos estudios que comparan la participación de las personas comprometidas en Facebook. Para agregar una pequeña perspectiva externa, incluimos un investigador de la Universidad de Stuttgart que no participó en la creación de la promesa.

In un estudio, les pedimos a los participantes que completaran una encuesta en la que evaluaran qué tan bien se compartía la información sobre sí mismos y las páginas de perfil de los demás con los comportamientos de 12 descritos en el compromiso un mes antes y después de que lo firmaran. La encuesta reveló grandes y estadísticamente significativos cambios en el comportamiento, incluyendo verificación de datos más exhaustiva, creciente renuencia para compartir publicaciones emocionalmente cargadas, y nueva tendencia para hacer retroceder a los amigos que compartieron información.

Si bien el autoinforme es una metodología bien aceptada que emula el enfoque de los estudios sobre Códigos de honor y promesas de virginidad, está sujeto a sesgo potencial de sujetos que informan cambios deseables, como conductas más veraces, independientemente de si estos cambios están presentes.

Entonces en una segundo estudio obtuvimos permiso de los participantes para observar su intercambio real en Facebook. Examinamos las primeras publicaciones relevantes para noticias de 10 un mes después de que asumieron el compromiso y calificaron la calidad de la información compartida, incluidos los enlaces, para determinar qué tan cerca estaban sus publicaciones del comportamiento de la promesa. Luego miramos las primeras publicaciones relevantes para noticias de 10 11 meses antes de que tomaran el compromiso y las calificaran. Volvimos a encontrar cambios importantes y estadísticamente significativos en el cumplimiento de las promesas de las conductas de 12 por parte de quienes se comprometen, como por ejemplo, menos publicaciones que contienen información errónea e incluyen más fuentes.

Aclarando la "verdad"

La razón por la cual funciona el compromiso, creo, es porque reemplaza el concepto difuso de "verdad", que las personas pueden interpretar de manera diferente, con comportamientos claramente observables, como verificar los hechos antes de compartir, diferenciar las opiniones de los hechos y citar fuentes.

La conversaciónEl compromiso que desarrollamos es solo una parte de un esfuerzo mayor para luchar contra la desinformación. En última instancia, esto muestra que existen herramientas simples que Facebook y otras compañías de medios sociales pueden usar para combatir el ataque de desinformación que las personas enfrentan en línea, sin recurrir a la censura.

Sobre el Autor

Gleb Tsipursky, Profesor Asistente de Historia de las Ciencias del Comportamiento, La Universidad del Estado de Ohio

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libros de este autor

at InnerSelf Market y Amazon