El problema de Facebook es más complicado que las noticias falsas

A raíz de la inesperada victoria de Donald Trump, muchos frecuentes se han planteado sobre el papel de Facebook en la promoción de información inexacta y altamente partidista durante la carrera presidencial y si esta noticia falsa influyó en el resultado de la elección.

Algunos han minimizado El impacto de Facebook, incluido el CEO Mark Zuckerberg, quien dijo que es "Extremadamente improbable" esa noticia falsa podría haber influido en las elecciones. Pero las preguntas sobre la importancia política de la red social merecen algo más que atención pasajera.

Hacer Facebook algoritmos de filtrado explicar por qué tantos liberales habían perdido la confianza en una victoria de Clinton (haciéndose eco del error cometido por Partidarios de Romney en 2012)? Y es las noticias falsas circulan en Facebook ¿La razón por la que tantos partidarios de Trump han respaldado declaraciones demostrablemente falsas hechas por su candidato?

La afirmación popular de que las "burbujas de filtro" son la razón por la cual las noticias falsas prosperan en Facebook es casi seguro que está equivocada. Si la red está alentando a la gente a creer falsedades, y eso es un gran si, el problema probablemente radique en cómo la plataforma interactúa con las tendencias sociales humanas básicas. Eso es mucho más difícil de cambiar.

Un público desinformado

El papel de Facebook en la difusión de noticias políticas es innegable. En mayo 2016, 44 por ciento de los estadounidenses dijeron que recibieron noticias del sitio de redes sociales. Y la prevalencia de desinformación difundida a través de Facebook es innegable.


gráfico de suscripción interior


Es plausible, entonces, que la cantidad de noticias falsas en una plataforma donde tantas personas reciben sus noticias pueda ayudar a explicar por qué muchos estadounidenses están mal informados sobre la política.

Pero es difícil decir qué tan probable es esto. Empecé a estudiar el papel de Internet en la promoción de creencias falsas durante las elecciones 2008, volviendo mi atención a las redes sociales en 2012. En la investigación en curso, he encontrado poca evidencia consistente de que el uso de las redes sociales promoviera la aceptación de afirmaciones falsas sobre los candidatos, a pesar de la Prevalencia de muchas falsedades.. En cambio, parece que en 2012, como en 2008, el correo electrónico continuó siendo un conducto excepcionalmente poderoso por mentiras y teorías de conspiración. Las redes sociales no tuvieron un efecto confiablemente detectable en las creencias de las personas.

Por un momento, sin embargo, supongamos que 2016 era diferente de 2012 y 2008. (La elección fue ciertamente única en muchos otros aspectos).

Si Facebook está promoviendo una plataforma en la que los ciudadanos son menos capaces de discernir la verdad de la ficción, constituiría una seria amenaza para la democracia estadounidense. Pero nombrar el problema no es suficiente. Para combatir el flujo de desinformación a través de las redes sociales, es importante entender por qué sucede.

No culpes a las burbujas del filtro

Facebook quiere que sus usuarios participen, no se sientan abrumados, por lo que emplea un software propietario que filtra los feeds de noticias de los usuarios y elige el contenido que aparecerá. El riesgo radica en cómo se realiza esta adaptación.

Hay amplia evidencia que las personas se sienten atraídas por las noticias que afirman su punto de vista político. El software de Facebook aprende de las acciones pasadas de los usuarios; intenta adivinar qué historias es probable que hagan clic o compartan en el futuro. Llevado a su extremo, esto produce un burbuja de filtro, en el que los usuarios solo están expuestos al contenido que reafirma sus prejuicios. El riesgo, entonces, es que las burbujas de filtro promueven las percepciones erróneas al ocultar la verdad.

El atractivo de esta explicación es obvio. Es fácil de entender, así que tal vez sea fácil solucionarlo. Deshágase de las noticias personalizadas y las burbujas de filtro ya no existen.

El problema con la metáfora de la burbuja de filtro es que supone que las personas están perfectamente aisladas de otras perspectivas. De hecho, numeroso estudios tienen mostrado que las dietas de los medios de comunicación casi siempre incluyen información y fuentes que cuestionan sus actitudes políticas. Y un estudio de los datos de usuario de Facebook descubrió que los encuentros con información transversal están muy extendidos. En otras palabras, es poco probable que las creencias falsas puedan explicar falta de contacto con noticias más precisas.

En cambio, las identidades políticas preexistentes de las personas moldear profundamente sus creencias. Entonces, incluso cuando se enfrenta a la misma información, ya sea noticia o un revisión de hechos, las personas con orientaciones políticas diferentes a menudo obtienen un significado dramáticamente diferente.

Un experimento mental puede ser útil: si fue partidario de Clinton, ¿sabía que el sitio de predicción FiveThirtyEight es muy respetado? le dio a Clinton solo un 71 por ciento de posibilidades de ganar? Esas probabilidades son mejores que un lanzamiento de moneda, pero está lejos de ser algo seguro. Sospecho que muchos Demócratas se sorprendieron a pesar de ver esta incómoda evidencia. En efecto, muchos habían criticado esta proyección En los días previos a la elección.

Si votó por Trump, ¿alguna vez ha encontrado evidencia que cuestione la afirmación de Trump de que el fraude electoral es un lugar común en los EE. UU.? Comprobadores de hechos y organizaciones de noticias han cubierto este tema extensamente, ofreciendo evidencia sólida de que el reclamo no es cierto. Sin embargo, un seguidor de Trump puede ser inamovible: En una encuesta 2016 de septiembre, 90% de los seguidores de Trump dijeron que no confiaban en los inspectores de datos.

Facebook = partidarios enojados?

Si el aislamiento de la verdad es realmente la principal fuente de información inexacta, la solución sería obvia: hacer la verdad más visible.

Desafortunadamente, la respuesta no es tan simple. Lo que nos lleva de nuevo a la pregunta de Facebook: ¿hay otros aspectos del servicio que puedan distorsionar las creencias de los usuarios?

Pasará algún tiempo antes de que los investigadores puedan responder esta pregunta con confianza, pero como alguien que ha estudiado cómo las diversas formas en que otras tecnologías de Internet pueden llevar a las personas a creer información falsa, estoy dispuesto a ofrecer algunas conjeturas.

Hay dos cosas que ya sabemos sobre Facebook que podrían alentar la difusión de información falsa.

En primer lugar, las emociones son contagiosas y pueden propagarse en Facebook. Un estudio a gran escala ha demostrado que pequeños cambios en las noticias de los usuarios de Facebook puede dar forma a las emociones que expresan en publicaciones posteriores. En ese estudio, los cambios emocionales fueron pequeños, pero también lo fueron los cambios en las noticias que los causaron. Solo imagine cómo responden los usuarios de Facebook a las acusaciones generalizadas de corrupción, actividades criminales y mentiras de los candidatos. No es sorprendente que cercano a la mitad (49 por ciento) de todos los usuarios describieron la discusión política en las redes sociales como "enojado".

Cuando se trata de política, la ira es una emoción poderosa. Se ha demostrado que hace que las personas más dispuesto a aceptar falsedades partidistas y más probabilidades de publicar y compartir información política, presumiblemente incluyendo artículos de noticias falsos que refuerzan sus creencias. Si el uso de Facebook enoja a los partidarios y los expone a falsedades partidistas, garantizar la presencia de información precisa puede no importar demasiado. Republicanos o demócratas, la gente enojada pone su confianza en la información que hace que su lado se vea bien.

En segundo lugar, Facebook parece reforzar la identidad política de las personas, fomentando una identidad ya de por sí grande. partidista. Si bien Facebook no protege a las personas de la información con la que no están de acuerdo, sin duda hace que sea más fácil encontrar personas con ideas afines. Nuestras redes sociales tienden a incluir muchas personas que comparten nuestros valores y creencias. Y esta puede ser otra forma en que Facebook refuerza las falsedades motivadas por motivos políticos. Las creencias a menudo cumplen una función social y ayudan a las personas a definir quiénes son y cómo encajan en el mundo. Cuanto más fácil es para las personas verse a sí mismas en términos políticos, más apegados están a las creencias que afirman esa identidad.

Estos dos factores -la forma en que la ira se puede propagar a través de las redes sociales de Facebook y cómo esas redes pueden hacer que la identidad política de las personas sea más importante para quienes son- probablemente explique las creencias inexactas de los usuarios de Facebook de forma más efectiva que la llamada burbuja de filtro.

Si esto es cierto, entonces tenemos un serio desafío por delante. Facebook probablemente se convencerá de cambiar su algoritmo de filtrado para priorizar información más precisa. Google ya tiene emprendido un esfuerzo similar. Y los informes recientes sugieren que Facebook puede ser tomando el problema más en serio de lo que sugieren los comentarios de Zuckerberg.

Pero esto no hace nada para abordar las fuerzas subyacentes que propagan y refuerzan la información falsa: las emociones y las personas en sus redes sociales. Tampoco es obvio que estas características de Facebook puedan o debieran "corregirse". Una red social desprovista de emoción parece una contradicción, y vigilar con quién interactúan los individuos no es algo que nuestra sociedad deba abrazar.

Puede ser que las acciones de Facebook algo de la culpa de algo de las mentiras que circularon este año electoral, y que alteraron el curso de las elecciones.

Si es cierto, el desafío será descubrir qué podemos hacer al respecto.

La conversación

Sobre el Autor

R. Kelly Garrett, Profesor Asociado de Comunicación, La Universidad del Estado de Ohio

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libros relacionados

at InnerSelf Market y Amazon