3 formas en que Facebook podría reducir las noticias falsas

El público obtiene mucho de su noticias e información de Facebook. Algo de eso es falso. Eso presenta un problema para los usuarios del sitio y para la empresa en sí.

El cofundador y presidente de Facebook, Mark Zuckerberg, dijo que la compañía encontrará formas de abordar el problema, aunque no reconoció su gravedad. Y sin aparente ironía, hizo este anuncio en un Publicación en Facebook rodeado, al menos para algunos espectadores, por noticias falsas.

Otras compañías de primera tecnología con un poder similar sobre cómo el público se informa a sí mismo, como Google, han trabajado duro durante años para degradar información de baja calidad en sus resultados de búsqueda. Pero Facebook no ha hecho movimientos similares para ayudar a los usuarios.

¿Qué podría hacer Facebook para cumplir con su obligación social de clasificar los hechos de la ficción para el 70% de usuarios de internet ¿Quién accede a Facebook? Si el sitio es cada vez más donde la gente está recibiendo sus noticias, ¿qué podría hacer la empresa sin tomar el manto de ser un árbitro final de la verdad? Mi trabajo como profesor de estudios de información sugiere que hay al menos tres opciones.

El papel de Facebook

Facebook dice que es un compañía de tecnología, no una compañía de medios. El motivo principal de la empresa es el beneficio, en lugar de una objetivo más elevado como producir información de alta calidad para ayudar al público a actuar con conocimiento en el mundo.

Sin embargo, las publicaciones en el sitio y las conversaciones que lo rodean, tanto en línea como fuera, son cada vez más frecuentes. involucrado con nuestro discurso público y la agenda política de la nación. Como resultado, la corporación tiene la obligación social de usar su tecnología para promover el bien común.


gráfico de suscripción interior


Discernir la verdad de la falsedad, sin embargo, puede ser desalentador. Facebook no está solo en planteando inquietudes sobre su capacidad - y la de otras compañías tecnológicas - para juzgar la calidad de las noticias. El director de FactCheck.org, un grupo de verificación de hechos sin fines de lucro con sede en la Universidad de Pensilvania, dijo a Bloomberg News que muchos reclamos e historias no son del todo falsas. Muchos tienen núcleos de la verdad, incluso si están redactados de manera muy engañosa. Entonces, ¿qué puede hacer realmente Facebook?

Opción 1: Empujar

Una opción que Facebook podría adoptar implica el uso de listas existentes que identifican confiable y sitios de noticias falsas. El sitio podría alertar a aquellos que quieran compartir un artículo problemático de que su fuente es cuestionable.

Un desarrollador, por ejemplo, ha creado una extensión para el navegador Chrome eso indica cuando un sitio web lo que estás viendo puede ser falso. (Lo llama el "Detector de BS"). En un hackathon de 36-hour, un grupo de estudiantes universitarios creó una extensión de navegador Chrome similar eso indica si el sitio web del que proviene el artículo está en una lista de sitios confiables verificados, o si no está verificado.

Estas extensiones presentan sus alertas mientras las personas se desplazan por sus fuentes de noticias. En la actualidad, ninguno de estos funciona directamente como parte de Facebook. Integrarlos proporcionaría una experiencia más fluida y haría que el servicio esté disponible para todos los usuarios de Facebook, más allá de aquellos que instalaron una de las extensiones en su propia computadora.

La compañía también podría usar la información que las extensiones generan, o su material de origen, para advertir a los usuarios antes de que compartan información no confiable. En el mundo del diseño de software, esto se conoce como "empujar. "El sistema de advertencia monitorea el comportamiento del usuario y notifica a las personas o les da algún comentario para ayudar a alterar sus acciones cuando usan el software.

Esto se ha hecho antes, para otros fines. Por ejemplo, mis colegas aquí en la Universidad de Syracuse construyó una aplicación de empuje que monitorea lo que los usuarios de Facebook están escribiendo en una nueva publicación. Se muestra una notificación si el contenido que están escribiendo es algo de lo que pueden arrepentirse, como un mensaje enojado con palabrotas.

La belleza de los empujones es la manera suave pero efectiva de recordarle a la gente sobre el comportamiento para ayudarlos a cambiar ese comportamiento. Estudios que han probado el uso de empujones para mejorar el comportamiento saludable, por ejemplo, descubra que las personas tienen más probabilidades de cambiar su dieta y hacer ejercicio basándose en recordatorios y recomendaciones suaves. Los Nudges pueden ser efectivos porque le dan control a las personas y les brindan información útil. En última instancia, el destinatario del empujón aún decide si utilizará los comentarios proporcionados. Los empujones no se sienten coercitivos; en cambio, son potencialmente empoderantes.

Opción 2: Crowdsourcing

Facebook también podría usar el poder del crowdsourcing para ayudar a evaluar las fuentes de noticias e indicar cuándo se han evaluado y evaluado las noticias que se comparten. Un desafío importante con las noticias falsas es que juega a cómo se conectan nuestros cerebros. Tenemos atajos mentales, llamados sesgos cognitivos, que nos ayudan a tomar decisiones cuando no tenemos suficiente información (nunca lo hacemos), o el tiempo suficiente (nunca lo hacemos). En general, estos atajos funcionan bien para nosotros, ya que tomamos decisiones sobre todo, desde qué ruta conducir hasta el trabajo, hasta qué automóvil comprar. Pero, de vez en cuando, nos fallan. La caída de las noticias falsas es uno de esos casos.

Esto le puede pasar a cualquiera, incluso a mí. En la temporada primaria, yo estaba siguiendo un hashtag de Twitter en el cual el entonces candidato principal Donald Trump tuiteó. Apareció un mensaje que me pareció chocante. Lo retwitteé con un comentario burlándose de su ofensividad. Un día más tarde, me di cuenta de que el tweet era de una cuenta de parodia que parecía idéntica al nombre de la cuenta de Twitter de Trump, pero había cambiado una letra.

Lo extrañé porque me había enamorado de sesgo de confirmación - la tendencia a pasar por alto cierta información porque va en contra de mis expectativas, predicciones o corazonadas. En este caso, había ignorado esa pequeña voz que me dijo que este tweet en particular era demasiado exagerado para Trump, porque creía que él era capaz de producir mensajes aún más inapropiados. Las noticias falsas nos acechan de la misma manera.

Otro problema con las noticias falsas es que puede viajar mucho más lejos que cualquier corrección posterior. Esto es similar a los desafíos que siempre enfrentaron las salas de redacción cuando informaron información errónea. Aunque publican correcciones, a menudo las personas originalmente expuestas a la desinformación nunca ven la actualización y, por lo tanto, no saben lo que leyeron antes. Además, las personas tienden a aferrarse a la primera información que encuentran; las correcciones pueden incluso ser contraproducentes repitiendo información incorrecta y reforzando el error en las mentes de los lectores.

Si las personas evalúan la información a medida que la leen y comparten esas calificaciones, las puntuaciones de verdad, como los empujones, podrían ser parte de la aplicación de Facebook. Eso podría ayudar a los usuarios a decidir por sí mismos si leer, compartir o simplemente ignorar. Un desafío con el crowdsourcing es que las personas pueden jugar estos sistemas para tratar de generar resultados sesgados. Pero la belleza del crowdsourcing es que la multitud también puede calificar a los calificadores, tal como sucede en Reddit o en las reseñas de Amazon, para reducir los efectos y el peso de los alborotadores.

Opción 3: distancia social algorítmica

La tercera forma en que Facebook podría ayudar sería reducir el sesgo algorítmico que existe actualmente en Facebook. El sitio muestra principalmente publicaciones de aquellos con quienes te has comprometido en Facebook. En otras palabras, el algoritmo de Facebook crea lo que algunos han llamado burbuja de filtro, un fenómeno de noticias en línea que tiene estudiosos preocupados por décadas ahora Si estás expuesto solo a personas con ideas que son como las tuyas, esto conduce a polarización política: Los liberales se vuelven aún más extremos en su liberalismo, y los conservadores se vuelven más conservadores.

La burbuja del filtro crea una "cámara de eco", donde las ideas similares rebotan sin fin, pero la información nueva tiene dificultades para encontrar su camino en. Esto es un problema cuando la cámara de eco bloquea información correctiva o de verificación de hechos.

Si Facebook abriera más noticias para recibir el suministro de noticias de una persona de un conjunto aleatorio de personas en su red social, aumentaría las posibilidades de que fluya nueva información, información alternativa e información contradictoria dentro de esa red. El número promedio de amigos en la red de un usuario de Facebook es 338. Aunque muchos de nosotros tenemos amigos y familiares que comparten nuestros valores y creencias, también tenemos conocidos y desconocidos que forman parte de nuestra red de Facebook y tienen puntos de vista diametralmente opuestos. Si los algoritmos de Facebook traen más de esas vistas a nuestras redes, la burbuja de filtro sería más porosa.

Todas estas opciones están dentro de las capacidades de los ingenieros e investigadores de Facebook. Permitirían a los usuarios tomar mejores decisiones sobre la información que eligen leer y compartir con sus redes sociales. Como una plataforma líder para la difusión de información y un generador de cultura social y política a través del intercambio de información y charlas, Facebook no necesita ser el máximo árbitro de la verdad. Pero puede usar el poder de sus redes sociales para ayudar a los usuarios a medir el valor de los artículos en medio del flujo de contenido que enfrentan.

La conversación

Sobre el Autor

Jennifer Stromer-Galley, Profesora de Estudios de Información, La Universidad de Syracuse

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libros relacionados:

at InnerSelf Market y Amazon