La desinformación y los sesgos afectan a las redes sociales, tanto de forma intencionada como accidentalCapturas de pantalla del juego Fakey. Mihai Avram y Filippo Menczer

Las redes sociales se encuentran entre las fuentes primarias de noticias en los Estados Unidos y en todo el mundo. Sin embargo, los usuarios están expuestos a contenido de precisión cuestionable, que incluye teorias de conspiracion, clickbait, contenido hiperpartidista, pseudo ciencia e incluso informes fabricados de "noticias falsas".

No es sorprendente que haya tanta desinformación publicada: spam y fraude en línea son lucrativos para delincuentes, y la propaganda gubernamental y política ambos beneficios partidistas y financieros. Pero el hecho de que el contenido de baja credibilidad se propaga tan rápido y fácil sugiere que las personas y los algoritmos detrás de las plataformas de medios sociales son vulnerables a la manipulación.

Nuestra investigación ha identificado tres tipos de prejuicios que hacen que el ecosistema de las redes sociales sea vulnerable a la desinformación intencional y accidental. Es por eso que nuestro Observatorio en las redes sociales en la Universidad de Indiana está construyendo para ayudar a las personas a tomar conciencia de estos prejuicios y protegerse de las influencias externas diseñadas para explotarlas.

Explicando las herramientas desarrolladas en el Observatorio de Redes Sociales:


gráfico de suscripción interior


{youtube}https://youtu.be/BIv9054dBBI{/youtube}

Sesgo en el cerebro

Los sesgos cognitivos se originan en la forma en que el cerebro procesa la información que cada persona encuentra todos los días. El cerebro puede manejar solo una cantidad finita de información, y demasiados estímulos entrantes pueden causar sobrecarga de información. Eso en sí mismo tiene serias implicaciones para la calidad de la información en las redes sociales. Hemos encontrado que la fuerte competencia por la atención limitada de los usuarios significa que algunas ideas se vuelven virales a pesar de su baja calidadincluso cuando las personas prefieren compartir contenido de alta calidad.

Para evitar sentirse abrumado, el cerebro usa un cantidad de trucos. Estos métodos son usualmente efectivos, pero también pueden convertirse en prejuicios cuando se aplica en los contextos incorrectos.

Un acceso directo cognitivo ocurre cuando una persona decide si comparte una historia que aparece en su feed de redes sociales. La gente es muy afectado por las connotaciones emocionales de un titular, a pesar de que no es un buen indicador de la precisión de un artículo. Mucho más importante es quien escribió la pieza.

Para contrarrestar este sesgo y ayudar a las personas a prestar más atención a la fuente de un reclamo antes de compartirlo, desarrollamos Fakey, un juego de alfabetización de noticias móvil (gratis en Android y iOS) simulando un feed de noticias de redes sociales típico, con una mezcla de artículos de noticias de fuentes principales y de baja credibilidad. Los jugadores obtienen más puntos por compartir noticias de fuentes confiables y marcar contenido sospechoso para verificar los hechos. En el proceso, aprenden a reconocer señales de credibilidad de la fuente, como reclamos hiperpartidistas y titulares con carga emocional.

Sesgo en la sociedad

Otra fuente de sesgo proviene de la sociedad. Cuando las personas se conectan directamente con sus pares, los sesgos sociales que guían su selección de amigos influyen en la información que ven.

De hecho, en nuestra investigación hemos encontrado que es posible determinar las tendencias políticas de un usuario de Twitter simplemente mirando las preferencias partidarias de sus amigos. Nuestro análisis de la estructura de estos redes de comunicación partidistas Las redes sociales encontradas son particularmente eficientes en la diseminación de información, precisa o no, cuando están estrechamente vinculados y desconectados de otras partes de la sociedad.

La tendencia a evaluar la información de manera más favorable si proviene de sus propios círculos sociales crea "cámaras de eco"Que están maduras para la manipulación, ya sea consciente o involuntariamente". Esto ayuda a explicar por qué tantas conversaciones en línea se convierten en Confrontaciones de "nosotros contra ellos".

Para estudiar cómo la estructura de las redes sociales en línea hace que los usuarios sean vulnerables a la desinformación, construimos Hoaxy, un sistema que rastrea y visualiza la propagación del contenido desde fuentes de baja credibilidad y cómo compite con el contenido de verificación de hechos. Nuestro análisis de los datos recopilados por Hoaxy durante las elecciones presidenciales de 2016 en EE. UU. Muestra que las cuentas de Twitter que compartieron información falsa casi completamente cortado de las correcciones hechas por los verificadores de hechos.

Cuando profundizamos en las cuentas que difunden información errónea, encontramos un grupo central de cuentas muy denso retwitteándose casi exclusivamente, incluidos varios bots. Las únicas veces que los usuarios del grupo desinformado citaron o mencionaron organizaciones de verificación de hechos fueron cuando cuestionaron su legitimidad o afirmaron lo contrario de lo que escribieron.

Sesgo en la máquina

El tercer grupo de sesgos surge directamente de los algoritmos utilizados para determinar lo que las personas ven en línea. Tanto las plataformas de redes sociales como los motores de búsqueda los emplean. Estas tecnologías de personalización están diseñadas para seleccionar solo el contenido más atractivo y relevante para cada usuario individual. Pero al hacerlo, puede terminar reforzando los sesgos cognitivos y sociales de los usuarios, lo que los hace aún más vulnerables a la manipulación.

Por ejemplo, el detalle herramientas publicitarias integradas en muchas plataformas de redes sociales dejar que los activistas de la desinformación exploten sesgo de confirmación by adaptar mensajes a las personas que ya están inclinadas a creer en ellos.

Además, si un usuario a menudo hace clic en los enlaces de Facebook de una fuente de noticias en particular, Facebook tienden a mostrarle a esa persona más del contenido de ese sitio. Esto llamado "burbuja de filtro"El efecto puede aislar a las personas de diversas perspectivas, fortaleciendo el sesgo de confirmación.

Nuestra propia investigación muestra que las plataformas de redes sociales exponen a los usuarios a un conjunto de fuentes menos diversas que los sitios de medios no sociales como Wikipedia. Como se trata de una plataforma completa, no de un solo usuario, llamamos a esto sesgo de homogeneidad.

Otro ingrediente importante de las redes sociales es la información que está en tendencia en la plataforma, de acuerdo con lo que obtiene la mayor cantidad de clics. Nosotros llamamos esto prejuicio de popularidad, porque hemos descubierto que un algoritmo diseñado para promover contenido popular puede afectar negativamente la calidad general de la información en la plataforma. Esto también alimenta el sesgo cognitivo existente, reforzando lo que parece ser popular independientemente de su calidad.

Todos estos sesgos algorítmicos pueden ser manipulados por bots sociales, programas de computadora que interactúan con los humanos a través de cuentas de redes sociales. La mayoría de los robots sociales, como Twitter Big Ben, son inofensivos Sin embargo, algunos ocultan su naturaleza real y se utilizan con fines maliciosos, como impulsar la desinformación o falsamente creando la apariencia de un movimiento de base, también llamado "astroturfing". Encontramos evidencia de este tipo de manipulación en el período previo a las elecciones de mitad de mandato de 2010 en los Estados Unidos.

Para estudiar estas estrategias de manipulación, desarrollamos una herramienta para detectar bots sociales llamados Botómetro. Botometer utiliza el aprendizaje automático para detectar cuentas de bots, mediante la inspección de miles de características diferentes de las cuentas de Twitter, como los tiempos de sus publicaciones, la frecuencia de los tweets y las cuentas que sigue y los retweets. No es perfecto, pero ha revelado que tantos como 15% de cuentas de Twitter muestran signos de ser bots.

Usando Botometer junto con Hoaxy, analizamos el núcleo de la red de desinformación durante la campaña presidencial de 2016 EE. UU. Encontramos muchos bots explotando los sesgos cognitivos, de confirmación y de popularidad de sus víctimas y los sesgos algorítmicos de Twitter.

Estos robots pueden construir burbujas de filtro alrededor de usuarios vulnerables, proporcionándoles falsas afirmaciones y desinformación. En primer lugar, pueden atraer la atención de los usuarios humanos que apoyan a un candidato en particular al tuitear los hashtags de ese candidato o al mencionar y retuitear a la persona. Luego, los bots pueden amplificar las afirmaciones falsas que manchan a los oponentes retwitteando artículos de fuentes de poca credibilidad que coinciden con ciertas palabras clave. Esta actividad también hace que el algoritmo destaque para otros usuarios historias falsas que se comparten ampliamente.

Comprender vulnerabilidades complejas

Incluso cuando nuestra investigación, y la de otros, muestra cómo los individuos, las instituciones e incluso sociedades enteras pueden ser manipulados en las redes sociales, hay muchas preguntas izquierda para responder Es especialmente importante descubrir cómo estos diferentes sesgos interactúan entre sí, creando potencialmente vulnerabilidades más complejas.

La conversaciónHerramientas como la nuestra ofrecen a los usuarios de Internet más información sobre desinformación y, por lo tanto, cierto grado de protección contra sus daños. Las soluciones no es probable que sea solo tecnológico, aunque es probable que haya algunos aspectos técnicos para ellos. Pero deben tener en cuenta los aspectos cognitivos y sociales del problema.

Acerca de los Autores

Giovanni Luca Ciampaglia, Científico Auxiliar de Investigación, Instituto de Ciencias de la Red de la Universidad de Indiana, La Universidad de Indiana y Filippo Menczer, Profesor de Informática e Informática; Director del Centro de Redes Complejas e Investigación de Sistemas, La Universidad de Indiana

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libros relacionados

at