¿Puede la tecnología salvarnos de la desinformación en las redes sociales?

Si recibe sus noticias de las redes sociales, como la mayoría de los estadounidenses hacen, usted está expuesto a una dosis diaria de fraudes, rumores, teorías de conspiración y noticias engañosas. Cuando todo está mezclado con información confiable de fuentes honestas, la verdad puede ser muy difícil de discernir.

De hecho, el análisis de mi equipo de investigación de datos de la Universidad de Columbia Emergente rastreador de rumores sugiere que esto la desinformación es tan probable que se vuelva viral como información confiable.

Muchos están preguntando si esta avalancha de desinformación digital afectó el resultado de la elección 2016 en los Estados Unidos. La verdad es que no lo sabemos, aunque hay razones para creer que es completamente posible, basado en análisis pasado y cuentas de otros países. Cada pieza de desinformación contribuye a dar forma a nuestras opiniones. En general, el daño puede ser muy real.

Como investigador sobre la difusión de información errónea a través de las redes sociales, sé que eso limita la capacidad de los creadores de noticias de vender anuncios, como lo anunció recientemente Google y Facebook, es un paso en la dirección correcta. Pero no frenará los abusos impulsados ​​por motivos políticos.

Explotar las redes sociales

Acerca de 10 hace años, mis colegas y yo ejecutamos un experimento en el cual aprendimos que 72 por ciento de los estudiantes universitarios confiaba en enlaces que parecían provenir de amigos, incluso hasta el punto de ingresar información personal de inicio de sesión en sitios de phishing. Esta vulnerabilidad generalizada sugirió otra forma de manipulación maliciosa: las personas también pueden creer información errónea que reciben al hacer clic en un enlace de un contacto social.

Para explorar esa idea, creé un página web falsa con noticias de chismes generadas por computadora al azar, como "Celebrity X atrapado en la cama con Celebrity Y!". Los visitantes del sitio que buscaban un nombre activaban el guión para fabricar automáticamente una historia sobre esa persona. Incluí en el sitio un descargo de responsabilidad que decía que el sitio contenía texto sin sentido y "hechos" inventados. También coloqué anuncios en la página. A fin de mes, recibí un cheque por correo con las ganancias de los anuncios. Esa era mi prueba: las noticias falsas podían ganar dinero al contaminar internet con falsedades.


gráfico de suscripción interior


Tristemente, no fui el único con esta idea. Diez años después, tenemos un industria de noticias falsas y desinformación digital. Los sitios Clickbait fabrican engaños para ganar dinero con los anuncios, mientras que los llamados sitios hiperpartidarios publican y difunden rumores y teorías de conspiración para influir en la opinión pública.

Esta industria se ve reforzada por lo fácil que es crear bots socialescuentas falsas controladas por software que parecen personas reales y, por lo tanto, pueden tener una influencia real. Investigar en mi el lab descubrieron muchos ejemplos de campañas de base falsas, también llamadas astroturfing político.

En respuesta, desarrollamos el BotOrNot herramienta para detectar bots sociales. No es perfecto, pero lo suficientemente preciso para descubrir campañas de persuasión en los movimientos Brexit y antivax. Usando BotOrNot, nuestros colegas encontraron que porción grande de la charla en línea sobre las elecciones 2016 fue generado por los bots.

Creando burbujas de información

Los humanos somos vulnerables a la manipulación por desinformación digital gracias a un complejo conjunto de sesgos sociales, cognitivos, económicos y algorítmicos. Algunos de estos han evolucionado por buenas razones: Confiar en las señales de nuestros círculos sociales y rechazar información que contradice nuestra experiencia nos sirvió bien cuando nuestra especie se adaptó para evadir a los depredadores. Pero en las cada vez más reducidas redes en línea, una conexión de red social con un teórico de la conspiración del otro lado del planeta no ayuda a informar mis opiniones.

Copiar a nuestros amigos y dejar de seguir a aquellos con opiniones diferentes nos da cámaras de eco para polarizado que los investigadores pueden decir con gran precisión si usted es liberal o conservador simplemente mirando a tus amigos. La estructura de la red es tan denso que cualquier desinformación se propaga casi instantáneamente dentro de un grupo, y segregada de tal manera que no llega al otro.

Dentro de nuestra burbuja, estamos expuestos selectivamente a información alineada con nuestras creencias. Ese es un escenario ideal para maximizar el compromiso, pero es perjudicial para desarrollar un escepticismo saludable. El sesgo de confirmación nos lleva a compartir un titular sin siquiera leer el artículo.

Nuestro laboratorio recibió una lección personal sobre esto cuando nuestro propio proyecto de investigación se convirtió en el tema de un campaña de desinformación viciosa en el período previo a las elecciones de mitad de mandato de 2014 en los Estados Unidos. Cuando investigamos lo que sucedía, descubrimos noticias falsas sobre nuestra investigación que compartían predominantemente los usuarios de Twitter en una cámara de eco partidista, una comunidad grande y homogénea de usuarios políticamente activos. Estas personas se apresuraron a retwittear e impermeables a desacreditar la información.

Inevitabilidad viral

Nuestra investigación muestra que dada la estructura de nuestras redes sociales y nuestra limitada atención, es inevitable que algunos memes se volverá viral, independientemente de su calidad. Incluso si los individuos tienden a compartir información de mayor calidad, la red como un todo no es efectiva para discriminar entre información confiable y fabricada. Esto ayuda a explicar todos los engaños virales que observamos en la naturaleza.

La economía de atención se ocupa del resto: si prestamos atención a un determinado tema, se producirá más información sobre ese tema. Es más barato fabricar información y pasarla como un hecho que informar la verdad real. Y la fabricación se puede adaptar a cada grupo: los conservadores leen que el Papa endosó a Trump, los liberales leen que apoyó a Clinton. Él no hizo ni.

Compromiso con los algoritmos

Como no podemos prestar atención a todas las publicaciones en nuestros feeds, los algoritmos determinan lo que vemos y lo que no. Los algoritmos utilizados hoy por las plataformas de redes sociales están diseñados para priorizar publicaciones atractivas, en las que es probable que hagamos clic, reaccionemos y compartamos. Pero un análisis reciente encontró que las páginas intencionalmente engañosas obtuvieron al menos tanto compartir en línea y la reacción como una noticia real.

Este sesgo algorítmico hacia el compromiso sobre la verdad refuerza nuestros sesgos sociales y cognitivos. Como resultado, cuando seguimos los enlaces compartidos en las redes sociales, tendemos a visitar un sitio más pequeño, más homogéneo conjunto de fuentes que cuando realizamos una búsqueda y visitamos los mejores resultados.

La investigación existente muestra que estar en una cámara de eco puede hacer que las personas más crédulo acerca de aceptar rumores no verificados Pero necesitamos saber mucho más sobre cómo las personas responden a un solo engaño: algunos lo comparten de inmediato, otros lo verifican primero.

Estamos simulando una red social para estudiar esta competencia entre compartir y verificar los hechos. Esperamos ayudar a desentrañar la evidencia conflictiva sobre cuando la verificación de los hechos ayuda a detener los engaños de propagarse y cuando no. Nuestros resultados preliminares sugieren que mientras más segregada esté la comunidad de creyentes engañosos, más tiempo sobrevivirá el engaño. Una vez más, no se trata solo del engaño en sí, sino también de la red.

Mucha gente está tratando de descubrir qué hacer con todo esto. Según la última versión de Mark Zuckerberg anuncio, Los equipos de Facebook están probando opciones potenciales. Y un grupo de estudiantes universitarios ha propuesto una forma de simplemente etiquetar enlaces compartidos como "verificado" o no.

Algunas soluciones permanecen fuera del alcance, al menos por el momento. Por ejemplo, todavía no podemos enseñar a los sistemas de inteligencia artificial cómo discernir entre la verdad y la falsedad. Pero podemos decir que los algoritmos de clasificación otorgan mayor prioridad a fuentes más confiables.

Estudiando la difusión de noticias falsas

Podemos hacer que nuestra lucha contra noticias falsas sea más eficiente si comprendemos mejor cómo se propaga la mala información. Si, por ejemplo, los robots son responsables de muchas de las falsedades, podemos centrar la atención en detectarlos. Si, alternativamente, el problema es con las cámaras de eco, quizás podríamos diseñar sistemas de recomendación que no excluyan las diferentes vistas.

Con ese fin, nuestro laboratorio está construyendo una plataforma llamada Hoaxy rastrear y visualizar la propagación de reclamos no verificados y verificación de hechos correspondiente en las redes sociales. Eso nos dará datos del mundo real, con los que podemos informar a nuestras redes sociales simuladas. Entonces podemos probar posibles enfoques para luchar contra las noticias falsas.

Hoaxy también puede mostrar a las personas cuán fácil es manipular sus opiniones con información en línea, e incluso con la probabilidad de que algunos de nosotros compartamos falsedades en línea. Hoaxy se unirá a un conjunto de herramientas en nuestro Observatorio en las redes sociales, lo que permite a cualquier persona ver cómo los memes se propagan en Twitter. Vincular herramientas como estas a verificadores de datos humanos y plataformas de redes sociales podría facilitar la minimización de la duplicación de esfuerzos y SOPORTE El uno al otro.

Es imperativo que invirtamos recursos en el estudio de este fenómeno. Necesitamos todas las manos: los científicos informáticos, los científicos sociales, los economistas, los periodistas y los socios de la industria deben trabajar juntos para mantenerse firme contra la propagación de la información errónea.

La conversación

Sobre el Autor

Filippo Menczer, Profesor de Informática e Informática; Director del Centro de Redes Complejas e Investigación de Sistemas, Universidad de Indiana, Bloomington

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libros relacionados:

at InnerSelf Market y Amazon