Si los periodistas quieren determinar la verdad, así es como puede ayudar la inteligencia artificial

Cuando comencé a trabajar en el periodismo televisivo hace tres décadas, las imágenes seguían reunidas en película. Cuando dejé la BBC en 2015, los teléfonos inteligentes se usaban para transmitir imágenes en vivo a la audiencia. Después de la revolución digital y el surgimiento de los gigantes en línea como Facebook y Google, hemos sido testigos de lo que Joseph Schumpeter describió como el "Destrucción creativa" del viejo orden y su reemplazo por las prácticas innovadoras de los nuevos medios.

Ha habido una gran cantidad de discusión furiosa (ya menudo hiperbólica) a raíz de las elecciones estadounidenses, Culpando a la “cámara de eco” de internet. - y Facebook en particular - por distorsionar el discurso político y ahogar al público en línea en "noticias falsas". Ahora se buscan antídotos para garantizar que los "filtros de verdad" protejan a los gustos de Facebook, y sus usuarios, del abuso en manos de estafadores que manejan algoritmos.

Facebook y Google son ahora las grandes bestias de Internet cuando se trata de distribuir noticias, y como han tratado de asegurar los ingresos por publicidad, lo que ha surgido lenta pero seguramente es una especie de "manía de clic". Así es como funciona: las plataformas de redes sociales y los motores de búsqueda se anuncian alrededor de las noticias, lo que significa que cuantos más clics obtiene una historia, más ojos ven la publicidad de los sitios de redes sociales, lo que genera ingresos para ellos. En este entorno de medios, más clics significan más ingresos, por lo que el contenido que priorizan está inevitablemente sesgado hacia "clickbait": historias elegidas por su probabilidad de conseguir muchos y muchos lectores para hacer clic en ellas. La calidad y la veracidad son bajas en la lista de requisitos para estas historias.

Es difícil argumentar que esto no tuvo impacto en las prioridades editoriales en línea con titulares hiperbólicos cada vez más sintonizados con este fin. A veces, en algunas plataformas, resultó en lo Nick Davies apodado "Churnalism", por el cual las historias no fueron debidamente verificadas o investigadas.

Erosión de confianza

Los patrones de consumo se ven inevitablemente afectados por toda esta destrucción creativa y los sitios de redes sociales han reemplazado rápidamente a "la prensa" como principales fuentes de noticias. Y, sin embargo, existe el peligro de que la sobrecarga de información resultante esté erosionando la confianza en los proveedores de información.


gráfico de suscripción interior


El presidente saliente de los Estados Unidos, Barack Obama, captó el dilema que enfrenta el público en su reciente viaje a Alemania:

Si no tomamos en serio los hechos y lo que es verdad y lo que no, si no podemos discriminar entre argumentos serios y propaganda, entonces tenemos problemas.

Existe un reconocimiento renovado de que los "guardianes" tradicionales -los periodistas que trabajan en las salas de redacción- proporcionan un mecanismo de filtro útil para la superabundancia de información que confronta el consumidor. Pero sus ingresos de publicidad una vez constantes se están desviando rápidamente a Facebook y Google. Como resultado, las compañías de noticias tradicionales están muriendo desangradas, y la estrategia actualmente popular de introducir barreras y suscripciones no está compensando las pérdidas. Peor aún, muchos periódicos continúan sufriendo caídas de dos dígitos en circulación, por lo que los guardianes son "racionalizados" y el público es más pobre por ello.

Aumento del algoritmo

Una de las respuestas está en reutilizar salas de redacción modernas, que es lo que hacen los gustos del Washington Post. bajo su nuevo propietario Jeff Bezos. Ciertamente, los periodistas tienen que encontrar formas de alentar a las personas a depender menos, o hacerse más escépticas, de usar las redes sociales como su principal fuente de noticias. Incluso Facebook ha reconocido que necesita hacer más para evitar que la falsificación sea blanqueada y normalizada en su plataforma.

Entonces, ¿cómo evitar caer en la farsa? Una opción implica el uso de máquinas inteligentes. Vivimos en una era de los medios de los algoritmos y existe la posibilidad de utilizar Inteligencia artificial como un complemento fundamental del proceso periodístico, en lugar de simplemente como una herramienta para dirigir mejor la publicidad o para entregar prioridades editoriales personalizadas a los lectores.

Los ingenieros de software ya saben cómo construir una arquitectura digital con técnicas de programación de lenguaje natural para reconocer historias básicas. Lo que impide que muestren una variedad de versiones de una historia de varias fuentes validadas para crear un conjunto de datos y luego usar algoritmos para eliminar los sesgos y reconstruir los datos centrales y corroborados de cualquier evento dado.

Las técnicas de agregación y agregación están empezando a ofrecer resultados. Conozco al menos una start-up británica que, aunque en la fase de investigación y desarrollo, ha creado un motor que utiliza un enfoque de procesamiento del lenguaje natural para digerir datos de múltiples fuentes, identificar una historia y proporcionar un resumen artificialmente inteligente que es creíble. Es una cuestión de interpretación. Es, si se quiere, un prototipo de "detector de mierda", donde una solución algorítmica imita el valor periodístico pasado de moda de buscar la verdad.

Si miramos el desastre en el que han caído nuestras democracias debido a la nueva era de la información de la libertad para todos, es evidente que necesitamos utilizar urgentemente la inteligencia artificial para proteger el debate abierto, no para sofocarlo. Este es un ancla de nuestras democracias que no podemos permitirnos abandonar.

La conversación

Sobre el Autor

Kurt Barling, profesor de periodismo, La Universidad de Middlesex

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libros relacionados

at InnerSelf Market y Amazon