Los algoritmos de YouTube podrían radicalizar a las personas, pero el verdadero problema es que no tenemos idea de cómo funcionan Mr Tempter / Shutterstock

¿YouTube crea extremistas? UN estudio reciente causó discusiones entre los científicos al argumentar que los algoritmos que impulsan el sitio no ayudan a radicalizar a las personas al recomendar videos cada vez más extremos, como ha sido sugerido en los últimos años.

El documento, presentado a la revista de acceso abierto First Monday pero aún no se ha revisado formalmente por pares, analizó las recomendaciones de video recibidas por diferentes tipos de canales. Afirmó que el algoritmo de YouTube favorece los canales de medios convencionales sobre el contenido independiente, concluyendo que la radicalización tiene más que ver con las personas que crean contenido dañino que el algoritmo del sitio.

Los especialistas en el campo fueron rápidos en respondiendo al estudio, con algunas críticas los métodos del trabajo y otros argumentando que el algoritmo era uno de varios factores importantes y esa ciencia de datos sola no nos dará la respuesta.

El problema con esta discusión es que realmente no podemos responder la pregunta de qué papel juega el algoritmo de YouTube en radicalizar a las personas porque no entendemos cómo funciona. Y esto es solo un síntoma de un problema mucho más amplio. Estos algoritmos juegan un papel cada vez más importante en nuestra vida diaria pero carecen de cualquier tipo de transparencia.

Es difícil argumentar que YouTube no juega un papel en la radicalización. Esto fue señalado por primera vez por el sociólogo tecnológico Zeynep Tufekci, quien ilustró cómo los videos recomendados conducen gradualmente a los usuarios hacia un contenido más extremo. En palabras de Tufekci, los videos sobre trotar conducen a videos sobre correr ultramaratones, los videos sobre vacunas conducen a teorías de conspiración y los videos sobre política conducen a "negaciones del Holocausto y otro contenido perturbador".


gráfico de suscripción interior


Esto también se ha escrito sobre en detalle por el ex empleado de YouTube Guillaume Chaslot que trabajó en el algoritmo de recomendación del sitio. Desde que dejó la empresa, Chaslot ha seguido tratando de hacer esas recomendaciones. más transparente. Él dice que las recomendaciones de YouTube están sesgadas hacia teorías de conspiración y videos de hecho inexactos, que sin embargo hacen que las personas pasen más tiempo en el sitio.

De hecho, maximizando el tiempo de observación Este es el objetivo de los algoritmos de YouTube, y esto alienta a los creadores de videos a luchar por la atención de cualquier manera posible. Pura empresa falta de transparencia sobre exactamente cómo funciona esto hace que sea casi imposible luchar contra la radicalización en el sitio. Después de todo, sin transparencia, es difícil saber qué se puede cambiar para mejorar la situación.

Los algoritmos de YouTube podrían radicalizar a las personas, pero el verdadero problema es que no tenemos idea de cómo funcionan Cómo funciona el algoritmo de YouTube sigue siendo un misterio. ¿Quién es Danny / Shutterstock?

Pero YouTube no es inusual a este respecto. La falta de transparencia sobre el funcionamiento de los algoritmos suele ser el caso cuando se utilizan en grandes sistemas, ya sea por empresas privadas u organismos públicos. Además de decidir qué video mostrar a continuación, los algoritmos de aprendizaje automático ahora se utilizan para colocar a los niños en las escuelas, decidir por sentencias de prisióndeterminar puntajes de crédito y las tasas de seguros, así como el destino de inmigrantes, candidatos de trabajo y solicitantes universitarios. Y generalmente no entendemos cómo estos sistemas toman sus decisiones.

Los investigadores han encontrado formas creativas de mostrar el impacto de estos algoritmos en la sociedad, ya sea examinando el surgimiento de la derecha reaccionaria o de difusión de las teorías de conspiración en YouTube, o mostrando cómo los motores de búsqueda reflejan los prejuicios racistas de las personas que los crean.

Los sistemas de aprendizaje automático suelen ser grandes, complejos y opacos. Oportunamente, a menudo se describen como cajas negras, donde entra la información y sale información o acciones, pero nadie puede ver lo que sucede en el medio. Esto significa que, como no sabemos exactamente cómo funcionan los algoritmos como el sistema de recomendación de YouTube, tratar de averiguar cómo funciona el sitio sería como tratar de entender un automóvil sin abrir el capó.

A su vez, esto significa que intentar redactar leyes para regular qué algoritmos deberían o no deberían convertirse en un proceso ciego o prueba y error. Esto es lo que está sucediendo con YouTube y con tantos otros algoritmos de aprendizaje automático. Estamos tratando de opinar sobre sus resultados, sin una comprensión real de cómo funcionan realmente. Necesitamos abrir estas tecnologías patentadas, o al menos hacerlas lo suficientemente transparentes como para poder regularlas.

Explicaciones y pruebas

Una forma de hacerlo sería que los algoritmos proporcionen explicaciones contrafactuales junto con sus decisiones. Esto significa calcular las condiciones mínimas necesarias para que el algoritmo tome una decisión diferente, sin describir su lógica completa. Por ejemplo, un algoritmo que toma decisiones sobre préstamos bancarios puede generar un resultado que dice que "si tuviera más de 18 años y no tuviera una deuda previa, su préstamo bancario sería aceptado". Pero esto podría ser difícil de hacer con YouTube y otros sitios que usan algoritmos de recomendación, ya que en teoría cualquier video en la plataforma podría recomendarse en cualquier momento.

Otra herramienta poderosa es la prueba de algoritmos y la auditoría, que ha sido particularmente útil en el diagnóstico de algoritmos sesgados. En un caso reciente, una compañía profesional de detección de currículums descubrió que su algoritmo era priorizando dos factores como mejores predictores del desempeño laboral: si el candidato se llamaba Jared y si jugaban lacrosse en la escuela secundaria. Esto es lo que sucede cuando la máquina no está supervisada.

En este caso, el algoritmo de detección de currículums había notado que los hombres blancos tenían una mayor probabilidad de ser contratados, y había encontrado características de poder correlacionadas (como ser nombrado Jared o jugar lacrosse) presentes en los candidatos contratados. Con YouTube, la auditoría de algoritmos podría ayudar a comprender qué tipos de videos se priorizan para la recomendación, y quizás ayudar a resolver el debate sobre si las recomendaciones de YouTube contribuyen a la radicalización o no.

Introducir explicaciones contrafactuales o utilizar la auditoría de algoritmos es un proceso difícil y costoso. Pero es importante, porque la alternativa es peor. Si los algoritmos no se controlan y no se regulan, podríamos ver un avance gradual de teóricos de la conspiración y extremistas en nuestros medios, y nuestra atención controlada por quien pueda producir el contenido más rentable.La conversación

Sobre la autora

Chico Q. Camargo, investigador postdoctoral en ciencia de datos, Universidad de Oxford

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.