Los algoritmos de YouTube podrían radicalizar a las personas, pero el verdadero problema es que no tenemos idea de cómo funcionan

Los algoritmos de YouTube podrían radicalizar a las personas, pero el verdadero problema es que no tenemos idea de cómo funcionan Mr Tempter / Shutterstock

¿YouTube crea extremistas? UN estudio reciente causó discusiones entre los científicos al argumentar que los algoritmos que impulsan el sitio no ayudan a radicalizar a las personas al recomendar videos cada vez más extremos, como ha sido sugerido en los últimos años.

El documento, presentado a la revista de acceso abierto First Monday pero aún no se ha revisado formalmente por pares, analizó las recomendaciones de video recibidas por diferentes tipos de canales. Afirmó que el algoritmo de YouTube favorece los canales de medios convencionales sobre el contenido independiente, concluyendo que la radicalización tiene más que ver con las personas que crean contenido dañino que el algoritmo del sitio.

Los especialistas en el campo fueron rápidos en respondiendo al estudio, con algunas críticas los métodos del trabajo y otros argumentando que el algoritmo era uno de varios factores importantes y esa ciencia de datos sola no nos dará la respuesta.

El problema con esta discusión es que realmente no podemos responder la pregunta de qué papel juega el algoritmo de YouTube en radicalizar a las personas porque no entendemos cómo funciona. Y esto es solo un síntoma de un problema mucho más amplio. Estos algoritmos juegan un papel cada vez más importante en nuestra vida diaria pero carecen de cualquier tipo de transparencia.

Es difícil argumentar que YouTube no juega un papel en la radicalización. Esto fue señalado por primera vez por el sociólogo tecnológico Zeynep Tufekci, quien ilustró cómo los videos recomendados conducen gradualmente a los usuarios hacia un contenido más extremo. En palabras de Tufekci, los videos sobre trotar conducen a videos sobre correr ultramaratones, los videos sobre vacunas conducen a teorías de conspiración y los videos sobre política conducen a "negaciones del Holocausto y otro contenido perturbador".

Esto también se ha escrito sobre en detalle por el ex empleado de YouTube Guillaume Chaslot que trabajó en el algoritmo de recomendación del sitio. Desde que dejó la empresa, Chaslot ha seguido tratando de hacer esas recomendaciones. más transparente. Él dice que las recomendaciones de YouTube están sesgadas hacia teorías de conspiración y videos de hecho inexactos, que sin embargo hacen que las personas pasen más tiempo en el sitio.

De hecho, maximizando el tiempo de observación Este es el objetivo de los algoritmos de YouTube, y esto alienta a los creadores de videos a luchar por la atención de cualquier manera posible. Pura empresa falta de transparencia sobre exactamente cómo funciona esto hace que sea casi imposible luchar contra la radicalización en el sitio. Después de todo, sin transparencia, es difícil saber qué se puede cambiar para mejorar la situación.


Obtenga lo último de InnerSelf


Los algoritmos de YouTube podrían radicalizar a las personas, pero el verdadero problema es que no tenemos idea de cómo funcionan Cómo funciona el algoritmo de YouTube sigue siendo un misterio. ¿Quién es Danny / Shutterstock?

Pero YouTube no es inusual a este respecto. La falta de transparencia sobre el funcionamiento de los algoritmos suele ser el caso cuando se utilizan en grandes sistemas, ya sea por empresas privadas u organismos públicos. Además de decidir qué video mostrar a continuación, los algoritmos de aprendizaje automático ahora se utilizan para colocar a los niños en las escuelas, decidir por sentencias de prisióndeterminar puntajes de crédito y las tasas de seguros, así como el destino de inmigrantes, candidatos de trabajo y solicitantes universitarios. Y generalmente no entendemos cómo estos sistemas toman sus decisiones.

Los investigadores han encontrado formas creativas de mostrar el impacto de estos algoritmos en la sociedad, ya sea examinando el surgimiento de la derecha reaccionaria o la difusión de las teorías de conspiración en YouTube, o mostrando cómo los motores de búsqueda reflejan los prejuicios racistas de las personas que los crean.

Los sistemas de aprendizaje automático suelen ser grandes, complejos y opacos. Oportunamente, a menudo se describen como cajas negras, donde entra la información y sale información o acciones, pero nadie puede ver lo que sucede en el medio. Esto significa que, como no sabemos exactamente cómo funcionan los algoritmos como el sistema de recomendación de YouTube, tratar de averiguar cómo funciona el sitio sería como tratar de entender un automóvil sin abrir el capó.

A su vez, esto significa que intentar redactar leyes para regular qué algoritmos deberían o no deberían convertirse en un proceso ciego o prueba y error. Esto es lo que está sucediendo con YouTube y con tantos otros algoritmos de aprendizaje automático. Estamos tratando de opinar sobre sus resultados, sin una comprensión real de cómo funcionan realmente. Necesitamos abrir estas tecnologías patentadas, o al menos hacerlas lo suficientemente transparentes como para poder regularlas.

Explicaciones y pruebas

Una forma de hacerlo sería que los algoritmos proporcionen explicaciones contrafactuales junto con sus decisiones. Esto significa calcular las condiciones mínimas necesarias para que el algoritmo tome una decisión diferente, sin describir su lógica completa. Por ejemplo, un algoritmo que toma decisiones sobre préstamos bancarios puede generar un resultado que dice que "si tuviera más de 18 años y no tuviera una deuda previa, su préstamo bancario sería aceptado". Pero esto podría ser difícil de hacer con YouTube y otros sitios que usan algoritmos de recomendación, ya que en teoría cualquier video en la plataforma podría recomendarse en cualquier momento.

Otra herramienta poderosa es la prueba de algoritmos y la auditoría, que ha sido particularmente útil en el diagnóstico de algoritmos sesgados. En un caso reciente, una compañía profesional de detección de currículums descubrió que su algoritmo era priorizando dos factores como mejores predictores del desempeño laboral: si el candidato se llamaba Jared y si jugaban lacrosse en la escuela secundaria. Esto es lo que sucede cuando la máquina no está supervisada.

En este caso, el algoritmo de detección de currículums había notado que los hombres blancos tenían una mayor probabilidad de ser contratados, y había encontrado características de poder correlacionadas (como ser nombrado Jared o jugar lacrosse) presentes en los candidatos contratados. Con YouTube, la auditoría de algoritmos podría ayudar a comprender qué tipos de videos se priorizan para la recomendación, y quizás ayudar a resolver el debate sobre si las recomendaciones de YouTube contribuyen a la radicalización o no.

Introducir explicaciones contrafactuales o utilizar la auditoría de algoritmos es un proceso difícil y costoso. Pero es importante, porque la alternativa es peor. Si los algoritmos no se controlan y no se regulan, podríamos ver un avance gradual de teóricos de la conspiración y extremistas en nuestros medios, y nuestra atención controlada por quien pueda producir el contenido más rentable.La conversación

Sobre el Autor

Chico Q. Camargo, investigador postdoctoral en ciencia de datos, Universidad de Oxford

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

seguir a InnerSelf en

facebook-icontwitter-iconrss-icon

Obtenga lo último por correo electrónico

{Off} = emailcloak

DE LOS EDITORES

Monitoreo de salud en tiempo real
by Robert Jennings, InnerSelf.com
Me parece que este proceso es muy importante en el futuro. Junto con otros dispositivos, ahora podemos monitorear a distancia la salud de las personas en tiempo real.
Prueba de anticuerpos baratos que cambia el juego enviada para validación en la lucha contra el coronavirus
by Alistair Smout y Andrew MacAskill
LONDRES (Reuters) - Una compañía británica detrás de una prueba de anticuerpos contra el coronavirus de 10 minutos, que costará alrededor de $ 1, ha comenzado a enviar prototipos a los laboratorios para su validación, lo que podría ser un ...
Cómo contrarrestar la epidemia de miedo
by Marie T. Russell, InnerSelf
Compartiendo un mensaje enviado por Barry Vissell sobre la epidemia de miedo que ha infectado a muchas personas ...
Cómo se ve y suena el verdadero liderazgo
by Robert Jennings, InnerSelf.com
El Teniente General Todd Semonite, Jefe de Ingenieros y comandante general del Cuerpo de Ingenieros del Ejército, habla con Rachel Maddow sobre cómo trabaja el Cuerpo de Ingenieros del Ejército con otras agencias federales y ...
Lo que funciona para mí: escuchar mi cuerpo
by Marie T. Russell, InnerSelf
El cuerpo humano es una creación asombrosa. Funciona sin necesidad de nuestra opinión sobre qué hacer. El corazón late, los pulmones bombean, los ganglios linfáticos hacen lo suyo, el proceso de evacuación funciona. El cuerpo…