Ordenar por algoritmos nos pone en cajas. ¿Cómo sabemos que son los correctos? generado, CC BYOrdenar por algoritmos nos pone en cajas. ¿Cómo sabemos que son los correctos? generado, CC BY

La sociedad parece encaminada hacia un punto en el que nuestras vidas están sujetas al escrutinio de los algoritmos informáticos. Los datos que generamos son examinados y analizados, ya sea por los gobiernos para la seguridad nacional o por las empresas con fines de lucro, y es poco probable que esto cambie. El poder y el atractivo del análisis de datos, una vez encontrado, no se abandonará fácilmente.

Pero, en verdad, me pregunto si me preocupa más que se recopilen nuestros datos o el hecho de que no sabemos nada sobre los algoritmos que nos juzgan.

El nivel de detalle sobre nuestras vidas y hábitos que puede ser eliminado a partir de los datos que dejamos atrás se ha discutido anteriormente, y se está emitiendo una nueva presentación como parte del debate sobre el borrador del Reino Unido. Bill Powers de investigación. Sabemos al menos algo sobre qué datos se recopilan y durante cuánto tiempo se almacenan, algunos de los cuales se rigen por las leyes británicas y europeas.

En texto del proyecto de ley, por ejemplo, sabemos que el gobierno del Reino Unido "solo" exigirá el acceso (injustificado) a los metadatos de las comunicaciones, los encabezados y los sujetos de los correos electrónicos y los registros de llamadas telefónicas. Pero también sabemos cuán reveladores pueden ser los metadatos: echarle un vistazo al Proyecto de inmersión del MIT Media Lab para un poderoso ejemplo de cuánto detalle se puede determinar a partir de él. Ciertamente no es en absoluto comparable a una factura telefónica desglosadacomo se dijo


gráfico de suscripción interior


Entonces, para bien o para mal, nosotros, el público, tenemos alguna pista sobre lo que se está grabando. Pero no tenemos absolutamente ninguna idea de qué herramientas y técnicas analíticas se están aplicando a estos datos, y la importancia de esto no debe subestimarse.

¿Qué cruje los números?

Podemos hacer conjeturas educadas. Las agencias de seguridad nacional probablemente utilicen nuestros metadatos para generar redes sociales entre personas y lugares, entre otras cosas, uniéndonos. Estas redes de relaciones se analizarán luego para determinar si somos una persona de interés, determinada por la forma en que se compara con otras personas de interés, y cómo se conecta con personas de interés existentes o relacionadas con ellas.

Los investigadores que utilizan estas técnicas entienden sus limitaciones, y que los algoritmos que las alimentan pueden contener errores o suposiciones subyacentes que tienen un profundo efecto en su resultado. En este caso, eso puede significar si eres etiquetado como terrorista o no, o si calificas para un préstamo o una hipoteca.

Tampoco está exactamente claro dónde en las áreas fronterizas borrosas se define la existencia de una relación. ¿Simplemente visitar el mismo sitio web que un terrorista implica valores compartidos, o viajar en la misma ruta de autobús todos los días sugiere que regularmente hable con terroristas? Es muy posible visitar sitios frecuentados por terroristas conocidos por muchas razones legítimas. Si obtiene sus noticias de los mismos sitios web que los terroristas ¿es más probable que sea un terrorista? Discriminación y parcialidad puede introducirse en el momento de la recopilación de datos, y nuevamente cuando se toman decisiones sobre cómo analizar esos datos. Los algoritmos también pueden discriminar.

Bordes borrosos

La posibilidad de que los algoritmos introduzcan un sesgo indeseable es muy real. Por ejemplo, los utilizados por los servicios de seguridad están entrenados en conjuntos de datos de conocidos terroristas y conocidos no terroristas. Esto significa que, como la mayoría de los terroristas conocidos son hombres de edad 20-30, ¿es más probable que te clasifiquen como terrorista por el mero hecho de ser hombre y envejecer más o menos 20-30, independientemente de tus otros atributos ?. Si es así, ¿tiene esto un efecto significativo sobre cómo se usan los datos?

El problema surge del hecho de que yo y otros investigadores académicos que utilizamos técnicas complejas de análisis de redes, aprendizaje automático, igualación de patrones o inteligencia artificial utilizamos esas técnicas públicamente para determinar la solidez de las técnicas y la validez de las conclusiones; los servicios de seguridad del gobierno y las organizaciones del sector privado no. No tenemos idea de la calidad de sus métodos y cómo los implementan. ¿Hay una solución para esto?

Los de otro campo de la seguridad, la criptografía, aprendieron hace mucho tiempo que la mejor manera de mejorar la calidad, y por lo tanto la seguridad, de sus algoritmos era hacerlos públicos. Se publican implementaciones criptográficas y cifrados, y se alienta a los investigadores a intentar encontrar errores o fallas, al hacerlo, se mejora la seguridad para todos los que los usan. Además, cualquier implementación de algoritmos criptográficos de código cerrado (no públicos) es generalmente mirados con sospecha. Si van a pronunciar juicios que cambien la vida sobre nosotros, ya sea que seamos etiquetados como terroristas o financieramente indignos, se debe aplicar el mismo modelo a los algoritmos de seguridad.

Un argumento en contra de tal movimiento es que los algoritmos abiertos y transparentes pueden llevar a los terroristas a modificar su comportamiento en el mundo real para evitar ser detectados. Esto significaría cambiar cosas como sus interacciones, asociaciones, hábitos de navegación y movimientos potenciales. Pero esto, si los algoritmos funcionan correctamente, significaría que esencialmente dejan de actuar como terroristas. Si nuestra seguridad, libertad y seguridad futuras van a depender de estos algoritmos, debemos asegurarnos exactamente cómo y qué funcionan.

Sobre el AutorLa conversación

Philip Garnett, profesor de la Universidad de York.

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libro relacionado:

at