4 formas en que sus búsquedas de Google y las redes sociales afectan sus oportunidades en la vida
Shutterstock.

Ya sea que se dé cuenta o no, o no, el big data puede afectarlo y cómo usted vive su vida. Los datos que creamos cuando usamos las redes sociales, navegando en Internet y el uso de rastreadores de fitness se recopilan, categorizan y utilizan por negocios y el estado para crear perfiles de nosotros Estos perfiles se utilizan luego para orientar los anuncios de productos y servicios a los que tienen más probabilidades de comprarlos, o para informar las decisiones del gobierno.

Los grandes datos permiten a los estados y las empresas acceder, combinar y analizar nuestra información y desarrollar revelaciones, pero incompleto y potencialmente incorrecto - perfiles de nuestras vidas. Lo hacen mediante la identificación de correlaciones y patrones en los datos sobre nosotros, y personas con perfiles similares a nosotros, para hacer predicciones sobre lo que podríamos hacer.

Pero el hecho de que los análisis de big data estén basados ​​en algoritmos y estadísticas, no significa que sean preciso, neutral o intrínsecamente objetivo. Y aunque los datos masivos pueden proporcionar información sobre el comportamiento grupal, estos no son necesariamente una forma confiable de determinar el comportamiento individual. De hecho, estos métodos pueden abrir la puerta a la discriminación y amenazar los derechos humanos de las personas - Incluso podrían estar trabajando en contra de usted. Aquí hay cuatro ejemplos donde el análisis de big data puede conducir a la injusticia.

1. Cálculo de puntajes de crédito

Los datos grandes se pueden usar para tomar decisiones sobre elegibilidad crediticia, afectando si se le concede una hipoteca, o qué tan alto seguro de auto las primas deben ser. Estas decisiones pueden ser informadas por su publicaciones en redes sociales y datos de otras aplicaciones, que se toman para indicar su nivel de riesgo o confiabilidad.

Pero datos como su formación académica o su lugar de residencia pueden no ser relevantes o fiables para dichas evaluaciones. Este tipo de información puede actuar como un indicador de la raza o el nivel socioeconómico, y su uso para tomar decisiones sobre el riesgo de crédito podría generar discriminación.


gráfico de suscripción interior


2. Búsquedas de trabajo

Los datos grandes se pueden usar para determinar quien ve un anuncio de trabajo o es preseleccionado para una entrevista. Los anuncios de trabajo pueden estar dirigidos a grupos de edad específicos, como 25 a 36 años de edad, que excluye a los trabajadores más jóvenes y mayores de incluso ver ciertos puestos de trabajo y presenta un riesgo de discriminación por edad.

La automatización también se usa para hacer que los candidatos de filtrado, clasificación y clasificación sean más eficientes. Pero este proceso de selección puede excluir a las personas sobre la base de indicadores como el distancia de su viaje. Los empleadores pueden suponer que aquellos con un viaje más largo tienen menos probabilidades de permanecer en un empleo a largo plazo, pero esto realmente puede discriminar a las personas que viven más lejos del centro de la ciudad debido a la ubicación de viviendas asequibles.

3. Libertad bajo palabra y decisiones de fianza

En los Estados Unidos y el Reino Unido, se utilizan modelos de evaluación de riesgos de big data para ayudar a los funcionarios a decidir si se otorgan o no las personas libertad bajo palabra o fianza, o referido a programas de rehabilitación. También se pueden usar para evaluar cuánto de un delincuente presenta a la sociedad, que es un factor que un juez podría considerar al decidir la duración de una sentencia.

No está claro exactamente qué datos se utilizan para ayudar a hacer estas evaluaciones, pero a medida que avanza hacia vigilancia digital acelera, es cada vez más probable que estos programas incorporen información de código abierto como actividad medial social - si no lo hacen ya

Estas evaluaciones pueden no solo mirar el perfil de una persona, sino también cómo se compara con el de los demás. Algunas fuerzas policiales tienen históricamente excesivamente vigilado ciertas comunidades minoritarias, lo que lleva a una cantidad desproporcionada de incidentes criminales reportados. Si estos datos se incorporan en un algoritmo, distorsionarán los modelos de evaluación de riesgos y darán como resultado una discriminación que afecta directamente el derecho de una persona a la libertad.

4. Ver aplicaciones de visa

El año pasado, la Agencia de Inmigración y Control de Aduanas (ICE) de los Estados Unidos anunció que quería introducir un sistema automatizado "visado de visa extremo"Programa. Analizaría de forma automática y continua las cuentas de las redes sociales, para evaluar si los solicitantes realizarían una "contribución positiva" a los Estados Unidos, y si podría surgir algún problema de seguridad nacional.

Además de presentar riesgos para la libertad de pensamiento, opinión, expresión y asociación, existían riesgos importantes de que este programa discriminara a personas de ciertas nacionalidades o religiones. Los comentaristas lo caracterizó como una "prohibición musulmana por algoritmo".

El programa fue retirado recientemente, según los informes, sobre la base de que "no había un software 'listo para usar' que pudiera ofrecer la calidad de monitoreo que la agencia quería". Pero incluir dichos objetivos en los documentos de adquisiciones puede crear malos incentivos para que la industria tecnológica desarrolle programas discriminatorios por diseño.

La conversaciónNo hay duda de que el análisis de big data funciona de manera que puede afectar las oportunidades de vida de los individuos. Pero el falta de transparencia acerca de cómo se recopilan, usan y comparten los datos grandes hace que sea difícil para las personas saber qué información se usa, cómo y cuándo. Los análisis de Big Data son simplemente demasiado complicados para que las personas puedan proteger sus datos del uso inapropiado. En cambio, los estados y las empresas deben hacer, y seguir, las reglamentaciones para garantizar que su uso de big data no conduzca a la discriminación.

Acerca de los Autores

Lorna McGregor, Directora, Centro de Derechos Humanos, IP y Codirectora, Gran Subvención de Derechos Humanos, Big Data y Tecnología de ESRC, Universidad de Essex; Daragh Murray, profesor de Derecho Internacional de los Derechos Humanos en la Escuela de Derecho de Essex, Universidad de Essex, y Vivian Ng, Investigadora Senior en Derechos Humanos, Universidad de Essex

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libros de estos

Sobre el Autor

at