Por qué la tecnología pone en peligro los derechos humanos
Spainter_vfx / Shutterstock.com

Películas como 2001: Una odisea del espacio, Blade Runner y Terminator trajo robots deshonestos y sistemas informáticos a nuestras pantallas de cine. Pero en estos días, tales espectáculos clásicos de ciencia ficción no parecen tan alejados de la realidad.

Cada vez más, vivimos, trabajamos y jugamos con tecnologías computacionales que son autónomas e inteligentes. Estos sistemas incluyen software y hardware con capacidad de razonamiento independiente y toma de decisiones. Ellos trabajan para nosotros en la fábrica; ellos deciden si podemos obtener una hipoteca; rastrean y miden nuestros niveles de actividad y estado físico; limpian los pisos de nuestra sala y cortan el césped.

Los sistemas autónomos e inteligentes tienen el potencial de afectar casi todos los aspectos de nuestras vidas sociales, económicas, políticas y privadas, incluidos los aspectos mundanos cotidianos. Gran parte de esto parece inocente, pero hay motivos para preocuparse. Las tecnologías computacionales afectan a todos los derechos humanos, desde el derecho a la vida hasta el derecho a la privacidad, la libertad de expresión y los derechos sociales y económicos. Entonces, ¿cómo podemos defender los derechos humanos en un panorama tecnológico cada vez más conformado por la robótica y la inteligencia artificial (IA)?

AI y los derechos humanos

En primer lugar, existe un temor real de que la mayor autonomía de las máquinas socavará el estado de los humanos. Este temor se ve agravado por la falta de claridad sobre quién tendrá que rendir cuentas, ya sea en un sentido legal o moral, cuando las máquinas inteligentes hacen daño. Pero no estoy seguro de que el enfoque de nuestra preocupación por los derechos humanos realmente se deba a robots deshonestos, como parece en el presente. Más bien, deberíamos preocuparnos por el uso humano de los robots y la inteligencia artificial y su despliegue en contextos políticos, militares, económicos y sociales injustos y desiguales.

Esta preocupación es particularmente pertinente con respecto a los sistemas letales autónomos de armas (LAWS), a menudo descritos como robots asesinos. Como nosotros avanzar hacia una carrera armamentista de la IA, especialistas en derechos humanos y activistas como Christof Heyns, ex relator especial de la ONU sobre ejecuciones extrajudiciales, sumarias o arbitrarias, temen que el uso de LAWS ponga sistemas robóticos autónomos a cargo de las decisiones de vida o muerte, con control humano limitado o no.


gráfico de suscripción interior


AI también revoluciona el vínculo entre la guerra y las prácticas de vigilancia. Grupos como el Comité Internacional para el Control de Armas de Robot (ICRAC) recientemente expresaron su oposición a la participación de Google en Proyecto Maven, un programa militar que utiliza el aprendizaje automático para analizar imágenes de vigilancia de drones, que pueden usarse para asesinatos extrajudiciales. ICRAC apeló a Google para garantizar que los datos que recaba sobre sus usuarios nunca se utilicen con fines militares, uniéndose a las protestas de los empleados de Google por la participación de la compañía en el proyecto. Google anunció recientemente que no se renovará su contrato.

En 2013, el alcance de las prácticas de vigilancia fue destacado por Edward Snowden revelaciones. Esto nos enseñó mucho sobre la amenaza al derecho a la privacidad y el intercambio de datos entre los servicios de inteligencia, las agencias gubernamentales y las corporaciones privadas. La reciente controversia alrededor Cambridge AnalyticaLa recolección de datos personales a través del uso de plataformas de redes sociales como Facebook sigue causando una gran aprensión, esta vez por la manipulación y la interferencia en las elecciones democráticas que dañan el derecho a la libertad de expresión.

Mientras tanto, los analistas de datos críticos desafían prácticas discriminatorias asociado con lo que ellos llaman el "problema del hombre blanco" de AI. Esta es la preocupación de que los sistemas de inteligencia artificial entrenados en datos existentes reproduzcan los estereotipos raciales y de género existentes que perpetúan las prácticas discriminatorias en áreas como la policía, las decisiones judiciales o el empleo.

AI puede replicar y consolidar los estereotipos.
AI puede replicar y consolidar los estereotipos.
Ollyy / Shutterstock.com

Bots ambiguos

La amenaza potencial de las tecnologías computacionales para los derechos humanos y para la seguridad física, política y digital se destacó en un estudio publicado recientemente sobre El uso malicioso de la inteligencia artificial. Las preocupaciones expresadas en este informe de la Universidad de Cambridge deben tomarse en serio. Pero, ¿cómo debemos lidiar con estas amenazas? ¿Están preparados los derechos humanos para la era de la robótica y la IA?

Hay esfuerzos constantes para actualizar los principios de derechos humanos existentes para esta era. Estos incluyen el Marco de las Naciones Unidas y principios rectores sobre las empresas y los derechos humanos, intenta escribir un Carta Magna para la era digital y el Instituto del Futuro de la Vida Principios de Asilomar AI, que identifican las pautas para la investigación ética, la adhesión a los valores y el compromiso con el desarrollo benéfico a largo plazo de la IA.

Estos esfuerzos son encomiables pero no suficientes. Los gobiernos y las agencias gubernamentales, los partidos políticos y las corporaciones privadas, especialmente las compañías tecnológicas líderes, deben comprometerse con los usos éticos de la IA. También necesitamos un control legislativo efectivo y ejecutable.

Cualesquiera que sean las nuevas medidas que presentamos, es importante reconocer que nuestras vidas están cada vez más enredadas con máquinas autónomas y sistemas inteligentes. Este enredo mejora el bienestar humano en áreas tales como la investigación y el tratamiento médico, en nuestro sistema de transporte, en entornos de atención social y en los esfuerzos para proteger el medio ambiente.

Pero en otras áreas, este enredo arroja perspectivas preocupantes. Las tecnologías computacionales se utilizan para observar y seguir nuestras acciones y comportamientos, rastrear nuestros pasos, nuestra ubicación, nuestra salud, nuestros gustos y nuestras amistades. Estos sistemas moldean el comportamiento humano y nos empujan hacia prácticas de autovigilancia que restringen nuestra libertad y socavan las ideas y los ideales de los derechos humanos.

La conversaciónY aquí radica el quid: la capacidad para el uso dual de tecnologías computacionales borra la línea entre las prácticas benéficas y maliciosas. Además, las tecnologías computacionales están profundamente implicadas en las relaciones desiguales de poder entre los ciudadanos individuales, el estado y sus agencias, y las corporaciones privadas. Si se desquician de los sistemas nacionales e internacionales efectivos de controles y equilibrios, representan una amenaza real y preocupante para nuestros derechos humanos.

Sobre el Autor

Birgit Schippers, Investigadora visitante, Senador George J. Mitchell, Instituto para la Paz Global, Seguridad y Justicia, La Universidad Queen de Belfast

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libros relacionados

{amazonWS: searchindex = Libros; Birgit Schippers = innerself "target =" _ blank "rel =" nofollow noopener "> InnerSelf Market y Amazon