¿Cómo puede la privacidad diferencial proteger sus datos?

¿Cómo puede la privacidad diferencial proteger sus datos? Marco Verch / Flickr, CC BY

Las empresas tecnológicas pueden usar privacidad diferencial para recopilar y compartir datos agregados sobre los hábitos de los usuarios, al tiempo que se mantiene la privacidad individual.

No es ningún secreto que las grandes compañías tecnológicas como Facebook, Google, Apple y Amazon están infiltrando cada vez más nuestras interacciones personales y sociales para recopilar grandes cantidades de datos todos los días. Al mismo tiempo, las violaciones de la privacidad en el ciberespacio suelen ser noticia de primera plana.

Entonces, ¿cómo debería protegerse la privacidad en un mundo donde los datos se recopilan y comparten con mayor velocidad e ingenio?

La privacidad diferencial es un nuevo modelo de seguridad cibernética que, según los defensores, puede proteger los datos personales mucho mejor que los métodos tradicionales.

La matemática en la que se basa fue desarrollada 10 hace años, y el método ha sido adoptado por Apple y Google en los últimos años.

¿Qué es privacidad diferencial?

La privacidad diferencial hace posible que las compañías tecnológicas recopilen y compartan información agregada sobre los hábitos de los usuarios, al tiempo que mantienen la privacidad de los usuarios individuales.

Por ejemplo, supongamos que desea mostrar las rutas más populares que las personas toman caminando por un parque. Usted rastrea las rutas de las personas de 100 que regularmente caminan por el parque, y si caminan por el sendero oa través del césped.

Pero en lugar de compartir las personas específicas que toman cada ruta, compartes los datos agregados recopilados a lo largo del tiempo. Las personas que vean los resultados pueden saber que 60 de personas de 100 prefiere tomar un atajo a través del césped, pero no a las personas de 60.

¿Por qué lo necesitamos?

Muchos de los gobiernos del mundo tienen políticas estrictas sobre cómo las empresas de tecnología recopilan y comparten datos de usuarios. Las empresas que no siguen las reglas pueden enfrentar grandes multas. UN La corte belga recientemente ordenó Facebook dejar de recopilar datos sobre los hábitos de navegación de los usuarios en sitios web externos, o enfrentar multas de € 250,000 por día.

Para muchas empresas, especialmente las multinacionales que operan en diferentes jurisdicciones, esto las deja en una posición delicada cuando se trata de la recopilación y el uso de los datos de los clientes.

Por un lado, estas empresas necesitan los datos de los usuarios para poder brindar servicios de alta calidad que beneficien a los usuarios, como recomendaciones personalizadas. Por otro lado, pueden enfrentar cargos si recopilan demasiada información del usuario o si intentan trasladar datos de una jurisdicción a otra.

Las herramientas tradicionales de preservación de la privacidad, como la criptografía, no pueden resolver este dilema, ya que impide que las empresas tecnológicas accedan a los datos. Y el anonimato reduce el valor de los datos: un algoritmo no puede servirle recomendaciones personalizadas si no sabe cuáles son sus hábitos.

¿Como Funciona?

Continuemos el ejemplo de las rutas de senderismo a través de un parque. Si conoce las identidades de los incluidos en el estudio, pero no sabe quién tomó esa ruta, puede asumir que la privacidad está protegida. Pero ese puede no ser el caso.

Supongamos que alguien que ve sus datos quiere saber si Bob prefiere caminar por la hierba o en el camino. Han obtenido información de contexto sobre las otras personas de 99 en el estudio, que les dice que las personas de 40 prefieren caminar en el camino y 59 prefieren caminar a través de la hierba. Por lo tanto, pueden deducir que Bob, que es la persona 100th en la base de datos, es la persona 60th que prefiere caminar por la hierba.

Este tipo de ataque se llama un ataque diferenciado, y es bastante difícil de defenderse ya que no se puede controlar la cantidad de conocimiento de fondo que alguien puede obtener. La privacidad diferencial apunta a defenderse contra este tipo de ataque.

Alguien que deduzca su ruta para caminar podría no sonar demasiado serio, pero si reemplaza las rutas para caminar con los resultados de la prueba del VIH, entonces puede ver que existe la posibilidad de una grave invasión de la privacidad.

El modelo de privacidad diferencial garantiza que incluso si alguien tiene información completa sobre 99 de personas 100 en un conjunto de datos, aún no puede deducir la información sobre la persona final.

El mecanismo principal para lograr eso es agregar ruido aleatorio a los datos agregados. En el ejemplo del camino, puede decir que el número de personas que prefieren cruzar el césped es 59 o 61, en lugar del número exacto de 60. El número incorrecto puede preservar la privacidad de Bob, pero tendrá muy poco impacto en el patrón: alrededor de 60% de las personas prefieren tomar un atajo.

El ruido está cuidadosamente diseñado. Cuando Apple empleó privacidad diferencial en iOS 10, agregó ruido a las entradas de los usuarios individuales. Eso significa que puede rastrear, por ejemplo, los emojis usados ​​más frecuentemente, pero el uso de emojis de cualquier usuario individual está enmascarado.

Cynthia Dwork, la inventor de la privacidad diferencial, ha propuesto maravillosas pruebas matemáticas sobre cuánto ruido es suficiente para lograr el requisito de privacidad diferencial.

¿Cuáles son sus aplicaciones prácticas?

La privacidad diferencial se puede aplicar a todo, desde los sistemas de recomendación hasta los servicios basados ​​en la ubicación y las redes sociales. manzana usa privacidad diferencial para recopilar información anónima sobre el uso de dispositivos como iPhones, iPads y Mac. El método es fácil de usar, y legalmente en el claro.

La privacidad diferencial también permitiría a una empresa como Amazon acceder a sus preferencias de compra personalizadas al tiempo que oculta información confidencial sobre su lista de compras histórica. Facebook podría usarlo para recopilar datos de comportamiento para publicidad dirigida, sin violar las políticas de privacidad de un país.

¿Cómo podría usarse en el futuro?

Los diferentes países tienen diferentes políticas de privacidad, y los documentos confidenciales actualmente tienen que verificarse manualmente antes de pasar de un país a otro. Esto lleva mucho tiempo y es costoso.

Recientemente, un equipo de Universidad Deakin desarrolló una tecnología de privacidad diferencial para automatizar los procesos de privacidad dentro de las comunidades de intercambio de nubes en todos los países.

La conversaciónProponen utilizar fórmulas matemáticas para modelar las leyes de privacidad de cada país que podrían traducirse a "middleware" (software) para garantizar que los datos se ajusten. Emplear la privacidad diferencial de esta manera podría proteger la privacidad de los usuarios y resolver un dolor de cabeza de intercambio de datos para las compañías tecnológicas.

Sobre el Autor

Tianqing Zhu, profesor de Seguridad Cibernética, Facultad de Ciencias, Ingeniería y Medio Ambiente Construido, Universidad Deakin

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libros relacionados

{amazonWS: searchindex = Libros; palabras clave = privacidad personal; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

seguir a InnerSelf en

facebook-icontwitter-iconrss-icon

Obtenga lo último por correo electrónico

{Off} = emailcloak