La nueva brecha digital es entre las personas que optan por los algoritmos y las personas que no lo hacen ¿Sabes lo que pasa cuando compartes tus datos? mtkang / shutterstock.com

Todos los aspectos de la vida pueden guiarse por algoritmos de inteligencia artificial, desde la elección de la ruta que tomará en su viaje de la mañana hasta la decisión de a quién acudir en una cita y los asuntos legales y judiciales complejos, como la vigilancia predictiva.

Las grandes empresas tecnológicas como Google y Facebook utilizan AI para obtener información sobre su enorme cantidad de datos detallados de los clientes. Esto les permite monetizar las preferencias colectivas de los usuarios a través de prácticas como la micro-segmentación, una estrategia utilizada por los anunciantes para dirigirse a grupos específicos de usuarios.

Paralelamente, muchas personas confían en las plataformas y los algoritmos más que en sus propios gobiernos y en la sociedad civil. Un estudio de 2018 de octubre sugirió que las personas demuestran "apreciación del algoritmo", En la medida en que confiarían más en el asesoramiento cuando piensen que proviene de un algoritmo que de un humano.

En el pasado, los expertos en tecnología se han preocupado por una "divisoria digital" entre quienes pudieron acceder a las computadoras e internet y quienes no pudieron. Los hogares con menos acceso a las tecnologías digitales están en desventaja en su capacidad para ganar dinero y acumular habilidades.


gráfico de suscripción interior


Pero, a medida que proliferan los dispositivos digitales, la división ya no se trata solo de acceso. ¿Cómo lidian las personas con la sobrecarga de información y la gran cantidad de decisiones algorítmicas que impregnan todos los aspectos de sus vidas?

Los usuarios más expertos se alejan de los dispositivos y se dan cuenta de cómo los algoritmos afectan sus vidas. Mientras tanto, los consumidores que tienen menos información confían aún más en los algoritmos para guiar sus decisiones.

¿Debes mantenerte conectado o desenchufarlo? pryzmat / shutterstock.com

La salsa secreta detrás de la inteligencia artificial.

La razón principal de la nueva brecha digital, en mi opinión como alguien que estudia los sistemas de información, es que tan pocas personas entienden cómo funcionan los algoritmos. Para la mayoría de los usuarios, los algoritmos son vistos como una caja negra.

Los algoritmos AI toman datos, los ajustan a un modelo matemático y emiten una predicción, que va desde que canciones puedes disfrutar a cuántos años alguien debería pasar en la cárcel. Estos modelos se desarrollan y modifican en función de los datos del pasado y el éxito de los modelos anteriores. La mayoría de las personas, incluso a veces los propios diseñadores de algoritmos, no saben realmente lo que ocurre dentro del modelo.

Investigadores han estado preocupados por mucho tiempo sobre la equidad algorítmica. Por ejemplo, la herramienta de reclutamiento basada en AI de Amazon resultó ser despedir a las candidatas. El sistema de Amazon estaba extrayendo selectivamente palabras implícitamente generadas por género - palabras que los hombres tienen más probabilidades de usar en el habla cotidiana, como "ejecutado" y "capturado".

Otros estudios han demostrado que los algoritmos judiciales tienen prejuicios raciales y condenan a los acusados ​​negros por más tiempo que otros.

Como parte del Reglamento de protección de datos general recientemente aprobado en la Unión Europea, las personas han “Un derecho a la explicación” de los criterios que utilizan los algoritmos en sus decisiones. Esta legislación trata el proceso de toma de decisiones algorítmicas como un libro de recetas. La idea es que si entiendes la receta, puedes entender cómo el algoritmo afecta tu vida.

Mientras tanto, algunos investigadores de la IA han presionado por algoritmos que son Justa, responsable y transparente., así como interpretable, lo que significa que deben llegar a sus decisiones a través de procesos que los humanos pueden entender y confiar.

¿Qué efecto tendrá la transparencia? En un estudioLos estudiantes fueron calificados por un algoritmo y ofrecieron diferentes niveles de explicación sobre cómo se ajustaron las calificaciones de sus compañeros para llegar a una calificación final. Los estudiantes con explicaciones más transparentes en realidad confiaron menos en el algoritmo. Esto, nuevamente, sugiere una brecha digital: la conciencia algorítmica no lleva a una mayor confianza en el sistema.

Pero la transparencia no es una panacea. Incluso cuando el proceso general de un algoritmo es esbozado, Los detalles pueden ser demasiado complejos. para que los usuarios lo comprendan. La transparencia solo ayudará a los usuarios que sean lo suficientemente sofisticados como para comprender las complejidades de los algoritmos.

Por ejemplo, en 2014, Ben Bernanke, ex presidente de la Reserva Federal, fue inicialmente negado una refinanciación de hipoteca por un sistema automatizado. La mayoría de las personas que solicitan un refinanciamiento de hipotecas de este tipo no entenderían cómo los algoritmos podrían determinar su solvencia.

¿Qué dice el algoritmo para hacer hoy? Maria Savenko / shutterstock.com

Salir del nuevo ecosistema de información.

Si bien los algoritmos influyen en gran parte de la vida de las personas, solo una pequeña fracción de los participantes son lo suficientemente sofisticados para participar plenamente Cómo los algoritmos afectan su vida..

No hay muchas estadísticas sobre la cantidad de personas que conocen el algoritmo. Los estudios han encontrado evidencia de ansiedad algorítmica, lo que lleva a un profundo desequilibrio de poder entre plataformas que implementan algoritmos y Los usuarios que dependen de ellos..

Un estudio del uso de Facebook. descubrió que cuando los participantes conocían el algoritmo de Facebook para la preparación de fuentes de noticias, aproximadamente el 83% de los participantes modificó su comportamiento para intentar aprovechar el algoritmo, mientras que alrededor del 10% disminuyó su uso de Facebook.

Un informe de 2018 de noviembre del Pew Research Center. encontró que una amplia mayoría del público tenía preocupaciones importantes sobre el uso de algoritmos para usos particulares. Encontró que 66% pensó que no sería justo que los algoritmos calcularan las puntuaciones de las finanzas personales, mientras que 57% dijo lo mismo sobre la selección automática de currículums.

Una pequeña fracción de individuos ejerce cierto control sobre cómo los algoritmos usan sus datos personales. Por ejemplo, la plataforma Hu-Manity permite a los usuarios una opción para controlar la cantidad de sus datos que se recopilan. Enciclopedia en linea Everipedia ofrece a los usuarios la capacidad de ser un actor en el proceso de curación, lo que significa que los usuarios también pueden controlar cómo se agrega y presenta la información a ellos.

Sin embargo, la gran mayoría de las plataformas no brindan esa flexibilidad a sus usuarios finales o el derecho a elegir cómo el algoritmo usa sus preferencias para preparar su servicio de noticias o para recomendar contenido. Si hay opciones, los usuarios pueden no conocerlas. Acerca de 74% de los usuarios de Facebook dijeron en una encuesta que estaban Desconocido de cómo la plataforma caracteriza sus intereses personales..

Desde mi punto de vista, la nueva alfabetización digital no es usar una computadora o estar en Internet, sino comprender y evaluar las consecuencias de un estilo de vida siempre conectado.

Este estilo de vida tiene un impacto significativo en cómo las personas interactúan con los demás; en su capacidad para prestar atención a la nueva información; y en La complejidad de sus procesos de toma de decisiones..

El aumento de la ansiedad algorítmica también puede reflejarse en cambios paralelos en la economía. Un pequeño grupo de individuos son capturando las ganancias de la automatización, mientras muchos trabajadores están en una posición precaria.

Excluirse de la curación algorítmica es un lujo, y algún día podría ser un símbolo de riqueza disponible solo para unos pocos elegidos. La pregunta es, entonces, cuáles serán los daños medibles para quienes se encuentran en el lado equivocado de la brecha digital.

Sobre el Autor

Anjana Susarla, profesora asociada de sistemas de información, Michigan State University

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.

Libros relacionados

at InnerSelf Market y Amazon