¿La inteligencia artificial alguna vez comprenderá las emociones humanas?

¿Cómo te sentirías acerca de recibir terapia de un robot? Las máquinas emocionalmente inteligentes pueden no estar tan lejos como parece. En las últimas décadas, la inteligencia artificial (IA) se ha vuelto cada vez más buena leyendo reacciones emocionales en humanos.

Pero leer no es lo mismo que entender. Si la inteligencia artificial no puede experimentar las emociones, ¿pueden alguna vez realmente entendernos? Y, si no, ¿existe el riesgo de atribuir propiedades de robots que no tienen?

La última generación de IA ha surgido gracias a un aumento en los datos disponibles para que las computadoras aprendan, así como a su poder de procesamiento mejorado. Estas máquinas son cada vez más competitivas en tareas que siempre se han percibido como humanas.

AI puede ahora, entre otras cosas, reconocer caras, convertir bocetos cara en fotos, reconocer el habla y jugar Go.

Identificando criminales

Recientemente, los investigadores han desarrollado una IA que es capaz de determinar si una persona es un delincuente simplemente observando sus rasgos faciales. El sistema se evaluó utilizando una base de datos de fotos de identificación china y los resultados son asombrosos. La IA erróneamente clasificó a inocentes como delincuentes solo en torno al 6% de los casos, mientras que pudo identificar con éxito a alrededor del 83% de los delincuentes. Esto lleva a una asombrosa precisión general de casi 90%.

El sistema se basa en un enfoque llamado "aprendizaje profundo", que ha tenido éxito en tareas perceptivas como el reconocimiento facial. Aquí, el aprendizaje profundo combinado con un "modelo de rotación facial" permite a la IA verificar si dos fotos faciales representan a la misma persona, incluso si la iluminación o el ángulo cambian entre las fotos.


gráfico de suscripción interior


Aprendizaje profundo construye una "red neuronal", modelada libremente en el cerebro humano. Esto se compone de cientos de miles de neuronas organizadas en diferentes capas. Cada capa transforma la entrada, por ejemplo, una imagen facial, en un nivel más alto de abstracción, como un conjunto de bordes en ciertas orientaciones y ubicaciones. Esto enfatiza automáticamente las características que son más relevantes para realizar una tarea determinada.

Dado el éxito del aprendizaje profundo, no es sorprendente que las redes neuronales artificiales puedan distinguir a los delincuentes de los no delincuentes, si realmente existen rasgos faciales que pueden discriminar entre ellos. La investigación sugiere que hay tres. Uno es el ángulo entre la punta de la nariz y las comisuras de la boca, que en promedio fue 19.6% más pequeño para los delincuentes. La curvatura del labio superior también era en promedio 23.4% más grande para los delincuentes, mientras que la distancia entre las esquinas internas de los ojos era en promedio 5.6% más estrecha.

A primera vista, este análisis parece sugerir que Vistas desactualizadas que los delincuentes pueden ser identificados por atributos físicos no son del todo incorrectos. Sin embargo, puede que no sea la historia completa. Es interesante que dos de las características más relevantes estén relacionadas con los labios, que son nuestras características faciales más expresivas. Las fotos de identidad como las que se usan en el estudio deben tener una expresión facial neutral, pero podría ser que la IA lograra encontrar emociones ocultas en esas fotos. Estos pueden ser tan pequeños que los humanos podrían haber luchado para notarlos.

Es difícil resistir la tentación de mirar las fotos de muestra que se muestran en el documento, que aún no se ha revisado por pares. De hecho, una mirada cuidadosa revela una leve sonrisa en las fotos de los no criminales - ver por ti mismo. Pero solo hay algunas fotos de muestra disponibles, por lo que no podemos generalizar nuestras conclusiones a toda la base de datos.

El poder de la informática afectiva

Esta no sería la primera vez que una computadora puede reconocer las emociones humanas. El llamado campo de "computación afectiva"Ha existido por varios años. Se argumenta que, si queremos vivir cómodamente e interactuar con los robots, estas máquinas deberían ser capaces de comprender y reaccionar de manera adecuada a las emociones humanas. Hay mucho trabajo en el área y las posibilidades son enormes.

Por ejemplo, los investigadores han utilizado el análisis facial para punto luchando estudiantes en sesiones de tutoría en la computadora. La IA fue entrenada para reconocer diferentes niveles de compromiso y frustración, de modo que el sistema pudiera saber cuándo los estudiantes encontraban el trabajo demasiado fácil o demasiado difícil. Esta tecnología podría ser útil para mejorar la experiencia de aprendizaje en plataformas en línea.

AI también se ha utilizado para detectar emociones basadas en el sonido de nuestra voz por una empresa llamada BeyondVerbal. Han producido software que analiza la modulación de voz y busca patrones específicos en la forma en que las personas hablan. La compañía afirma ser capaz de identificar correctamente las emociones con una precisión 80%. En el futuro, este tipo de tecnología podría, por ejemplo, ayudar a las personas autistas a identificar las emociones.

Sony incluso está tratando de desarrollar un robot capaz de formar enlaces emocionales con personas. No hay mucha información sobre cómo pretenden lograr eso, o qué hará exactamente el robot. Sin embargo, mencionan que buscan "integrar hardware y servicios para proporcionar experiencias emocionalmente atractivas.

Una IA emocionalmente inteligente tiene varios beneficios potenciales, ya sea para brindarle a alguien un acompañante o para ayudarnos a realizar ciertas tareas, desde interrogatorios criminales hasta terapia de conversación.

Pero también hay problemas éticos y riesgos involucrados. ¿Es correcto dejar que un paciente con demencia dependa de un compañero de IA y cree que tiene una vida emocional cuando no lo hace? ¿Y puede condenar a una persona basándose en una inteligencia artificial que los clasifique como culpables? Claramente no. En cambio, una vez que un sistema como este se ha mejorado y se ha evaluado completamente, un uso menos dañino y potencialmente útil podría ser activar más controles a las personas consideradas "sospechosas" por la IA.

Entonces, ¿qué deberíamos esperar de AI en el futuro? Los temas subjetivos, como las emociones y el sentimiento, todavía son difíciles de aprender para AI, en parte porque es posible que la IA no tenga acceso a suficientes datos buenos para analizarlos objetivamente. Por ejemplo, ¿podría AI entender el sarcasmo? Una oración dada puede ser sarcástica cuando se habla en un contexto pero no en otro.

Sin embargo, la cantidad de datos y el poder de procesamiento continúa creciendo. Por lo tanto, con algunas excepciones, es muy posible que la IA pueda hacer coincidir a los humanos para reconocer diferentes tipos de emociones en las próximas décadas. Pero si una IA alguna vez podría experimentar emociones es una tema controvertido. Incluso si pudieran, sin duda podría haber emociones que nunca podrían experimentar, lo que dificulta su verdadera comprensión.

La conversación

Sobre el Autor

Leandro Minku, profesor de informática, Universidad de Leicester

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libros relacionados:

at InnerSelf Market y Amazon