AI puede predecir si su relación durará en función de cómo hable con su pareja

AI puede predecir si su relación durará en función de cómo hable con su pareja

Cualquier niño (o cónyuge) que ha sido regañado por su tono de voz, como gritar o ser sarcástico, sabe que el camino usted habla con alguien puede ser tan importante como palabras que usas Los artistas y actores de la voz hacen un gran uso de esto: son hábiles para impartir significado en la forma en que hablan, a veces mucho más de lo que merecen las palabras.

Pero, ¿cuánta información se transmite en nuestro tono de voz y patrones de conversación y cómo afecta eso a nuestras relaciones con los demás? Los sistemas computacionales ya pueden establecer quiénes son las personas de sus voces, ¿también podrían decirnos algo sobre nuestra vida amorosa? Sorprendentemente, parece que sí.

Nueva investigación, recién publicado en la revista PLOS-ONE, ha analizado las características vocales de las parejas de 134 sometidas a terapia. Investigadores de la Universidad del Sur de California usaron computadoras para extraer las características estándar del análisis del habla de las grabaciones de los participantes de la sesión de terapia durante dos años. Las características, incluyendo tono, variación en el tono y la entonación: todos se relacionan con aspectos de la voz como el tono y la intensidad.

Un algoritmo de aprendizaje automático fue entrenado para aprender una relación entre esas características vocales y el resultado final de la terapia. Esto no fue tan simple como detectar gritos o voces elevadas: incluía la interacción de la conversación, quién hablaba cuándo y por cuánto tiempo y el sonido de las voces. Resultó que ignorar lo que se decía y considerar solo estos patrones de habla era suficiente para predecir si las parejas permanecerían juntas. Esto fue puramente basado en datos, por lo que no relacionó los resultados con atributos de voz específicos.

Cómo un tono de voz puede cambiar el significado de algunas palabras.

Curiosamente, las grabaciones de video completas de la sesión de terapia fueron luego entregadas a los expertos para su clasificación. A diferencia de la IA, hicieron sus predicciones utilizando una evaluación psicológica basada en los atributos vocales (y otros), incluidas las palabras habladas y el lenguaje corporal. Sorprendentemente, su predicción del resultado final (eran correctas en 75.6% de los casos) fue inferior a las predicciones hechas por la IA basadas únicamente en las características vocales (79.3%). Claramente, hay elementos codificados en la forma en que hablamos que ni siquiera los expertos conocen. Pero los mejores resultados vinieron de combinar la evaluación automatizada con la evaluación de los expertos (79.6% correcto).


Obtenga lo último de InnerSelf


El significado de esto no se trata tanto de involucrar a AI en el asesoramiento matrimonial o de lograr que las parejas hablen mejor entre sí (por muy meritoria que sea). El significado es revelar cuánta información sobre nuestros sentimientos subyacentes está codificada en la forma en que hablamos, algunos de los cuales son completamente desconocidos para nosotros.

Las palabras escritas en una página o pantalla tienen significados léxicos derivados de sus definiciones de diccionario. Estos son modificados por el contexto de las palabras que los rodean. Puede haber una gran complejidad en la escritura. Pero cuando las palabras se leen en voz alta, es cierto que adquieren significados adicionales que se transmiten por la tensión de la palabra, el volumen, la velocidad de la conversación y el tono de voz. En una conversación típica, también hay un significado en cuánto tiempo habla cada hablante y qué tan rápido interrumpe uno u otro.

Considere la simple pregunta "¿Quién es usted?". Intente hablar con énfasis en diferentes palabras; "Quien es a usted?", "Quien son usted y "Personas ¿eres tú?". Escuche estos - El significado semántico puede cambiar con la forma en que leemos, incluso cuando las palabras permanecen iguales.

¿Ordenadores que leen "sentidos con fugas"?

No es sorprendente que las palabras transmitan diferentes significados según cómo se hablen. Tampoco es de extrañar que las computadoras puedan interpretar parte del significado de cómo elegimos hablar (tal vez algún día incluso sean capaces de entender la ironía).

Pero esta investigación va más allá de solo mirar el significado transmitido por una oración. Parece revelar actitudes y pensamientos subyacentes que se encuentran detrás de las oraciones. Este es un nivel de comprensión mucho más profundo.

Los participantes de la terapia no estaban leyendo palabras como actores. Simplemente hablaban naturalmente, o tan naturalmente como podían en la consulta de un terapeuta. Y, sin embargo, el análisis reveló información sobre sus sentimientos mutuos que estaban "filtrando" inadvertidamente en su discurso. Este puede ser uno de los primeros pasos en el uso de computadoras para determinar qué estamos realmente pensando o sintiendo. Imagine por un momento la conversación con futuros teléfonos inteligentes: ¿"filtraremos" información que puedan recoger? ¿Cómo responderán?

¿Podrían aconsejarnos sobre socios potenciales al escucharnos hablar juntos? ¿Podrían detectar una propensión hacia un comportamiento antisocial, violencia, depresión u otras condiciones? No sería un acto de imaginación imaginarse el dispositivos en sí mismos como futuros terapeutas - interactuando con nosotros de varias maneras para rastrear la efectividad de las intervenciones que están entregando.

No se preocupe todavía porque estamos a años de ese futuro, pero sí aumenta problemas de privacidad, especialmente cuando interactuamos más profundamente con las computadoras al mismo tiempo que se vuelven más poderosas para analizar el mundo que los rodea.

La conversaciónCuando nos detenemos también para considerar los otros sentidos humanos aparte del sonido (habla); quizás también goteemos información a través de la vista (como el lenguaje corporal, el sonrojo), el tacto (temperatura y movimiento) o incluso el olor (feromonas). Si los dispositivos inteligentes pueden aprender tanto al escuchar cómo hablamos, uno se pregunta cuánto más podrían recoger de los otros sentidos.

Sobre el Autor

Ian McLoughlin, profesor de informática, director de la escuela (Medway), Universidad de Kent

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libros relacionados:

{amazonWS: searchindex = Libros; palabras clave = relaciones exitosas; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

seguir a InnerSelf en

facebook-icontwitter-iconrss-icon

Obtenga lo último por correo electrónico

{Off} = emailcloak