una persona y un robot de IA se acercan el uno al otro
Las IA no sustituyen el contacto humano, pero pueden disminuir la soledad.
Foto AP / Frank

"¿Cómo te hace sentir eso?"

En el aislamiento de la pandemia de COVID-19, a muchas personas les falta un oído comprensivo. ¿Una respuesta como esa te haría sentir escuchado, menos solo, incluso si fuera una máquina escribiéndote?

La pandemia ha contribuido a soledad crónica. Las herramientas digitales como el chat de video y las redes sociales ayudan a conectar a las personas que viven o están en cuarentena lejos. Pero cuando esos amigos o familiares no están disponibles, la inteligencia artificial puede intervenir.

Millones de personas aisladas han encontró comodidad charlando con un bot de IA. Los bots terapéuticos tienen mejoró la salud mental de los usuarios durante décadas. Ahora, los psiquiatras están estudiando cómo estos compañeros de IA pueden mejorar el bienestar mental durante la pandemia y más allá.

Cómo la IA se convirtió en una herramienta terapéutica

Los sistemas de inteligencia artificial son programas informáticos que pueden realizar tareas que las personas normalmente harían, como traducir idiomas o reconocer objetos en imágenes. Los chatbots de IA son programas que simulan una conversación humana. Se han convertido común en el servicio al cliente porque pueden proporcionar respuestas rápidas a preguntas básicas.


gráfico de suscripción interior


El primer chatbot se inspiró en los profesionales de la salud mental. En 1966, el científico informático Joseph Weizenbaum creó ELIZA, que programó para sonar como un Psicoterapeuta rogeriana. Los enfoques rogerianos alentaron a los psicoterapeutas a hacer preguntas abiertas, a menudo reflejándoles las frases de los pacientes para alentar a los pacientes a elaborar. Weizenbaum no esperaba que su IA parecida a un psicoterapeuta pudiera tener algún beneficio terapéutico para los usuarios. Capacitar a ELIZA para traducir los comentarios de los usuarios en preguntas fue simplemente un modelo práctico, si no irónico, para el diálogo de la IA.

Weizenbaum se sorprendió cuando sus sujetos de prueba realmente confiado en ELIZA como lo harían con un psicoterapeuta de carne y hueso. Muchos participantes del estudio creían que estaban compartiendo pensamientos vulnerables con una persona viva. Algunos de estos participantes se negaron a creer que la aparentemente atenta ELIZA, que hacía tantas preguntas durante cada conversación, fuera en realidad una computadora.

Sin embargo, ELIZA no necesitaba engañar a los usuarios para que los ayudaran. Incluso la secretaria de Weizenbaum, que sabía que ELIZA era un programa de computadora, pidió privacidad para poder tener sus propias conversaciones personales con el chatbot.

{vembed Y = RMK9AphfLco}

En las décadas transcurridas desde que ELIZA sorprendió a su inventor, los científicos informáticos han trabajado con profesionales médicos para explorar cómo la IA puede apoyar la salud mental. Algunos de los robots de terapia más grandes del negocio tienen un alcance asombroso, especialmente en tiempos de incertidumbre sociopolítica, cuando la gente tiende a reportar niveles más altos de aislamiento y fatiga.

Desde que golpeó la pandemia de COVID-19, la demanda de opciones de telesalud, incluidos los chatbots de IA, se ha disparado. Replika es una aplicación famosa por sus avatares personalizables y realistas, y ha informado un aumento del 35% en el tráfico. Con instalaciones de salud mental abrumado con listas de espera de semanas, millones de personas están complementando sus rutinas de salud mental con chatbots de terapia.

Dado que las necesidades de bienestar mental han cambiado con el tiempo, los codificadores y terapeutas colaboran para construir nuevas IA que pueda afrontar estos nuevos retos.

una mujer enviando mensajes de texto en su teléfonoMillones de personas han descargado aplicaciones de terapia de IA durante la pandemia de COVID-19. Jhaymesisviphotography / flickr

El doctor digital está en

¿Cómo puede un chatbot parecer tan humano? Si diseccionara una IA, encontraría algoritmos y scripts: reglas, esencialmente, que los humanos usan para dirigir el comportamiento de la IA. Con los chatbots, los codificadores entrenan a la IA para producir automáticamente ciertas frases en respuesta al mensaje de un usuario. Luego, los codificadores trabajan con los escritores para determinar qué tipo de puntuación, emojis y otros elementos estilísticos utilizará el bot.

Estos scripts, en última instancia, proporcionan una idea de la "actitud" del bot. Por ejemplo, un programador puede entrenar a una IA para que reconozca la palabra "deprimido" de modo que, cada vez que un usuario escriba una frase como "Hoy me siento cansado y deprimido", el chatbot puede responder con "Escuché que te sientes deprimido". ¿Puedes explicar porque?" O un escritor puede codificar el bot para producir un tono más coloquial: “Wow, lamento que te sientas así. ¿Por qué cree que puede sentirse deprimido? "

Estos guiones replican una táctica común en la terapia cognitivo-conductual: haciendo preguntas. Los bots de terapia de IA alientan a las personas a desahogar sus frustraciones y luego les piden que reflexionen más de cerca sobre esas experiencias o emociones. Incluso cuando las respuestas de una IA son amplias o inespecíficas, un paciente puede encontrar el proceso de escribir sus pensamientos a alguien: incluso un "alguien" artificial - catártico.

Quién se beneficia y cómo

¿Los chatbots realmente funcionan para aliviar la soledad o la ansiedad? Se necesita más investigación, pero eso parece. Varios estudios proporcionan resultados prometedores. Por ejemplo, los adultos jóvenes que envían mensajes regularmente a un chatbot de terapia informó menos soledad y ansiedad que sus compañeros que no utilizaron la IA. Los usuarios de edad avanzada también pueden beneficiarse de comunicarse con chatbots, especialmente si esos ancianos viven solos o no tienen contacto regular con sus seres queridos.

El poder terapéutico de un chatbot, y su talón de Aquiles, es su guión. El diálogo está predeterminado, las mismas líneas se entregan a varios usuarios. Estas respuestas programadas permiten que un chatbot se comunique con numerosos usuarios simultáneamente. Los chatbots son especialmente útiles para las personas que desean expresarse de forma rápida y anónima, sin juzgar. Los usuarios pueden activar de inmediato un chatbot para descargar el estrés de su día en el que es posible que no quieran o no puedan compartir esos pensamientos con familiares o amigos.

Sin embargo, estos mismos guiones evitan que la IA sea un reemplazo serio para los terapeutas humanos. Los bots de IA responden a ciertas palabras clave, por lo que a veces malinterpretan a los usuarios. Cuando Vice probó la popular aplicación de terapia Woebot, la aplicación produjo una respuesta vergonzosa.

Usuario: "Estoy muy ansioso y apenas puedo dormir".

Woebot: "Ah, no puedo esperar para ponerme mis pijamas más tarde" seguido de una serie de emojis "z" adormilados

{vembed Y = AE966uR09es}

¿Un usuario en medio de un ataque de pánico encontraría útil o reconfortante este comentario escrito? No es probable. Pero a diferencia de los terapeutas humanos, los robots de IA no son buenos para interpretar el contexto social o intervenir en una crisis. Si bien una IA puede parecer realista, no siempre es una herramienta adecuada para usar cuando la vida de alguien está en juego. A diferencia de los consejeros de crisis capacitados, los chatbots no pueden recomendar planes de seguridad específicos ni conectar a los usuarios con recursos de salud y apoyo en su comunidad.

A pesar de estas limitaciones reales, los chatbots de IA brindan una plataforma muy necesaria para la comunicación abierta y la autoexpresión. Con aplicaciones de terapia como Réplica, Tess y Woebot acumulando millones en fondos y descargas de usuarios, las personas tienen más opciones que nunca si quieren intentar chatear con un bot para procesar sus emociones entre las citas de terapia o para haz un amigo digital durante una pandemia.


Sobre la autoraLa conversación

Laken Brooks, estudiante de doctorado de inglés, Universidad de Florida

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.

romper

Libros relacionados:

El cuerpo lleva la cuenta: cerebro, mente y cuerpo en la curación del trauma

por Bessel van der Kolk

Este libro explora las conexiones entre el trauma y la salud física y mental, y ofrece ideas y estrategias para la curación y la recuperación.

Haga clic para obtener más información o para ordenar

El niño, el topo, el zorro y el caballo

por Charlie Mackesy

Este libro es una historia bellamente ilustrada que explora temas de amor, esperanza y bondad, y ofrece consuelo e inspiración para quienes luchan con problemas de salud mental.

Haga clic para obtener más información o para ordenar

Alivio de la ansiedad para adolescentes: habilidades esenciales de TCC y prácticas de atención plena para superar la ansiedad y el estrés

por Regine Galanti

Este libro ofrece estrategias y técnicas prácticas para manejar la ansiedad y el estrés, centrándose específicamente en las necesidades y experiencias de los adolescentes.

Haga clic para obtener más información o para ordenar

El cuerpo: una guía para los ocupantes

por Bill Bryson

Este libro explora las complejidades del cuerpo humano y ofrece conocimientos e información sobre cómo funciona el cuerpo y cómo mantener la salud física y mental.

Haga clic para obtener más información o para ordenar

Hábitos atómicos: una forma fácil y comprobada de construir buenos hábitos y romper los malos

por James Clear

Este libro ofrece estrategias prácticas para construir y mantener hábitos saludables, centrándose en los principios de la psicología y la neurociencia.

Haga clic para obtener más información o para ordenar