¿Alguna vez conversaste con un programa de inteligencia artificial y te preguntaste si en realidad se trataba de una persona física? Admito que me han atraído varias veces, ¡solo para finalmente darme cuenta de que estaba conversando con un chatbot que se hacía pasar por un humano! Con los avances en inteligencia artificial, algunos chatbots ahora son terriblemente sofisticados: pueden escribir ensayos, poesía e incluso códigos de computadora que rivalizan con lo que crean las personas.

Me deja infinitamente fascinado por la rapidez con la que avanza la IA. Hemos pasado de programas informáticos básicos que apenas podían mantener conversaciones simplistas a una IA que puede generar contenidos, consejos e ideas reflexivos casi indistinguibles de los de un ser humano.

Entonces, con los chatbots más inteligentes que nunca, los investigadores prepararon un experimento para probar hasta qué punto estas IA coinciden con el pensamiento y la toma de decisiones humanos. Se inspiró en el clásico "test de Turing" propuesto hace años por el pionero de la informática Alan Turing. La idea es que una persona se comunique con un chatbot y un humano real y luego intente determinar cuál es cuál. Si no pueden notar la diferencia de manera confiable, sugiere que la IA ha capturado de manera efectiva comportamientos humanos intrincados.

Para este nuevo experimento, los científicos plantearon un desafío creativo al estilo Turing. ¿Podría un chatbot de IA engañar a alguien haciéndole creer que es humano mediante bromas casuales y durante evaluaciones psicológicas más complejas que miden la personalidad y las tendencias de comportamiento? ¿Qué tan alineados están las motivaciones, los niveles de cooperación, la confiabilidad y las decisiones de los chatbots de vanguardia en comparación con los de una persona?

Los investigadores decidieron averiguarlo... ¡y los resultados pueden sorprenderte!


gráfico de suscripción interior


Pruebas de personalidad para bots

Pidieron a varios chatbots AI, incluidas diferentes versiones de ChatGPT, que realizaran una encuesta de personalidad y jugaran juegos interactivos que revelaran el comportamiento humano: nuestra cooperación, confianza, equidad, toma de riesgos, etc. Luego, los investigadores compararon los movimientos de los chatbots con las respuestas de decenas de miles de personas reales que realizaron estas pruebas.

¿La gran sorpresa? Las opciones de los chatbots estaban en su mayoría dentro del rango de respuestas humanas. ¡En algunos casos fue difícil distinguir su comportamiento de las elecciones de los humanos! Cuando había diferencias, los chatbots de IA tendían a actuar de manera más cooperativa que el humano promedio. ¡Bastante salvaje!

Más generoso que los humanos

Mira, cada prueba tiene como objetivo resaltar diferentes aspectos de la personalidad o tendencias; no es lo mismo que simplemente pedirle a una IA que escriba un ensayo que parezca "humano". La encuesta mapea los rasgos esenciales de la personalidad de una persona: franqueza, escrupulosidad, etc. Luego, los juegos revelan matices de comportamiento: ¿Cómo actuar cuando hay dinero en juego? ¿Cooperarás con un socio o pensarás sólo en ti mismo?

En los juegos, la mayoría de los movimientos de los chatbots coincidían estrechamente con las respuestas humanas. Sin embargo, sus comportamientos mostraron menos variedad entre las rondas de juego. Esto tiene sentido ya que cada "individuo" del chatbot se comparó con decenas de miles de personas reales. ¡Pero fue alucinante que en algunos juegos no se puedan distinguir las elecciones del chatbot de las de un humano basándose en las estadísticas!

Y cuando aparecieron diferencias, no fue al azar. Los chatbots se volvieron más generosos: piensen en confiar más en un socio en un juego de inversión o exigir menos dinero que el que propone una división en otro juego.

Los jugadores de IA se preocupaban por los resultados de ambas partes y no solo por ellos mismos. El análisis de las motivaciones de los chatbots sugiere que actúan como si estuvieran tratando de maximizar la recompensa total para ellos Y para su compañero de juego.

Aprendiendo de la experiencia

Además de jugar los juegos de principio a fin, los investigadores probaron otros giros para imitar el comportamiento humano natural, como cambiar el contexto o enmarcar las opciones. Y, al igual que las personas, pequeños ajustes podrían cambiar drásticamente las estrategias de los chatbots. Por ejemplo, decirle a alguien que estaba siendo observado lo hacía mucho más generoso.

El equipo también descubrió que los jugadores de IA cambian de comportamiento después de experimentar rondas anteriores, lo que suena como un aprendizaje humano. Con el tiempo, sus planteamientos responden a diferentes escenarios de juego.

¿Inquietantemente humano o intrigantemente realista?

Y para colmo, las diferentes versiones de chatbot mostraron rasgos distintos en las pruebas, ¡lo que sugiere personalidades tan únicas como tú y yo! Fue sorprendente cómo, en algunos casos, los chatbots exhibieron tendencias consistentes que los diferenciaban, del mismo modo que las personalidades humanas tienen peculiaridades que nos hacen a cada uno de nosotros diferentes. Un chatbot puede ser más cauteloso o competitivo, mientras que otro parece más generoso y dispuesto a cooperar.

Ver que la IA imita el pensamiento humano y las complejidades de la toma de decisiones ha generado mucho debate. A algunos les resulta espeluznante que las máquinas parezcan actuar demasiado como las personas, como los chatbots que crean poesía original o tienen sus propias perspectivas sobre la moralidad. Cuantas más funciones le demos a la IA en la atención sanitaria, la educación, los negocios y más, más importa su criterio.

Al mismo tiempo, hay algo fascinante en el hecho de que la IA muestre destellos de comportamientos dinámicos y reflexivos como los que vemos en las personas. Comprender mejor estas tendencias significa que podemos anticipar cómo pueden actuar los asistentes de inteligencia artificial, los robots de servicio y otros, lo que genera más confianza. Pruebas como hacerles realizar encuestas y jugar juegos de comportamiento ayudan a revelar sus procesos de pensamiento de "caja negra".

Una cosa es segura en mi libro: ¡la línea entre el razonamiento artificial y el humano se vuelve cada vez más delgada y borrosa! ¿Qué opinas de que las máquinas adopten sus propias versiones de los rasgos y cualidades humanos? ¿Nos sentimos cómodos concediendo a la IA un juicio más independiente, o es demasiado parecido a crear una nueva forma de cuasi-vida?

Sobre la autora

JenningsRobert Jennings es coeditor de InnerSelf.com con su esposa Marie T Russell. Asistió a la Universidad de Florida, al Instituto Técnico del Sur ya la Universidad de Florida Central con estudios en bienes raíces, desarrollo urbano, finanzas, ingeniería arquitectónica y educación primaria. Fue miembro del Cuerpo de Marines de los EE. UU. y del Ejército de los EE. UU. y estuvo al mando de una batería de artillería de campaña en Alemania. Trabajó en finanzas, construcción y desarrollo inmobiliario durante 25 años antes de fundar InnerSelf.com en 1996.

InnerSelf se dedica a compartir información que permita a las personas tomar decisiones informadas y perspicaces en su vida personal, por el bien de los comunes y por el bienestar del planeta. InnerSelf Magazine tiene más de 30 años de publicación impresa (1984-1995) o en línea como InnerSelf.com. Por favor apoye nuestro trabajo.

 Creative Commons 4.0

Este artículo está licenciado bajo una licencia Creative Commons Reconocimiento-Compartir Igual 4.0. Atribuir al autor Robert Jennings, InnerSelf.com. Enlace de regreso al artículo Este artículo apareció originalmente en InnerSelf.com