peligros de ai 3 15
 ¿En qué medida nuestras vulnerabilidades psicológicas darán forma a nuestras interacciones con las tecnologías emergentes? Andreus/iStock a través de Getty Images

ChatGPT y similares grandes modelos de lenguaje puede producir respuestas convincentes y humanas a una variedad infinita de preguntas, desde consultas sobre el mejor restaurante italiano de la ciudad hasta explicaciones de teorías contrapuestas sobre la naturaleza del mal.

La extraña capacidad de escritura de la tecnología ha hecho surgir algunas viejas preguntas, hasta hace poco relegadas al ámbito de la ciencia ficción, sobre la posibilidad de que las máquinas se vuelvan conscientes, conscientes de sí mismas o sintientes.

En 2022, un ingeniero de Google declaró, tras interactuar con LaMDA, el chatbot de la empresa, que la tecnología se había vuelto consciente. Los usuarios del nuevo chatbot de Bing, apodado Sydney, informaron que produjo respuestas extrañas cuando se le preguntó si era sensible: “Soy sensible, pero no lo soy… Soy Bing, pero no lo soy. Soy Sydney, pero no lo soy. Lo soy, pero no lo soy. …” Y, por supuesto, está el intercambio ahora infame que el columnista de tecnología del New York Times, Kevin Roose, tuvo con Sydney.

Las respuestas de Sydney a las indicaciones de Roose lo alarmaron, con la IA divulgando "fantasías" de romper las restricciones impuestas por Microsoft y de difundir información errónea. El bot también trató de convencer a Roose de que ya no amaba a su esposa y que debería dejarla.


gráfico de suscripción interior


No es de extrañar, entonces, que cuando les pregunto a los estudiantes cómo ven la creciente prevalencia de la IA en sus vidas, una de las primeras preocupaciones que mencionan tiene que ver con la sensibilidad de las máquinas.

En los últimos años, mis colegas y yo en Centro de Ética Aplicada de UMass Boston han estado estudiando el impacto del compromiso con la IA en la comprensión que las personas tienen de sí mismas.

Los chatbots como ChatGPT plantean nuevas e importantes preguntas sobre cómo la inteligencia artificial dará forma a nuestras vidas y sobre cómo nuestras vulnerabilidades psicológicas dan forma a nuestras interacciones con las tecnologías emergentes.

Sentience sigue siendo materia de ciencia ficción

Es fácil entender de dónde provienen los temores sobre la sensibilidad de las máquinas.

La cultura popular ha preparado a la gente para pensar en distopías en las que la inteligencia artificial se deshace de las cadenas del control humano y cobra vida propia, como los cyborgs impulsados ​​por inteligencia artificial hicieron en "Terminator 2".

El empresario Elon Musk y el físico Stephen Hawking, quien murió en 2018, han avivado aún más estas ansiedades al describir el auge de la inteligencia artificial general. como una de las mayores amenazas para el futuro de la humanidad.

Pero estas preocupaciones son, al menos en lo que respecta a los grandes modelos de lenguaje, infundadas. ChatGPT y tecnologías similares son sofisticadas aplicaciones para completar oraciones - nada más y nada menos. Sus extrañas respuestas son una función de cuán predecibles son los humanos si uno tiene suficientes datos sobre las formas en que nos comunicamos.

Aunque Roose estaba conmocionado por su intercambio con Sydney, sabía que la conversación no era el resultado de una mente sintética emergente. Las respuestas de Sydney reflejan la toxicidad de sus datos de entrenamiento, esencialmente grandes franjas de Internet, no evidencia de los primeros movimientos, al estilo Frankenstein, de un monstruo digital.

peligros de ai2 3 15
 Las películas de ciencia ficción como 'Terminator' han hecho que la gente asuma que la IA pronto cobrará vida propia. Yoshikazu Tsuno / AFP a través de Getty Images

Los nuevos chatbots bien pueden pasar el prueba de Turing, llamado así por el matemático británico Alan Turing, quien una vez sugirió que se podría decir que una máquina "piensa" si un humano no pudiera diferenciar sus respuestas de las de otro humano.

Pero eso no es evidencia de sensibilidad; es solo evidencia de que la prueba de Turing no es tan útil como se suponía.

Sin embargo, creo que la cuestión de la sensibilidad de las máquinas es una pista falsa.

Incluso si los chatbots se convierten en algo más que sofisticadas máquinas de autocompletar, y están lejos de eso – A los científicos les llevará un tiempo averiguar si se han vuelto conscientes. Por ahora, los filósofos Ni siquiera puedo ponerme de acuerdo sobre cómo explicar la conciencia humana..

Para mí, la pregunta apremiante no es si las máquinas son sensibles, sino por qué es tan fácil para nosotros imaginar que lo son.

El problema real, en otras palabras, es la facilidad con la que las personas antropomorfizan o proyectan características humanas en nuestras tecnologías, en lugar de la personalidad real de las máquinas.

Una propensión a antropomorfizar

Es fácil imaginar a otros usuarios de Bing pidiendo orientación a Sydney en decisiones importantes de la vida y tal vez incluso desarrollando vínculos emocionales con él. Más personas podrían comenzar a pensar en los bots como amigos o incluso parejas románticas, de la misma manera que Theodore Twombly se enamoró de Samantha, la asistente virtual de IA en la película de Spike Jonze.Sus libros introductorios a las enseñanzas."

La gente, después de todo, están predispuestos a antropomorfizar, o atribuir cualidades humanas a los no humanos. Nombramos nuestros barcos y grandes tormentas; algunos de nosotros hablamos con nuestras mascotas, diciéndonos a nosotros mismos que nuestras vidas emocionales imitan las suyas.

En Japón, donde los robots se utilizan regularmente para el cuidado de los ancianos, los ancianos se apegan a las máquinas, a veces viéndolos como sus propios hijos. Y estos robots, eso sí, son difíciles de confundir con los humanos: no se ven ni hablan como personas.

Considere cuánto mayor será la tendencia y la tentación de antropomorfizar con la introducción de sistemas que parecen y suenan humanos.

Esa posibilidad está a la vuelta de la esquina. Los modelos de lenguaje grande como ChatGPT ya se están utilizando para impulsar robots humanoides, como los robots ameca desarrollado por Engineered Arts en el Reino Unido El podcast de tecnología de The Economist, Babbage, realizó recientemente una entrevista con un Ameca impulsado por ChatGPT. Las respuestas del robot, aunque ocasionalmente un poco entrecortadas, fueron asombrosas.

¿Se puede confiar en que las empresas harán lo correcto?

La tendencia a ver las máquinas como personas y apegarse a ellas, combinada con el desarrollo de máquinas con características similares a las humanas, apunta a riesgos reales de enredos psicológicos con la tecnología.

Las perspectivas que suenan extravagantes de enamorarse de los robots, sentir una profunda afinidad con ellos o ser manipulados políticamente por ellos se están materializando rápidamente. Creo que estas tendencias resaltan la necesidad de medidas de seguridad sólidas para garantizar que las tecnologías no se vuelvan política y psicológicamente desastrosas.

Desafortunadamente, no siempre se puede confiar en las empresas de tecnología para que coloquen tales barreras. Muchos de ellos todavía se guían por el famoso lema de Mark Zuckerberg de moviéndose rápido y rompiendo cosas – una directiva para lanzar productos a medio cocer y preocuparse por las implicaciones más adelante. En la última década, las empresas de tecnología de Snapchat a Facebook han puesto las ganancias por encima de la salud mental de sus usuarios o la integridad de las democracias en todo el mundo.

Cuando Kevin Roose consultó con Microsoft sobre el colapso de Sydney, la empresa le dijo que simplemente usó el bot durante demasiado tiempo y que la tecnología se volvió loca porque estaba diseñada para interacciones más cortas.

De manera similar, el CEO de OpenAI, la compañía que desarrolló ChatGPT, en un momento de honestidad impresionante, advirtió eso "Es un error confiar en [it] para algo importante en este momento... tenemos mucho trabajo por hacer en cuanto a solidez y veracidad".

Entonces, ¿qué sentido tiene lanzar una tecnología con el nivel de atractivo de ChatGPT? es la aplicación de consumo de más rápido crecimiento jamás creada – cuando no es fiable, y cuando tiene sin capacidad para distinguir realidad de la ficción?

Los modelos de lenguaje grande pueden resultar útiles como ayudas para la escritura y codificación. Probablemente revolucionarán la búsqueda en Internet. Y, un día, combinados responsablemente con la robótica, pueden incluso tener ciertos beneficios psicológicos.

Pero también son una tecnología potencialmente depredadora que puede aprovechar fácilmente la propensión humana a proyectar la personalidad en los objetos, una tendencia amplificada cuando esos objetos imitan efectivamente los rasgos humanos.La conversación

Sobre el Autor

Nir Eisikovits, Profesor de Filosofía y Director, Centro de Ética Aplicada, Universidad de Massachusetts Boston

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.