prueba de turing y ai 10 17

Pexels/Google Deepmind, CC BY-SA

En 1950, el informático británico Alan Turing propuso un método experimental para responder a la pregunta: ¿pueden pensar las máquinas? Sugirió que si un humano no pudiera decir si estaba hablando con una máquina artificialmente inteligente (IA) u otro humano después de cinco minutos de interrogatorio, esto demostraría que la IA tiene una inteligencia similar a la humana.

Aunque los sistemas de IA estuvieron lejos de pasar la prueba de Turing durante su vida, especuló que

“[…] dentro de unos cincuenta años será posible programar computadoras […] para hacerlas jugar el juego de la imitación tan bien que un interrogador promedio no tendrá más del 70% de posibilidades de hacer la identificación correcta después de cinco minutos de interrogatorio.

Hoy, más de 70 años después de la propuesta de Turing, ninguna IA ha logrado superar con éxito la prueba cumpliendo las condiciones específicas que él describió. De todos modos, como algunos titulares reflejar, algunos sistemas se han acercado bastante.

Un experimento reciente Probó tres grandes modelos de lenguaje, incluido GPT-4 (la tecnología de inteligencia artificial detrás de ChatGPT). Los participantes pasaron dos minutos charlando con otra persona o con un sistema de inteligencia artificial. Se pidió a la IA que cometiera pequeños errores de ortografía y que abandonara si el evaluador se volvía demasiado agresivo.


gráfico de suscripción interior


Con esta indicación, la IA hizo un buen trabajo engañando a los evaluadores. Cuando se combinaron con un robot de IA, los evaluadores solo pudieron adivinar correctamente si estaban hablando con un sistema de IA el 60% del tiempo.

Dado el rápido progreso logrado en el diseño de sistemas de procesamiento del lenguaje natural, es posible que veamos a la IA pasar la prueba original de Turing en los próximos años.

Pero, ¿imitar a los humanos es realmente una prueba eficaz de inteligencia? Y si no, ¿cuáles son algunos puntos de referencia alternativos que podríamos utilizar para medir las capacidades de la IA?

Limitaciones de la prueba de Turing

Mientras que un sistema que pasa la prueba de Turing nos da algo pruebas de que es inteligente, esta prueba no es una prueba decisiva de inteligencia. Un problema es que puede producir "falsos negativos".

Los grandes modelos de lenguaje actuales a menudo están diseñados para declarar inmediatamente que no son humanos. Por ejemplo, cuando le hace una pregunta a ChatGPT, a menudo su respuesta comienza con la frase "como modelo de lenguaje de IA". Incluso si los sistemas de IA tuvieran la capacidad subyacente de pasar la prueba de Turing, este tipo de programación anularía esa capacidad.

La prueba también corre el riesgo de ciertos tipos de “falsos positivos”. Como el filósofo Ned Block señaló En un artículo de 1981, un sistema podría posiblemente pasar la prueba de Turing simplemente codificando con una respuesta similar a la humana a cualquier posible entrada.

Más allá de eso, la prueba de Turing se centra en particular en la cognición humana. Si la cognición de la IA difiere de la cognición humana, un interrogador experto podrá encontrar alguna tarea en la que la IA y los humanos difieran en su desempeño.

Respecto a este problema, Turing escribió:

Esta objeción es muy fuerte, pero al menos podemos decir que si, no obstante, se puede construir una máquina para jugar satisfactoriamente el juego de la imitación, no debemos preocuparnos por esta objeción.

En otras palabras, si bien pasar la prueba de Turing es una buena evidencia de que un sistema es inteligente, fallarla no es una buena evidencia de que un sistema lo sea. no inteligente.

Además, la prueba no es una buena medida para saber si las IA son conscientes, si pueden sentir dolor y placer o si tienen importancia moral. Según muchos científicos cognitivos, la conciencia implica un grupo particular de habilidades mentales, que incluyen tener una memoria de trabajo, pensamientos de orden superior y la capacidad de percibir el entorno y modelar cómo se mueve el cuerpo a su alrededor.

La prueba de Turing no responde a la pregunta de si los sistemas de IA tener estas habilidades.

Las crecientes capacidades de la IA

La prueba de Turing se basa en cierta lógica. Es decir: los humanos son inteligentes, por lo que cualquier cosa que pueda imitar efectivamente a los humanos probablemente sea inteligente.

Pero esta idea no nos dice nada sobre la naturaleza de la inteligencia. Una forma diferente de medir la inteligencia de la IA implica pensar de manera más crítica sobre qué es la inteligencia.

Actualmente no existe una prueba única que pueda medir con autoridad la inteligencia artificial o humana.

En el nivel más amplio, podemos pensar en la inteligencia como el capacidad para lograr una variedad de objetivos en diferentes entornos. Los sistemas más inteligentes son aquellos que pueden alcanzar una gama más amplia de objetivos en una gama más amplia de entornos.

Como tal, la mejor manera de realizar un seguimiento de los avances en el diseño de sistemas de IA de propósito general es evaluar su desempeño en una variedad de tareas. Los investigadores del aprendizaje automático han desarrollado una serie de puntos de referencia que hacen esto.

Por ejemplo, GPT-4 fue capaz de responder correctamente El 86% de las preguntas son comprensión masiva del lenguaje en tareas múltiples: un punto de referencia que mide el desempeño en pruebas de opción múltiple en una variedad de materias académicas de nivel universitario.

También obtuvo una puntuación favorable en Banco de agentes, una herramienta que puede medir la capacidad de un modelo de lenguaje grande para comportarse como un agente, por ejemplo, navegando por la web, comprando productos en línea y compitiendo en juegos.

¿Sigue siendo relevante la prueba de Turing?

La prueba de Turing es una medida de imitación: de la capacidad de la IA para simular el comportamiento humano. Los grandes modelos de lenguaje son expertos imitadores, lo que ahora se refleja en su potencial para pasar el test de Turing. Pero la inteligencia no es lo mismo que la imitación.

Hay tantos tipos de inteligencia como objetivos a alcanzar. La mejor manera de comprender la inteligencia de la IA es monitorear su progreso en el desarrollo de una variedad de capacidades importantes.

Al mismo tiempo, es importante que no sigamos “cambiando los objetivos” cuando se trata de la cuestión de si la IA es inteligente. Dado que las capacidades de la IA están mejorando rápidamente, los críticos de la idea de la inteligencia artificial encuentran constantemente nuevas tareas que los sistemas de IA pueden tener dificultades para completar, solo para descubrir que han saltado otro obstáculo más.

En este contexto, la pregunta relevante no es si los sistemas de IA son inteligentes, sino más precisamente, ¿qué tipos de inteligencia que puedan tener.La conversación

Simón Goldstein, Profesor asociado, Instituto Dianoia de Filosofía, Universidad Católica Australiana, Universidad Católica Australiana y Cameron Domenico Kirk-Giannini, Profesor asistente de filosofia, Universidad Rutgers

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.