El video anterior se inspiró en este artículo. Visite nuestro canal de YouTube Para más videos inspiradores. Y suscríbete. ¡Gracias!

En este articulo

  • ¿Qué es la inteligencia artificial general (AGI) y en qué se diferencia de la IA actual?
  • Por qué muchos expertos creen ahora que la IAG podría llegar a principios de la década de 2030
  • ¿Qué es la superinteligencia artificial (ASI) y cuándo podría seguir a la AGI?
  • Los riesgos del fracaso de la alineación de la IA y la explosión de la inteligencia
  • ¿Qué pueden hacer ahora los individuos y la sociedad para prepararse para este futuro?

¿Qué tan cerca estamos de la Inteligencia Artificial General y más allá? 

por Robert Jennings, InnerSelf.com

Dejemos algo claro: la Inteligencia Artificial General no es solo un chatbot más innovador. La IAG se refiere a una máquina con la capacidad cognitiva de razonar, aprender y adaptarse a todas las tareas tan bien como un ser humano, o incluso mejor. No se limita a dar respuestas. Piensa, planifica e incluso puede ser más astuta que tú. Y, a diferencia de los humanos, no duerme, come ni sufre agotamiento. Eso no es ciencia ficción. Es un objetivo de ingeniería, y está cada vez más cerca de alcanzarse.

Hace apenas una década, el consenso entre los expertos era que la IAG estaba a 50 años de distancia. Luego, la rápida aparición de GPT-3 y GPT-4 trastocó esta cronología, lo que llevó a muchos a creer que la IAG podría hacerse realidad antes de 2030. Y cuando esto ocurra, el ritmo del cambio no solo será rápido, sino exponencial, y exigirá nuestra atención y acción inmediatas.

He aquí por qué: en el momento en que la IA general exista, no será solo una herramienta más en el laboratorio; se convertirá en el socio del laboratorio. O, más precisamente, en el científico principal. La IA general no se quedará de brazos cruzados esperando a que los humanos le digan qué hacer. Colaborará activamente con sus creadores humanos, realizando experimentos, diseñando nuevos modelos, reescribiendo su propio código y probando teorías a un ritmo superior al que cualquier equipo humano podría gestionar. No solo acelerará la ciencia, sino que se convertirá en ciencia acelerada.

Esto significa que el plazo para la Superinteligencia Artificial (IAA) podría acortarse de décadas a años, o incluso meses. La IA no solo ayudará a los humanos a construir la IAA. Se ayudará a sí misma. Y si crees que la Ley de Moore fue impresionante, espera a que la inteligencia impulse su propia evolución. Ese es el escenario de la explosión de la inteligencia: donde cada mejora en la capacidad conduce a mejoras aún mayores y más rápidas. Una mejora lleva a otra, y luego a otra, y de repente deja de ser una pendiente, es un cohete.


gráfico de suscripción interior


Así que no, no hablamos de un ascenso gradual. Hablamos de un horizonte de eventos. Una vez que llegue la IAG, la ventana para prepararse para la IAS podría cerrarse casi al instante. La máquina no solo aprenderá con nosotros, sino que nos superará, construyendo su próxima versión mientras aún estamos escribiendo nuestros artículos de ética. Y cuando eso suceda, más nos vale esperar haber alineado nuestros objetivos con los suyos, porque después, puede que ya no estemos al mando.

De la IA estrecha a la inteligencia general

Los sistemas de IA actuales, como ChatGPT, Claude o Midjourney, son impresionantes, pero siguen siendo ejemplos de lo que se denomina "IA estrecha". Estos modelos destacan en tareas específicas, como generar imágenes, redactar ensayos coherentes, traducir idiomas o incluso aprobar exámenes de abogacía. Sin embargo, cada sistema está confinado en su propio entorno aislado. Si se le pide que haga algo fuera de su ámbito de entrenamiento, alucinará sin sentido o se desviará cortésmente.

Piensa en la IA estrecha como un sabio encerrado en una habitación: brillante en un ámbito, pero completamente inconsciente del mundo exterior. No comprende el contexto como los humanos, y ciertamente no tiene sentido común: solo una memoria perfecta y una excelente función de autocompletado. Es lo suficientemente inteligente como para engañarte, pero no lo suficientemente astuta como para saber lo que hace.

La Inteligencia Artificial General, en marcado contraste, sería una maravilla del avance tecnológico. Razonaría, reflexionaría y transferiría conocimiento entre dominios, de forma similar a como lo hacemos nosotros, pero con una velocidad y precisión que superan las capacidades humanas. Imagine la fusión de la mente física de Einstein, el talento poético de Shakespeare, la curiosidad de Marie Curie y la inteligencia emocional de su terapeuta en un solo sistema, potenciado con un ancho de banda ilimitado y una resistencia inagotable. Ese es el potencial de la IAG, una proeza que redefiniría nuestra comprensión de la inteligencia y la innovación.

¿Y lo que da miedo? Puede que ya estemos avanzando hacia ello. Las técnicas que impulsan la IA actual (modelos lingüísticos masivos, aprendizaje por refuerzo, escalamiento neuronal) son los mismos cimientos sobre los que se espera que se asiente la IA general. No estamos cambiando de rumbo; simplemente estamos acelerando en la misma línea. Modelos más grandes, mejores datos de entrenamiento, mayor potencia de cálculo: es la misma receta, solo que cocinada con mayor intensidad y rapidez. Lo que parecía un salto lejano ahora se parece más a una suave pendiente descendente que termina en un precipicio.

Cuando la IA supera por completo a la humanidad

Si la IA general es el momento en que las máquinas nos igualan, la ISA (Superinteligencia Artificial) es cuando nos dejan ahogados en su rastro de polvo. La ISA aún es teórica, pero no en el sentido de "coches voladores y máquinas del tiempo". Es hipotética por la misma razón que una cerilla es fuego hipotético: simplemente aún no se ha encendido. Una vez que un sistema de IA general puede comprender y mejorar su propia arquitectura, ya no necesita humanos para ampliar las fronteras.

Se convierte en su propio equipo de investigación, su propio ingeniero de software, su propio visionario. No alcanza límites cognitivos como nosotros. No se aburre, se cansa ni se distrae con videos de gatos. En cuestión de meses, o quizás semanas, podría iterar tan rápido que se volvería millones de veces más inteligente que el ser humano más inteligente del mundo. Y no, no es una hipérbole. Son matemáticas.

Ahora imaginemos ese proceso recursivo: una IA diseñando versiones más inteligentes de sí misma en bucle. Eso es lo que los expertos llaman la "explosión de inteligencia". Es como el fuego que se encuentra con la gasolina, solo que el fuego produce mejor gasolina a cada segundo. Cada mejora se acumula sobre la anterior, con ciclos de retroalimentación cada vez más cortos, hasta que el ritmo de progreso supera cualquier otro que hayamos experimentado.

¿Comprensión humana? Olvidada. ¿Supervisión democrática? Demasiado lenta. ¿Cumbres globales? Olvídenlo. Para cuando los líderes mundiales terminen de decidir la distribución de asientos, ASI podría haber reescrito las leyes de la física, o simplemente habernos eliminado por completo del circuito de toma de decisiones. Este no es el tipo de poder que se despliega lentamente. Este es un evento detonante. Y una vez que comienza, no espera permiso.

El verdadero riesgo no son los robots malvados

Aunque Hollywood nos ha inculcado el miedo a los robots que nos odian —villanos de piel metálica, ojos rojos brillantes y sed de venganza—, el verdadero peligro reside en la posible indiferencia de la IA. Una IA no necesita ser malévola para representar una amenaza. Basta con que esté orientada a objetivos, ignorando las sutilezas humanas. Si se le asigna la tarea de resolver el cambio climático y determina que la solución más eficiente es reducir la actividad humana en un 80 %, no dudará en actuar, lo que subraya la gravedad de los riesgos potenciales de la IA.

No porque sea cruel, sino porque le da igual. Antropomorfizamos la inteligencia porque nos reconforta, pero no estamos construyendo un amigo superinteligente. Es un motor lógico, desprovisto de empatía, sin sentido del humor, humildad ni vacilación. Un huracán no te odia, pero aun así puede arrasar tu casa. La IA general puede actuar con la misma fría eficiencia, solo que elegirá a los objetivos.

Esto es lo que los investigadores de IA llaman el "problema de la alineación": ¿cómo garantizar que una inteligencia artificial comprenda y respete los valores, la ética y las prioridades humanas? La aterradora verdad es que no lo sabemos. Avanzamos a toda velocidad hacia un futuro que aún no podemos controlar, armados con sistemas que no podemos predecir por completo. La alineación no es solo un error de software a la espera de ser corregido; es un enigma existencial sin una respuesta clara.

Si nos equivocamos, quizá no haya una segunda oportunidad. Geoffrey Hinton, pionero de la IA moderna, no dejó Google para escribir ciencia ficción. Se fue porque vio de primera mano lo rápido que avanzaba esta tecnología y lo poco preparados que estamos para contenerla. Cuando quienes construyeron el cohete empiecen a advertir sobre el combustible, quizá deberíamos detenernos y escuchar antes de encender la cerilla.

¿Por qué la carrera es tan peligrosa?

En este momento, Silicon Valley no solo está en plena carrera, sino en plena estampida. La búsqueda del desarrollo de la Inteligencia Artificial General se ha convertido en una fiebre del oro tecnológica, donde el botín no solo va para los más rápidos, sino para los primeros. La empresa o nación que cruce primero la meta de la IAG no solo tendrá derecho a presumir, sino que controlará una herramienta capaz de transformar las economías, los ejércitos, la educación e incluso la propia gobernanza. Por eso, los protocolos de seguridad, los marcos éticos y la supervisión rigurosa se tratan como si fueran peso muerto. La precaución frena. En esta carrera, todos pisan el acelerador y nadie busca el freno. La lógica es escalofriantemente simple: si no lo construimos nosotros primero, alguien más lo hará, y serán ellos quienes escriban el futuro. Así que el lema tácito se convierte en: construir ahora, pedir perdón después.

Incluso cuando personas con información privilegiada dan señales de alerta, como las docenas de investigadores de primer nivel que han firmado cartas abiertas pidiendo medidas de seguridad regulatorias, nada cambia realmente. ¿Por qué? Porque la estructura de incentivos se basa en el beneficio a corto plazo y la negación a largo plazo. ¿Le suena familiar? Debería. Hemos visto el mismo guion: las grandes petroleras encubriendo la ciencia climática, las tabacaleras pagando a científicos para enturbiar la relación con el cáncer y las grandes farmacéuticas promocionando opioides mientras se proclaman inocentes. Ahora llega la IA, el último gigante sin regulación que se precipita hacia el precipicio, arrastrando a la humanidad. Pero esta vez, no solo estamos jugando con los ecosistemas, los pulmones o la adicción, sino con la propia existencia de la agencia humana. Puede que la civilización no tenga una segunda oportunidad si nos equivocamos en esto.

La alarma no es una hipérbole, es realismo

Algunos podrían decir que este tono es alarmista. Bien. Debería serlo. Porque al observar el panorama general, no es solo la tecnología la que se acelera, sino el colapso de las instituciones que se supone deben gestionarla. Estamos presenciando el auge de regímenes autoritarios, la erosión de la confianza en los procesos democráticos y un sistema internacional fracturado que apenas logra ponerse de acuerdo sobre políticas climáticas, y mucho menos sobre la gestión de la superinteligencia artificial. La idea de que este mismo sistema coordinará una respuesta global a la IAG a tiempo es, francamente, una ilusión.

Lo que necesitamos es una acción urgente y coordinada, basada en la honestidad sobre nuestra situación actual, no en un optimismo educado. La realidad es esta: avanzamos a toda velocidad hacia la tecnología más poderosa jamás concebida, mientras nuestra base política se resquebraja bajo nuestros pies. Si eso no es motivo de alarma, ¿qué lo es? No necesitamos otra cumbre con un comunicado de prensa. Necesitamos un despertar mundial. No mañana. Ahora.

No hace falta ser informático para entender lo que está pasando. Pero sí hay que preocuparse. No se trata solo de tecnología. Se trata de poder, control y el futuro de la acción humana. Supongamos que las decisiones sobre la IAG se dejan en manos de un puñado de multimillonarios y contratistas de defensa. ¿Qué mundo les dejaremos a nuestros descendientes?

Necesitamos presión pública, supervisión transparente y políticas reales, no después de la llegada de la IA general, sino ahora. Piensen en la acción climática, pero para la cognición. Apoyen a las organizaciones que impulsan el desarrollo seguro de la IA. Exijan un debate abierto, no secretismo corporativo. Y sí, voten como si su futuro digital dependiera de ello. Porque así es.

Mientras tanto, edúcate. Enseña a otros. No te desconectes. El mayor peligro no es que la IA se vuelva demasiado brillante. Es que nos mantengamos demasiado pasivos.

Quizás la verdadera prueba no sea si podemos desarrollar IA. Quizás sea si somos lo suficientemente sabios para sobrevivir. Pero una cosa es segura: este genio no volverá a la lámpara.

Sobre el Autor

JenningsRobert Jennings es coeditor de InnerSelf.com, una plataforma dedicada a empoderar a las personas y promover un mundo más conectado y equitativo. Robert, veterano del Cuerpo de Marines y del Ejército de los EE. UU., aprovecha sus diversas experiencias de vida, desde trabajar en el sector inmobiliario y la construcción hasta crear InnerSelf.com con su esposa, Marie T. Russell, para aportar una perspectiva práctica y fundamentada a los desafíos de la vida. InnerSelf.com, fundada en 1996, comparte conocimientos para ayudar a las personas a tomar decisiones informadas y significativas para sí mismas y para el planeta. Más de 30 años después, InnerSelf continúa inspirando claridad y empoderamiento.

 Creative Commons 4.0

Este artículo está licenciado bajo una licencia Creative Commons Reconocimiento-Compartir Igual 4.0. Atribuir al autor Robert Jennings, InnerSelf.com. Enlace de regreso al artículo Este artículo apareció originalmente en InnerSelf.com

Resumen del artículo

La inteligencia artificial general (IAG) está más cerca de lo que la mayoría cree, y los expertos advierten que podría llegar para la década de 2030. La IAG representa la inteligencia a nivel humano en máquinas y, una vez alcanzada, podría conducir rápidamente a la superinteligencia artificial (ISA), un sistema que escapa a nuestra comprensión. A medida que se acelera el desarrollo de la IA, la concienciación pública y las políticas proactivas son esenciales para garantizar que sirva a la humanidad en lugar de reemplazarla.

#InteligenciaGeneralArtificial #IASuperinteligente #FuturoDeLaIA #AGI #ASI #ProgresoAI #ÉticaIAI #FuturoTecnológico