i091hbdc
Nico El Niño / Shutterstock

El lanzamiento del chatbot avanzado ChatGPT en 2022 hizo que todos hablaran de inteligencia artificial (IA). Sus capacidades sofisticadas amplificaron las preocupaciones acerca de que la IA se vuelva tan avanzada que pronto no podamos controlarla. Esto incluso llevó a algunos expertos y líderes de la industria a advertir que el La tecnología podría llevar a la extinción humana..

Sin embargo, otros comentaristas no estaban convencidos. Noam Chomsky, profesor de lingüística, descartó ChatGPT como "plagio de alta tecnología.

Durante años, me relajé sobre la perspectiva del impacto de la IA en la existencia humana y nuestro medio ambiente. Eso es porque siempre lo consideré como un guía o consejero de humanos. Pero la perspectiva de que las IA tomen decisiones, ejerciendo el control ejecutivo, es otra cuestión. Y es uno que ahora está siendo seriamente entretenido.

Una de las razones clave por las que no deberíamos permitir que la IA tenga poder ejecutivo es que carece por completo de emoción, lo cual es crucial para la toma de decisiones. Sin emoción, empatía y brújula moral, has creado el psicópata perfecto. El sistema resultante puede ser muy inteligente, pero carecerá del núcleo emocional humano que le permita medir las consecuencias emocionales potencialmente devastadoras de una decisión racional.

Cuando la IA toma el control ejecutivo

Es importante destacar que no solo deberíamos pensar en la IA como una amenaza existencial si tuviéramos que ponerlo a cargo de los arsenales nucleares. Esencialmente, no hay límite para el número de posiciones de control desde las que podría ejercer un daño inimaginable.


gráfico de suscripción interior


Considere, por ejemplo, cómo la IA ya puede identificar y organizar la información requerida para construir su propio conservatorio. Las iteraciones actuales de la tecnología pueden guiarlo de manera efectiva a través de cada paso de la construcción y evitar muchos errores de principiantes. Pero en el futuro, una IA podría actuar como administrador de proyectos y coordinar la construcción seleccionando contratistas y pagándoles directamente de su presupuesto.

La IA ya se está utilizando en prácticamente todos los dominios del procesamiento de la información y el análisis de datos, desde modelado de patrones climáticos a control de vehículos sin conductor a ayudando con diagnósticos médicos. Pero aquí es donde comienzan los problemas: cuando dejamos que los sistemas de IA den el paso crítico del rol de asesor al de gerente ejecutivo.

En lugar de simplemente sugerir remedios a un cuentas de la empresa, ¿qué pasaría si se le diera control directo a una IA, con la capacidad de implementar procedimientos para recuperar deudas, realizar transferencias bancarias y maximizar las ganancias, sin límites sobre cómo hacerlo? O imagine un sistema de IA que no solo proporcione una diagnóstico basado en rayos X, pero teniendo la potestad de prescribir directamente tratamientos o medicamentos.

Puede comenzar a sentirse incómodo con tales escenarios, ciertamente lo haría. La razón podría ser su intuición de que estas máquinas realmente no tienen "alma". Son solo programas diseñados para digerir grandes cantidades de información para simplificar datos complejos en patrones mucho más simples, lo que permite a los humanos tomar decisiones con más confianza. No tienen ni pueden tener emociones, que están íntimamente ligadas a los sentidos e instintos biológicos.

Emociones y moral

Inteligencia Emocional es la capacidad de manejar nuestras emociones para superar el estrés, empatizar y comunicarnos de manera efectiva. Podría decirse que esto importa más en el contexto de la toma de decisiones que la inteligencia por sí sola, porque la mejor decisión no siempre es la más racional.

Es probable que la inteligencia, la capacidad de razonar y operar lógicamente, pueda integrarse en los sistemas impulsados ​​​​por IA para que puedan tomar decisiones racionales. Pero imagina pedirle a una poderosa IA con capacidades ejecutivas que resolver la crisis climática. Lo primero que podría estar inspirado a hacer es reducir drásticamente la población humana.

Esta deducción no necesita mucha explicación. Los humanos somos, casi por definición, la fuente de contaminación en todas las formas posibles. Ax la humanidad y el cambio climático se resolverían. Uno espera que no sea la elección a la que llegarían los tomadores de decisiones humanos, pero una IA encontraría sus propias soluciones, impenetrables y libres de la aversión humana a causar daño. Y si tuviera poder ejecutivo, podría no haber nada que lo detuviera.

9dfujyxp
 Darle a una IA la capacidad de tomar decisiones ejecutivas en el control del tráfico aéreo podría ser un error. Gorodenkoff/Shutterstock

Escenarios de sabotaje

¿Qué hay de sabotear sensores y monitores que controlan las granjas de alimentos? Esto podría suceder gradualmente al principio, empujando los controles justo más allá de un punto de inflexión para que ningún ser humano se dé cuenta de que los cultivos están condenados. Bajo ciertos escenarios, esto podría conducir rápidamente a la hambruna.

Alternativamente, ¿qué tal cerrar el control del tráfico aéreo a nivel mundial o simplemente estrellar todos los aviones que vuelan al mismo tiempo? Unos 22,000 aviones normalmente están en el aire simultáneamente, lo que suma un número potencial de muertos de varios millones de personas.

Si crees que estamos lejos de estar en esa situación, piénsalo de nuevo. Las IA ya conducen automóviles y volar aviones militares, de forma autónoma.

Alternativamente, ¿qué tal cerrar el acceso a las cuentas bancarias en vastas regiones del mundo, desencadenar disturbios civiles en todas partes a la vez? o apagar sistemas de calefacción controlados por computadora en pleno invierno, o sistemas de aire acondicionado en el pico del calor del verano?

En definitiva, no hace falta poner un sistema de IA a cargo de las armas nucleares para que representen una grave amenaza para la humanidad. Pero ya que estamos en este tema, si un sistema de IA fuera lo suficientemente poderoso e inteligente, podría encontrar una manera de fingir un ataque a un país con armas nucleares, desencadenando una represalia iniciada por humanos.

¿Podría la IA matar a un gran número de humanos? La respuesta tiene que ser sí, en teoría. Pero esto depende en gran parte de que los humanos decidan darle el control ejecutivo. Realmente no puedo pensar en nada más aterrador que una IA que pueda tomar decisiones y tenga el poder de implementarlas.La conversación

Sobre el Autor

Guillermo Thierry, Profesor de Neurociencia Cognitiva, Universidad de Bangor

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.