peligro de ai 7 11
No es probable que la IA esclavice a la humanidad, pero podría hacerse cargo de muchos aspectos de nuestras vidas. elenabs/iStock a través de Getty Images

El auge de ChatGPT y sistemas de inteligencia artificial similares ha ido acompañado de un fuerte aumento de la ansiedad por la IA. Durante los últimos meses, ejecutivos e investigadores de seguridad de IA han estado ofreciendo predicciones, denominadas “P (destino)”, sobre la probabilidad de que la IA provoque una catástrofe a gran escala.

Las preocupaciones alcanzaron su punto máximo en mayo de 2023 cuando la organización sin fines de lucro de investigación y defensa Center for AI Safety lanzó una declaración de una oración: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”. La declaración fue firmada por muchos actores clave en el campo, incluidos los líderes de OpenAI, Google y Anthropic, así como dos de los llamados "padrinos" de la IA: Geoffrey Hinton y Yoshua Bengio.

Podría preguntarse cómo se supone que se desarrollan tales miedos existenciales. Un escenario famoso es el “maximizador de clips de papelexperimento mental articulado por el filósofo de Oxford Nick bostrom. La idea es que un sistema de inteligencia artificial encargado de producir tantos clips de papel como sea posible podría hacer todo lo posible para encontrar materias primas, como destruir fábricas y causar accidentes automovilísticos.

A variación menos intensiva en recursos tiene una IA encargada de obtener una reserva para un restaurante popular que apaga las redes celulares y los semáforos para evitar que otros clientes obtengan una mesa.


gráfico de suscripción interior


Suministros de oficina o cena, la idea básica es la misma: la IA se está convirtiendo rápidamente en una inteligencia alienígena, buena para lograr objetivos pero peligrosa porque no necesariamente se alineará con los valores morales de sus creadores. Y, en su versión más extrema, este argumento se transforma en ansiedades explícitas sobre las IA. esclavizar o destruir la raza humana.

Una IA que hace clips para papeles se vuelve loca es una variante del escenario del apocalipsis de la IA.

 

daño real

En los últimos años, mis colegas y yo en Centro de Ética Aplicada de UMass Boston He estado estudiando el impacto del compromiso con la IA en la comprensión que las personas tienen de sí mismas, y creo que estas ansiedades catastróficas son exagerado y mal dirigido.

Sí, la capacidad de la IA para crear videos y audios profundamente falsos y convincentes es aterradora y puede ser abusada por personas con malas intenciones. De hecho, eso ya está sucediendo: los operativos rusos probablemente intentaron avergonzar al crítico del Kremlin. Bill Browder al atraparlo en una conversación con un avatar del ex presidente ucraniano Petro Poroshenko. Los ciberdelincuentes han estado utilizando la clonación de voz de IA para una variedad de delitos, desde atracos de alta tecnología a estafas ordinarias.

Sistemas de toma de decisiones de IA que ofrecer aprobación de préstamo y recomendaciones de contratación conllevan el riesgo de sesgo algorítmico, ya que los datos de entrenamiento y los modelos de decisión en los que se ejecutan reflejan prejuicios sociales de larga data.

Estos son grandes problemas y requieren la atención de los formuladores de políticas. Pero han existido por un tiempo, y no son cataclísmicos.

No en la misma liga

La declaración del Centro para la Seguridad de la IA agrupó a la IA con las pandemias y las armas nucleares como un riesgo importante para la civilización. Hay problemas con esa comparación. COVID-19 resultó en casi 7 millones de muertes en todo el mundo, traído en un crisis de salud mental masiva y continua y creado desafíos económicos, incluida la escasez crónica de la cadena de suministro y la inflación galopante.

Las armas nucleares probablemente mataron más de 200,000 personas en Hiroshima y Nagasaki en 1945, cobró muchas más vidas de cáncer en los años siguientes, generó décadas de profunda ansiedad durante la Guerra Fría y llevó al mundo al borde de la aniquilación durante la crisis de los misiles en Cuba en 1962. También han cambió los cálculos de los líderes nacionales sobre cómo responder a la agresión internacional, como ocurre actualmente con la invasión rusa de Ucrania.

La IA simplemente no está cerca de obtener la capacidad de hacer este tipo de daño. El escenario del clip y otros similares son ciencia ficción. Las aplicaciones de IA existentes ejecutan tareas específicas en lugar de emitir juicios amplios. la tecnología es lejos de poder decidir y luego planificar los objetivos y objetivos subordinados necesarios para cerrar el tráfico con el fin de conseguir un asiento en un restaurante, o volar una fábrica de automóviles con el fin de satisfacer su picazón de sujetapapeles.

La tecnología no solo carece de la complicada capacidad de juicio multicapa que está involucrada en estos escenarios, sino que tampoco tiene acceso autónomo a suficientes partes de nuestra infraestructura crítica para comenzar a causar ese tipo de daño.

Lo que significa ser humano

En realidad, existe un peligro existencial inherente al uso de la IA, pero ese riesgo es existencial en el sentido filosófico más que apocalíptico. La IA en su forma actual puede alterar la forma en que las personas se ven a sí mismas. Puede degradar habilidades y experiencias que las personas consideran esenciales para ser humanos.

Por ejemplo, los humanos son criaturas que emiten juicios. Las personas sopesan racionalmente los detalles y hacen juicios diarios en el trabajo y durante el tiempo libre sobre a quién contratar, quién debería obtener un préstamo, qué ver, etc. Pero cada vez más de estos juicios son siendo automatizado y subcontratado a algoritmos. Mientras eso sucede, el mundo no se acabará. Pero la gente perderá gradualmente la capacidad de hacer estos juicios por sí misma. Cuantos menos de ellos haga la gente, es probable que peor se vuelvan al hacerlos.

O considere el papel del azar en la vida de las personas. Los seres humanos valoran los encuentros fortuitos: encontrarse con un lugar, una persona o una actividad por accidente, sentirse atraídos por él y apreciar retrospectivamente el papel que jugó el accidente en estos hallazgos significativos. Pero el papel de los motores de recomendación algorítmica es reducir ese tipo de serendipia y reemplazarlo con planificación y predicción.

Finalmente, considere las capacidades de escritura de ChatGPT. La tecnología está en proceso de eliminar el papel de las tareas de escritura en la educación superior. Si lo hace, los educadores perderán una herramienta clave para enseñar a los estudiantes. como pensar criticamente.

No muerto pero disminuido

Entonces, no, la IA no volará el mundo. Pero su aceptación cada vez más acrítica, en una variedad de contextos estrechos, significa la erosión gradual de algunas de las habilidades más importantes de los humanos. Los algoritmos ya están socavando la capacidad de las personas para emitir juicios, disfrutar de encuentros fortuitos y perfeccionar el pensamiento crítico.

La especie humana sobrevivirá a tales pérdidas. Pero nuestra forma de existir se empobrecerá en el proceso. Las fantásticas ansiedades en torno al próximo cataclismo de la IA, la singularidad, Skynet, o como se pueda pensar, oscurecen estos costos más sutiles. Recuerde las famosas líneas finales de TS Eliot de “Los hombres huecos”: “Así es como termina el mundo”, escribió, “no con una explosión sino con un gemido”.La conversación

Sobre el Autor

Nir Eisikovits, Profesor de Filosofía y Director, Centro de Ética Aplicada, Universidad de Massachusetts Boston

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.