La inteligencia artificial ahora puede emular comportamientos humanos y pronto será peligrosamente buena

La inteligencia artificial ahora puede emular comportamientos humanos y pronto será peligrosamente buena¿Es esta cara solo un conjunto de bits de computadora? PHOTOCREO Michal Bednarek / Shutterstock.com

Cuando los sistemas de inteligencia artificial comienzan a ser creativos, pueden crear grandes cosas, y espantosas. Tomemos, por ejemplo, un programa de inteligencia artificial que permite los usuarios de la web componen música junto con una Johann Sebastian Bach virtual introduciendo notas en un programa que genera armonías similares a las de Bach para combinarlas.

Ejecutado por Google, la aplicación dibujó bien alabanza por ser innovador y divertido para jugar. También atrajo crítica, y expresó su preocupación por los peligros de la IA.

Mi estudio de como Las tecnologías emergentes afectan la vida de las personas. Me ha enseñado que los problemas van más allá de la gran preocupación sobre la si algoritmos realmente puede crear musica O el arte en general. Algunas quejas parecían pequeñas, pero en realidad no lo eran, como las observaciones de que la IA de Google era rompiendo reglas básicas de composición musical.

De hecho, los esfuerzos para que las computadoras imiten el comportamiento de las personas reales pueden ser confusos y potencialmente dañinos.

Tecnologías de suplantación

El programa de Google analizó las notas en 306 de las obras musicales de Bach, encontrando relaciones entre la melodía y las notas que proporcionaron la armonía. Debido a que Bach siguió reglas estrictas de composición, el programa estaba aprendiendo efectivamente esas reglas, por lo que podría aplicarlas cuando los usuarios proporcionaran sus propias notas.

El equipo de Google Doodle explica el programa de Bach.

La aplicación de Bach en sí es nueva, pero la tecnología subyacente no lo es. Algoritmos entrenados para reconocer patrones y hacer decisiones probabilísticas Han existido durante mucho tiempo. Algunos de estos algoritmos son tan complejos que las personas no siempre entiendo Cómo toman decisiones o producen un resultado particular.

Los sistemas de inteligencia artificial no son perfectos, muchos de ellos dependen de datos que no son representativos de toda la población, o que sean influenciado por prejuicios humanos. No está del todo claro ¿Quién podría ser legalmente responsable? cuando un sistema de IA comete un error o causa un problema.

Ahora, sin embargo, las tecnologías de inteligencia artificial están avanzando lo suficiente como para poder aproximarse al estilo de escritura o habla de las personas, e incluso a las expresiones faciales. Esto no siempre es malo: una IA bastante simple le dio a Stephen Hawking el capacidad de comunicar más eficientemente con otros al predecir las palabras que más usaría.

Programas más complejos que imitan voces humanas. ayudar a las personas con discapacidad - pero también puede ser usado para engañar a los oyentes. Por ejemplo, los creadores de Ave lira, un programa que imita la voz, ha lanzado un conversación simulada entre Barack Obama, Donald Trump y Hillary Clinton. Puede sonar real, pero ese intercambio nunca ocurrió.

De bueno a malo

En febrero, 2019, la empresa sin fines de lucro OpenAI creó un programa que genera texto que es virtualmente indistinguible del texto Escrito por personas. Puede "escribir" un discurso al estilo de John F. Kennedy, JRR Tolkien en “The Lord of the Rings"O un estudiante escribiendo una asignación escolar sobre la Guerra Civil de los Estados Unidos.

El texto generado por el software de OpenAI es tan creíble que la compañía ha elegido no liberar el propio programa.

Tecnologías similares pueden simular fotos y videos. A principios de 2018, por ejemplo, el actor y cineasta Jordan Peele creó un video que parecía mostrar al ex presidente de los Estados Unidos Barack Obama diciendo: cosas que Obama nunca dijo en realidad para advertir al público sobre los peligros que representan estas tecnologías.

Ten cuidado con los videos que crees.

A principios de 2019, una falsa foto desnuda de la Representante de los Estados Unidos, Alexandria Ocasio-Cortez, circuló en línea. Videos fabricados, llamado a menudo "deepfakes, "Se espera que sean cada vez más usado En las campañas electorales.

Miembros del Congreso han comenzado a analizar este problema antes de la elección de 2020. El Departamento de Defensa de los Estados Unidos está enseñando al público. cómo detectar videos doctorados y audio. Organizaciones de noticias como Reuters Están empezando a entrenar a los periodistas para detectar fallas profundas.

Pero, en mi opinión, sigue existiendo una preocupación aún mayor: es posible que los usuarios no puedan aprender lo suficientemente rápido como para distinguir contenido falso a medida que la tecnología AI se vuelve más sofisticada. Por ejemplo, a medida que el público comienza a darse cuenta de los errores profundos, la inteligencia artificial ya se está utilizando para engaños aún más avanzados. Ahora hay programas que pueden generar. caras falsas y huellas digitales falsas, creando efectivamente la información necesaria para fabricar una persona completa, al menos en registros corporativos o gubernamentales.

Las máquinas siguen aprendiendo

En este momento, existen suficientes errores potenciales en estas tecnologías para que las personas tengan la oportunidad de detectar fabricaciones digitales. El compositor de bach de google cometió algunos errores Un experto podría detectar. Por ejemplo, cuando lo probé, el programa me permitió ingresar quintas paralelas, un intervalo de música que Bach cuidadosamente evitado. La aplicación también rompió reglas musicales de contrapunto al armonizar melodías en la clave equivocada. Del mismo modo, el programa generador de texto de OpenAI en ocasiones escribía frases como “incendios ocurriendo bajo el agua”Eso no tenía sentido en sus contextos.

A medida que los desarrolladores trabajan en sus creaciones, estos errores se harán más raros. Efectivamente, las tecnologías de IA evolucionarán y aprenderán. El mejor desempeño tiene el potencial de traer muchos beneficios sociales, incluyendo una mejor atención médica, ya que los programas de AI ayudan Democratizar la práctica de la medicina..

Dar a los investigadores y empresas libertad para explorar, a fin de obtener estos logros positivos de los sistemas de inteligencia artificial, significa abrir el riesgo de desarrollar formas más avanzadas de crear engaños y otros problemas sociales. Limitar gravemente la investigación de la IA podría frenar ese progreso. Pero dando tecnologías beneficiosas. espacio para crecer tiene un costo no reducido, y el potencial de uso indebido, ya sea para hacer una música inexacta "como la de Bach" o para engañar a millones, es probable que crezca de maneras que las personas aún no pueden anticipar.La conversación

Sobre el Autor

Ana Santos Rutschman, profesora adjunta de derecho, Saint Louis University

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.

Libros relacionados

{amazonWS: searchindex = Libros; palabras clave = inteligencia artificial; maxresults = 3}

enafarzh-CNzh-TWtlfrdehiiditjamsptrues

seguir a InnerSelf en

google-plus-iconfacebook-icontwitter-iconrss-icon

Obtenga lo último por correo electrónico

{Off} = emailcloak

seguir a InnerSelf en

google-plus-iconfacebook-icontwitter-iconrss-icon

Obtenga lo último por correo electrónico

{Off} = emailcloak