Cómo la inteligencia artificial puede hacernos mejores expresándonos
Shutterstock
 

La capacidad de argumentar, de expresar nuestro razonamiento a los demás, es una de las características definitorias de lo que es ser humano.

El argumento y el debate forman las piedras angulares de la sociedad civilizada y de la vida intelectual. Los procesos de argumentación dirigen nuestros gobiernos, estructuran el esfuerzo científico y enmarcan las creencias religiosas. Entonces, ¿deberíamos preocuparnos de que los nuevos avances en inteligencia artificial estén tomando medidas para equipar a las computadoras con estas habilidades?

A medida que la tecnología remodela nuestras vidas, todos nos estamos acostumbrando a nuevas formas de trabajar y nuevas formas de interactuar. Los millennials no han sabido nada más. Los gobiernos y los poderes judiciales están tomando conciencia del potencial que ofrece la tecnología para involucrar a los ciudadanos en procesos democráticos y legales. Algunos políticos, individualmente, están más adelantados en el juego para comprender el enorme papel que juegan las redes sociales en los procesos electorales. Pero hay retos profundos.

Uno está muy bien establecido por Upworthy CEO Eli Pariser en su charla TED. En él explica cómo estamos empezando a vivir en "burbujas de filtro": lo que ves cuando buscas un término determinado en Google no es necesariamente lo mismo que veo cuando busco el mismo término. Las organizaciones de medios desde Fox News hasta, más recientemente, la BBC, están personalizando el contenido, con identificación e inicio de sesión que se utilizan para seleccionar qué historias se destacan más prominentemente. El resultado es que corremos el riesgo de encerrarnos en cámaras de eco de individuos con ideas afines, mientras que nuestros argumentos se vuelven más unilaterales, menos equilibrados y menos comprensivos de otros puntos de vista.

{youtube}https://youtu.be/4w48Ip-KPRs{/youtube}
TED / YouTube.

¿Por qué el pensamiento crítico es crítico?

Otra preocupación es la forma en que las noticias y la información, aunque cada vez más voluminosas, se vuelven cada vez menos confiables: acusaciones y contra acusaciones de "noticias falsas"Ahora son comunes.


gráfico de suscripción interior


Ante tales desafíos, las habilidades de pensamiento crítico son más vitales ahora que nunca: la capacidad de juzgar y evaluar evidencia de manera rápida y eficiente, de salir de nuestra cámara de eco y pensar en cosas desde puntos de vista alternativos, para integrarse. La información, a menudo en equipos, equilibra los argumentos de ambos lados y llega a conclusiones sólidas y defendibles. Estas son las habilidades de argumento que han sido objeto de investigación académica en filosofía durante más de 2,000 años, desde Aristóteles.

La Centro de tecnologia de argumentos (ARG-tech) en la Universidad de Dundee se trata de tomar y extender teorías de filosofía, lingüística y psicología que nos dicen cómo los humanos discuten, cómo están en desacuerdo y cómo alcanzan el consenso, y hacen de esas teorías un punto de partida para construir. Herramientas de inteligencia artificial que modelan, reconocen, enseñan e incluso participan en argumentos humanos.

Uno de los desafíos para la investigación moderna en el área ha sido obtener suficientes datos. Técnicas de IA tales como deep learning requiere vastas cantidades de datos, ejemplos cuidadosamente revisados ​​que pueden ayudar a construir algoritmos robustos.

Pero obtener tal información es realmente difícil: a los analistas altamente capacitados les lleva horas de arduo trabajo desentrañar la forma en que se han elaborado los argumentos a partir de unos pocos minutos de discurso.

Hace más de 10 años, ARG-tech recurrió al programa BBC Radio 4, Laberinto moral, como ejemplo de debate "estándar de oro": argumento riguroso y estricto sobre temas emotivos y de actualidad, con moderación cuidadosa y mesurada. Enormemente valioso, esos datos alimentaron un programa de investigación empíricamente fundamentada en tecnología de argumentos.

la tecnología

Trabajar con datos tan exigentes ha significado que todo, desde la teoría filosófica hasta la infraestructura de datos a gran escala, se ha puesto a prueba. En octubre de 2017, realizamos una prueba piloto con el departamento de religión y ética de BBC Radio para implementar dos tipos de nuevas tecnologías de argumentos.

El primero fue un conjunto de “análisis”. Comenzamos por construir un enorme mapa de cada debate sobre el laberinto moral, que comprende miles de expresiones individuales y miles de conexiones entre los contenidos de todas esas expresiones. Luego, cada mapa se tradujo en una serie de infografías, utilizando algoritmos para determinar los temas más centrales (utilizando algo similar al de Google). PageRank algoritmo). Identificamos automáticamente las cuestiones más divisivas y dónde se encontraban los participantes, así como los momentos en el debate en que el conflicto llegó a un punto de ebullición, qué tan bien apoyaron los argumentos, etc.

El resultado, en bbc.arg.tech Junto con Moral Maze presenta, por primera vez, una forma basada en la evidencia de entender lo que realmente sucede en un debate.

El segundo fue una herramienta llamada “polemista”, Que le permite asumir el papel de presidente de Moral Maze y ejecutar su propia versión. Toma los argumentos ofrecidos por cada participante y le permite navegar por ellos, siguiendo su propia nariz para un buen argumento.

La herramienta de debate permite a los participantes dirigir un debate y probar sus habilidades. (¿Cómo podemos hacer la IA mejor para expresarnos?)
La herramienta de debate permite a los participantes dirigir un debate y probar sus habilidades. BBC / Dundee University ARG-tech

Ambos aspectos tienen como objetivo ofrecer una visión y alentar una discusión de mejor calidad y más reflexiva. Por un lado, el trabajo permite resúmenes de cómo mejorar las habilidades de argumentación, impulsado por la evidencia en los datos de lo que realmente funciona.

Por otro lado está la oportunidad de enseñar esas habilidades explícitamente: un Prueba tu argumento El prototipo desplegado en el sitio de la BBC Taster utiliza ejemplos de Moral Maze para explorar un pequeño número de habilidades de discusión y le permite enfrentar su ingenio directamente contra la máquina.

Esfuerzo de equipo

En última instancia, el objetivo no es construir una máquina que pueda vencernos en una discusión. Mucho más emocionante es el potencial de que el software de AI contribuya a la discusión humana: reconocer los tipos de argumentos, criticarlos, ofrecer puntos de vista alternativos y probar razones son cosas que ahora están al alcance de AI.

Y es aquí donde reside el verdadero valor: tener equipos de argumentadores, algunos humanos, algunas máquinas, trabajando juntos para enfrentar situaciones complejas y exigentes, desde el análisis de inteligencia hasta la gestión empresarial.

La conversaciónDichos equipos de razonamiento colaborativo y de "iniciativa mixta" van a transformar la forma en que pensamos en interactuar con la IA, y esperamos que también transformen nuestras habilidades de razonamiento colectivo.

Sobre el Autor

Chris Reed, profesor de ciencias de la computación y filosofía, Universidad de Dundee

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libros relacionados:

at InnerSelf Market y Amazon