confiando en ai 7 20
 Los chatbots de IA son cada vez más poderosos, pero ¿cómo saber si están trabajando en su mejor interés? 

Si le pregunta a Alexa, el sistema de inteligencia artificial asistente de voz de Amazon, si Amazon es un monopolio, responde diciendo que no sabe. No se necesita mucho para hacerlo criticar a los otros gigantes tecnológicos, pero guarda silencio sobre las fechorías de su propia empresa matriz.

Cuando Alexa responde de esta manera, es obvio que está anteponiendo los intereses de su desarrollador a los tuyos. Sin embargo, por lo general, no es tan obvio a quién está sirviendo un sistema de IA. Para evitar ser explotados por estos sistemas, las personas deberán aprender a acercarse a la IA con escepticismo. Eso significa construir deliberadamente la entrada que le das y pensar críticamente sobre su salida.

Las nuevas generaciones de modelos de IA, con sus respuestas más sofisticadas y menos rutinarias, hacen que sea más difícil saber quién se beneficia cuando habla. Las empresas de Internet que manipulan lo que ves para servir a sus propios intereses no es nada nuevo. Los resultados de búsqueda de Google y su feed de Facebook son lleno de entradas pagadas. Facebook, TikTok y otros manipulan sus feeds para maximizar el tiempo que pasa en la plataforma, lo que significa más vistas de anuncios, por encima de su bienestar.

Lo que distingue a los sistemas de IA de estos otros servicios de Internet es cuán interactivos son y cómo estas interacciones se volverán cada vez más como relaciones. No se necesita mucha extrapolación de las tecnologías actuales para imaginar IA que planificarán viajes para usted, negociarán en su nombre o actuarán como terapeutas y entrenadores de vida.


gráfico de suscripción interior


Es probable que estén contigo las 24 horas del día, los 7 días de la semana, te conozcan íntimamente y puedan anticiparse a tus necesidades. Este tipo de interfaz conversacional para la vasta red de servicios y recursos en la web está dentro de las capacidades de las IA generativas existentes como ChatGPT. están en camino de convertirse asistentes digitales personalizados.

Como experto en seguridad y científico de datos, creemos que las personas que lleguen a confiar en estas IA tendrán que confiar en ellas implícitamente para navegar en la vida diaria. Eso significa que deberán asegurarse de que las IA no estén trabajando en secreto para otra persona. A través de Internet, los dispositivos y servicios que parecen funcionar para usted ya funcionan en su contra en secreto. televisores inteligentes espiarte. aplicaciones de teléfono recopilar y vender sus datos. Muchas aplicaciones y sitios web manipularte a través de patrones oscuros, elementos de diseño que engañar, coaccionar o engañar deliberadamente a los visitantes del sitio web. Es capitalismo de vigilancia, y la IA se perfila para ser parte de ella. La IA está desempeñando un papel en el capitalismo de vigilancia, que se reduce a espiarte para sacarte dinero.

En la oscuridad

Muy posiblemente, podría ser mucho peor con la IA. Para que ese asistente digital de IA sea verdaderamente útil, tendrá que conocerte realmente. Mejor que tu teléfono te conoce. Mejor que la búsqueda de Google te conoce. Mejor, quizás, que sus amigos cercanos, compañeros íntimos y terapeuta lo conozcan.

No tiene motivos para confiar en las principales herramientas de inteligencia artificial generativa de la actualidad. Deja de lado el alucinaciones, los "hechos" inventados que GPT y otros grandes modelos de lenguaje producen. Esperamos que se limpien en gran medida a medida que la tecnología mejore en los próximos años.

Pero no sabes cómo están configuradas las IA: cómo han sido entrenadas, qué información se les ha dado y qué instrucciones se les ha ordenado seguir. Por ejemplo, los investigadores descubrió las reglas secretas que gobiernan el comportamiento del chatbot de Microsoft Bing. Son en gran parte benignos, pero pueden cambiar en cualquier momento.

Ganar dinero

Muchas de estas IA son creadas y entrenadas a un costo enorme por algunos de los monopolios tecnológicos más grandes. Se les ofrece a las personas para que los usen de forma gratuita oa un costo muy bajo. Estas empresas necesitarán monetizarlas de alguna manera. Y, al igual que con el resto de Internet, es probable que de alguna manera incluya vigilancia y manipulación.

Imagina pedirle a tu chatbot que planifique tus próximas vacaciones. ¿Eligió una aerolínea en particular, una cadena de hoteles o un restaurante porque era lo mejor para usted o porque su creador recibió un soborno de las empresas? Al igual que con los resultados pagados en la búsqueda de Google, los anuncios de suministro de noticias en Facebook y las ubicaciones pagas en las consultas de Amazon, es probable que estas influencias pagas se vuelvan más subrepticias con el tiempo.

Si le pide a su chatbot información política, ¿los resultados están sesgados por la política de la corporación propietaria del chatbot? ¿O el candidato que pagó más dinero? ¿O incluso las opiniones de la demografía de las personas cuyos datos se usaron para entrenar el modelo? ¿Tu agente de IA es secretamente un agente doble? En este momento, no hay forma de saberlo.

Confiable por ley

Creemos que las personas deberían esperar más de la tecnología y que las empresas tecnológicas y las IA pueden volverse más confiables. propuesta de la Unión Europea Ley de IA toma algunos pasos importantes, que requieren transparencia sobre los datos utilizados para entrenar modelos de IA, mitigación de posibles sesgos, divulgación de riesgos previsibles e informes sobre pruebas estándar de la industria. La Unión Europea está impulsando la regulación de la IA.

La mayoría de las IA existentes no cumplir con este mandato europeo emergente y, a pesar de insistencia reciente del líder de la mayoría en el Senado, Chuck Schumer, Estados Unidos está muy atrasado en tal regulación.

Las IA del futuro deberían ser fiables. A menos y hasta que el gobierno brinde protecciones sólidas al consumidor para los productos de IA, las personas estarán solas para adivinar los posibles riesgos y sesgos de la IA, y para mitigar sus peores efectos en las experiencias de las personas con ellos.

Entonces, cuando obtenga una recomendación de viaje o información política de una herramienta de IA, acérquese con el mismo ojo escéptico que lo haría con un anuncio publicitario o un voluntario de campaña. A pesar de toda su magia tecnológica, la herramienta de IA puede ser poco más que lo mismo.La conversación

Sobre el Autor

Bruce Schneier, Profesor Adjunto de Políticas Públicas, Harvard Kennedy School y lijadoras nathan, Afiliado, Centro Berkman Klein para Internet y Sociedad, La Universidad de Harvard

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.