Suena bien en teoría, pero puede tener consecuencias negativas en la práctica.
Puntos clave
- La inteligencia artificial tiene el potencial de ofrecernos opciones personalizadas.
- Sin embargo, una personalización excesiva puede tener desventajas y realmente restar valor a nuestra toma de decisiones.
- La personalización de la inteligencia artificial también puede permitir que terceros influyan sutilmente en nuestras elecciones.
- Aunque la inteligencia artificial puede ofrecer formas de mejorar nuestras decisiones, siempre habrá compensaciones.
Recientemente me encontré con un artículo de Schneier (2023) sobre el potencial de la inteligencia artificial para eliminar “cuellos de botella entre lo que quieres y lo que obtienes”. La idea central es que la inteligencia artificial tiene el potencial de conectar mejor lo que deseas con las opciones disponibles, de modo que elijas entre una lista de opciones más personalizadas.
Por ejemplo, si vas a un restaurante, actualmente estás limitado a las opciones disponibles en el menú. Pero la inteligencia artificial tiene el potencial de conectar tus preferencias alimenticias con las capacidades de ese restaurante para ofrecerte una lista personalizada de opciones. Una herramienta así podría llevar a una personalización inimaginable de la vida de una persona, desde aspectos menos importantes como la comida y la ropa, hasta aspectos mucho más impactantes de la vida, como el trabajo y el voto.
Esto me llevó a pensar: ¿Produciría la capacidad de tener opciones completamente adaptadas un beneficio neto en la vida de una persona? Aunque intuitivamente la respuesta es sí, hay algunos problemas a considerar que pueden agregar matices a esa respuesta.
Saber lo que quieres
Somos notoriamente malos prediciendo lo que queremos. Por ejemplo, Ansari (s.f.) señaló que a menudo hay una clara desconexión entre lo que las personas afirman querer en una pareja romántica y lo que realmente quieren. Las personas creen que quieren un compañero que posea una lista de rasgos, pero resulta que hay una jerarquía en juego, ya que para la mayoría de las personas comienza con la atracción física y continúa desde ahí.
En su libro Stumbling on Happiness, Dan Gilbert (2006) argumenta que simplemente no somos muy buenos en predecir qué nos hará felices. Aunque profundiza en algunas de las razones, la idea central es que la felicidad es un concepto abstracto y no hay una manera clara, concreta y obvia de obtenerla.
Por lo tanto, aunque la inteligencia artificial podría usar datos sobre decisiones anteriores para ayudar a personalizar opciones para nosotros, es probable que el uso de dichos datos se limite a decisiones relativamente simples, como elecciones de alimentos o ropa. Pero a medida que avanzamos hacia decisiones más abstractas, como aquellas que involucran con quién salir o decidir una postura matizada sobre un tema político, personalizar opciones usando IA requeriría mucha más información por parte del usuario. Y dado que a menudo luchamos por articular ideas abstractas de una manera precisa y concreta, hay una mayor probabilidad de error cuando se trata de opciones personalizadas.
Además, como he escrito anteriormente, los valores que practicamos son contingentes a la situación, lo que significa que no practicamos nuestros valores de manera igual en todas las situaciones. Por lo tanto, determinar dónde nos ubicamos en un valor o preferencia determinados en un sentido absoluto es extremadamente difícil de desentrañar.
Podrías decir que quieres un compañero romántico que posea los rasgos X, Y y Z (por ejemplo, cariñoso, divertido, ambicioso). ¿Cuáles son las limitaciones en torno a esos rasgos? Por ejemplo, incluso si pudieras especificar fácilmente qué te parece gracioso (una tarea difícil, sospecho yo), ¿en qué situaciones querrías eso? Cerrar la brecha entre lo que dices y lo que quieres sería todo un desafío (también llamado alineación, un problema que aún no hemos resuelto; Mitchell, 2022).
Entonces, para decisiones simples, podría ser fácil para la IA ofrecernos opciones personalizadas, pero a medida que avanzamos hacia decisiones más complejas que implican conceptos más abstractos, hay un aumento en el potencial de problemas de alineación. Pero eso no es el único problema relevante.
La Paradoja de la Elección
Imagina un restaurante que ofrece un menú con varias opciones atractivas. Podrías tener dificultades para saber exactamente qué ordenar debido a dos o tres platos que suenan bien. Incluso podrías luchar con la decisión.
Pero imagina si todo en el menú fuera algo que sonara bien. El volumen de opciones podría resultar abrumador.
Este fenómeno se conoce como la paradoja de la elección: tendemos a tener más facilidad para tomar decisiones cuando hay menos opciones viables para elegir. Esto no necesariamente significa que cuantas menos opciones, mejor (Decision Lab, s.f.). Significa que a medida que aumenta el número de opciones viables, la dificultad de la decisión también tiende a aumentar.
Si en lugar de elegir de una lista de elementos en el menú estandarizado donde dos o tres opciones suenan bien, imagina cuánto más difícil sería si tuvieras una lista personalizada más grande de opciones (un ejemplo utilizado por Schneier). Correríamos el riesgo de tener demasiadas opciones atractivas para elegir, lo que potencialmente podría llevar a la parálisis decisional y restarle valor a la experiencia en general.
La Era del Promedio
La mayoría de las decisiones que tomamos implican elegir entre una lista de opciones que incluye algunas elecciones insatisfactorias. Imagina la última vez que hiciste compras en línea. Sospecho que tu búsqueda produjo muchas opciones que consideraste insatisfactorias.
Sin embargo, la inteligencia artificial ofrece la posibilidad de que la lista de opciones incluya solo aquellas predichas por tus preferencias, para que no tengas que perder tiempo revisando opciones insatisfactorias. Imagina decirle a tu asistente de inteligencia artificial qué estás buscando, y te presenta una variedad de opciones que se predicen que satisfarán tus necesidades. Eso parece ser un método mucho más eficiente para hacer las cosas, al menos en teoría.
Para que la inteligencia artificial pueda personalizar tu lista de opciones, utilizará datos sobre tus decisiones pasadas. Más allá de los problemas de privacidad de datos que tendrían que abordarse para que la inteligencia artificial pueda personalizar tus opciones con una precisión razonable, hay una consecuencia no deseada potencial para tu toma de decisiones.
Aunque no específico sobre la IA, Alex Murrell (2023) escribió un artículo llamado “La Era del Promedio”. En él, detalla cómo el acceso ampliado a los datos ha llevado a un nivel abrumador de uniformidad entre las opciones (por ejemplo, portadas de libros, imágenes, argumentos). Debido a que la personalización se basa en datos de decisiones previas, existe el potencial de que esas opciones se limiten a las que se predice que serán viables según el historial de decisiones pasadas.
Esto podría eliminar opciones que serían novedosas según tu historial de decisiones pasadas. Entonces, si quieres probar algo nuevo (por ejemplo, un nuevo género de libro, un nuevo tipo de comida), tu asistente de IA puede ser inútil para ti.
Y cuanto más confíes en la IA para ayudarte en la toma de decisiones, es posible que tus opciones se vuelvan más limitadas con el tiempo. Por ejemplo, considera el uso de una aplicación para pedir una pizza de tu lugar favorito. En la aplicación, tienes una lista de ingredientes, pero (a) hay uno o dos que casi siempre incluyes, (b) hay algunos que ocasionalmente incluyes, y (c) hay algunos que nunca incluyes.
Con el tiempo, es probable que la IA comience a limitar tu lista de opciones de ingredientes porque está programada para usar tus datos pasados para predecir una lista personalizada. Entonces, los primeros elementos en desaparecer serán aquellos que nunca elijas. Eso podría no ser un gran problema, pero si también tiendes a tener un fuerte sesgo hacia algunas opciones, eventualmente esas opciones podrían convertirse en las únicas que se te ofrezcan.
Influencia de Terceros
Hace un tiempo escribí sobre la arquitectura de elección, que se refiere al intento deliberado de presentar opciones de manera que influyan en la decisión resultante. Uno de los problemas que planteé se relaciona con la posibilidad de que más que solo las preferencias del usuario determinen su lista personalizada de opciones.
Entonces, si quieres comprar un libro para leer, la IA usará datos sobre tus preferencias de lectura (y tu historial de lectura) para ofrecerte una selección de opciones que deberían satisfacer tus necesidades. Pero también existe la posibilidad de que se utilicen otros datos.
Por ejemplo, la IA podría depender de datos de terceros (por ejemplo, editores, grupos activistas, políticos, tiendas en línea) para influir en tu lista de opciones personalizadas. Al final, es posible que tu lista personalizada también esté influenciada tanto por las preferencias de terceros como por las tuyas.
Hay Incontables Compensaciones
Un supuesto subyacente evidente en el artículo de Schneier (y otros similares, como Josifovsk, 2023, y Clark, 2021) es que el uso de la IA para aumentar la personalización lleva a que los usuarios obtengan exactamente lo que desean. Pero como he argumentado aquí, el aumento en la personalización impulsada por la IA puede aumentar el riesgo de:
- Hacer que nuestra toma de decisiones sea más difícil (debido a la dificultad para elegir entre opciones).
- Reducir la novedad en nuestras elecciones de decisiones.
- Dar a terceros una influencia mayor, pero menos obvia, sobre nuestras decisiones.
Ninguno de estos resultados está garantizado, por supuesto. A medida que la IA se vuelva más sofisticada, habrá muchas oportunidades donde se pueda utilizar para mejorar la toma de decisiones humanas.
Pero es importante reconocer que es probable que haya compensaciones cuando se trata de los beneficios de opciones más personalizadas. Si esas compensaciones valdrán la pena y si la mayor personalización introducirá consecuencias no deseadas aún está por verse.
Sobre el autor:
Matt Grawitch, Ph.D., es profesor en la Universidad de Saint Louis (SLU), sirviendo dentro de la Escuela de Estudios Profesionales (SPS).
Principio del formulario