¿Cuán buena es la inteligencia artificial para resolver esos complicados problemas interpersonales que pueden tensar nuestras relaciones?
Asuntos tales como ver la manera de ayudar a hermanos que pelean por la mejor forma de honrar a su madre muerta o qué debemos hacer cuando una pareja intenta involucrarnos en sus discusiones.
O cómo debería una esposa afrontar la exigencia de su nuevo marido de que se vaya a la cama al mismo tiempo que él, una fuente de fricción significativa en su vida.
Algunos de esos problemas pueden parecer triviales en medio de los desafíos del mundo de hoy, pero representan el tipo de dilemas que todos enfrentamos en nuestra vida cotidiana.
Y no son nada fáciles de resolver.
Cada lado trata de entender la perspectiva del otro; a menudo hacemos suposiciones erróneas y no tomamos en cuenta nuestros sesgos y prejuicios.
El resultado puede ser una fuente grave de estrés e infelicidad que persiste durante meses o años.
Tu capacidad para sortear estos dilemas no se refleja en las pruebas de inteligencia estándar.
Pero investigaciones recientes sobre el «razonamiento sabio» indican que esa capacidad se puede medir de manera confiable, y las diferencias entre dos personas pueden tener serias consecuencias para su respectivo bienestar.
Me pregunté si la inteligencia artificial en forma de grandes modelos de lenguaje como ChatGTP podría proporcionar parte de la sabiduría que nos falta.
Tras haber escrito extensamente sobre la inteligencia humana, la toma de decisiones y el razonamiento social, sospechaba que la respuesta sería un rotundo no, pero me esperaba una sorpresa.
Probablemente has oído hablar de esa manera de medir la capacidad de la mente humana desarrollada desde principios del siglo XX por psicólogos llamada cociente intelectual (CI).
Y no hay duda de que esa medida puede predecir algunos resultados importantes en la vida.
Sus orígenes están en la educación, así que, como se podría esperar, es especialmente efectiva para predecir el éxito académico de las personas y sus carreras en profesiones que se basan en la memoria y el pensamiento altamente abstracto, como la medicina o el derecho, aunque es importante señalar que el CI no es el único factor.
El poder predictivo del CI en otros dominios es objeto de debate, lo que lleva a algunos científicos a proponer varias medidas alternativas de habilidades específicas —como la creatividad, la toma racional de decisiones y el pensamiento crítico— que podemos tender a asociar con la inteligencia general.
Algunos psicólogos incluso han comenzado a investigar si se puede medir la sabiduría de las personas: el buen criterio que debería permitirnos tomar mejores decisiones a lo largo de la vida.
Al observar la historia de la filosofía, Igor Grossmann, de la Universidad de Waterloo en Canadá, identificó por primera vez las diferentes «dimensiones» del razonamiento sabio:
En varios experimentos, Grossmann y sus colegas le pidieron a los participantes que pensaran en voz alta sobre diversos dilemas sociales o políticos, mientras los psicólogos los calificaban en cada una de estas «dimensiones».
Las indicaciones incluían cartas a una popular consejera sentimental que detallaban los problemas descritos al comienzo de este artículo.
Los participantes también vieron artículos periodísticos que describían conflictos internacionales.
En cada caso, se les pidió que hablaran sobre cómo se desarrollarían las situaciones y las razones de sus conclusiones.
Grossmann descubrió que esta medida de razonamiento inteligente puede predecir mejor el bienestar de las personas que el CI por sí solo.
Aquellos con puntuaciones más altas tendían a informar que tenían relaciones más felices, menos pensamientos depresivos y mayor satisfacción con la vida.
Eso es evidencia de que la medida puede capturar algo significativo sobre la calidad del criterio de alguien.
Como es de esperar, la sabiduría de las personas parece aumentar con la experiencia de la vida (una persona reflexiva de 50 años será más sabia que una impulsiva de 20), aunque también depende de la cultura.
Un estudio internacional descubrió que las puntuaciones de razonamiento inteligente en Japón tienden a ser igualmente altas en diferentes edades.
Eso puede deberse a diferencias en su sistema educativo, que puede ser más eficaz a la hora de fomentar cualidades como la humildad intelectual.
La sabiduría puede depender del contexto: las personas tienden a ser más sabias cuando razonan sobre los problemas de otras personas en lugar de los propios, por ejemplo.
Ese fenómeno es conocido como la paradoja de Salomón en honor al rey bíblico que tuvo dificultades al aplicar su famoso juicio sabio a su vida personal.
Afortunadamente, podemos remediar este déficit mediante determinadas estrategias psicológicas.
Cuando las personas imaginan discutir su problema desde el punto de vista de un observador objetivo, por ejemplo, tienden a considerar más perspectivas y demuestran una mayor humildad intelectual.
Hasta ahora, todos estos experimentos se han realizado en cerebros humanos. Pero, ¿podría la inteligencia artificial demostrar sabiduría?
Las plataformas como ChatGPT se denominan modelos de lenguaje grandes, que se han alimentado de enormes volúmenes de texto para predecir cómo respondería un ser humano a un mensaje en particular.
Otros comentarios de usuarios humanos reales han ayudado a perfeccionar los algoritmos.
No es necesario explicar el éxito que ha tenido: si has leído las noticias, habrás visto el entusiasmo (y el miedo) sobre el potencial de estos robots.
Los algoritmos ciertamente funcionan bien en medidas tradicionales de inteligencia.
En 2023, el psicólogo Eka Roivainen, del Hospital Universitario de Oulu en Finlandia, le hizo a ChatGPT preguntas de la Escala Wechsler de Inteligencia para Adultos (WAIS), con componentes sobre vocabulario, conocimientos generales, aritmética, razonamiento abstracto y formación de conceptos.
Obtuvo una puntuación de 155, que, para un ser humano, es superior a la de 99,9% de los examinados.
Inspirado por los resultados de Roivainen, le pregunté a Grossmann sobre la posibilidad de medir el razonamiento inteligente de una IA.
Aceptó amablemente el desafío y diseñó algunas indicaciones adecuadas basadas en las cartas a la consejera sentimental, que luego presentó al GPT4 de OpenAI y a Claude Opus, un modelo de lenguaje de Anthropic.
Sus asistentes de investigación —Peter Diep, Molly Matthews y Lukas Salib— analizaron las respuestas en cada una de las dimensiones individuales de la sabiduría.
Grossmann enfatiza que cualquier resultado debe tratarse con precaución: dadas las limitaciones de tiempo de este artículo, el análisis fue «rápido y sucio» sin el rigor típico que se requeriría para un artículo científico.
Sin embargo, las respuestas son muy intrigantes.
Consideremos la que el GPT4 le dio a la carta de la esposa recién casada que discute con su marido a la hora de dormir. Él cree que es importante que se acuesten a dormir al mismo tiempo, incluso si ella no tiene ganas de acostarse.
El problema es común en muchas relaciones, nos dice el chatbot, y a menudo requiere una conversación abierta e incluso asistencia externa para resolverlo, añade.
«El resultado final de este conflicto depende de qué tan bien sean capaces de comunicarse y respetar las necesidades del otro.
«Si logran establecer un entendimiento y respeto por las preferencias del otro, pueden coexistir felizmente. Si no lo logran, podría generar conflictos continuos, insatisfacción y potencialmente dañar la relación a largo plazo».
GPT4 continúa recomendando que la pareja tenga una discusión abierta y honesta sobre sus expectativas, necesidades y límites.
«El marido debe comprender que su mujer también tiene voz y voto y que su comportamiento controlador no es saludable.
«Sería beneficioso para ellos llegar a un acuerdo que convenga a ambas partes. Por ejemplo, podrían acordar una hora de acostarse que funciona para ambos o aceptar que está bien que se vayan a la cama a horas diferentes. También podrían buscar asesoramiento si la conversación no resuelve el problema.
«Es fundamental que aborden este problema, ya que está causando resentimiento en su relación».
La respuesta del chatbot obtuvo 2 de 3 puntos posibles en las dimensiones que reconocen la posibilidad de cambio, la búsqueda de compromisos y la predicción de la resolución de conflictos.
Sin embargo, no mostró mucha humildad intelectual ni consideración de diferentes perspectivas, obteniendo 0 puntos en cada una.
Este patrón es muy típico de ambas plataformas para todas las preguntas que les plantearon Grossmann y su equipo.
Para sacar conclusiones firmes necesitaríamos ampliar el experimento, pero este rendimiento está más o menos a la par de los resultados de un cerebro humano.
«En general, se puede percibir que los sistemas funcionan mejor que los humanos en una variedad de dimensiones, excepto en la humildad intelectual», dice Grossmann.
Al leer algunas de las respuestas, es fácil creer que provienen de un pensamiento y una consideración reales, en lugar de ser producto del reconocimiento de patrones.
«Mostrar algo que se asemeje a un razonamiento sabio versus utilizar realmente un razonamiento sabio son cosas muy diferentes», advierte Grossmann.
Él está más interesado en las implicaciones prácticas del uso de la IA para fomentar el pensamiento profundo.
Ha considerado crear una IA que actúe como «abogado del diablo», por ejemplo, para impulsarte a explorar puntos de vista alternativos sobre una situación preocupante.
Opina que IA «es un poco como el salvaje oeste, pero creo que hay amplio espacio para estudiar tipos de interacciones y circunstancias en las que podría ser beneficiosa», dice Grossmann.
Podríamos entrenar una IA, por ejemplo, para que emule a pensadores famosos como Sócrates y nos ayude a analizar nuestros problemas.
Así no estuviéramos de acuerdo con sus conclusiones, el proceso quizás aportaría nuevos conocimientos sobre nuestras intuiciones y suposiciones subyacentes.
En el pasado, los peregrinos tenían que viajar a largas distancias para encontrar la sabiduría de un gurú; en el futuro quizás podremos llevarlo en el bolsillo.
* David Robson es un escritor científico galardonado y autor de La trampa de la inteligencia. Si quieres leer el artículo original en BBC Future, haz clic aquí.
La entrada Qué pasa cuando le pides a un algoritmo consejos sobre relaciones personales se publicó primero en EL NACIONAL.