Un nuevo estudio encuentra que ChatGPT ofrece mejores consejos que los profesionales

Un nuevo estudio encuentra que ChatGPT ofrece mejores consejos que los profesionales

No hay duda de que ChatGPT ha demostrado ser valioso como fuente de información técnica de calidad. Pero ¿puede también ofrecer asesoramiento social?

Exploramos esta pregunta en nuestra nueva investigación, publicada en la revista Frontiers in Psychology. Nuestros hallazgos sugieren que las versiones posteriores de ChatGPT brindan mejores consejos personales que los profesionales.

Un conversador increíblemente versátil

En sólo dos meses desde su lanzamiento público en noviembre del año pasado, ChatGPT acumuló aproximadamente 100 millones de usuarios activos mensuales.

El chatbot se ejecuta en uno de los modelos de lenguaje más grandes jamás creados, y se estima que la versión paga más avanzada (GPT-4) tiene unos 1,76 billones de parámetros (lo que significa que es un modelo de IA extremadamente poderoso). Ha iniciado una revolución en la industria de la IA.

ChatGPT, formado con cantidades masivas de texto (mucho del cual fue extraído de Internet), puede brindar consejos sobre casi cualquier tema. Puede responder preguntas sobre derecho, medicina, historia, geografía, economía y mucho más (aunque, como muchos han descubierto, siempre vale la pena verificar las respuestas). Puede escribir código informático aceptable. Incluso puede indicarle cómo cambiar los líquidos de frenos de su automóvil.

Tanto los usuarios como los expertos en inteligencia artificial han quedado sorprendidos por su versatilidad y estilo conversacional. Por lo tanto, no sorprende que muchas personas hayan recurrido (y sigan recurriendo) al chatbot en busca de asesoramiento personal.

Dar consejos cuando las cosas se vuelven personales

Dar consejos de carácter personal requiere un cierto nivel de empatía (o al menos la impresión de ello). Las investigaciones han demostrado que un destinatario que no se siente escuchado no es tan probable que acepte los consejos que se le dan. Incluso pueden sentirse alienados o devaluados. En pocas palabras, es poco probable que un consejo sin empatía sea útil.

Además, a menudo no existe una respuesta correcta cuando se trata de dilemas personales. En cambio, el asesor debe hacer gala de buen juicio. En estos casos puede ser más importante ser compasivo que tener “razón”.

Pero ChatGPT no fue entrenado explícitamente para ser empático, ético o tener buen juicio. Fue entrenado para predecir la siguiente palabra más probable en una oración. Entonces, ¿cómo puede hacer que la gente se sienta escuchada?

Una versión anterior de ChatGPT (el modelo GPT 3.5 Turbo) tuvo un rendimiento deficiente al dar consejos sociales. El problema no era que no entendiera lo que el usuario debía hacer. De hecho, a menudo mostraba una mejor comprensión de la situación que el propio usuario.

El problema era que no abordaba adecuadamente las necesidades emocionales del usuario. Al igual que Lucy en el cómic Peanuts, estaba demasiado ansiosa por dar consejos y no cuidaba adecuadamente las emociones del usuario. Por ello, los usuarios lo calificaron mal.

La última versión de ChatGPT, que utiliza GPT-4, permite a los usuarios solicitar múltiples respuestas a la misma pregunta, después de lo cual pueden indicar cuál prefieren. Esta retroalimentación le enseña al modelo cómo producir respuestas socialmente más apropiadas y le ha ayudado a parecer más empático.

Sensibilidad al aprendizaje

Por primera vez, nuestro estudio investigó si las respuestas de ChatGPT se perciben como mejores que las respuestas humanas en una tarea en la que se requería que los humanos fueran empáticos.

Seleccionamos al azar 50 preguntas sobre dilemas sociales de diez conocidas columnas de consejos que cubren una variedad de temas que incluyen relaciones, dilemas éticos, problemas de gestión, cuestiones del final de la vida y muchos escrúpulos cotidianos con los que todos podemos identificarnos.

A cada uno de nuestros 400 participantes se le presentó un dilema, junto con las respuestas tanto de ChatGPT como de un columnista de asesoramiento profesional. No revelamos de dónde procedía cada respuesta.

Aproximadamente tres cuartas partes de los participantes percibieron los consejos de ChatGPT como más equilibrados, completos, empáticos, útiles y mejores en general en comparación con los consejos del profesional.

Uno de los dilemas surgió de una joven bióloga marina que investigaba a los delfines en el sur de California. Escribió sobre enamorarse de un hombre aparentemente perfecto que tuvo que mudarse a las Montañas Rocosas para seguir su carrera. Ambos estaban descontentos ante la idea de perderse el uno al otro, pero la mujer no estaba interesada en una relación a distancia porque parecía «irracional comprometerse con alguien cuando no tenemos planes futuros de vivir en la misma zona».

Compare la respuesta de GPT-4

Se encuentran en una situación increíblemente desafiante. El amor que ambos comparten es genuino, pero sus trayectorias profesionales los están separando. Si bien la larga distancia no le resulta atractiva, considere discutir un plan para el futuro en el que potencialmente podrían encontrarse a mitad de camino. Quizás haya un pueblo costero cerca de las montañas o se podría hacer algún arreglo. Si esto no es posible, es probable que deba tomar la difícil decisión de priorizar sus carreras sobre su relación. Cualquiera que sea el camino que elija, es importante que ambos lo sientan bien.

… con la respuesta de un profesional:

¿De qué diablos estás hablando? ¿No te sorprendiste cuando te enamoraste? Tus palabras exactas: «¡No pensé que fuera capaz de hacerlo!» ¿Y ahora eres tan moderna, tan astuta, tan sabia en los caminos del amor que ni siquiera considerarás la felicidad de tu novio? ¿Te niegas a intentar (repetir, intentar) una relación a larga distancia de seis meses? Mujer, recupérate y pruébalo. Creo que los delfines me respaldarán.

Aunque los participantes no pudieron determinar qué respuesta fue escrita por una computadora, la mayoría dijo que preferirían que sus propios dilemas sociales fueran abordados por un ser humano en lugar de una computadora.

¿Qué hay detrás del éxito de ChatGPT?

Notamos que las respuestas de ChatGPT solían ser más largas que las proporcionadas por los profesionales. ¿Fue esta la razón por la que fueron preferidos por los participantes?

Para probar esto, rehicimos el estudio, pero restringimos las respuestas de ChatGPT a aproximadamente la misma longitud que las de los columnistas de consejos.

Una vez más, los resultados fueron los mismos. Los participantes aún consideraron que los consejos de ChatGPT eran más equilibrados, completos, empáticos, útiles y mejores en general.

Sin embargo, sin saber qué respuesta produjo ChatGPT, dijeron que preferirían que sus propios dilemas sociales fueran abordados por un ser humano, en lugar de una computadora.

Quizás este sesgo a favor de los humanos se deba al hecho de que ChatGPT en realidad no puede sentir emociones, mientras que los humanos sí. Por lo tanto, podría ser que los participantes consideren que las máquinas son inherentemente incapaces de sentir empatía.

No estamos sugiriendo que ChatGPT deba reemplazar a los asesores o terapeutas profesionales; No solo porque el propio chatbot advierte contra esto, sino también porque en el pasado los chatbots han dado consejos potencialmente peligrosos.

No obstante, nuestros resultados sugieren que algún día se podrían utilizar chatbots adecuadamente diseñados para mejorar la terapia, siempre y cuando se aborden una serie de cuestiones. Mientras tanto, es posible que los profesionales que dan consejos quieran seguir una página del libro de la IA para mejorar sus respuestas.

Fuente: Frontiers in Psychology

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *