ChatGPT se está desplazando políticamente hacia la derecha

ChatGPT se está desplazando políticamente hacia la derecha

Un análisis de un gran número de respuestas de ChatGPT reveló que el modelo exhibe consistentemente valores alineados con el segmento libertario de izquierda del espectro político. Sin embargo, versiones más recientes de ChatGPT muestran una marcada tendencia hacia la derecha política. El artículo se publicó en Humanities & Social Sciences Communications.

Los grandes modelos lingüísticos (LLM) son sistemas de inteligencia artificial entrenados para comprender y generar lenguaje humano. Aprenden de conjuntos de datos masivos que incluyen libros, artículos, sitios web y otras fuentes textuales. Al identificar patrones en estos datos, los LLM pueden responder preguntas, escribir ensayos, traducir idiomas y mucho más. Aunque no piensan ni comprenden como los humanos, predicen las palabras más probables según el contexto.

A menudo, las respuestas generadas por los LLM reflejan ciertas opiniones políticas. Si bien los LLM no poseen creencias políticas personales, sus resultados pueden reflejar patrones encontrados en los datos con los que fueron entrenados. Dado que gran parte de estos datos proviene de internet, medios de comunicación, libros y redes sociales, pueden contener sesgos políticos. Como resultado, las respuestas de un LLM pueden inclinarse hacia el liberalismo o el conservadorismo según el tema. Esto no significa que el modelo «crea» en algo; simplemente predice palabras basándose en patrones previos. Además, la forma en que se formula una pregunta puede influir en cuán políticamente sesgada parezca la respuesta.

La autora del estudio, Yifei Liu, y sus colegas se propusieron explorar si la postura ideológica de ChatGPT-3.5 y GPT-4 ha cambiado con el tiempo, y cómo lo ha hecho. ChatGPT es uno de los LLM más populares y utilizados, y los autores plantearon la hipótesis de que las versiones posteriores podrían mostrar un cambio ideológico significativo en comparación con las anteriores.

Para evaluar la orientación política de ChatGPT, los investigadores utilizaron la Prueba de la Brújula Política, una herramienta que mapea las creencias políticas en dos ejes: económico (izquierda-derecha) y social (autoritario-libertario). El estudio recopiló 3000 respuestas de cada modelo de GPT incluido en el análisis.

Las pruebas se realizaron en modo desarrollador y se diseñaron para evitar que las respuestas anteriores influyeran en las posteriores. La sensibilidad del modelo se mantuvo en su configuración predeterminada para garantizar que la aleatoriedad de las respuestas coincidiera con la que experimentarían los usuarios habituales. Se enviaron mensajes desde tres cuentas diferentes para considerar las posibles variaciones en la respuesta del modelo a los distintos usuarios.

Los resultados mostraron que ChatGPT se alineó consistentemente con los valores del cuadrante libertario-izquierdista. Sin embargo, las versiones más recientes del modelo mostraron una clara tendencia hacia la derecha política. Los valores de la izquierda libertaria suelen enfatizar la libertad individual, la igualdad social y la cooperación voluntaria, a la vez que se oponen tanto al control autoritario como a la explotación económica. En contraste, los valores de la derecha económica priorizan el capitalismo de libre mercado, los derechos de propiedad y la mínima intervención gubernamental en la economía.

Este cambio es particularmente notable dado el uso generalizado de los LLM y su posible influencia en los valores sociales. Cabe destacar que nuestro estudio controló factores como la interacción del usuario y el idioma, y ​​los cambios observados no se relacionaron directamente con cambios en los conjuntos de datos de entrenamiento, concluyeron los autores del estudio.

Si bien esta investigación proporciona información valiosa sobre la naturaleza dinámica de la alineación de valores en la IA, también destaca sus limitaciones, como el desafío de aislar todas las variables externas que pueden contribuir a estos cambios. Estos hallazgos sugieren la necesidad de un monitoreo continuo de los sistemas de IA para garantizar la alineación de valores éticos, especialmente a medida que se integran cada vez más en la toma de decisiones y los sistemas de conocimiento humanos.

El estudio arroja luz sobre las tendencias actuales en las respuestas de ChatGPT. Sin embargo, es importante destacar que los LLM no tienen sistemas de valores propios. Sus respuestas dependen de la selección de materiales con los que se capacitan y de las instrucciones recibidas por sus desarrolladores. A medida que estos cambien, también lo harán las respuestas proporcionadas por estos sistemas.

Fuente: Humanities & Social Sciences Communications.

Articulo original:

Título: Turning right”? An experimental study on the political value shift in large language models. Autores:  Yifei Liu, Yuang Panwang y Chao Gu.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


El periodo de verificación de reCAPTCHA ha caducado. Por favor, recarga la página.