En un nuevo estudio, los participantes mostraron más empatía por un agente antropomórfico de inteligencia artificial (IA) en línea cuando parecía revelar información personal sobre sí mismo mientras conversaba con los participantes.
Takahiro Tsumura de la Universidad de Graduados de Estudios Avanzados, SOKENDAI en Tokio, Japón, y Seiji Yamada del Instituto Nacional de Informática, también en Tokio, presentaron estos hallazgos en la revista de acceso abierto PLOS ONE el 10 de mayo de 2023.
El uso de la IA en la vida diaria está aumentando el interés en los factores que podrían contribuir al nivel de confianza y aceptación que las personas sienten hacia los agentes de IA.
Investigaciones anteriores han sugerido que las personas son más propensas a aceptar objetos artificiales si los objetos provocan empatía. Por ejemplo, las personas pueden empatizar con robots de limpieza, robots que imitan mascotas y herramientas de chat antropomórficas que brindan asistencia en sitios web.
Investigaciones anteriores también han destacado la importancia de revelar información personal en la construcción de relaciones humanas.
A partir de esos hallazgos, Tsumura y Yamada plantearon la hipótesis de que la autorevelación por parte de un agente antropomórfico de IA podría aumentar la empatía de las personas hacia esos agentes.
Para probar esta idea, los investigadores realizaron experimentos en línea en los que los participantes tuvieron un chat basado en texto con un agente de IA en línea que estaba representado visualmente por una ilustración similar a la humana o una ilustración de un robot antropomórfico.
El chat involucró un escenario en el que el participante y el agente eran colegas en un descanso para almorzar en el lugar de trabajo del agente. En cada conversación, el agente parecía revelar información personal altamente relevante para el trabajo, información menos relevante sobre un pasatiempo o ninguna información personal.
El análisis final incluyó datos de 918 participantes cuya empatía por el agente de IA se evaluó mediante un cuestionario de empatía estándar.
Los investigadores encontraron que, en comparación con la autorevelación menos relevante, la autorevelación altamente relevante para el trabajo del agente de IA se asoció con una mayor empatía de los participantes. La falta de autorevelación se asoció con la empatía suprimida.
La apariencia del agente como un robot humano o antropomórfico no tenía una asociación significativa con los niveles de empatía.
Estos hallazgos sugieren que la autorevelación por parte de los agentes de IA puede, de hecho, provocar empatía en los humanos, lo que podría ayudar a informar el desarrollo futuro de las herramientas de IA.
Los autores agregan: «Este estudio investiga si la autorevelación por agentes antropomórficos afecta la empatía humana. Nuestra investigación cambiará la imagen negativa de los artefactos utilizados en la sociedad y contribuirá a futuras relaciones sociales entre los humanos y los agentes antropomórficos».
Fuente: PLOS