Un estudio reciente publicado en la revista iScience tuvo como objetivo descubrir cómo las personas perciben la responsabilidad de los asistentes de inteligencia artificial (IA) en escenarios relacionados con la conducción. Sorprendentemente, los hallazgos sugieren que, si bien las personas tienden a atribuir responsabilidad a la IA en sus evaluaciones, todavía ven estos sistemas de IA principalmente como herramientas, no como agentes que merecen responsabilidad moral.
La inteligencia artificial se ha convertido en una parte integral de nuestras vidas, ayudándonos en diversas tareas, desde recomendar películas hasta ayudar en tareas complejas como conducir. Sin embargo, a medida que la IA se entrelaza más con las actividades humanas, surgen preguntas sobre la responsabilidad y la rendición de cuentas. ¿Cómo evaluamos quién es responsable cuando las cosas van bien o mal en situaciones que involucran tanto a humanos como a la IA?
Los investigadores se embarcaron en este estudio para desentrañar la intrincada dinámica de la atribución de responsabilidad en las interacciones entre humanos y IA. Si bien investigaciones anteriores han explorado el tema, este estudio buscó profundizar y examinar si las personas ven la IA como meras herramientas o como agentes capaces de compartir la responsabilidad moral.
«La inteligencia artificial (IA) podrá conducir automóviles y servir alimentos en comedores en el futuro, pero por el momento, los asistentes de IA en la vida real están muy alejados de este tipo de autonomía», dijo el autor del estudio Louis Longin, miembro de Cognition , Laboratorio de investigación de valores y comportamiento de la Universidad Ludwig-Maximilians de Munich. “Entonces, ¿quién es responsable en estos casos de la vida real cuando algo sale bien o mal? ¿El usuario humano? ¿O el asistente de IA? Para averiguarlo, organizamos un estudio en línea en el que los participantes asignaron la responsabilidad de los escenarios de conducción a un conductor humano y a distintos tipos de asistentes de inteligencia artificial”.
Los investigadores realizaron dos estudios en línea, cada uno con su propio conjunto de participantes. El primer estudio incluyó a 746 participantes, mientras que el estudio 2 involucró a 194 personas.
Los estudios emplearon escenarios hipotéticos, o viñetas, que representaban diversas situaciones de conducción que involucraban a un conductor humano y un asistente de inteligencia artificial. El asistente de IA podría brindar consejos a través de señales sensoriales (como vibraciones del volante) o instrucciones verbales.
En el primer estudio, a los participantes se les presentaron escenarios en los que se manipulaba el estado del asistente de IA (activo o inactivo debido a un problema de cableado eléctrico) y el resultado del escenario de conducción (positivo o negativo). Se les pidió que calificaran la responsabilidad, la culpa/elogio, la causalidad y la capacidad contrafáctica tanto del conductor humano como del asistente de IA.
El segundo estudio, una continuación del primero, involucró escenarios con una herramienta no impulsada por IA (luces antiniebla de última generación) en lugar de un asistente de IA. Nuevamente, se manipuló el estado de la herramienta y los participantes calificaron la responsabilidad y los factores relacionados.
Los investigadores descubrieron que la forma en que se presentaban los consejos de la IA no influía significativamente en los juicios de responsabilidad de los participantes. Esto sugiere que las personas asignaban responsabilidad al asistente de IA independientemente de cómo se comunicaba.
La presencia o ausencia del asistente de IA tuvo un impacto sustancial en las evaluaciones de los participantes. Cuando el asistente de IA estaba activo y se producía un accidente, los participantes calificaron al conductor humano como menos responsable y al asistente de IA como más responsable. Este patrón se mantuvo incluso cuando no hubo ningún accidente. En esencia, el estatus de la IA afectó fuertemente la forma en que las personas asignaban responsabilidades.
Los resultados de los escenarios jugaron un papel importante en los juicios de los participantes. Cuando el asistente de IA estaba inactivo, se lo consideraba igualmente responsable tanto de los resultados negativos como de los positivos. Sin embargo, cuando el asistente de IA estaba activo, se percibía como significativamente más responsable de los resultados positivos, como evitar un accidente, que de los negativos. Esto contrastó con el conductor humano, que no mostró un efecto de resultado similar.
«Nos sorprendió descubrir que los asistentes de IA eran considerados más responsables de los resultados positivos que de los negativos», dijo Longin. «Especulamos que la gente podría aplicar diferentes estándares morales para elogiar y culpar: cuando se evita un accidente y no se produce ningún daño, los estándares se relajan, lo que hace que sea más fácil para las personas asignar crédito que culpar a sistemas no humanos».
A pesar de que los participantes atribuyeron responsabilidad al asistente de IA en sus evaluaciones, consistentemente vieron al asistente de IA como una herramienta en lugar de un agente con responsabilidad moral. Este hallazgo subraya la tensión entre el comportamiento de las personas al calificar a los asistentes de IA y sus creencias subyacentes sobre la IA como herramienta.
«Los asistentes de IA, independientemente de su modo de interacción (comunicación táctil o verbal), se perciben como algo entre herramientas y agentes humanos», explicó Longin. «De hecho, descubrimos que los participantes afirmaban firmemente que los asistentes de IA eran sólo herramientas, pero los veían como parcialmente responsables del éxito o los fracasos de los conductores humanos que los consultaban, un rasgo tradicionalmente reservado sólo para agentes humanos».
Curiosamente, los participantes no atribuyeron responsabilidad de la misma manera cuando se trataba de una herramienta que no funcionaba con IA. En cambio, el reparto de responsabilidades sólo fue evidente cuando la tecnología de inteligencia artificial jugó un papel en la asistencia a la conducción. Esto sugiere que la atribución de responsabilidad y la tendencia a compartirla con un agente no humano eran específicas de situaciones en las que la inteligencia artificial participaba activamente en la prestación de asistencia.
Si bien este estudio proporciona información valiosa sobre las interacciones entre humanos y la IA y las percepciones de responsabilidad, no está exento de limitaciones. Una limitación es la necesidad de realizar más investigaciones para replicar estos hallazgos en diferentes dominios y culturas. Las normas y expectativas culturales pueden influir significativamente en cómo se percibe y se responsabiliza a la IA.
Fuente: iScience
Estudio original: Titulo: “Intelligence brings responsibility – Even smart AI assistants are held responsible“. Autor: Louis Longin, Bahador Bahrami y Ophelia Deroy.