Un nuevo estudio destaca una posible desventaja del uso de la inteligencia artificial en el trabajo: quienes dependen de herramientas de IA para realizar su trabajo suelen ser juzgados con mayor severidad. A pesar del potencial de la IA para impulsar la productividad, los trabajadores pueden enfrentar evaluaciones sociales negativas, especialmente en relación con su competencia, esfuerzo y motivación, simplemente por usarla. La investigación, publicada en Proceedings of the National Academy of Sciences, proporciona evidencia de que esta percepción puede incluso afectar las decisiones de contratación.
La inteligencia artificial generativa se refiere a herramientas como ChatGPT y otros sistemas que pueden producir texto, imágenes o código con una apariencia similar a la humana. Estas herramientas son cada vez más comunes en entornos laborales de diversos sectores, ofreciendo asistencia con la escritura, el análisis, las tareas creativas y más. Si bien pueden mejorar el rendimiento, a algunas personas les preocupa que confiar en la IA pueda hacerlas parecer perezosas o reemplazables. Esta preocupación puede tener fundamento.
El equipo de investigación —científicos sociales que estudian cómo las personas se evalúan mutuamente en contextos profesionales— quería comprender si el uso de IA realmente perjudicaría la reputación laboral de una persona. Basándose en la teoría de la atribución, que explora cómo las personas explican las acciones de los demás, los investigadores razonaron que los observadores podrían interpretar el uso de IA como una señal de menor capacidad o esfuerzo. Así como estudios previos han demostrado que las personas a veces asumen que buscar ayuda refleja una debilidad personal en lugar de una necesidad situacional, el equipo predijo que los usuarios de IA podrían enfrentarse a sesgos similares.
“Me interesé en este tema tras conversar con empleados de varias organizaciones que expresaron sus dudas sobre el uso de la IA generativa en el trabajo, no por problemas con sus resultados, sino por la dinámica social asociada a su uso”, explicó Jessica Reif, autora del estudio y candidata a doctorado en la Escuela de Negocios Fuqua de la Universidad de Duke. “Estas conversaciones, junto con encuestas del sector que sugerían que las personas ocultan el uso de la IA en el trabajo, me impulsaron a examinar si la penalización por evaluación social que los empleados parecen anticipar es real”.
Los investigadores realizaron cuatro experimentos con más de 4400 participantes. Los estudios se registraron previamente, lo que significa que el equipo documentó sus métodos e hipótesis con antelación para reducir el sesgo. En todos los experimentos, los investigadores examinaron tanto las expectativas de las personas sobre cómo serían juzgadas por usar IA como cómo los observadores realmente evaluaban a quienes usaban herramientas de IA.
“La principal conclusión de este trabajo es que el uso de la IA puede tener un coste social”, explicó Reif. “En nuestros estudios, los empleados que se describieron como usuarios de IA generativa fueron evaluados como más perezosos, menos competentes y menos diligentes que los empleados que utilizan otras herramientas o recursos de ayuda en el trabajo para realizar la misma tarea. Lo irónico de nuestros hallazgos es que, si bien algunos empleados probablemente usan la IA porque están motivados para ser más productivos en el trabajo, su uso puede llevar a que otros los evalúen como menos motivados”.
Una fortaleza de la investigación es su diseño experimental, que permitió al equipo aislar el efecto del uso de IA de otras variables. Sin embargo, los autores advierten que su trabajo presenta algunas limitaciones. Todos los estudios se basaron en muestras en línea en lugar de organizaciones reales, lo que podría afectar la correcta aplicación de los resultados a entornos laborales reales. Además, las descripciones de las herramientas de IA fueron intencionalmente amplias, lo que podría no reflejar la variedad de herramientas y casos de uso existentes en la actualidad.
“Una limitación clave de nuestros estudios es que los evaluadores no conocían personalmente a los sujetos que evaluaban y simplemente informaban sobre su primera impresión al leer sobre ellos”, señaló Reif. “Por ejemplo, no podemos predecir cómo cambiaría la percepción de un empleado con una larga reputación de ser un buen trabajador si empieza a usar IA. Podría darse el caso de que los efectos observados en nuestros estudios sean más débiles cuando el evaluador conoce mejor al sujeto o una relación laboral existente”.
«Una dirección futura que me entusiasma es desentrañar por qué se produce la penalización de la evaluación social que documentamos. Por ejemplo, puede darse el caso de que los evaluadores hagan suposiciones sobre cómo los que utilizan la IA pasan el tiempo que ahorran. Además de la investigación sobre evaluaciones sociales, estoy llevando a cabo una investigación que investiga otras dinámicas sociales en torno al uso de la IA en el lugar de trabajo, como la forma en que la IA influye en quién busca asesoramiento e información de quién», concluyó Reif.
Fuente: Proceedings of the National Academy of Sciences
Articulo original:
Título: Evidence of a social evaluation penalty for using AI.
Autores: Jessica A. Reif, Richard P. Larrick, and Jack B. Soll.
