La gente cree que sus rasgos morales son demasiado distintos para que la IA pueda juzgarlos

La gente cree que sus rasgos morales son demasiado distintos para que la IA pueda juzgarlos

La inteligencia artificial (IA) se está integrando rápidamente en nuestra vida cotidiana, pero un nuevo estudio revela que cuando se trata de calificar la moral humana, la IA podría enfrentar un obstáculo. El estudio, publicado en PNAS Nexus, proporciona evidencia de que existe resistencia al uso de la IA para juzgar los rasgos morales debido a la creencia generalizada de que la IA no puede capturar con precisión las complejidades y la singularidad de la moralidad humana.

La moralidad es el conjunto de principios que definen lo que está bien y lo que está mal en el comportamiento, guiando las decisiones éticas. Las comunidades de pequeña escala pueden confiar en la experiencia personal y la conversación para evaluar la moral de otros individuos, pero a medida que las sociedades crecen, los métodos tradicionales de evaluación de la moral se vuelven insuficientes para implementarlos a gran escala.

Debido a desafíos éticos y sociales obvios, es necesario comprender nuestras actitudes generales hacia el uso de la IA para observar, evaluar y calificar la moral humana.

«Si bien se ha trabajado mucho sobre la forma en que los humanos juzgan la moral de las máquinas, nosotros nos centramos en la novedosa cuestión de las máquinas que juzgan la moral de los humanos», afirmaron los autores del estudio Zoe Purcell y Jean-François Bonnefon de la Universidad de Toulouse en Francia.

En el estudio 1 participaron 446 participantes en el Reino Unido que calificaron la aceptabilidad y la calidad esperada de la IA en función de diversos rasgos morales, como la lealtad, la integridad, la agresión o el racismo.

Los investigadores analizaron datos de un conjunto de datos existente de 131.015 participantes que completaron cuestionarios en línea del proyecto «Your Morals» ( yourmorals.org ). El proyecto evaluó las dimensiones morales de cuidado, justicia, lealtad y autoridad. Estos participantes se caracterizaron en 16 perfiles morales separados según qué tan altos o bajos eran sus puntajes en cada una de las cuatro dimensiones, y los investigadores calcularon con qué frecuencia ocurría cada uno de estos perfiles en la población.

A continuación, Purcell y Bonnefon reclutaron a 495 participantes en EE. UU. para que completaran los mismos cuestionarios en línea y luego los clasificaron en uno de los 16 perfiles morales. Luego, a los participantes se les presentó un gráfico sin etiquetas que describía el porcentaje de personas con cada perfil moral de la población general, y luego se les pidió que eligieran el porcentaje de personas que pensaban que tenían ese tipo de perfil.

El estudio 2b replicó el estudio 2a, pero proporcionó incentivos financieros por adivinar correctamente qué tan común era su perfil moral a partir del gráfico sin etiquetar, y analizó un nuevo grupo de 496 participantes de EE. UU

En conjunto, los subestudios descubrieron que el 88% de los participantes subestimaron cuán común era su perfil moral en la población, lo que indica que creían que su moral era más singular.

Finalmente, el Estudio 3 evaluó cómo las personas juzgaban la precisión de los perfiles generados por IA para perfiles únicos en comparación con los perfiles típicos.

Los investigadores reclutaron a 506 participantes en EE. UU. que completaron encuestas en línea. De manera similar al Estudio 1, calificaron la aceptabilidad y la calidad esperada de los rasgos morales, pero luego se les preguntó si creían que la puntuación moral de la IA sería más precisa y confiable para perfiles típicos o únicos, y también si creían que la IA funcionaría bien en marcando su propio perfil moral.

Este subestudio demostró que los participantes creían que a la IA le resultaría difícil calificar perfiles morales únicos, lo que llevó a esos mismos participantes a pensar que la IA caracterizaría erróneamente su moral.

Purcell y Bonnefon concluyeron: “Nuestros hallazgos sugieren que puede que no haya un gran apetito por la puntuación moral de la IA, incluso cuando la tecnología se vuelva más precisa. Si bien esto significa que la gente puede aprobar regulaciones estrictas contra la calificación moral de la IA… también significa que el potencial comercial de esta herramienta podría ser limitado, al menos mientras la gente se sienta demasiado especial para que las máquinas califiquen su moral”.

Si bien la investigación proporciona información valiosa sobre la aceptabilidad psicológica de la puntuación moral de la IA, cabe señalar algunas limitaciones.

Por ejemplo, el estudio solo se centró en escenarios abstractos, no en contextos específicos como solicitudes de empleo o citas. Por lo tanto, es posible que los hallazgos no capturen completamente cómo funcionaría la puntuación moral de la IA en situaciones de la vida real. Además, los autores del estudio señalaron que la moral se analizaba en un sentido amplio e incluía “el carácter moral general, los rasgos morales específicos y los valores morales”. Por tanto, futuros estudios podrían investigar los diferentes aspectos de la moralidad con mayor granularidad.

Fuente: PNAS Nexus

Articulo original: Titulo: “Humans feel too special for machines to score their morals”. Autores: Zoe A. Purcell y Jean-François Bonnefon.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *