Imagina que estás en una entrevista de trabajo. A medida que responde las preguntas del reclutador, un sistema de Inteligencia Artificial (IA) escanea tu rostro y te califica como nerviosismo, empático y confiable. Puede parecer ciencia ficción, pero estos sistemas se utilizan cada vez más a menudo sin que la gente lo sepa o consentimiento de las personas.
La Tecnología de Reconocimiento de Emociones (ERT) es, de hecho, una industria floreciente de miles de millones de dólares que tiene como objetivo utilizar la inteligencia artificial para detectar emociones a partir de expresiones faciales. Sin embargo, la ciencia detrás de los sistemas de reconocimiento de emociones es controvertida: hay sesgos integrados en los sistemas.
Muchas empresas utilizan ERT para probar las reacciones de los clientes a sus productos, desde cereales hasta videojuegos. Pero también se puede usar en situaciones con mucho más cruciales, como en la contratación, para la seguridad de los aeropuertos para señalar rostros reveladores de engaño o miedo, en el control de fronteras, en la vigilancia para identificar a «personas peligrosas» o en la educación para monitorear la participación de los estudiantes con sus tareas.
Afortunadamente, la tecnología de reconocimiento facial está recibiendo atención pública. La premiada película Coded Bias, lanzada recientemente en Netflix, documenta el descubrimiento de que muchas tecnologías de reconocimiento facial no detectan con precisión los rostros de piel oscura. Y el equipo de investigación que administra ImageNet, uno de los conjuntos de datos más grandes e importantes utilizados para entrenar el reconocimiento facial, se vio obligado recientemente a difuminar 1,5 millones de imágenes en respuesta a preocupaciones de privacidad.
Las revelaciones sobre el sesgo algorítmico y los conjuntos de datos discriminatorios en la tecnología de reconocimiento facial han llevado a grandes empresas de tecnología, incluidas Microsoft, Amazon e IBM, a detener las ventas. Y la tecnología enfrenta desafíos legales con respecto a su uso en la policía en el Reino Unido. En la Unión Europea, una coalición de más de 40 organizaciones de la sociedad civil ha pedido la prohibición total de la tecnología de reconocimiento facial.
Al igual que otras formas de reconocimiento facial, ERT plantea preguntas sobre prejuicios, privacidad y vigilancia masiva. Pero ERT plantea otra preocupación: la ciencia de la emoción detrás de ella es controvertida. La mayoría de ERT se basa en la teoría de las «emociones básicas» que sostiene que las emociones están biológicamente programadas y expresadas de la misma manera por personas en todas partes.
Sin embargo, esto se cuestiona cada vez más. La investigación en antropología muestra que las emociones se expresan de manera diferente entre culturas y sociedades. En 2019, la Asociación para la Ciencia Psicológica realizó una revisión de la evidencia, concluyendo que no hay apoyo científico para la suposición común de que el estado emocional de una persona puede inferirse fácilmente de sus movimientos faciales. En resumen, ERT se basa en un terreno científico inestable.
Además, al igual que otras formas de tecnología de reconocimiento facial, ERT está codificada con prejuicios raciales. Un estudio ha demostrado que los sistemas interpretan constantemente los rostros de los negros como más enojados que los rostros de los blancos, independientemente de la expresión de la persona. Aunque el estudio de los prejuicios raciales en ERT es pequeño, el prejuicio racial en otras formas de reconocimiento facial está bien documentado.
Hay dos formas en que esta tecnología puede dañar a las personas, dice la investigadora de inteligencia artificial Deborah Raji en una entrevista con MIT Technology Review: “Una forma es no funcionar: en virtud de tener tasas de error más altas para las personas de color, las pone en mayor riesgo. La segunda situación es cuando funciona, donde tienes el sistema de reconocimiento facial perfecto, pero es fácil de utilizar como arma contra las comunidades para acosarlas «.
Entonces, incluso si la tecnología de reconocimiento facial puede ser imparcial y precisa para todas las personas, es posible que aún no sea justa o equitativa. Vemos estos efectos dispares cuando la tecnología de reconocimiento facial se usa en sistemas policiales y judiciales que ya son discriminatorios y dañinos para las personas de color. Las tecnologías pueden ser peligrosas cuando no funcionan como deberían. Y también pueden ser peligrosos cuando funcionan perfectamente en un mundo imperfecto.
Los desafíos que plantean las tecnologías de reconocimiento facial, incluida la ERT, no tienen respuestas fáciles ni claras. Resolver los problemas presentados por ERT requiere pasar de la ética de la IA centrada en principios abstractos a la ética de la IA centrada en la práctica y los efectos en la vida de las personas.
Cuando se trata de ERT, necesitamos examinar colectivamente la controvertida ciencia de la emoción incorporada en estos sistemas y analizar su potencial de sesgo racial. Y debemos preguntarnos: incluso si la ERT pudiera diseñarse para leer con precisión los sentimientos internos de todos, ¿queremos una vigilancia tan íntima en nuestras vidas? Estas son preguntas que requieren la deliberación, las aportaciones y la acción de todos.
Fuente: The Conversation