OTRAS FUENTES

Un estudio de la UJI advierte de los límites de la inteligencia artificial en el ámbito moral

un-estudio-de-la-uji-advierte-de-los-liacutemites-de-la-inteligencia-artificial-en-el-aacutembito-moral
Avatar
Edición de Contenido por Gloria Remírez

Redacción


Jueves, 16 de Abril de 2020

Psicología

Una investigación de la Universitat Jaume I (UJI) (España) advierte de los retos y los límites de la digitalización en el ámbito moral. El estudio liderado por el profesor del Departamento de Filosofía y Sociología Patrici Calvo critica la colonización algorítmica del mundo de la vida y las consecuencias negativas que tiene para la sociedad, especialmente, para el colectivos más vulnerables. Las conclusiones del trabajo se han publicado en Kriterion. Revista de Filosofía.

El estudio pretende llamar la atención acerca de la «falsa creencia cada vez más extendida entre académicos y tecnólogos», según el profesor Calvo, que es posible discernir entre lo justo o lo injusto mediante el uso de algoritmos de inteligencia artificial. Este proceso, conocido cómo etificación, es la acción de recopilar, registrar, cuantificar, procesar y gestionar datos masivos sobre las opiniones, preferencias, conductas y hábitos de la ciudadanía hiperconnectada para, desde el criterio del mayor bien para la mayor cantidad de gente posible, establecer qué es válido desde el punto de vista moral por medio de modelos matemáticos artificialmente inteligentes.

Ahora bien, el actual proceso de transformación digital del ámbito moral presenta desafíos, argumenta el investigador del Grupo de Investigación Ética Práctica y Democracia dirigido por el profesor Domingo García Marzá. La etificación «interfiere en el correcto desarrollo de los procesos comunicativos que hacen posible concretar qué principios, normas, valores, sentimientos y virtudes son moralmente válidos, desplazando el posible consenso entre afectados por un análisis cuantitativo de la información objetiva disponible». En palabras del profesor Patrici Calvo también «convierte el saber moral en científico-técnico, eliminando de este modo su interés por la emancipación del ser humano y su carácter crítico y prescriptivo de la realidad social».

Además, el autor pretende averiguar los peligros que comporta para la sociedad la aceptación acrítica de esta ideología tecnológica. «Marcar cuáles son los límites de la inteligencia artificial en este sentido puede evitar consecuencias negativas de su aplicación apresurada y equivocada, especialmente en aquellos grupos más vulnerables de la sociedad», añade el investigador.

[Img #59893]

Patrici Calvo. (Foto: UJI)

Entre otras cuestiones importantes, los intentos por dataficar -cuantificar el comportamiento humano y social reduciéndolo todo a datos medibles- el ámbito moral «pueden generar un aumento de las desigualdades en todas sus formas; de la exclusión social; de la heteronomía ciudadana; del paternalismo tecnológico; de las decisiones con sesgo (homófobas, aporófobas, xenófobas y/o misóginas; de la intromisión en el ámbito privado; de la opacidad política; de la manipulación de la opinión pública; de la obstaculización de la comunicación»,entre otras muchas cosas, en opinión de Calvo.

Por ello, esta investigación sugiere la necesidad de empezar a diseñar y aplicar ecosistemas ciberéticos para la gestión, monitorización y cumplimiento de la ética en aquellos ámbitos de actividad donde se está utilizando la inteligencia artificial para su desarrollo, como por ejemplo el económico, el político y el asistencial. A la vez, abre la puerta a tratar de trabajar en el diseño de procesos de digitalización socialmente responsable y moralmente válido.

Patrici Calvo es profesor de ética en la Universitat Jaume I, coordinador del Máster Interuniversitario en Ética y Democracia y miembro de Comité de Bioética Asistencial del Hospital General de Castelló. Sus trabajos se centran en tres principales líneas de investigación. Por un lado, el diseño teórico y desarrollo práctico de una de economía cordial basada en la ética y la reciprocidad. Por otro, el desarrollo de un ecosistema ciberético para la gestión, monitorización y cumplimiento de la ética y la responsabilidad social en los diferentes ámbitos de actividad humana basados en los sistemas whistleblowing, la blockchain y la participación comprometida de la sociedad civil. Y, finalmente, el desarrollo ético y socialmente responsable de una participación política apoyada con algoritmos artificialmente inteligentes (democracia algorítmica). (Fuente: UJI)