Estás leyendo:
Júlia Pareto: «El gran riesgo ético
de la IA es la abdicación de la libertad humana»
20.09.24
6 minutos de lecturaEnvía tus preguntas a:
Doctora en Filosofía por la Universitat de Barcelona e investigadora de la Cátedra AI&Democracy (STG-EUI) y del Instituto de Robótica e Informática Industrial, CSIC-UPC
Solicitar entrevistaLos avances recientes en inteligencia artificial (IA) aumentan las expectativas sobre su potencial, pero también los debates acerca de sus riesgos. Júlia Pareto, doctora en Filosofía, es una de las pensadoras que explora los desafíos de esta tecnología desde su vertiente ética. Trabaja en el Instituto Universitario Europeo de Florencia y en el Instituto de Robótica e Informática Industrial (CSIC-UPC), investigando el desarrollo de estos sistemas, especialmente en el ámbito social y asistencial. El pasado 30 de abril participó en el debate ¿Qué nuevos retos éticos y jurídicos plantea la inteligencia artificial?, en el Palau Macaya.
El gran reto, y lo pondría en singular, es decidir por qué y para qué vamos a desarrollar esta tecnología, cuáles son las razones para su despliegue. Teniendo en cuenta los riesgos de su autonomía tecnológica, la reflexión se está enfocando mucho en el «hacer» de estos agentes artificiales, en que sus conductas estén alineadas con ciertos valores. Pero se olvida que la primera pregunta debería centrarse en su «ser», es decir, en la cuestión de su legitimidad, que implica volver la atención a los intereses y las finalidades a que deberían servir. La ética tiene una tarea de construcción de sentido. Creo que es necesario reducir el ruido en torno a lo anecdótico y tomarnos un paréntesis para pensar qué hacemos y hacia dónde vamos con los sistemas de IA, lo que inevitablemente conduce a retomar temas fundamentales de la tradición filosófica.
Popularmente, ética y moral se consideran sinónimos, pero, desde el punto de vista de la filosofía, hay una distinción muy importante entre ambos conceptos, que conviene recordar ahora que se solicita la ética en distintos contextos prácticos para ayudar en las tomas de decisiones. Algunos expertos de otras disciplinas, como la ingeniería, dialogan con filósofos y cuentan con que estos les van a decir qué hacer. Y eso es algo que corresponde a la moral, que está ligada a unos valores o unas normas aceptados socialmente. La ética reflexiona sobre el porqué, y la respuesta que ofrece es un argumento. Es interesante esta distinción: la moral se ocupa de las acciones, mientras que la ética se ocupa de las razones. Son dos ámbitos de la vida práctica muy distintos.
Tenemos que huir de la idea de una reflexión ética general e intentar acotarla a campos prácticos o actividades específicas. La reflexión no debe descontextualizarse del área de acción concreta a la que sirve la tecnología, del marco de finalidades y valores de las prácticas para las cuales se concibe como instrumento. Históricamente, hemos pasado de una ética de la Tecnología con «T» mayúscula a una ética de las tecnologías específicas: ética de la robótica, de la nanotecnología, de la computación… Ahora deberíamos realizar un último giro hermenéutico hacia las actividades a las que sirven estas tecnologías para no quedarnos en un discurso que ponga el foco en el instrumento sin atender a su naturaleza teleológicamente subordinada.
Hoy en día, la tecnología puede llevar a cabo tareas que quedaban reservadas de forma exclusiva a la agencia humana, porque necesitan de cierta interacción personal. Ahora tenemos sistemas de IA corporeizados que podrían asumir roles en el ámbito de la salud o de la educación que requieren relacionarse mediante el habla y los gestos. La novedad no está en la mediación tecnológica de estas actividades, sino en la transformación del carácter de la mediación: dada la capacidad de estos robots de interactuar con los humanos como casi-otros, podemos introducirlos en la dimensión más nuclear de prácticas relacionales como el cuidado.
El despliegue europeo de la robótica para el cuidado mantiene una continuidad con el paradigma tradicional bajo el cual los robots se conciben como herramientas para tareas que son sucias, aburridas o peligrosas. La narrativa es que los robots sirvan para aumentar la calidad del cuidado, lo que no significa sustituir a los profesionales de la salud, sino usar los robots para descargarlos de las tareas menos significativas en términos de valor humano (por pesadas, repetitivas y mecánicas, como dar de comer, ayudar a vestir o asistir en actividades de ejercitación física y cognitiva). Así, estos profesionales se podrán dedicar a lo que sería la parte más intersubjetiva de las relaciones de cuidado. Desde un punto de vista ético, esta política tecnológica debe ir acompañada de una reflexión hermenéutica sobre el cuidado, sobre los valores y el para qué de esta práctica, que, en última instancia, tiene que ver con la creación de mundo. Si empezamos a delegar labores en las máquinas sin atender a estas cuestiones, estaremos atentando contra nuestra condición de seres autónomos. Creo que el gran riesgo ético de la IA es la abdicación de la libertad humana.
Cuando se piensa en cómo los robots asistenciales pueden perjudicar a las personas, se tiende a partir de una idea de cuidado como práctica que solo tiene una dimensión privada, y se pone el foco en la deshumanización o falta de respeto a la dignidad humana que puede suponer la interacción con estos robots. Pero el cuidado es también algo político. Desde la filosofía y la ética feminista se han hecho muchos avances en este sentido y ahora parece que vayamos hacia atrás. Es importante que concibamos el cuidado como algo que implica relaciones de poder y responsabilidades que se tienen que distribuir entre los ciudadanos, y no centrar la atención ético-normativa solo en torno al hecho de que el robot no puede actuar igual que un ser humano. Al igual que no debemos olvidar que la tecnología desempeña un rol constitutivo en estas relaciones de poder.
Creo que no podemos caer en un cierto buenismo y pensar que estas tecnologías se están desarrollando en un contexto totalmente libre de intereses económicos o en el que no existe competencia a escala geopolítica. No podemos recaer en los prejuicios del pasado y olvidar que la tecnología tiene una dimensión moral y política, por lo que contribuye a configurar sociopolíticamente la vida humana. Por esto es tan importante que el debate público-privado se haga, y bien, para que la adopción de estas herramientas, que suelen ser desarrolladas en gran parte por empresas privadas, no sea disonante con los valores que se persiguen desde el punto de vista de servicio público.
La innovación tecnológica va por delante y el derecho corre para ponerse al día, pero siempre llega tarde. Es normal, porque la ley debe capturar y solidificar aquello que vale la pena que se convierta en moral, es decir, en valores que queremos defender. La ética tiene agilidad y flexibilidad para poder reflexionar y ayudar al derecho a fundamentar las normas. Desde la ética debemos seguir pensando no tanto en poner límites, sino en acompañar de una manera propositiva, en pensar qué tipo de sociedades, relaciones, estructuras sociopolíticas vamos a constituir y ayudar a materializar estos conceptos. Ese siempre ha sido el carácter de la ética.