14 de noviembre de 2019

Las máquinas como medio, las personas como fin



¿UTOPÍA O DISTOPÍA? ¿CÓMO NOS IMAGINAMOS EL FUTURO TECNOLÓGICO? IMAGEN: LEO MANJARREZ| UNSPLASH

No podemos olvidar que las máquinas son las herramientas, sólo un medio, cuyo uso tendremos que definir los humanos, a través de la razón y la ética.


Sofía Soler
Tiempo de lectura: 4 minutos

 

Cuando hoy observamos los cambios en la sociedad derivados de la tecnología, cuando nos planteamos el papel de las máquinas en nuestra sociedad, su autonomía y relación con los humanos es inevitable recaer en Immanuel Kant y sus cuatro preguntas. 

 

QUÉ PUEDO SABER
QUÉ DEBO HACER
QUÉ ME CABE ESPERAR
QUÉ ES EL SER HUMANO 

 

La filosofía sirve precisamente para responder esas dudas, pero vivimos un momento en el que los intelectuales, para bien o para mal, han desaparecido de la primera línea y estas cuestiones no parecen atraer a las tertulias de televisión. No obstante, si invitáramos al filósofo prusiano a “iluminarnos” en un debate sin duda defendería la dignidad del ser humano y, sobre todo, su autonomía.

Desde la Ilustración, para Kant, no existe excusa para ceder nuestro poder de raciocinio y decisión. Así, describió la toma de conciencia que supuso el siglo de las luces para el, entonces, nuevo ciudadano occidental:

Imagen: Philosopher’s shirts.

El ser humano es racional, consciente y autónomo y, por lo tanto, responsable de sus actos, su impacto en sí mismo y en la sociedad. Por eso, Kant decía Sapere aude! (¡Atrévete a saber!). La escritora Irene Lozano, en su artículo “Cómo amaría Kant a un robot” en El Mundo, entraba también en esta fantasía de traer al filósofo para preguntarle por la Inteligencia Artificial (IA) y se preguntaba: “¿Qué sabe un robot de sí mismo? ¿Qué sabe de sus actos? ¿Qué capacidad tiene de emitir un juicio moral sobre las implicaciones de sus cálculos?

Humanos racionales en busca de ética ¿universal?

Kant sabía que la racionalidad no equivale a moral. La razón es importante pero no es suficiente para entender al ser humano. Como apunta el profesor Alberto González Pascual del programa Humanismo y Revolución Digital de la Escuela de Organización Industrial, el régimen nazi es el ejemplo perfecto de racionalización de procesos (con IBM y su tecnología como aliados) para llevar a cabo un sistema logística y operativamente perfecto. Humanamente, era inmoral.

El imperativo categórico, con el que Kant pretende condensar la ética de los seres humanos de manera racional y sin autoridad divina, formula:

  • Obra según aquella máxima que puedas querer que se convierta en ley universal.

  • Obra de tal modo que uses a la humanidad, ya sea tu persona u otro, siempre como fin y nunca simplemente como medio. 

Su discípulo siglos después, Jürgen Habermas de la Escuela de Frankfurt, perfilaba la ética kantiana con una nueva perspectiva también universalista, pero colectiva. Más que de una guía para la moral individual habla de un concepto de justicia y solidaridad. Su ética comunicativa parte de la importancia del proceso para alcanzar la regla. “Para el pensador alemán, sólo son legítimas aquellas normas de acción que son aceptadas por todos los posibles afectados por éstas como participantes de discursos racionales”, concreta Farit Rojas, investigador del Centro de Investigaciones Sociales (CIS) de Bolivia.

 

Para Habermas, el proceso de comunicación tiene mucha importancia. Como seres racionales que compartimos futuro en el Tierra (y con la paradoja de la hiperconexión y el aislamiento sobre nuestras espaldas), debemos empezar a hablar y debatir sobre los principios éticos que gobiernen esas tecnologías que nos superan en capacidades. En esa incansable mejora técnica que alcance soluciones a nuestros problemas nunca antes posibles, no podemos olvidar que las máquinas son las herramientas, sólo un medio, cuyo uso tendremos que definir los humanos, la humanidad: el verdadero fin.

Imagen: El Juramento del Juego de Pelota; David, 1791.

En Europa existen diversas iniciativas para definir un uso ético de la Inteligencia Artificial. La propuesta de 2019 de la Comisión Europea “para una IA confiable” incluye principios como los derechos humanos, la necesidad de supervisión, robustez técnica y seguridad, la privacidad de los datos, la transparencia, la diversidad, el bienestar (social y medioambiental) y la rendición de cuentas.

En una línea muy parecida, se pronuncian desde AI4People del Atomium European Institute de Bruselas. Precisamente, estos últimos sí incluyen una noción de “autonomía” en su guía.

liderazgo europeo de la IA

“No se trata, pues, de una ética de los sistemas inteligentes, sino de cómo orientar de forma ética el uso humano de estos sistemas para resolver problemas. En este quehacer la UE tiene que ser pionera, uniendo al progreso tecnocientífico un liderazgo ético para que sea posible pasar de las excelentes declaraciones con que cuenta a las efectivas realizaciones.”

Adela Cortina, filósofa, en El País.

Imagen: El Juramento del Juego de Pelota; David, 1791.

En Europa existen diversas iniciativas para definir un uso ético de la Inteligencia Artificial. La propuesta de 2019 de la Comisión Europea “para una IA confiable” incluye principios como los derechos humanos, la necesidad de supervisión, robustez técnica y seguridad, la privacidad de los datos, la transparencia, la diversidad, el bienestar (social y medioambiental) y la rendición de cuentas.

En una línea muy parecida, se pronuncian desde AI4People del Atomium European Institute de Bruselas. Precisamente, estos últimos sí incluyen una noción de “autonomía” en su guía.