26 de febrero de 2020
Regulación de datos, humanismo y la hora 59

Un español en China
El problema de cómo regular los datos es un problema viejo, lo que es nuevo es que ahora cualquier empresa con un par de empleados y una simple app puede recopilar datos de millones de personas. Cuando WhatsApp fue vendida a Facebook tenía solo 35 ingenieros, pero una base de datos de 450 millones de personas. Dejo al lector que haga un cálculo aproximado del número de conversaciones y barbaridades asociadas a nombres y apellidos.
Protección de datos: cuánto, cómo, a quién y cuándo
Hay que regular eso, pero la cuestión me parece a mí es, sobre todo, sobre cuánto, cómo, a quién y cuándo.
En mayo del 2018 entró en vigor el GDPR de la Unión Europea (Reglamento General de Protección de Datos) y sonaron las alarmas en millones de departamentos alrededor del mundo. Yo era en ese momento el único europeo en una empresa china con más de 350 empleados y, además, había sido el primero en dar la alarma, así que me tocó tener que lidiar con ese toro y hacer un pequeño resumen de legislación europea para una audiencia china que tiene dificultades con el inglés y a la que normalmente no le interesan las palabras ‘Unión Europea’ o ‘legislación’. Sorpresa, el GDPR en su versión inicial tenía 261 páginas y aparentemente, si uno no cumplía con su reglamento, la empresa podría ser sancionada muy duramente.
Efectivamente, también sonaron las alarmas en nuestros departamentos, pero los recursos son limitados en el mundo real y cambiar las ruedas de un avión en pleno vuelo no siempre es posible, así que tuvimos que tirar de pragmatismo e ir a lo que se podía implementar sin incurrir en excesivos gastos ni en marear a ingenieros.
Una de las prioridades del GDPR era la de posibilitar que los usuarios europeos se dieran de baja de la base de datos. Suena fácil, pero no lo es tanto. Creo recordar que un año después, de entre la infinidad de usuarios que teníamos en la lejana Europa, solo dos nos contactaron para pedirnos eliminar sus datos.
Dolió y dio la risa a partes iguales.
Lo diré de otra manera, según un estudio de Deloitte en el 2017 hecho en EEUU, el 91% de los usuarios acepta el uso de términos de un página web o app sin leer. Entre los jóvenes, el número sube hasta el 97%.
Con la cookies es peor, porque además distraen y muy pocos sitios ofrecen la posibilidad de modificarlas. Hoy mismo he dado al clic varias veces; todas ellas sin pensar, pero con cierta molestia; como cuando uno se da un tortazo inconsciente en el brazo tras ser picado por un mosquito. ¿Cuántas veces se da al “aceptar cookies” en un día de trabajo? Ahora multipliquemos eso por 365 y luego por cientos de millones de usuarios. De la nada, una legislación ha destruido el diseño de millones de páginas web y ha creado miles de millones de clics innecesarios. La intención era buena, eso sí.
¿Es un error el celo humanista de la Unión Europea y su obsesión de ser infinitamente justa con todos desde el primer día?
Es difícil de saber porque las soluciones al final no suelen ser filosóficas, sino técnicas y cuando uno analiza el problema de la regularización de datos y seguridad, en muy poco tiempo se encuentra con tantos argumentos, soluciones y peligros que no es de extrañar que la UE incluyera 20.000 palabras en las 261 páginas de su GDPR.
Lo dicho: es complicado. Pero hay cosas que a uno le dejan perplejo, como la paranoia con el reconocimiento facial e inteligencias artificiales. Se me escapa completamente el porqué hay que tener miedo a la tecnología y a que las máquinas sepan más de nosotros. ¿A quién no le gustaría tener un policía de barrio que tuviera memoria fotográfica y nos conociera a todos? ¿Quién ocultaría a su médico ciertas partes del cuerpo por derecho a la intimidad?
Sí, existe el peligro de que algún empleado pueda ver datos que deberían estar encriptados, que hackers saqueen bases de datos o que corporaciones o gobiernos tengan el poder de manipular negativamente a la gente, pero las ventajas que se obtienen por tener un sistema integrado de datos e inteligencias artificiales, tal como el reconocimiento facial, me parecen fundamentales. Yo desde luego, en China camino tranquilo por la noche y los servicios de algunas de sus apps son maravillosos. Y si el gobierno de ahí fuera tan tolerante y transparente como lo son en tantas partes de Europa, el resultado ya me parecería perfecto.
No voy a pretender dar aquí una solución a un tema tan profundo y técnico como este, pero se me ocurre que quizás haya un camino medio entre el laissez-faire más americano y el énfasis de regularizar todo tan europeo. Ese camino, en parte implementado por China, es quizás el uso de semi monopolios para integrar sistemas e implementar estándares. Google, Facebook y Apple tienen ese monopolio porque la mayoría de apps o juegos funcionan a través de sus plataformas. Son ellas las que pueden implementar medidas, dar ejemplo, dar herramientas y retorcer brazos para que se usen. Un desarrollador con pocos recursos puede intentar torear a la Unión Europea durante un tiempo, pero desde luego no va a torear a Apple porque la empresa californiana tiene la llave para matar a la empresa instantáneamente. Y no les tiembla el pulso.
La cuestión sería si la UE puede controlar o colaborar con esos gigantes americanos tal como lo han hecho los chinos con sus Tencent y Alibaba.
En cuanto a la regulación de la inteligencia artificial, el debate me parece que a mi es mucho más interesante porque es realmente nuevo y porque el miedo es mayor. Un pánico que en parte viene de las ‘cajas negras’, el crecimiento exponencial y la falta de sentido común de las inteligencias artificiales fuertes.
“Una inteligencia que la hemos diseñado nosotros, pero no sabemos con detalle cómo hace lo que hace. Eso preocupa”
Mi primera impresión al mirar a Europa es que, una vez más, le pueden sus instintos idealistas y la insistencia en que los algoritmos deben ser transparentes y se puedan explicar. Pero parte del problema viene quizás de que la gran revolución de la IA viene del uso de redes neuronales, una arquitectura con la que uno puede conseguir tener resultados impresionantes (Traductor Google, reconocimiento facial, Alpha Zero) pero difíciles de explicar. Esa es la idea de ‘caja negra’. Una inteligencia que la hemos diseñado nosotros, pero no sabemos con detalle cómo hace lo que hace. Eso preocupa.
En cuanto al problema de la falta de sentido común, hay curiosamente consenso: las máquinas no lo tienen. Por no tener, parece que no comprenden la diferencia entre causa y efecto. Y aquí es donde muchos se plantan y dicen: ‘Aún no hace falta regular las IAs ni hablar del tema porque no son inteligentes sino un programa de estadística en esteroides’.
¿Cuándo debemos empezar a regular la inteligencia artificial? La hora 59
Bien, aceptemos por un momento el argumento de que las inteligencias artificiales están lejos de ser inteligentes. Entonces la pregunta es saber cuándo nos podemos empezar a plantear su regulación. No lo sabemos y los expertos no se ponen de acuerdo. Y aquí es donde pondré un ejemplo del tercer punto del que aún no he hablado, y que en muchos casos es el que más miedo produce: el crecimiento exponencial.
Imaginemos un cubo metálico y dentro una bacteria que se duplica cada hora. Sabemos que en sesenta horas el recipiente estará lleno hasta los bordes de bacterias. Pregunta: ¿en qué momento de esas sesenta horas volveremos para mirar el cubo y lo veremos lleno de bacterias al 50%?
Una respuesta automática es decir 30 horas. Otra respuesta es parpadear y tartamudear que no hay suficientes datos. ¿La solución? El recipiente estará medio lleno en la hora 59.
Eso es un crecimiento exponencial. Es decir, que igual ahora estamos mirando al ‘cubo’ donde estamos desarrollando inteligencias artificiales y estamos pensando ‘apenas hemos llegado a la mitad del camino, aún falta mucho, hemos tardado treinta años en llegar aquí, así que faltan otros treinta’.
Cierto, igual estamos a mitad de un largo camino, pero también es posible que estemos en la hora 59.
FUENTES Y LECTURAS RECOMENDADAS:
-
La inteligencia artificial ayudará a controlar a los gobiernos y grandes empresas. Carme Artigas en El País.
-
Hay gobiernos que quieren desconectar a sus ciudadanos de Internet. Y alguno ya tiene su botón rojo. Marta Peirano en El País.