Una sociedad de cajas negras

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp
Share on email
Email

Artículo de opinión de Daniel Innerarity @daniInnerarity publicado el 9/05/2020 en La Vanguardia (enlace)

Vivimos en una sociedad que está llena de cajas negras para nosotros, mecanismos, sistemas, algoritmos, robots, códigos, automatismos y dispositivos que usamos o nos afectan, pero cuyo funcionamiento nos es desconocido. La nuestra sería una black box society (Pasquale). Si la actuación de sistemas inteligentes tiene una influencia cada vez mayor y más decisiva en la vida cotidiana, también aumenta la necesidad de equilibrar las asimetrías cognitivas que de ello resultan. Debemos construir toda una nueva arquitectura de justificación y control donde las decisiones automáticas puedan ser examinadas y sometidas a revisión crítica.

Cualquier aspiración a reducir la opacidad de los entornos en los que nos movemos ha de diferenciar los tipos de intransparencia. La primera forma de intransparencia es la intencionalmente producida, la que se debe a una deliberada voluntad de ocultar, sin que esto tenga necesariamente una dimensión reprochable. Dicha opacidad puede deberse a la protección de datos, el derecho de propiedad o cuestiones de seguridad y otras relativas al bien común. Hay otro tipo de intransparencia que se debe a la configuración técnica de ciertos dispositivos. Su complejidad técnica produce ignorancia en los usuarios y asimetrías cognitivas entre ellos y los expertos. El proceso de decisión de los sistemas inteligentes es intransparente y opaco, en buena medida por motivos técnicos, no por intencionalidad expresa de sus diseñadores. El tercer tipo de opacidad, la más compleja y la más específica de los nuevos dispositivos inteligentes, es la que no está escondida, sino que surge con su desarrollo, la inesperada, la que obedece precisamente a la autonomía de su carácter inteligente. Estaríamos hablando del black box de las cosas emergentes: dispositivos cuya naturaleza, en la medida en que aprenden, está en una continua evolución, que son inestables, adaptativos y discontinuos debido a su permanente reconfiguración.

La humanidad ha construido máquinas que solamente eran entendidas por sus creadores, pero nunca habíamos construido máquinas que operarían de un modo que sus creadores no entendieran. La inteligencia artificial parece implicar este tipo de novedad histórica. Que se trate de sistemas autónomos no quiere decir que sean seres libres y racionales, sino que tienen la capacidad de tomar decisiones no pronosticables. Por eso la exigencia de transparencia puede chocar con un límite infranqueable: no tiene sentido preguntar a los programadores para entender los algoritmos, como si la verdadera naturaleza de los algoritmos estuviera determinada por las intenciones de sus diseñadores. ¿Cómo vamos a conocer un dispositivo, su evolución y decisiones, si ni siquiera los creadores del algoritmo saben exactamente de qué modo funciona?

Teniendo en cuenta las dificultades que plantea la estrategia de la transparencia, el debate ha girado en los últimos años hacia otra categoría: se trataría de diseñar una inteligencia artificial explicable. Organizaciones e instituciones públicas deberían explicar los procesos y las decisiones de los algoritmos de un modo que sea comprensible por los humanos que los em­plean o son afectados por ellos. Seguramente no se pueden aplicar a las decisiones de los sistemas los mismos criterios que valen para las decisiones humanas, pero sí que cabe situar a los sistemas inteligentes en el espacio deliberativo en el que se sopesan decisiones y argumentos.

Esta supervisión de los sistemas inteligentes sobrepasa la capacidad de la gente corriente, está al alcance en principio de los expertos, pero incluso los especialistas tienen grandes dificultades de comprender ciertas decisiones. Los programas cuyas decisiones se apoyan en enormes cantidades de datos son de una gran complejidad. Los seres humanos individuales se encuentran sobrecargados a la hora de comprender en detalle el proceso de la toma de decisiones. Únicamente personas expertas están en condiciones de entender la lógica de los códigos y los algoritmos, con lo que cualquier operación de hacerlos más transparentes tiene efectos asimétricos, no posibilita una accesibilidad universal.

A este respecto, el artículo 22 de la re­gulación europea sobre protección de datos introduce un “derecho a explicación” muy poco realista. Ese derecho reconoce a los individuos la capacidad de exigir una explicación acerca de cómo fue tomada una decisión plenamente automatizada que les afecte. Pero el problema fundamental cuando hablamos de inteligibilidad es que la tarea de auditar los algo­ritmos o explicar las decisiones automáticas ha de concebirse como una tarea colectiva, no como un mero derecho individual, en muchas ocasiones de difícil realización. La idea de un consentimiento informado procede más bien del derecho privado que de la gobernanza de los bienes comunes, de una libertad negativa (en el sentido en el que la formulaba Isaiah Berlin), no desde una perspectiva relacional, social y política.

No basta con privatizar la transparencia y dejar en manos de la ciudadanía el ­control sobre los sistemas inteligentes –un control que apenas pueden llevar a cabo– y renunciar así a la regulación pública. Los sujetos individuales sólo podemos ges­tionar las corrientes masivas de datos en una medida limitada. No podríamos de­cidir en torno a datos y decisiones posibles más que si nos son filtradas hasta unas ­dimensiones que nos resulten manejables. En vez de tomar como punto de partida a un usuario independiente, las prácticas de la trasparencia sólo tienen sentido en un contexto social, como señales de una ­disposición a rendir cuentas y generar confianza.

Leer más artículos de opinión de Daniel Innerarity

Leer más trabajos de Daniel Innerarity

Leer más noticias

Leer más trabajos de investigación

Ver más publicaciones

Ver actividades

Daniel Innerarity

Director de Globernance (Instituto de Gobernanza Democrática) Catedrático de Filosofía Política, investigador «Ikerbasque» en la Universidad del País Vasco / Euskal Herriko Unibertsitatea y profesor en el Instituto Europeo de Florencia. Ha sido profesor invitado en la Universidad de La Sorbona, la London School of Economics, el Max Planck Institut de Heidelberg y la Universidad de Georgetown. Ha recibido varios premios, entre otros, el Premio Nacional de Ensayo y el Premio Príncipe de Viana de la Cultura. Su investigación gira en torno al gobierno de las sociedades contemporáneas y la elaboración de una teoría de la democracia compleja. Sus últimos libros son “La política en tiempos de indignación” (2015), “La democracia en Europa” (2017), “Política para perplejos” (2018), “Comprender la democracia” (2018), «Una teoría de la democracia compleja» (2020) y «Pandemocracia. Una filosofía de la crisis del coronavirus» (2020). Es colaborador habitual de opinión en los diarios El Correo / Diario Vasco, El País y La Vanguardia. www.danielinnerarity.es

Más publicaciones y noticias

El Gobierno de los monos

Artículo de opinión de Cristina Monge  @tinamonge  publicado el 21 de septiembre de 2020 en infoLibre (enlace).  Dos politólogos británicos, Robert Geyer y

Leer más »
Ir al contenido