Artículo de opinión de Daniel Innerarity @daniInnerarity publicado el 16/12/2019 en La Vanguardia (enlace)
Las grandes discusiones del siglo pasado acerca de cómo interpretar la significación histórica de la inteligencia artificial enfrentaron a quienes imaginaban máquinas capaces de reemplazar a los humanos, para bien o para mal, y quienes sostenían que se trataba de un mero aumento de la inteligencia humana. La discusión continúa hoy en otros términos. Kurzweil polemiza con Kapor a comienzos de este siglo y asegura que la inteligencia artificial sobrepasará a la inteligencia humana en 2029. Hay quien sostiene que la actual inteligencia artificial sería muy inteligente y muy estúpida a la vez; su estupidez consiste en que cuando toma una decisión inteligente no tiene modo de saberlo.
La inteligencia artificial es un conjunto de técnicas geniales para aprenderse el mundo de memoria. Aunque sobrepase la potencia calculatoria del ser humano, la inteligencia artificial es incapaz de dar una significación a sus propios cálculos. ¿Se puede ser inteligente sin saberlo, como un zombi que fuera capaz de realizar tareas inteligentes de un ser humano pero solamente de manera refleja? La inteligencia artificial tiene inteligencia refleja, no reflexiva. Y esto no corresponde a la noción que tenemos de inteligencia.
Puede estar ocurriendo que muchos límites para el avance de la inteligencia artificial tengan que ver con que la concepción dominante de lo que es inteligencia sea reduccionista y no preste atención a sus dimensiones cualitativas, contextuales, intuitivas, inexactas y corporales del conocimiento. Es hábil al encontrarse con situaciones específicas para las cuales hay una gran cantidad de datos, pero no para problemas nuevos o situaciones inéditas. La inteligencia artificial del futuro deberá aproximarse mas a la nuestra, tiene necesidad de otros mecanismos cognitivos similares a los específicamente humanos.
Mientras esperamos mejores resultados, lo que hoy tenemos es una excitación con los big data que nos ha distraído de los problemas que requieren una comprensión mas profunda del mundo. Si quiere atravesar nuevas fronteras, la inteligencia artificial tiene que aprender mas de cómo la gente realmente piensa: de nuestra comprensión, rapidez y adaptación, de nuestra capacidad de actuar con información incompleta e incluso inconsistente, consumiendo poca energía, sin muchos datos, aproximadamente. El reduccionismo de la inteligencia a gestión de datos y cálculo es lo que explica que estemos cediendo poder a unas máquinas que no son muy fiables, especialmente en lo que se refiere a valores humanos, sentido o visión de conjunto de su inserción en una sociedad, con sus prioridades y sus objetivos de equilibrio, sostenibilidad o igualdad. El cambio de paradigma de la futura inteligencia artificial debe ser su “humanización” en el sentido de que incorpore en la medida en que sea posible estas dimensiones de sentido, comprensión y equilibrio que hasta la fecha no ha sido capaz de desarrollar.
Muchos de los sesgos de los algoritmos tienen que ver con la misma naturaleza de los datos, por ejemplo, que el machismo o el racismo están presentes en los textos que se analizan. Este problema podría corregirse al menos parcialmente reequilibrando los sesgos. La cuestión de fondo tiene, no obstante, un carácter estructural. El problema del aprendizaje de los sistemas es que son incapaces de ver cada caso como un caso particular; están concebidos para construir estereotipos a través de una gran cantidad de datos. Su fortaleza consiste en que extraen las características que se repiten dejando al margen las propiedades raras, variables y contingentes. No solo es que se apoyen en los estereotipos sino que están calculados para maximizar la conformidad a los estereotipos.
En este contexto las ciencias humanas y sociales, la filosofía, tienen que jugar un papel muy importante, que ya no es algo subsidiario o complementario sino que atañe a lo que debemos entender por inteligencia y que puede contribuir decisivamente a dilucidar el futuro de la inteligencia artificial. Hay ya mucha voces que reclaman un papel para las ciencias humanas y sociales en el abordaje de esta cuestión. Este camino es mas provechoso para el futuro de la inteligencia artificial que dejar que las inteligencias mutiladas continúen sus caminos paralelos. Las ciencias humanas y sociales pueden proporcionarnos, en un momento en que esto es mas necesario que nunca, una visión mas holística de la realidad. Las tecnologías de la automatización y la inteligencia artificial resultarán incomprensibles si continúan siendo “socialmente inexactas”, si no las entendemos como una totalidad que incluye también el modo como configuran las realidades sociales o modifican nuestro comportamiento.
Leer más artículos de opinión de Daniel Innerarity
Leer más trabajos de Daniel Innerarity