ChatGPT: Una moratoria artificial

Facebook
Twitter
LinkedIn
WhatsApp
Email

Artículo de opinión de Daniel Innerarity @daniInnerarity publicado el 24/04/2023 en El País (enlace)

ChatGPT: Una moratoria artificial

Desde los años 70 se han producido recurrentes oleadas de grandes expectativas y temores apocalípticos ante la evolución de la inteligencia artificial, pero este año va camino de convertirse en el más histérico.  Al estupor, entusiasmo o pánico provocados por el ChatGPT y sus fabulosas prestaciones, ha seguido una Carta Abierta en la que científicos y empresarios piden una moratoria digital. Contemplando esta agitación me venía a la cabeza aquella «Red Flag Act» proclamada en Inglaterra en 1865 con el fin de evitar accidentes ante el aumento de los coches, a los que imponía una velocidad máxima de cuatro kilómetros por hora en el campo y seis en pueblos y ciudades. Además, cada uno de ellos debía estar precedido por una persona a pie con una bandera roja para advertir a la población. Hicieron falta unos cuantos años para que fuéramos conscientes de que el control humano de los vehículos no dependía de la limitación de la velocidad a los parámetros del caminar.

Es evidente que cuanto más sofisticada es una tecnología, mayores son sus prestaciones pero también sus riesgos. Los seres humanos exploramos ese territorio en parte desconocido mediante la reflexión, que es una forma de pausar los procesos y adelantarse a los posibles problemas antes de que se produzcan. En el contexto de los actuales progresos de la inteligencia artificial se están haciendo presentes ciertos peligros como la discriminación, la pérdida de control, la precariedad laboral o la desinformación, todos ellos de tal envergadura que parecen hacer aconsejable frenar el desarrollo tecnológico todo lo que se pueda con el fin de disponer de un enfoque regulador, ponernos de acuerdo sobre los criterios éticos y políticos, establecer autoridades de supervisión y certificación. Los autores de la Carta Abierta exigen para ello una moratoria de seis meses.

El problema fundamental de una moratoria es que pretendiendo evitar ciertos riesgos de la inteligencia artificial acentúe otros. ¿Estamos tan seguros de que no mejorar los modelos de procesamiento durante un tiempo es menos arriesgado que seguir mejorándolos? Es cierto que los actuales sistemas plantean muchos riesgos, pero también es peligroso retrasar la aparición de sistemas más inteligentes, como pide la moratoria. Uno de esos posibles efectos indeseados sería la pérdida de transparencia. Si se decidiera tal moratoria, nadie podría asegurar que el trabajo de formación de tales modelos no continuara de forma encubierta. Esto supondría el peligro de que su desarrollo, que anteriormente había sido en gran medida abierto y transparente, se volviera más inaccesible y opaco.

Por otro lado, algo tan estricto como detener sectores tecnológicos dinámicos y competitivos plantea muchas dudas en cuanto a su viabilidad, tanto en lo referido a los estados como en el sector privado. En la actual configuración geoestratégica del mundo, tan fragmentada, y donde la carrera tecnológica se ha convertido en uno de los principales escenarios de competencia, es inimaginable una regulación vinculante y de obligado cumplimiento. Tampoco hay ningún motivo para que las empresas dominantes asuman voluntariamente un freno que pudiera poner en peligro su posición. Revela mucha ingenuidad creer que todos los programadores van a cerrar sus computadoras y que los políticos del mundo entero se sentarán durante seis meses con el objetivo de aprobar normas vinculantes para todos.

Hay a mi juicio una falta de comprensión acerca de la naturaleza de la tecnología, de su articulación con los humanos y, concretamente, de las potencialidades de la inteligencia artificial en relación con la inteligencia humana, menos amenazada esta de lo que suponen quienes temen al supremacismo digital. Por supuesto que nos encontramos con un desfase cada vez más inquietante entre la rapidez de la tecnología y la lentitud de su regulación. Los debates políticos o la legislación son sobre todo reactivos. Una moratoria tendría la ventaja de que el marco regulatorio podría adoptarse de forma proactiva antes de que la investigación siga avanzando. Pero las cosas no funcionan así, menos aún con este tipo de tecnologías tan sofisticadas. La petición de moratoria describe un mundo ficticio porque, por un lado, considera posible la victoria de la inteligencia artificial sobre la humana, y por otro sugiere que la inteligencia artificial solo necesitaría algunas actualizaciones técnicas durante seis meses de congelación de su desarrollo. ¿En qué quedamos? ¿Cómo es que la amenaza sea tan grave y que, al mismo tiempo, basten seis meses de moratoria para neutralizarla?

Si pasamos de la política ficción a la política real nos encontramos un escenario bien distinto. La Unión Europea es el ámbito político en el que todo esto se está regulando con mayor eficacia y rapidez. Pues bien, la propuesta «Artificial Intelligence Act» de la Comisión Europea lleva casi dos años sobre la mesa y desde entonces se discuten los detalles. Aunque la Ley pudiera aprobarse este año, probablemente pasarán otros dos antes de que se aplique en los Estados de la UE. Más que una prueba de irresponsabilidad o lentitud injustificada, es una confirmación de la complejidad del asunto, de que no es posible acelerar los procesos de regulación y detener el desarrollo tecnológico, cuando hay que poner de acuerdo a muchos actores, incluidos los propios sectores tecnológicos que se pretende regular.

El ChatGPT ha sorprendido a todo el mundo, generando fascinación y pánico a partes iguales, al comprobar hasta qué punto una tecnología podía simular capacidades humanas. Más allá de esta primera impresión, es fácil entender que se trata de algo menos extraordinario de lo que parece, pues en la historia la mayor parte de las técnicas fueron desarrolladas para mejorar, complementar e incluso sustituir a ciertas actividades humanas. No constituye ninguna ruptura civilizatoria inventar tecnologías que hagan ciertas cosas mejor que nosotros, del mismo modo que tampoco la derrota de los humanos en el ajedrez o el go supusieron ninguna catástrofe. Es importante recordar que, históricamente, las nuevas tecnologías siempre han provocado fases de incertidumbre social, pero éstas son sólo pasajeras.

La Carta es un ejercicio de alarmismo sobre los riesgos hipotéticos de una inteligencia sustitutoria de la humana. Sugiere capacidades completamente exageradas de los sistemas y los presenta como herramientas más poderosas de lo que realmente son. De este modo, contribuye a distraer la atención de los problemas realmente existentes, sobre los que tenemos que reflexionar ahora y no en un hipotético futuro.

La principal aportación de pedir una moratoria es concienciar a segmentos más amplios de la población de que, en efecto, hay cuestiones relevantes en juego. Lo más valioso de esta petición de moratoria es su mensaje performativo, a saber, llamar la atención sobre la importancia de lo que tienen entre manos la ciencia, la tecnología, la economía, la política, las instituciones educativas y el público en general, y la petición de que se forjen las alianzas necesarias.

El problema no es que la inteligencia artificial sea ahora o en el futuro demasiado inteligente, sino que lo será demasiado poco mientras no hayamos resuelto su integración equilibrada y justa en el mundo humano y en el entorno natural. Y eso no se conseguirá parando nada sino con más reflexión, investigación, inteligencia colectiva, debate democrático, supervisión ética y regulación.

Leer más artículos de opinión de Daniel Innerarity

Leer más trabajos de Daniel Innerarity

Leer más noticias

Leer más trabajos de investigación y publicaciones

Ver actividades

Daniel Innerarity

Director de Globernance (Instituto de Gobernanza Democrática) Catedrático de Filosofía Política, investigador «Ikerbasque» en la Universidad del País Vasco / Euskal Herriko Unibertsitatea y profesor en el Instituto Europeo de Florencia. Ha sido profesor invitado en la Universidad de La Sorbona, la London School of Economics, el Max Planck Institut de Heidelberg y la Universidad de Georgetown. Ha recibido varios premios, entre otros, el Premio Nacional de Ensayo y el Premio Príncipe de Viana de la Cultura. Su investigación gira en torno al gobierno de las sociedades contemporáneas y la elaboración de una teoría de la democracia compleja. Sus últimos libros son “La política en tiempos de indignación” (2015), “La democracia en Europa” (2017), “Política para perplejos” (2018), “Comprender la democracia” (2018), «Una teoría de la democracia compleja» (2020) y «Pandemocracia. Una filosofía de la crisis del coronavirus» (2020). Es colaborador habitual de opinión en los diarios El Correo / Diario Vasco, El País y La Vanguardia. www.danielinnerarity.es

Más publicaciones y noticias

La democracia y la verdad

Artículo de opinión de Daniel Innerarity @daniInnerarity publicado el 22/12/2024 en Noticias de Navarra (enlace)  La democracia y la verdad Con la

Leer más »

Comunidad

Artículo de opinión de Mikel Mancisidor @MMancisidor1970  el 15 de diciembre de 2024 en Deia (enlace) Comunidad El martes, el lehendakari

Leer más »
Ir al contenido