¿Quién teme al ChatGPT?

Facebook
Twitter
LinkedIn
WhatsApp
Email

Artículo de opinión de Daniel Innerarity @daniInnerarity publicado el 11/03/2023 en La Vanguardia @LaVanguardia (enlace) (enllaç)

¿Quién teme al ChatGPT?

El revuelo generado en torno al ChatGPT tiene su razón de ser en una extraordinaria capacidad de llevar a cabo tareas como la generación de textos y la simulación de una conversación. Es un claro avance de esa inteligencia artificial generativa que tiene como objetivo emular la lógica del pensamiento humano en su forma comunicativa y creativa. En este juego de imitación de las facultades humanas, este algoritmo obtiene su poder de la digestión de lo que está disponible en internet: los millones de textos producidos por los humanos son combinados para adaptarse al diálogo establecido con el usuario. Da la impresión de que acabamos de descubrir que tareas de contenido intelectual sustancial pueden ser llevadas a cabo por una máquina, pero ¿es realmente así?

Una de las críticas que se le hacen a esta aplicación consiste en llamar la atención sobre sus limitaciones en la medida en que utilizar datos no suficientemente actualizados y que sería más preciso si estuviera entrenado con los datos más recientes. Ahora bien, esta misma inevitabilidad de operar con los datos existentes pone de manifiesto cuáles son sus límites insuperables. El ChatGPT es potentísimo a la hora de procesar una gran cantidad de datos pre-existentes, pero no en la producción de nuevas visiones y conocimiento o en las recomendaciones acerca de fenómenos nuevos sobre los que se carece de datos o información.

Una sedicente inteligencia que emula a los humanos no lo será realmente mientras no se haga cargo comprensivamente del mundo y no sea capaz de generar novedad. Los errores de este dispositivo no son debidos a falta de datos sino a una deficiente comprensión del mundo, lo cual es lógico si tenemos en cuenta la naturaleza de sus operaciones. El poder computacional es cálculo veloz y procesamiento de mayor cantidad de datos, pero no inteligencia. Una red neuronal ni siquiera sabe que las palabras representan cosas. El ChatGPT y otros artefactos que le sucederán son productos increíblemente capaces de procesar información y lenguaje sin saber de qué va, es decir, hasta el límite en el que comienza la comprensión del mundo.

La otra propiedad de la inteligencia humana es su capacidad de habérselas con la novedad en sus diversas formas: la innovación, el cuestionamiento y la ruptura de lo existente, la capacidad crítica, la gestión de la incertidumbre o la aportación de ideas nuevas. En todos estos campos los dispositivos de la inteligencia artificial pueden sernos de gran ayuda, pero chocan siempre con un límite insuperable. En vez de atemorizarse con que la “super-inteligencia” termine anulando la nuestra, haríamos bien en preguntarnos qué es lo específico e insuperable de nuestra inteligencia, y dedicarnos a cultivarla, de modo análogo a cómo la mecanización del trabajo impulsó los oficios más creativos. Tenemos que utilizar nuestro cerebro más que nunca, no a pesar de la innovación tecnológica sino en virtud de ella. A medida que la inteligencia artificial sea más sagaz, estaremos más obligados a redefinir el concepto de inteligencia. Buena parte del progreso humano se debe a que hemos concentrado nuestras fuerzas en tareas que exigían mayor talento y hemos mecanizado cuanto era posible.

Un caso concreto de ese litigio de demarcaciones se ha hecho patente con motivo de la discusión sobre la presencia del ChatGPT en el mundo de la educación. En vez de prohibir o banalizar, habría que aprovechar esta ocasión para volver a pensar en qué consiste el aprendizaje en el nuevo entorno digital. ¿Sigue teniendo sentido la pretensión educativa cuando la información está no solo accesible al momento (como gracias a los tradicionales buscadores) sino coherentemente elaborada?

Hay dos dimensiones del aprendizaje, en lo que podríamos denominar sus dos extremos, que se ven afectadas por la inteligencia artificial: el pensamiento más personal y el más mecánico. En ambos casos parece razonable ponderar hasta qué punto deberíamos limitar el uso de tales instrumentos. Si en virtud de la navegación GPS o los teléfonos inteligentes nos apoyamos excesivamente en la tecnología (hasta el punto de debilitar nuestro sentido de orientación en el espacio o de olvidar datos y números), el ChatGPT puede contribuir a que nos conformemos con la información proporcionada por esta tecnología y dejemos de considerar que ordenar esa información, exponerla y darle sentido es una tarea personal para la que no somos plenamente remplazables. Una cosa es perder la memoria de los datos por la accesibilidad facilitada por la tecnología y otra que perder la capacidad de organizarlos de manera personal.

Deberíamos también ponderar hasta qué punto tiene sentido minusvalorar el aprendizaje de ciertos procesos cognitivos por el hecho de que la inteligencia artificial pueda hacerlos. Internet no ha hecho que la gente no necesite saber nada porque todo se pueda encontrar a través de Google, aunque solo sea porque, por así decirlo, hay que saber antes lo que se quiere saber. ¿Quién enseña a buscar y cómo saber que se ha encontrado lo que realmente se buscaba? Solo se puede entender la información de Wikipedia si se tienen conocimientos previos. La existencia de calculadoras no ha hecho innecesario que la gente aprenda a calcular. Al menos es imprescindible tener una idea de las operaciones aritméticas para interpretar los resultados. Los pilotos también deben de ser capaces de aterrizar un avión manualmente si falla la tecnología. Con independencia de la ayuda que pueda prestarnos, deberíamos ser capaces de escribir textos de forma autónoma y sin la inteligencia artificial. Hay que haber sido capaz de hacer ciertas cosas que ya no tiene sentido hacer. Por supuesto que habrá cambios en los objetivos de aprendizaje: es de suponer que en el futuro no habrá que conocer en todas sus sutilezas y casos especiales las competencias básicas que pueden ser asumidas por los dispositivos que tendremos a nuestra disposición. Sin embargo, cualquiera que tema o exija que las personas ya no necesiten aprender a formular textos de forma independiente debido a la existencia de herramientas cognitivas como ChatGPT no ha comprendido que, por lo general, las herramientas cognitivas sólo pueden ser utilizadas de forma significativa por las personas si éstas tienen una idea de los procesos cognitivos de los que les libera.

Leer más artículos de opinión de Daniel Innerarity

Leer más trabajos de Daniel Innerarity

Leer más noticias

Leer más trabajos de investigación y publicaciones

Ver actividades

Daniel Innerarity

Director de Globernance (Instituto de Gobernanza Democrática) Catedrático de Filosofía Política, investigador «Ikerbasque» en la Universidad del País Vasco / Euskal Herriko Unibertsitatea y profesor en el Instituto Europeo de Florencia. Ha sido profesor invitado en la Universidad de La Sorbona, la London School of Economics, el Max Planck Institut de Heidelberg y la Universidad de Georgetown. Ha recibido varios premios, entre otros, el Premio Nacional de Ensayo y el Premio Príncipe de Viana de la Cultura. Su investigación gira en torno al gobierno de las sociedades contemporáneas y la elaboración de una teoría de la democracia compleja. Sus últimos libros son “La política en tiempos de indignación” (2015), “La democracia en Europa” (2017), “Política para perplejos” (2018), “Comprender la democracia” (2018), «Una teoría de la democracia compleja» (2020) y «Pandemocracia. Una filosofía de la crisis del coronavirus» (2020). Es colaborador habitual de opinión en los diarios El Correo / Diario Vasco, El País y La Vanguardia. www.danielinnerarity.es

Más publicaciones y noticias

La democracia y la verdad

Artículo de opinión de Daniel Innerarity @daniInnerarity publicado el 22/12/2024 en Noticias de Navarra (enlace)  La democracia y la verdad Con la

Leer más »

Comunidad

Artículo de opinión de Mikel Mancisidor @MMancisidor1970  el 15 de diciembre de 2024 en Deia (enlace) Comunidad El martes, el lehendakari

Leer más »
Ir al contenido