Ética de la Inteligencia Artificial

Facebook
Twitter
LinkedIn
WhatsApp
Email

Artículos de opinión de Anibal M. Astobiza  @anibalmastobiz el 31 de enero de 2019 (Enlace)

El potencial uso de la IA en múltiples áreas de nuestra vida, economía y sociedad en general, tanto en forma de productos o servicios comercializables como también armamento autónomo y sistemas de monitorización; presenta claros desafíos prácticos y éticos

Muchos economistas se refieren a la Inteligencia Artificial (IA) como la tecnología de propósito general de nuestra era. Las tecnologías de propósito general de los últimos dos siglos y medio son un conjunto de tecnologías transformadoras que incluyen a la electricidad, el motor de combustión e Internet. Dicen que la IA es una tecnología de propósito general porque no solo promete transformar la forma de vivir nuestras vidas, sino que también promete transformar la forma en la que los negocios se llevarán a cabo tal y como lo hizo, y sigue haciendo, la electricidad, el motor de combustión e Internet. Los economistas que ven la IA como una tecnología de propósito general entienden que su aplicación se dará en todas las industrias y sectores económicos.

Otros autores afirman que el impacto que tendrá la IA será mucho mayor que el que tuvo la electricidad. De las tecnologías mencionadas no cabe duda que la más generalizada es la electricidad, pero el avance de la IA ha sido espectacular en las últimas décadas y ha generado una gran atención, así como una presencia constante en el debate público y medios de comunicación.

La historia de la IA no ha sido lineal ni de constante progreso. Ha existido lo que se ha venido en llamar AI winters, momentos en los que se esperaba que la IA iba a hacer grandes cosas, pero en realidad las cosas que se esperaban no se materializaron y esto causó decepción y, lo que es peor, desinversión económica. A día de hoy los intereses e incentivos de la economía, la ingente inversión pública y privada en investigación etc. revelan como la IA es casi una cuestión estratégica para la política industrial de muchos países. La industria de la IA es de miles de millones de dólares y esto no es una exageración y si un país se queda atrás en la carrera por la digitalización puede ver afectado su desarrollo y la prosperidad de sus ciudadanos.

La IA se aplica en tu smartphone para reconocer el habla, en plataformas digitales como Facebook para reconocer cosas en fotos o en la traducción automatizada de Google. Mucha gente ha invertido miles de millones para que ciertos servicios funcionen y se moneticen. Y funcionan y generan dividendos. Esta es quizá la principal razón por la que probablemente no habrá otro ‘AI winter’ y el camino de descubrimientos, desarrollos y aplicaciones de la IA será continuo, constante, aunque no tiene porqué ser de éxitos inmediatos.

Se puede concebir la IA como la ciencia e ingeniería que trata de entender y estudiar la inteligencia biológica para poder recrearla artificialmente en máquinas. Se podría decir que la IA tiene como objetivo principal hacer que las máquinas realicen tareas cognitivas tales como toma de decisiones, predicciones, clasificaciones o síntesis a un nivel de precisión mayor que el humano. Desde su nacimiento como disciplina a mediados de la década de los 50 del siglo XX, aunque por supuesto su historia profunda se remonta muchos siglos atrás, la IA ha querido crear sistemas o dispositivos autónomos. De acuerdo con la IEEE (acrónimo en inglés para Instituto de Ingeniería Eléctrica y Electrónica) un sistema autónomo se define, en términos de ingeniería, como «un sistema que realiza, parcial o completamente, una función que fue previamente llevada a cabo, parcial o completamente, por un operador humano». El contexto del control automático de ciertas funciones o tareas no solo es fabril o industrial con sus claras repercusiones en la eliminación de puestos de trabajo (desempleo tecnológico), también es militar. No es algo nuevo que a lo largo de la historia los militares hayan intentado crear armamento autónomo. De hecho, los vínculos de la cibernética, robótica y actualmente la IA con las fuerzas armadas son muy estrechos dado que estas tecnologías pueden revolucionar la seguridad nacional, estrategia y capacidad militar de los países.

El potencial uso de la IA en múltiples áreas de nuestra vida, economía y sociedad en general, tanto en forma de productos o servicios comercializables como también armamento autónomo y sistemas de monitorización; presenta claros desafíos prácticos y éticos. Aunque hay aspectos morales y éticos en el uso de la energía, la electricidad ni los motores de combustión, plantean grandes problemas morales. Esto no sucede, por ejemplo, con la aplicación y uso de Internet o la IA.

La IA puede ser beneficiosa para la economía y sociedad en general, pero también contrae importantes riesgos asociados a su implementación. La ética de la IA (un área de estudio incipiente dentro de la filosofía y en particular la ética aplicada) se centra en crear marcos, principios y guías para la aplicación ética de la IA en la sociedad (similar a la bioética que trata de desarrollar marcos éticos que sirven de guía para la práctica biomédica). Hasta ahora la ética de la IA ha favorecido la reflexión sobre los principios que deben guiar el uso ético de la IA para promover el bien común, evitar causar daño a nadie y que se ajuste a los DD.HH. Varias listas de principios han sido elaborados por compañías privadas (principios éticos de Google), grupos profesionales (ACM US Public Policy Council 2017), grupos de interés (Asilomar AI principles, Future of Life Institute 2017€) etc. También se ha dedicado esfuerzos a reflexionar sobre el diseño ético de la IA y alineación de la IA con valores humanos y en especial que los algoritmos reflejen valores como la equidad, transparencia y que no produzcan resultados sesgados.

Además de reflexionar acerca de principios de alto nivel que sirvan de guía para implementar éticamente la IA en sociedad, creo que los profesionales de la ética de la IA y todos en general debemos hacer un esfuerzo por entender cómo se aplica realmente la IA en la sociedad y establecer prioridades para una investigación e innovación responsable. La IA puede ser muy buena para la sociedad, pero también entraña riesgos. La ética de la IA y otras herramientas metodológicas de la filosofía pueden identificar cuáles son estos riesgos y hacer todo lo posible para mitigarlos. Pero todos debemos saber cuáles son los riesgos reales. Escenarios utópicos de solucionismo tecnológico, robots tipo Terminator que sometan a la humanidad o superinteligencias, no son ese tipo de riesgos.

 

Anibal Astobiza

Aníbal M. Astobiza es licenciado en Filosofía por la Universidad de Deusto. Tiene un máster/D.E.A. (Diploma de Estudios Avanzados) en Psicología Social por la Universidad del País Vasco y es doctor en Ciencias Cognitivas y Humanidades (Universidad del País Vasco). Investiga en la intersección de las ciencias cognitivas, biológicas, sociales y éticas aplicadas. Ha publicado sobre estos y otros temas en Nature Machine Intelligence, Bioethics, Arbor, History and Philosophy of the Life Sciences, The American Journal of Bioethics, y otras revistas. Forma parte de diversos proyectos de investigación nacionales e internacionales y es miembro fundador de LI²FE (Laboratorio de Investigación e Intervención Filosófica y Ética).

Más publicaciones y noticias

Comunidad

Artículo de opinión de Mikel Mancisidor @MMancisidor1970  el 15 de diciembre de 2024 en Deia (enlace) Comunidad El martes, el lehendakari

Leer más »

Redes y juventud

Artículo de opinión de Mikel Mancisidor @MMancisidor1970  el 8 de diciembre de 2024 en Deia (enlace) Redes y juventud Esta semana

Leer más »
Ir al contenido