Neuroderechos: Derechos humanos para las neurotecnologías

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on whatsapp
WhatsApp
Share on email
Email

Neuroderechos: Derechos humanos para las neurotecnologías

Txetxu Ausín, Ricardo Morte y Aníbal Monasterio Astobiza (1)

Diario La Ley, Nº 43, Sección Ciberderecho, 8 de Octubre de 2020, Wolters Kluwer

https://diariolaley.laleynext.es/Content/Documento.aspx?params=H4sIAAAAAAAEAMtMSbF1CTEAAmNDc0MDE7Wy1KLizPw8WyMDIwNDAwMLtbz8lNQQF2fb0ryU1LTMvNQUkJLMtEqX_OSQyoJU27TEnOJUtdSk_PxsFJPiYSYAAHCybs5jAAAAWKE

Resumen

Este estudio analiza la neurotecnología como herramienta o técnica capaz de manipular, registrar, medir y obtener información del cerebro. Las nuevas neurotecnologías abren la puerta a peligros de manipulación e intervención directa sobre nuestro cerebro y nuestro sistema nervioso, amenazando nuestra integridad mental y, con ello, el último reducto de nuestra identidad y nuestra intimidad: la conciencia. Estas nuevas amenazas recomiendan una actualización de los derechos humanos entendidos así desde una perspectiva evolutiva y adaptativa a la nueva realidad tecnocientífica. Así, con el fin de proteger los estados mentales de posibles intromisiones y manipulaciones, se habla de unos nuevos derechos humanos, los neuroderechos, como el derecho a libertad cognitiva, el derecho a la privacidad mental, el derecho a la integridad mental, el derecho a la continuidad psicológica, el derecho a la identidad personal, el derecho al libre albedrío, el derecho a la privacidad mental, el derecho al acceso equitativo a la mejora cerebral o el derecho a la protección contra sesgos.

 

I. Introducción. Qué son las neurotecnologías

Recientes desarrollos en las ciencias del cerebro permiten —como nunca antes en la historia— medir, registrar, alterar y/o manipular la actividad del cerebro (Hong y Lieber 2019). Esto se conoce de manera general como «neuromodulación»: la alteración de la actividad nerviosa por medio de la introducción de estímulos. Avances similares en ingeniería de sistemas y microcircuitos ha visto nacer a la neurotecnología. La neurotecnología es la confluencia entre la Inteligencia Artificial, ciencias de la computación y neurociencia y constituye un ejemplo claro de tecnociencia convergente de alto potencial innovador y disruptivo (Echeverría 2017). La llamada «revolución 4.0» se concreta en la convergencia de tecnologías digitales, físicas y biológicas que evolucionan a gran velocidad. Son las llamadas NBIC: nanotecnologías, biotecnologías, tecnologías de la información y ciencias cognitivas (IA, ciencia de datos, robótica, BCI, biología sintética, nanotecnología).

Por neurotecnología se puede entender cualquier herramienta o técnica capaz de manipular, registrar, medir y obtener información del cerebro. La información obtenida puede permitir dar soluciones en contextos clínicos o simplemente satisfacer el deseo de curiosidad de la ciencia básica. Por ejemplo, algoritmos de Inteligencia Artificial aplicados en el campo de la neurociencia clínica pueden predecir y/o diagnosticar patologías neuropsiquiátricas. Modelos de aprendizaje máquina se han entrenado de manera exitosa para detectar biomarcadores tempranos de la enfermedad de Alzheimer y otras enfermedades mentales a partir de imágenes de resonancia magnética funcional (Ding et al. 2018).

El armamentarium de la neurotecnología es bastante amplio. Existen neurotecnologías que permiten la manipulación de la actividad del cerebro con precisión celular. La optogenética, como bien indica su nombre, es una técnica que combina la manipulación genética con la óptica para controlar células. Cambiando la información genética de las células nerviosas puedes conseguir que estas produzcan ciertas proteínas, las opsinas, que responden a la luz. Así se puede activar o desactivar ciertas partes del cerebro de animales vivos en acción.

Otros ejemplos de neurotecnología son los dispositivos para la estimulación cerebral profunda (ECP) que son utilizados para el tratamiento de múltiples enfermedades o las interfaces cerebro-ordenador (ICO) que registran la actividad del cerebro y a partir de sistemas computerizados trasladan esta información para controlar prótesis o sistemas robóticos periféricos (Levedeb y Nicolelis 2017).

Otros tipos de neurotecnología son las distintas técnicas de neuroimagen funcional y estructural —desde la resonancia magenética funcional (Rmf), tomografía por emisión de positrones (TEP), hasta electroencefalografía (EEG)— que permiten con distintos grados de resolución espacial y temporal medir y visualizar la actividad del cerebro. La estimulación magnética transcraneal (EMT), la estimulación de corriente directa transcraneal (ECDT) o el neurofeedback son otros tipos de (neuro)tecnología neuromoduladora con marcados propósitos terapéuticos.

No podemos hacer un repaso exhaustivo de todos los tipos de neurotecnologías existentes en la actualidad, pero a medida que el cerebro se comunique con las computadoras y las computadoras con el cerebro; las posibilidades neurotecnológicas serán inmensas. Una de estas posibilidades que casi suena a ciencia ficción es «leer la mente». El laboratorio de Jack Gallant tiene entre una de sus principales líneas de investigación estudiar cómo el cerebro codifica la información que recibe de los sentidos. Con la irrupción de las distintas técnicas de neuroimagen los investigadores han podido determinar qué ve una persona simplemente con mirar a las distintas áreas del cerebro que se activan mientras dicha persona está viendo algo.

Gallant y colaboradores (Nishimoto et al. 2011; Huth et al. 2016), aplicando distintos modelos de aprendizaje máquina, han podido determinar con precisión exacta qué objeto está viendo una persona simplemente con el análisis de su actividad cerebral. Esto es un logro espectacular porque por primera vez una máquina es capaz de convertir en imagen los patrones de actividad cerebral,

La potencialidad de estos hallazgos es enorme. Personas con desordenes de consciencia como el síndrome del enclaustramiento, que tienen paralizado todo el cuerpo, podrían comunicarse de nuevo con sus familiares y seres queridos. Aún más, nuestra comunicación con dispositivos digitales y el entorno podría ser directa. Imaginemos que en lugar de emitir un comando de voz para pedir algo a tu asistente virtual, Siri o Alexa, se pueda directamente comunicar con ellos sin mediar palabra. Imagine controlar objetos cotidianos como sus electrodomésticos, móvil, ordenador, coche etc. simplemente con el pensamiento.

Del mismo modo, imaginemos una comunicación bidireccional, es decir, que no solo sea posible comunicarse con dispositivos periféricos a través de la actividad del cerebro (pensamiento), sino que cierta información pueda ser introducida en el cerebro. En lugar de «leer la mente», que se pueda «escribir la mente». A medida que mejoremos los métodos de medición de la actividad del cerebro sería posible «leer» la mente de ese animal o persona cuando se comporta y de la misma forma que podremos «leer» el código neuronal, quizá se pueda aprender a «escribirlo».

Esto puede llevar a escenarios donde sea posible insertar ciertos tipos de pensamientos en el cerebro de un individuo. Rafael Yuste, neurocientífico español, y colaboradores están dando los primeros pasos hacia la posibilidad de «leer» y «escribir» la mente (Dupre y Yuste 2017).

Este ámbito de las neurotecnologías remite a la llamada «Internet de los Cuerpos» (IoB), con un número sin precedentes de dispositivos y sensores conectados que se fijan o incluso se implantan e ingieren en el cuerpo humano. Esto ha convertido al cuerpo humano en una plataforma tecnológica. La IoB genera enormes cantidades de datos biométricos y de comportamiento humano. Esto, a su vez, está impulsando la transformación de la investigación sanitaria y la industria, así como otros aspectos de la vida social, como la adopción de la IoB en el ámbito laboral o la provisión de nuevas opciones de entretenimiento, todo ello con notables innovaciones basadas en datos. Sin embargo, la IoB igualmente plantea nuevos desafíos para la gestión de los datos que no sólo se refieren a la privacidad y la autonomía individuales, sino también a nuevos riesgos de discriminación y sesgos en el empleo, la educación, las finanzas, el acceso al seguro médico y otras esferas importantes para la distribución de los recursos sociales.

Internet of Bodies technologies (Xiao L. et al. 2020)

Por lo general, las tecnologías de la IoB incluyen dispositivos médicos, una variedad de dispositivos de seguimiento del estilo de vida y la forma física, otros dispositivos de consumo inteligentes que permanecen en la proximidad del cuerpo humano y una gama cada vez más amplia de dispositivos adheridos o incorporados al cuerpo que se despliegan en escenarios empresariales, educativos y recreativos. Cabe señalar que las tecnologías de IoB son en su mayoría «dispositivos personales», en el sentido de que los artefactos siempre desarrollan una relación relativamente estable con el cuerpo individual del usuario durante un período de contacto regular y prolongado. Pero también se han desarrollado tecnologías biométricas que se instalan en espacios públicos y privados, como los sistemas de reconocimiento facial, los sensores de huellas dactilares y los escáneres de retina, que se centran en la recogida y el procesamiento de los datos de una gran población o grupo, en lugar de individuos particulares.

Como toda nueva tecnología, las neurotecnologías también entrañan riesgos y deben ser examinadas desde la reflexión ética y la regulación jurídica para que no conlleven un impacto negativo en los individuos y la sociedad en general.

 

II. Desafíos y riesgos de las intervenciones neurotecnológicas

Como podrá imaginar el lector, las neurotecnologías plantean una heterogeneidad de cuestiones y problemáticas éticas. En función de qué tipo de neurotecnología se trate, las implicaciones éticas varían, por lo que hay una amplia casuística. La literatura de investigación en ética ha señalado cuestiones y problemáticas en torno a la autonomía, identidad personal, efectos psico-sociales, uso-dual de la tecnología, seguridad, responsabilidad, privacidad y acceso no consentido a datos cerebrales (Monasterio Astobiza et al. 2019).

Por todo ello, el posible uso de la neurotecnología en seres humanos debe estar guiado por los principios éticos más robustos y especialmente regulado como veremos en la sección tercera. A medida que obtengamos un mayor conocimiento del funcionamiento del cerebro y desarrollemos neurotecnologías más poderosas, la posibilidad de alterar los estados mentales y la conducta de las personas será mayor. Y esto supone importantes desafíos y riesgos.

Según vayamos desarrollando nuevas y mejores neurotecnologías el cerebro —hasta ahora el último bastión de nuestra privacidad y nuestro espacio más íntimo y personal— dejará de estar fuera del alance de la vigilancia y el control. Con la progresiva ubicuidad de las neurotecnologías será necesaria una investigación e innovación responsable y una evaluación ética del posible impacto de dichas neurotecnologías en los derechos humanos.

Dos son los ejes principales de riesgo en el uso de neurotecnologías:

  • a) el uso de la Inteligencia Artificial en el procesamiento de los datos cerebrales;
  • b) la clara proximidad de la tecnología con nuestro cuerpo (invasividad) —ya hemos mencionado la «Internet de los Cuerpos»—.

Pero antes de hablar un poco de estos dos grandes ejes, quizá sea necesario hablar un poco de lo que se entiende por riesgo. El Diccionario de la Lengua Española define «riesgo» en su primera acepción como contingencia o proximidad de un daño. Una definición más normativa de riesgo es «el efecto de la incertidumbre sobre los objetivos» (ISO 2018). Una definición más técnica es la función de la probabilidad de un acontecimiento adverso y el impacto de las consecuencias (Spiegelhalter 2017, p. 52).

Siempre que se habla de riesgo es necesario hablar de incertidumbre, aquello que desconocemos. Mientras que el riesgo se puede formalizar matemáticamente, la incertidumbre es ignorancia, desconocimiento.

Dicho esto, si tenemos en cuenta los dos ejes principales de riesgo en el uso de las neurotecnologías y en primer lugar el eje concerniente al uso de técnicas de Inteligencia Artificial para la obtención, almacenamiento y procesamiento de las señales fisiológicas de nuestros cerebros: ¿Cómo se puede garantizar que se tratan nuestros datos cerebrales con las máximas garantías éticas y jurídicas?

El uso de las neurotecnologías por investigadores, pero también por médicos en contextos clínicos, sumado a la más que probable comercialización directa de las neurotecnologías para sectores como el entretenimiento etc. da lugar a lo que se conoce como «Big Brain Data» (BBB). El BBB es de especial preocupación porque puede poner en peligro los datos sobre el cerebro de miles de personas. A los problemas propios del manejo del «Big Data» se une el hecho de que se trate de datos cerebrales, especialmente íntimos y personales.

Si se comercializan las neurotecnologías para un uso individual o si se regulan mínimamente pudiendo dar lugar a un consumo personalizado (DIY), pueden poner en riesgo los datos cerebrales de millones de personas y caer en manos de actores que hagan un uso malicioso para el «control mental». La creciente «datificación» y digitalización de la realidad, incluido nuestro organismo, hace que las compañías tecnológicas con el suficiente know-how y experticia puedan tener una ventaja competitiva y un poder jamás visto. Aun reconociendo los enormes beneficios del aprendizaje-máquina y el BBD en la investigación clínica, no es menos cierto el cúmulo de amenzas que entrañan.

Por ejemplo, si las neurotecnologías se comercializan llegando a establecer interacciones con sistemas de entretenimiento (consolas de videojuego), teléfonos móviles inteligentes o informática personal, los datos cerebrales pueden acabar en manos de compañías privadas que pueden sacar partido al dejar vulnerables a los individuos. Se pueden dar situaciones de robo y/o suplantación de identidad, descubrimiento de información sensible de patologías, manipulación cognitiva, etc.

Puede parecer ciencia ficción, pero con la progresiva implantación de las neurotecnologías en múltiples esferas de nuestra vida más allá de contextos estrictamente clínicos, surgirán nuevos tipos de actos ilícitos: los neurocrímenes.

Cuando un individuo use una neurotecnología como las interfaces cerebro-ordenador es posible el riesgo de brainhacking o brainjacking. Tanto el brainhacking como el brainjacking suponen una brecha de seguridad en el software de control de la neurotecnología. El brainhacking implica interrumpir el correcto funcionamiento del algoritmo detrás de las operaciones de una neurotecnología, como por ejemplo las interfaces cerebro-ordenador. El brainjacking supone el control remoto de la neurotecnología pudiendo repercutir en el control de un dispositivo tecnológico periférico como una silla de ruedas, implante cerebral, medicamento digital, etc.

Podemos imaginar escenarios donde se produzca un daño por la acción de un dispositivo tecnológico y que éste no haya sido controlado por el usuario de la interfaz cerebro-maquina, por el cerebro del usuario en definitiva, sino por alguien que ha atacado y manipulado el algoritmo que, en última instancia, controlaba el dispositivo tecnológico. Un agente malicioso puede tomar control de la neurotecnología, en este caso un interfaz cerebro-ordenador y de su prótesis, y causar daño al usuario o a terceras personas. Por consiguiente, velar por la privacidad e integridad de los datos cerebrales es crucial.

El otro gran eje de riesgos de las neurotecnologías es la invasividad. Las neurotecnologías están en contacto directo con nuestro cuerpo, en concreto con un órgano esencial para nuestra identidad personal: el cerebro y el sistema nervioso en general. Muchas neurotecnologías requieren una interfaz directa o en contacto muy próximo con nuestro cerebro y esto supone grandes riesgos. Por ejemplo, las interfaces cerebro-ordenador más fiables son las que permiten un implante cerebral, pero esto supone llevar a cabo una intervención quirúrgica que conlleva peligros de infección o toxicidad para las células nerviosas de los electrodos.

 

III. Neuroderechos: consideraciones sobre la privacidad de los datos cerebrales

Este nuevo ecosistema neurotecnológico tiene aplicaciones extensivas y el potencial de cambiar nuestra vida, derechos y libertades fundamentales. Por ello se trata de una tecnología especialmente disruptiva. Así, este contexto se denomina «ciencia post-normal» (Funtowicz y Ravetz 2000), una ciencia caracterizada por la incertidumbre sobre los hechos, los valores en disputa, los enormes desafíos (riesgos sistémicos) y las decisiones urgentes.

Hemos utilizado indistintamente las expresiones peligros y amenazas para referirnos a estos nuevos riesgos ligados a las tecnologías disruptivas que escapan a una determinación probabilística y que, vinculados a la acción humana, pueden adquirir un carácter catastrófico, transformando radicalmente el mundo y el sentido mismo de lo humano.

Tradicionalmente se considera que los derechos humanos son derechos subjetivos en tanto que posiciones o estatus normativos que los individuos poseemos en nuestras relaciones con los demás. Parece obvio que una condición indispensable para desarrollar nuestra vida es la agencia moral y la libertad de conciencia, como reza el artículo 18 de la Declaración Universal de Derechos Humanos de 1948 (LA LEY 22/1948): «Toda persona tiene derecho a la libertad de pensamiento, de conciencia y de religión…». Asimismo, el artículo 12 de la misma Declaración afirma que «Nadie será objeto de injerencias arbitrarias en su vida privada…».

Sin embargo, las nuevas neurotecnologías abren la puerta a peligros de manipulación e intervención directa sobre nuestro cerebro y nuestro sistema nervioso, amenazando nuestra integridad mental y, con ello, el último reducto de nuestra identidad y nuestra intimidad: la conciencia.

Estas nuevas amenazas recomiendan una actualización de los derechos humanos entendidos así desde una perspectiva evolutiva y adaptativa a la nueva realidad tecnocientífica.

Marcello Ienca y Roberto Andorno (2017) han defendido por ello la definición de unos nuevos derechos humanos, los neuroderechos, a fin de proteger los estados mentales de posibles intromisiones y manipulaciones:

  • — Derecho a libertad cognitiva:Se refiere a la «autodeterminación mental» y sería, en cierto modo, una extensión del mencionado derecho humano a la libertad de pensamiento y de conciencia. Incluye dos conceptos estrechamente relacionados: El derecho de los individuos a usar las neurotecnologías emergentes; y la protección de los individuos contra el uso coercitivo de estas tecnologías y la posibilidad de que la tecnología pueda ser utilizada sin su consentimiento.Bublitz (2013) lo resume de la siguiente manera: la libertad cognitiva es el principio que garantiza «el derecho a alterar los estados mentales de uno con la ayuda de las herramientas neurotecnológicas así como para negarse a hacerlo». El segundo aspecto de la libertad cognitiva está relacionado con una reconceptualización de algunos derechos ya existentes y a la creación de nuevos derechos fundamentales:
  • — Derecho a la privacidad mental:Si consideramos los problemas que se plantean para alcanzar una protección adecuada del derecho a la intimidad, parece evidente que es necesario adaptar las normas para lograr el mismo tipo de protección de la privacidad mental. Esta protección debería cubrir cualquier tipo de información obtenida del cerebro por medio de las neurotecnologías y distribuida por medios digitales. Significa proteger a las personas frente al uso ilegítimo de su información cerebral y evitar posibles filtraciones de estos datos.
  • — El derecho a la integridad mental:Las intrusiones o acciones en el cerebro de una persona pueden crear no sólo una violación de su privacidad sino también un cambio perjudicial para su estatus neuronal. La presencia de daño es una condición necesaria para que una violación de la integridad mental de la persona haya tenido lugar.
  • — Derecho a la continuidad psicológica:Además de la privacidad mental y la integridad mental, la percepción de un individuo de su propia identidad también puede verse afectada por un uso incorrecto de las neurotecnologías. Estas tecnologías pueden ser utilizadas para monitorear las señales del cerebro así como para estimular o modular las funciones cerebrales. La estimulación puede, como consecuencia, crear cambios en los estados mentales críticos para la personalidad. Específicamente, se ha observado que la estimulación puede tener un impacto en la continuidad psicológica, es decir, en el requisito esencial para que la identidad personal se perciba como un continuo y «como la misma persona», a lo largo del tiempo (Klaming y Haselager 2013). Este derecho implica la protección de la identidad personal y la continuidad del comportamiento personal frente a modificaciones no consensuadas por terceros.

En una línea similar, el grupo impulsado por el neurocientífico Rafael Yuste, director del proyecto BRAIN, ha formulado una propuesta de neuroderechos humanos (https://nri.ntc.columbia.edu/content/spanish-webpage):

  • — Derecho a la identidad personal:Deben desarrollarse límites para prohibir que la tecnología altere el concepto de uno mismo. Al conectar el cerebro de individuos a computadoras, la neurotecnología podría borrar la línea entre la conciencia de una persona y las entradas tecnológicas externas.
  • — Derecho al libre albedrío:Las personas deben poder tomar y tener control sobre sus propias decisiones, sin la manipulación de neurotecnologías externas desconocidas.
  • — Derecho a la privacidad mental:Todos los datos obtenidos tras medir la actividad neuronal («NeuroDatos») deben mantenerse privados. Además, la venta, la transferencia comercial y el uso de datos neuronales deben estar estrictamente regulados. Sería un caso similar a los datos de salud, a los que se otorga una especial protección.
  • — Derecho al acceso equitativo a la mejora cerebral:Deben establecerse pautas que regulen el desarrollo y las aplicaciones de las neurotecnologías de mejora mental a nivel internacional y nacional. Estas directrices deberán basarse en el principio de justicia y garantizar la igualdad de acceso a todos los ciudadanos.
  • — Derecho a la protección contra sesgos:Las contramedidas para combatir sesgos deberán ser establecidas de manera estándar en el aprendizaje automático.

Ambas propuestas coinciden en lo básico y pueden resumirse en dos mandatos: Se ha de preservar la integridad mental de intervenciones no consentidas, como reducto último de la identidad personal y de la libertad. Y se debe proteger dicha libertad frente un uso coercitivo de las neurotecnologías que puede producir daño psicofísico, discriminación e injusticia.

 

IV. Alcance y limitaciones. Prospectiva

Por el momento, la propuesta de estos nuevos neuroderechos humanos abre un debate absolutamente necesario sobre el creciente papel de las neurotecnologías en nuestra sociedad y su enorme potencial disruptivo, hasta el punto de poder transformar nuestro propio sentido del «yo». Parece prudente establecer salvaguardas básicas y universales, en términos de derechos humanos, que establezcan un marco infranqueable para estas tecnologías y que puedan ser incorporadas a las legislaciones internacionales y nacionales en materia de derechos fundamentales, a fin de establecer garantías para las mismas.

Parece claro que el camino adecuado para poder diseñar e implementar las salvaguardas antes mencionadas pasa por aplicar los criterios de Privacidad por Diseño y por Defecto, y lo mismo cabe mencionar respecto a la Ética. Para avanzar en ese camino un instrumento adecuado sería la utilización de evaluaciones de impacto en fases tempranas del diseño de cualquier neurotecnología. Aunque no parece adecuado extenderse al respecto, cabe mencionar la evaluación del impacto sobre la Protección de Datos introducida en el artículo 35 del Reglamento General de Protección de Datos (LA LEY 6637/2016) (RGPD: https://gdpr.algolia.com/es/gdpr-article-35) o la recientemente publicada propuesta para un modelo de evaluación del impacto ético en el ámbito de la salud (Morte 2020) que propone los siguientes principios: explicabilidad, autonomía, beneficencia, no maleficiencia, justicia, sostenibilidad, precaución, privacidad, democracia, controlabilidad y auditabilidad.

 

V. Referencias

Bublitz JC. (2013). «My Mind Is Mine!? Cognitive Liberty as a Legal Concept». In: Hildt E., Franke A. (eds) Cognitive Enhancement. Trends in Augmentation of Human Performance, vol 1. Springer, Dordrecht. https://doi.org/10.1007/978-94-007-6253-4_19

Ding Y. (2018). «A Deep Learning Model to Predict a Diagnosis of Alzheimer Disease by Using 18F-FDG PET of the Brain». Radiology, 290, 2. https://doi.org/10.1148/radiol.2018180958

Dupre C. y Yuste R. (2017). «Non-overlapping Neural Networks in Hydra vulgaris». Current Biology. 27, 8, 1085-1097

Echeverría, J. (2017). El arte de innovar. Naturaleza, lenguajes, sociedades. Madrid: Plaza y Valdés.

Funtowicz, S.O. y Ravetz, J.R. (2000). La ciencia postnormal: ciencia con la gente. Barcelona: Icaria.

Hong, G. y Lieber, C.M. (2019). «Novel electrode technologies for neural recordings». Nat Rev Neurosci 20, 330-345

Ienca, Marcello & Andorno, Roberto (2017) «Towards new human rights in the age of neuroscience and neurotechnology», Life Sciences, Society and Policy, 13: 5.

Huth A. (2016). «Decoding the semantic content of natural movies from human brain activity». Front. Syst. Neurosci.https://doi.org/10.3389/fnsys.2016.00081

Klaming, L., Haselager, P. (2013). «Did My Brain Implant Make Me Do It? Questions Raised by DBS Regarding Psychological Continuity, Responsibility for Action and Mental Competence». Neuroethics 6, 527-539. https://doi.org/10.1007/s12152-010-9093-1

Levedeb M. y Nicolelis M. (2017). «Brain-machine interfaces: from basics science to neuroprosthetic devices, and neurorehabilitation». Physiol. Rev. 97: 767-837

Monasterio Astobiza A. et al. (2019). «Traducir el pensamiento en acción: Interfaces cerebro-máquina y el problema ético de la agencia». Revista de Ética y Bioderecho, 46, 29-46

Morte Ferrer, R (2020). «Reflexiones sobre las evaluaciones de impacto. Una propuesta para un modelo de Evaluación del Impacto Ético en el ámbito de la salud». Dilemata Núm. 32: Digitalización y salud, 71-82: https://www.dilemata.net/revista/index.php/dilemata/article/view/412000351

Nishimoto S. et al. (2011). «Reconstructing visual experiences from brain activity evoked by natural movies». Curr Biol. 21(19): 1641-1646.

Spiegelhalter D. (2017), «Risk and uncertainty communication». Annual Review of Statistics and Its Application, 4: 31-60.

Xiao L. et al. (2020). Shaping the Future of the Internet of Bodies: New challenges of technology governance. Briefing paper. World Economic Forum. July 2020: http://www3.weforum.org/docs/WEF_IoB_briefing_paper_2020.pdf [recuperado el 07-10-2020].

 

(1)
Txetxu Ausín es Científico Titular del IFS-CSIC, Presidente de la Red Española de Filosofía y Director del CSIC~Applied Ethics Group GEA. Miembro del proyecto de investigación EXTEND (Bidirectional Hyper-connected Neural Systems) Horizon 2020 y CSA-INBOTS (Inclusive Robotics for a Better Society).

Ricardo Morte es abogado y doctorando en Filosofía por la Universidad de Granada y miembro fundador de LI2FE (Laboratorio de Investigación e Intervención en Filosofía y Ética) y miembro del proyecto de investigación EXTEND (Bidirectional Hyper-connected Neural Systems) Horizon 2020 y CSA-INBOTS (Inclusive Robotics for a Better Society).

Aníbal Monasterio Astobiza es Doctor en Ciencias Cognitivas y Humanidades y Licenciado en Filosofía. Miembro fundador de LI2FE (Laboratorio de Investigación e Intervención en Filosofía y Ética) y miembro del proyecto de investigación EXTEND (Bidirectional Hyper-connected Neural Systems) Horizon 2020 y CSA-INBOTS (Inclusive Robotics for a Better Society).

Txetxu Ausín

Científico Titular en el Instituto de Filosofía del CSIC (Grupo de Ética Aplicada GEA). Doctor en Filosofía por la Universidad del País Vasco (premio extraordinario), es profesor invitado en varias universidades y colaborador en el Instituto de Gobernanza Democrática Globernance. Sus áreas de trabajo son la ética pública, la bioética, los derechos humanos y la filosofía de las tecnologías disruptivas. Editor y autor de publicaciones sobre estos temas, ha sido fundador de la revista electrónica de éticas aplicadas DILEMATA. En la actualidad forma parte de los equipos de investigación de BAKARZAIN: Soledad no deseada y cuidados, EXTEND: Bi-directional Hyper-connected Neural System, BIODAT: Datos en salud y Detección y eliminación de sesgos en algoritmos de triaje y localización para la COVID-19. Vocal independiente de la Comisión de Ética Pública del Gobierno Vasco y del Comité de Ética y Garantías de UNIBASQ, colabora también en la Red ESPACyOS (Ética Salubrista para la Acción, Cuidados y Observación Social).

Más publicaciones y noticias

Ir al contenido