¿Darías permiso a una multinacional para que te leyera el pensamiento?
Conforme se generaliza el desarrollo de tecnologías que pueden acceder a los datos cerebrales y manipularlos se plantean cuestiones sobre cómo permitir el acceso de terceros a nuestros pensamientos y emociones y si podemos impedirlo
Imagina a Lorenzo. Es un tipo cualquiera, de veintimuchos, al que le gusta jugar a videojuegos online, meditar y hacer deporte. Lo que lo diferencia del resto es que utiliza interfaces cerebro-máquina que monitorizan su actividad cerebral y que recopilan datos sobre él todo el tiempo, acerca de su estado y sus emociones. Estos microchips que Lorenzo tiene implantados en el cerebro también le ayudan en una labor mucho más importante que ganar partidas: rastrean información que indica que va a sufrir un episodio maniaco. Porque Lorenzo tiene un trastorno bipolar y utiliza la tecnología para manejar mejor sus crisis.
Este escenario, aunque parece ficción, está mucho más cerca de lo que pensamos. Pero antes de que el uso de los dispositivos cerebrales llegue a generalizarse, expertos de todo el mundo abogan por la necesidad de resolver cuestiones de privacidad como quién tendrá acceso a las ondas cerebrales que codifican nuestros pensamientos, qué margen de decisión tendrá el usuario sobre los datos que genera su cerebro y cómo pueden protegerse su voluntad e identidad cuando hay microchips leyendo y escribiendo sobre sus ondas cerebrales.
“Me imagino que, si estos dispositivos se usan de manera positiva, pueden recopilar información que indique que va a sufrir un episodio maniaco”, explica sobre el hipotético caso de Lorenzo Amanda Pustilnik, profesora de Derecho y Neurociencia en la Universidad de Maryland en el informe Neurociencia, más allá del cerebro de la Fundación Bankinter. “Esta información se podría usar para alertarle a él o las personas de su círculo a las que haya autorizado y que puedan adelantarse y ayudarle, o al menos intervenir a tiempo para mitigar los efectos del episodio”, explica Pustilnik. Quizá también pueda comunicarse directamente con los profesionales sanitarios que le tratan.
Pero también se puede usar esta información tan sensible de forma negativa. Si se le vende a un bróker de datos, por ejemplo, que después la pone a disposición de otras empresas como producto o servicio, puede que Lorenzo comience a ver anuncios para apostar en línea, comprar artículos de lujo o contratar productos financieros de alto riesgo: impulsos a los que será mucho más propenso durante un episodio maníaco y que podrían, de hecho, precipitar o agravar sus crisis. De esta forma, el mal uso de la información obtenida del cerebro puede tener consecuencias negativas relacionadas directamente con la salud mental de los usuarios, y no solo son una cuestión ética de falta de privacidad.
Por el momento, el modelo de protección de la privacidad que conocemos es que los usuarios den su consentimiento para utilizar sus datos, tal y como hacemos al descargar una aplicación en el móvil. Pero cuando hablamos de datos cerebrales este sistema no sirve. “Ahora mismo no tenemos modelos jurídicos buenos para abordar este asunto”, señala Pustilnik.
Más de la sección
Pero se está trabajando en ello. Hay algunas iniciativas internacionales que llevan años dando la voz de alarma y que ya describen la falta de privacidad de los datos cerebrales como un problema de derechos humanos. Es el caso del proyecto estadounidense BRAIN, que busca promover e impulsar el desarrollo de nuevas tecnologías para aumentar el conocimiento sobre el cerebro y encontrar cura para distintas enfermedades cerebrales.
Su máximo responsable, Rafael Yuste, es también promotor de la iniciativa Neuroderechos del Centro de Neurotecnología de la Universidad de Columbia. “Nos preocupa muchísimo la falta de privacidad de los neurodatos”, explica Yuste. Por eso, hace tres años se reunió con expertos de todo el mundo y establecieron los neuroderechos, que sientan las bases de cómo debe protegerse a los usuarios para que se respete su privacidad mental y personal y su libertad para tomar decisiones, entre otros.
¿Quién tiene el control sobre mí?
Además de afectar a la salud mental de los usuarios, la falta de una regulación adecuada podría hacer que la tecnología difumine la línea entre la conciencia de una persona y la influencia de la máquina. Los usuarios podrían llegar a dudar de quién tiene el control final sobre sus decisiones: llegará un punto en que no podamos saber si queremos algo de forma genuina o si es por influencia de las neurotecnologías.
“Nuestra opinión es que los datos cerebrales obtenidos del registro de las neuronas deben ser tratados legalmente como si fuesen un órgano del cuerpo, así que se aplicaría la misma legislación que regula los trasplantes de órganos”, explica Yuste. En Chile ya han hecho una enmienda a la Constitución para incluir los neuroderechos. Promover leyes para proteger la información cerebral es una de las primeras opciones que los expertos del proyecto BRAIN manejan para defender a los ciudadanos.
Otras soluciones técnicas podrían ayudar a resolver el problema yendo un paso más allá del consentimiento del usuario. “Hablamos del aprendizaje federado, es decir, que si tienes un iPhone que recoge tu actividad cerebral, los datos no salgan nunca de tu dispositivo, sino que se comparta solo lo que se ha aprendido de ellos”, propone Yuste.
También comenta la opción de tener una privacidad diferencial: que a cada dato que venga del cerebro le demos una etiqueta y le otorguemos un grado de privacidad concreto dependiendo de cómo de sensible sea. Del uno al diez: que estés vivo o no requiere una privacidad mínima, que vivas en un país determinado, un punto; cómo te sientes, diez puntos... “Esto permitiría a las compañías seguir ganando dinero sin que dañen los derechos humanos”, asegura Yuste. “Esperamos que podamos llegar a tiempo antes de que estos productos lleguen al mercado”.