Saltar al contenido

Neurorights

Los avances en neurociencias no sólo significan un mundo de oportunidades en el campo médico, psicológico y social, sino también un reto para la Bioética, las leyes, etc. Urge implementar los neurorights.

Neuroderechos Neurorights

Recientemente terminé de leer el libro «La vida secreta de la mente» de Mariano Sigman (@mariuchu).

Al leerlo me surgieron varias inquietudes desde el punto de vista bioético.

El autor plantea varios avances en el campo de la Medicina y la tecnología relacionados al estudio del cerebro y su funcionamiento, particularmente desde el punto de vista cognitivo.

Avances que a inicios del siglo pasado hubiesen sonado propios de la mente de Asimov o Verne.

La posibilidad de através de estudios funcionales poder comunicarnos, por ejemplo, con pacientes en estado vegetativo, incluso poder hacer proyecciones, gracias al conocimiento adquirido sobre lo que piensa o ve una persona.

Imaginé los alcances que esto podría tener para diferentes personas con enfermedades que les impiden ver, oir, moverse o comunicarse. Su aplicación directamente al poder hacer diagnósticos médicos en áreas no neurológicas en pacientes con quienes no podemos comunicarnos, etc.

Sobre todo la manera en que podría facilitárseles la vida no sólo a los enfermos, sino a la humanidad entera, peeeero…

Sí, todo tiene un pero. ¿Qué pasaría con la privacidad?

Pero eso no está muy lejos de suceder, de hecho hay cosas que ya pasan hoy, para ejemplo, todos los días @leogarciamx y el extinto @krlitoBrigante nos han mostrado, día a día, como basados en nuestras conversaciones y preferencias de navegación puede saberse mucho de nosotros.

Estaba absorto en las implicaciones bioéticas cuando escuché la entrevista que le hiciera Manuel Seara Valero (@searavalero), le hicera a Rafael Yuste (@yusterafa) quien ideara la Iniciativa «BRAIN». En dicha entrevista Yuste proponía los «neuroderechos» (neurorights).

Rafael Yuste. (Fuente: Twitter).

NEURORIGHTS

Ya en el 2017 Yuste et al publicaron en Nature un artículo sobre cuatro prioridades éticas en los estudios de inteligencia artificial (AI):

Four ethical priorities for neurotechnologies and AI

Estos cuatro son neurorights:

  • Privacidad y consentimiento
  • Agencia e identidad
  • Aumento
  • Parcialidad

PRIVACIDAD Y CONOCIMIENTO

Los ciudadanos deben tener la capacidad y el derecho de mantener la privacidad de sus datos neuronales. La capacidad de optar por no compartir debe ser la opción predeterminada y estar bien protegida.

Para limitar este problema, proponen que la venta, la transferencia comercial y el uso de datos neuronales estén estrictamente regulados, en forma análoga al sistema de donación de órganos.

Otra garantía es restringir el procesamiento centralizado de datos neuronales.

AGENCIA E IDENTIDAD

Las neurotecnologías podrían alterar claramente el sentido de identidad y agencia de las personas, y sacudir las suposiciones básicas sobre la naturaleza del yo y la responsabilidad personal, legal o moral.

Conforme las neurotecnologías se desarrollan y las corporaciones, los gobiernos, etc. comienzan a esforzarse por dotar a las personas con nuevas capacidades, la identidad individual (nuestra integridad física y mental)…

…y la agencia (nuestra capacidad de elegir nuestras acciones) deben protegerse como derechos humanos básicos.

Recomiendan agregar cláusulas que protejan tales derechos (‘neurorights’) a los tratados internacionales, como la Declaración Universal de los Derechos Humanos de 1948.

Sin embargo, esto podría no ser suficiente: las declaraciones y leyes internacionales son solo acuerdos entre estados, e incluso la Declaración Universal no es legalmente vinculante.

AUMENTO

Adoptar neurotecnologías como aquellas que permiten a las personas expandir radicalmente sus capacidades de resistencia o sensoriales o mentales, es probable que cambie las normas sociales, plantee problemas de acceso equitativo y genere nuevas formas de discriminación.

Instan a que se establezcan pautas tanto a nivel internacional como a nivel nacional para establecer límites a las neurotecnologías de aumento que pueden implementarse, y para definir los contextos en los que se pueden usar, como ocurre con la edición de genes en humanos .

En particular, recomiendan que el uso de la tecnología neuronal para fines militares esté estrictamente regulado.

PARCIALIDAD

Cuando las decisiones científicas o tecnológicas se basan en un conjunto limitado de conceptos y normas sistémicas, estructurales o sociales, la tecnología resultante puede privilegiar a ciertos grupos y dañar a otros.

Los pasos prácticos para contrarrestar el sesgo dentro de las tecnologías ya se discuten en la industria y el mundo académico. Dichas discusiones y debates públicos en curso son necesarios para dar forma a las definiciones de sesgos problemáticos y, en general, de normalidad.

Yuste propone, en la entrevista con Seara Valero, que neuroingenieros y neurotecnólogos se formen bajo un principio deontológico similar al «Juramento Hipocrático» para volver la neurotecnología en una disciplina humanista.

Para oír la entrevista completa pueden hacerlo en: A Hombros de Gigantes