En septiembre de 2024, California estableció discretamente un precedente. Sus legisladores aprobaron la enmienda SB 1223 a la Ley de Privacidad del Consumidor (CCPA), que clasifica los datos neurales como "información personal sensible". Por primera vez en la legislación estadounidense, señales derivadas del cerebro —como trazados de electroencefalografía (EEG), escaneos de resonancia magnética funcional (fMRI) o la actividad de interfaces cerebro-computadora (BCI)— se tratan como una categoría distinta a otras formas de biodatos. Aunque la medida pueda parecer técnica, anuncia una nueva expectativa social: si las empresas pretenden acceder al cerebro, deberán atenerse a estándares más estrictos de custodia, limitación de propósito y control por parte del usuario.
Este es un momento umbral para la neuroética. Nos invita a superar la especulación distópica sobre máquinas que leen la mente y centrarnos, en cambio, en lo que la neurotecnología puede hacer hoy, cómo ya se entrelaza con una economía de datos más amplia y qué valores deben moldear su futuro. El desafío no es solo minimizar el daño, sino tomar decisiones que amplíen el florecimiento humano en lugar de reducirnos a trabajadores más eficientes o consumidores más predecibles.
En el avance hacia una nueva generación de BCIs, es esencial hacerlo con los más altos estándares éticos. Existen tres dilemas éticos clave asociados a su despliegue: los riesgos del "neuroexcepcionalismo", hacer que los bucles cerrados sean cuestionables, y equilibrar la productividad con el florecimiento humano.
Los riesgos del neuroexcepcionalismo
Implantes cocleares, estimulación cerebral profunda y otras BCIs forman parte de la medicina desde los años ochenta. Impulsado por esos primeros éxitos, por un flujo constante de estudios de fMRI y una activa representación en las artes, el campo ha logrado vendernos una visión en la que las BCI podrían leer nuestros pensamientos y controlar nuestros cerebros, generando gran preocupación. Esto ha llevado al concepto de "neuroexcepcionalismo": la noción de que los datos cerebrales son una amenaza única, sin parangón con otra información personal.
La realidad es más sobria. El progreso en la investigación de BCI es incremental, limitado por la biología, la ingeniería y la validación clínica. En contraste, las verdaderas amenazas a la autonomía ya están insertas en ecosistemas digitales maduros. Monitores de frecuencia cardíaca, historiales de ubicación, rastros de clics y métricas de engagement pueden exponer y moldear el comportamiento con notable precisión y a escala global, hoy mismo. Esto fue evidente en la adquisición de Fitbit por Google. En 2020, la Comisión Europea aprobó el acuerdo solo bajo la condición de que Google aislara los datos de salud de Fitbit y no los usara para publicidad dirigida. Lo que restringió a Google no fue la ética, sino la ley antimonopolio. La implicación es alarmante: si tememos la manipulación biométrica, la variabilidad del ritmo cardíaco podría ser hoy un vector más práctico que una hipotética lectura de la mente basada en EEG.
Nada de esto significa que los datos neurales requieran menos protección. Al contrario: significa que debemos integrar lo aprendido en la era digital en la supervisión de estas tecnologías. La neurotecnología merece una gobernanza rigurosa, pero no puede regularse en un vacío. No deberíamos sobrestimar riesgos futuros especulativos mientras ignoramos los mecanismos de influencia ya operativos en todo el ecosistema digital.
El reciente anuncio de la inversión de Sam Altman en Merge Labs ilustra la tensión. Ante esto, expertos y opinadores advierten ahora contra los gigantes tecnológicos que usan terapia génica para atacar nuestro cerebro. Sin embargo, la verdadera asimetría de poder radica en cómo ya pueden monetizar las señales mundanas de la vida diaria. ¿Acaso parte de la información que los usuarios donan voluntariamente a OpenAI al usar ChatGPT como asistente/terapeuta/consultor califica como dato cerebral?
Hacer que los bucles cerrados sean cuestionables
Las BCIs de bucle cerrado son sistemas que leen actividad neural, la procesan y ofrecen una estimulación dirigida, logrando un control más efectivo. Un ejemplo son las neuroprótesis diseñadas para tratar la epilepsia prediciendo convulsiones y administrando estimulación eléctrica que previene su propagación. También suscitan preocupación: ¿podrían estos bucles moldear el comportamiento de manera encubierta?
Las plataformas de redes sociales monitorean los clics, adaptan algorítmicamente lo que viene después y optimizan sin fin para el engagement. El papel de Cambridge Analytica en elecciones no fue un riesgo teórico, sino la prueba de que ya existen bucles cerrados de retroalimentación conductual, impulsados no por electrodos sino por feeds de contenido.
La propaganda y la manipulación no son nada nuevo. La imprenta desencadenó una explosión de información y desinformación hace siglos. Desde entonces, la responsabilidad ha recaído en los líderes mediáticos y cívicos para garantizar que la población estuviera suficientemente educada para resistir la manipulación. Las redes sociales han demostrado en la última década cuán efectiva puede ser la influencia dirigida a escala masiva. A diferencia de los bucles de retroalimentación web, la neurotecnología podría eludir los filtros conscientes del usuario. No hay autoprotección, vas directo a la fuente. Es la diferencia entre la propaganda y apuntar con un arma a los pensamientos de alguien.
La pregunta, entonces, no es si los bucles cerrados existen en la corteza o en la pantalla de un smartphone, sino si esos bucles son transparentes, auditables y cuestionables. La neurotecnología no debe repetir los errores de las redes sociales. Debe diseñarse desde el principio con trazas de auditoría, límites de seguridad claros y rendición de cuentas. Las políticas de estimulación deben tratarse como críticas para la seguridad, sujetas al mismo tipo de pruebas y registros que rigen en la aviación o la farmacéutica.
Equilibrar productividad con florecimiento humano
Las BCIs podrían, en teoría, hacer que las personas escriban más rápido, aprendan con mayor rapidez o trabajen durante más tiempo. Sin embargo, esto solo extendería la rutina de las tecnologías de consumo actuales, que nos empujan a producir más para luego colapsar en la distracción.
Un horizonte más rico sería ampliar el acceso a lo que los filósofos alguna vez llamaron "la buena vida": creatividad, juego, profundidad estética, conexión social y asombro. Imaginen BCIs que intensifiquen la resonancia emocional de la música, hagan el arte colaborativo más inmersivo o la rehabilitación más motivadora, no como subproductos sino como objetivos centrales de diseño.
El proyecto Neudio de la Universidad de Newcastle apunta en esta dirección. Al sincronizar música con actividad neural, el objetivo no es curar la depresión ni aumentar la productividad, sino simplemente amplificar el impacto emocional de una canción. La mejora mediante BCI podría medirse mejor en piel de gallina por segundo, no en palabras por minuto.
¿Qué sigue? Elegir qué valorar
Si acertamos en la ética en esta fase temprana, antes de que la adopción supere a la reflexión, entonces la enmienda SB 1223 de California será recordada no como el fin de un debate, sino como el inicio de uno más imaginativo.
La pregunta central no es solo cómo minimizar riesgos. Es qué valorar. ¿Queremos tecnologías que traten nuestro cerebro como minas a extraer, o como jardines a cultivar? ¿Queremos conformidad y control, o florecimiento y diferencia? La creatividad humana siempre ha impulsado la tecnología hacia la diversidad, la subcultura y el juego. Incluso con algo tan poderoso como las BCIs, hay razones para creer que la variedad prevalecerá sobre la uniformidad.
A medida que avanzamos en este campo, invito a los líderes de opinión clave a contactarme para discutir el futuro de la ética en las interfaces cerebro-computadora.
Imagen: Getty Images, wigglestick
Cyril Eleftheriou es el líder de neurotecnología en Subsense, dirigiendo I+D en neurociencia visual, biología de interfaz e imagen de precisión para la interfaz cerebro-computadora no quirúrgica y basada en nanopartículas de la empresa. Anteriormente fue Científico Principal en Novartis, aportando más de 15 años de experiencia en el Reino Unido, Italia y EE. UU. en interfaz neuroelectrónica, imagen avanzada y regeneración retinal. Su investigación ha abarcado desde terapia génica y biológicos de nanopartículas hasta microscopía multifotónica y mapeo de circuitos neurales. En Subsense, Cyril aplica su experiencia multidisciplinaria para avanzar en la comunicación fluida entre mente y máquina y redefinir cómo los humanos interactúan con la tecnología mediante interfaces neurales no invasivas, seguras y escalables.
Esta publicación aparece a través del programa MedCity Influencers. Cualquier persona puede publicar su perspectiva sobre negocios e innovación en healthcare en MedCity News a través de MedCity Influencers.