En un discurso en el Foro Económico Mundial el año pasado, la profesora Nita Farahany argumentó que la tecnología de lectura de la mente no sólo es real sino que ya está en uso.
Habló de escenarios en los que la monitorización de métricas cerebrales podría mejorar la seguridad, como la prevención de accidentes causados por la fatiga del conductor. También reconoció el potencial "distópico" de esta tecnología, como la transmisión obligatoria de señales cerebrales en China.
A los conductores de trenes chinos, por ejemplo, se les exige usar cascos de monitoreo cerebral para controlar sus niveles de fatiga. Y esta tecnología de monitoreo de ondas cerebrales ya la utilizan empresas como Amazon y Walmart.
¿Ha llegado la tecnología de lectura de mentes o el Foro Económico Mundial está sembrando el miedo? El Informe Oro analiza el grado de avance de la investigación sobre tecnología de lectura de mentes.
No perdamos el contacto… Su Gobierno y las grandes tecnológicas están intentando activamente censurar la información reportada por The Expuesto Para satisfacer sus propias necesidades. Suscríbete a nuestros correos electrónicos ahora para asegurarte de recibir las últimas noticias sin censura. en tu bandeja de entrada…
¿Ha llegado la tecnología de lectura mental? ¿O el Foro Económico Mundial está infundiendo miedo?
Lo siguiente fue publicado originalmente por Informe del oro en septiembre 20 2024.
El año pasado, en Davos, la profesora Nita Farahany le dijo a una audiencia en el Foro Económico Mundial (“FEM”) que “no podemos decodificar el habla y tal vez nunca podamos decodificar los pensamientos completos del cerebro usando simples dispositivos portátiles”.
Este año, en California, un equipo de la UCSF (Universidad de California, San Francisco) está usando inteligencia artificial para decodificar palabras pensadas conscientemente y convertirlas en habla, utilizando “un dispositivo que traduce la actividad cerebral en palabras intencionadas”.
Próximo paso: Tecnología inalámbrica que interpreta las señales cerebrales que representan el pensamiento y las transmite… ¿a dónde?
Según Farahany, ese siguiente paso ya se ha dado. ¿Pero se ha dado? Se han presentado pocas pruebas que respalden sus afirmaciones y no se ha revelado ninguna base de datos que relacione señales cerebrales específicas con palabras específicas, lo que plantea la posibilidad de que el FEM esté sembrando el miedo, haciendo que los ciudadanos respetuosos de la ley se preocupen de si el gobierno conoce sus pensamientos.
Aquí presentamos más detalles sobre las afirmaciones de Farahany, dejando al lector determinar su confiabilidad.
El Gran Hermano está leyendo tu mente
Farahany es profesora de derecho y filosofía en la Universidad de Duke, y se centra en las implicaciones éticas, legales y sociales de las tecnologías emergentes. El título de su libro,La batalla por tu cerebro: defendiendo el derecho a pensar libremente en la era de la neurotecnología', prevé desafíos a la libertad de pensamiento en un futuro muy cercano.
En su discurso en Davos, admite abiertamente las ventajas y desventajas de la tecnología de lectura mental, pero insiste en que no quiere que se prohíba, ya que ve en ella un gran potencial. Su discurso fue presentado por Nicholas Thompson, director ejecutivo de El Atlántico, quien describió la tecnología en términos elogiosos: “Les hará ver y comprender un futuro maravilloso donde podremos usar ondas cerebrales para combatir el crimen, ser más productivos y encontrar el amor…”
El video de Farahany comienza con una animación de una oficina futurista donde los empleados usan auriculares que transmiten la información de sus ondas cerebrales al sistema informático de la oficina. La información es totalmente accesible para el jefe, quien recompensa a una empleada por sus "métricas cerebrales" con una bonificación por rendimiento.
Sin embargo, las cosas cambian rápidamente cuando las autoridades utilizan esas métricas cerebrales:
Una nube sombría se cierne sobre la oficina. Además de correos electrónicos, mensajes de texto y datos de ubicación GPS, el gobierno ha requerido los datos cerebrales de los empleados del último año. Tienen pruebas contundentes de que uno de sus compañeros de trabajo ha cometido un fraude electrónico masivo, y ahora buscan actividad cerebral sincronizada entre su compañero y las personas con las que ha estado trabajando.
Aunque sabes que eres inocente, en secreto has estado trabajando con él en una nueva empresa. Temblando, te quitas los auriculares.
¿Cómo podemos deslizar “Escape”?
La animación termina aquí y Farahany comienza su charla enfatizando que esta tecnología no solo ya existe, sino que ya se utiliza. Añade que muchas personas ya están preparadas para aceptarla como parte de la vida, dado que muchos usamos relojes Apple y otros dispositivos portátiles que monitorizan ciertos procesos internos.
Durante el debate Trump-Harris, algunos sospecharon que los pendientes que llevaba Harris eran, de hecho, transmisores, lo que la ayudaba con sus respuestas. Los transmisores de pendientes ya existen. También existen otros dispositivos portátiles como diademas, sombreros, auriculares e incluso lo que parecen tatuajes detrás de las orejas, todos los cuales no solo pueden transmitir, sino también decodificar señales cerebrales.
Farahany afirma que deslizar la mente para crear una interacción fluida con la tecnología forma parte de un futuro emocionante y prometedor. Pero también potencialmente aterrador. Todavía no podemos descifrar literalmente el pensamiento complejo, pero ya hay mucho que podemos descifrar.
Es por tu propia seguridad
Su primer ejemplo de la "promesa" inherente a las nuevas tecnologías es "un lugar de trabajo más seguro". Monitorear las métricas cerebrales de los camioneros, por ejemplo, podría prevenir accidentes como los que ocurren debido a la fatiga del conductor (lo que también se aplicaría a pilotos y conductores de trenes).
Utilizando un sencillo sombrero con sensores eléctricos incorporados que puntúan del 1 al 5 en nivel de alerta, el empresario obtiene información importante en tiempo real.
Cabe destacar que Farahany afirma que es el empleador quien accede a las métricas cerebrales, no el empleado. La sociedad debe estar protegida de los conductores de camiones imprudentes que conducen durante horas y horas y causan accidentes mortales, lo cual es un argumento no declarado para el uso de dicha tecnología.
No parece habérsele ocurrido que los conductores no suelen conducir durante horas y horas por diversión, sino porque su salario depende de que las mercancías lleguen a destino a tiempo, y que conducir durante x cantidad de horas seguidas puede ser la única forma de lograrlo, si sus jefes les imponen objetivos poco realistas.
Ayudará a los empleadores a ser aún más considerados con su personal
Farahany también describe otro escenario en el que el acceso abierto a las métricas cerebrales del personal podría crear un entorno más seguro para todos: en un almacén, donde los sensores cerebrales de los trabajadores revelan que se están agotando y los robots desplegados por sus comprensivos empleadores ajustan las condiciones para darles suficiente tiempo y descanso para seguir adelante.
Una vez más, no parece habérsele ocurrido que los empleadores podrían usar la misma información métrica del cerebro para eliminar a los empleados agotados y reemplazarlos con trabajadores más robustos.
Dicho esto, admite el potencial “distópico” de la monitorización cerebral, señalando que a los conductores de trenes en China ya se les exige usar sombreros especiales que transmiten sus señales cerebrales a sus empleadores, quienes pueden monitorear sus niveles de fatiga.
Esto puede ser algo que queramos adoptar como sociedad.
Si se hace bien, la neurotecnología es extraordinariamente prometedora. Si se hace mal, podría convertirse en la tecnología más opresiva que jamás hayamos introducido.
Reducirá el estrés en el trabajo
Farahany también cita ejemplos de tecnología de monitorización de ondas cerebrales en uso en Estados Unidos. Amazon ya ha estado experimentando con estos dispositivos, probándolos en empleados de almacén. También lo han hecho Tesco y Walmart, lo que ha provocado protestas de los empleados y ha socavado su moral, dado que el objetivo es detectar pérdidas de tiempo en el trabajo y descansos no programados.
Durante la "pandemia", añade, muchas empresas que adoptaron oficinas virtuales utilizaron algún tipo de monitorización para supervisar a sus empleados. Destaca a Microsoft por su estudio sobre empleados que utilizan Zoom para reuniones, el cual reveló que las reuniones virtuales son más estresantes que las presenciales, en parte debido a los diferentes fondos en las pantallas de los empleados.
Optimizar los fondos fue una medida sencilla y gratuita para reducir el estrés. Se supone que no fue la única medida que Microsoft implementó gracias al monitoreo de ondas cerebrales.
Y lo hará Hacer Eres más productivo
A continuación, mientras proyecta una imagen de auriculares de aspecto futurista en la pantalla, Farahany describe cómo,
…la forma más nueva de monitorear la atención es a través de un dispositivo como este: auriculares que se lanzarán a finales de este año [es decir, a fines de 2023] que pueden captar la actividad de las ondas cerebrales y determinar si una persona está prestando atención o si su mente está divagando…
Resulta que no solo se puede saber si alguien presta atención, sino que también se puede distinguir a qué se está fijando. Al combinar esto con otros tipos de vigilancia, la precisión es considerable.
También describe una nueva tecnología desarrollada por un laboratorio del MIT que “le produce a una persona un subidón, literalmente, cuando su mente empieza a divagar”.
Implantes cerebrales que otorgan el poder del habla
Todos estos avances respaldan la afirmación de Farahany de que “cada vez más de lo que hay en el cerebro se volverá transparente”. Las cosas avanzan tan rápido, añadió, que la legislación relacionada “no puede seguir el ritmo”. El año pasado, afirmó que “no podemos decodificar el habla” y, sin embargo, a estas alturas, eso ya está sucediendo, como se informó en un artículo en la red JAMA (la Revista de la Asociación Estadounidense de Medicamentos).
El artículo se basa en una entrevista con el Dr. Edward Chang, codirector del Centro de Ingeniería Neural y Prótesis de la UCSF. Chang y su equipo afirman haber logrado desarrollar una tecnología que permite a las personas con afasia (que han perdido la capacidad del habla, generalmente debido a un ictus) "hablar".
Nuestro objetivo inicial fue comprender los principios básicos mediante los cuales la actividad eléctrica neuronal controla los músculos del tracto vocal para generar los diferentes sonidos que emitimos al hablar. Me refiero a cómo los labios, la mandíbula y la lengua moldean la respiración para crear sonidos como consonantes, vocales e incluso la entonación de la voz al hablar.
…quedó muy, muy claro que esto tendría potenciales aplicaciones médicas para las personas que han perdido la capacidad de comunicarse debido a la parálisis.
El equipo de Chang ha utilizado una variedad de técnicas para decodificar las señales cerebrales, incluida una investigación realizada durante la cirugía cerebral:
Me especializo en neurocirugías, donde trabajamos con pacientes despiertos y mapeamos el lenguaje. Parte de mi laboratorio se encuentra en el quirófano, donde constantemente aprendemos y comprendemos cómo el cerebro genera palabras, comprobándolo y, lo más importante, protegiéndolo durante las cirugías, ya sea para eliminar la causa de las convulsiones o un tumor cerebral.
Eso es lo que llamamos mapeo cerebral, y es una parte fundamental de mi práctica clínica, que es sinérgica con nuestros objetivos más amplios.
El siguiente paso fue digitalizar el proceso de decodificación, utilizando electrodos colocados en el cerebro:
Una vez que descubrimos que había una clara correlación entre los patrones de actividad cerebral y sonidos específicos del habla, solicitamos aprobación para realizar un estudio y le preguntamos a la FDA si podíamos usar un nuevo tipo de dispositivo, esencialmente un conjunto de electrodos que se coloca sobre la superficie del cerebro.
Los electrodos de la matriz están conectados a un puerto que tiene alrededor de 253 canales que transmiten los datos de la actividad cerebral a una computadora que analiza las señales cerebrales y utiliza IA para traducir esa actividad cerebral en palabras específicas o sonidos del habla o incluso movimientos faciales de avatar.
De 256 líneas onduladas a 70 palabras por minuto
En el centro de este proceso ha estado el aprendizaje automático, una IA capaz de procesar enormes cantidades de datos y encontrar e interpretar patrones, vinculando ondas cerebrales específicas con palabras:
El secreto de esto ha sido realmente… el aprendizaje automático. El 99 % de nuestro tiempo en esto no tiene nada que ver con la cirugía ni con el dispositivo en sí: se trata de comprender los datos.
Cuando miras la pantalla, parecen 256 líneas onduladas, que son las ondas cerebrales… [Usamos] redes neuronales recurrentes para tomar esa secuencia de puntos de datos que parecen líneas onduladas y traducirlas en palabras.
Chang enfatiza que la interpretación se basa en ondas cerebrales creadas por los participantes que realmente leen palabras en una pantalla, no solo piensan pensamientos aleatorios:
La tarea básica consiste en pedir a nuestros participantes que lean texto en una pantalla, sin pensar en lo que ven, sino intentando decir las palabras. Deben intentar decirlo voluntariamente.
Ha trabajado con varios pacientes afásicos, dos de los cuales llevaban más de 15 años sin poder hablar:
Nuestro último participante logró unas 70 palabras por minuto con este dispositivo. El habla normal es de unas 150 palabras por minuto, y aún tenemos mucho margen de mejora. Sin embargo, era rápido y el vocabulario superaba las mil palabras. Lo modelamos a 30 000 palabras, donde siguió teniendo un buen rendimiento.
De 15 años como cuadripléjico mudo a 2 semanas que recupera el habla
Al igual que Farahany, Chang destaca los increíbles avances que ha dado la tecnología en los últimos años.
Este campo avanza tan rápido que me resulta difícil predecirlo. Ni siquiera podía predecir que íbamos a alcanzar los niveles de rendimiento del año pasado. Y los algoritmos que estamos empezando a usar son cada vez más potentes.
Ni siquiera contábamos con estas herramientas hace 5 años. Y ahora, nos estamos acercando muchísimo a lo que desearíamos para algo clínicamente disponible. Al principio, nos llevó un par de meses. Con nuestro último participante, el entrenamiento de los algoritmos tardó básicamente dos semanas.
Y también como Farahany, Chang destaca el increíble potencial inherente a la tecnología, que ciertamente promete un tipo de vida muy diferente para aquellos que recuperen la capacidad de expresarse:
Creo que nuestro gran objetivo es realmente la expresión plena… devolver a las personas lo que son…
Para nuestra última participante del estudio, tuvimos esta oportunidad única: conseguimos un video de una hora de su boda, que tuvo lugar hace 20 años, y pudimos entrenar la IA con su voz previa a la lesión. Así que no era una voz predefinida como cualquier otra que tengas en tu ordenador. Esta era su voz, entrenada para crear este modelo, y eso ahora es posible con la IA. Con el avatar, pudo elegir el color del pelo y los ojos.
Realmente estamos hablando de un nivel completamente nuevo de personalización y expresión con esto... Incluso la entonación de la voz es algo que queremos hacer bien.
Lectura mental inalámbrica
En el Foro Económico Mundial se le preguntó a Farahany si se podían medir las métricas cerebrales sin el uso de un dispositivo portátil y respondió rotundamente: "No".
Ahora, un año después, Chang y su equipo están trabajando para mejorar las capacidades de la tecnología que fueron pioneros, con la intención de hacerla completamente inalámbrica:
Estamos trabajando en la ingeniería eléctrica y de hardware para convertirlo en un sistema inalámbrico totalmente integrado, sin necesidad de estar conectado a un cable en un puerto en el cuero cabelludo. Todo se transmitirá de forma inalámbrica a un receptor y se alimentará de esa forma.
Cuando se le preguntó si la tecnología podría usarse para decodificar pensamientos que no están "verbalizados mentalmente", Chang distinguió entre los tipos de métricas cerebrales que se utilizan:
Creo que lo que hemos demostrado es que cuando alguien tiene la intención voluntaria de hablar, podemos decodificarla. Pero, como dije antes, algunas de las cosas que probamos, donde la gente simplemente pensaba, no funcionan tan bien.
Una razón para esto es que los pensamientos “verbalizados” parecen procesarse en una parte diferente del cerebro que otros tipos de pensamientos:
Los sensores de electrodos en el cerebro no necesariamente detectan dónde ocurren los pensamientos aleatorios. En realidad, registran la parte del cerebro que controla el músculo de la vía vocal.
Pero Chang, al igual que Farahany, predice que en el futuro las cosas probablemente irán mucho más allá, lo que generará problemas complejos de privacidad:
Así pues, la forma en que hemos diseñado nuestro trabajo actual se centra en lo verdaderamente volitivo, en lo que el individuo debe expresar. Pero, al mismo tiempo, también nos indica que podría ser posible ir más allá en el futuro, hacia cuestiones más privadas, que se refieren más al habla interna, por ejemplo, incluso a los pensamientos internos.
¿En quién podemos confiar en esto?
Dirigiéndose a su audiencia, Farahany pregunta: "¿Están listos para esto?". Presenta un futuro, un futuro muy inminente, en el que "cada vez más de lo que hay en el cerebro se volverá transparente".
“Esto puede ser algo que libere potencial para la humanidad”, subraya, pero añade que:
Creo que hay un camino a seguir con esa tecnología, pero se trata de ponerla en manos de los empleados, permitiéndoles usarla como una opción, no usarla como una medida de métricas cerebrales para despedirlos, contratarlos o discriminarlos.
Si bien admite que persuadir a los empleadores para que respeten la libertad de pensamiento y la privacidad de las métricas cerebrales será un desafío, parece creer que alentar el respeto generalizado de "un derecho fundamental a lo que significa ser humano" podría ser suficiente para proteger a las personas: "Creo que tenemos que comenzar por reconocer un derecho a la libertad cognitiva, un derecho a la autodeterminación sobre nuestros cerebros y experiencias mentales".
Lo que ni Chang ni Farahany abordan son las limitaciones inherentes a la tecnología de “lectura de la mente”, a pesar de que la animación que Farahany proyectó introdujo problemas muy reales: por ejemplo, ¿cómo probará la inocente compañera de trabajo del empleado arrestado que, si bien sus métricas cerebrales coinciden con las del presunto criminal, en realidad no estaba conspirando con él?
Chang tampoco es muy comunicativo sobre algunos aspectos clave de la tecnología que está desarrollando. Cuando su entrevistador le pregunta cómo puede verificar si el resultado refleja genuinamente los pensamientos proyectados por sus sujetos afásicos, evade la pregunta.
Sin duda, una persona que ha sufrido una lesión neurológica y ha perdido la capacidad de hablar aprovechará la oportunidad de recuperarla, incluso si la tecnología es imperfecta e incluso si ello implica el riesgo de que no sólo sus palabras sino también sus pensamientos se vuelvan transparentes para los demás.
Sin embargo, sigue siendo muy poco claro cómo se puede evitar la “posibilidad distópica” que describe Farahany, y cómo podemos protegernos contra una herramienta que, en sus palabras, “realmente podría convertirse en la tecnología más opresiva que hayamos desatado jamás”.

The Expose necesita urgentemente tu ayuda…
¿Podrías ayudarnos a mantener las luces encendidas con el periodismo honesto, confiable, poderoso y veraz de The Expose?
Su gobierno y las grandes organizaciones tecnológicas
Intenta silenciar y cerrar The Expose.
Por eso necesitamos tu ayuda para garantizar
Podemos seguir brindándote el
hechos que la corriente dominante se niega a aceptar.
El gobierno no nos financia
publicar mentiras y propaganda sobre sus
en nombre de los principales medios de comunicación.
En cambio, dependemos únicamente de su apoyo. Así que
Por favor, apóyanos en nuestros esfuerzos para llevar
tu periodismo honesto, confiable e investigativo
Hoy. Es seguro, rápido y fácil.
Elija su método preferido a continuación para mostrar su apoyo.
Categorías: Noticias de última hora, Noticias del mundo
¡Uf! Está bien... ¡Por un momento pensé que no sería por nuestra seguridad!
Sí, la seguridad está por encima de cualquier otro valor, como los derechos humanos, incluso la vida humana. Deberíamos encerrar a estos degenerados por su propia seguridad.
El problema con este artículo es que todos hablan como si fuera algo del futuro. La nanotecnología autoensamblable ya está instalada en el cuerpo de todos. Los nanobots flotan en la sangre y parecen copos de nieve, luego construyen estructuras plásticas de hidrogel. Todos, tanto vacunados como no vacunados, andan por ahí con varios gramos de nanotecnología de comunicación de plástico en el cuerpo AHORA MISMO, y este hardware es fácil de ver y detectar en una sola gota de sangre bajo un microscopio de campo oscuro. La pregunta es: ¿qué hace?
Esto es lo que sucede después de 300 años de endogamia.
Quizás sí, pero yo... would tomarlos en serio, si yo fuera tú.
Siempre digo y escribo honestamente lo que pienso sobre sus tonterías, así que eso de leer la mente es bastante redundante para mí.