sábado, 4 de febrero de 2012

Neurociencia: A un paso hacia la 'máquina' para leer el pensamiento


El físico Stephen Hawking, en una imagen de archivo. | AP
La solución para los problemas de comunicación inherentes a las parálisis totales o a ciertos síndromes como el de cautiverio que impiden la comunicación de forma casi completa están cada día más cerca. Un equipo de neurocientíficos de la Universidad de California en Berkeley (EEUU) acaba de presentar el primer paso para conseguir escuchar discursos tan sólo imaginados por pacientes que no pueden hablar.

Los investigadores han conseguido descifrar la actividad eléctrica que se produce en el cerebro cuando una persona escucha una conversación. De esta forma, son capaces de saber qué palabra ha escuchado un ser humano gracias sólo a las señales que emite su cerebro. Es cierto que, por el momento, la investigación explica únicamente como descodificar palabras que la persona ha escuchado. El reto, y el gran interés de la investigación, se esconde tras el siguiente paso: lograr la interpretación de palabras o conversaciones tan sólo pensadas por pacientes que no pueden expresarse con la voz.
Para los autores, Ludwig van Beethoven es la mejor metáfora de su trabajo. El genio era capaz de oír en su cabeza sus composiciones, a pesar de ser sordo. La técnica aspira a funcionar como el cerebro de Beethoven.

La posibilidad de leer el pensamiento

"Para reconstruir conversaciones imaginadas se pueden aplicar los mismos principios que hemos usado en esta investigación para traducir las verbalizaciones internas de alguien", explica el autor principal del trabajo Brian Pasley, investigador del Instituto de Neurociencias Helen Wills, de la Universidad de California en Berkeley. "Hay evidencias de que oír un sonido e imaginar ese mismo sonido activa áreas similares del cerebro".
Para realizar la investigación, los científicos necesitaban colocar electrodos en la superficie del cerebro de cierto número de personas, algo demasiado invasivo como para hacerlo sólo por el bien de la investigación. De forma que Pasley, escogió a pacientes en su mayoría con epilepsia producida por un tumor cerebral, que iban a ser sometidos a neurocirugía para conocer el alcance de la lesión.
De entre todos, 15 se prestaron voluntarios para participar en la investigación. Los cirujanos cortaron una zona del cráneo e hicieron lo que correspondía en cada caso. Después, colocaron los electrodos sobre las circunvoluciones temporales superior y media (áreas responsables de la audición) de la corteza cerebral. Pasley se ocupó tras las intervenciones de tener conversaciones de entre 5 y 10 minutos con cada paciente en las que grabó la actividad cerebral de los enfermos. A través de las señales que las palabras oídas generan en la corteza cerebral, los investigadores lograron desarrollar dos modelos para descifrar las señales del cerebro.
Para comprobar la precisión del sistema de descifrado, el espectrograma obtenido por los modelos se compara con el que producen las ondas acústicas originales.
En la literatura científica ya existen ejemplos de éxitos rotundos para conseguir que un paciente pueda mover un ratón o una prótesis mecánica con la actividad cerebral. Sin embargo, los autores de esta nueva investigación aseguran que esto es "relativamente sencillo comparado con la reconstrucción del lenguaje". En el trabajo se utilizaron un grupo de palabras finitas -en concreto 47- en las que centraban sus objetivos. Este hecho limita los resultados, pero algunos colegas de Pasley y el equipo de Berkeley reconocen aún así que la investigación tiene un gran potencial médico, en algunos casos a corto plazo.
"Son los primeros pasos hacia un sistema que permitirá comunicarse a pacientes como Stephen Hawking, por ejemplo", asegura Miguel Maravall, investigador principal del Grupo de Dinámica y Plasticidad de las Respuestas Sensoriales Corticales del Instituto de Neurociencias de Alicante. "Pero en personas con un síndrome de 'lock in' total (síndrome de cautiverio) esto abre la puerta a que se pueda generar un vocabulario de 100 palabras útiles y que un generador artificial de palabras pudiera articularlas por ellos".
---

¿Máquinas lectoras de la mente en camino?

brain gate400x241

Basado en tendencias sociales y estudio extenso, el gigante de la tecnología IBM ha predicho que en el futuro cercano, las máquinas leerán las mentes.
La IBM espera ver los frutos de su investigación emerger al menos por el año 2017. En su evaluación anual de próxima tecnología innovadora, la IBM notó el significado de tal desarrollo. "Desde Houdini a Skywalker y a los hombres X", ellos dicen, "la lectura de la mente ha sido meramente un pensamiento deseado por los fans de ciencia ficción por décadas. Pero su deseo puede pronto volverse realidad".
"Los científicos de la IBM están entre aquellos que están investigando cómo enlazar tu cerebro a tus dispositivos, tal como una computadora o un teléfono inteligente".
Dan ejemplos, incluyendo la idea de llamar a alguien simplemente pensándolo, o deseando que un cursor se mueva a través de la pantalla de una computadora.
Precursores potenciales corrientes para ésta tecnología ya existen.
Un proyecto llamado "Entrada al cerebro" (BrainGate) - un sistema de implante cerebral desarrollado por la compañía de biotecnología Cyberkinetics- fue creado para ayudar a aquellos que han perdido control de las funciones corporales, como los miembros, por ejemplo. Un chip de computadora implantado en la cabeza monitorea la actividad cerebral en la persona, y convierte sus intenciones en órdenes para la computadora. Éste es un fuerte ejemplo del enlace entre mente y tecnología.
A la par que la investigación continua, IBM predice un futuro en el cual el escaneo de retina o el reconocimiento de la cara remplazarán las contraseñas para redes sociales; donde "serás capaz de acercarte a una máquina ATM para retirar dinero de manera segura al decir simplemente tu nombre, o mirando dentro de un sensor pequeñito que puede reconocer los patrones únicos en la retina de tus ojos", como sugiere IBM.
"O haciendo lo mismo", ofrecen, "puedes revisar tu balance de cuenta en tu teléfono móvil o tu tableta".
Predijeron también que la tecnología podría producir energía eléctrica a través de cualquier tipo de movimiento- sea caminando, paseando en bicicleta, o movimiento no-humano, como el agua fluyendo a través de la cañería de los hogares.
En una era en la que mucha ciencia ficción lentamente llega a ser ciencia marginal, y entonces eventualmente llega a ser ciencia aceptada, uno podría recordar una de las tres leyes de la ciencia ficción del novelista Arthur C. Clarke: "Cualquier tecnología suficientemente avanzada es indistinguible de la magia". Con eso declarado, éste desarrollo potencial es verdaderamente no mágico, y mucho muy plantado firmemente en la realidad, como los científicos están empezando a observar.
Como explica un reporte de Mashable, "Esto no es telepatía, así que aquellos que están esperando conseguir una corriente de pensamientos en tiempo real desde un individuo tendrían mejor que mirar espectáculos como "Héroes" o "Babilonia 5". Lo que IBM avizora es verdaderamente diferente, dicen. La tecnología en sí misma estaría basada en una sencilla máquina de interface cerebral (BMI), la cual detecta diferentes tipos de ondas cerebrales y le dice a una computadora que responda adecuadamente.
El anuncio por IBM fue parte de su "iniciativa de 5 en 5", que es un pronóstico de cinco innovaciones que ayudarán a transformar aspectos de la vida moderna dentro de los siguientes cinco años. La evaluación total incluye y calcula no solo la disponibilidad y la eficacia de tal tecnología, sino "la posibilidad de su adopción a gran escala".
Foto: Una unidad ficticia que representa el diseño de una interfaz de BrainGate. Paul Wicks/Wikipedia  
---
CIENCIA › DIALOGO CON MARIANO SIGMAN, FISICO

Regularidades del pensamiento

El Jinete Hipotético se maravilla una y otra vez frente a los misterios del cerebro. Y ciertamente le gustaría que alguien descubriera, y le explicara, la compleja y aún desconocida estructura del pensamiento. Aquí se tratan algunas hipótesis.
 Por Leonardo Moledo
–Usted dirige el laboratorio de neurociencia integrativa en el Departamento de Física.
–Sí.
–Y aparte tiene una línea de investigación.
–Claro. Lo que hacemos es estudiar el pensamiento humano, desde un punto de vista mecanicista, algorítmico y un poco arquitectónico. Trato de entender cuál es la estructura, las reglas y el lenguaje del pensamiento humano. Para eso combinamos muchas herramientas, algunas puramente psicológicas y comportamentales. Dejamos que el pensamiento se exprese, buscamos reglas como cuando un biólogo lee un gen y trata de buscar estructuras o cuando un lingüista trata de encontrar regularidades en el lenguaje..
–¿Soñar es pensar?
–Sí, es una forma de pensamiento con reglas distintas. Yo creo que el sueño es a la vigilia lo que la poesía a la narrativa.
–Más desestructurado todavía...
–Bueno, hay poesías muy desestructuradas. Pero además, ni siquiera es tan desestructurado; si no, no habría tantas recurrencias ni tanta repetición de temas.
–Eso tiene una derivación interesante. Si el sueño es pensamiento y los animales sueñan... los animales piensan.
–Yo creo que sí. De modo diferente, pero piensan. No es la misma estructura del pensamiento la de un animal que la de un humano, así como no es la misma estructura de pensamiento la de la vigilia y la del sueño, la de la infancia y la de la adultez.
–¿Cómo es la estructura del pensamiento humano?
–La idea más vigente de todas es la postulada por Noam Chomsky, que supone que lo más distintivo de nuestra arquitectura es que tenemos un “operador de recursión”, que es algo que permite aplicar algo sobre sí mismo. El ejemplo clásico es el lenguaje: es la capacidad de generar frases tan finas y precisas como uno quiera, y eso se puede hacer gracias a la presencia de un mecanismo generativo que puede producir elementos combinativamente enriquecidos por el operador de recursión.
–Todo esto es muy abstracto. ¿Cómo trabaja en esto?
–Hacemos dos clases de trabajo. Experimentamos y postulamos modelos a partir de las observaciones. Pero también hacemos teoría, planteamos artilugios computacionales que nos sirven como ilustraciones para poder consolidar las ideas que vamos forjando.
–Veamos los experimentos...
– Por ejemplo, traemos gente al laboratorio, le mostramos algo en la pantalla y analizamos qué es lo que ven. Lo que tratamos allí es de descubrir las reglas de la asimilación de la imagen visual. Podemos decirle a la gente, también, que elija entre dos cosas (por ejemplo, la más brillante) y ver cómo lo hacen. A partir de los errores que cometen podemos ver qué es lo que ven y lo que no ven.
–¿A qué se refiere cuando habla de algoritmia?
–Qué tipo de cómputos está resolviendo y de qué manera. Por ejemplo, para tomar una decisión. Yo parto de la premisa de que nuestro comportamiento y nuestras acciones son el resultado de una especie de maquinaria que computa cosas, que procesa información, la articula y obra en consecuencia. Lo que tratamos de hacer, entonces, es descubrir las piezas de esa maquinaria. Al principio, no observamos directamente la maquinaria sino el producto. En una segunda etapa, nos metemos directamente en la máquina. Hay muchas maneras de hacerlo. Como trabajamos con humanos, sólo podemos usar herramientas que sean no invasivas, que no hagan daño. Las típicas son la resonancia magnética funcional, que se basa en que cuando hay actividad neuronal, esa actividad consume oxígeno y entonces la proteína que transporta el oxígeno, la hemoglobulina, cambia sus propiedades magnéticas y eso puede verse en imágenes. Otras herramientas son las encefalográficas. La moneda de cambio del cerebro son las corrientes eléctricas, es la manera que tienen las neuronas de comunicarse entre sí. Esas corrientes eléctricas forman grandes avenidas eléctricas, y eso tiene que ver con cómo están arregladas las neuronas: forman una especie de surcos eléctricos que son observables desde el exterior, sin necesidad de plantar un electrodo. Con el electroencefalograma nosotros detectamos grandes eventos conectivos.
–¿Cuál es la unidad de esa moneda de cambio que es la electricidad?
–Cada neurona es un objeto bastante discreto. Sin que una neurona dispare, no se puede entrar en el juego. La neurona podría ser la moneda mínima. Pero así como no es lo mismo la moneda en Francia que en la Argentina, no es lo mismo una neurona en el hipocampo que una neurona en la corteza prefrontal. Pero las neuronas tienen también una actividad subumbral: se puede cambiar el estado de una neurona sin hacerla disparar. Del mismo modo que yo podría deberle a alguien medio centavo, aunque nunca pudiera pagárselo.
–¿Qué significa “distinto estado” para una neurona?
–Es el estado funcional. Va a responder distinto después si le pasa otra cosa. Es interesante la analogía computacional, porque justamente quienes crearon la inteligencia artificial no se propusieron replicar cualquier inteligencia sino la nuestra. Von Neumann –junto con Turing, uno de los grandes fundadores de la computación tal como la conocemos hoy– entendió muy rápido que las computadoras tienen que ser discretas. Las computadoras tienen una unidad mínima, el bit: no computan cantidades analógicas sino unos y ceros. Ese proceso de discretización es como si congelara las cosas, y al congelar las cosas evita que el ruido se propague demasiado. Von Neumann entendió que las máquinas que computan discreto tenían una ventaja, que es que acotaban el error que propagaban. Las máquinas, entonces, se volvían muy precisas. Esa es una idea que sigue flotando mucho en neurociencias: ¿dónde una corriente continua se vuelve una unidad discreta? Y eso en el cerebro sucede en muchas instancias. Por un lado, cada neurona hace eso: recibe un input analógico y lo convierte en un disparo o un no-disparo (que podría pensarse como los ceros y unos de la computadora). O transmite algo o no lo transmite. Los ensambles de neuronas pueden hacer lo mismo: se agrupan en objetos y también responden o no responden al input. Entonces a distintas escalas se repiten los mismos temas: la conversión de cantidades analógicas a cantidades discretas. Y eso es lo que hacemos nosotros con la matemática. Nosotros convertimos el “mucho”, el “poco”, el “un montón”, en la docena, la centena, en unidades discretas. Hay otras culturas que tienen números solamente para el uno y el dos, y el resto es “mucho”. Y eso persiste ontogénicamente. Un recién nacido también tiene nociones de numerosidad, puede separar el mucho y el poco (lo cual es sorprendente, porque es algo muy abstracto: no importa mucho de qué sea, el recién nacido distingue que es mucho).
–¿Y cómo sabemos eso?
–Los chicos recién nacidos miran aquello que les llama la atención. Y eso puede usarse para decodificar qué tipo de cosas distinguen y cuáles no. Por ejemplo, si usted a un nene le pone algo azul adelante durante mucho tiempo y después le pone algo rojo, se queda mirando lo rojo. Quiere decir que las dos cosas ésas las distingue. Si usted le pone sustantivos durante mucho tiempo y luego un verbo, no va a pasar nada, porque no distingue lo que es un sustantivo y lo que es un verbo. Si usted le pone mucho lenguaje japonés y luego alemán, va a mirar más el alemán, porque si bien no sabe lo que son, entiende que hay un cambio en la textura del sonido y en la prosodia. Usted le pone tres patos, tres conejos, tres cosas chiquitas, tres cosas brillantes, tres cosas oscuras, tres jugadores de fútbol y luego le pone ocho de alguna de esas cosas, le llama la atención. El bebé se acostumbró a que la regularidad de esos objetos no venía dada por ninguna cualidad de los objetos sino por el número, de modo que cuando aparece un número distinto le prestan más atención. Esos experimentos están hechos para bebés de un día de vida.
–La verdad es que si terminamos aquí, el diálogo queda incompleto. Creo que deberíamos retomarlo en otra oportunidad.
–Cuando usted quiera.

No hay comentarios:

Publicar un comentario en la entrada

Related Posts with Thumbnails