Un gorro EEG fácil de usar podría ampliar el número de formas de interactuar con tus dispositivos móviles.
POR SUSAN YOUNG TRADUCIDO POR LÍA MOYA (OPINNO)
Algún día quizá podamos acceder a un correo o llamar a un amigo sin tener ni que tocar una pantalla o hablar con un ayudante incorpóreo. Samsung está investigando cómo introducir el control mental en sus dispositivos móviles con la esperanza de desarrollar formas de que las personas con movilidad reducida puedan conectar con el mundo. El objetivo último del proyecto, según los investigadores del Laboratorio de Tecnología Emergente de la empresa, es ampliar las formas en las que la gente puede interactuar con los dispositivos.
En colaboración con Roozbeh Jafari, profesor ayudante de ingeniería eléctrica en la Universidad de Texas, Dallas (EE.UU.), los investigadores de Samsung están probando cómo la gente puede usar su pensamiento para abrir una aplicación, seleccionar un contacto, escoger una canción de una lista, o subir o bajar la potencia de una Samsung Galaxy Note 10.1. Aunque Samsung no tiene planes inminentes de ofrecer un teléfono controlado por la mente, las primeras fases de la investigación, para las que se requiere un gorro cubierto de electrodos de electroencefalografía (EEG), muestra cómo una interfaz cerebro-ordenador podría ayudar a las personas con problemas de movilidad a completar tareas que de otra forma serían imposibles de realizar.
Las interfaces cerebro-ordenador que observan las ondas cerebrales a través de la EEG, ya han llegado al mercado. El casco de NeuroSky usa lecturas de EEG así como electromiografía para recoger señales sobre el nivel de concentración de una persona para controlar juguetes y juegos. Emotiv Systems vende un casco que lee EEG y expresiones faciales para mejorar la experiencia de jugar.
Para usar las señales detectadas mediante EEG para controlar un teléfono inteligente, los investigadores de Samsung y la Universidad de Texas vigilaron patrones de actividad cerebral conocidos que tienen lugar cuando se muestra a alguien patrones visuales repetitivos. En su demostración, los investigadores descubrieron que la gente podía abrir una aplicación y hacer selecciones dentro de la misma al concentrarse en un icono que parpadeaba a una con una frecuencia concreta.
Robert Jacob, investigador de interacción hombre-máquina en la Universidad de Tufts (EE.UU.), afirma que el proyecto encaja dentro de un esfuerzo más amplio de los investigadores por encontrar más formas de comunicarse con aparatos pequeños como los teléfonos inteligentes. "Esta es una de las formas de expandir el tipo de input que puedes tener con el teléfono en el bolsillo".
Encontrar nuevas formas de interactuar con los aparatos móviles ha sido el motor del proyecto, explica Insoo Kim, investigadora principal de Samsung. "Hace varios años, un pequeño teclado era la única modalidad de input disponible para controlar el teléfono, pero en la actualidad los usuarios pueden usar la voz, el tacto, los gestos y el movimiento de los ojos para controlar e interactuar con dispositivos móviles", afirma Kim. "Añadir más modalidades de input nos proporcionará formas más cómodas y complejas de interactuar con dispositivos móviles".
Aún así, todavía queda mucha investigación por hacer para que una interfaz cerebro-ordenador se convierta en una nueva forma de interactuar con los teléfonos inteligentes, según Kim. El objetivo inicial para el equipo era desarrollar métodos de procesado de señales capaces de extraer la información correcta para controlar un dispositivo, partiendo de señales EEG débiles y ruidosas, y conseguir que esos métodos funcionaran en un aparato móvil.
La investigación de Jafari aborda otro reto, desarrollar sensores EEG más prácticos. Los sistemas de EEG clásicos usan gel o electrodos de contacto húmedo, lo que significa que entre el cuero cabelludo de la persona y el sensor tiene que haber un poco de material líquido. "Dependiendo del número de electrodos que tengas, se puede tardar hasta 45 minutos en montarlo, y el sistema es incómodo", afirma Jafari. Sus sensores, sin embargo, no necesitan la presencia de un puente líquido y se tarda unos 10 segundos en montarlos, afirma. Pero siguen exigiendo que el usuario lleve una gorra cubierta de cables.
El concepto de un EEG seco no es algo nuevo y tiene el inconveniente de que produce una calidad de señal peor, pero Jafari explica que su grupo está mejorando el procesado de las señales cerebrales. En última instancia, si los contactos EEG fiables resultaran prácticos y se pudieran reducir de tamaño, un aparato controlado por el cerebro podría tener el aspecto de "una gorra que la gente lleva puesta todo el día", afirma Jafari.
Kim explica que la velocidad con la que un usuario del sistema de control mediante EEG puede controlar la tableta depende de la persona. En los limitados experimentos llevados a cabo por el equipo, los usuarios podían, de media, hacer una selección cada cinco segundos, con una precisión que iba del 80 al 95 por ciento.
"Resulta casi imposible predecir con precisión lo que traerá el futuro", afirma Kim, "pero dado el amplio apoyo que reciben iniciativas como la iniciativa U.S. BRAIN, las mejoras en las interfaces hombre-máquina parecen inevitables (ver "Entrevista con la pionera del proyecto BRAIN: Myoung Chun").
POR SUSAN YOUNG TRADUCIDO POR LÍA MOYA (OPINNO)
Algún día quizá podamos acceder a un correo o llamar a un amigo sin tener ni que tocar una pantalla o hablar con un ayudante incorpóreo. Samsung está investigando cómo introducir el control mental en sus dispositivos móviles con la esperanza de desarrollar formas de que las personas con movilidad reducida puedan conectar con el mundo. El objetivo último del proyecto, según los investigadores del Laboratorio de Tecnología Emergente de la empresa, es ampliar las formas en las que la gente puede interactuar con los dispositivos.
En colaboración con Roozbeh Jafari, profesor ayudante de ingeniería eléctrica en la Universidad de Texas, Dallas (EE.UU.), los investigadores de Samsung están probando cómo la gente puede usar su pensamiento para abrir una aplicación, seleccionar un contacto, escoger una canción de una lista, o subir o bajar la potencia de una Samsung Galaxy Note 10.1. Aunque Samsung no tiene planes inminentes de ofrecer un teléfono controlado por la mente, las primeras fases de la investigación, para las que se requiere un gorro cubierto de electrodos de electroencefalografía (EEG), muestra cómo una interfaz cerebro-ordenador podría ayudar a las personas con problemas de movilidad a completar tareas que de otra forma serían imposibles de realizar.
Las interfaces cerebro-ordenador que observan las ondas cerebrales a través de la EEG, ya han llegado al mercado. El casco de NeuroSky usa lecturas de EEG así como electromiografía para recoger señales sobre el nivel de concentración de una persona para controlar juguetes y juegos. Emotiv Systems vende un casco que lee EEG y expresiones faciales para mejorar la experiencia de jugar.
Para usar las señales detectadas mediante EEG para controlar un teléfono inteligente, los investigadores de Samsung y la Universidad de Texas vigilaron patrones de actividad cerebral conocidos que tienen lugar cuando se muestra a alguien patrones visuales repetitivos. En su demostración, los investigadores descubrieron que la gente podía abrir una aplicación y hacer selecciones dentro de la misma al concentrarse en un icono que parpadeaba a una con una frecuencia concreta.
Robert Jacob, investigador de interacción hombre-máquina en la Universidad de Tufts (EE.UU.), afirma que el proyecto encaja dentro de un esfuerzo más amplio de los investigadores por encontrar más formas de comunicarse con aparatos pequeños como los teléfonos inteligentes. "Esta es una de las formas de expandir el tipo de input que puedes tener con el teléfono en el bolsillo".
Encontrar nuevas formas de interactuar con los aparatos móviles ha sido el motor del proyecto, explica Insoo Kim, investigadora principal de Samsung. "Hace varios años, un pequeño teclado era la única modalidad de input disponible para controlar el teléfono, pero en la actualidad los usuarios pueden usar la voz, el tacto, los gestos y el movimiento de los ojos para controlar e interactuar con dispositivos móviles", afirma Kim. "Añadir más modalidades de input nos proporcionará formas más cómodas y complejas de interactuar con dispositivos móviles".
Aún así, todavía queda mucha investigación por hacer para que una interfaz cerebro-ordenador se convierta en una nueva forma de interactuar con los teléfonos inteligentes, según Kim. El objetivo inicial para el equipo era desarrollar métodos de procesado de señales capaces de extraer la información correcta para controlar un dispositivo, partiendo de señales EEG débiles y ruidosas, y conseguir que esos métodos funcionaran en un aparato móvil.
La investigación de Jafari aborda otro reto, desarrollar sensores EEG más prácticos. Los sistemas de EEG clásicos usan gel o electrodos de contacto húmedo, lo que significa que entre el cuero cabelludo de la persona y el sensor tiene que haber un poco de material líquido. "Dependiendo del número de electrodos que tengas, se puede tardar hasta 45 minutos en montarlo, y el sistema es incómodo", afirma Jafari. Sus sensores, sin embargo, no necesitan la presencia de un puente líquido y se tarda unos 10 segundos en montarlos, afirma. Pero siguen exigiendo que el usuario lleve una gorra cubierta de cables.
El concepto de un EEG seco no es algo nuevo y tiene el inconveniente de que produce una calidad de señal peor, pero Jafari explica que su grupo está mejorando el procesado de las señales cerebrales. En última instancia, si los contactos EEG fiables resultaran prácticos y se pudieran reducir de tamaño, un aparato controlado por el cerebro podría tener el aspecto de "una gorra que la gente lleva puesta todo el día", afirma Jafari.
Kim explica que la velocidad con la que un usuario del sistema de control mediante EEG puede controlar la tableta depende de la persona. En los limitados experimentos llevados a cabo por el equipo, los usuarios podían, de media, hacer una selección cada cinco segundos, con una precisión que iba del 80 al 95 por ciento.
"Resulta casi imposible predecir con precisión lo que traerá el futuro", afirma Kim, "pero dado el amplio apoyo que reciben iniciativas como la iniciativa U.S. BRAIN, las mejoras en las interfaces hombre-máquina parecen inevitables (ver "Entrevista con la pionera del proyecto BRAIN: Myoung Chun").
No hay comentarios:
Publicar un comentario