Investigadoras, investigadores y estudiantes del Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE), Centro Público coordinado por el Consejo Nacional de Humanidades, Ciencias y Tecnologías (Conahcyt), desarrollan un proyecto de interfaces cerebro-computadora para aplicaciones que permitan a personas con discapacidad motriz y de habla controlar equipos para moverse y comunicarse con independencia.

Este proyecto se enmarca en investigaciones y desarrollos de centros del Sistema Nacional de Centros Públicos (SNCP) de Conahcyt, que se alinean con la invitación que hizo el presidente Andrés Manuel López Obrador a la directora general del Conahcyt, María Elena Álvarez-Buylla Roces, a sumar capacidades para el desarrollo de prototipos, generando una auténtica ciencia aplicada al bienestar.

En este proyecto, pionero en el país, participan personas científicas y estudiantes de la Coordinación de Ciencias Computacionales y del posgrado en Ciencias y Tecnologías Biomédicas del INAOE. Los objetivos son analizar y estudiar señales electroencefalográficas y desarrollar una interfaz amigable que permita interpretar palabras imaginadas o acciones especificadas y convertirlas en comandos a ejecutar por una computadora.

La interfaz está dirigida a comandar equipos de apoyo y caseros

El investigador del INAOE y líder del proyecto, Carlos Alberto Reyes, explicó que una interfaz cerebro-computadora es una herramienta mental para proporcionar al cerebro un canal no muscular de comunicación y control, para transmitir mensajes y comandos al mundo exterior “sin usar, en este caso, ni sonidos ni movimientos, sólo las señales que puedes emitir o generar en tu cerebro al estar haciendo o pensando en algún tipo de actividad o acción que quieres establecer hacia fuera”.

Agregó que el medio más práctico y económico para extraer la información que se genera en el cerebro es la electroencefalografía. “Tenemos varios tipos de dispositivos que nos permiten ver las señales que se generan en el cerebro al estar pensando, haciendo o tratando de emitir algún comando o establecer una acción”.

Además, abundó que se está usando “el neuroparadigma de palabras no pronunciadas, ya que el tipo de herramienta que queremos desarrollar está dirigida a personas que no tienen movilidad ni habla, pero su cerebro está totalmente sano y alerta”.

Alberto Reyes comentó que la interfaz está dirigida a comandar equipos de apoyo y caseros, lo cual permitirá al usuario ganar independencia de acciones, llevar un tipo de vida lo más normal posible y manejar dispositivos como una silla de ruedas o una cama hospitalaria eléctrica.

“La interfaz es diseñada de forma personalizada, de tal manera que sólo el usuario pueda tener el control de su ambiente”.

Se puede usar en silla de ruedas, cama eléctrica, televisión, calefactor, iluminación, etc

Los dispositivos son manipulados por medio de un ambiente de navegación que consiste en ventanas con los dispositivos a controlar y subventanas con opciones que ejecutarán acciones por medio de actuadores de hardware que directamente deberán accionar y manipular.

Se trata de controlar dispositivos útiles como una silla de ruedas, una cama eléctrica, televisión, calefactor, iluminación, etc. También se pueden hacer llamadas telefónicas con especial facilidad, llamadas de emergencia y escritura de mensajes.

En la opción de silla eléctrica, las opciones son de avance, reversa, giro-derecha, giro-izquierda, alto y la posibilidad de aumentar o disminuir la velocidad. El control de cama eléctrica permite al usuario colocar la cama en la posición deseada o recomendada. Todo lo anterior se podrá controlar y monitorear a través de la interfaz cerebro-computadora comandada directamente por las señales cerebrales.

“Queremos que esta herramienta sea muy práctica, que permita al usuario hacer cosas de forma rápida y sólo se necesita un vocabulario reducido porque con las palabras que está pensando en su cerebro establece una acción. Por ejemplo, se busca que muevan el cursor para que se desplace hacia un lado u otro.”

Con un vocabulario que usa las palabras arriba, abajo, izquierda, derecha y seleccionar, la persona usuaria podrá elegir de forma intuitiva; por ejemplo, lo que quiere ver, y seleccionar las opciones de encendido o apagado, subir o bajar el volumen, cambiar de canal o elegir algún canal o aplicación de entretenimiento.

El investigador del INAOE abundó que la interfaz tiene otra opción que se denomina domótica, la cual sirve para controlar el ambiente de vivienda: encender o apagar la luz, el aire acondicionado, el ventilador, la calefacción o algún otro dispositivo que se quiera conectar.

“Hasta ahora lo hemos simulado, pero comenzamos a mover la silla eléctrica, en el concurso que hicimos en el INAOE el año pasado ya vimos que sí se puede”.

Finalmente, el científico agregó que el proyecto está en la etapa de simulaciones, pero que ahora buscan completarlo encontrando dentro de la señal de electroencefalograma (EEG) las palabras no pronunciadas que lleven a un comando.

“Esto no es simple, son campos desconocidos, hay que abrir camino, sobre todo en México. Ningún otro grupo en el país está desarrollando la combinación de todo un ambiente controlado por la mente”, concluyó.

Con estas acciones, el INAOE —que forma parte del Sistema Nacional de Centros Públicos Conahcyt—, cumple lo establecido en la primera Ley General en materia de Humanidades, Ciencias, Tecnologías e Innovación (LGHCTI), orientando capacidades, talento e infraestructura a brindar soluciones a problemas prioritarios del país y garantizar el derecho humano a la ciencia.

Sigue la información de última hora en las redes sociales de URBANO Noticias Puebla y Tlaxcala.

Te recomendamos: URBANA | Pamela y Marie: los obstáculos que deben superar tlaxcaltecas con discapacidad

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *