Domain Adaptation and Transfer Learning methods enhance Deep Learning Models used in Inner Speech Based Brain Computer Interfaces

  • Luciano Ivan Zablocki Facultad de Ingenieria y Ciencias Hidricas, FICH, UNL
  • Agustín Nicolás Mendoza Facultad de Ingenieria y Ciencias Hidricas, FICH, UNL
  • Nicolás Nieto Instituto de Matemática Aplicada del Litoral, IMAL, UNL-CONICET - Instituto de Investigacion en Señales, Sistemas e Inteligencia Computacional, sinc(i), UNL-CONICET

Resumen

Las interfaces cerebro-computadora (ICC) son útiles dispositivos que permiten restablecer, al menos parcialmente, la comunicación de pacientes gravemente afectados. Aunque los avances en aprendizaje profundo han mejorado significativamente el reconocimiento de patrones cerebrales, estos métodos requieren una gran cantidad de datos para entrenar sus numerosos parámetros. En los últimos años, el paradigma del habla interna ha atraído especial atención dentro de las ICCs, ya que tiene el potencial de permitir un control mucho más natural de los diferentes dispositivos. Sin embargo, todavía solo una pequeña cantidad de datos está disponible en este paradigma. En este trabajo mostramos que es posible, mediante métodos de aprendizaje por transferencia y adaptación al dominio, aprovechar al máximo los escasos datos, mejorando el proceso de entrenamiento, tanto en clasificación cómo tiempo de entrenamiento, de una arquitectura de aprendizaje profundo utilizada en ICC.

Publicado
2023-05-03
Cómo citar
Zablocki, L., Mendoza, A., & Nieto, N. (2023). Domain Adaptation and Transfer Learning methods enhance Deep Learning Models used in Inner Speech Based Brain Computer Interfaces. Electronic Journal of SADIO (EJS), 22(1), 67-81. Recuperado a partir de https://publicaciones.sadio.org.ar/index.php/EJS/article/view/468