TECNOLOGÍA

La herramienta Asistente Virtual para la Comunicación identifica sonidos emitidos por personas con parálisis cerebral

imagen

El  Asistente Virtual para la Comunicación (AVC) es un proyecto de Fundación Vodafone España, junto con la Universidad de Burgos y APACE Burgos que se ha presentado hoy en el centro de Fuentecillas.

Redacción BurgosNoticias 
13/06/2019 - 18:00h.

Cuando la tecnología se perfecciona y queda al servicio de las personas parece reconciliarse con la condición humana. Así lo pone de manifiesto una nueva aplicación llamada Asistente Virtual para la Comunicación AVC que permite identificar sonidos emitidos por personas con parálisis cerebral.

El  Asistente Virtual para la Comunicación (AVC) es un proyecto de Fundación Vodafone España, junto con la Universidad de Burgos y APACE Burgos.

La comunicación en las personas gravemente afectadas de parálisis cerebral se limita, en la mayoría de las veces, a sonidos o gritos interpretables únicamente por sus familias o cuidadores principales. Esta circunstancia va a reducir a un círculo muy pequeño sus interacciones sociales, supeditándose siempre a la presencia de una tercera persona.

La tecnología AVC va posibilitar a personas con graves dificultades cognitivas y de comunicación el acceso al entorno de forma autónoma. Además permite la presencia de la persona en otros entornos fuera de los habituales al normalizar su comunicación, así como la independencia de sus cuidadores principales. la tecnología AVC permite el acceso a nuevos contextos de relación más allá de su entorno familiar habitual y abre la puerta a una forma alternativa de comunicación a personas con una grave discapacidad cognitiva y de comunicación; además permite ser usado en personas con otras discapacidades y es adaptable a las necesidades individuales de cada persona.

Persigue fomentar la comunicación y la autodeterminación en personas con dificultades cognitivas y de comunicación grave, desarrollando una tecnología de fácil manejo aplicable a soportes como tabletas o teléfonos móviles que interprete los sonidos o gritos que la persona emite, asociando éstos a un mensaje verbal.

Así cualquier persona que esté en contacto con la persona con discapacidad, podrá entender sus emisiones. Esta tecnología ayuda a saber si lo que una persona gravemente afectada ha emitido, se trata de un llanto de dolor, de hambre, de disgusto o por el contrario, si se trata de un grito de alegría, de sorpresa o para hacernos partícipes de algo que le ocurre.

La comunicación, es el canal por el que las personas nos conectamos con nuestro entorno. Ésta, va más allá de las palabras, y se sabe con certeza que todos comunicamos y que todo, hasta el silencio, comunica. De esta idea, extraemos que cualquier persona, y también las personas gravemente afectadas tienen mucho que comunicar, aunque la dificultad sea llegar a comprender lo que expresan.

En cuanto a la tecnología utilizada en este proyecto, se han utilizado los Google Forms, para la realización de las encuestas a las familias, se ha utilizado el sistema operativo Android para el desarrollo de la aplicación móvil para la creación del conjunto de datos de sonidos y para la aplicación de predicción del tipo de sonidos. Framework Flash se ha utilizado para el servidor web que aloja el clasificador de sonidos y Python Data Science Stack (Sklearn Tensorflow, Keras...) para la construcción y evaluación del modelo de clasificación.

TAMBIÉN TE PUEDE INTERESAR

--- patrocinados ---
Deja tu comentario
publicidad
publicidad


publicidad