Signavox es una aplicación web para traducir el lenguaje de señas mexicano (LSM) a oraciones, se trata de un traductor desarrollado por estudiantes de la Facultad de Ciencias de la Electrónica (FCE) de la BUAP, quienes han puesto en alto el nombre de la institución al obtener con este trabajo la medalla de oro en Infomatrix Argentina, XX Concurso Iberoamericano de Proyectos Estudiantiles de Ciencia y Tecnología.
El equipo, que compitió con pares de al menos seis países y ganó en la categoría de desarrollo de software, está formado por los alumnos de Electrónica: Iralice Cardona Castillo, Fernando León Oropeza (bicampeón de Fepro) y José Orizaga y Espin de Mecatrónica. Su trabajo, asesorado por el maestro Nicolás Quiroz Hernández, obtuvo previamente el primer lugar en la categoría de desarrollo de Software y Hardware en la XVII Competencia Fepro 2025, realizada por la Facultad de Ciencias de la Computación de la BUAP, lo que les permitió obtener la acreditación para asistir al encuentro internacional.
Signavox inició en el Laboratorio SLED de la FCE, un centro de desarrollo de prototipos electrónicos donde se diseñan y elaboran trabajos que forman a los alumnos de licenciatura y posgrado. De este espacio han salido proyectos ganadores de Fepro en los años 2019, 2024 y 2025.
Cómo funciona
En el desarrollo de esta host o aplicación web, Iralice Cardona se encargó de la base de datos, para ello fue necesario conocer el lenguaje de señas para grabarlo, a fin de que la inteligencia artificial (IA) aprendiera cada seña. Por su parte, Fernando León trabajó en el núcleo del proyecto, es decir, el modelo de IA y en su capacidad para traducir y formar las oraciones. José Orizaga contribuyó con la base de datos, pero, sobre todo, con el desarrollo de la interfaz.
El mecanismo de operación es sencillo: cuando una persona que emplea el LSM se coloca frente a la pantalla, el programa arma un diseño de hombros, brazos, manos y rostro de la persona, a través de puntos de referencia, con el fin de obtener información cada vez que se muevan y formen una letra o palabra con señas. Posteriormente, con una herramienta de Google se obtiene un cubo de datos en tres dimensiones, partiendo de los diferentes puntos de referencia de las posiciones, así se implementa el modelo de IA.
“Lo que hacemos es tomar 42 poses o imágenes y se manda al modelo implementado, el cual es un clasificador, es decir, registra los movimientos, cómo se van ejecutando y así suelta una respuesta, que es básicamente la traducción de la seña en una palabra. De ahí, lo que hacemos es tomar las últimas cinco predicciones para poder formar una oración y para eso nos apoyamos en un modelo de lenguaje”, explicó Fernando León.
Respecto a la interpretación, José Orizaga añadió que el LSM no tiene tantos conectores como el idioma español, de ahí que no sea lo mismo hablar que expresarse en lenguaje de señas.
“Por eso son importante las probabilidades, con las cuales se apoya la interpretación para formar la oración, dando prioridad a una palabra para traducir; todo esto se trabajó con la interfaz, que se fue mejorando”.
Para entender mejor las necesidades de los usuarios del LSM, Iralice Cardona refiere que buscaron la asesoría de una psicóloga y colaboraron con Victoria Alemán y Mariana Mendoza, quien presenta una discapacidad auditiva, además de ser maestra en lenguaje de señas, lo que les permitió comprender y respetar sus dinámicas de comunicación.
Sobre el triunfo en Infomatrix Argentina, que tuvo lugar del 16 al 18 de octubre, el maestro Nicolás Quiroz destacó que la obtención de la medalla de oro tiene doble mérito, porque sus alumnos se enfrentaron a proyectos de otros países con más tiempo de maduración; no obstante, destacó que la capacidad de autogestión y sus habilidades blandas en materia de comunicación, expresión y trabajo en equipo, fueron claves para su éxito.
Refirió que en este evento internacional se comparten experiencias entre los asesores de los equipos, lo que les permitió valorar el apoyo brindado por la BUAP y las facultades de Electrónica y de Ciencias de la Computación.
A futuro, la intención es que Signavox se convierta en un traductor reconocido no sólo para el lenguaje de señas en español, y aunque los creadores reconocen que los proyectos de IA requieren de una inversión importante, confían en mejorarlo a fin de obtener financiamiento y lograr la traducción bidireccional, es decir, no solo de señas a texto, sino también de texto a imagen de señas.
Impacto social
Signavox responde a las necesidades de un sector vulnerable que aún requiere de mayores oportunidades para favorecer su inclusión social. De acuerdo con datos del Inegi, en 2021, en el país se reportaron casi seis millones de personas con discapacidad, de las cuales 12.1% presentaron problemas de audición, de ahí la importancia de promover la enseñanza del Lenguaje de Señas Mexicano.
Signavox facilitaría que las y los niños sordos tengan acceso a la educación básica, obligatoria y bilingüe, que comprenda la enseñanza del idioma español y del LSM, pues las cifras oficiales revelan que sólo 21 de cada 100 sordos de entre tres y 29 años van a la escuela; en promedio 47% alcanza el cuarto grado de primaria, lo que dificulta sus posibilidades para acceder a un trabajo digno y bien remunerado, y por lo tanto, gozar de una mejor calidad de vida.






