
La estudiante de ingeniería Priyanjali Gupta ha desarrollado un software de IA que traduce el lenguaje de signos en palabras en tiempo real.
Una joven desarrolla un software de IA para traducir el lenguaje de signos en tiempo real
Una estudiante de ingeniería india de 20 años ha utilizado la IA para desarrollar un software que traduce el lenguaje de signos en palabras en tiempo real. Priyanjali Gupta, estudiante de tercer año del Instituto de Tecnología de Vellore, en el estado de Tamil Nadu (India), ha desarrollado un software que utiliza una cámara web y tecnología basada en la IA para identificar el gesto del lenguaje de signos y traducirlo al instante en palabras. Por el momento, este innovador software sólo traduce el lenguaje de signos americano (cada lengua de signos es diferente). Disponible como código abierto, es muy probable que la comunidad científica retome esta innovación para duplicarla, adaptarla a otras lenguas de signos y mejorarla. — Initiatives

El modelo de IA que convierte el lenguaje de signos en tiempo real se hizo viral en LinkedIn.
Gupta declaró a la revista Analytics India:
"Creo que no tenemos suficiente inclusión en la tecnología para las personas con discapacidades especiales. ¿Qué pasa si los sordos y los mudos quieren acceder a asistentes de voz como Google, Echo o Alexa? Realmente no tenemos ninguna solución para eso. Además, no podía dejar de pensar en una de las alumnas de mi madre que tiene una discapacidad auditiva y en lo difícil que le resultaría expresar sus pensamientos. Decidí hacer este modelo a pequeña escala.
Este modelo impulsado por la IA está inspirado por el científico de datos Nicholas Renotte y está construido utilizando la API de detección de objetos de TensorFlow. Tiene muchas capacidades adicionales, lo que facilita mucho la construcción de modelos de detección de objetos. Utilicé un pequeño conjunto de datos de 250 a 300 imágenes, hice las anotaciones manualmente y utilicé un modelo SSD preentrenado para obtener precisión. El código está escrito en Python, y he ejecutado todo en Jupyter Notebook.
Creo que el problema de entender el lenguaje de signos es realmente grande y difícil, y un modelo de detección de objetos a pequeña escala no puede resolverlo. Creo que los lenguajes de signos incluyen expresiones faciales, movimientos de hombros y muchas más cosas, y se requiere una red neuronal profunda muy bien entrenada para entenderlo todo.
Se está investigando sobre ello, y creo que tendremos una solución, quizá en los próximos tres o cinco años; no la solución perfecta, pero sí la que pueda aplicarse en la vida real y tenga la flexibilidad de ajustarse al avance de la tecnología. Si mi solución se hace viral, creo que puede hacer que los expertos y los profesionales reflexionen más sobre el tema y encuentren mejores soluciones para mejorar la inclusividad."
Tras su graduación, Gupta planea trabajar durante dos años para entender cómo se resuelven los problemas del mundo real, cómo funcionan las cosas, cómo funcionan las empresas y cómo las personas gestionan sus negocios; después cursará un máster.
Un post sobre su modelo de IA que convierte el lenguaje de signos en inglés en tiempo real se hizo viral en LinkedIn, y el código fuente está disponible en GitHub. Los comentarios anteriores de Priyanjali Gupta proceden de una entrevista más larga en Analytics India Magazine.
Fuente: AnalyticsIndiaMagazine


20 CONSEJOS PARA VIVIR UNA VIDA SIN REMORDIMIENTOS
A menudo, sólo en retrospectiva nos damos cuenta de que deberíamos haber hecho las cosas de otra manera. Mira este vídeo para evitarlo, antes de que sea demasiado tarde haz algo al respecto.