
En la conferencia digital Microsoft Explicó en Berlín, pudimos probar EVE en directo por primera vez en condiciones reales. Sorpresa al principio: Microsoft encontró el producto tan emocionante que se pidió a nuestro colega Maxi Krause que lo presentara en el escenario, ya que el tema del evento era «Inteligencia Artificial». El presentador Daniel Finger le hizo algunas preguntas:
La idea principal de EVE es implicar activamente a las personas con discapacidad auditiva en los actos. Hasta ahora, esto resultaba muy costoso. Se necesitaba un taquígrafo in situ para proporcionar subtítulos en tiempo real. Convirtieron la palabra hablada en texto.
Según un informe de la Organización Mundial de la Salud (OMS), hay 466 millones de personas con deficiencias auditivas en el mundo (en 2018). Muchas de ellas dependen de los subtítulos para entender algo. En triste contraste, muy pocos programas de la web, la televisión y los eventos están subtitulados.
Hemos desarrollado EVE para que este servicio pueda estar disponible en el mayor número posible de eventos. EVE utiliza la IA y los Servicios Cognitivos de Microsoft para generar subtítulos, que luego vemos en directo en un monitor o mediante un enlace en nuestro propio dispositivo. También podrías abrir esta vista en tu teléfono móvil, totalmente responsive, directamente en el navegador. Todo en tiempo real y mucho más barato.
Seguí los subtítulos durante la keynote. En mi opinión, EVE ha alcanzado hoy cerca del 90% de donde queremos llegar. Pero: EVE aún está en proceso de creación. Lo que vemos hoy aquí es sólo una versión para desarrolladores. Está lejos de ser perfecto y todavía se está optimizando.
También necesitas saber para la evaluación: Es posible interponer un corrector humano. Esta persona comprueba las frases reconocidas y corrige los errores menores, como los términos técnicos. Nuestro servicio mejora la ortografía y la puntuación por sí mismo en tiempo real. Por cierto: el corrector también puede estar en cualquier parte del mundo. Lo único que necesita es un navegador e Internet.
EVE estuvo en funcionamiento continuo durante 8 horas y Maxi dedicó media hora a explicar al público en qué consiste nuestro servicio. (Fuente: Filmgsindl GmbH)
El servicio aprende automáticamente con cada corrección que un corrector hace a una palabra. Por ejemplo, si se corrige cinco veces la palabra «té helado» por «Iot»(Internet de las cosas), EVE lo recuerda. La próxima vez utilizará la palabra correcta. Por defecto, estas experiencias sólo permanecen inicialmente en la cuenta del cliente. Sin embargo, el usuario puede permitir que el EVE comparta con otros lo que ha aprendido. Se trata de cuestiones de protección de datos muy importantes en la era de la IA.
Las mayores dificultades surgen cuando la gente habla al mismo tiempo. Pero incluso nosotros tendríamos dificultades para entender lo que se dice. Los acentos tampoco son fáciles, por ejemplo, un estadounidense dando un discurso en alemán. O un muniqués con un dialecto bávaro. Sin embargo, podemos contrarrestarlo. En el futuro, EVE también podrá entrenarse con modelos lingüísticos. Entonces, los clientes podrán pedir a su interlocutor que grabe 10 frases en su teléfono móvil y las envíe al EVE. Esto aumenta enormemente la tasa de reconocimiento de palabras. Aprende términos técnicos de forma muy sencilla mediante la carga de un diccionario.
No, ¡al contrario! ¡Y eso fue muy importante para nosotros desde el principio! Concedemos licencias de EVE a los taquígrafos a un precio especial. Pueden utilizarlo para subtitular eventos sin tener que estar in situ. No tienen que viajar tanto. Eso reduce los precios. Esto significa que pueden conseguir clientes que, de otro modo, no habrían podido permitirse subtitular. Por tanto, no se pierden puestos de trabajo, sino que se vuelven más digitales y remotos.
EVE es un proyecto cercano al corazón de Tom Papadhimas y al mío, y creemos que podemos conseguir mucho con él. ¡Y aún tenemos mucho planeado! Por ejemplo, muchos idiomas nuevos y traducción en directo. También estamos planeando mostrar el texto en diferentes colores para cada hablante utilizando el reconocimiento de hablante. A largo plazo, también está prevista la compatibilidad con las HoloLens. Imagínate estar en un estadio de fútbol, ponerte las HoloLens y ver los subtítulos en directo del locutor del estadio.
Está previsto que EVE empiece a funcionar en febrero de 2019. Hasta entonces, recopilaremos experiencia con clientes de prueba seleccionados y seguiremos desarrollando el servicio basándonos en sus comentarios. Cualquiera que desee probar EVE en su entorno o tenga ideas puede ponerse en contacto con contacta con nosotros¡!
