Wir arbeiten bei der Schwesternfirma PAGES Media, einer Filmproduktion, viel für Microsoft. Wir filmen auf vielen Events in Europa und sorgten auch für manuelle Untertitel. Microsoft hat 2018 eine interne Richtline erschaffen, durch die Events ab einer gewissen Größe mit Untertiteln ausgestattet werden sollen. In den USA sind solche Untertitel viel verbreiteter und Konzernboss Nadella hat selbst ein behindertes Kind. Auch deshalb engagiert er sich stark für Inklusion. Toller Typ! So flogen wir oft Stenographen durch die Welt, buchten Hotels für sie und die tippten sich auf Events die Finger wund.
Manchmal ging es daneben: Ein Dienstleister, der auch den Stenographen per Skype zuschaltet, gibt seine Texte nur auf der Website aus. Diese muss dann die Technik auf dem Event live per Farbkey herausfiltern und einblenden. Trotz ewiger Vorabtests stürzte bei einer großen Konferenz die Anzeige ab und auf der Bühne waren der Browser mit irgendwelchen Symbolen zu sehen. Leider während der Ansprache der Geschäftsführerin eines riesigen Konzerns und vor mehreren tausend Teilnehmern. Bei einem anderen Kunden ging erneut etwas schief. Ein Dienstleister hatte sehr junge Neulinge geschickt und die kamen mit dem Gesprochenen überhaupt nicht mit. Die Untertitel waren fehlerhaft und mit viel zu langen Verzögerungen. Darüber waren natürlich weder der Kunde noch wir erfreut. Und diese Einsätze haben immer eine Menge Geld gekostet.
So kam es dann zur zündenden Idee. Warum eigentlich nicht die Sprache von einem Computer erkennen lassen? Und der Stenograph korrigiert einfach gemütlich von Zuhause aus? Nach ersten Tests waren wir sofort überzeugt. Wenn das mit einem lausigen Laptop-Mikrofon, im lauten Büro, schon so gut funktioniert, musste es mit gutem Ton und optimiertem Programmcode noch besser klappen. Ab diesem Zeitpunkt wuchs die Idee. Ein richtiges, digitales Produkt, das auch noch Menschen hilft. Wow! Das zündete direkt und ich lag nachts oft wach und grübelte. Warum nutzen wir nicht künstliche Intelligenz um die Ergebnisse immer besser zu machen? Die Maschine arbeitet und der Mensch kontrolliert nur noch. Cool! Wir suchten Entwickler und aus der Idee wurde ein Projekt, finanziert von meinen Ersparnissen. Zurück gibt es das schöne und sehr motivierende Gefühl etwas Sinnvolles zu machen. Inzwischen hat EVE schon ihren ersten Livetest hinter sich und steht kurz vor der ersten offiziellen Version.
Am Anfang nannten wir EVE viele Monate EVA. EVA ist ein Grundprinzip der Datenverarbeitung und steht für Eingabe, Verarbeitung und Ausgabe. So strukturiert man Programme grundlegend. Die Idee: Unser Dienst nimmt Sprachdaten entgegen, verarbeitet sie zu Text und gibt sie wieder aus. So einfach – so passend. Aber EVA war nicht so international. Also haben wir daraus EVE gemacht. EVE steht für Eingabe, Verarbeitung, Eingabe. Warum das immer noch richtig ist? Die Ausgabe, also das frühere „A“ ist für Menschen mit Hörbeeinträchtigung auch wieder die Eingabe, also unser neues „E“. So entstand EVE.
Die Umstellung fiel uns nicht leicht, denn wir redeten schon lange von EVA. Auch IT-Ordner, Präsentationen und Co waren so getauft. Nachdem wir uns aber zwei Wochen lang ständig selbst verbesserten ging es langsam. EVE lernt da schneller 😉. Die Entwickler Robin und Daniel fingen auch langsam an das alte Wort überall auszubessern. Heute finden wir nur noch wenige Erinnerungen an den alten Namen.
Natürlich ist auch unser Logo kein Zufall. Hier hat sich die tolle Designerin Ursl viele Gedanken gemacht. Das VE schiebt sich über das E (Eingabe), es kam also danach noch dazu und macht das Ganze aber erst vollständig. Denn unsere Gesellschaft ist nur vollständig, wenn wir uns um andere Gedanken machen und uns um Inklusion kümmern. Wer nicht inkludiert, der exkludiert. Da gibt es nichts dazwischen. Und zu dieser Mission zählt auch die Weiterverarbeitung unserer Kommunikation und die (passend gemachte) Eingabe für unsere Mitmenschen. Für diese Dinge stehen das „V“ und das „E“.