Zum Hauptinhalt springen Zum Footer springen Zum Ende der Navigation springen Zum Beginn der Navigation springen

Sprachsynthese von auditiven Lehrbüchern für blinde Schüler/innen (SALB)

Sprachsynthese von auditiven Lehrbüchern für blinde Schüler/innen

Informationstechnologie im Allgemeinen und Sprachtechnologie im Besonderen haben den Zugang zu Informationen für blinde und sehgeschädigte Benutzer/innen stark verbessert. Heute können blinde Nutzer/innen auf die gesamte Information im Web mittels sprachbasierter User Interfaces (UI) zugreifen. Der Vorteil von sprachbasierten UIs gegenüber Braillezeilen ist, dass erstere kostengünstiger sind und ohne spezielles Training verwendet werden können. Durch eine Kombination von sprachbasierten UIs und Braillezeilen ist eine noch robustere Interaktion möglich.

 

Parametrische Methoden der Sprachsynthese werden heute in vielen sprachbasierten UIs verwendet, da sie wenig Speicher benötigen, effizient berechnet werden können und flexibel sind. Bezüglich der Verständlichkeit sind diese Methoden hinreichend gut, aber bezüglich der Qualität, der Adaptierbarkeit und der Verständlichkeit von schnell gesprochener Sprache gibt es noch Verbesserungsbedarf. Parametrische Methoden, die auf hidden Markov Modellen (HMM) basieren, erlauben ein großes Maß an Flexibilität. Mittels Adaption von Modellen ist es möglich, einfach Stimmen für eine(n) bestimmt(e) Sprecher(in) zu entwickeln. Adaptive Methoden können auch für die Generierung von schnell gesprochener Sprache verwendet werden, was für blinde Nutzer/innen sehr wichtig ist, um effizient mit einem Informationssystem zu interagieren. In diesem Projekt haben wir HMM basierte Synthese verschiedener Varietäten (Standard, Dialekt, Soziolekt) für auditive Lehrbücher evaluieret. Außerdem haben wir den Einfluss von verschiedenen sozialen Rollen (Lehrer/innen - Schüler/innen) sowie von Selbst- und Fremdwahrnehmung untersucht, der zwischen dem Hörenden und der Person, dessen Stimme synthetisiert wird, besteht.

 

In der Basistechnologie haben wir die Synthese von schnell gesprochener Sprache mit HMMs unter Verwendung von Adaptations- und Interpolationsmethoden optimiert.

Die Expertise der Schüler/innen und Lehrer/innen ist über User Workshops in das Projekt eingeflossen und sie waren an der Entwicklung und Evaluation der synthetischen Stimmen beteiligt. Die Erkenntnisse aus der Kooperation mit den Schüler/innen und Lehrer/innen konnten wesentlich zur Entwicklung besserer sprachbasierter Benutzeroberflächen beitragen.

Dieses Projekt ist bereits abgeschlossen.

Der Alternativtext wird in Kürze eingefügt
© OeAD

Forschungsprojekt
4. Ausschreibung


Projektleiter
Laufzeit
01.02.2013 – 31.07.2015
YouTube ist deaktiviert

Für die Verwendung von YouTube Videos benötigen wir Ihre Zustimmung. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.

Vimeo ist deaktiviert

Für die Verwendung von Vimeo Videos benötigen wir Ihre Zustimmung. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.

OpenStreetMap ist deaktiviert

Für die Verwendung von OpenStreetMap benötigen wir Ihre Zustimmung. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.

Issuu ist deaktiviert

Für die Verwendung von Issuu benötigen wir Ihre Zustimmung. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.