RSS

Xbox One-HighTech für Gehörlose #gebärdensprache

01 Nov

Kinect für Echtzeit-Übersetzung in Gebärdensprache – http://winfuture.de/news,78606.html

Hightech für Gehörlose, seit 1990 Jahren gibt es europaweit immer wieder millionenschwere Forschungsprojekte zu diesem Thema. Bekannteste Forschungsprojekte wie Wisdom oder eSign und ihr Ziel ist im Kern immer dasselbe: Gehörlosen Menschen, die bevorzugt per Gebärdensprache kommunizieren, das Leben zu erleichtern. Trotzdem sind alle Projekte kläglich gescheitert. Wer sich an das WISDOM- oder eSign-Projekt erinnert, das alle Millionen Euro aus einem Forschungsförderprogramm häufig versenkt wurden. Die Erwartungen waren damals groß. Erfüllt haben sie sich bis heute nicht und wird es auch bis heute so bleiben.

Woran liegt das?

Die animierte Bildschirmpuppe sollte deren Texte für Gehörlose darstellen, nachdem menschliche Dolmetscher sie zuvor in Gebärdensprache übersetzt hatten. Die animierte Bildschirmpuppe bewegt dabei Arme, Hände, Oberkörper, Kopf und Mund und zuckt auch mal mit der Augenbraue und Schulter. Der Bildschirmpuppe musste also lediglich deren Gesten und Mimik nachahmen, doch das gelang oft nicht zufrieden stellend. Viele Zeichen blieben oft kryptisch. Größte Haken überhaupt: Die animierte Bildschirmpuppe konnte man nichts von den Lippen ablesen. Und auch wegen der abgehackten und steifen Bewegungen konnte ihn niemand verstehen. Ein Avatar ohne Gefühle dürfte auf Gehörlose wirken wie eine monotone Computerstimme für Hörende. Auf die Dauer unmöglich! Genau aus diesem Grund kann man niemals so eine einen menschlichen Dolmetscher ersetzen.

Die fehlende Emotionalität des Bildschirmpuppe ist häufig ein Manko, weil sie oft zu Missverständnissen führt. Zum Beispiel „Gehörlose integrieren sich toll in die Gesellschaft“. Wenn Sie ‚toll’ gebärden und dazu die finsterste Mine zeigen, kann man das eventuell als Ironie oder sonst was interpretieren aber nicht so, wie es wirklich gemeint war.

Weitere Manko: Viele Gehörlosen gebärden individuell und kulturell unterschiedlich, es sei den Mimik, Gestik, Körperhaltung und Körperverhalten. Wie man aus dem Kinetec-Präsentationsfilm entnehmen kann, müssen auch viele menschliche Gehörlose möglichst ganz steif gebärden können, damit die Spracherkennungssoftware ihn besser identifizieren können.

Es gibt weder leistungsfähiges Erkennungsprogramm für irgendeine Gebärdensprache noch Übersetzungsprogramm von Deutsch zu DGS (= Deutsche Gebärdensprache) oder LBG (= Lautsprachbegleitende Gebärden) = oder LUG (= Lautsprachunterstützende Gebärden), geschweige denn von anderen Sprachen zu anderen Gebärdensprache.

Ergebnis: Für viele Gehörlose sind die Gebärdensprachdolmetscher oder gebärdensprachkompetente Menschen aus „Fleisch und Blut“ schon unbezahlbar und verzichten ganz auf virtuelle Gebärdensprachdolmetscher, die kein Gehörloser braucht.

 
7 Kommentare

Verfasst von - 1. November 2013 in Gebärdensprache

 

Schlagwörter: , , , , , ,

7 Antworten zu “Xbox One-HighTech für Gehörlose #gebärdensprache

  1. Andre Jaenisch

    8. November 2013 at 11:59

    Hey, hallo,

    danke für deinen Artikel. Ich hab ihnen ein paar Leuten weiterempfohlen.

    Zum Punkt Emotionalität und Gebärden-Erkennung:
    Ich denke, da ist die Assistive Technologie (= AT) eh noch sehr jung. Hast du schon einmal von einem Screenreader gehört? Das sind diese Programme, mit denen Blinde sich den Bildschirm vorlesen können. Ich weiß, dass Gehörlose mit akustischen Reizen nicht viel anfangen können, aber ich kann dir versichern, dass die Stimme sehr mechanisch klingt 😉

    Was hier fehlt sind Meta-Informationen. So Sachen wie „:-)“, die einfach Gefühle verschriftlichen. Es sind Informationen, die der (nicht-)behinderte Mensch aus der Körpersprache, Stimmfarbe usw. entnimmt.

    Ich bin ja beim Überlegen, ob die Ansätze nicht auf einer gemeinsamen Infrastruktur aufsetzen sollten … also, dass man die Inhalte für beide (Blinde und Hörgeschädigte) verarbeitet und nur das Ausgabeformat anpasst. Werde mich einmal mit den AT-Entwicklern kurz schließen …

    So sehr ich die Fortschritte (im Juli gab es schon einmal ein Demo-Video) von Microsoft begrüße, stört es mich doch, dass der Code proprietär bleibt. Das hat jetzt weniger mit „Linux-Freak“ zu tun, als vielmehr mit folgenden Überlegungen:

    * Der Nutzer kann unmöglich wissen, ob die Software Daten mitschnüffelt/heimlich überträgt.
    * Microsoft kann zu einem beliebigen Zeitpunkt den Dienst einstellen (bspw. weil es nicht profitabel genug ist).
    * Microsoft kann den Preis festlegen. Und nein, Krankenkassen werden nicht ewig alle Kosten übernehmen. Noch weniger die Ämter. Und ich finde, Menschen mit Behinderungen sind eh schon finanziell gebeutelt genug.

    Am liebsten wäre mir Freie Software dafür 🙂
    Wie siehst du das?

     
    • hewritesilent

      8. November 2013 at 15:12

      So einfach ist das nicht, die Gebärdensprache entwickelt und ändert sich halt. Ich habe mal ein Film „Verkannte Menschen“ aus dem Jahre 1933 kurz gesehen. Mit diesem Film bekommt man Einblicke, wie die so gebärdet haben und ist wenig zu vergleichen. Wir wissen auch nicht, wie die Gebärdensprache damals in Deutschland 1960, 1945, 1920 ausgesehen hat und auch wir wissen auch nicht wie die Gebärdensprache in 2050 aussieht? Ein guter Vergleich

       
      • Andre Jaenisch

        11. November 2013 at 10:44

        Na ja, dann muss das Programm eben so entworfen werden, dass die Gebärden ausgetauscht werden können. Ist technisch lösbar.

        Ich werde die Mundbewegungen aber im Hinterkopf behalten und besondere Aufmerksamkeit zukommen lassen.

         
        • hewritesilent

          14. November 2013 at 12:46

          Technisch lösbar ist das auf jeden Fall. Aber wie stellst du Dir eigentlich vor, wenn die bestimmte Gebärdenbegriffe ausgetauscht werden sollte? Nenne mir bitte mal deine Beispiele.

           
          • Andre Jaenisch

            14. November 2013 at 13:31

            Ich werde darüber auch noch einmal bloggen.

            Aber in Kürze: Ich definiere eine Bibliothek (stell es dir als Wörterbuch ala Kestner vor), die beschreibt, wie eine Handstellung aussieht. Daneben legt sie auch noch fest, welche Bewegungen es gibt.
            In einer weiteren Bibliothek wird dann das eigentliche Wörterbuch festgelegt: Welches Wort benötigt welche Handstellung und -bewegung.

            Für die Gestaltung des Avatars gibt es noch eine Bibliothek usw.

            Damit kann dann auch von Bundesland zu Bundesland eine angepasst Version verwendet werden.

            In meinem Kopf ist da schon vieles zusammengesetzt. Ich muss es nur noch zu Papier bzw. zu Code bringen. Derzeit will ich aber noch mit einigen Leuten Kontakt aufnehmen, die schon länger mit Barrierefreiheit (was sich oftmals auf die Sehbehinderten bezieht) auskennen. Bestimmt gibt es noch das eine oder andere zu verbessern und zu beobachten.

            Wie eben die von dir kritisierten Mundbewegungen oder Emotionen.

            Der Punkt ist: Es muss einfach und intuitiv sein. Vielleicht ein Plugin. Denn sonst ist es Aufwand, ohne dass ein Mehrgewinn für die „nicht-behinderte“ Zielgruppe daraus erwächst.

            Meine Überlegung wäre, ob man die Barrierefreiheits-Vorschriften nicht für alle erschließen könnte irgendwie … aber darüber diskutiere ich noch mit den Experten 😉

            Du folgst ja meinem Blog, oder?

             
          • hewritesilent

            14. November 2013 at 14:30

            Ja, ich folge deinem Blog.

             

Hinterlasse einen Kommentar