×

Warnung

JFolder::create: Das Verzeichnis kann nicht erstellt werden!Path: /wpool

Lautlose Sprachkommunikation

SilentSpeechArrayLorenzDas Cognitive Systems Lab an der Universität Bremen arbeitet an Silent Speech Interfaces, die es Menschen erlauben, völlig lautlos zu sprechen und dennoch vom Gesprächspartner verstanden zu werden. Im März 2010 haben wir unseren Prototypen zum ersten Mal auf der CeBIT, der weltgrößten IT-Messe, vorgestellt. Eine Vorabdemonstration gaben wir bereits auf der CeBIT VISION-Presseschau am 24. November 2009.

Auf dieser Seite finden Sie einige Informationen zu unserer Technologie.

Technologie 

Die Technologie basiert auf der Elektromyographie - der Erfassung und Aufzeichnung elektrischer Potentiale, die durch Muskelaktivität entstehen. Sprache wird durch die Kontraktion von Muskeln produziert, die unseren Artikulationsapparat bewegen. Die elektrischen Potentiale, die durch diese Muskelaktivität entstehen, werden durch Elektroden an der Hautoberfläche aufgezeichnet. Eine Analyse dieser Signale durch geeignete Mustererkennungsverfahren erlaubt es, von den aufgezeichneten elektrischen Potentialen auf die Bewegungen des Artikulationsapparates und damit auf die Sprache selbst rückzuschließen. Die erkannte Sprache kann dann als Text ausgegeben werden, oder sie lässt sich direkt akustisch resynthetisieren. Da die Elektromyographie auch dann Muskelaktivität erfasst, wenn eine Sprecherin nicht hörbar spricht, sondern nur lautlos artikuliert, kann mit diesem Prinzip lautlos gesprochene Sprache erkannt und verarbeitet werden. 

Anwendungen 

Unser Prototyp wird seit 2004 entwickelt. Die folgenden Anwendungen sind bisher möglich:

  1. Lautloses Telefonieren: Lautloses Sprechen in leisen Umgebungen erlaubt Kommunikation, ohne Andere zu stören.
  2. Übermittlung vertraulicher Informationen: Nahtloser Wechsel zwischen laut und lautlos gesprochener Sprache ermöglicht die abhörsichere Übermittlung vertraulicher Informationen.
  3. Störungsfreie Kommunikation in lauten Umgebungen: Elektromyographie erlaubt es, in lauten Umgebungen störungsfrei zu kommunizieren, da Signale direkt am Körper aufzeichnet werden.
  4. Sprechen in einer fremden Sprache: Erkennung lautloser Sprache wird mit der Übersetzung in eine fremde Sprache gekoppelt. Ein Sprecher produziert einen Satz in seiner Muttersprache, und der Empfänger erhält die Information in seine Sprache übersetzt. Es erscheint, als würde der Sprecher in einer fremden Sprache sprechen.
  5. Hilfe für sprachbehinderte Menschen: Unsere Technik kann auch Menschen das Leben erleichtern, die durch Krankheiten oder Unfälle ihre Stimme verloren haben.

Downloads

EMG-UKA Trial-Datenkorpus

Kontakt

Weitere Anfragen können Sie an folgende Personen richten:

Prof. Dr.-Ing. Tanja Schultz
Cognitive Systems Lab, Universität Bremen
Enrique-Schmidt-Str. 5
28359 Bremen
Tel. +49 (0) 421 218 64270

Lorenz Diener M. Sc.
Cognitive Systems Lab, Universität Bremen
Enrique-Schmidt-Str. 5
28359 Bremen
Tel. +49 721/608-45059

Relevante Publikationen

Im folgenden finden Sie eine nach Publikationsdatum sortierte Liste unserer Publikationen zur Lautlosen Sprachkommunikation. Zum Einlesen in die Thematik eignen sich besonders Session-Independent EMG-based Speech Recognition (, , International Conference on Bio-inspired Systems and Signal Processing , ) und Modeling Coarticulation in EMG-based Continuous Speech Recognition (, , Speech Communication Journal, volume 52, ). 

 

CSL Logo rot webseite 

 
Kontakt
Cognitive Systems Lab
Prof. Dr.-Ing. Tanja Schultz
 
Enrique-Schmidt-Str. 5
28359 Bremen

Telefon: +49 (0) 421 218 64270
Email: