Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Cebit 2017: Saarbrücker Computerlinguisten machen Assistenzsystem für Fluglotsen intelligenter

07.03.2017

Von ihren Entscheidungen hängen Menschenleben ab, ihre psychische Belastung ist enorm. Zwischen 3,5 bis 11,3 Sekunden dauert im Durchschnitt ein Funkkontakt, währenddessen Fluglotsen dem Piloten zuhören, den Radarschirm überprüfen und neue Anweisungen geben. Assistenzsysteme sollen sie dabei unterstützen. Jedoch fehlt diesen die Fähigkeit, die ausgetauschten Kurzsätze zu verstehen und zu verarbeiten. Computerlinguisten an der Universität des Saarlandes haben nun mit dem Deutschen Zentrum für Luft- und Raumfahrt (DLR) ein System entwickelt, das zuhört und mitdenkt. Den Prototyp stellen sie auf der Computermesse Cebit in Hannover vor (Halle 6, Stand E28).

Fluglotsen sind dafür verantwortlich, dass sich Flugzeuge weder in der Luft noch auf Rollwegen und Pisten zu nahekommen. Ihr wichtigstes Hilfsmittel ist dabei das Radar. Per Funk ortet es die Positionen der Flugzeuge und misst ihre Abstände zueinander.


Mit einem simulierten Fluglotsenstand testen Marc Schulder und Professor Dietrich Klakow Saar-Uni das mitdenkende Assistenzsystem.

Oliver Dietze


Das mitdenkende Assistenzsystem

Oliver Dietze

Das „Assistenzsystem zur Planung“ schlägt dem Fluglotsen eine optimale Reihenfolge der Flugzeuge für den jeweiligen Luftraum vor. Dieser Vorschlag basiert auf den Radardaten, über Sprechfunk setzt der Lotse dann die Staffelung mit den einzelnen Piloten um. Von diesem schnellen, abgehackten Dialog zwischen Lotse und Pilot war das Assistenzsystem bisher ausgeschlossen. Das verminderte die Qualität der maschinellen Vorschläge, was sich besonders in Gefahrensituationen als brisant erwies.

„Desto stressiger der Moment ist, desto weniger kann man auf das Assistenzsystem setzen“, bringt es Youssef Oualil auf den Punkt. Oualil forscht an der Fachrichtung Sprachwissenschaft und Sprachtechnologie der Universität des Saarlandes.

Zusammen mit seinen Kollegen Marc Schulder, Dietrich Klakow, Professor für Sprach- und Signalverarbeitung der Saar-Uni, und Hartmut Helmke vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) hat Youssef Oualil ein Softwaresystem namens „AcListant“ entwickelt, das nicht nur dem sprechenden Fluglotsen Gehör schenkt, sondern auch für ihn mitdenkt.

Die Forscher muten es den Lotsen nicht zu, die gesprochenen Kommandos per Tastatur oder Computermaus nachzutragen, sondern setzen auf automatische Spracherkennung. Diese allein hilft jedoch auch nicht. Um zu verhindern, dass von der Spracherkennung unsinnige Befehle erkannt werden, lassen die Forscher sie das Wissen des Assistenzsystems miteinbeziehen.

So werden dem Fluglotsen nur Kommandos vorschlagen, die zur aktuellen Situation passen. Dazu filtert das System zuerst die minimale Menge an Informationsstücken heraus, die für die Befehle tatsächlich relevant sind. „Damit fliegt sprachliches Brimborium wie Guten Morgen oder Hello raus, Identifikationsnummern, Höhenangaben und Befehle bleiben drin“, erklärt Schulder.

Zusätzlich macht das System eine Art Realitätscheck, indem es auch die Daten vom Radar miteinbezieht. Dazu werden aus den Radardaten Wortsequenzen generiert. Die herausgefilterten Informationsstücke, die den Wortsequenzen am meisten ähneln, werden dann an das Assistenzsystem weitergeleitet, damit es diese dem Fluglotsen als potenzielle Anweisungen für den Piloten vorschlägt.

Die Computerwissenschaftler haben ihren Prototypen bereits in verschiedenen Simulationen für einen Großflughafen am DLR-Forschungsflughafen in Braunschweig getestet. „Mit AcListant konnten wir nicht nur die Anzahl falscher Anweisungen im Vergleich zu weniger intelligenten Systemen um den Faktor Vier verringern, die Lotsen kommen auch viel besser mit Schnellsprechern und den verschiedenen Akzenten unter den Piloten zurecht“, berichtet Klakow. Das Deutsche Zentrum für Luft- und Raumfahrt versucht nun, die Kommerzialisierung des Systems voranzutreiben.

AcListant ist nicht das einzige Forschungsprojekt, dem sich Klakow und seine Kollegen widmen. Sie versuchen dem Computer beizubringen, in Zukunft auch nicht eindeutig formulierte Aussagen zu verstehen und sogar bei verwirrenden Ausdrücken wie „verdammt gut“ oder „ganz schön dumm“ die Stimmung zu erkennen.

Des Weiteren sollen Menschen dem Computer intuitiv Fragen stellen können und auf eine Art und Weise Antworten erhalten, wie ein Mensch dies tut. Daher haben die Saarbrücker Forscher für das Computerspiel „Sonar Silence“ ein Programm entwickelt, das automatisch die Fragen der Spieler unterschiedlicher Nationalitäten versteht und das Wissen unter ihnen in der jeweiligen Sprache austauscht.

Die Kernelemente dieser Technologie lassen sich sowohl in der Medizin einsetzen, um etwa depressive Schübe frühzeitig zu erkennen und ihnen entgegenzuwirken, oder auch im Online-Handel, um Fragen von Kunden zu beantworten.

Fragen beantwortet:

Dietrich Klakow
Professor für Sprach- und Signalverarbeitung
Universität des Saarlandes
Tel.: 0681/302-58122
E-Mail: dietrich.klakow@lsv.uni-saarland.de

Redaktion:
Gordon Bolduan
Kompetenzzentrum Informatik Saarland
Saarland Informatics Campus E1.7
Universität des Saarlandes
Tel.: +49 681 302 70741
E-Mail: gbolduan@mmci.uni-saarland.de

Weitere Informationen:

http://www.aclistant.de

Friederike Meyer zu Tittingdorf | Universität des Saarlandes

Weitere Nachrichten aus der Kategorie CeBIT:

nachricht Erster Cloud-Park Deutschlands für energieintensive Edge-Szenarien
13.06.2018 | Rittal GmbH & Co. KG

nachricht Cooling für alle Edge-Szenarien – vom einzelnen Rack bis zum kompletten Datacenter
12.06.2018 | Rittal GmbH & Co. KG

Alle Nachrichten aus der Kategorie: CeBIT >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: AchemAsia 2019 in Shanghai

Die AchemAsia geht in ihr viertes Jahrzehnt und bricht auf zu neuen Ufern: Das International Expo and Innovation Forum for Sustainable Chemical Production findet vom 21. bis 23. Mai 2019 in Shanghai, China statt. Gleichzeitig erhält die Veranstaltung ein aktuelles Profil: Die elfte Ausgabe fokussiert auf Themen, die für Chinas Prozessindustrie besonders relevant sind, und legt den Schwerpunkt auf Nachhaltigkeit und Innovation.

1989 wurde die AchemAsia als Spin-Off der ACHEMA ins Leben gerufen, um die Bedürfnisse der sich damals noch entwickelnden Iindustrie in China zu erfüllen. Seit...

Im Focus: AchemAsia 2019 will take place in Shanghai

Moving into its fourth decade, AchemAsia is setting out for new horizons: The International Expo and Innovation Forum for Sustainable Chemical Production will take place from 21-23 May 2019 in Shanghai, China. With an updated event profile, the eleventh edition focusses on topics that are especially relevant for the Chinese process industry, putting a strong emphasis on sustainability and innovation.

Founded in 1989 as a spin-off of ACHEMA to cater to the needs of China’s then developing industry, AchemAsia has since grown into a platform where the latest...

Im Focus: Li-Fi erstmals für das industrielle Internet der Dinge getestet

Mit einer Abschlusspräsentation im BMW Werk München wurde das BMBF-geförderte Projekt OWICELLS erfolgreich abgeschlossen. Dabei wurde eine Li-Fi Kommunikation zu einem mobilen Roboter in einer 5x5m² Fertigungszelle demonstriert, der produktionsübliche Vorgänge durchführt (Teile schweißen, umlegen und prüfen). Die robuste, optische Drahtlosübertragung beruht auf räumlicher Diversität, d.h. Daten werden von mehreren LEDs und mehreren Photodioden gleichzeitig gesendet und empfangen. Das System kann Daten mit mehr als 100 Mbit/s und fünf Millisekunden Latenz übertragen.

Moderne Produktionstechniken in der Automobilindustrie müssen flexibler werden, um sich an individuelle Kundenwünsche anpassen zu können. Forscher untersuchen...

Im Focus: First real-time test of Li-Fi utilization for the industrial Internet of Things

The BMBF-funded OWICELLS project was successfully completed with a final presentation at the BMW plant in Munich. The presentation demonstrated a Li-Fi communication with a mobile robot, while the robot carried out usual production processes (welding, moving and testing parts) in a 5x5m² production cell. The robust, optical wireless transmission is based on spatial diversity; in other words, data is sent and received simultaneously by several LEDs and several photodiodes. The system can transmit data at more than 100 Mbit/s and five milliseconds latency.

Modern production technologies in the automobile industry must become more flexible in order to fulfil individual customer requirements.

Im Focus: ALMA entdeckt Trio von Baby-Planeten rund um neugeborenen Stern

Neuartige Technik, um die jüngsten Planeten in unserer Galaxis zu finden

Zwei unabhängige Astronomenteams haben mit ALMA überzeugende Belege dafür gefunden, dass sich drei junge Planeten im Orbit um den Säuglingsstern HD 163296...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

VideoLinks
Industrie & Wirtschaft
Veranstaltungen

Simulierter Eingriff am virtuellen Herzen

18.06.2018 | Veranstaltungen

Künstliche Intelligenz – Schafft der Mensch seine Arbeit ab?

15.06.2018 | Veranstaltungen

Internationale Konferenz zur Asteroidenforschung in Garching

13.06.2018 | Veranstaltungen

VideoLinks
Wissenschaft & Forschung
Weitere VideoLinks im Überblick >>>
 
Aktuelle Beiträge

Neuer Abwehrmechanismus gegen Sauerstoffradikale entdeckt

18.06.2018 | Biowissenschaften Chemie

Umwandlung von nicht-neuronalen Zellen in Nervenzellen

18.06.2018 | Biowissenschaften Chemie

Im Fußballfieber: Rittal Cup verspricht Spannung und Spaß

18.06.2018 | Unternehmensmeldung

Weitere B2B-VideoLinks
IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics