Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Billing-Preis 2002 für Entwicklung eines neuartigen multimedialen Spracharchivs im Internet

25.11.2002


Für die Entwicklung einer weltweit einmaligen Software-Umgebung, die es ermöglicht, eine der größten im Internet verfügbaren Datenbanken für multimediale Sprachressourcen aufzubauen, erhalten Daan Broeder, Hennie Brugman und Reiner Dirksmeyer vom Max-Planck-Institut für Psycholinguistik in Njimegen/Niederlande den mit 3.000 Euro dotierten diesjährigen Heinz-Billing Preis.

... mehr zu:
»NILE »Psycholinguistik »Ressource

Bei NILE, dem "Nijmegen Language Resource Environment", handelt es sich um eine komplexe Software für annotierte Audio- und/oder Video-Aufnahmen, auf die Wissenschaftler weltweit direkt zugreifen bzw. mit deren Hilfe sie derartige Ressourcen erzeugen und hinzufügen können. In die Endrunde der Preisausscheidung kamen auch Frank Jenko vom Max-Planck-Institut für Plasmaphysik in Garching mit seinem Beitrag GENE (gyrokinetic electromagnetic numerical experiment) sowie Thomas Fischbacher aus dem Max-Planck-Institut für Gravitationsphysik in Potsdam. Jenko ist es gelungen, im Computer Turbulenzen von Fusionsplasmen in bisher unerreichten Größenordungen zu simulieren; Fischbacher hat ein Programmpaket für große Rechnungen mit algebraischen Strukturen erstellt.

Derzeit werden noch etwa 6.500 Sprachen weltweit gesprochen. Vorsichtige Schätzungen gehen jedoch davon aus, dass bis Ende des 21. Jahrhunderts zwischen 60 und 70 Prozent dieser Sprachen verschwinden werden. Jede dieser Sprachen ist auf das engste mit der Kultur ihrer Sprecher verbunden. Sprachen und Kulturen insgesamt sind ein wichtiges Zeugnis des menschlichen Denkens und des gesellschaftlichen Zusammenlebens. Von daher verliert die Menschheit mit jeder aussterbenden Sprache auch ein Stück ihres geistigen Reichtums. Doch in vielen Fällen ist das Aussterben der Sprachen nicht aufzuhalten. Eine der größten Herausforderungen besteht heute deshalb darin, die vom Aussterben bedrohten Sprachen in ihrem sozialen Kontext systematisch aufzuzeichnen, um zumindest einige davon für künftige Generationen zu bewahren.


Besonders engagiert ist hierbei das Max-Planck-Institut für Psycholinguistik in Nijmegen/Niederlande. Gegenwärtig umfasst der Bestand der dortigen Datenbank mehr als 15.000 so genannte Sessions, also linguistisch bedeutsame Einheiten, wie Interviews oder Mitschnitte eines Gesanges in einer Minderheitensprache. Von besonderem Wert sind Aufnahmen von Sprachen, die vom Aussterben bedroht sind. Sie werden in der Datenbank gleichsam konserviert und bleiben damit einer wissenschaftlichen Analyse zugänglich. Das gesamte Material zeichnet sich durch eine ungeheure Vielfalt aus: So gibt es beispielsweise Aufzeichnungen, die dokumentieren, dass die australischen Aborigines und die Mitteleuropäer geometrische Anordnungen auf der Basis unterschiedlicher räumlicher Systeme beschreiben. Andere Daten belegen die Unterschiede beim Gestikulieren in verschiedenen Kulturgebieten; Aufnahmen von Kleinkindern wiederum zeugen von der Entwicklung ihrer sprachlichen Fähigkeiten. Viele dieser digitalen Ressourcen sind nach linguistischen Kriterien analysiert und entsprechend kommentiert; erst diese Annotationen erlauben es den Max-Planck-Wissenschaftlern, ihre psycholinguistischen Theorien zu überprüfen.

Auf diese Ressourcen ist ein direkter und schneller Zugriff unabdingbar, um das Material und die eingegebenen Annotationen immer wieder zu überprüfen und damit Fehler zu vermeiden sowie weitergehende psycholinguistische Analysen zu ermöglichen. Voraussetzungen dafür sind (1) die konsequente Digitalisierung aller in den Feld-Studien erzeugten Audio- und Video-Aufnahmen, (2) die Entwicklung einer Korpus-Management-Umgebung mittels einer sehr benutzerfreundlichen Metadaten-Infrastruktur und (3) das Verfügbarmachen von effizienten und in ihrer Art bisher einmaligen Annotations- und Analyse-Programmen zum Umgang mit multimedialen Ressourcen. Das sind die drei Grundpfeiler, auf denen das am Max-Planck-Institut für Psycholinguistik entwickelte NILE-Konzept beruht. NILE ermöglicht, wie es in der Laudatio zur Preisverleihung formuliert wurde, "eine substantielle Veränderung in den Möglichkeiten des wissenschaftlichen Umgangs mit Sprache durch den Einsatz der modernen Informationstechnologie".

In dem weltweit einmaligen Projekt werden zahlreiche Aspekte berücksichtigt, die einen verantwortlichen Umgang mit sprachlichen Ressourcen auf Computern auszeichnen, und erstmals auf hohem technologischen Niveau realisiert Die "Väter" des NILE-Konzepts haben viel Wert darauf gelegt, neueste Standards und Umgebungen wie z.B. XML, UNICODE, MPEG und Java zu verwenden. Dort, wo es erforderlich war, haben sie aber auch neue "Standards" ausgearbeitet und einem breiten Publikum vorgestellt: So entstand beispielsweise im Rahmen des von der EU-geförderten ISLE-Projektes (International Standards of Language Engineering) (http://www.mpi.nl/ISLE) eine vollständige Metadaten-Infrastruktur. Schließlich wurde für das multimediale Software-Paket ein auf XML-basierendes flexibles File-Format ausgearbeitet, das in der Lage ist, die komplex strukturierten, verschiedenartigsten Typen von Annotationen zu speichern. Beide Komponenten haben inzwischen weltweite Beachtung gefunden und werden bei der Entwicklung entsprechender ISO-Standards berücksichtigt.

Mit ihren Beiträgen zu Entwicklung von Multimedia-Metadaten haben die Schöpfer von NILE einen wesentlichen Anstoß zur weiteren Ausfüllung des künftigen "Semantic Web" gegeben. Für dieses Web-Szenario sind Metadaten - zusammen mit offenen Ontologien (Listen von Konzepten und ihren Interaktionen) und Term-Repositories (Definitionen von Termini) - wesentliche Bausteine. Die Arbeiten zu NILE werden gegenwärtig im Rahmen von zwei großen europäischen Projekten weiter vorangetrieben und werden in Europa den Umgang mit multimedialen sprachlichen Ressourcen nachhaltig beeinflussen.

Die Arbeiten der beiden anderen Finalisten für den Billing-Preis kommen in diesem Jahr aus der physikalischen Forschung.

Instabilitäten in Fusionsplasmen

Frank Jenko vom Max-Planck-Institut für Plasmaphysik in Garching beschäftigt sich in seinem Beitrag GENE (gyrokinetic electromagnetic numerical experiment) mit Turbulenzen im Plasma eines Fusionsreaktors, eines der Kernprobleme entscheidendes Problem bei der Entwicklung von Fusionsreaktoren. Experimentelle Untersuchungen deuten darauf hin, dass Plasma-Instabilitäten, die letztlich zu Turbulenzen führen können, in ganz unterschiedlichen Größenordnungen entstehen können. Derzeit können diese Phänomene nur durch extensive Modellierungen für sehr große Bereichen des Plasmas modelliert werden. Jenko hat sich insbesondere mit solchen Instabilitäten beschäftigt, die durch die extremen Unterschiede in der Elektronentemperatur des Plasmas entstehen. Hier hat er durch Fortentwicklung bekannter numerischer Verfahren und Optimierung für den Garchinger Rechner Cray T3E eine bisher nicht erreichte numerische Auflösung erzielt. Dazu wurde die volle Leistung dieses Parallelrechners eingesetzt. Ein solch große Rechenleistung ist unverzichtbar, weil man bei neueren Untersuchungen zur Turbulenz festgestellt hat, dass zwischen den Experimenten und Computersimulationen mit nicht ausreichender Auflösung noch große Unterschiede auftreten.

Software für die Supergravitation

Thomas Fischbacher, Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut), Potsdam, hat mit "Introducing LambdaTensor1.0" ein Software-Paket für sehr große Rechnungen mit algebraischen Strukturen (Lie-Algebren und Lie-Gruppen) entwickelt, wie sie in der Quantengravitation und anderen Theorien in der Hochenergiephysik auftreten. Bei den Versuchen, die Theorie der Gravitation mit der relativistischen Quantenphysik zu vereinheitlichen, spielen diese komplexen mathematischen Verfahren eine entscheidende Rolle. Die dafür typischen Rechnungen sind viel zu umfangreich, um sie mit Standardsoftware bearbeiten zu können. Man kann davon ausgehen, dass das Software- Programm von Thomas Fischbach im Fachgebiet der Supergravitation breite Anwendung finden wird.

Heinz-Billing-Preis

Der "Heinz-Billing-Preis zur Förderung des wissenschaftlichen Rechnens" wurde im Jahr 1993 zum ersten Mal verliehen. Mit dieser Ehrung sollen herausragende Leistungen von Wissenschaftlern und Computerspezialisten gewürdigt werden, die in zeitintensiver und sehr kreativer Arbeit die notwendigen Hard- und Software-Voraussetzungen entwickeln, die für neue Vorstöße in der Forschung heute unverzichtbar sind. Der Preis ist benannt nach Prof. Heinz Billing, Emeritiertes Wissenschaftliches Mitglied des Max-Planck-Instituts für Astrophysik und langjähriger Vorsitzender des Beratenden Ausschusses für Rechenanlagen in der Max-Planck-Gesellschaft. Billing stand mit der Erfindung des Trommelspeichers und dem Bau der Rechner G1, G2 und G3 als Pionier der elektronischen Datenverarbeitung am Beginn des wissenschaftlichen Rechnens. Die für den Preis eingereichten Arbeiten werden jedes Jahr in der Buchreihe "Forschung und wissenschaftliches Rechnen" der Gesellschaft für wissenschaftliche Datenverarbeitung mbH" in Göttingen veröffentlicht.

Kontakt:

Daan Broeder
Max-Planck-Institut für Psycholinguistik, Nijmegen, Niederlande
Technische Gruppe
Tel.: (++31 24) 35 21 - 1 03
Fax: (++31 24) 35 21 - 2 13
E-Mail: d.g.broeder@mpi.nl

Dr. Andreas Trepte | Max-Planck-Gesellschaft
Weitere Informationen:
http://www.mpi.nl/ISLE
http://www.mpi.nl/DOBES
http://www.mpi.nl/IMDI/tools

Weitere Berichte zu: NILE Psycholinguistik Ressource

Weitere Nachrichten aus der Kategorie Förderungen Preise:

nachricht Intelligente Werkstoffe erforschen
18.11.2019 | Carl-Zeiss-Stiftung

nachricht dormakaba mit 4 Architects' Darling in Gold ausgezeichnet
13.11.2019 | dormakaba Deutschland GmbH

Alle Nachrichten aus der Kategorie: Förderungen Preise >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Machine learning microscope adapts lighting to improve diagnosis

Prototype microscope teaches itself the best illumination settings for diagnosing malaria

Engineers at Duke University have developed a microscope that adapts its lighting angles, colors and patterns while teaching itself the optimal...

Im Focus: Kleine Teilchen, große Wirkung: Wie Nanoteilchen aus Graphen die Auflösung von Mikroskopen verbessern

Konventionelle Lichtmikroskope können Strukturen nicht mehr abbilden, wenn diese einen Abstand haben, der kleiner als etwa die Lichtwellenlänge ist. Mit „Super-resolution Microscopy“, entwickelt seit den 80er Jahren, kann man diese Einschränkung jedoch umgehen, indem fluoreszierende Materialien eingesetzt werden. Wissenschaftlerinnen und Wissenschaftler am Max-Planck-Institut für Polymerforschung haben nun entdeckt, dass aus Graphen bestehende Nano-Moleküle genutzt werden können, um diese Mikroskopie-Technik zu verbessern. Diese Nano-Moleküle bieten eine Reihe essentieller Vorteile gegenüber den bisher verwendeten Materialien, die die Mikroskopie-Technik noch vielfältiger einsetzbar machen.

Mikroskopie ist eine wichtige Untersuchungsmethode in der Physik, Biologie, Medizin und vielen anderen Wissenschaften. Sie hat jedoch einen Nachteil: Ihre...

Im Focus: Small particles, big effects: How graphene nanoparticles improve the resolution of microscopes

Conventional light microscopes cannot distinguish structures when they are separated by a distance smaller than, roughly, the wavelength of light. Superresolution microscopy, developed since the 1980s, lifts this limitation, using fluorescent moieties. Scientists at the Max Planck Institute for Polymer Research have now discovered that graphene nano-molecules can be used to improve this microscopy technique. These graphene nano-molecules offer a number of substantial advantages over the materials previously used, making superresolution microscopy even more versatile.

Microscopy is an important investigation method, in physics, biology, medicine, and many other sciences. However, it has one disadvantage: its resolution is...

Im Focus: Mit künstlicher Intelligenz zum besseren Holzprodukt

Der Empa-Wissenschaftler Mark Schubert und sein Team nutzen die vielfältigen Möglichkeiten des maschinellen Lernens für holztechnische Anwendungen. Zusammen mit Swiss Wood Solutions entwickelt Schubert eine digitale Holzauswahl- und Verarbeitungsstrategie unter Verwendung künstlicher Intelligenz.

Holz ist ein Naturprodukt und ein Leichtbauwerkstoff mit exzellenten physikalischen Eigenschaften und daher ein ausgezeichnetes Konstruktionsmaterial – etwa...

Im Focus: Eine Fernsteuerung für alles Kleine

Atome, Moleküle oder sogar lebende Zellen lassen sich mit Lichtstrahlen manipulieren. An der TU Wien entwickelte man eine Methode, die solche „optischen Pinzetten“ revolutionieren soll.

Sie erinnern ein bisschen an den „Traktorstrahl“ aus Star Trek: Spezielle Lichtstrahlen werden heute dafür verwendet, Moleküle oder kleine biologische Partikel...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

VideoLinks
Industrie & Wirtschaft
Veranstaltungen

Chemnitzer Linux-Tage 2020: „Mach es einfach!“

18.11.2019 | Veranstaltungen

Humanoide Roboter in Aktion erleben

18.11.2019 | Veranstaltungen

1. Internationale Konferenz zu Agrophotovoltaik im August 2020

15.11.2019 | Veranstaltungen

VideoLinks
Wissenschaft & Forschung
Weitere VideoLinks im Überblick >>>
 
Aktuelle Beiträge

3D-Landkarten der Genaktivität

21.11.2019 | Biowissenschaften Chemie

Rekord-Gammastrahlenblitz aus den Tiefen des Weltraums

21.11.2019 | Physik Astronomie

Gammablitz mit Ultra-Strahlkraft: MAGIC-Teleskope beobachten bisher stärksten Gammastrahlen-Ausbruch

21.11.2019 | Physik Astronomie

Weitere B2B-VideoLinks
IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics