Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

TU Dresden erhielt landesweit stärkste HPC-Umgebung für "Datenintensives Rechnen"

20.09.2005


Technische Universität Dresden investiert 15 Mio. in neuartige Infrastruktur für Wissenschaftliches Computing - Generalunternehmer SGI installiert großes Shared-Memory-System Altix mit 6 TeraByte Hauptspeicher



Die TU Dresden wird sich im Laufe des nächsten Jahres mit einer erheblichen Erweiterung ihrer Rechnerkapazitäten rüsten, was der landesweiten Gemeinde des Wissenschaftlichen Computings zu Gute kommen und ganz neue Möglichkeiten für datenintensive Anwendungen schaffen soll. Die Firma SGI wurde beauftragt, als Generalunternehmer eine zukunftsorientierte Hochleistungsumgebung zu installieren, welche eine Investition von 15 Mio darstellen und die TUD in der Landschaft der Rechenzentren differenzieren wird.



Am Campus, im "Zentrum für Informationsdienste und Hochleistungsrechnen" (ZIH), wird SGI in zwei Projektstufen eine ultramoderne, vielseitig nutzbare Infrastruktur mit Tausenden von Prozessorkernen implementieren - die dann Sachsens leistungsfähigste Rechnerinfrastruktur bilden und Anwender von Physik, Materialforschung und Engineering bis hin zu Bioinformatik und Nanotechnologie unterstützen soll.

Die neue Umgebung wird in Form eines HPC-Komplexes mit fortschrittlichster Shared-Memory-Technologie auf Basis eines SGI®Altix®-Systems einzigartige Möglichkeiten des "Capability-Computing" schaffen und das Lösen extrem anspruchsvoller Problemstellungen erlauben. Ergänzend integriert SGI eine PC-Farm, die als Plattform für heterogenes Computing dienen und gleichzeitig Hunderte von einzelnen Anwendungen unterstützen wird. Über die beiden Komponenten ist das ZIH auch in der Lage, Software für unterschiedliche Prozessor-Typen zu unterstützen: Der HPC-Server SGI Altix stellt neueste Intel®-Itanium®-Power, die PC-Farm, geliefert von Hersteller LinuxNetworx, aktuelle AMD-Opteron-Leistung zur Verfügung.

Die Neuanschaffung - sie trägt den Titel "Hochleistungsrechner / Speicherkomplex "Datenintensives Rechnen" - wird einen Ressourcenkomplex bilden, der neben hoher Rechnerleistung gezielt auch Top-Bandbreiten-Fähigkeiten bietet, so dass durchgängiges, beispielhaft schnelles Bewegen und Speichern großer und größter Datenmengen bis hin zur Archivierung möglich ist.

Die Beschaffung ist eine der größten, die in diesem Jahr in Europa im HPC-Umfeld vergeben wird. Das Projekt wird im Rahmen eines HBFG-Verfahren realisiert.

Prof. Hermann Kokenge, Rektor der TUD,: "Wir freuen uns auf eine ausgewogene und mit exzellenten Komponenten ausgerüstete Rechner- und Speicher-Umgebung, welche die Innovationskraft der Universität, des Standorts Dresden und der ganzen Region wirkungsvoll stärken dürfte. Mit ihr können wir unseren Instituten und der weiteren akademischen Gemeinde eine "kritische Masse" mehr an "Power" und neuartigen Arbeitsmöglichkeiten bieten - und sie damit in etlichen traditionell repräsentierten wie auch aufstrebenden neuen Forschungsgebieten beim Erringen vieler wertvoller und bahnbrechender Erkenntnisse unterstützen."

Prof. Wolfgang E. Nagel, Direktor des ZIH: "Wesentlich für eine solche Großanschaffung ist, dass wir ein hohes Maß an Flexibilität erhalten. Flexibilität in puncto vielseitiger, variabler und innovativer Nutzbarkeit, Flexibilität auch hinsichtlich zukünftiger Veränderungen. Wir haben uns zum Ziel gesetzt, mutige, hochaufwändige Projekte zu ermöglichen, zugleich aber auch die Interessen und wachsenden Anforderungen Hunderter anderer Anwender mit kleineren Projekten zu unterstützen. Die Dynamik, mit der sich heute Forschungslandschaften entwickeln, lässt nicht genau vorhersehen, welche Themen und Methoden in einigen Jahren die Akzente setzen und Unterstützung verlangen. Mit der zukunftsoffenen Umgebung, die wir bei SGI in Auftrag geben, sehen wir uns optimal abgesichert, um auch mittelfristig veränderliche Herausforderungen abdecken zu können."

Fragen, denen die Wissenschaftler mit Hilfe der neuen TUD-Rechnerumgebung beispielsweise in Zukunft intensiv nachgehen können:

  • Wie lassen sich organische Stoffe finden, die bei knochen-chirurgischen Eingriffen metallische Legierungen ersetzen, jedoch weniger Unverträglichkeiten hervorrufen? - ein Problem der Materialforschung mit Analyse komplexer biomolekularer Reaktionen.
  • Wie lassen sich neuartige und perfekter gewachsene Kristalle züchten? - wenn man sie als elektrisch leitfähige Fluide unter Einfluss von Magnetfeldern betrachtet und mit Methoden der Computational Fluid Dynamics (CFD) turbulente Strömungen des Fluids analysieren kann.
  • Wie lassen sich Störgeräusche im Innenraum eines Autos beeinflussen? - ein ausgesprochen komplexes Akustik-Problem, das beispielhaft für die strategische Bedeutung von CFD an der TUD steht.
  • Wie lassen sich mit der Automatischen Mikroskopie Zellwachstumsprozesse verfolgen und verstehen? - ein Problem, bei dem es in Tausenden von kurzfristig anfallenden Filmen Strukturen zu erkennen und Zustände zu beschreiben gilt.
  • Wie lassen sich beim Protein-Docking die chemischen Reaktionen besser verstehen? - wenn man mit Rechnerhilfe versucht, die 3D-Struktur (Faltung) der äußerst komplexen Moleküle zu modellieren.
  • Wie lassen sich genetische Ursachen von Krankheiten verstehen und beeinflussen? - wenn man mit neuen rechnergestützten Verfahren jene enormen Datenmengen analysieren kann, welche Biologen und Mediziner bei ihren Versuchen, die Aktivität von Genen zu messen und auszuschalten, generieren.

HPC-Komplex - Geballte Ressource für Einzelne

Den HPC-Komplex wird in Dresden eine Shared-Memory-Plattform SGI® Altix® der nächsten Generation bilden. Das System (Codename "Tollhouse") wird in seiner letztlichen Ausbaustufe mit weit mehr als 1.000 der aktuellsten Intel®-Itanium®-2-Prozessorkernen sowie mit 6 TeraByte Hauptspeicher ausgestattet sein. Hunderte von parallel arbeitenden Prozessorkernen können dann das Memory als eine einzige große, zusammenhängend adressierbare Systemressource nutzen, in den riesigen Hauptspeicher enorme Datensätze laden und diese in unzerstückelter Form effizient bearbeiten oder auf Muster und Ähnlichkeiten untersuchen.

Die SGI-Plattform wird im ZIH als "Capability-Computing"-Maschine fungieren und die Ressource zur Deckung des "homogenen" Computing-Bedarfs bilden: Die geballte Verarbeitungs- und Speicherkapazität des SGI-Systems (oder zumindest eines 2/3-Teils) soll zu einem Zeitpunkt einer einzelnen Anwendung bzw. einer einzelnen Benutzergruppe zur Verfügung stehen. Wissenschaftler werden damit in der Lage sein, erstmals bestimmte, äußerst umfangreiche, hochkomplexe Aufgaben anzugreifen.

Die HPC-Ressource liefert ihnen ein Maximum an Performanz. Gleichgültig, ob ihr hochgradig parallelisierter Code für eine Shared-Memory-Architektur oder (nach dem MPI-Programmier-Paradigma) für eine Distributed-Memory-Plattform geschrieben ist - die SGI-Plattform mit ihrer extrem skalierenden ccNUMA-Architektur und der bandbreiten-starken NUMAlink-Interconnect-Technologie hält hochschnelles Processing für beide Anwendungsarten bereit.

"In-Memory"-Computing ist nur eine der Innovationen, welche das ZIH Wissenschaftlern und Forschern über die HPC-Plattform bieten kann: Erstmals wird z.B. die Möglichkeit bestehen, mehrere komplette wissenschaftliche Datenbanken in den Hauptspeicher zu laden und sie dort von der Anwendung mit unvergleichlich hoher Geschwindigkeit nach bestimmten Korrelationen durchsuchen zu lassen. Was solche Aufgaben bisher extrem bis unzumutbar langwierig gestaltet, entfällt - "In-Memory"-Computing kommt ohne die üblich vielen Zeit verschlingenden Festplattenzugriffe (I/O-Prozesse) aus.

Neues Instrument für neue Herausforderungen

"Wir wollten nicht ein weiteres Rechenzentrum einrichten, das im wesentlichen nur Numbercrunching unterstützt", erklärt Nagel. "Unser Fokus ist, der Wissenschaftlichen Computing-Gemeinde ein neuartiges Instrument, einen neuen Typ von HPC-Tool zur Verfügung zu stellen. Nicht die üblichen Simulationsprobleme stehen hier im Vordergrund, es geht uns mehr darum, den Anwendern eine Plattform zu liefern, mit der sie aus Unmengen von strukturierten oder unstrukturierten Daten, welche viel verstecktes Wissen in sich tragen, neues Wissen, mehr Wissen, dichteres Wissen extrahieren und herausarbeiten können."

HPC-SAN - Archivierung - Daten-Management

Wesentliche weitere Komponente ist eine mehrstufige, intelligent organisierte Massenspeicherung mit extrem schnellem Zugriff auf große Datenmengen. Hierzu installiert SGI ein HPC-SAN (Storage Area Network), das mit einer Bandbreite von 8 GB/s an das Altix-System angeschlossen ist, 60 TeraByte Online-Diskspeicher umfasst und mit ebenfalls hoher Bandbreite ein PetaByte großes Archiv-Bandroboter-System anbindet.

Der 60 TB Online-Festplattenspeicher wird mit einem SGI® InfiniteStorage SAN realisiert, mit FibreChannel-Disk-Array-Systemen des Hersteller Data Direct Network (DDN); als Archiv-Roboter wird ein PetaByte-Tape-Library-System des Herstellers Storage Technology Corp dienen. Für die durchgängige hierarchische Speicherverwaltung mit Daten-Lifecycle-Management und Datensicherung / -Wiederherstellung sorgt die Software SGI® InfiniteStorage DMF (Data Migration Facility). Als Dateisystem kommt das technologieführende Shared-Filesystem SGI® InfiniteStorage CXFS zum Einsatz, das ein hochschnelles, gleichzeitiges Zugreifen vieler Anwendungen oder Prozesse auf dieselben Daten im SAN erlaubt, ohne dass Dateien deshalb kopiert werden müssten. CXFS kann ein Dateisystem mit bis zu 18 Mio TeraByte Dateivolumen und eine Einzeldateigröße von bis zu 9 Mio TeraByte managen.

4 TB Memory kompakt laden - in 10 Minuten

"Hohe Bandbreite für schnelles Bewegen großer Datenmengen ist top wichtig für unseren Capability-Computing-Ansatz mit der neuartigen Umgebung", sagt ZIH-Direktor Nagel. "Für den Datentransfer von den SAN-Disks ins Memory der HPC-Maschine forderten wir, dass 4 TB in nicht mehr als 10 min in den Hauptspeicher ladbar sind. Und beim Transfer zum/vom Archiv-System werden wir 25 TB in nur 4 h bewegen können - das ist herausragend. Zusammen mit dem 6 TB großen Shared-Memory des Altix-Systems wird dies unsere Lösung am ZIH ganz wesentlich differenzieren."

Dank der bandbreitenstarken, durchgängigen Anbindung des HPC-Systems an die Massenspeicherung wird das ZIH in der Lage sein, den HPC-Komplex in kürzester Zeit einem nächsten Nutzer oder nächsten Projekt zur Verfügung zu stellen - d. h. die für das Projekt benötigten Daten sehr schnell vom Archiv über das SAN in den Altix-Hauptspeicher laden, den Anwender exklusiv die Aufgabe bearbeiten lassen, und nach Beendigung des Jobs den Datensatz löschen, oder, falls sich die Daten verändert haben, das Ergebnis wieder zurück ins Archiv schreiben.

Ein Beschleuniger - ähnlich wie am CERN

"Auf diesem Wege kann das ZIH ein wirklich neuartiges Instrument für das Datenintensive wissenschaftliche Rechnen bereit stellen," erklärt Prof. Nagel. "Ganz ähnlich, wie die Physiker am CERN oder in Stanford seit den frühen Jahren ihrer Hochenergieforschung einen Teilchenbeschleuniger für eine bestimmte Zeit in voller Leistungsstärke alleine nutzen und dann an andere Kollegen übergeben, so wollen wir einen mächtigen Beschleuniger für wissenschaftliches Rechnen liefern. Ausgewählte Benutzer/Projekte sollen in der Lage sein, den HPC-Komplex über eine gewisse Zeit hinweg als eine mächtige Capability-Computing-Ressource exklusiv zu nutzen - und damit hochkomplexe Fragestellungen mit innovativen Analyse-Methoden und Algorithmen angehen können. - Mit SGI als Generalunternehmer, Systemintegrator und Lieferant technologieführender Lösungen für bandbreitenstarkes Shared-Memory-Computing sind wir überzeugt, einen solchen "Theorie"-Beschleuniger bald anbieten zu können."

PC-Farm - Ressource für viele gleichzeitige Benutzer

Im Rahmen der Neuanschaffung wird SGI eine PC-Farm integrieren. Der Komplex wird aus über 700 Einzelsystemen bestehen und insgesamt mehrere 1000 Prozessor-Kerne enthalten. Mit der Farm wird das ZIH die heterogenen Anforderungen an seine Umgebung abdecken und eine Vielzahl von Benutzern bei einer Vielfalt von kleineren Jobs unterstützen. Hunderte von Anwendern werden gleichzeitig rechnen können und mit Codes, die für AMD Opteron optimiert sind, auf eine Rechner-Ressource von 2 bis 16 Prozessorkernen pro Einzelsystem zurückgreifen können. Die einzelnen Einheiten sind zudem über InfiniBand Interconnect-Technologie verbunden und lassen sich im Bedarfsfall zu einer größeren Ressource für höher paralleles Distributed-Memory-(MPI)-Proccessing aggregieren. Lieferant der PC-Farm ist LinuxNetworx.

Auch für die PC-Farm integriert SGI einen SAN-Komplex - ebenfalls mit 60 TB RAID-Storage des Herstellers DDN sowie mit schneller Anbindung sowohl an die Farm wie auch an das HPC-SAN (und damit an das Archiv). Als Shared-Filesystem für den PCFarm-Teil wird Lustre fungieren, womit nun auch beim ZIH in Dresden die Technologie zum Einsatz, welche sich bei weltweit renommierten großen US-Labs als Standard für Linux-Cluster etabliert hat.

HPC-Komplex wie auch PC-Farm werden beide unter Novell?s Betriebssystem SuSE Linux Enterprise Server arbeiten.

Wesentlich für die Effizienz einer solchen neuen großen Rechnerinfrastruktur sind auch Software-Tools. So wird die Firma Allinea Software beispielsweise den DDT-Debugger plattformübergreifend zur Verfügung stellen und damit die Nutzung des Gesamtsystems erleichtern.

Neuer Maschinenraum - für Tonnen von Hardware

Am ZIH wird eigens ein neuer 3-geschossiger Maschinenraum entstehen, um die neue Rechner- und Speichertechnik auf einer Gesamtfläche von 430 m2 unterzubringen. Die Masse alleine des SGI-Tollhouse-Systems mit seinen Dutzenden von Racks wird rund 18 to betragen. Die SGI-Plattform wird mit Luft, die PC-Farm mit Wasser gekühlt. An elektrischer Energie wird die Gesamtlösung mehr als 1/2 MegaWatt verbrauchen. Die Fertigstellung des Raums ist für Anfang 2006 geplant.

Lieferung in 2 Stufen

Die Realisierung des Gesamtprojekts wird sich in 2 Stufen vollziehen. Bereits für diesen Herbst ist die Lieferung von Technologie geplant, die etwa 1/3 der Gesamtkapazität abdecken soll. Sie wird dem ZIH in erster Linie als eine "Preparation"-Umgebung dienen und den Benutzer mit ihren vielfältigen Interessen erlauben, Anwendungs-Codes und Algorithmen zu entwickeln und zu optimieren und sich für die neuen Möglichkeiten vorzubereiten. In Rahmen von Stufe1 wird zunächst ein SGI-Altix-Bx2-System installiert. Lieferstufe Stufe 2 soll ab dem kommenden Jahr erfolgen und im Sommer 2006 abgeschlossen sein. Wenn dann in rund 15 Monaten die letztlich komplette Installation realisiert ist, wird das Altix-Nachfolge-System "Tollhouse" die Arbeit als HPC-Maschine übernommen haben; das Next-Generation-System wird den Vorgänger BX2 im Laufe der Stufe2 ersetzen.

Zuschlag nach hartem Wettbewerb

"Es ist dies das 3. Mal in Folge, dass wir hier in Dresden SGI als bevorzugten HPC-Partner wählen, und es ist ein 128-Prozessor-System SGI Origin3800, auf dem unsere derzeitigen HPC-Shared-Memory-Jobs laufen", erklärt ZIH-Direktor Nagel. "Doch SGI musste sich in einem harten, äußerst herausfordernden Wettbewerb durchsetzen. Wir haben uns für SGI entschieden, weil das Unternehmen ein System mit einem dermaßen großen zusammenhängend nutzbaren Hauptspeicher liefern kann. Das ist ein Alleinstellungsfaktor, mit dem auch wir uns als Dienstleister bei unseren Kunden bei herausfordernden neuen Forschungsaktivitäten abheben können."
"Wir werden einen hochgradig ausbalancierten und vielseitig nutzbaren Rechner/Speicher-Gesamtkomplex erhalten, der uns mit seinen exzellenten Einzelkomponenten und durchgängig hohen Bandbreiten erlaubt, beim Datenintensiven Wissenschaftlichen Rechnen in homogener wie in heterogener Hinsicht neue, spannende Herausforderungen anzunehmen."

Anhang

Details zu einigen der herausfordernden neuen Anwendungen/Einsatzbereichen

Das Einsatzgebiet des neuen Systemkomplexes umfasst ein weites Spektrum. Um z. B. die genetischen Ursachen verschiedener Krankheiten zu verstehen, generieren Biologen und Mediziner große Datenmengen mit neuen Verfahren, die es erlauben, die Aktivität von Genen zu messen und Gene auszuschalten. Die Bioinformatikgruppe am Biotec der TU Dresden hilft, diese Daten zu interpretieren. Die Gruppe um Prof. Schroeder entwickelt z.B. eine intelligente biomedizinische Suchmaschine, GoPubMed, die automatisch relevantes Wissen aus der biomedizinischen Literatur extrahiert. Bei über 15 Millionen Artikeln reichen herkömmliche Rechner bei weitem nicht mehr aus.

Andere Probleme aus der Strukturbiologie beschäftigen sich beispielsweise mit dem Threading, das für eine Aminosäuresequenz die Struktur vorhersagt, oder mit dem Docking, das die Wechselwirkung von Proteinen vorhersagt. Beide Verfahren realisieren komplizierte mathematische Berechnungen für eine große Zahl von möglichen Lösungen und sind somit extrem rechenzeitaufwendig. Durch die Neuinstallation werden derartige Untersuchungen am Standort Dresden erst in vernünftigem Maßstab möglich.

Ein weiteres Anwendungsspektrum ist die automatische Analyse von Bildern. Das Max-Planck Institut für molekulare Zellbiologie und Genetik (MPI-CBG) unterhält eine einmalige Infrastruktur zur Ausschaltung von Genen im hohen Durchsatz. Per Videomikroskopie werden dabei Tausende von Bildern und Filmen der untersuchten Zellen generiert. Die entstehenden Daten und deren Analysen sind so umfangreich, dass sie mit herkömmlichen Methoden auf normalen Rechnern nicht mehr effektiv zu verarbeiten sind. Auch hier wird mit dem neuen Hochleistungsrechner/Speicherkomplex eine Tür zu neuem Wissen geöffnet werden.

Kim-Astrid Magister | idw
Weitere Informationen:
http://www.zhr.tu-dresden.de/index.html

Weitere Berichte zu: Bandbreite Datenmenge HPC-Komplex Hauptspeicher PC-Farm Ressource SGI SGI® TeraByte ZIH

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht Plattformübergreifende Symbiose von intelligenten Objekten im »Internet of Things« (IoT)
09.12.2016 | Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB

nachricht Von Fußgängern und Fahrzeugen: Uni Ulm und DLR sammeln gemeinsam Daten für das automatisierte Fahren
09.12.2016 | Universität Ulm

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Elektronenautobahn im Kristall

Physiker der Universität Würzburg haben an einer bestimmten Form topologischer Isolatoren eine überraschende Entdeckung gemacht. Die Erklärung für den Effekt findet sich in der Struktur der verwendeten Materialien. Ihre Arbeit haben die Forscher jetzt in Science veröffentlicht.

Sie sind das derzeit „heißeste Eisen“ der Physik, wie die Neue Zürcher Zeitung schreibt: topologische Isolatoren. Ihre Bedeutung wurde erst vor wenigen Wochen...

Im Focus: Electron highway inside crystal

Physicists of the University of Würzburg have made an astonishing discovery in a specific type of topological insulators. The effect is due to the structure of the materials used. The researchers have now published their work in the journal Science.

Topological insulators are currently the hot topic in physics according to the newspaper Neue Zürcher Zeitung. Only a few weeks ago, their importance was...

Im Focus: Rätsel um Mott-Isolatoren gelöst

Universelles Verhalten am Mott-Metall-Isolator-Übergang aufgedeckt

Die Ursache für den 1937 von Sir Nevill Francis Mott vorhergesagten Metall-Isolator-Übergang basiert auf der gegenseitigen Abstoßung der gleichnamig geladenen...

Im Focus: Poröse kristalline Materialien: TU Graz-Forscher zeigt Methode zum gezielten Wachstum

Mikroporöse Kristalle (MOFs) bergen große Potentiale für die funktionalen Materialien der Zukunft. Paolo Falcaro von der TU Graz et al zeigen in Nature Materials, wie man MOFs gezielt im großen Maßstab wachsen lässt.

„Metal-organic frameworks“ (MOFs) genannte poröse Kristalle bestehen aus metallischen Knotenpunkten mit organischen Molekülen als Verbindungselemente. Dank...

Im Focus: Gravitationswellen als Sensor für Dunkle Materie

Die mit der Entdeckung von Gravitationswellen entstandene neue Disziplin der Gravitationswellen-Astronomie bekommt eine weitere Aufgabe: die Suche nach Dunkler Materie. Diese könnte aus einem Bose-Einstein-Kondensat sehr leichter Teilchen bestehen. Wie Rechnungen zeigen, würden Gravitationswellen gebremst, wenn sie durch derartige Dunkle Materie laufen. Dies führt zu einer Verspätung von Gravitationswellen relativ zu Licht, die bereits mit den heutigen Detektoren messbar sein sollte.

Im Universum muss es gut fünfmal mehr unsichtbare als sichtbare Materie geben. Woraus diese Dunkle Materie besteht, ist immer noch unbekannt. Die...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

Firmen- und Forschungsnetzwerk Munitect tagt am IOW

08.12.2016 | Veranstaltungen

NRW Nano-Konferenz in Münster

07.12.2016 | Veranstaltungen

Wie aus reinen Daten ein verständliches Bild entsteht

05.12.2016 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Aktuelle Beiträge

Hochgenaue Versuchsstände für dynamisch belastete Komponenten – Workshop zeigt Potenzial auf

09.12.2016 | Seminare Workshops

Ein Nano-Kreisverkehr für Licht

09.12.2016 | Physik Astronomie

Pflanzlicher Wirkstoff lässt Wimpern wachsen

09.12.2016 | Biowissenschaften Chemie