Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

GI stellt zehn Thesen zu Sicherheit und Datenschutz in Cloud Computing vor

01.12.2010
Die Gesellschaft für Informatik e.V. (GI) hat zehn Thesen zu Sicherheit und Datenschutz in Cloud Computing vorgestellt. Im "Cloud Computing" werden viele vernetzte Rechner gemeinsam genutzt.

"Cloud Computing ist in aller Munde und wird heute in vielfältigen Umgebungen eingesetzt. Deshalb ist es sehr wichtig, Risiken zu kennen und Handreichungen für einen verantwortungsvollen Einsatz von Clouds zu definieren.", sagte GI-Präsident Stefan Jähnichen. Die GI habe deshalb folgende zehn Thesen aufgestellt, die die Herausforderungen Identity Management, Access Control und Integrity Control, Logging und Auditing, Risk Management und rechtlicher Compliance aus technischer und juristischer Sicht beschreiben.

Cloud Computing (früher: Grid-Computing und Utility Computing) bezeichnet preiswerte zentral und dynamisch organisierte große (verteilte und virtualisierte) Cluster von IT-Systemen (shared infrastructures, Server-Farmen): Hardware, Speicher- und Netzkapazitäten, Plattformen (Datenbanken und Run-Time-Environment) und Anwendungen (verteilte Nutzung von Software: Hosted Applications). Öffentliche Clouds werden sind in Deutschland und/oder, im Ausland oder an nicht (näher) spezifizierten Orten und auch off-shore angesiedelt; jedenfalls kann der Anwender nicht erkennen, an welchem Ort des weltweiten Internets seine Daten gespeichert oder verarbeitet werden: Die Cloud ist intransparent und damit unkontrollierbar: Öffentliche Clouds werden von Outsourcingnehmern auch ohne ausdrückliche Information des Auftraggebers eingesetzt. Wir alle benutzen Clouds wenn wir z.B. mit Suchmaschinen, Software as a Service, webbasierten Maildiensten, Social Communities und Kalendern im Internet arbeiten.

Die folgenden Herausforderungen hinsichtlich Identity Management, Access Control und Integrity Control, Logging und Auditing, Risk Management und rechtlicher Compliance müssen also gelöst werden:

1. Clouds können ein Sicherheitsrisiko darstellen wegen der außerhalb des Unternehmens fehlenden Durchsetzungsmöglichkeit unternehmenseigener Sicherheitspolitiken, -strategien und -verfahren sowie Sicherheitsmaßnahmen und ihrer Kontrollierbarkeit. Das Gesamt-Sicherheitsniveau bei Cloud Computing kann naturgemäß nicht höher sein als das Sicherheitsniveau innerhalb des Unternehmens - durch die unverzichtbare Vor- und Nach-Verarbeitung im Unternehmen.

2.Daher lassen bereits heute Unternehmen nur ausgewählte Daten in öffentlichen Clouds verarbeiten und verarbeiten wertvolle Daten ausschließlich in privaten Clouds (in-house).

3. Private Clouds unterscheiden sich unter Sicherheitsaspekten nicht von den herkömmlichen unternehmenseigenen IT-Systemen, weil sie der unternehmenseigenen Sicherheitspolitik unterliegen und vollständig kontrolliert werden können. Entsprechendes gilt für rechtliche Vorgaben für die innerbetriebliche Informationsverarbeitung.

4. Bei der Nutzung öffentlicher Clouds (und auch hybrider) sind nationale Gesetze und branchenspezifische Selbstregulierungsmaßnahmen einzuhalten (Compliance); daraus folgt für einige Branchen, dass Clouds gar nicht genutzt werden dürfen. Risikomanagement (z. B. aus § 91 Abs. 2 AktG) und Sicherheitskonzepte sind bei der Nutzung von Clouds anzupassen. Einschränkungen ergeben sich insbesondere aus dem Datenschutzrecht, das die Übermittlung personenbezogener Daten in Staaten außerhalb der EU nur sehr eingeschränkt zulässt und auch innerhalb der EU Pflichten für die Auftragsdatenverarbeitung festsetzt, die nur eine eingeschränkte Nutzung öffentlicher Clouds erlauben.

5. Der Transport der zu verarbeitenden Daten zu öffentlichen Clouds erfolgt über das völlig unsichere Internet und kann nur äußerst aufwändig abgesichert werden.

6. Daten können zur Erhöhung der Vertraulichkeit in der Cloud verschlüsselt gespeichert werden; allerdings können Daten nicht verschlüsselt verarbeitet werden, dazu müssen sie in der Cloud erst wieder entschlüsselt werden – können dann allerdings in öffentlichen Clouds von Dritten ausgelesen werden. Alle eingesetzten Standard- und/oder Individualprogramme zum Transport zu Clouds und zur Verwaltung von Clouds (Virtualisierung, Lastausgleich, geografische Verteilung, Sicherungs- und Sicherheitsmaßnahmen etc.) und auch Verschlüsselungsprogramme und Protokolle sind nicht fehlerfrei; sie können vielmehr kritische (aus dem Internet ausnutzbare) Sicherheitslücken enthalten, die (unbekannten) Dritten ein Auslesen oder Abhören der Daten erlauben.

7. Sicherheitsrelevante Vorfälle müssen sorgfältig untersucht werden können (Forensik). Dies wird allerdings durch die geografische Verteilung der sehr vielen genutzten IT-Systeme schwierig bis unmöglich. Die Beschlagnahme lokalisierter Daten(träger) durch Ermittlungsbehörden verursacht Probleme, weil entweder der auf Virtualisierung und Mehrmandantenfähigkeit basierende Cloud-Betrieb gestört wird oder die Alternative eines (potentiell manipulierten) Snapshots der Daten aus der Cloud nur verminderten Beweiswert vor Gericht hat.

8. Cloud-Betreiber können ihre Dienste einstellen - z.B. bei wirtschaftlichen Schwierigkeiten. Auch in solchen Fällen muss nicht nur vertraglich sondern auch technisch die volle Kontrolle durch den Anwender erhalten bleiben: Das so genannte „vendor-lock-in“ könnte etwa durch branchenübergreifende Standards verhindert werden. Unentgeltliche Cloud-basierte Dienste werden häufig ohne jegliche Garantie angeboten, so dass die verarbeiten Daten besonders hohen Risiken ausgesetzt sind. Verträge bevorzugen zudem derzeit die Cloud-Anbieter und berücksichtigen nicht in angemessener Form die Interessen der Cloud-Nutzer.

9. Bei vertraglichen Vereinbarungen besteht häufig eine Diskrepanz zur technischen Durchsetzung (z.B. technische Unmöglichkeit der Datenlöschung bei Vertragsende oder besonderen Ereignissen wie Insolvenz).

10. Zur Beherrschung der Risiken durch gemeinsame Nutzung von Hard- und Software (Internet, Infrastruktur, Software und Verfahren) gleichzeitig mit unbekannten Dritten muss Cloud Computing dem Wert der verarbeiteten Daten entsprechend abgesichert werden. Öffentliche Clouds müssen wie Kritische Infrastrukturen behandelt werden, sofern sie allgemein und weitverbreitet genutzt werden sollen. Dabei sind auch kartellrechtliche Aspekte wie die „Essential-facilities-Doktrin“ zu beachten.

Insgesamt ergeben sich stark erhöhte Anforderungen an die Absicherung unternehmenseigener und auch privater Datenverarbeitung bei Cloud Computing und zwar hinsichtlich Vertraulichkeit, Integrität, Verbindlichkeit (z.B. Authentifizierung Berechtigter) und Verfügbarkeit der verarbeiteten Daten und genutzten IT-Systeme, ferner auch stark erhöhte Anforderungen an die rechtliche Absicherung.

Die Pressemitteilung mit weiterführenden Literaturhinweisen finden Sie unter
http://www.gi-ev.de/presse/pressemitteilungen-2010/pressemitteilung-vom-1-dezember-2010.html

Die Gesellschaft für Informatik e.V. (GI) ist eine gemeinnützige Fachgesellschaft zur Förderung der Informatik in all ihren Aspekten und Belangen. Gegründet im Jahr 1969 ist die GI mit ihren heute rund 24.000 Mitgliedern die größte Vertretung von Informatikerinnen und Informatikern im deutschsprachigen Raum. Die Mitglieder der GI kommen aus Wissenschaft, Wirtschaft, öffentlicher Verwaltung, Lehre und Forschung.

Cornelia Winter, cornelia.winter@gi.de, Telefon 0228-302147.

Cornelia Winter | idw
Weitere Informationen:
http://www.gi.de

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht Schnelle Time-to-Market durch standardisierte Datacenter-Container
28.03.2017 | Rittal GmbH & Co. KG

nachricht Modellfabrik Industrie 4.0: Forschungs- und Trainingsplattform für Wissenschaft und Wirtschaft
28.03.2017 | Hochschule Konstanz

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Entwicklung miniaturisierter Lichtmikroskope - „ChipScope“ will ins Innere lebender Zellen blicken

Das Institut für Halbleitertechnik und das Institut für Physikalische und Theoretische Chemie, beide Mitglieder des Laboratory for Emerging Nanometrology (LENA), der Technischen Universität Braunschweig, sind Partner des kürzlich gestarteten EU-Forschungsprojektes ChipScope. Ziel ist es, ein neues, extrem kleines Lichtmikroskop zu entwickeln. Damit soll das Innere lebender Zellen in Echtzeit beobachtet werden können. Sieben Institute in fünf europäischen Ländern beteiligen sich über die nächsten vier Jahre an diesem technologisch anspruchsvollen Projekt.

Die zukünftigen Einsatzmöglichkeiten des neu zu entwickelnden und nur wenige Millimeter großen Mikroskops sind äußerst vielfältig. Die Projektpartner haben...

Im Focus: A Challenging European Research Project to Develop New Tiny Microscopes

The Institute of Semiconductor Technology and the Institute of Physical and Theoretical Chemistry, both members of the Laboratory for Emerging Nanometrology (LENA), at Technische Universität Braunschweig are partners in a new European research project entitled ChipScope, which aims to develop a completely new and extremely small optical microscope capable of observing the interior of living cells in real time. A consortium of 7 partners from 5 countries will tackle this issue with very ambitious objectives during a four-year research program.

To demonstrate the usefulness of this new scientific tool, at the end of the project the developed chip-sized microscope will be used to observe in real-time...

Im Focus: Das anwachsende Ende der Ordnung

Physiker aus Konstanz weisen sogenannte Mermin-Wagner-Fluktuationen experimentell nach

Ein Kristall besteht aus perfekt angeordneten Teilchen, aus einer lückenlos symmetrischen Atomstruktur – dies besagt die klassische Definition aus der Physik....

Im Focus: Wegweisende Erkenntnisse für die Biomedizin: NAD⁺ hilft bei Reparatur geschädigter Erbinformationen

Eine internationale Forschergruppe mit dem Bayreuther Biochemiker Prof. Dr. Clemens Steegborn präsentiert in 'Science' neue, für die Biomedizin wegweisende Forschungsergebnisse zur Rolle des Moleküls NAD⁺ bei der Korrektur von Schäden am Erbgut.

Die Zellen von Menschen und Tieren können Schäden an der DNA, dem Träger der Erbinformation, bis zu einem gewissen Umfang selbst reparieren. Diese Fähigkeit...

Im Focus: Designer-Proteine falten DNA

Florian Praetorius und Prof. Hendrik Dietz von der Technischen Universität München (TUM) haben eine neue Methode entwickelt, mit deren Hilfe sie definierte Hybrid-Strukturen aus DNA und Proteinen aufbauen können. Die Methode eröffnet Möglichkeiten für die zellbiologische Grundlagenforschung und für die Anwendung in Medizin und Biotechnologie.

Desoxyribonukleinsäure – besser bekannt unter der englischen Abkürzung DNA – ist die Trägerin unserer Erbinformation. Für Prof. Hendrik Dietz und Florian...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

Industriearbeitskreis »Prozesskontrolle in der Lasermaterialbearbeitung ICPC« lädt nach Aachen ein

28.03.2017 | Veranstaltungen

Neue Methoden für zuverlässige Mikroelektronik: Internationale Experten treffen sich in Halle

28.03.2017 | Veranstaltungen

Wie Menschen wachsen

27.03.2017 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Aktuelle Beiträge

Von Agenten, Algorithmen und unbeliebten Wochentagen

28.03.2017 | Unternehmensmeldung

Hannover Messe: Elektrische Maschinen in neuen Dimensionen

28.03.2017 | HANNOVER MESSE

Dimethylfumarat – eine neue Behandlungsoption für Lymphome

28.03.2017 | Medizin Gesundheit