null

Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Dienstleistungen aus der Wolke

01.07.2009
Von der „Einsteinschen Beglückung“ zum Cloud Computing
Von Heinz-Paul Bonn *

„Warum beglückt uns die herrliche, das Leben erleichternde, die Arbeit ersparende Technik so wenig“, fragte schon Albert Einstein am Ende seines Lebens in einer prä-informationstechnischen Ära. De Antwort, die er sich selbst gab, wirkt auch auf unser Geschäftsverständnis nach: „Weil wir noch nicht gelernt haben, einen vernünftigen Gebrauch von ihr zu machen.“

Über die Jahrzehnte hinweg hat sich die Lebenserfahrung der modernen IT, dass der Einsatz von Technik noch nicht den Pfad zum Erfolg, geschweige denn den zur „Einsteinschen Beglückung“ weist, in der Erkenntnis manifestiert, dass die Option ohne Adaption nichts wert ist. Der kontinuierlich ansteigende Umsatz mit IT-Services gibt einen Hinweis darauf, dass wir immer mehr Dienstleistungen erbringen müssen beziehungsweise dürfen, um unsere Kunden in die Lage zu versetzen, „einen vernünftigen Gebrauch von [der Technik] zu machen“. Das Einsteinsche Theorem ist also Geschäftsgrundlage einer ganzen Branche, die davon lebt, den Kunden den Einsatz der Technik, die sie erworben haben, auch zu erklären. Oder plakativ ausgedrückt – als dialektischer Endreim fürs Poesiealbum:

„A fool
with a tool
is still a fool.“
Nun verbietet es die “political correctness”, unsere Geschäftspartner, erst recht unsere Kunden als “Narren” zu desavouieren. Aber ein Geschäftsmodell, das darauf fußt, dass sage und schreibe vier Fünftel des IT-Budgets eines Anwenders für den Erhalt der IT-Infrastruktur aufgewendet werden muss, hat bei Lichte betrachtet doch durchaus etwas Anrüchiges. Wer auf diese – im Grunde genommen toten – Investitionen schaut, der neigt schnell jenen provozierenden Thesen zu, wie sie Nicholas Carr mit seinem Buch „Does IT Matter?“ formulierte.

Auch wenn die Mehrheit übereinstimmend feststellt, „IT matters!“, müssen wir uns doch fragen, ob das Verhältnis von vier Fünfteln zu einem Fünftel an IT-Aufwendungen zu Ungunsten der Investitionen tatsächlich der Wirkungsgrad ist, den wir erreichen wollen. Bei einem Marktvolumen von 144,6 Milliarden Euro, die der BITKOM 2009 für die Informations- und Kommunikationstechnik in Deutschland vorhersagt, wären dies rechnerische 115,5 Milliarden Euro – allein in diesem Jahr.

Das ist kein schlechter Business Case für Unternehmen, die als Partner von Leitarchitektur-Anbietern mit Beratung, Anpassung, Implementierung, Wartung und Ersatzbeschaffungen einen gigantischen Markt vor sich haben. Und das Verhältnis von Investition zu Bestandserhaltung ist keinesfalls auf die IT-Branche beschränkt: Die Konjunkturprogramme in Europa und den USA weisen ja darauf hin, dass sie weniger in wahre Investitionen fließen, sondern in den notwendigen Ersatz maroder Bausubstanz bei Häusern, Straßen und Schienenwegen.

Man könnte fast darüber nachdenken, ob künftig bei Brückenbauwerken analog zum klassischen Softwarelizenzvertrag eine jährliche Wartungsgebühr an den Bauunternehmer zu entrichten ist. Allerdings müsste der sich dann verpflichten, regelmäßig ein neues Brücken-Release zu stellen.

Umgekehrt hätte es durchaus seine Folgerichtigkeit, wenn – wie beispielsweise vom niedersächsischen Wirtschaftsminister Phillip Rössler gefordert – auch Investitionen in Green-IT, die ja im Grunde Ersatzbeschaffungen sind, unter den Regenschirm eines Konjunkturprogramms gestellt werden. Der BITKOM freilich hat sich dieser Position nicht angeschlossen – unter anderem, weil wir die Hauptmotivation für Investitionen in dem Added Value sehen, den wir als Branche kommunizieren müssen. Spätestens hier wäre dann auch die Parallele zum Brückenbau nicht mehr haltbar.

Dennoch sehe ich Handlungsbedarf für die ganze Branche: Denn auch wenn andere Studien den Anteil von IT-Investitionen eher bei immerhin einem Drittel der Gesamtaufwendungen sehen, ist dies doch eine Relation, die gerade in einer Phase totaler wirtschaftlicher Verunsicherung von Anwendern in Frage gestellt werden muss – und auch in Frage gestellt wird. Es ist durchaus ein natürlicher Reflex, der derzeit im Einkaufsverhalten der IT-Verantwortlichen zu beobachten ist: Langfristig ausgerichtete investive Projekte werden verschoben. Und gleichzeitig werden Verträge zur Wartung der bestehenden Infrastruktur neu verhandelt. Beide Maßnahmen haben das Ziel, das IT-Budget im laufenden Jahr zu schonen. Man hat den Eindruck, dass die IT-Manager sich im Herbst 2008 erst einmal eingegraben hatten, um abzuwarten, wie sich die Krise entwickelt. Und die IT-Anbieter beginnen sich darauf einzustellen.

Dies bestätigt die jüngste Markterhebung des BITKOM zu den Auswirkungen der Wirtschaftskrise auf die ITK-Branche. Sie ist – wohlgemerkt – eine Einschätzung der Anbieter, nicht der Anwender:

Konkret spürten im April mehr als die Hälfte der Befragten keine direkten negativen Auswirkungen der Wirtschaftskrise auf die Umsatzentwicklung des Unternehmens. Aber 60 Prozent gaben an, dass sie in der nächsten Zukunft mit Einschränkungen im Geschäftsleben rechnen. Demzufolge haben auch fast ebenso viele, nämlich 56 Prozent, ihre Umsatzerwartungen für 2009 heruntergeschraubt. Dennoch ist die Anzahl der Unternehmen, die die Krise zum Anlass für Personalabbau nehmen, erfreulich gering: nur neun Prozent haben diesen Schritt unternommen oder planen, dies zu tun. Denn, dies ergab die Momentaufnahme aus dem April 2009 ebenfalls: knapp die Hälfte der Anbieterfirmen rechnet mit einer Verbesserung der konjunkturellen Lage im kommenden Jahr.

Denn die IT braucht kein Konjunkturprogramm – sie schöpft aus sich selbst, aus den eigenen Innovationen heraus, die beste Motivation für die Investitionen ihrer Kunden. Und das unterscheidet die ITK-Industrie fundamental von der Automobilindustrie. Sie braucht deshalb auch kein Rettungspaket – sie ist selbst eins. Dies herauszustellen, kann das Signal des heutigen Software Strategy Summits sein.

Nach Einschätzung der Gartner Group wird sich weltweit in diesem Jahr keine Erholung bei der Nachfrage ergeben, aber – so der Rat, dem ich mich nur anschließen kann – es ist jetzt an der Zeit, sich auf die veränderten Nachfragemotive einzustellen.

Ein weiteres Stichwort, dessen Umsetzung sich direkt auf die operativen Kosten auswirken kann, ist Virtualization bei der Infrastruktur. Abgesehen von dem höheren Auslastungsgrad der Server und Einsparpotenzialen bei Stromverbrauch und Kühlung sorgt Virtualisierung für eine größere Flexibilität bei der Zuordnung der IT-Ressourcen.

Auch Outsourcing bleibt ein Thema, mit dem Neukunden gewonnen werden können. Ich persönlich sehe zwar die Gefahr, dass sich mit Outsourcing-Dienstleistungen in diesem Jahr keine guten Margen erzielen lassen. Denn die IT-Manager werden hier vor allem durch Bündelung von Verträgen Kosten zu drücken versuchen. Aber praktisch alle Marktanalysten sagen voraus: wer hier heute ein Kundenpotenzial zu nutzen versteht, wird ab dem kommenden Jahr interessante Wachstumsraten vorweisen können – und zwar sowohl bei Umsatz als auch beim Gewinn.

Auch auf der Anwendungsseite zeichnen sich aus dem aktuellen Kostenbewusstsein neue Trends ab: Hier stehen vor allem Lösungen zur Business Intelligence im Vordergrund, die helfen sollen, das gesamte Unternehmen durch raues Fahrwasser zu führen und durch Controlling-Maßnahmen Einsparungspotenziale zu identifizieren. Es ist bezeichnend, dass IBM mit Cognos, SAP mit Business Objects und Oracle mit Hyperion hier das eigene Portfolio gestärkt haben, während Microsoft nach meiner Beobachtung bislang auf die Überzeugungskraft der Analytics-Tools von SQL-Server setzt. Und diese Überzeugungskraft hat Wirkung, wie die Gartner Group jetzt ermittelte: Ein Viertel der Anwender, die heute noch kein BI-System im Einsatz haben, wollen nach dieser Gartner-Studie auf Microsoft zurückgreifen.

Ein zweites Anwendungsfeld, auf dem Marktanalysten kurzfristigen Modernisierungsbedarf erkennen, ist Customer Relationship Management (CRM). Gerade durch Web 2.0-Techniken, die Social Marketing mit einbeziehen (oder sogar erst effizient möglich machen), entwickeln sich hier Erweiterungen, die die Zielrichtung von CRM auch in Richtung Projektabwicklung und kundenbezogene Fertigung ausdehnen. Der Markt ist in den zurückliegenden Monaten durch Salesforce.com und die darauf aufbauende Community Plattform ordentlich aufgemischt worden – insofern dürfen wir auf Microsofts XRM Strategie als Entwicklungsplattform für CRM-Erweiterungen gespannt sein.

Im Bereich der Finanzanwendungen und der Lösungen für Human Resources – also Personalmanagement, Lohn und Gehalt etc. – wird sich ein Trend weiter verstärken, der mit dem Namen Datev als größtem Anbieter hierzulande verbunden ist: OnDemand – oder Software and Service. Finanzen, Lohn und Gehalt und verstärkt Kundenbeziehungsmanagement sind die treibenden Anwendungen hinter diesem Outsourcing-Modell, das vor allem kurzfristig Kostenvorteile durch den Wegfall von Hardwareinvestitionen bietet.

In den USA zeichnet sich jedoch deutlich auch ein Trend zu ERP-Lösungen, die als OnDemand-Anwendung akzeptiert werden, ab. Erkennbar ist dort aber vor allem – es sind weniger die Lösungen selbst, die den Sog auf die OnDemand-Angebote verursachen, als vielmehr die Dynamik, die sich aus den Entwicklungsplattformen ergibt. Durch sie wird eines der schwerwiegendsten Hindernisse des OnDemand-Computings aufgelöst: die mangelnde individuelle Flexibilität der bereitgestellten Anwendungen.

Diese von der Community bereitgestellten, in der Regel äußerst kostengünstigen Zusatzanwendungen fallen inzwischen auf einen aufnahmefähigen Boden, der vor allem von der Open Source Bewegung aufbereitet worden ist. Und beide Entwicklungen – Open Source und OnDemand – erzeugen in diesen Krisenzeiten einen erkennbaren Druck auf das klassische Anbietermodell der Softwarelizenz:

• Das Hauptmotiv für Open Source ist die Kostenreduzierung bei der Softwareanschaffung.

• Das Hauptmotiv für OnDemand-Lösungen ist die Reduzierung der Deployment Kosten.

Angesichts von vier Fünftel der Kosten, die für den Erhalt der Infrastruktur aufgewendet werden müssen, ist der Einsparungseffekt bei Anschaffungen kaum ausschlaggebend. Die Senkung der Deployment-Kosten bei der Implementierung eines neuen Release ist es aber sehr wohl. Microsoft hat bei einem Analysten-Meeting im vergangenen Jahr eine einfache Rechnung vorgetragen: Ein Großunternehmen scheute die Ausgabe von drei Millionen Dollar für neue Microsoft Vista-Lizenzen, obwohl eine interne Analyse deutliche Effektivitätsvorteile bei den Anwendungen und bei den Prozessen identifiziert hatte. Der Grund: das Unternehmen hatte ebenfalls ermittelt, dass es zusätzliche vier Millionen Dollar für die Implementierung der neuen Software in der dezentralen, weltumspannenden Organisation ausgeben müsste. Microsoft musste also die Deployment-Kosten des Kunden von vier Millionen Dollar senken, um den Vista-Umsatz von drei Millionen Dollar erzielen zu können.

Oder allgemeiner: Zukunftsgerichtete Innovationen werden also durch die bestehende Infrastruktur behindert – wenn nicht gar verhindert. Es ist also nicht nur so, dass zu viele Aufwendungen für den Erhalt des laufenden Betriebs die Mittel für Neuanschaffungen schmälern. Modernität wird bereits durch die bloße Existenz des Bestehenden unmöglich gemacht oder zumindest verzögert. Wenn es so ist, dann ist es Zeit für einen Paradigmenwechsel.

Die Situation ist in der Geschichte der IT nicht neu – diese Industrie ging bereits durch drei Flutwellen der Erneuerung und der anschließenden Erstarrung:

Mainframe Computing hatte in den fünfziger und sechziger Jahren seine Innovations- und Wachstumsphase, der sich in den späten sechziger und frühen siebziger Jahren die Konsolidierungsphase anschloss: übrigens mit der ersten Welle unabhängiger Softwarehäuser. – In dieser Phase lag das IT-Investment der westlichen Wirtschaften ziemlich einheitlich bei einem bis zwei Prozent des Bruttoinlandsprodukts des jeweiligen Landes.

Client/Server Computing genoss Anfang der achtziger Jahre durch den Siegeszug der Personal Computer seine massive Innovations- und Wachstumsphase, ehe sich durch die Vernetzung von Clients und Server in den neunziger Jahren die Konsolidierung anschloss. – Die IT-Investments stiegen auf drei Prozent des Bruttoinlandsprodukts.

Mitte der neunziger Jahre setzte die Ära des Networked Computings ein, die mit Enterprise Applications und Internet-basierten Inter-Enterprise Prozessen für Innovationen sorgte und gegenwärtig Konsolidierungseffekte bringt. – Inzwischen sind die Aufwendungen für die IT auf fünf Prozent des Bruttoinlandsprodukts angestiegen. Allerdings haben die Entwicklungen nach 2001 auch zu einem Wachstumsknick geführt.

Ich halte es für geradezu folgerichtig, dass die Infrastruktur der Zukunft das Cloud Computing sein muss. Sie verändert – wie ihre drei Vorgängerinnen – das Verhältnis von Investition und Infrastruktur, von Software und Service. Sie wird zunächst die Weiterführung von Networked Computing sein. An ihrem Ende aber steht eine völlige Neustrukturierung des Software- und Service-Markts.

Viele der aufgezeigten kurzfristigen Entwicklungen der Jahre 2009 und 2010 lassen sich in der Cloud bündeln:

• Harmonisierung der Informationsflüsse
• Virtualisierung von Hardware und Netz
• Outsourcing von Anwendungen
• Open Source oder Development Platforms
• Social Marketing
• Outsourcing von Services
• Reduzierung der Deployment-Kosten.
Vor allem aber: Cloud Computing hat das Potenzial eines der nicht eingelösten Versprechen der Informationstechnologie endlich einzulösen: das Effizienzversprechen. Schon jetzt ist erkennbar, dass die Skepsis gegenüber Software as a Service beziehungsweise Software and Service schwindet angesichts des anhaltenden wirtschaftlichen Krisendrucks. Wenn es gelingt, mit Cloud Computing nachweislich den Trend umzukehren, dass zwei Drittel bis vier Fünftel der Aufwendungen in den Erhalt der Infrastruktur gehen, dann wird der Durchbruch der nächsten Flutwelle erreicht sein. Und die Chancen stehen gut: Denn zum ersten Mal sprechen die Mechanismen der Economies of Scale für die Effizienzsteigerung.

Wenn die Geschichte der Software-Industrie eines lehrt, dann ist es die Erkenntnis, dass mit jeder neuen Flutwelle die Landschaft der Software- und Systemanbieter neu gestaltet wurde. Microsoft hat sicher am Grabe vieler Mainframe-Softwarehäuser gesungen – und musste sich selbst der Herausforderung des nachfolgenden Paradigmen-Shifts stellen. Unvergessen ist das berühmte „Flutwellen“-Memorandum (Tidal Wave Memorandum), mit dem Bill Gates am 25. Mai 1995 sich selbst und die ganze Company wachrüttelte.

Ich bin sicher, dass es eines solchen Memorandums innerhalb von Microsoft diesmal nicht bedarf. Aber Microsoft ist ebenso abhängig vom Erfolg seiner Partner, wie die Partner vom Erfolg von Microsoft abhängig sind. In allen vier großen Biosphären der IT-Industrie – also im Umfeld der Leitarchitekten Microsoft, IBM, SAP und Oracle, die jeweils in ausgewiesenen Architekturfeldern Marktdominanz erreicht haben – zeichnet sich der Aufbruch in die Wolke ab. Und dieser Aufbruch wird die klassische Nahrungskette dieser Partner-Ökosphären neu strukturieren. Dazu sind folgende Aspekte zu sehen:

Der klassische Anwendungsmarkt wird sich weg von der Software hin zu den Geschäftsprozessen entwickeln. Schon heute ist es eigentlich eine Binsenweisheit, dass ein erfolgreiches Einführungsprojekt für Unternehmenssoftware nicht durch Softwareexpertise, sondern durch erstklassiges Projektmanagement und Geschäftsprozessorientierung beeinflusst wird. Allenfalls in der frühen Phase des Cloud Computings werden Anwendungen hochgradig standardisiert angeboten werden. Mittelfristig wird sich hier der Kundenbedarf nach Individualisierung durchsetzen, der durch hochspezialisierte Berater bedient werden muss.

Die Virtualisierung frisst ihre Kinder. Im Laufe der Zeit werden sich die Einheiten weiter konzentrieren und konsolidieren, wobei die Grenzen nicht notwendigerweise zwischen den Anwendern gezogen werden, sondern zwischen den Anwendungen.

Das Softwarelizenzmodell wird überleben – aber es wird bis zur Unkenntlichkeit verändert sein. Während der Anwender für die Nutzung zahlt, wird sich der Anteil daran am Servicelevel der beteiligten Anbieter orientieren. Die eigentliche Software ist dann ebenso ein Service wie ihr Betrieb und die kundenindividuelle Anpassung.

Die Grenzen der Zukunft liegen nicht im Verbreitungsgrad, sondern im Anpassungsgrad. Wenn potenziell alle Lösungsangebote rund um den Globus verfügbar sein können, sind territoriale Begrenzungen kein Hinderungsgrund mehr. Es ist aber sehr wohl eine Herausforderung, eine Finanzbuchhaltung nach den gesetzlichen Bestimmungen von 192 Ländern dieser Erde auszurichten. Die Fähigkeit zur lokalen und individuellen Anforderung werden auch bestimmt durch Economies of Scale and Scope. Ein Beispiel: Wer Landesfassungen für Unternehmen in Deutschland, Großbritannien, Frankreich, den USA, Indien und China anbieten kann, erreicht bereits 75 Prozent des weltweiten potenziellen Zielmarktes.

Noch mehr Maschinen als Menschen werden die Benutzer des Cloud Computings sein. Was wir heute als das „Internet der Dinge“ bezeichnen, also beispielsweise die Informationen, die aus RFID-Tags, Sensoren oder Embedded Systems generiert werden und über das Internet ihre Anwendung finden, wird ebenso Bestandteil des Cloud Computings wie das „Internet der Dienste“, zu dem sich unsere Anwendungslandschaft offensichtlich entwickelt.

In einer Projektion für Deutschland unter dem Titel „Die IT-Industrie im Jahr 2020“, die das Beratungshaus A.T. Kearney vorgenommen hat, werden die Building Blocks des „Internets der Dinge“ und des „Internets der Dienste“ als die Gewinner in zukünftigen IT-Budgets gesehen. Während der Anteil der Infrastrukturinvestitionen dramatisch sinkt und zugleich an Bedeutung für die Wertschöpfung im Unternehmen verliert, sind es vor allem die „Newcomer“ Embedded Systems und – wie A.T. Kearney es nennt Client Facing Applications, die die Wertschöpfung vorantreiben und demzufolge auch an Budgetanteilen gewinnen. Unter Client Facing Applications versteht A.T. Kearney jene Funktionen des Social Networking, die zur Bildung von Communities und Wertschöpfungskreisen über das Internet beitragen. – Unangefochten Nummer Eins bezogen auf Wertschöpfung und Budgetanteil bleiben allerdings die Enterprise Applications.

Alle vier Schwerpunkte erhalten jedoch durch die Interaktion über das Internet zusätzlichen Schub.

Embedded Systems werden in allen Lebensbereichen – etwa beim energieeffizienten Haus oder Auto – Daten ermitteln, aus denen Services entstehen: zum Beispiel die Anmeldung zur nächsten Autowartung oder die aus den Gewohnheiten der Bewohner generierte Wärmekurve für das Haus.

Client Facing Anwendungen werden die Wertsteigerungen in Kunden- und Lieferantenbeziehungen, in Marketing und Networking leisten. Direktes Feedback von Kunden, die sogenannte „Customer Energy“, soll Prozesse optimieren und Produkte verbessern helfen.

Nahezu unverändert bleibt als Haupterwartung an Enterprise Applications die Beschleunigung und Kostenreduzierung der Geschäftsprozesse. Wesentliche Potenziale sind hier im Zusammenspiel der Supply Chain und der Value Chain zu sehen.

Im Infrastruktursektor halten sich Bedarfssteigerung und Preisverfall die Waage, wobei Zusatznutzen durch Managed Services entsteht.

In allen vier Bereichen steigt der Service-Anteil am Gesamtbudget nach Einschätzung von A.T.Kearney überproportional, während der Umsatzanteil der Hardware und der Bedarf an Personal stagnieren. Die Hinwendung zur Dienstleistung wird sich also in den westlichen, mit sinkender Korrektheit „Industrieländer“ genannten Nationen weiterhin verstärken.

Wir hören heute oft, dass nach Durchschreiten der Talsohle der Wirtschaftskrise nichts mehr so sein wird, wie es war. Keiner kann (oder will) aber vorhersagen wie es wird. Ich sehe im Cloud Computing eine nicht minder die Grundfesten unseres wirtschaftlichen Zusammenlebens erschütterndes Paradigma. Ich habe aber den Eindruck oder die Erwartung, dass sich der Standort Deutschland als Sieger beider Wandlungen erweisen kann.

In allen westlichen Nationen hat sich der Anteil der Dienstleistungen am Bruttoinlandsprodukt in den zurückliegenden Jahren dramatisch erhöht – in Deutschland liegt er gegenwärtig bei rund 70 Prozent der Bruttowertschöpfung, die industrielle Produktion bei knapp 30 Prozent. Selbst wenn wir den Handel unberücksichtigt lassen – obwohl der Geschäftsprozess Handel schon jetzt einer der Hauptnutznießer des Internets ist – liegt der Dienstleistungsanteil noch bei 58 Prozent. In den USA liegt der Serviceanteil bereits bei etwa 80 Prozent – zu Lasten des Industrieanteils.

Dieser Dienstleistungsanteil wird sich immer stärker ins Internet beziehungsweise in die Cloud verschieben und sich dort als Software und Service manifestieren: Forschung und Entwicklung, Marketing und Werbung, Beratung und Wartung – dies sind Tätigkeiten, die immer erkennbarer webbasiert angeboten werden. Und sie werden sich damit auch einem immer stärker international ausgerichteten Markt zuwenden.

Deutschland ist laut IKB heute Dritter im Dienstleistungsexport – allerdings mit negativer Leistungsbilanz. Wir kaufen also mehr Services ein als wir ausführen. Hier haben vor allem deutsche Mittelständler noch eine zu wenig ausgeprägte Strategie zur Internationalisierung. Es besteht aber die Hoffnung, dass Cloud Computing oder Cloud Services deutsches „Gewusst Wie“ – ganz im Sinne der Einsteinschen Forderung „einen vernünftigen Gebrauch von der Technik zu machen“ – zu einem Exportschlager werden lassen. Wir sollten uns auf jeden Fall darauf einstellen.

* Der Text beruht auf einer Keynote, die Heinz-Paul Bonn, Vizepräsident des BITKOM, anlässlich des Microsoft Software Strategy Summit in Köln hielt.


Weitere Informationen:

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

Von „Coopetition“ bis „Digitale Union“ – Die Fertigungsindustrien im digitalen Wandel

02.12.2016 | Veranstaltungen

Experten diskutieren Perspektiven schrumpfender Regionen

01.12.2016 | Veranstaltungen

Die Perspektiven der Genom-Editierung in der Landwirtschaft

01.12.2016 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Aktuelle Beiträge

Parkinson-Krankheit und Dystonien: DFG-Forschergruppe eingerichtet

02.12.2016 | Förderungen Preise

Smart Data Transformation – Surfing the Big Wave

02.12.2016 | Studien Analysen

Nach der Befruchtung übernimmt die Eizelle die Führungsrolle

02.12.2016 | Biowissenschaften Chemie