Mainframe & Cloud 18.02.2013, 10:00 Uhr

sanfter Generationswechsel

Wenn der jüngste IT-Spross auf den Mainframe-Uropa trifft, können sich die beiden blendend verstehen – oder auch gar nicht. Welche Herausforderungen beim Modernisieren der IT-Infrastruktur auf Unternehmen zukommen.
Bei der Modernisierung der IT-Infrastruktur kommen auf ein Unternehmen verschiedene Herausforderungen zu
Das Modernisieren von Altsystemen und Legacy-Applikationen bereitet IT-Verantwortlichen das meiste Kopfzerbrechen. Das behaupten die Analysten der Experton Group. Sie wollen auch wissen, dass die immer höhere Dynamik in den Geschäftsprozessen dazu zwinge, die Applikationen mittelfristig zumindest zu überarbeiten oder komplett zu ersetzen. Anbieter von IT-Lösungen scheinen den Beratern auf den ersten Blick recht zu geben. Die Produkte für zum Beispiel eine Mainframe-Ablösung sind so vielfältig wie die Legacy-Anwendungen selbst. Allerdings, argumentieren die Lieferanten von Mainframe-Produkten, ist das Ablösen der Grossrechner überhaupt nicht notwendig. Anwender schwören dem Mainframe zu 90 Prozent ihre Treue, weiss BMC. CA Technologies ermittelte, dass der Mainframe von 80 Prozent der Unternehmen als ein strategischer Bestandteil der IT-Infrastruktur wahrgenommen wird. Und IBM zitiert ihren Kunden Arburg, der von überragender Energieeffizienz der zEnterprise-Systeme spricht. Das Ende des Mainframes scheint nicht in Sicht. Der Unternehmensalltag ist allerdings weder so schwarz, wie ihn die Befürworter von Mainframe-Ablösungen malen, noch so weiss, wie ihn die Unterstützer der Grossrechner sehen. Wenn man den Marktforschern glauben darf, ist die Zahl der Mainframes rückläufig. Gleichzeitig steigt die Auslastung der installierten Systeme, gemessen in MIPS (Million Instructions per Second). Im Klartext heisst das: Die vorhandenen Maschinen leisten immer mehr. Alte Rechner kommen für höhere Auslastung kaum in Betracht – die MIPS liefern demnach eher die modernen Systeme. Unternehmen haben ihre Infrastruktur also durchaus aktualisiert – auch mit neuen Mainframes. «Die Grossrechner gehen nicht gerade weg wie warme Weggli», gibt Christian Keller, General Manager von IBM Schweiz, zu. Von einem Einbruch des Geschäfts hierzulande will er aber nichts wissen. Lesen Sie auf der nächsten Seite: Mainframe trotz Cloud

Mainframe trotz Cloud

Für Unternehmen der Finanzbranche oder aus dem Handel gibt es zum Beispiel kaum eine Alternative zum Mainframe. Die Maschinen bedienen seit jeher einen Markt, in dem hohe Sicherheit und ein grosses Transaktionsvolumen essenziell sind. Geht es nach IBM, nutzen die Anwender Mainframes künftig als eine zusätzliche Ressource – neben der Cloud und anderen verteilten Systemen. Die jüngsten Produkte aus dem Hause Big Blue (zEnterprise EC12) bringen für aktuelle Anforderungen zeitgemässe Technologie mit. Unter anderem sollen schneller Flash-Speicher, Hardware-Verschlüsselung und Analytics-Kapazitäten die Systeme aufwerten. Mithilfe aktualisierter Managementtools lassen sich laut IBM «Tausende verteilte Systeme» konsolidieren und dabei bei Energieverbrauch, Platzbedarf im Rechenzentrum und Software-Lizenzen Einsparungen erzielen. Cal Braunstein, Analyst der Experton Group, hat kalkuliert, dass ein Mainframe als Datenbankserver die IT-Betriebskosten um bis zu 50 Prozent senken kann. Die Versprechen der Hersteller decken sich offenbar mit den Erwartungen und Plänen der IT-Verantwortlichen. In einer Umfrage unter 623 IT-Entscheidern im Auftrag des Herstellers CA Technologies erachteten 58 Prozent die Grossrechner als eine zentrale strategische Plattform in ihrer Cloud-Strategie. Als Vorzüge des Mainframes werden das flexible Bereitstellen neuer Services, Skalierbarkeit und Sicherheit genannt. 63 Prozent evaluieren oder planen gegenwärtig neue Werkzeuge, mit denen sie rasch private und hybride Cloud-Services auf dem Grossrechner einführen können. «Der Onlinehandel generiert riesige Datenmengen. Insbesondere grös-sere Unternehmen brauchen hier eine gute Mischung aus Leistungsstärke, Skalierbarkeit und Sicherheit, um die Informationen verwalten zu können – einschliesslich Mainframe», nennt Jon Toigo, Inhaber der Beratungsfirma Toigo Partners, ein Anwendungsbeispiel. Geht man von der weiteren Existenz der Mainframes aus – was der Realität am nächsten kommen dürfte –, ist der sich abzeichnende Personalnotstand ein kritischer Faktor, meint Experton-Analyst Braunstein. Darin sah allerdings nur ein Drittel der vom Anbieter BMC befragten 1243 Anwender ein «sehr grosses» Problem – 75 Prozent machen sich immerhin «gewisse Sorgen». Die Verantwortlichen steuern allerdings auch gegen: Die wichtigsten Massnahmen, um das Qualifikationsdefizit auszugleichen, sind interne Schulungen (53%), das Rekrutieren erfahrener Fachkräfte (40%), Outsourcing (37%) und Automatisierungen (29%). Durch das Zusammenspiel zwischen Grossrechner und Cloud-Diensten werden in Zukunft mehr als nur Mainframe-Experten gefragt sein, glaubt Mark Combs, Distinguished Senior Vice President Mainframe bei CA Technologies. Nach den Erkenntnissen von Combs planen 89 Prozent der heutigen Mainframe-Kunden kurzfristig die Einführung eines plattformübergreifenden Managements mit übergreifenden Budgets. Vor diesem Hintergrund meint mehr als die Hälfte, dass es für Bewerber essenziell sei, Kompetenzen sowohl im Grossrechnerbereich als auch in den übergreifenden Technologien mitzubringen. Lesen Sie auf der nächsten Seite: Cloud löst den Mainframe ab

Cloud löst den Mainframe ab

Die sinkende Anzahl insbesondere der kleineren Mainframes bedeutet laut Gartner-Analyst Dale Vecchio auch einen kulturellen Wandel. «Manche IT-Fachleute widersetzen sich einer Migration, indem sie ihr Spezialwissen für sich behalten. Schlimmstenfalls scheitert daran ein Projekt», hat Vecchio beobachtet. CIOs müssen laut dem Analysten aber auch auf Widerstände aus der Belegschaft vorbereitet sein und sollten der Verweigerungshaltung mit sachlichen Argumenten begegnen. Finanziell notwendige Migrationsvorhaben dürften aber nicht an den Vorbehalten Einzelner scheitern, mahnt Vecchio.

Migrationswege

Ist die Entscheidung zugunsten einer Mainframe-Ablösung gefallen, sieht Gartner in der Inventarisierung der Software-Applikationen den ersten Schritt. Application Portfolio Management (APM) hilft, den Umfang des Modernisierungsprojekts zu bestimmen, und ermittelt die Nutzungshäufigkeit von Anwendungen sowie Querverbindungen zwischen den einzelnen Programmen. Ist der Status quo bestimmt, kennt Gartner drei Alternativen: Re-Hosting: Umzug von Workloads auf Systeme mit Linux, Unix oder Windows. Code Transformation: Übersetzungsprogramme konvertieren zum Beispiel in Cobol geschriebene Anwendungen in eine modernere Sprache wie C++, C# oder Java. Packaged Migration: Insbesondere bei individuell entwickelten Abfragen oder Routinen empfiehlt es sich, den manuell geschriebenen Code durch Standardkomponenten zu ersetzen. Einerseits verringert sich so die Zahl der neu zu schreibenden Codezeilen, andererseits sind fertige Lösungen preiswert und zuhauf vorhanden.

Zügelhilfe von Aussen

Programmierer und IT-Administratoren werden bei der Migration von einer Vielzahl von Übersetzungswerkzeugen unterstützt. Software kommt von Anbietern wie Annubex, Ateras, EvolveWare, MetaWare, MigrationWare, The Software Revolution und Trinity Millennium Group. Micro Focus führt beispielsweise eine Lösung im Portfolio, die PL/I-Anwendungen auf verteilte Systeme mit Linux, Unix und Windows Server zügelt. Der Hersteller verspricht, dass sich die Applikationen auf den neuen Plattformen «ohne grosse Änderungen für einen Bruchteil der Kosten betreiben lassen». Laut Gartner-Analyst Vecchio schliesst Micro Focus damit eine Lücke, denn das Re-Hosting stand zuvor nur für Cobol zur Verfügung. Lesen Sie auf der nächsten Seite: Fallbeispiel aus der Praxis

Fallbeispiel aus der Praxis

Aus der Praxis berichtet das Beratungsunternehmen «pro et con» vom Migrationsprojekt beim Kunden Amadeus. Der spanische IT-Dienstleister für die Reisebranche hatte die Notwendigkeit, seine BS2000er-Anlagen durch Unix-Rechner abzulösen. Während des dreijährigen Projekts «Arno» (Application Relocation to New Operating System) wurden Tausende SPL-Programme und SDF-Prozeduren automatisch nach C++ respektive Perl konvertiert. Das Filehandling-System migrierte Amadeus in relationale Datenbanken. Der DCAM-Trans­ak­tionsmonitor wurde durch openUTM auf Unix-Seite ersetzt. «Arno»-Projektleiter Werner Teppe gibt allerdings zu, dass er zunächst den Testaufwand unterschätzt hat. Die ursprünglich vorgesehenen manuellen Tests wurden alsbald durch ein automatisches Testmanagement ersetzt, was «erheblichen» Mehraufwand bedeutete. Trotzdem haben sich die Projektkosten nach rund zwei Jahren amortisiert. Das Ergebnis sind geringere Hardware- und Lizenzkosten, auch durch den Ersatz von kommerzieller Software durch Open-Source-Komponenten. Die Sackgasse der proprietären SPL-Programmierung wurde beseitigt, zusätzlich der Weg für moderne Entwicklungsumgebungen geebnet, berichtet Teppe.


Das könnte Sie auch interessieren