21.02.2012
Server, Interview

Titelinterview Andreas Wodtke, Systems & Technology Group der IBM Deutschland

„Server bleiben eine Paradedisziplin für IBM!“

Titelinterview der DV-Dialog-Ausgabe 1-2/2012 mit Andreas Wodtke, Vice President der Systems & Technology Group der IBM Deutschland


Andreas Wodtke ist Vice President der Systems & Technology Group der IBM Deutschland

Andreas Wodtke ist Vice President der Systems & Technology Group der IBM Deutschland

Andreas Wodtke ist Vice President der Systems & Technology Group der IBM Deutschland

Andreas Wodtke ist Vice President der Systems & Technology Group der IBM Deutschland

Herr Wodtke, IBM positioniert sich zunehmend als Software- und Serviceanbieter. Hardwaresparten wie Plattenspeicher, PCs oder Drucker wurden bereits aufgegeben. Warum bleiben Server für IBM wichtig?
Andreas Wodtke:
Natürlich bleiben Server – und übrigens auch Speichersysteme und Netze – eine Paradedisziplin für IBM, auch wenn Software und Services immer wichtiger werden. Würde ich das nicht glauben, hätte ich im Sommer wohl kaum ja gesagt, als mir der neue Job angeboten worden ist. Ich glaube, dass das eine ohne das andere keinen Sinn macht. Wir haben uns als Provider umfassender IT-Infrastrukturen positioniert; dazu gehören selbstverständlich auch Systeme. Damit sind nicht nur die Server gemeint, sondern auch die Speicher, die immer wichtiger werden. IBM hat über 50 Jahre Erfahrung mit solchen Systemen, die wir in die Entwicklung unserer Plattformen einbringen. Diese Erfahrung bedeutet einen wesentlichen Differenzierungsfaktor im Geschäft mit IT-Systemen, nicht zuletzt auch im Commodity-Segment mit x86-Servern.

Neue Anwendungen, die unter Überschriften wie Business Analytics, Smarter Planet oder Cloud Computing derzeit heiß diskutiert werden, brauchen immer mehr Server; teilweise brauchen sie sogar für eine bestimm­te Anwendung optimierte Systeme. Solche „Appliances“, wie sie zum Beispiel SAP derzeit mit der In-Memory-Datenbank Hana lanciert, bestehen aus Hardware-/Software­kombinationen, die sich durch einfache Inbetriebnahme, automatisierten Betrieb und geringen Administrationsaufwand auszeichnen. Wir sehen eine sehr große Nachfrage im Markt und mischen daher auch sehr gerne im Hardwaregeschäft mit.

Während andere Hersteller sich auf eine Plattform fokussieren, leistet sich IBM den Luxus mehrerer Modellreihen. Warum?
Wodtke:
Lassen Sie mich eines voranstellen: Einerseits gibt es eine wachsende Nachfrage nach zentraler Rechenleistung, andererseits haben viele unserer Kunden ihre IT-Budgets eingefroren. Denken Sie nur an den boomenden Einsatz mobiler Endgeräte wie Smartphones oder Tablet-PCs in den Unternehmen, der jährlich um 40 Prozent wächst und ganz neue Zielgruppen anspricht. Das erfordert umgekehrt ganz neue IT-Ser­vices, die auf Datenbanken und Anwendungen basieren, die entweder noch klassisch im
Rechenzentrum oder aber schon im Web oder in der Cloud bereitgestellt werden. Damit einher geht also ein Wachstum der Serverkapazitäten, sowohl der virtuellen als auch der physischen.

Mehr Server bedeuten auch mehr Aufwand, etwa für Operating und Systemmanagement, aber z.B. auch für Verwaltung, Wartung, Kühlung oder Energiemanagement. Um den höchst unterschiedlichen Anforderungen der Kunden gerecht zu werden, sind unterschiedliche Servertypen nötig – auch mit Blick auf Eigenschaften wie Performance, Zuver­lässigkeit oder Sicherheit.

Dafür baut IBM heute so unterschiedliche Geräte wie Mainframes, Power Systems, x86-Server, Blade Center, Cluster-Systeme und Analytics-Appliances wie Netezza. Auch für die Softwarefamilien entwickelt IBM mehr und mehr Appliances, wie z.B Lotus Foundations oder die Websphere Datapower SOA Appliance. Es werden eher mehr als weniger. Unterschiedliche Servertypen haben ihre Daseinsberechtigung – sowohl aus wirt-schaftlichen als auch aus technologischen Gründen. Dem trägt IBM durch die verschiedenen Server- und Speicherproduktlinien Rechnung, z.B. mit Blick auf die Workload-Anforderungen.

Auf der einen Seite stehen Transaktions­systeme mit zentralen Datenbanken und zigtausend Benutzern, die mehrere Hundert Millionen Transaktionen am Tag abwickeln und z.B. bei Banken rund um die Uhr an sieben Tagen die Woche laufen müssen. Auf der anderen Seite stehen Business Intelligence oder Data Warehousing. In diesem Umfeld sind die Datenmengen viel größer und die Berechnungen komplexer, aber die Systeme müssen nicht unterbrechungsfrei laufen und es gibt auch weniger Nutzer.

Wie wird sich der Servermarkt weiter­­entwickeln? Rechnen Sie wieder mit Wachstum über das Volumen des
Jahres 2008 hinaus?
Wodtke:
Da müssen Sie die Marktforscher fragen. Nur eines ist klar: Ob Public, Private oder Hybrid Cloud – die Workloads darin laufen nicht auf Kaffeemaschinen. Die Infrastrukturen dafür werden in den kommenden Jahren aufgebaut. Das ist eine Mega-Opportunity für IBM.

Laut IDC oder Gartner dominieren doch HP und IBM Kopf an Kopf bereits den Servermarkt, mit insgesamt rund 60 Pro­zent Marktanteil ...
Wodtke:
Fragt sich, was man als Markt betrachtet. In meinen Augen taucht der größte Serverhersteller in diesen Statistiken gar nicht einmal auf...

Wer ist das?
Wodtke:
Google. Google kauft keine Server für seine Mega-Rechenzentren, sondern baut sie allesamt selbst.

Bleibt die Segmentierung in kleine Commodity-Server und Blades, kompakte Midrange-Systeme und komplxe Highend-Server, Mainframes und Supercomputer bestehen?
Wodtke:
Ja, wobei die Betriebssysteme auch auf anderer Hardware als ursprünglich gedacht laufen können. Hiermit meine ich die zu nehmenden Möglichkeiten zum Auf-bau von Hybridsystemen, um das System­management zu vereinfachen und die Kosten zu senken.

Auf dem z-Mainframe Plattform können neben dem Mainframe-Betriebssystem heute Applikationen ebenso unter Linux, AIX ­oder gar Windows betrieben und gesteuert werden. Auch die früheren AS/400- und  RS/6000-Server sind zu den heutigen ­Power Systems zusammengewachsen, unter den drei Betriebssystemen IBM i, AIX und Linux.

Wie gesagt glaube ich, dass der Trend in Richtung Workload-optimierte Systeme ­geht – und dass das Thema Appliances uns nicht loslassen wird. Wobei die AS/400 vermutlich die erste Appliance war, die es auf diesem Erdball jemals gegeben hat.

Wie meinen Sie das?
Wodtke:
Die AS/400 war 1988 der erste voll integrierte Applikationsserver. Mit voll integriert meine ich: Datenbank, Middleware, Security und Systemmanagement sind integrale Bestandteile des Systemkonzeptes. Das macht die Maschine gerade für Mittel­ständler so attraktiv: Sie läuft quasi von allein und benötigt kaum IT-Experten. Dazu kommen ihre vielen Applikationsprogramme.

Wo liegen die spezifischen Vorteile der Power-Architektur?
Wodtke:
Power Systems kombinieren die Vorteile der Mainframes bei Hochverfügbarkeit und Skalierbarkeit mit denen der preis­günstigen und standardisierten x86-Welt. Das ist ein Alleinstellungsmerkmal der Power Systems; angesichts des Trends zur Konsolidierung werden sie noch lange ihre Daseinsberechtigung haben. Es gibt Großkunden, die mehrere Tausend Server durch zwei Power Systems abbilden.

Dazu kommen Themen wie Virtualisierung oder Security, denn Cyber-Angriffe kommen praktisch nicht vor. Außerdem bräuchte man viele x86-Server für die Leistung eines Power Systems, so dass nicht nur die Lizenz­kosten explodieren, weil viele Softwarehersteller ihre Lizenzen je Prozessor berechnen, sondern auch das Systemmanagement sehr viel aufwendiger wird. Last but not least sind die Einsparungen beim Energieverbrauch nicht zu unterschätzen, gerade vor dem Hintergrund des geplanten Atomausstiegs. Dagegen spielt der Platzbedarf für die Server nur eine untergeordnete Rolle.

Warum halten Sie Energieeffizienz für dermaßen wichtig?
Wodtke:
Es gibt Telekommunikationsunternehmen in Deutschland, die zahlen für ihre Rechenzentren jährlich eine Stromrechnung von 20 Mio. Euro, in denen sie 20.000 bis 30.000 Systeme betreiben. Das Hauptproblem ist nicht deren Energieverbrauch, sondern die Kühlung. Es kommt sogar die Wasserkühlung wieder in Mode, die bis in die 90er-Jahre gängige Praxis in den Rechenzentren war. Verfolgen diese Unternehmen weiterhin eine Scale-out-Strategie, wird auch die Zuleitung zum Problem. Denn für die Rechenzentren gibt es zumeist zwei oder drei Einspeisungspunkte, die dann vom deutschen Stromnetz nicht mehr ausreichend versorgt werden.

Überzeugt IBM mit diesen Vorteilen auch Neukunden vom Power System?
Wodtke:
Ja. Allerdings kommt in der Mehr-zahl der Konsoliderungsprojekte AIX zum Einsatz, in bestimmten auch Linux. IBM i ist mehr getrieben durch die Applikationen. Insgesamt ist das Energieeinsparpotential der Power Systems auch ein starkes Argument für Neueinsteiger. Wir sehen Neuverkäufe von IBM i auch in Deutschland, vor allem aber in den „Emer­ging Countries“, etwa in den sogenannten „BRIC“-Staaten oder in Afrika. Hier überzeugen wohl das „Plug&Play“-Konzept und der bedienerarme Betrieb des hochintegrierten Systems, vielleicht auch, weil die IT-Experten für den Aufbau und die Administration von IT-Infrastrukturen knapp sind.

Welche neuen Anwendungen treiben denn den Absatz von Power Systems?
Wodtke:
Neue Anwendungen gibt es querbeet, zum Beispiel auf Basis der Programmiersprachen Java oder PHP in Bereichen wie E-Commerce, Workflow und Dokumentenmanagement oder CRM. Ein Beispiel sind Bankinganwendungen. Früher bekamen wir mit den Power Systems bei Banken kein Bein auf die Erde, weil diese – als Domäne von Sun – ihre Anwendungen auf das Sun-Betriebssystem zugeschnitten hatten. Da können Sie die beste Technik anbieten und den besten Preis machen: Wenn die Anwendungen nicht auf ihrem Server laufen, werden Sie ihn nicht verkaufen. Das ändert sich momentan grund­legend, denn Banken und Versicherungen wollen unabhängiger von einzelnen Herstel­lern werden. Deshalb werden derzeit viele Anwendungen auf unseren Technologie-Stack portiert oder dafür neu entwickelt.

Neben Virtualisierung und Cloud: Welche Trends und Innovationen prägen die Weiterentwicklung der Servertechnologie?
Wodtke:
Primär beschäftigen sich IT-Chefs mit dem permanenten Kostendruck; sie müssen einerseits sparen, andererseits aber neue IT-Services bereitstellen. Dazu zählt vor allem der Zugriff auf Informationen, um bessere Entscheidungen zu treffen. Hier gibt es noch Defizite, obwohl die Basisdaten vorhanden sind.

Woran liegt das?
Wodtke:
An einem Phänomen, das wir „Big Data“ nennen. Gemeint ist die explosions-artige Zunahme unstrukturierter Daten, die sich bisher nur schwer automatisiert verar-beiten lassen. Dazu entwickeln wir nun innovative Ansätze wie Watson. Der kann nicht nur Jeopardy spielen, weil er erstens unstruktu­rierte Daten auswerten kann und zweitens auch noch Stimmungen feststellt. Würde Watson im Second Level Support arbeiten, könnte er merken, ob ein Anrufer sich gut gelaunt vor Weihnachten meldet oder ob er total genervt ist, weil er ohne irgend­eine Hilfestellung bereits 20 Mal weiterverbunden worden ist. Callcenter etwa könnten wieder nach Deutschland zurückverlagert werden, weil viel weniger Personal benötigt würde. Das ist für uns eine riesige Marktchance.

Anderes Beispiel: Wie viel Information liegt in den Diktiergeräten unserer Ärzte brach? Watson könnte diese Informationen sammeln, verdichten und auswerten. Dabei ist er beileibe kein Arzt. Doch als Arzthelfer kann er einen Beitrag zur Diagnose seltener Krankheiten leisten, da er die Symptome mit dem gesammelten Wissensfundus abgleichen kann.

Es geht in den Entwicklungslabors also nicht nur um klassische Servertechnologie?
Wodtke:
Genau, es geht auch um Grundlagenforschung. Ein Beispiel: IBM-Wissenschaftler suchen Möglichkeiten, ob und wie sich eine unmittelbarere Verbindung zwischen Gehirn und Geräten herstellen lässt, um mittels der Gedanken Abläufe zu steuern. Schon heute gibt es auf dem Gebiet der Bioinformatik die ersten rudimentären Geräte, mit deren Hilfe Hirnströme gemessen werden und Gesichts­ausdrücke maschinell interpretiert werden können. Schon innerhalb der nächsten fünf Jahre werden wir die ersten einfachen Anwendungen in der Medizin, bei Videospielen und der Unterhaltungsindustrie sehen. Für Schlaganfallpatienten könnte dieses „Gedankenlesen“ ein Meilenstein sein.

Was wird auf der Cebit zu sehen sein?
Wodtke:
Klar ist, dass wir gemeinsam mit Kunden und Partnern unter der Überschrift „A Smarter Planet at Work“ im Bereich intelligenter Infrastrukturen innovative Systeme zeigen werden. Das Motto der Cebit insge­samt lautet: „Managing Trust“, denn das Thema Sicherheit gewinnt immer mehr an Brisanz.
Wir gehen beispielsweise davon aus, dass biometrische Daten bis 2015 Passwörter oder PINs überflüssig machen werden. Sprach-identifikation, Retina-Scans oder Gesichtsmustererkennung könnten dafür sorgen, dass wir nicht mehr ständig grübeln müssen, nur um Geld abzuheben, unseren Compu­ter hochzufahren oder Weihnachtsgeschenke online zu bestellen. Unter dem Stichwort „Multifactor Biometrics” wird es in Zukunft intelligente IT-Systeme geben, die in Echtzeit unsere biometrischen Daten abgleichen können. Sie machen unser Leben damit nicht nur einfacher, sondern schützen auch zuverlässig vor Missbrauch, Betrug und Diebstahl.


Interview mit Klaus Smets, Manager Toshiba Retail: „Trotz Onlineboom im Handel: Die Filiale bleibt wichtig!“

Neue Rolle des Data Warehouse: Datenmanagement im Fokus

Handelssoftware von SMH: ERP-System im Praxiseinsatz

Top-Jobs auf DV-Dialog

Interview mit Klaus Smets, Manager Toshiba Retail

„Trotz Onlineboom im Handel: Die Filiale bleibt wichtig!“

Wir sprachen über Smartphones, Mobile Payment und die Folgen des Onlinebooms für die IT-Systeme im Handel mit Klaus Smets, Manager Toshiba Retail.

Insbesondere vor dem Hintergrund, dass Toshiba und IBM 2012 ein 80:20-Joint-Venture unter dem Namen Toshiba Global Commerce Solutions (TGCS) gründeten, in das die IBM-Sparte Retail Store Solutions (RSS) eingebracht wurde. Mittlerweile ist die Integration von RSS in den japanischen Konzern weit fortgeschritten.

DV-Dialog Newsletter