Interview mit Claus Fischer, Geschäftsführer der Technogroup IT-Service GmbH

Vorbeugende Wartung für die IT

Im Jubiläumsjahr der Technogroup IT-Service GmbH sprachen wir mit Firmenchef Claus Fischer. Gegründet 1990, ist die Technogroup heute als herstellerunabhängiger IT-Dienstleister für Hard- und Software in Rechenzentren in der D/A/CH-Region aktiv.

  • „Ein Oldtimer ist schön. Anders als Puristen sage ich aber: Er muss funktionieren und darf auch Annehmlichkeiten bieten, die es zu seiner Zeit noch gar nicht gab. So habe ich in meinem Jaguar (Bj 1964) Automatikgurte, eine Klimaanlage und die elektronische Zündung nachgerüstet!“ Claus Fischer

  • Firmengründer Claus Fischer kümmert sich gerne auch um Oldtimer – sowohl auf der Straße als auch im Rechenzentrum

  • Firmengründer Claus Fischer kümmert sich gerne auch um Oldtimer – sowohl auf der Straße als auch im Rechenzentrum

Die Technogroup IT-Service GmbH feiert in diesem Jahr ihr 25jähriges Firmenjubiläum, während andere IT-Dienstleister längst vom Markt verschwunden sind. Warum, das macht Firmengründer Claus Fischer im Interview mit DV-Dialog unmissverständlich klar: „Wir haben von Anfang an immer großen Wert auf profitables Wachstum gelegt. So haben wir den nötigen Speck gehabt, um auch einmal magere Zeiten zu überstehen!“

Im vergangenen Jahr konnte die Technogroup wieder Speck ansetzen – der Umsatz wuchs um 13 Prozent auf  über 21,9 Mio. Euro. Geschäftsführer Claus Fischer berichtet stolz, dass man im Rekordjahr alle Ziele übertroffen habe und als führender Third-Party-Anbieter etabliert sei. Der eingeschlagene Expansionskurs werde weiter fortgesetzt, wie jetzt mit der Übernahme der EMS IT-Service AG (früher Econocom Managed Service AG). Die Verschmelzung sei zum 10. August mit der Eintragung ins Handelsregister auch formal abgeschlossen worden. Die bisher eigenständigen EMS-Geschäftsfelder seien bereits vollständig integriert.  
„Kunden fordern im heutigen Marktumfeld ständig verbesserte Leistungen – das heißt höhere Qualität zu niedrigeren Preisen und besseren Service in kürzester Zeit“, beschreibt Fischer die unternehmerische Herausforderung. „So lässt sich die Kundenzufriedenheit steigern und trotz Kostendruck noch gezielter auf die Erwartungen der Kunden eingehen.“

Gegründet 1990, ist die Technogroup heute als herstellerunabhängiger IT-Dienstleister für Hard- und Software in Rechenzentren in der D/A/CH-Region aktiv. 200 qualifizierte Mitarbeiter sorgen für größtmögliche Verfügbarkeit der IT-Umgebung; annähernd 70 Prozent der Mitarbeiter sind IT-Spezialisten.

Der Wachstumsmotor ist und bleibt der Wartungsumsatz, der aktuell bei 90 Prozent liegt; die Kundenzahl wuchs seit Anfang 2013 von 2.180 auf derzeit über 2.400 Unternehmen, verteilt über alle Branchen in Industrie, Banken und Versicherungen  und öffentlichen Verwaltungen.

Im Bereich Organisation, Prozesse und Personal war 2014 laut Firmenchef Fischer ein Jahr der Konsolidierung, aber auch ein Jahr die Ressourcen zu verzahnen, um die nächsten Wachstumsschritte möglich zu machen. Eine Reihe entscheidender Positionen und Funktionen sei neu definiert worden. Diese Anpassungen sollen auch im Jubiläumsjahr 2015 fortgeführt und zum Abschluss gebracht werden.

Zielsetzung der Technogroup mit Hauptsitz in Hochheim ist die 100-prozentige Systemverfügbarkeit der eingesetzten Hard- und Softwarekomponenten des Kunden zu jedem Zeitpunkt. Kurze Reaktionszeit, qualifizierter Support mit Hotline und Helpdesks sind dabei wichtig. Um den Kunden höchstmögliche Standards zu bieten, ist das Unternehmen ISO-zertifiziert; alle Abläufe werden gemäß ITIL abgewickelt. Überdurchschnittlich kurze Reaktionszeiten will die Technogroup auf zwei Wegen gewährleisten: Durch eigenständige Gesellschaften auch in Österreich und in der Schweiz und 35 Service­stützpunkten – sowie mit über 80.000 Ersatzteilen auf Lager. Im Jubiläumsjahr sprachen wir darüber mit Firmenchef Claus Fischer.

Herr Fischer, vor 25 Jahren haben Sie das Unternehmen gegründet. Wie hat sich der Markt für IT-Dienstleister seither gewandelt?
Claus Fischer:
Der Markt hat sich grundlegend gewandelt, auch wenn bei uns nach wie vor der Anspruch an die Performance und permanente Verfügbarkeit der IT im Fokus steht. 1990 war beides zwar auch schon wichtig für unsere Kunden, doch sie waren bei weitem nicht so abhängig von der IT wie heute.

Der Wandel wird schon im Firmennamen deutlich. Gestartet waren wir 1990 als Technotron Computer Service GmbH mit Third-Party-Maintenance. Heute heißt das Unternehmen Technogroup IT-Service GmbH. Wir wollen schon im Firmennamen unseren ganzheitlichen Ansatz beim IT-Service verdeutlichen; die Wartung ist dabei nur noch ein – wenn auch wichtiger – Teilaspekt. Und: Die Mainframes und Midrange-Systeme, die damals das Zentrum der IT unserer Kunden bildeten, haben längst nicht mehr die Bedeutung von einst. Heute besteht die IT aus vernetzten Systemen – und ist daher wesentlich vielschichtiger und komplexer.

Die zentrale Datenverarbeitung war damals einfacher zu beherrschen; allerdings war die Zuverlässigkeit der Hardware nicht auf dem heutigen Niveau. Rechenzentren waren abgeschottet – und die Daten nur über „dumme“ Terminals von außen abrufbar. Jetzt gibt es nicht mehr einzelne Leitungen, die ins RZ führen; das RZ ist ins Netz eingebettet. Das heißt aber auch: Die Ursachen von Störungen und technischen Probleme sind nicht mehr so klar eingrenzbar. Und: Es kann fatale Domino-Effekte geben, wenn die IT nicht sauber konfiguriert ist.

Mussten Ihre Techniker damals die wenigen Rechner und Speichersysteme der Kunden aus dem Effeff kennen, ist deren IT-Welt heute viel komplexer geworden. Software und Netzwerk spielen eine entscheidende Rolle...
Fischer:
Früher standen die Geräte im Fokus, heute sind es die Anwendungen. Früher konnte es sein, dass bei einem Ausfall der AS/400 das gesamte Unternehmen still stand. Das ist heute aufgrund der Verteilung auf viele Systeme selten.

Warum? Man hört doch immer wieder von katastrophalen Rechnerausfällen oder Netzwerkproblemen...
Fischer:
Das kommt noch vor, aber viel seltener. Die Hardware ist viel stabiler geworden, da ist viel Redundanz eingebaut. Außerdem sind Hochverfügbarkeitslösungen bei lebenswichtigen Anwendungen längst die Regel und nicht mehr die Ausnahme. Beides ist möglich, weil die Hardware viel günstiger ist.

Diese große Zuverlässigkeit der IT ist aber auch dringend notwendig, denn die Unternehmen und Behörden sind nicht mehr offline. Vor 25 Jahren konnte man nicht im Online-Shop rund um die Uhr einkaufen oder sein Auto via Internet zulassen. Von daher sind auch die Ansprüche unserer Kunden im Laufe der Jahre deutlich gewachsen. Heute können sie ohne IT ja praktisch gar nicht mehr arbeiten.

Ist die Hardware so zuverlässig, dass man die vorbeugende Wartung nicht mehr braucht?
Fischer:
Im Gegenteil. Beispiel: Zwar hat heute jeder Server Sensoren eingebaut und meldet, sobald er heiß läuft. Folglich können die Admi­ni­stratoren rechtzeitig eingreifen und die darauf laufenden Anwendungen umschalten, bevor es zu einem Serverausfall kommt.

Durch vorbeugende Wartung – also durch die physische Überprüfung und nicht nur Online-Inspektion der Hardware beim Kunden – verbessern wir die Verfügbarkeit der IT immer noch nachhaltig. Der Techniker vor Ort sieht, das beispielsweise der Lüfter des Servers stark verschmutzt ist und säubert ihn, bevor überhaupt Hitzeprobleme auftauchen, weil der Lüfter nicht mehr die volle Leistung bringt. In RZs mit einer stabilen Infrastruktur taucht dieses Problem selten auf, höchstens bei Umbaumaßnahmen. Aber es gibt ja auch Server, die im Lager oder im Büro einer Niederlassung stehen. Hier erkennt ein Techniker bei der Inspektion, dass sich Probleme anbahnen – und kann die Ur­sachen vorher beheben. Unsere Kunden wissen das zu schätzen.

Und doch gibt es heutzutage Schlagzeilen, wenn etwa Reservierungssysteme von Fluggesellschaften ausfallen oder die Bundesanstalt für Arbeit wegen IT-Problemen praktisch lahmgelegt ist.
Fischer:
Richtig. Das kommt vor, ist aber viel seltener als früher. Deshalb wird es auch eine Schlagzeile – und weil wie gesagt die Auswirkungen viel gravierender sind. Eigentlich sind die IT-Infrastrukturen heute so aufgebaut, dass der Ausfall selbst wichtiger Server- oder Speichersysteme den Anwendungsbetrieb nicht oder höchstens kaum merklich stört.

Was sind denn heutzutage die Hardware-Schwachstellen?
Fischer:
Vor allem die Mechanik – nicht nur der erwähnte Lüfter. Wo sich etwas dreht oder bewegt, ist Verschleiß einfach unvermeidlich. Die Mechanik der Magnetplatten beispielsweise ist zwar extrem zuverlässig geworden, doch sie rotieren mit 15.000 oder 20.000 Umdrehungen pro Minute auch zigmal schneller als früher. Da sind die Fliehkräfte viel größer.

Auch die Pumpen der Serverkühlung in großen Rechenzentren bilden einen Schwachpunkt – oder die Bandlaufwerke und Drucker. Deswegen ist und bleibt vorbeugende Wartung so wichtig: Der Techniker vor Ort hört, sieht und riecht es, wenn die Hardware nicht mehr rund läuft.

Und die Elektronik?
Fischer:
Die ist inzwischen sehr zuverlässig, zumal wenn die Rechenzentren auf die optimale Betriebstemperatur gekühlt werden. Ist die Temperatur ein der zwei Grad höher, macht das unserer Erfahrung nach nichts aus. Problematisch sind nur Temperaturschwankungen – deswegen werden die Server- und Speichersysteme heute auch gar nicht mehr ausgeschaltet, sondern laufen im Dauerbetrieb bzw. Standby-Modus. Schon wenn die Temperatur im RZ nur um fünf Grad steigt, beispielsweise wegen einer Störung der Klimatisierung, ist die Auswirkung auf die Verfügbarkeit messbar.

Warum ist das so?
Fischer:
Wird  ein Server ausgeschaltet entstehen Spannungen, weil die verbauten Materialien eine unterschiedliche Wärmeleitung haben. Auch daher rührt der Spruch: Never touch a running system!

Gibt es am Wochenende Systemabschaltungen bei Kunden, weil die IT umzieht, ein Umbau nötig ist oder ein Upgrade ansteht, haben unsere Techniker am Montag oft einen Großeinsatz. Deswegen arbeiten wir eng mit den Kunden zusammen; die informieren uns im Vorfeld darüber, sodass wir disponieren können.

Helfen Sie Ihren Kunden bei solchen Vorhaben?
Fischer:
Die Unterstützung der Kunden in solchen Fällen zählt zu unserem Kerngeschäft. Für die IT-Abteilung ist ein Umzug ja eine Ausnahmesituation, für uns gängige Praxis. Da können wir nicht nur mit Manpower helfen, sondern auch mit vielen Ratschlägen und bewährten Verfahren. Auf- und Abbau der Systeme, Rekonfigurationen und bauliche Maßnahmen – wir stehen dem IT-Chef mit Rat und Tat zur Seite. Bei Großprojekten sind wir meistens früh mit im Boot.

Das Problem aus Verfügbarkeitssicht sind eher „kleine“ Änderungen, die die Unternehmen in Eigenregie vornehmen ohne uns zu informieren. Da wird im RZ schnell eine Trenn­wand hochgezogen oder es gibt nur einen neuen Anstrich. Dafür werden die Systeme am Wochenende ausgeschaltet. Oft folgt dann am Montag das böse Erwachen, wenn das Hochfahren der IT misslingt. Dann kommt schon einmal Hektik auf, falls der Kunde uns vorher nicht infor­miert hat. Das wird immer wieder unterschätzt.

Weshalb?
Fischer:
Weil die IT-Systeme sehr selten heruntergefahren und dann wieder neu gestartet werden. Das klingt harmlos, ist es wie gesagt aber nicht.
Außerdem ist ein geplanter Shutdown für unsere Techniker eine hervorragende Gelegenheit, die Systeme einmal gründlich unter die Lupe zu nehmen. Sie können auch in Ruhe Reparaturen und Wartungsarbeiten durchführen, die ohnehin anstanden – aber nicht während des normalen Produktionsbetriebes erfolgen sollten, um jedes Ausfallrisiko zu vermeiden.

Wenn Sie vergleichen: Ist die IT in den Unternehmen in den letzten 25 Jahren zuverlässiger geworden?
Fischer:
Schwer zu sagen. Die Hardware selbst ist einerseits dank des technischen Fortschritts und der Redundanzen viel zuverlässiger, andererseits aber auch nicht mehr so langlebig. Vor zwanzig Jahren konnte man im Sinne des Wortes von „Hartware“ sprechen, denn da hatten Server noch einen massiven Aufbau aus Metall. Heute spart man daran und verwendet Kunststoff. Dafür wird mehr Wert auf Design gelegt – aber das leistet keinen Beitrag zur Verfügbarkeit.
Wir haben heute bei manchen Kunden noch Systeme in der Wartung, die zwanzig Jahre und älter sind. Die laufen immer noch und machen keine Mucken. Und wenn doch, können wir sie reparieren, obwohl der Hersteller den Support längst beendet hat. Ob die modernen Systeme noch solch eine Lebensdauer haben, wage ich zu bezweifeln.

Heute bieten die Hardware-Hersteller drei Jahre Garantie. Das verführt die IT-Leiter dazu, gar keinen Wartungsvertrag mehr abzuschließen, sondern die Geräte nach Ablauf der Garantiezeit auszutauschen. Das macht auch uns beim Abschluss von Wartungsverträgen zu schaffen.

Ist eine längere Hardware-Nutzung nicht automatisch wirtschaftlicher?
Fischer:
Oft wohl – aber meistens ist es ein Rechenexempel. Denn neue Hardware ist ja leistungsfähiger und vielleicht auch energie­sparender. Allerdings erweist sich eine Hardware-Nutzung über fünf bis sechs Jahre in der Regel als die wirtschaftlichste Lösung – auch aus steuerlichen Gründen. Das aber Hardware noch zehn oder fünfzehn Jahre im Rechenzentrum steht, findet man heute kaum noch.

Das heißt: Wir erbringen heute den Support in der Regel für zwei bis drei Jahre im Anschluss an die Gewährleistung durch den Hersteller. Dass wir heute noch acht oder zehn Jahre alte Geräte neu in die Wartung nehmen, ist die absolute Ausnahme. Dann schon eher mal einen richtigen Oldtimer, der immer noch gute Dienste leistet – und dessen Ablösung sehr teuer wäre. Das kann daran liegen, dass sein Austausch eine völlig neue Systemlandschaft erfordert, ohne dass das einen Nutzen stiften würde...

Es ist ja auch immer noch von /36-Anwendungen zu hören, die weiter gute Dienste leisten...
Fischer:
Genau – das System/36 wurde ja schon Ende der 80er Jahre durch die AS/400 abgelöst. Davon haben wir keines mehr in der Wartung, vielleicht auch deshalb, weil die SSP-Anwen­dungen ja auch auf der AS/400 weiter genutzt werden können. Dafür warten wir aber noch einige Modelle aus den Anfängen der AS/400-Ära – und auch uralte Mainframes.

Man darf ja eines nicht vergessen: Vor der Jahrtausendwende waren herstellerspezifische, proprietäre Systeme noch populär. Das können auch Bandeinheiten sein oder Drucker, die Mehrfachnutzen liefern. Alte Netzwerkkomponenten haben ebenfalls dann ein zähes Leben, wenn ihr Austausch gegen aktuelle Produkte eine Neuverkabelung nach sich ziehen würde. Muss ich einem AS/400-Anwender mehr sagen als das Stichwort „Twinax“?

Braucht eine gute alte Anwendung noch einen bestimmten Matrix- oder Zeilendrucker, kann es gut sein, dass wir ihn hegen und pflegen. Denn ohne diesen Druckertyp, den es vielleicht schon lange nicht mehr zu kaufen gibt, würde die Anwendung nicht mehr funktionieren.

Wie wichtig ist denn in den Zeiten von Outsourcing und Cloud Computing für Mittelständler noch das eigene Rechenzentrum?
Fischer:
So wichtig wie eh und je, denn das ist und bleibt eine „Make or Buy“-Entscheidung. Mittelständler konnten schon immer Standardsoftware einkaufen und ihre Anwendungen durch Dienstleister wie Datev, IBM oder T-Systems betreiben lassen. Die Frage ist nur: Können die das besser und billiger – und gibt es die Anwen­dung überhaupt als Produkt zu kaufen.

Überall dort, wo es speziell oder kritisch wird, geht die Tendenz zum Selbermachen im eigenen RZ. Typische Beispiele sind die Produktion, die Logistik oder der Kundendienst. Standards wie Office, Lohn & Gehalt oder Fibu sind dagegen seit jeher Outsourcing-Kandidaten. Das hat jetzt nur durch Amazon, Google und Microsoft neuen Schwung bekommen.

Meiner Meinung nach wird sich im Mittelstand die Hybrid-Cloud durchsetzen, die Individualisierung und Standardisierung in der IT auf einen Nenner bringt. Dabei ist zu unter-scheiden zwischen der Anwendung selbst und ihrem Betrieb. Auch eine Individualanwendung kann ja durchaus outgesourced werden – und ein Standardpaket wird inhouse betrieben. Für beides kann es gute Gründe geben. Dass die IT im Mittelstand irgendwann komplett aus der Steckdose kommt, wage ich zu bezweifeln.

Wir entlasten den Mittelständer auch mit Mana-ged-Services, zum Beispiel bei der Serveradministration, bei der Störungsbehebung oder zur Urlaubs- oder Krankheitsvertretung. Dann wird die Technogroup sozusagen zum Backup. Das heißt auch: Der Kunde muss nicht für jedes exotische System mehrere Spezialisten einstellen. Und auch wenn die Stammbelegschaft durch Sonderaufgaben wie Upgrades oder Roll-outs gebunden wird, sind unsere Managed-Services oft eine echte Alternative zu externen Fachleuten, die übergangsweise aushelfen.

Herr Fischer, vielen Dank für das Interview!

Fotos: Martina Schwarzer

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok