IT-DIRECTOR https://www.it-zoom.de/it-director/news/ IT-DIRECTOR: Business-Magazin für IT-Manager und CIOs de ©2019 Alle Rechte bei MEDIENHAUS Verlag GmbH Wed, 19 Jun 2019 12:54:24 +0200 Wed, 19 Jun 2019 12:54:24 +0200 TYPO3 EXT:news news-23178 Wed, 19 Jun 2019 12:43:19 +0200 Pamela Maynard neuer Avanade-CEO http://www.it-zoom.de/it-director/e/pamela-maynard-neuer-avanade-ceo-23178/ Der IT-Dienstleister Avanade erhält eine neue Unternehmensführung: Pamela Maynard wurde zur Nachfolgerin des bisherigen CEOs Adam Warby ernannt. Dieser wird Ende August zurücktreten. Derzeit steht Pamela Maynard noch dem Bereich Produkt- und Innovationsmanagement von Avanade vor. In den letzten zwei Jahren hat sie weltweit die sogennante Offering- und Servicestrategie des Unternehmens geleitet. In dieser Funktion hat sie für die Lösungsangebote rund um Modernisierung von Arbeitsplätzen, Geschäftsapplikationen sowie Anwendungen und Infrastruktur verantwortlich gezeichnet, ebenso für die Themen Daten und Künstliche Intelligenz sowie Innovation. Außerdem hat sie die Entwicklung neuer Lösungsangebote forciert, ebenso die Beratungsdienste von Avanade. Vor ihrer jetzigen Position verantwortete sie das 13 Länder umfassende Europageschäft von Avanade. Zuvor war sie Geschäftsführerin des Joint Ventures von Accenture und Microsoft im Vereinigten Königreich.

Adam Warby kam 2000 als Gründungsmitglied des Teams zu Avanade. Er wurde im April 2008 als Nachfolger von Mitch Hill zum CEO ernannt. Seitdem hat er maßgeblich dazu beigetragen, den Anbieter in Richtung Digitalisierung, Cloud und schnelles Wachstum des Direktgeschäfts auszurichten. Unter seiner Führung hat sich der Umsatz von Avanade von etwas unter einer Milliarde US-Dollar im Geschäftsjahr 2008 auf etwas über 2,5 Milliarden US-Dollar im Geschäftsjahr 2018 (Ende 31. August 2018) fast verdreifacht. Das Unternehmen ist in dieser Zeit auf mehr als 36.000 Mitarbeiter angewachsen und umfasst – eigenen Angaben zufolge – gemeinsam mit Accenture die größte Gruppe von Microsoft-Professionals weltweit. Zudem tätigte Avanade unter seiner Führung erfolgreich sieben Akquisitionen, darunter die von KCS.net und der Infoman AG im deutschsprachigen Raum.

]]>
IT-Director Leute
news-23177 Wed, 19 Jun 2019 12:22:48 +0200 MS-Office-Produkte sicher konfigurieren – so geht’s! http://www.it-zoom.de/it-director/e/ms-office-produkte-sicher-konfigurieren-so-gehts-23177/ Die Urheber massenhafter Cyberangriffe nutzen meist weit verbreitete Software-Produkte, um mit einfachen Mitteln möglichst viele Computer-Systeme mit Schadsoftware zu infizieren. Aufgrund ihrer großen Verbreitung stehen die Software-Produkte der Microsoft-Office-Familie daher automatisch im Fokus von Cyberkriminellen, um Schwachstellen oder unsichere Konfigurationen von Standardfunktionen der Büro-Software möglichst breit ausnutzen zu können. Beliebte Angriffswege sind dabei die Makro-Funktion in Word-Dokumenten oder aktive HTML-Anzeigen in E-Mail-Programmen. Angriffe mit Ransomware oder mit Schadsoftware-Varianten wie Emotet haben über diese Angriffswege in den letzten Monaten auch in Deutschland zahlreiche Unternehmen getroffen und großen Schaden verursacht. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat daher Empfehlungen für eine sichere Konfiguration von Microsoft Word, Excel, Outlook und Co. entwickelt und nun veröffentlicht. Damit können Organisationen die Angriffsfläche reduzieren: Die Deaktivierung von HTML in E-Mails sowie der sichere Umgang mit Makros in Dokumenten und anderen Dateien sind dabei nur zwei von zahlreichen Empfehlungen.

„Wir bieten Unternehmen und Organisationen mit diesen Umsetzungsempfehlungen eine konkrete Hilfestellung, um das IT-Sicherheitsniveau ihrer Netzwerke schnell und effizient zu erhöhen. Diese IT-Sicherheitsmaßnahmen sollten idealerweise Teil einer strukturierten Vorgehensweise zur Absicherung der Unternehmensnetzwerke sein, wie sie etwa der IT-Grundschutz des BSI empfiehlt. Die Allianz für Cybersicherheit ist die richtige Anlaufstelle für Unternehmen und Organisationen jeder Größe, um sich über IT-Sicherheit zu informieren, sich mit Gleichgesinnten über Best-Practice-Beispiele auszutauschen und um von unserer Expertise zu profitieren“, so BSI-Präsident Arne Schönbohm.

Das BSI hat für den Einsatz auf dem Betriebssystem Microsoft Windows sieben Cybersicherheitsempfehlungen für eine sichere Konfiguration von Office 2013/2016/2019 erstellt. Diese behandeln zum einen übergreifende Richtlinien für Office, zum anderen Richtlinien für sechs häufig genutzte Office-Anwendungen:

Access 2013/2016/2019
Excel 2013/2016/2019
Outlook 2013/2016/2019
Power Point 2013/2016/2019
Visio 2013/2016/2019
Word 2013/2016/2019

Die Empfehlungen richten sich an mittelgroße bis große Organisationen, in denen die Endsysteme mit Gruppenrichtlinien in einer Active-Directory-Umgebung verwaltet werden. Die dahinterliegenden Sicherheitsprinzipien gelten gleichermaßen für kleine Organisationen und Privatanwender. Die dargestellten Empfehlungen können ohne die Beschaffung zusätzlicher Produkte durchgeführt werden und sind mit vergleichsweise wenig Aufwand durchführbar.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Sicherheit
news-23174 Wed, 19 Jun 2019 12:07:51 +0200 VMware übernimmt Avi Networks http://www.it-zoom.de/it-director/e/vmware-uebernimmt-avi-networks-23174/ VMware übernimmt Avi Networks, einen Anbieter von Multi-Cloud-Anwendungsdiensten, die in weltweiten Unternehmen eingesetzt werden. Die Akquisition soll es VMware ermöglichen, das Public-Cloud-Erlebnis für das gesamte Rechenzentrum (RZ) bereitzustellen – automatisiert, skalierbar und sicher. Auf der Grundlage einer gemeinsamen Architektur wollen beide Unternehmen in der Lage sein, den branchenweit einzigen, vollständig software-definierten Netzwerk-Stack von L2-7 bereitzustellen, der für die moderne Multi-Cloud-Ära entwickelt wurde.

„VMware hat sich zum Ziel gesetzt, das Rechenzentrum so einfach und unkompliziert, wie es in der Public Cloud möglich ist, zu betreiben. Die Integration von Avi Networks in das wachsende Netzwerk- und Sicherheitsportfolio wird uns diesem Ziel einen Schritt näherbringen“, ist sich Tom Gillis, Senior Vice President und General Manager, Networking and Security Business Unit bei VMware, sicher. „Diese Übernahme wird unsere Vision vom Virtual Cloud Network weiter voranbringen, bei der eine software-definierte verteilte Netzwerkarchitektur die gesamte Infrastruktur umspannt und alle Komponenten mit der Automatisierung und Programmierbarkeit der Public Cloud verbindet.“

„Im Gegensatz zu bestehenden ADC-Lösungen ist der verteilte ADC für die Bereitstellung von modernen Rechenzentren und Public Clouds konzipiert, mit einer Architektur, die den Prinzipien der Cloud entspricht“, betont Amit Pandey, Chief Executive Officer von Avi Networks. „Nach Abschluss der Übernahme können die Kunden von einem Set software-definierter L2-7-Anwendungsnetzwerk- und Sicherheitsdienste, On-Demand-Elastizität, Echtzeiteinblicken, vereinfachter Fehlersuche und Entwickler-Self-Service profitieren.“

Die Transaktion soll voraussichtlich im zweiten Quartal des VMware-Geschäftsjahres 2020, also im Sommer 2019, abgeschlossen sein, vorbehaltlich der üblichen Abschlussbedingungen wie der behördlichen Genehmigungen. Es werde nicht erwartet, dass diese Übernahme einen wesentlichen Einfluss auf das Betriebsergebnis des Geschäftsjahres 2020 haben wird.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Rechenzentrum / Server
news-23173 Wed, 19 Jun 2019 11:37:34 +0200 Warum Bafin die Regulierung der IT in KVGen verschärft http://www.it-zoom.de/it-director/e/warum-bafin-die-regulierung-der-it-in-kvgen-verschaerft-23173/ Die Bundesanstalt für Finanzdienstleistungsaufsicht (Bafin) legt erstmals Minimalstandards für die IT in Kapitalverwaltungsgesellschaften (KVG) fest. Das Rundschreiben trägt den Titel „Kapitalverwaltungsaufsichtliche Anforderungen an die IT (KAIT)“. Betroffen seien 137 KVGen in Deutschland, die als externe Verwalter tätig sind und somit rechtlich von der Fondsgesellschaft getrennt sind. Einen Schwerpunkt setzt die Bafin dabei auf das Thema „IT-Sicherheit“. Jede KVG-Geschäftsleitung muss eine Informationssicherheitsleitlinie aufstellen und beschließen. Auf Basis der Leitlinie müssen weitere Sicherheitsrichtlinien für bestimmte Unterbereiche aufgestellt werden wie etwa für Netzwerksicherheit, Kryptografie (Informationsverschlüsselung), Authentisierung und Protokollierung. Ziel ist die Vorbeugung von Informationssicherheitsvorfällen und die angemessene Reaktion bei Problemfällen.

Desweiteren muss jede KVG einen Informationssicherheitsbeauftragten ernennen, der die Verantwortlichen der IT-Sicherheit überwachen soll. Diese Person muss die KVG-Geschäftsführung in allen Fragen rund um das Thema „Datensicherheit“ beraten, sie muss die erwähnten Richtlinien überwachen und Interessenkonflikte managen. Interessenkonflikte können etwa entstehen, wenn die Themen „Kosten“ und „IT-Sicherheit“ in Konflikt miteinander stehen.

Alternativstrategien erarbeiten


Christian Rüdiger, Leiter Fund Solutions bei Baker Tilly, kommentiert: „Die IT hat in den KVGen mittlerweile eine zentrale Bedeutung gewonnen. Aufgrund der großen Datenmengen, der verschiedenen beteiligten Systeme und der Sensibilität der Daten ist eine Festlegung von Minimalstandards durch Bafin eine gute Hilfestellung. Insbesondere im Hinblick auf das sensible Thema ‚Risikomanagement‘.“

Die IT von KVGen wird teilweise bereits durch die KAMaRisk (Mindestanforderungen an das Risikomanagement von KVGen) reguliert. Die Vorgaben der KAMaRisk sollen durch die Vorgaben des Bafin-Rundschreibens unberührt bleiben, werden jedoch teilweise weiter konkretisiert.

Das Rundschreiben regelt zudem die Auslagerung von IT-Dienstleistungen, da diese immer mehr an Bedeutung gewinnt. So muss jede KVG vor einer Auslagerung eine Risikobewertung durchführen. Desweiteren müssen auch die Möglichkeit eines Ausfalls des IT-Dienstleisters berücksichtigt werden und eine Alternativstrategie erarbeitet werden.

Neben den genannten Themen „IT-Sicherheit“ und „IT-Auslagerung“ regelt das Rundschreiben noch eine Reihe weiterer Bereiche. Jede KVG muss Darstellungen zu folgenden Themen vorlegen: IT-Strategie, IT-Governance, Informationsrisikomanagement, Benutzerberechtigungsmanagement, IT-Betrieb sowie Datensicherung u.a.m.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Sicherheit
news-23171 Wed, 19 Jun 2019 11:04:48 +0200 Digital in Führung gehen http://www.it-zoom.de/it-director/e/digital-in-fuehrung-gehen-23171/ Führung auf Distanz gilt längst nicht mehr als bemerkenswerte Ausnahme. Diese Art der Führung wird noch durch die Pläne des Bundesarbeitsministeriums für ein neues Gesetz zur Erleichterung der Fernarbeit unterstützt Angesichts der zunehmenden Mobilität und globalen Vernetzung wollen fast 40 Prozent der Deutschen Arbeitnehmer nicht mehr an einen einzigen Arbeitsplatz gebunden sein. Remote arbeitende Teams sind die Antwort auf moderne Bedürfnisse wie Selbstbestimmtheit und Flexibilität. Unternehmen müssen sich diesen Wünschen anpassen, um im „War for Talents“ bestehen zu können. Im Hinblick auf diese und zukünftige Entwicklungen hat Digitalisierung längst Einzug in die moderne Arbeitswelt gehalten und die Zusammenarbeit in Organisationen grundlegend verändert. Teams befinden sich längst nicht mehr zwingend im selben Büro, Gebäude oder gar derselben Stadt und Zeitzone. Daraus ergeben sich völlig neue Herausforderungen, sowohl für die einzelnen Mitarbeiter, als auch für die Führungskräfte. Digital Leadership ist der Begriff, der für diese neu verstandene Führungsrolle genutzt wird. Doch was genau verbirgt sich dahinter und wie sieht digitale Führung in der Praxis aus?

Ein Digital Leader muss zum Wegbereiter werden

Vorbei sind die Zeiten als Führungskräfte rein durch fachliche Expertise oder definitorische Position im Unternehmen glänzen konnten. Einfach ausgedrückt: es reicht nicht mehr aus "zum Oberhaupt" ernannt zu werden oder "mehr zu wissen als jeder andere". Dieser traditionelle Führungsstil ist längst überholt, wenn nicht sogar verpönt. In Zeiten der Digitalisierung gehen mit dem Rollenbild einer idealen Führungskraft konkrete Erwartungen einher: Führungskraft als Coach, inspirierendes Vorbild und motivierender "Enabler". Ein Digital Leader wird zum Visionär, der zwar klare Ziele definiert, seinen Mitarbeitern aber trotzdem viel freien Handlungsspielraum lässt, um diese zu erreichen. So wird ein erfolgreicher Führungsstil heute daran gemessen, wie gut sich Teams unterstützt fühlen und ob jemand ein Vorbild für Zusammenarbeit, Innovation und Transparenz ist oder nicht.

Zutaten für erfolgreiche digitale Führung – Die drei großen Cs

In der Praxis wird schnell deutlich, dass Digital Leadership nicht rein auf technischer Expertise basiert. Vielmehr geht es um Offenheit, Partizipation, Vertrauen; um das Überwinden von örtlichen und zeitlichen Distanzen, der Förderung von Vernetzung sowie den  Umgang mit Komplexität. Wie sehen also konkrete Ansätze zur erfolgreichen Umsetzung aus?

Communication

Remote arbeiten bedeutet, dass Zusammenarbeit nicht mehr auf physischer Anwesenheit basiert und damit völlig neu gedacht werden muss. Es gilt digitale Treffpunkte zu definieren, an denen Teams jenseits aller physischen und zeitlichen Begrenzungen kollaborieren. Persönliche Kommunikation wird zweifelsohne im Geschäftsleben immer ein essentieller Bestandteil sein. Doch es gilt ein Bewusstsein für die Bedeutung von Kommunikation über Unternehmens-, Team- und örtliche Grenzen zu schaffen. Tools zur digitalen Kommunikation sollen den persönlichen Austausch keineswegs ersetzen, sondern vielmehr die Möglichkeiten dazu erweitern. Im Arbeitsalltag unterstützen Collaboration Hubs wie z.B.  das von Slack angebotene Tool, dabei, die face-to-face Kommunikation so gut es geht aufrecht zu erhalten – wenn auch digital, indem man Video- oder Audio-Call Funktionen nutzt, um die solche Collaboration Plattformen jederzeit erweitert werden können. Damit wird erhebliche Zeit gespart, um Meetings auch ad-hoc mit den betreffenden Personen zu organisieren. Erfolgreiche Zusammenarbeit bedeutet auch, dass jeder einzelne mal zur Ruhe kommt, für sich arbeiten kann und nicht abgelenkt wird. Was also bei Telefon und E-Mail geht, gilt auch für Collaboration Hubs. Über Tastaturkürzel oder eine manuelle Einstellung können Nachrichten pausiert werden – sei es ad hoc für eine bestimmte Zeit oder regelmäßig zum Feierabend oder Urlaub.   

Collaboration

Effiziente Zusammenarbeit basiert auf einem regen Wissens- und Informationsaustausch. Erfolgskritisches Fachwissen ist eine der elementarsten Ressourcen, die ein Unternehmen haben kann. Der einfache und schnelle Zugriff auf Informationen ist jedoch nicht nur Wettbewerbsvorteil, sondern verhindert, dass das Rad ständig neu erfunden werden muss und lässt damit Raum für wichtige Innovationsprozesse. Sogenannte Channels, die für ein Collaboration Hub ausschlaggebend sind, bündeln also die Kommunikation zu einem bestimmten Thema. Dadurch bieten sie die Möglichkeit Wissen zu teilen: Alles, was in einem Channel besprochen wird und Ideen und Erkenntnisse, die dort geteilt werden, stehen allen Teammitgliedern zur Verfügung. Jeder Mitarbeiter, der involviert ist, kann jederzeit und von überall aus daran teilnehmen. Projekte und neue Ideen können diskutiert und Innovation vorangetrieben werden. So können auch Teammitglieder im Laufe eines Projekts jederzeit aus einem Channel hinzugefügt oder entfernt werden.

Essentiell ist auch die Funktion, dass „externe“ Bürohelfer wie Google Drive, Trello oder Dropbox sowie Anwendungen wie Salesforce, Hubspot oder Github für IT, Sales und Marketing integriert werden können. So befindet sich alles an einem Ort, um nicht unnötig zwischen mehreren Systemen hin und her wechseln zu müssen.

Das Ergebnis: Teams entwickeln eine gewisse Eigendynamik, die sie befähigt, auf Basis des vorhandenen Wissens erfolgreich zu agieren. So entstehen neue, innovative Ideen, die mithilfe dieser digitalen Tools Transparenz sowie eine Zugänglichkeit für jeden ermöglicht. Für die Führungskraft bedeutet das vor allem eins: produktive Mitarbeiter, die als Team erfolgreich sind. Digital Leadership basiert also auf gelungener Collaboration, die nur dann funktionieren kann, wenn moderne Technologie als Basis das auch zulässt.  

Culture

Digital Leadership umfasst mehr als den Einsatz innovativer Technologien. Denn ganz gleich ob digital oder analog, erfolgreiche Zusammenarbeit basiert auf einer entsprechenden Kultur, in der Collaboration als fester Erfolgsbestandteil verankert ist. Weg von einem „top down”-Ansatz, hin zu einem kulturellen Wandel, der von allen unterstützt und vorangebracht wird. Der „Team first”-Gedanke spielt hier eine elementare Rolle, denn gemeinsam als Team erreicht man so viel mehr, als es der Einzelne jemals könnte. Um eine autonome Unternehmenskultur zu entwickeln, welche das Team in den Fokus stellt, muss jeder einfachen und transparenten Zugriff auf so viel Wissen wie nur möglich haben. Ein Collaboration Hub kann dabei als optimaler Wissensspeicher fungieren. Hier werden sämtliche Nachrichten, Unterhaltungen und auch Dokumente gespeichert und können später ganz leicht anhand von Schlagworten gefunden und damit nutzbar gemacht werden. Jede Art von Information - sei es ein neuer Business Report, ein Update vom CEO oder die Vorstellung neuer Kollegen - kann von jedem Teammitglied gefunden werden - sogar nach einem Urlaub oder nachdem man im Unternehmen neu angefangen hat. Dieser digitale Wissensspeicher ist entscheidend, da das Arbeiten vom Schreibtisch und einem bestimmten Ort aus nicht mehr selbstverständlich ist. Angesichts der Tatsache, dass beispielsweise in Deutschland das Bundesministerium das Home-Office - eine Form von flexiblem Arbeiten, die für Arbeitnehmer immer attraktiver wird - per Gesetz regeln will, wird deutlich, dass Organisationen viel agiler werden müssen. Dieses Gesetz spricht ihnen das Recht zu, von zu Hause aus zu arbeiten, ohne dass ihr Arbeitgeber dem zustimmen muss. Ein Collaboration Hub ist ein perfektes Mittel für Organisationen, um sich also nicht nur rechtlich an die Veränderungen anzupassen. Es geht vor allem auch um die Neuerungen, die die Kultur eines Unternehmens betreffen, um eine einfache und schnelle Zusammenarbeit zu fördern.

Digitalisierung bedeutet nicht, dass persönliche Treffen und face-to-face Kommunikation obsolet werden. Aber es bedeutet eindeutig, dass Führungskräfte die Macht innovativer Collaboration Hubs nutzen müssen, um ihre Teams in Zeiten des digitalen Wandels zu managen. Sein Führungsstil muss sich dahingehend ändern, Projekte und Aufgaben aus der Vogelperspektive zu betrachten. Mit dem richtigen Communication-Mix, der Nutzung eines digitalen Collaboration Hubs sowie einer gefestigten Culture werden Mitarbeiter befähigt, auch alleine und als Team erfolgreich zu sein.

(Bildquelle: Gettyimages/iStock)

]]>
IT-Director Startseite it-zoom Unified Communication + Collaboration
news-23162 Tue, 18 Jun 2019 13:49:33 +0200 Recht auf Homeoffice? http://www.it-zoom.de/it-director/e/recht-auf-homeoffice-23162/ Laut einer Studie des Elektronikdienstleisters Barco arbeiten in Europa 46 Prozent der Beschäftigten zumindest teilweise im Homeoffice. In Deutschland ist dieses ­Arbeitsmodell jedoch derzeit nur wenig verbreitet, wie ein Vergleich mit den Nachbarländern zeigt. Könnte das vorgeschlagene „Recht auf Homeoffice“ auch hierzulande eine Wende bringen? Homeoffice hat viele Namen: Ob Teleheimarbeit, „Flexible Work Arrangements“ oder E-Work – alle beschreiben das vollständige oder partielle Umverlagern des Arbeitsorts in die eigenen vier Wände. Dazu diskutiert zurzeit das Bundesministerium für Arbeit und Soziales (BAMS) über ein geplantes gesetzlich verankertes Recht auf Homeoffice.

Dies ist ein Artikel aus unserer Print-Ausgabe 5/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Als Förderer des Gesetzesentwurfs möchte Björn Böhning, Staatssekretär im Bundesarbeitsministerium, von den Vorzügen der Digitalisierung profitieren. Dabei ist Homeoffice keine Neuerfindung des Rads, sondern bereits länger eine Möglichkeit, Privat- und Arbeitsleben effizient zu kombinieren. Schon in den 1980er-Jahren unterstützte das amerikanische IT-Unternehmen IBM flexible Arbeitsmodelle seiner Beschäftigten und löste sich somit von der damals üblichen Präsenzpflicht. Wenn auch noch vergleichsweise unüblich, treffen solche Lösungen auch in Deutschland vermehrt auf den Zuspruch der Arbeitnehmer. Demnach wünschen sich laut einer Studie des Deutschen Instituts für Wirtschaftsforschung 40 Prozent der Beschäftigten zumindest teilweise die Möglichkeit, auch von zu Hause aus arbeiten zu können. Allerdings können bislang lediglich zwölf Prozent dies in Anspruch nehmen, so die Studie.

Noch scheitern viele Anträge an den zum Teil berechtigten Bedenken der Unternehmensführung. Denn durch Homeoffice verändert sich auch die Unternehmenskultur wesentlich. Die weitgehende Autonomie der Mitarbeiter beeinflusst bestehende Hierarchien und Kontrollmechanismen und wirkt sich zudem u. a. auf die unternehmensinterne Kommunikation aus. Unter dem bestehenden Fachkräftemangel gilt es, für Führungskräfte, aber auch für Beschäftigte Anreize zu schaffen – vor allem in stark umworbenen Branchen.

Grundsätzlich ändern könnte dies jedenfalls der geplante Gesetzesentwurf, sollte dieser flächendeckend geltend gemacht werden. Denn anders als in den Niederlanden, wo seit 2015 ein gesetzlich verankerter Rechtsanspruch besteht, liegt die Entscheidung in Deutschland noch beim Arbeitgeber – eine Begründungspflicht für ein Ablehnen gibt es hierzulande noch nicht.

Sicher ist, dass für das tatsächliche Umsetzen des Entwurfs beide Koalitionspartner einen Konsens finden müssen – und da besteht noch Nachholbedarf. So steht Peter Weiß, Mitglied im Ausschuss für Arbeit und Soziales für die CDU, einer Homeoffice-Pflicht skeptisch gegenüber und äußerte Bedenken gegenüber einem drohenden Papiermonster. Auch Steffen Kempter, Hauptgeschäftsführer des Deutschen Arbeitgeberverbands, sprach sich gegenüber der Frankfurter Allgemeinen Zeitung für eine betriebliche Lösung aus.

Rein rechtlich wird sich der Entwurf daher aller Wahrscheinlichkeit nach stark an bestehenden Gesetzen orientieren. Als Anhaltspunkt gilt hier das bereits existierende Teilzeitrecht, welches nur innerhalb festgeschriebener Fristen und nach bestimmter Beschäftigungsdauer in Anspruch genommen werden kann. Im Gegenzug müssen seitens der Unternehmensführung Ansprüche gewährleistet werden, solange diese sich mit dem Betriebsablauf in Einklang befinden.

Ob das Homeoffice-Gesetz schlussendlich leere Bürostühle bedeuten würde, bleibt zu bezweifeln. Zwar deuten die Ergebnisse der aktuellen Studie darauf hin, dass Homeoffice in Zukunft ein nicht mehr wegzudenkender Teil des modernen Arbeitsplatzes sein wird, dennoch gaben 71 Prozent der Teilnehmer an, ein nach wie vor starkes Interesse an einem festen Arbeitsplatz zu haben. Überraschenderweise zeigte die Studie, dass die digitalaffine „Generation Y“ mit 74 Prozent sogar über dem Durchschnitt lag. Es wäre also zu früh vom Ende des Büros zu sprechen – mit oder ohne Recht auf Homeoffice.

Die technischen Möglichkeiten bestehen jedenfalls schon heute. Durch Echtzeitübertragungstechnologien können bereits zurzeit die eigenen vier Wände zum virtuellen Büro umfunktioniert werden. Clickshare-Systeme und intuitive Bedienungen nach dem Zero-Learning-Prinzip erleichtern heutzutage bereits simultanes Arbeiten an Dokumenten und distanzunabhängige Kommunikation und schaffen somit auch die technischen Lösungen, denen nun auch politische folgen sollen. 

Bildquelle: Getty Images/iStock

]]>
IT-Director Startseite it-zoom Unified Communication + Collaboration
news-23159 Tue, 18 Jun 2019 08:21:00 +0200 Im Zweifel für den Algorithmus http://www.it-zoom.de/it-director/e/im-zweifel-fuer-den-algorithmus-23159/ Predictive Policing, datenbasierte Diskriminierung und Künstliche Intelligenz im Dienste des Fiskus – wenn Behörden Big Data für sich entdecken, profitiert nicht unbedingt der Bürger davon. Ämter und Behörden haben bekanntlich nicht das beste Image, wenn es um die Digitalisierung geht. Den Einrichtungen wird gerne vorgeworfen, zu zögerlich und konfus zu agieren, wenn es um die Umsetzung von digitalen Projekten geht. Aktuell ist etwa immer wieder das behäbige Tempo bei der Realisierung von E-Government-Prozessen ein weit verbreiteter Kritikpunkt. Doch auch in anderen Sparten zeigen sich regelmäßig Defizite. So soll etwa der Effekt der im Koalitionsvertrag festgelegten Blockchain-Ambitionen im Behördenalltag kaum zu spüren sein. Eine Umfrage der Management- und Technologieberatung Bearingpoint ergab demnach, dass satte 62 Prozent der Befragten aus der öffentlichen Verwaltung bisher nicht mal von dem Begriff gehört haben.

Der Glaube an die digitalen Kompetenzen der Behörden ist hierzulande erwartungsgemäß niedrig. Laut einer Studie der Körber-Stiftung trauen die Deutschen der Wirtschaft beim Umgang mit den Folgen der Digitalisierung weitaus mehr zu. Doch das Bild von der unbeholfenen und rückständigen Verwaltung kann bisweilen trügen, nicht alle Einrichtungen hinken dem aktuellen Stand der Technik hinterher. Vor allem bei der Analyse von großen Datenmengen rüsten immer Stellen auf. Warum das für die Bürger bisweilen problematisch werden kann, zeigt ein Blick in die Praxis.

Rasterfahndung 2.0

Das vermutlich kontroverseste Beispiel für den Einsatz von Big-Data-Technologie in einer Behörde findet sich mitten in Deutschland. Dort arbeitet die hessische Polizei seit dem vergangenen Jahr mit einer angepassten Version der Analyse-Software Gotham. Das Programm zapft sowohl interne als auch externe Quellen für die Ermittler an und bereitet die Daten schließlich visuell auf. Dieser Vorgang soll dabei helfen, terroristische Gefährder frühzeitig zu erkennen. Doch schon jetzt will die Regierung den Einsatz der Software ausweiten und auch abseits terroristischer Verdachtsfälle nutzen.

Kritiker befürchten, dass die Software der US-amerikanischen Firma Palantir auf lange Sicht nicht nur für die vorgesehenen Ermittlungstaktiken genutzt wird, sondern mehr und mehr in einen Bereich vordringen könnte, der „Predictive Policing” genannt wird. Dabei können Bürger schon alleine auf Basis von gewissen Daten und den daraus resultierenden Vorhersagen in den Verdacht geraten, ein spezielles Verbrechen zu begehen. Palantir soll diese Technologie bereits in New Orleans erprobt haben, wie das Onlinemagazin The Verge im vergangenen Jahr publik machte. Ein Anwendungsfall, der auch insofern problematisch ist, als dass die dafür notwendigen Algorithmen entgegen der allgemeinen Annahme nicht besonders objektiv und neutral sind, sondern bestehende Ressentiments sogar reproduzieren und verstärken können. 

Von den verantwortlichen Stellen heißt es dagegen, dass der Erfolg dem Einsatz recht gebe. Palantir-CEO Alexander Karp behauptete im Gespräch mit Springer-Vorstand Matthias Döpfner, dass in Europa jede Woche ein Attentat auf Basis seiner Software vereitelt werde. Nähere Informationen zu den Fällen bekommt man freilich kaum – alles unter Verschluss, wie so vieles im Dunstkreis dieser Firma. Aus Hessen ist lediglich bekannt, dass man über die Software einen 17-jährigen Iraker festsetzen konnte, der bereits in den Vorbereitungen für einen Anschlag gesteckt habe.

Wie viele Menschen schon zu Unrecht per Algorithmus mit vermeintlichen oder potentiellen Verbrechen in Verbindung gebracht wurden und was mit diesen Relationen letztendlich geschieht, wird natürlich nicht weiter ausgeführt. Sicher ist nur, dass die Verarbeitung solcher Informationen auch aus datenschutzrechtlichen Gründen sehr problematisch sein könnte – nicht zuletzt auch, weil Palantir für seine konspirativen Verbindungen zu CIA, FBI und dem US-Militär bekannt ist. „Der Beweis, dass deutsche Personendaten oder Daten deutscher Sicherheitsbehörden mittels ausländischer Software nicht ins Ausland gelangen, kann nicht erbracht werden”, antwortete die Regierung im vergangenen Jahr auf eine Anfrage der FDP zum Thema. Es könnten lediglich „Best Practices“ (z.B. in Form von Sicherheitskonzepten und BSI-Empfehlungen) umgesetzt werden, um einen solchen Datenabfluss zu erschweren und äußerst unwahrscheinlich zu machen.

Fragwürdige Prognosen

Während in Hessen das terroristische Gefahrenpotential der Bürger von einem Algorithmus veranschaulicht wird, berechnet in Wien seit dem vergangenen Jahr ein Programm die Chancen auf einen neuen Job für Arbeitssuchende. Die Software des österreichischen Arbeitsmarktservices (AMS) unterscheidet dabei grundsätzlich zwischen drei verschiedenen Gruppen: N, M und H. Für Personen aus der Gruppe N sind laut Algorithmus nur geringe Chancen vorhanden, wieder in ein stabiles Arbeitsverhältnis zu finden. Bei Arbeitssuchenden aus der Gruppe H wird dagegen angenommen, dass eine zügige Rückkehr in den Job erfolgen könnte. M wird dagegen auf Personen angewendet, die zwischen diesen beiden Segmenten liegen. Diese Kategorisierung soll den Mitarbeitern des AMS dabei helfen, passende Fördermaßnahmen für die Arbeitssuchenden zu bewilligen. Das könnte konkret aber auch heißen, dass einer Person der Gruppe N gewisse Fördermaßnahmen pauschal verwehrt werden, weil sie sich aufgrund der vom Algorithmus errechneten Chancen am Arbeitsmarkt nicht rechnen würden.

Wie im Feld des „Predictive Policing” kann bei der Berechnung der Chancen am Arbeitsmarkt bereits der dem Algorithmus zugrunde liegende Datensatz problematisch sein. Im Fall der AMS-Software soll es sich dabei um historische Daten der Behörde handeln, auf dessen Basis ermittelt wird, welche Faktoren sich positiv oder negativ auf die Integrationschancen auswirken. Ein Dokument der verantwortlichen Synthesis Forschung GmbH zeigt, wie selbstverständlich dort Vorurteile in die Formel des Algorithmus aufgenommen und schließlich in den Ergebnissen reproduziert wurden.

So ist bereits das Geschlecht einer arbeitssuchenden Person ein Faktor dafür, ob jemand mit einem Vorteil bei der Bewertung der Software gesegnet wird – oder eben nicht, sofern man eine Frau ist. Das mag zwar einen realen Umstand der aktuellen Arbeitsmarktentwicklung abbilden, wird durch die Verewigung in einem staatlichen Algorithmus aber dauerhaft Institutionalisiert und somit zur selbsterfüllenden Prophezeiung. Weitere Negativfaktoren in der Formel der AMS-Software sind Aspekte wie fortgeschrittenes Alter, körperliche Beeinträchtigungen oder die Herkunft. AMS-Chef Johannes Kopf weist im Interview mit dem österreichischen Technologie-Portal Futurezone darauf hin, dass das System nicht diskriminiere, sondern lediglich Auskunft über die Arbeitsmarktchancen gebe. „Richtig ist, dass Diskriminierung zwar am Markt vorkommt, aber mit unseren Förderungen haben wir ja gerade die Aufgabe dieser Diskriminierung entgegen zu wirken”, so sein Befund.

Neue Kontrollmechanismen

Es kommt nicht von ungefähr, dass ausgerechnet die Verwaltung ein zunehmendes Interesse an der Auswertung von großen Datenmengen entwickelt, sind diese Informationen dort doch schon von Natur aus in großen Mengen vorhanden. Die fortschreitende Strukturierung und Analyse dieser Daten kann im Zweifel aber nicht nur die Arbeit der Behörden vereinfachen, sondern auch autoritäre Kontrollmechanismen etablieren. So hat etwa der Ausbau des elektronischen Datenabrufes in der Steuerverwaltung nicht nur dazu geführt, dass gewisse Dinge für den Steuerzahler plötzlich sehr bequem geworden sind, sondern ganz klar auch das staatliche Interesse an den persönlichen Daten der Bürger bedient. Wo früher eine gewisse Vertrauensbasis herrschte, werden inzwischen einfach Informationen abgeglichen werden.

Dass die automatisierte Auswertung von großen Datenemengen auch der nächste Schritt im Kampf gegen die Steuerkriminalität sein wird, erläuterte Hessens Finanzminister Dr. Thomas Schäfer im vergangenen September bei einer Diskussion des Landtags. Als Reaktion auf die immer komplexer werdenden Dimensionen beim Steuerbetrug werde man am Finanzamt Kassel II-Hofgeismar eine Forschungsstelle zur Anwendung Künstlicher Intelligenz einrichten, so der CDU-Politiker. „Ein Forschungsvorhaben mehrerer Wissenschaftler und unserer IT-Spezialisten soll dort der Frage nachgehen, wie wir Künstliche Intelligenz einsetzen können, um große Datenmengen auszuwerten. Neben der Auswertung der Panama Papers wird in Kassel künftig auch ein Spezialisten-Team für die Auswertung großer Datenmengen angesiedelt“, sagte Schäfer. Dafür wolle man die Stellen der IT-Forensik und der Netzadministration verdoppeln und über zwei Millionen Euro in neue Hard- und Software investieren.

In Anbetracht des schieren Datenvolumens, das bei einem Fall wie den Panama Papers anfällt, sind die Pläne des Finanzministers durchaus nachvollziehbar. Weitere Bundesländer dürften früher oder später nachziehen und im Kampf gegen die Steuerkriminalität ebenfalls aufrüsten – das ist schließlich auch ihr Job. Die Vergangenheit zeigt jedoch, dass es in der Regel kein Zurück mehr gibt, wenn solche Infrastrukturen erst einmal etabliert wurden. Werden die Anwendungsgebiete dieser immer mächtiger werdenden Mittel plötzlich über den eigentlichen Zweck hinaus ausgeweitet, können die eigenen Daten ganz schnell auch ohne konkreten Verdachtsfall in die Mühlen der datenhungrigen Behörden geraten. Wie schnell das gehen kann, zeigen etwa die Bestrebungen der schwarz-grünen Regierung in Hessen, ihre umstrittene Fahndungssoftware auch abseits von staatsgefährdenden Taten einzusetzen. Von der Polizeigewerkschaft GdP hört man überdies, dass auch ein Einsatz der Software bei der Bekämpfung von Rauschgiftkriminalität und Einbruchsdelikten sinnvoll wäre. Man ahnt, dass dieser Enthusiasmus bei der Ausweitung der Anwendungsgebiete keine Ausnahme ist – Privatsphäre hin oder her. Bürgern bleibt lediglich die Hoffnung, dass die DSGVO den meisten dieser Ambitionen einen früher oder später einen Riegel vorschieben wird.

Bildquelle: Getty Images/iStock

]]>
Philip Fassing IT-Director Startseite it-zoom Business Intelligence / Big Data
news-23160 Mon, 17 Jun 2019 16:52:39 +0200 Petaflops, wohin man sieht http://www.it-zoom.de/it-director/e/petaflops-wohin-man-sieht-23160/ Ein neuer Meilenstein in der Geschichte der Supercomputer: Erstmals liegt keines der 500 schnellsten Modelle unterhalb des Petaflops-Bereichs. Ein Petaflops entspricht einer Billiarde Rechenoperationen pro Sekunde - eine Schnelligkeit, die noch vor einigen Jahren nur wenigen Anlagen vorbehalten war. Angeführt wird die Bestenliste, die zweimal im Jahr zur International Supercomputing Conference (ISC) veröffentlicht wird, von zwei in den USA betriebenen Anlagen, Platz drei und vier belegt China. Auch Deutschland hat es unter die Top Ten geschafft. Die Anlage SuperMUC-NG am Leibniz Rechenzentrum bei München schaffte es mit einer Leistung von 19,5 Petaflops auf Platz neun.

Die ersten beiden Plätze belegen von IBM gebaute Supercomputer. „Summit“ ist mit einer Rekordleistung von 148,6 Petaflops der schnellste Rechner der Welt und steht am Oak Ridge National Laboratory in Tennessee. Platz zwei nimmt die Anlage „Sierra“ am Lawrence Livermore National Laboratory in Kalifornien ein, die auf eine Spitzenleistung von 94,6 Petaflops kommt. Dicht auf den Fersen folgt China mit seinem schnellsten System „Sunway TaihuLight“, das mit 93 Petaflops am nationalen Supercomputer-Zentrum in Wuxi installiert ist. Auch den vierten Platz belegt China mit „Tianhe-2A“, genannt „Milky Way“, aus Guangzhou mit 61,4 Petaflops.

Neu in die Top Ten rückte „Frontera“, ein amerikanischer Supercomputer mit einer Spitzenleistung von 23,5 Petaflops des Herstellers Dell, das an der Uni in Texas eingesetzt wird. Die USA kommen insgesamt auf fünf Anlagen in den Top Ten, die vor einem Jahr noch China angeführt hatte. Neben den USA und China sind noch die Schweiz („Piz Daint“ mit 21,2 Petaflops auf Platz sechs), Japan („AI Bridging Cloud Infrastructure“ mit 19,8 Petaflops auf Platz acht) sowie Deutschland vertreten.

Mit einem Supercomputer des Herstellers Lenovo hat es Deutschland auf Platz neun geschafft. „SuperMUC-NG“ arbeitet im Leibniz-Rechenzentrum in Garching bei München und kommt auf eine Leistung von 19,5 Petaflops. Die Anlage, die noch vor einem halben Jahr auf dem achten Platz rangierte - das „NG“ steht für „Next Generation“ - steht Forschern aus ganz Europa zur Verfügung, die etwa in Bereichen der Astro- und Festkörper-Physik, in der Medizin oder der Katastrophen- und Umweltforschung arbeiten. Auf dem letzten Platz in der Rangliste kam ein Lenovo-Rechner der chinesischen Internet Company N D2 auf 1,022 Petaflops.

Die „Top 500“-Liste wird seit 26 Jahren halbjährlich zur Supercomputer Conference veröffentlicht, die diesmal in Frankfurt am Main stattfindet. Sie gilt noch immer als wichtige Messlatte in der Branche, manche Kritiker halten die Art der Messung jedoch nicht mehr für zeitgemäß. Der sogenannte Linpack-Benchmark ermittelt zwar die Schnelligkeit, aber nicht die Rechen-Effizienz einer Anlage. Bei komplizierten Berechnungen wie Simulationen in der Klimaforschung oder dem maschinellen Lernen geht es aber nicht mehr allein um eine schnelle Berechnung, sondern um eine für die verschiedenen Arbeitsschritte optimierte Nutzung der Rechenleistung.

dpa/pf

]]>
IT-Director Startseite it-zoom Rechenzentrum / Server
news-23156 Mon, 17 Jun 2019 16:05:09 +0200 Jetzt wird´s ernst http://www.it-zoom.de/it-director/e/jetzt-wirds-ernst-23156/ Am 30. Juni läuft die Frist für die Umsetzung der ersten Verordnung der Änderung der BSI-Kritis-Verordnung ab. Was so juristisch daherkommt, hat für betroffene Unternehmen weitreichende Folgen, schlimmstenfalls drohen hohe Bußgelder. Doch wie lassen sich Strafzahlungen vermeiden? Für Finanz- und Versicherungsinstitute, Gesundheit, Transport und Verkehr wird es ab dem 30. Juni 2019 ernst. Denn dann läuft die zweijährige Frist zur Umsetzung der jüngsten Änderungsverordnung des IT-Sicherheitsgesetzes ab. Die betroffenen Unternehmen müssen nachweisen, dass ihre kritische IT-Infrastruktur alle Änderungsvorschriften des Bundesamtes für Sicherheit in der Informationstechnik (BSI) erfüllt. Eva-Maria Scheiter, Managing Consultant GRC beim Sicherheitsspezialisten NTT Security, sieht Banken und Versicherer in einer guten Position, denn sie gehören bereits zu den stark regulierten Branchen. Sie rät den betroffenen Organisationen, ihre bereits etablierten Vorgaben und Prozesse mithilfe der Orientierungshilfe zu Nachweisen gemäß § 8a (3) des BSI G zu überprüfen und im Zweifel auf kompetente Beratung zu setzen.

Scheiter empfiehlt außerdem, die Prozesse zur obligatorischen Meldung von IT-Sicherheitsvorfällen zu definieren, zu etablieren und wie bei einer Feuerübung mit den Mitarbeitern zu trainieren. Denn steht das Haus erst in Flammen, ist zum Etablieren von effizienten Meldewegen keine Zeit mehr. Etwas knifflig verwalten, lassen sich laut Maria Scheiter die Abhängigkeiten zwischen den einzelnen kritischen Infrastrukturkomponenten, von denen jede einzelne den GRC-Vorschriften des BSI entsprechen müsse. Wird eine Infrastrukturkomponente kompromittiert, hat der Vorfall unter Umständen Auswirkungen auf andere Komponenten und kann Fehlfunktionen verursachen.

Auf dem Stand der Technik

Unternehmen und Organisationen können den Nachweis, dass ihre kritische IT-Infrastruktur (Systeme, Komponenten und Prozesse) auf dem „Stand der Technik“ ist und, dass sie Risiken gemäß anerkannter Standards wie ISO 27001 verwalten beispielsweise über entsprechende Zertifikate führen. Diesen Nachweis müssen die Unternehmen alle zwei Jahre erneut erbringen.

Desweiteren schreibt das BSI-Gesetz gemäß § 8b (3) den Betreibern kritischer Infrastrukturen vor, eine Kontaktstelle zu benennen, die jederzeit – 24 Stunden am Tag, sieben Tage die Woche – erreichbar ist. Als Kontaktstelle ist zum Beispiel ein Funktionspostfach, nicht die persönliche Mail-Adresse eines einzelnen Mitarbeiters, geeignet, an die das BSI auch seine Sicherheitsinformationen schickt. Betreiber sind außerdem verpflichtet, dem BSI jede IT-Störung zu melden. Darunter fallen Störungen der Verfügbarkeit, Integrität, Authentizität und Vertraulichkeit ihrer informationstechnischen Systeme, Komponenten oder Prozesse, die zu einem Ausfall oder einer erheblichen Beeinträchtigung geführt haben oder führen könnten.

Das IT-Sicherheitsgesetz hat zum Ziel, die IT-Systeme und digitalen Infrastrukturen Deutschlands zu den sichersten weltweit zu machen. Im Fokus stehen Infrastrukturdienstleister, deren Ausfall oder Beeinträchtigung dramatische Folgen für Wirtschaft, Staat und Gesellschaft hätten. Darunter fallen Strom- und Wasserversorgung, Telekommunikation, Informationstechnik, Ernährung und Verkehr. Das seit Juli 2015 gültige IT-Sicherheitsgesetz ist ein sogenanntes Artikelgesetz. Es wird durch Änderungsverordnungen für die einzelnen Branchen ergänzt und präzisiert.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom Sicherheit
news-23158 Mon, 17 Jun 2019 14:39:00 +0200 HP eröffnet neues 3D-Zentrum http://www.it-zoom.de/it-director/e/hp-eroeffnet-neues-3d-zentrum-23158/ Vergangene Woche hat HP Inc. ein „3D Printing and Digital Manufacturing Center of Excellence“ in Barcelona eröffnet. Dabei soll es sich um die weltweit größte Forschungs- und Entwicklungseinrichtung für Technologien handeln, die die vierte industrielle Revolution vorantreiben sollen. Auf über 150.000 Quadratmetern – was in etwa der Größe von drei Fußballfeldern entspricht – arbeiten hunderte internationaler Experten aus der Additiven Fertigung zusammen, um die Art und Weise, wie Unternehmen entwerfen und produzieren, zu verändern. Dabei widmet sich die mehr als drei Hektar große Anlage auf dem HP Campus in Barcelona der Entwicklung des industriellen 3D-Druckportfolios. Darüber hinaus bietet sie eine groß angelegte Fabrikumgebung, in der Kunden und Partner an digitalen Fertigungstechnologien arbeiten können.

Das neue Center vereint Experten mit den Schwerpunkten Systemtechnik, Datenintelligenz, Software, Materialwissenschaft, Design und Anwendungen. Die Einrichtung wurde speziell für die aktive Zusammenarbeit zwischen den Maschinenbau-, Forschungs- und Entwicklungsabteilungen sowie Kunden und Partnern ausgelegt. Es integriert laut Anbieter eine flexible und interaktive Ausstattung, gemeinsame Entwicklungsumgebungen sowie die neuesten 3D-Produktionssysteme für Kunststoffe und Metalle, um Kunden eine schnellere und flexiblere Produktentwicklung und End-to-End-Lösungen zu bieten. Unternehmen wie BASF, GKN Metallurgie, Siemens und Volkswagen aus den Bereichen Automobil, Industrie, Gesundheitswesen und Konsumgüter werden vor Ort gemeinsam mit HP an Innovationen für den 3D-Druck und die digitale Fertigung arbeiten, heißt es in einer Pressemeldung.

Die neue Einrichtung soll nicht zuletzt das Engagement von HP für die Umwelt widerspiegeln: Neben einem Photovoltaikdach mit 110kW Leistung wird das Regenwasser für Bewässerungs- und Sanitärzwecke wiederverwendet. Darüber hinaus werden die Heizungs-, Lüftungs- und Klimatechnik sowie die Nutzung des Tageslichts optimiert und hauptsächlich umweltfreundliche Baumaterialien verwendet – mit dem Ziel einer LEED-Zertifizierung (Leadership in Energy and Environmental Design). Der Hersteller plant, langfristig zu 100 Prozent erneuerbare Energien in seinen globalen Aktivitäten zu nutzen. Bis zum Jahr 2025 sollen davon bereits 65 Prozent erreicht werden.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Industrie 4.0 / MES
news-23146 Mon, 17 Jun 2019 09:11:46 +0200 Basis für die Digitale Transformation http://www.it-zoom.de/it-director/e/basis-fuer-die-digitale-transformation-23146/ Im Interview erläutert Ralf Siefen, Geschäftsführender Gesellschafter der DC-Datacenter-Group GmbH in Wallmenroth, was für Rechenzentrumsstandorte in Deutschland spricht und wie sich mithilfe flexibler RZ-Dienstleistungen die Digitalisierung vorantreiben lässt. IT-DIRECTOR: Herr Siefen, wie schätzen Sie Deutschland als Standort für den Betrieb von Rechenzentren ein?
R. Siefen:
Vieles spricht für den hiesigen Standort. Zum einen liegt Deutschland sehr zentral in der Mitte Europas, zum anderen sind viele Grundlagen für den RZ-Betrieb schon gut organisiert. Trotzdem sind noch einige Hürden zu nehmen. Gerade aus politischer Sicht gilt es, einige Dinge neu zu strukturieren. So sorgen Steuerbelange zum Beispiel im Energiebereich für Benachteiligungen. Darüber hinaus müssen wir im Vergleich mit beliebten RZ-Standorten in Skandinavien andere Technologien nutzen und andere Wetterbedingungen oder höhere Stromkosten einkalkulieren.

Dennoch gelten Städte wie Frankfurt, Düsseldorf bzw. Hamburg als interessante Datacenter-Standorte, da von dort aus über den Internetknoten DE-CIX sowohl viele cloud-basierte als auch herkömmliche Anwendungen weltweit verteilt werden können. Parallel dazu steigt jedoch auch die Bedeutung anderer deutscher Städte immens an. Im Zuge dessen beschäftigen sich aktuell unter anderem auch Versorgungsunternehmen damit, ihre Stromproduktionsstandorte umzubauen, um die Industrie über attraktive Klima- und Strom-Contracting-Modelle an sich stärker zu binden und im Rahmen der Energiewende dann auch neue Geschäftsfelder zu erschließen.

IT-DIRECTOR: Können Sie Beispiele nennen?
R. Siefen:
Unsere Beteiligung an dem Joint Venture MAIN DC Offenbach GmbH, zusammen mit dem Energieversorger EVO und der Etix Everywhere S.A. In der MAIN DC vereinen wir die optimale Stromversorgung durch die EVO, die internationale Betriebserfahrung von Etix und unser Know-how. Als Generalübernehmer planen und bauen wir für MAIN DC ein Hochverfügbarkeitsrechenzentrum nach Maßgabe des Architekturkonzeptes der Etix Everywhere und bedienen damit die steigende Nachfrage nach Datacentern, in die sich Unternehmen in Zeiten digitaler Transformation einmieten können. Das neue Datacenter der MAIN DC entsteht auf dem Gelände der EVO nahe des weltweit größten Internetknotens in Frankfurt, auf einer Grundfläche von rund 7.800 Quadratmetern und mit einem nach höchsten Standards gebauten Gebäudekomplex für ca. 3.000 Racks. Das Investitionsvolumen beläuft sich auf rund 120 Millionen Euro. Der Baubeginn ist für kommenden Juli geplant; die Inbetriebnahme für Sommer 2020.

IT-DIRECTOR: Wie kam es zu dieser Zusammenarbeit?
R. Siefen:
Gemeinsam mit unserem langjährigen Partner, dem Mannheimer Energieunternehmen MVV wollen wir über den Tellerrand schauen. Dabei gehen wir gemeinsam der Frage nach, wie sich Versorger über ihr klassisches Kerngeschäft hinaus mit neuen Dienstleistungsmodellen für Industrieparks positionieren können. Hierin liegt unserer Ansicht nach großes Entwicklungspotential für die Zukunft, da man den Kunden mehr als nur Strom bietet und zusätzliche Mehrwerte schaffen kann.

Erhalten wir die Möglichkeit, neben unserer Rolle als Entwickler und Planer Teil eines Betreibermodells zu werden, und uns somit an den weiteren Entwicklungen mit zu beteiligen,  und u.a. den technischen Betrieb zu übernehmen, dann ist das für uns eine sinnvolle Geschäftserweiterung gegenüber den bisherigen Geschäftsansätzen.

IT-DIRECTOR: Ist das Rechenzentrum als klassischer Colocation-Standort konzipiert?
R. Siefen:
Nicht nur. Grundsätzlich entspricht das Rechenzentrum sämtlichen europäischen Normen wie der EN 50600, sodass es auch von streng regulierten Organisationen aus dem Finanz- oder Behördenumfeld genutzt werden kann. Dennoch bleiben wir flexibel und bieten auch Möglichkeiten für Kunden an, die eher nach günstigen Colocation-Flächen suchen und weniger Wert auf Zertifizierungen legen. Ihnen ist vielleicht eher eine vom Uptime Institute festgelegte Tier-Klassifikation wichtig. In diesem Fall können wir einzelne RZ-Module entsprechend anpassen, ohne den grundsätzlichen Rahmen an Normen und Richtlinien zu berühren.

IT-DIRECTOR: Was macht den Standort Offenbach so besonders?
R. Siefen:
In Frankfurt gibt es nur noch wenige freie Bauflächen, gleichzeitig sind die Grundstückspreise extrem teuer. Das kommt einer benachbarten Stadt wie Offenbach, die sich weiterentwickeln will, natürlich gelegen. Momentan wird dort gebaut wie wild. Zudem befindet sich der Standort der Energieversorgung Offenbach AG (EVO) unweit der Frankfurter Stadtgrenze, sodass idealerweise alle wichtigen Netzanbindungen leicht erreichbar sind.

IT-DIRECTOR: Wie gestaltet sich daneben generell das Kerngeschäft der DataCenterGroup?
R. Siefen:
Wir planen und bauen Rechenzentren, bieten entsprechende Produkte sowie Services an und übernehmen bei Bedarf auch den RZ-Betrieb für die Kunden. Dabei agieren wir jedoch nicht als typischer Rechenzentrumseigentümer oder Colocation-Anbieter, sondern unterstützen die Kunden mit moderner, zukunftsorientierter Technik und leistungsfähigen Infrastrukturen.

IT-DIRECTOR: Worauf kommt es Ihnen im Rahmen Ihres Geschäftsmodells besonders an?
R. Siefen:
Es gibt drei wichtige RZ-Komponenten: Zunächst sind wir für die bauphysikalische IT-Sicherheit zuständig, wobei es um Dinge wie Energieeffizienz, Sanierungsbedarf oder die Ertüchtigung von in die Jahre gekommenen Rechenzentren geht. Darüber hinaus decken wir die technische IT-Sicherheit und damit die IT-Infrastruktur ab. Hier geht es im Wesentlichen um den technischen Betrieb der Gewerke, die alle Prozesse im Rechenzentrum am Laufen halten. Zu guter Letzt rückt die IT-Hardware in den Fokus, die wir allerdings nicht explizit bedienen. Doch mit zwei dieser drei Faktoren sind wir im Gesamtprozess gut unterwegs und behalten zukünftige Verbesserungspotentiale für die Kunden stets im Blick.

IT-DIRECTOR: Welche Faktoren müssen Sie beim Bau und bei der Planung von Rechenzentren berücksichtigen?
R. Siefen:
Hinsichtlich der Bauvorhaben sollte man darauf achten, die Gebäude abzudichten, sichere Grundstrukturen zu schaffen und sämtliche Baurichtlinien einzuhalten. Es ist nicht damit getan, einen alten Bunker zu finden und diesen als Rechenzentrum zu nutzen. Vielmehr gilt es, auch Parameter wie Emissionen oder Wasseranschlüsse zu beachten. Zudem ist es notwendig, sich den örtlichen Gegebenheiten wie Temperatur oder Sonneneinstrahlung anzupassen. Solche bauphysikalischen Aspekte müssen wiederum mit der technischen IT-Sicherheit wie der Kühlung verknüpft werden.

Für uns spielen die einzelnen Produkte eher eine untergeordnete Rolle, vielmehr müssen daraus am Ende vor allem Gesamtlösungen werden. Wir versuchen stets, Vorteile aus dem Zusammenspiel der verschiedenen Instanzen zu generieren, um die IT am jeweiligen Standwort sauber zu bedienen und gegebenenfalls auch den Betrieb der technischen Infrastruktur zu übernehmen.

IT-DIRECTOR: Wie realisieren Sie den Betrieb von Rechenzentren?
R. Siefen:
Dies zeigen unsere Referenzkundenbeispiele wie u.a. Edeka: In deren Rechenzentren regulieren wir nicht nur die Anlagen, sondern gewährleisten auch ein sauberes Monitoring und kümmern uns um das Energiemanagement. Dafür braucht man ein analytisches Informations-Tool, das bereits im Vorfeld die Wartungsrhythmen der RZ-Gewerke erkennt. Dies betrifft im Bereich der Kühlung die vorausschauende Anpassung an jahreszeitenbedingte Temperaturwechsel. In solchen Fällen gehen wir proaktiv vor, anstatt erst im Nachhinein darauf zu reagieren, was wiederum eine entsprechende Kopplung mit der Mess-Steuer-Regelungstechnik (MSR) erfordert.

IT-DIRECTOR: Nutzen Sie dafür klassische Datacenter-Infrastructure-Management-Software (DCIM) inklusive besonderer Analyse-Tools?
R. Siefen:
Moderne, nach der EN 50600 konzipierte Rechenzentren sind redundant ausgelegt. Dabei müssen sowohl das Rechenzentrum als auch das Backup-RZ stets synchron vorgehalten werden. In diesem Zusammenhang spielt uns unsere DCIM-Software in die Karten, mit der wir tief ins Energiemanagement und Monitoring eintauchen und darauf aufbauend wichtige Maßnahmen zur Verbesserung der Energieeffizienz ableiten können.

Im Zuge dessen haben wir das DCIM mit Lösungen für das Monitoring, mit Data Recovery, Netzwerküberwachungs-Servern oder dem Energiemanagement gekoppelt. Alle diese Komponenten werden aus dem jeweiligen Kundenrechenzentrum heraus über einen VPN-Tunnel sicher auf unsere Systeme geschaltet und dort vom Service Operation Center (SOC) rund um die Uhr beobachtet. Über Dashboards können wir uns proaktiv in den technischen Live-Betrieb einloggen und erforderliche Maßnahmen vornehmen. Manche Dinge dürfen wir jedoch nur „onsite“, d. h. direkt am Standort durchführen, da kundenseitig Sicherheitsvorgaben bestehen. Hierfür sind wir mit eigenen Mitarbeitern vor Ort.

IT-DIRECTOR: Bemerken Sie eine verstärkte Nachfrage für den Bau von Rechenzentren?
R. Siefen:
Ja, wobei zurzeit vor allem größere Rechenzentren sehr gefragt sind. Mit Blick auf die anhaltende Digitalisierung und deren Anforderungen wird dieser Trend auch nicht so schnell nachlassen. Denn das Thema „IT“ ist für den Standort Deutschland elementar.

IT-DIRECTOR: Wie positioniert sich der hiesige Mittelstand in dieser Hinsicht?
R. Siefen:
Gut 70 bis 80 Prozent der Mittelständler wollen im eigenen Rechenzentrum bleiben und sehen den Umstieg auf Cloud Computing eher skeptisch. Dies bedeutet jedoch nicht, dass sie alle eigene Datacenter betreiben, vielmehr halten sie an den eigenen IT-Anwendungen fest und nutzen für deren Betrieb verstärkt das Angebot externer Dienstleistungsrechenzentren.

IT-DIRECTOR: Welche Herausforderung sehen Sie für die Zukunft?
R. Siefen:
Hinsichtlich der technologischen Entwicklung bewegt sich derzeit einiges. Wenn über Dinge wie Robotik gesprochen wird, mag dies zunächst noch nach Zukunftsmusik klingen. Solche Szenarien sind jedoch viel näher als die meisten glauben, denn warum sonst würden chinesische Investoren Roboterspezialisten wie Kuka übernehmen oder riesige Datacenter bauen.

Was die Weiterentwicklung von Robotern angeht, scheint China weit voraus zu sein, da hat die hiesige Politik einiges verschlafen. Trotzdem gilt Deutschland als wichtiger Standort und das Gütesiegel „Made in Germany” besitzt noch immer große Bedeutung. An dieser Stelle könnte man für die Zukunft ansetzen, gleichzeitig müssen von der Politik jedoch auch zeitgemäße Rahmenbedingungen geschaffen werden. Dabei meine ich nicht nur Steuer- oder Energiethemen, sondern auch weitreichende Fragestellungen wie: Was passiert, wenn Fachkräfte zukünftig durch Roboter ersetzt werden?

IT-DIRECTOR: Können Sie uns eines Ihrer aktuellen Projekte näher beschreiben?
R. Siefen:
Erst kürzlich haben wir ein Projekt mit den Berliner Wasserbetrieben (BWB) umgesetzt, wobei der Energieversorger mit uns als Dienstleistungspartner sein eigenes Rechenzentrum realisiert hat. Wir haben das Datacenter geplant, gebaut und nach den Standards von TÜV IT und EN 50600 zertifiziert. Darüber hinaus stellte eine Zertifizierung mit dem Blauen-Engel für energieeffizienten Rechenzentrumsbetrieb den krönenden Abschluss dar.

Dies ist ein Artikel aus unserer Print-Ausgabe 6/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Eine Vorgabe war die Errichtung eines absolut energieeffizienten Rechenzentrums, da der Berliner Senat überlegt, bei kommunalen Projekten den Blauen Engel künftig als Richtlinie zu etablieren. Das BWB-Rechenzentrum wurde dafür als Pilotprojekt auserkoren. Aktuell liegt der durchschnittliche Effizienzfaktor der Lokation, auch PUE-Wert (Power Usage Effectiveness) genannt, zwischen 1,2 und 1,4. Der genaue Wert hängt von der jeweiligen Witterung ab, etwa ob es in der Hauptstadt zu einem Hitzesommer wie im vergangenen Jahr kommt oder nicht.

IT-DIRECTOR: Wie müssen in solchen Fällen kritische Infrastrukturen gestaltet sein?
R. Siefen:
In puncto Blauer Engel müssen folgende Fragen geklärt werden: Wie skalierbar gestaltet man die technische Infrastruktur, damit diese so energieeffizient wie möglich arbeitet? Dies hängt stets von den genutzten Elektro- und Klimatisierungskomponenten im Rechenzentrum ab, sodass es auf sparsam arbeitende USV-Installationen sowie umweltverträglich und energieeffizient gestaltete Klimaanlagen ankommt. Hier gibt es Systeme, die mit Propan oder Ammoniak arbeiten, wobei man bei den Berliner Wasserbetrieben auf Ammoniak setzt. Dabei handelt es sich um ein Leitmittel, das minimalen Widerstand bei gleichzeitig hoher Effizienz und Qualität bietet.

IT-DIRECTOR: Wie sollten RZ-Bauvorhaben am besten angegangen werden?
R. Siefen:
Das ist unterschiedlich. Zum einen kann eine Summe X freigestellt und in diesem finanziellen Rahmen der RZ-Neubau umgesetzt werden. Zum anderen können wichtige Normen und Zertifizierungen vorgegeben werden. In diesem Fall gilt die geplante, zukünftige Auslastung bei gleichzeitig hoher Energieeffizienz als Grundlage für den Rechenzentrumsbau. Im Zweifelsfall wird der Bau dadurch zunächst um bis zu 40 Prozent teurer, auf lange Sicht kann der Betrieb jedoch um einiges günstiger werden, da sich Energiekosten einsparen lassen. Von daher raten wir unseren Kunden, nicht einfach darauf loszubauen, sondern mit Bedacht sämtliche Voraussetzungen zu berücksichtigen.

IT-DIRECTOR: Sie haben Edeka und die Berliner Wasserbetriebe erwähnt. Wer gehört noch zu Ihren Kunden?
R. Siefen:
Neben diesen Großunternehmen zählen auch klassische mittelständische Firmen zu unseren Kunden. Viele Mittelständler haben in den letzten Jahren eher zögerlich in Innovationen und aktuelle Technologien investiert, obwohl es ihre finanziellen Mittel eigentlich ermöglicht hätten. Häufig waren sich die Verantwortlichen unschlüssig, ob sie sich trauen sollten oder nicht. Aktuell bemerken wir, dass sich dieser Investitionsstau auflöst und viele neue Projekte im RZ-Umfeld angestoßen werden.

IT-DIRECTOR: Was treibt die RZ-Verantwortlichen dabei besonders um?
R. Siefen:
Immer wieder geht es um die Modernisierung von Rechenzentren. Zum Hintergrund: Bei bis zu 900 Kunden übernehmen wir den Service und die Wartung von Rechenzentren. Dabei kommen vermehrt Anfragen bezüglich der Ertüchtigung vorhandener Klimaanlagen oder dem Umstieg auf effizientere Infrastrukturen. Oftmals greifen hier bereits „kleine“ Dinge, wie die Etablierung von Kalt-Warm-Gängen oder der Einbau moderner Doppelböden. Allein mit solchen Maßnahmen lassen sich Stromkosten senken. Allerdings muss die Umstellung im laufenden RZ-Betrieb erfolgen, was sich quasi mit einer Operation am offenen Unternehmensherzen vergleichen lässt. Um geschäftskritische Systeme nicht herunterfahren zu müssen, nutzen wir spezielle Software-Tools und setzen auf eigens ausgebildete Spezialisten.

IT-DIRECTOR: Wie finden Sie diese qualifizierten Mitarbeiter?
R. Siefen:
Der Fachkräftemangel zieht sich momentan durch alle Branchen und Unternehmensgrößen. Um geeignete Fachkräfte anzuziehen, liegt die große Kunst darin, den Standort in Wallmenroth inmitten des Westerwalds so attraktiv wie möglich zu gestalten. Seit Jahren legen wir daher großen Wert auf die Ausbildung unserer Mitarbeiter und fördern beispielsweise duale Studiengänge. Zudem vermitteln wir allen neuen Mitarbeitern aussichtsreiche Perspektiven inklusive entsprechender Trainings- und Weiterbildungskonzepte. Neben klassischen IT-Fachkräften beschäftigen wir auch viele Spezialisten wie Elektro- und Klimaingenieure, Statiker oder Architekten. Insgesamt arbeiten rund 200 Mitarbeiter im deutschsprachigen Raum für uns. Darüber hinaus arbeiten wir mit vielen regionalen Firmen zusammen, etwa mit Ingenieurbüros, Elektro- oder Montagefirmen. So legen wir im Rahmen der Umsetzung von RZ-Projekten großes Augenmerk darauf, stets eine gute Mischung aus internen Spezialisten und externen Partnern zur Hand zu haben.


Ralf Siefen
Alter: 47 Jahre
Werdegang: Maschinenbaustudium, Leiter Projektgeschäft Lampertz GmbH, 2005 Gründung der proRZ Rechenzentrumsbau GmbH
Derzeitige Position: Gründer, Gesellschafter und Geschäftsführer der DC-Datacenter-Group
Hobbys: Tennis, Fußball


Bildquelle: DC-Datacenter-Group

]]>
IT-Director Startseite it-zoom Rechenzentrum / Server
news-23135 Fri, 14 Jun 2019 11:26:31 +0200 Hier möchten Deutschlands Studenten arbeiten http://www.it-zoom.de/it-director/e/hier-moechten-deutschlands-studenten-arbeiten-23135/ Die großen Automobilunternehmen dominieren weiterhin die Rankings der attraktivsten Arbeitgeber. Das gilt vor allem für deutsche Studierende der Wirtschaftswissenschaften und des Ingenieurwesens, aber auch für IT-Studierende werden sie zunehmend attraktiv. Banken und Beratungsunternehmen verlieren dagegen tendenziell an Beliebtheit. Das sind Ergebnisse des aktuellen Arbeitgeber-Rankings der Employer-Branding-Beratung Universum. Grundlage ist der Student Survey 2019, für den deutschlandweit 46.904 Studierende verschiedener Fachrichtungen befragt wurden.

„Eine wichtige Basis für ein gutes Abschneiden im Ranking ist die Bekanntheit der Unternehmen bei den Studierenden – generell und für die ihnen wichtigen Eigenschaften. Die sinkende Beliebtheit von Banken und Beratungsfirmen ist beispielsweise besonders vor dem Hintergrund interessant, dass diese Unternehmen zwar für die beiden wichtigsten Eigenschaften attraktiver Arbeitgeber stehen, nämlich ein attraktives Grundgehalt und ein hohes Einkommen in der Zukunft. Allerdings werden sie klassischerweise nicht mit den Themen ‚Work-Life-Balance‘ und ‚Flexibilität‘ assoziiert, die für Studierende sehr wichtig sind“, erklärt Tina Smetana, Country-Managerin Deutschland bei Universum.

Porsche bei Ingenieuren beliebt


Zwei Automobilkonzerne legen ordentlich an Beliebtheit zu: Für 21 Prozent der Studierenden der Wirtschaftswissenschaften zählt Daimler/Mercedes-Benz zu einem ihrer fünf idealen Arbeitgeber. Das sind 2,66 Prozent mehr als im vergangenen Jahr. Damit steigt das Unternehmen auf den ersten Platz im Ranking der attraktivsten Arbeitgeber. Porsche legt ebenfalls 1,34 Prozent an Beliebtheit zu und steigt dennoch auf Platz 2 ab. Auf den weiteren Plätzen folgen wie auch im vergangenen Jahr die BMW Group, Audi und Google. SAP klettert sieben Plätze nach oben in die Top 20. Weniger gut sieht das Ergebnis für Morgan Stanley aus. Das im vergangenen Jahr so erfolgreich nach oben gekletterte Unternehmen büßt zwölf Plätze ein, fällt auf Platz 62 und damit aus den Top 50.

Keine Veränderung an der Spitze der Rankings der angehenden Ingenieure: Attraktivster Arbeitgeber ist auch in diesem Jahr Porsche. Unverändert folgen auf den weiteren Plätzen Audi, Daimler/Mercedes-Benz und die BMW Group. Obwohl Daimler/Mercedes-Benz auch bei den Studierenden des Ingenieurwesens mit 2,49 Prozent überraschend an Beliebtheit gewinnt, bleibt dies ohne Auswirkung auf die Platzierung. Dagegen darf sich Bosch über den Aufstieg um einen Platz auf Rang 5 freuen. Verluste müssen dagegen zwei Forschungsinstitute hinnehmen: Die Fraunhofer-Gesellschaft steigt fünf Plätze ab und landet auf Rang 17. Für die Max-Planck-Gesellschaft geht es acht Plätze nach unten auf Rang 40. Insgesamt 19 Plätze büßt The Boston Consulting Group ein. Das Unternehmen muss sich mit Rang 69 begnügen und aus den Top 50 verabschieden. Ähnlich ergeht es der Fresenius Group und EnBW, die 17 bzw. 13 Plätze verlieren und damit Platz 66 bzw. 55 einnehmen.

Apple gewinnt an Beliebtheit bei ITlern


Apple darf sich zwar über 5,19 Prozent mehr Beliebtheit freuen, bleibt jedoch unverändert auf Platz 3. Für knapp 23 Prozent der IT-Studierenden ist der Technologiekonzern einer ihrer idealen Arbeitgeber. An der Spitze steht weiterhin Google: 37 Prozent der IT-Studierenden möchten am liebsten hier arbeiten, gefolgt von Microsoft auf Platz 2. Mit Audi und Daimler/Mercedes-Benz klettern zwei Automobilunternehmen nach oben auf Rang 4 und 5. Den mit 20 Plätzen größten Sprung in die Top 50 schafft Huawei und nimmt Rang 36 ein. SAP rutscht dagegen von Rang 4 auf 9 und verabschiedet sich damit aus den Top 5. Auch Facebook verliert fünf Plätze und fällt aus den Top Ten. Ebenfalls nach unten geht es für EY (Ernst & Young). Das im vergangenen Jahr so erfolgreich nach oben gekletterte Unternehmen büßt 14 Plätze ein, landet auf Platz 55 und muss sich damit aus den Top 50 verabschieden. Ähnlich ergeht es The Boston Consulting Group, die 14 Plätze verliert und auf Platz 57 abfällt.

Auch hier allen Negativschlagzeilen zum Trotz: Bayer gewinnt an Beliebtheit bei den Studierenden der Naturwissenschaften und ist damit attraktivster Arbeitgeber in diesem Fachbereich. Für fast ein Viertel ist das Unternehmen einer ihrer fünf idealen Arbeitgeber. Mit knapp 24 Prozent finden nur geringfügig weniger Studierende die Max-Planck-Gesellschaft am attraktivsten. Auf den Plätzen drei bis fünf folgen unverändert die Fraunhofer-Gesellschaft, BASF und Merck. Freuen dürfen sich Heineken und Claas, die 16 bzw. 12 Plätze nach oben auf Rang 42 bzw. 49 klettern und damit zu den Top 50 zählen. Weniger erfreulich ist das Ergebnis für MunichRe. Das Unternehmen fällt um 24 Plätze auf Rang 71 ab. KPMG und die Commerzbank verlieren jeweils 13 Plätze und landen auf Rang 58 bzw. 61. Alle drei Unternehmen müssen sich damit aus den Top 50 verabschieden.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Studien
news-23133 Fri, 14 Jun 2019 09:43:51 +0200 Kürzere Durchlaufzeiten dank der E-Akte http://www.it-zoom.de/it-director/e/kuerzere-durchlaufzeiten-dank-der-e-akte-23133/ Die Servicewelt von Versicherungen befindet sich im Wandel. Mit der Einführung der E-Akte für die internen Versicherungs- und Bausparprozesse hat die Debeka-Gruppe jetzt einen weiteren Punkt ihrer Digitalisierungsstrategie umgesetzt. „Bei einem Versicherer sind kurze Durchlaufzeiten heute eine Grundvoraussetzung für eine hohe Kundenzufriedenheit“, sagt Manfred Hardt, Hauptreferent der Abteilung Betriebsorganisation Informations- und Kommunikationsmanagement der Debeka-Gruppe. Eine vermeintlich einfache Formel, doch in der Konsequenz bedeutet dies vielseitige Herausforderungen in Bezug auf die innerbetrieblichen Prozesse. Die Debeka gehört mit ihrem vielfältigen Versicherungs- und Finanzdienstleistungsangebot zu den fünf größten Anbietern der deutschen Versicherungs- und Bausparbranche. Manfred Hardt ist innerhalb der IT-Abteilung für den Bereich Dokumentenmanagement zuständig. Seit über 16 Jahren ist er bei dem Unternehmen. Hardt weiß, dass sich die Anforderungen für die Assekuranzen verändert haben.

Mehr als sieben Millionen Menschen vertrauen der Debeka-Gruppe, insgesamt rund 18 Millionen Verträge haben diese bei den Versicherungsunternehmen und der Bausparkasse abgeschlossen. Abseits der Hauptverwaltung in Koblenz ist die Gruppe an bundesweit über 4.500 Orten präsent. „Dabei widmen wir uns dem Thema Digitalisierung nicht erst, seitdem dies ein großes Hypethema ist“, führt Karl-Josef Krechel-Mohr, Abteilungsdirektor der Betriebsorganisation und Anwendungsentwicklung, aus und ergänzt: „Schon immer hielt das Unternehmen die Augen nach Verbesserungspotentialen auf Basis von digitalen Lösungen offen – angetrieben von der Überzeugung, dass eine konsequente Digitalisierungsstrategie der Schlüssel für eine erfolgreiche Zukunft ist. So arbeitet die Debeka im Leistungsbereich der Krankenversicherung bereits seit 2000 vollständig digital.“

Digitalisierung fängt bei den Kunden an


Spartenübergreifend ist die Debeka mit ihrem System „Elan“ (Elektronische Antragsbearbeitung) führend bei der elektronischen Verarbeitung von Anträgen. Papieranträge wurden in diesem Bereich nahezu vollständig aus der Arbeitswelt verbannt. Mit dem Programm Easy2000 steht den Außendienstmitarbeitern seit vielen Jahren ein Akquisesystem zur Verfügung, das über Notebooks genutzt werden kann und das nur wenige deutsche Versicherungskonzerne in dieser Reife vorweisen können. Die Strategie ist jedoch nicht nur auf die Optimierung der internen Abläufe fokussiert, Digitalisierung fängt vielmehr bei den Kunden an: Bereits heute können Versicherte Arztrechnungen und andere Belege abfotografieren und mithilfe der sogenannten „Leistungs-App“ über ihre Mobilgeräte an das Abrechnungssystem übermitteln.

Zudem stellt die Debeka ihren Krankenversicherten über das Online-Portal „Meine Gesundheit“ voraussichtlich ab 2019 ein digitales Rechnungsmanagement zur Verfügung, das mit umfangreichen Services verbunden ist. Um den Input der bereits vorhandenen Lösungen reibungsloser mit den übrigen Dokumentenprozessen zu verzahnen, entschied man sich im April 2015, die generelle Aktenverwaltung sukzessive zu digitalisieren.

Bei der Auswahl einer passenden E-Akte-Lösung spielten die Skalierbarkeit und Integrationsfähigkeit der Software eine maßgebliche Rolle. Schließlich musste sich das System nahtlos in bestehende Prozesse einfügen bzw. mit diesen und weiteren flankierenden Lösungen verknüpfen lassen. Darüber hinaus sollte eine moderne, webbasierte und gleichzeitig anwenderfreundliche Lösung gewählt werden. Am Ende eines mehrstufigen Auswahlverfahrens entschied sich die Debeka für die E-Akte-Lösung Nscale von der Ceyoniq Technology.

Von Beginn an war klar: Die E-Akte musste mit weiteren Software-Lösungen interagieren und im Funktionsumfang auf die Bedürfnisse der Debeka abgestimmt werden – etwa für einen reibungslosen Austausch mit dem Input-Management sowie einer Lösung für das ersetzende Scannen. Um den optimalen Datentransfer zu gewährleisten, stellte der Versicherer auf eine sogenannte service-orientierte Architektur (SOA) um.

Elektronischer Postkorb statt Papierablage


Das papierarme Arbeiten beginnt bei dem Versicherer mit einem neuen Input-Managementsystem, das technologisch ebenfalls komplett modernisiert wurde. Dort werden zugesendete Dokumente (Papier, Fax, E-Mail) eingescannt und digital aufbereitet. Eine Software unterstützt bei der automatisierten Erkennung, um welche Art von Dokument es sich handelt – etwa eine Schadensmeldung oder ein medizinischer Befund – und legt das digitale Dokument kategorisiert an einer vorbestimmten Stelle innerhalb der E-Akte ab. Diese liefert dem Input-Management eine Kennzeichnung zurück, die mit dem Kernsystem für die Bestandsführung verknüpft wird. Der zuständige Sachbearbeiter erhält daraufhin in seinem elektronischen Postkorb, der zunächst weiterhin im bekannten Cobol-System liegt, einen neuen Auftrag – mit dem Verweis auf das betreffende Schriftgut.

Für die Sachbearbeitung nutzen die Mitarbeiter noch die gewohnten grafischen Bearbeitungsmasken der Debeka-Kernsysteme. Dabei können sie innerhalb der E-Akte Kommentare oder Notizen einpflegen oder – etwa bei einem Rechtsfall – eine zusammenfassende Stellungnahme schreiben und individuell in die E-Akte hochladen, um der Rechtsabteilung bei der Weiterbearbeitung einen schnellen Einstieg zu ermöglichen.

Dies ist ein Artikel aus unserer Print-Ausgabe 5/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Mit der Einführung der E-Akte hat man die Durchlaufzeiten – bezogen auf den Ende-zu-Ende-Prozess – signifikant verkürzt und somit ein zentrales Projektziel erreicht. Zudem schafft die Digitallösung mehr Transparenz, etwa zum gegenwärtigen Status der Sachbearbeitung. Parallele Aktenarbeit wird durch die Verwendung der E-Akte gefördert, Doublettenbildung wird vermieden. Außerdem wurden Transport und Lagerkosten für Papierakten reduziert.

Die Debeka-Gruppe

Das auf Versicherungs- und Finanzdienstleistungen spezialisierte Unternehmen mit Hauptsitz in Koblenz wurde 1905 gegründet und ist aktuell an bundesweit 4.500 Orten vertreten. Insgesamt beschäftigt man rund 16.200 Mitarbeiter (Stand: Ende 2017).


Bildquelle: Debeka

]]>
IT-Director Startseite it-zoom Dokumentenmanagement und ECM
news-23132 Fri, 14 Jun 2019 09:26:27 +0200 User-Anforderungen an S/4 Hana http://www.it-zoom.de/it-director/e/user-anforderungen-an-s4-hana-23132/ Eine Studie von Arvato Systems zeigt auf, wie Nutzer das ERP-System SAP S/4 Hana bewerten und was bei dessen Einführung zu beachten ist. S/4 Hana, die aktuelle ERP-Generation von SAP, hat seit ihrer Markteinführung 2015 bereits in verschiedenen Unternehmen den Praxistest bestanden. Es ist insbesondere der Wunsch, flexibler und agiler zu sein, der SAP-Nutzer veranlasst, auf die neue Generation umzustellen. Dies geht aus der noch im Jahr 2018 durchgeführten Studie „SAP S/4 Hana in Deutschland“ hervor. Der IT-Spezialist Arvato Systems und das Marktforschungsunternehmen PAC haben dafür etwas mehr als 100 Manager und SAP-Verantwortliche aus deutschen Unternehmen, die mindestens 1.000 Mitarbeiter beschäftigen, telefonisch interviewt. An der Umfrage beteiligten sich Unternehmen des verarbeitenden/produzierenden Gewerbes (43 Prozent) und Firmen aus den Branchen Dienstleistung, Handel und Verkehr (57 Prozent). Mehr als ein Viertel dieser Teilnehmer arbeitetet zu diesem Zeitpunkt bereits mit der Hana-Plattform, etwa als Datenbank für das Data Warehouse (SAP BW). Die Studienergebnisse zeigen, welche Forderungen und Erwartungen die Befragten an die Plattform haben, welche Themen kon­trovers eingeschätzt werden und wie sich die Migration zu S/4 Hana erfolgreich gestalten lässt. Demzufolge hat die Studie ergeben,
– dass mehr als zwei Drittel der Befragten erwarten, mit S/4 Hana ihre Prozesse signifikant zu beschleunigen und so die Möglichkeit zu haben, große Datenmengen zu analysieren,
– dass für 76 Prozent ein Haupttreiber für S/4 Hana darin besteht, ihre SAP-Prozesse flexibler und agiler zu machen,
– dass 57 Prozent davon ausgehen, dass die Einführung der neuen ERP-Plattform ihre Unternehmen veranlasst, auch die sonstigen SAP-Anwendungen und Infrastrukturen zu modernisieren,
– dass sich 48 Prozent eine nutzerfreundlichere Bedienung versprechen und darauf vertrauen, dass sich die Neuentwicklung flexibler einsetzen und besser anpassen lässt als die Vorgängersysteme, und
– dass sich ein reichliches Drittel einen großen Nutzen bei der Unterstützung neuer Geschäftsprozesse und -modelle verspricht, etwa bei der Digitalisierung der Finanzprozesse.

Die Zurückhaltung überwiegt (noch)


Doch ist es bedenklich, dass trotz dieser hohen Erwartungshaltung zum Zeitpunkt der Umfrage nur fünf Prozent der Unternehmen S/4 Hana bereits einsetzen? Laut den Marktforschern durchaus nicht, denn lediglich für 14 Prozent der Befragten ist die neue ERP-Plattform kein Thema. Dem stehen 27 Prozent gegenüber, die just darauf migrieren oder die Umstellung fest eingeplant haben. Die verbliebenen 54 Prozent der Teilnehmer haben das Thema zwar im Blick, die Entscheidung für oder gegen die neue Software-Genera­tion steht jedoch noch aus.

Warum? Auf die Frage, warum man sich noch nicht zur Migration entschlossen habe, bleiben die Antworten eher vage. Fast 70 Prozent haben Bedenken hinsichtlich ihrer eigenen Einschätzung von Aufwand und Nutzen. Außerdem können über die Hälfte der Firmen derzeit keinen überzeugenden Anwendungsfall für sich erkennen. Es ist daher anzunehmen, dass die Umstellung auf S/4 Hana an Fahrt aufnimmt, wenn es mehr „Business Cases“ gibt, die die Performance und Vorteile des neuen Systems an konkreten Praxisbeispielen greifbar machen. Die Umfrage lässt zudem den Schluss zu, dass sich Unternehmen mit der Migration auch zurückhalten, weil SAP die bestehenden Systeme SAP ECC und SAP Business Suite noch bis 2025 wartet und Firmen diese Zeit nutzen möchten, um sich gezielter mit der Thematik auseinanderzusetzen und eine mögliche Migration zu eruieren.

Nicht nur im Hinblick auf die in der Regel recht engen Zeit- und Budgetrahmen will die S/4-Hana-Einführung sehr gut vorbereitet sein. Schließlich handelt es sich um geschäftskritische Business-Process-Systeme mit einer sehr großen Zahl betroffener Nutzer. Die Migration muss dabei zumeist parallel zum laufenden Betrieb gestemmt werden, dennoch darf sie das Tagesgeschäft nicht behindern und soll nur wenig Ausfall-, Rüst- und Umstellungszeiten verursachen.

Für 68 Prozent der befragten Unternehmen ist das Hauptziel, mit der neuen Software bestehende SAP-gestützte Prozesse zu verbessern. Eine Mehrheit befürwortet überdies, die Umstellung rein technisch vorzunehmen und in Konsequenz so auf eine Optimierung der Prozesse zu verzichten, die durch eine Transformation erreichbar wäre. Die Mitautoren der Studie von PAC hingegen plädieren ausdrücklich für den Greenfield-Ansatz, da sich S/4 Hana an den Lines of Business ausrichtet und die Vorteile nur mit einer Optimierung bestehender Prozesse voll zur Wirkung kommen, beispielsweise im Hinblick auf die Performance bei Datenanalysen oder die Benutzerfreundlichkeit der Analytics-Funktionen. Auf diese Weise, indem man auch die anderen vorhandenen IT-Systeme in der Landschaft hinterfragt und auf der Grundlage von Best-Practice-Prozessen neu installiert, lassen sich die Prozesse von Grund auf restrukturieren und an die sich wandelnden geschäftlichen Anforderungen bestmöglich anpassen. Es kann also ratsam sein, in der Planungsphase genau zu analysieren, ob die eigenen, konkreten Zielstellungen, die mit der Umstellung auf S/4 Hana verbunden sind – beispielsweise eine umfänglichere Nutzung des SAP-Standards –, sich mit einer bloßen Systemumstellung wirklich erreichen lassen.

Dies ist ein Artikel aus unserer Print-Ausgabe 5/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Mitunter hat sich bewährt, bei komplexen Vorhaben wie der S/4-Hana-Einführung externe Fachleute hinzuzuziehen. Das sehen 39 Prozent der Befragten genauso. Während 27 Prozent aller Teilnehmer der ­Studie dabei vor allem eine Unterstützung bei der ­Optimierung bestehender Geschäftsprozesse im Blick haben, wünschen sich 15 Prozent eine Beratung hinsichtlich der Implementierung neuer Geschäftsprozesse oder -modelle. Für über 80 Prozent steht fest, dass sich der externe Dienstleister nicht nur bestens in der SAP-Welt auskennen muss – er benötigt auch eine entsprechende spezifische Fachkompetenz, um sie bei der Transformation ihrer Geschäftsprozesse beraten zu können. 70 Prozent der Befragten verlangen einschlägiges Branchenwissen von ihrem Dienstleister. Drei Viertel der Befragten legen bei der Wahl ihres Partners besonderen Wert auf Referenzen zu erfolgreichen S/4-Hana-Projekten.

Bildquelle: Getty Images / iStock

]]>
IT-Director Startseite it-zoom ERP
news-23129 Thu, 13 Jun 2019 14:59:14 +0200 So erreicht Diebold Nixdorf seine Mitarbeiter im Notfall http://www.it-zoom.de/it-director/e/so-erreicht-diebold-nixdorf-seine-mitarbeiter-im-notfall-23129/ Diebold Nixdorf, IT-Dienstleister für Banken und Handelsunternehmen, nutzt die CEM-Plattform (Critical Event Management) von Everbridge, um Mitarbeiter im Notfall so schnell wie möglich zu erreichen. Critical-Event-Management-Systeme helfen Unternehmen, Katastrophen und andere kritische Notfälle in den Griff zu bekommen, stellen automatisiert Notfall-Teams mit dem passenden Know-how zusammen und minimieren Schäden so weit wie möglich. Mithilfe der CEM-Plattform von Everbridge kann das ESS-Team (Enterprise Safety and Security) von Diebold Nixdorf im Notfall die über 23.000 Mitarbeiter in mehr als 100 Ländern innerhalb weniger Minuten unabhängig von ihrem Aufenthaltsort benachrichtigen, damit sie sich in Sicherheit bringen können. Gleichzeitig identifizieren die ESS-Verantwortlichen über die CEM-Plattform die entsprechenden Spezialisten und können ihren Einsatz koordinieren, um so den Geschäftsbetrieb aufrechtzuerhalten. Das template-basierte System stellt dabei sicher, dass die richtigen Personen zur richtigen Zeit erreicht werden.

Da viele Mitarbeiter entweder im Außendienst arbeiten, auf Reisen oder bei Kunden vor Ort sind, benötigte das ESS-Team eine performante, hochskalierbare und ausfallsichere Lösung, um auch hohe Lasten zuverlässig bewältigen zu können und Notfälle anhand von klar definierten Workflows automatisiert abzuarbeiten. Diebold Nixdorf wird seine Mitarbeiter zudem mit der mobilen Everbridge-App ausstatten, um die gegenseitige Kommunikation bei kritischen Ereignissen und Störungen zu erleichtern.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Sicherheit
news-23117 Thu, 13 Jun 2019 09:57:37 +0200 KI-Lösung „Alfred“ denkt die Logistik neu http://www.it-zoom.de/it-director/e/ki-loesung-alfred-denkt-die-logistik-neu-23117/ Thyssenkrupp Materials Services treibt die digitale Transformation weiter voran: Seit Anfang 2019 unterstützt eine Künstliche Intelligenz (KI) die Prozesse des Werkstoffhändlers und -dienstleisters. Die neue KI-Lösung „Alfred“ zielt darauf ab, 250.000 Kunden weltweit besser zu bedienen. Dazu optimiert sie u.a. die Auslastung von Maschinen und Transportern, um Materialien schneller an die richtigen Standorte zu verteilen. Wie schon bei seinem Namensvetter – Alfred Krupp – laufen bei der KI alle Informationen zusammen. Was haben die Kunden bestellt? Welcher Standort kann die Produkte am schnellsten liefern? Wie können Bestellungen gebündelt werden, um so eine umweltschonendere Lieferung zu garantieren? Was ist, wenn auf der Strecke Stau ist oder ein Unwetter herrscht? Wie wirkt sich dies auf die Lieferung aus?

Diese und viele weitere Fragen stellt sich Alfred sekündlich – für jede der über 14 Millionen Bestellungen pro Jahr. Klaus Keysberg, Vorstandsvorsitzender von Thyssenkrupp Materials Services, ist davon überzeugt, mit der KI-Lösung einen weiteren Meilenstein in der holistischen Digitalisierungsstrategie zu setzen: „Mithilfe unserer KI bringen wir erstmals relevante Daten aus den unterschiedlichen Prozessen unseres Geschäfts zusammen und werten diese systematisch aus. So lassen sich Muster erkennen, die ohne die Verwendung von KI im Verborgenen bleiben.“

Die Erkenntnisse nutzt Thyssenkrupp Materials Services, um beispielsweise Lagerbestände zu optimieren und Transportkosten zu senken. „Mittelfristig wird Alfred es uns zudem ermöglichen, unsere Service-Angebote weiter auszubauen und dem Kunden in allen Phasen des Kaufprozesses optimal und mit hoher Flexibilität zu unterstützen“, so Keysberg.

Big Data systematisch genutzt


Rund um die Uhr fallen in den Bestell- und Bearbeitungsprozessen von Materials Services unzählige wertvolle Daten an – ein bisher kaum genutztes Potential. Mit Künstlicher Intelligenz macht der Werkstoffhändler diese nun systematisch verfügbar. „Alfred ist u.a. auch ein Data Lake für sämtliche Transaktionsdaten des Unternehmens. Erstmals können wir damit auf alle Daten im Wertschöpfungsprozess an einem zentralen Ort zugreifen, so z.B. auf einzelne Parameter in einer Bestellung, auf Maschinendaten aus der Bearbeitungsphase oder auf den optimierten Transportweg bei der Auslieferung“, ergänzt Axel Berger, Head of Digital Transformation bei Materials Services.

Die KI verarbeitet diese Informationen in Sekundenschnelle und generiert aus dem Big-Data-Ansatz Empfehlungen, um Prozesse effizienter zu gestalten. Diese Auswertungen können die Mitarbeiter auf einer operativen Plattform einsehen, deren Interface sich in gewohnte Arbeitsabläufe einreiht.

Azure setzt den Rahmen


Bei der Entwicklung der KI setzte Materials Services auf die Cloud-Computing-Plattform Microsoft Azure. Sie biete dem Team die Grundlage, um Alfreds Intelligenz zu realisieren. Basis dafür seien selbstlernende Algorithmen, die Informationen analysieren und zuordnen können. Über Power BI werden die Erkenntnisse aus den Daten gesammelt, aufbereitet und visualisiert.

„Wir haben den Markt lange beobachtet, um die für uns passende Technologie zu finden. Mit Microsoft haben wir den idealen Partner gefunden, denn Azure bietet uns eine weltweit verfügbare, hochsichere Infrastruktur mit innovativen Daten-, KI- und IoT-Diensten. Zudem können wir die Lösung nahtlos in unsere eigene IT-Infrastruktur integrieren“, so Sebastian Smerat, Head of Data Analytics bei Materials Services und Projektleiter für Alfred.

Bildquelle: Thyssenkrupp Materials Services

]]>
IT-Director Startseite it-zoom Business Intelligence / Big Data
news-23112 Wed, 12 Jun 2019 16:50:25 +0200 Effektive Datensicherheit erfordert Transparenz http://www.it-zoom.de/it-director/e/effektive-datensicherheit-erfordert-transparenz-23112/ Man kann nur schützen, was man sieht und nur auf Probleme reagieren, die man zuvor als solche erkannt hat. So einfach das auch klingt, ist es in Unternehmen vor allem hinsichtlich der Cybersicherheit noch lange nicht gelebte Realität. Doch woran liegt das? Es ist zum einen sicherlich der Komplexität der modernen Arbeitsinfrastruktur geschuldet: aktuelle Trends wie die Digitale Transformation, Cloud-Migration und infolgedessen zunehmend hybride Infrastrukturen machen den Systemadministratoren und IT-Verantwortlichen das Leben nicht gerade einfacher. Zum anderen erwarten die Mitarbeiter heute, jederzeit, von überall und mit dem Endgerät ihrer Wahl Zugriff auf die Unternehmensdaten zu haben. Angesichts des viel zitierten Fachkräftemangels können sich agile Unternehmen dieser Anspruchshaltung der Mitarbeiter nur schwer verweigern. Aus dieser Gemengelage entsteht jedoch ein Problem in der Datentransparenz, was vor allem die Sicherheitsteams vor neue Herausforderungen stellt.

Denn je mehr Mitarbeiter in verschiedenen Umgebungen arbeiten, umso schwerer erkennen Sicherheitsverantwortliche, wo kritische Daten eigentlich liegen – in Public und Private Clouds, auf Notebooks, Tablets oder Smartphones. Diese mangelnde Transparenz macht es nahezu unmöglich, Datenverluste zu verhindern. Viele Unternehmen treten dem mit verschärften Regeln entgegen, indem sie bestimmen, welche Geräte und Services ihre Mitarbeiter nutzen dürfen. Dabei blockieren sie bestimmte Dienste und Zugänge und damit auch die für funktionierende Prozesse notwendige Zusammenarbeit. Dennoch finden die Mitarbeiter oft genug Wege, diese Vorschriften zu umgehen. Im Rahmen einer aktuellen Studie von Code42 gaben 41 Prozent der Befragten an, nicht genehmigte Software auf ihre Geräte zu installieren. Die Gründe, die in diesem Zusammenhang genannt werden, reichen von Bequemlichkeit, persönlichen Erfahrungswerten bis hin zu verbesserter Effizienz. Damit ist klar, dass das gezielte Unterlaufen der einschlägigen Sicherheitsvorschriften meist nicht aus böswilligen Motiven geschieht. Entsprechend sollten die IT-Teams also versuchen, ihren Kollegen produktives Arbeiten nach ihren Bedürfnissen zu ermöglichen und gleichzeitig dafür sorgen, dass das geistige Eigentum der Firma sicher ist.

Sichere Firmenlizenzen erwerben

Ein möglicher Weg für Unternehmen, beide Anliegen unter einen Hut zu bringen, besteht darin, Mitarbeiter gar nicht erst davon abzuhalten, Cloud-Lösungen oder fremde Dienste zu nutzen. Dabei sollte aber ein weiterer wichtiger Schritt folgen: Denn es muss natürlich sichergestellt sein, dass die Sicherheitsverantwortlichen jederzeit nachvollziehen können, wo sich die Daten in- und außerhalb des Firmennetzwerks befinden und was mit ihnen geschieht. Das gelingt mittels Investition in proaktive Monitoring-Technologien, die Inhalte an verschiedenen Orten sichtbar machen. So lässt sich erkennen, welche „Fremdanwendungen“ sich der größten Beliebtheit erfreuen und folglich am häufigsten genutzt werden und anschließend die sichere Firmenlizenz dafür erwerben. Das steigert die Transparenz der eingesetzten Programme und verringert das Risiko eines Datenverlusts. Darüber hinaus arbeiten Angestellte so produktiv und kollaborativ wie sie es selbst möchten.

Die Datentransparenz auf lange Sicht zu erhalten, ist in Zeiten von dynamischen IT-Umgebungen eine große Herausforderung. Sich ständig ändernde Vorlieben der Nutzer, Fusionen und Übernahmen machen es für IT-Teams immer schwieriger den Überblick über Informationen und Anwendungen zu behalten. Man kann sich dies leicht anhand eines fiktiven Unternehmens vorstellen: Als Collaboration-Plattform setzt dieses Microsoft Office 365 und Onedrive ein. Die Plattform wird gut angenommen und genutzt, und so liegen hier mehr als drei Millionen Dateiversionen. Und dann wird im Zuge des Geschäftsausbaus eine Firma mit einigen hundert Mitarbeitern akquiriert. Die allerdings nutzt Google Drive als Collaboration-Plattform. Noch während die Diskussion im Gange ist, welche Plattform nun als Standard genutzt werden soll, implementiert die IT in diesem Beispiel den Messenger-Dienst Slack und schafft damit ein neues Problem: Denn was die Datenbestände angeht, ist Slack um einiges unstrukturierter als Collaboration-Services wie Google Drive oder Onedrive – einfach, weil die Daten via Slack so einfach über Sofortnachrichten ausgetauscht werden können.

In diesem fiktiven Unternehmen wäre nun die beste Lösung, ein Tool einzusetzen, das umfangreiche Visibilität hinsichtlich der unterschiedlichen cloud-basierten Collaboration-Plattformen bietet, Slack eingeschlossen. Damit wäre sichergestellt, dass jederzeit nachverfolgt werden kann, wie und wohin die Dateien innerhalb der IT-Umgebung bewegt werden. Mit dieser Form der Transparenz spricht dann auch nichts mehr dagegen, dass zunächst jeder erst einmal mit der Plattform weiterarbeitet, die er gewohnt ist. Außerdem entfällt die Notwendigkeit, sich unter Zeitdruck für eine Plattform zu entscheiden – diese Entscheidung kann, ohne dass es Einbußen in puncto Sicherheit gibt, auf einen späteren Zeitpunkt verschoben werden.

Struktur für strukturlose Umgebungen

Unstrukturierte Daten sind auch in Organisationen, die sich nicht gerade mitten in einem Akquisitionsprozess befinden, ein problematisches Thema. Obwohl Ordnerstrukturen oder Anwendungen meist festen Vorgaben unterliegen, sieht es in der Realität oft anders aus: Mitarbeiter legen und teilen ihre Dateien so, wie es für sie am einfachsten ist. Eine Mehrheit der Inhalte liegt unstrukturiert auf Servern, Desktops oder in einer Cloud und Nutzer teilen sie über alle möglichen Kanäle. Sie zu verwalten wird mit der täglich steigenden Zahl an Informationen immer schwieriger. Ein Grund mehr, Tools einzusetzen, die eine hohe Transparenz ermöglichen und so den Datenschutz erleichtern.

Es ist von daher unabdingbar, dass Unternehmen sich eine umfassende Einsicht in ihre Datenbestände verschaffen: Das bedeutet, Veränderungen über die gesamte IT Infrastruktur hinweg kontinuierlich zu überwachen und jede Art von Bedrohung und Aktivität über Endpunkte und Cloud-Services hinweg zeitnah zu untersuchen. Darüber hinaus müssen Unternehmen in der Lage sein, ihre Dateien so lange revisionssicher aufzubewahren, wie es für die Durchführung von Sicherheitsüberprüfungen und die Einhaltung von Vorschriften zur Datenhaltung erforderlich ist. Ein weiteres wichtiges Feature ist die Fähigkeit, Dateien sofort wiederherzustellen, wenn ein Datenverstoß eintritt – das kann von einer Datei, die versehentlich beschädigt wurde, bis hin zu einem verlorenen Laptop oder einem versuchten Ransomware-Angriff reichen.

In den kommenden Jahren werden die schieren Datenmengen, die Anzahl der Cloud-Dienste aber auch der Regulierungsvorschriften bezüglich der Datenverwaltung zweifellos exponentiell ansteigen. Von den Risiken, die von Cyberkriminellen ausgehen, ganz zu schweigen. Ein Grund mehr für Unternehmen, solche ganzheitlichen Datenschutzpraktiken und -technologien auch tatsächlich proaktiv einzuführen, und nicht zu warten, bis ein massiver Datenverlust eingetreten ist.

Datentransparenz ist ein grundlegender Baustein dafür, den Benutzern Zugriff auf die Anwendungen und Geräte zu gewähren, die sie verwenden möchten – und zwar auf sichere und regelkonforme Weise. Mit solchen Technologien besteht keinerlei Anlass mehr, Dienste oder Devices zu fürchten, die die Mitarbeiter nutzen oder verwenden möchten. Vielmehr sorgen Tools für eine umfassende Datentransparenz dafür, dass sich die Mitarbeiter verstanden und angemessen unterstützt fühlen und die Datenbestände im Unternehmen dabei sicher bleiben. Denn – um wieder an den Anfang zurück zu kehren – schützen lässt sich schließlich immer nur das, was man kennt.

Bildquelle: iStock/Getty Images Plus

]]>
IT-Director Netz- und Systemmanagement
news-23110 Wed, 12 Jun 2019 16:17:22 +0200 „Angst, die Kontrolle zu verlieren“ http://www.it-zoom.de/it-director/e/angst-die-kontrolle-zu-verlieren-23110/ Im Interview erläutert Michael Mors, General Manager Central Europe bei Box, welche Herausforderungen digitaler Unterricht bzw. ein digitales Studium mit sich bringen, Dokumente in der Cloud abgelegt oder über diese ausgetauscht werden. IT-DIRECTOR: Herr Mors, inwieweit ist die digitale Transformation an deutschen (Hoch-)Schulen bereits vorangeschritten?
M. Mors:
Laut einer Studie der Expertenkommission für Forschung und Innovation (EFI) hat lediglich die Hälfte aller deutschen Hochschulen eine Digitalisierungsstrategie oder arbeitet daran. Die Studie zeigt außerdem, dass nur jede fünfte Universität den Stand der Digitalisierung an der eigenen Institution hoch einschätzt. Vor allem im Bereich der Verwaltung hinkt die deutsche Hochschullandschaft der Digitalisierung hinterher. Während Studenten heutzutage ein Konto eröffnen, shoppen und Fachbücher ausleihen, ohne das Haus zu verlassen, ist bei fast 60 Prozent der Universitäten der Immatrikulationsprozess noch teilweise analog. Auch die Bewerbung auf einen Studienplatz ist bei nur 56 Prozent der Hochschulen online möglich. Immerhin sind die Prüfungs- und Notenbescheide schon bei 66 Prozent vollständig digitalisiert. Im Bereich der nicht-studiumsbezogenen Verwaltung allerdings laufen sehr viele Prozesse noch analog. So können bei den meisten Hochschulen weder Urlaubsanträge, Reisekostenabrechnungen, Bewerbungen oder Rechnungsarbeiten digital abgebildet werden.

IT-DIRECTOR: Warum scheint hier die „Digitalisierung“ oft noch ein Fremdwort zu sein und die Cloud-Nutzung mit Skepsis betrachtet zu werden? Wer oder was sind die bremsenden Faktoren?
M. Mors:
Tatsächlich bemessen die meisten Hochschulen der Digitalisierung einen sehr hohen Stellenwert zu. Leider wird sie aber von veralteten und fragmentierten IT-Strukturen und mangelnden Fachkräften aufgehalten. Durch fehlende Grundfinanzierung und eine Struktur, die hauptsächlich durch zeitlich begrenzte Projektmittel getragen wird, haben sich bei vielen Universitäten Parallelstrukturen oder Insellösungen eingeschlichen. Diese Form der Schatten-IT führt oft zu unübersichtlichen Sicherheitslücken und auch die Einhaltung von Datenschutzregelungen sind in diesem Kontext schwierig zu kontrollieren. Zusätzlich leidet auch die Hochschullandschaft unter dem IT-Fachkräftemangel. Tatsächlich sind die Universitäten davon noch heftiger betroffen als Unternehmen, da festgelegte Entgeltordnungen der Länder die IT-Talente nicht an den Hochschulen halten können. Vor allem an wirtschaftsstarken Standorten ist die Konkurrenz der besser zahlenden Unternehmen zu groß.

IT-DIRECTOR: Welche Nachteile werden der Cloud oftmals zugeschrieben?
M. Mors:
Viele Menschen gehen davon aus, dass der Cloud-Anbieter, Geheimdienste oder andere auf die in der Cloud gespeicherten Daten zugreifen können und „mitlesen“. Gerade in Deutschland ist die Angst, die Kontrolle über die eigenen Daten zu verlieren, sehr hoch. Daher spielen Fragen rund um den genauen Speicherort eine sehr große Rolle. Der Umzug in die Cloud bietet oft Zugang zu besseren und vor allem einheitlichen Sicherheits- und Compliance-Strukturen. So können nicht nur bestehende Datenschutzbestimmungen wie die DSGVO besser eingehalten werden, sondern Studenten, Professoren und Angestellte können weltweit auf ihre Dokumente zugreifen und daran arbeiten.

IT-DIRECTOR: Welche Stolpersteine und Herausforderungen gibt es tatsächlich, wenn Unterricht oder gar ein komplettes Studium digital erfolgt, Dokumente in der Cloud abgelegt oder über diese ausgetauscht werden?
M. Mors:
Eine Herausforderung bei einem digitalen Studium oder Online-Kursen ist sicherlich die persönliche Interaktion, die sonst in Seminar- oder Klassenräumen stattfindet. Gute Online-Studienangebote enthalten heutzutage allerdings Kollaborations-Tools, die die Zusammenarbeit und die Interaktion erleichtern. In der Cloud können Präsentationen z.B. gemeinsam erstellt und bearbeitet werden, egal von wo. Auf diese Weise können Studenten überall auf der Welt zusammenarbeiten und gemeinsame Projekte erstellen. Zudem hören wir immer wieder Bedenken zu sensiblen Dokumenten – dass beispielsweise Zeugnisse und Testergebnisse kopiert und gefälscht werden könnten. Mit den richtigen Sicherheitsanwendungen kann illegalen Kopien jedoch leicht vorgebeugt werden: Neben der Verschlüsselung von Daten und eingeschränkten Zugriffsrechten können Studenten und Professoren z.B. auch mit digitalen Wasserzeichen und anderen Sicherheits-Tools arbeiten.

IT-DIRECTOR: Inwieweit fordern die Schüler und Studenten selbst eine modernere Unterrichtsgestaltung bzw. entsprechende Tools?
M. Mors:
Ich bin natürlich kein Professor. Aber nach meiner Erfahrung – und diese beschränkt sich nicht nur auf akademische Kreise, sondern auch auf die Arbeitswelt – kann das Digital-First-Mindset der sogenannten Millennials nicht aufgehalten werden. Und wir sollten auch nicht versuchen, es zu stoppen, da diese Herangehensweise die Art und Weise, wie Dinge erledigt werden, nachhaltig verändert und vor allem auch verbessert. Die heutigen Schüler und Studenten sind mit dem Internet aufgewachsen und sind daran gewöhnt, jederzeit und überall online zu sein. Sie sehen das enorme Potential digitaler Lösungen auf dem Weg zum Erfolg und wollen diese nutzen, sei es am Arbeitsplatz, an der Uni oder zu Hause. Wir sollten ihnen die Möglichkeit geben, dieses Potential auszuschöpfen.

IT-DIRECTOR: Was müssen die Schulen und Universitäten hierzulande zeitnah tun, um nicht den Anschluss an die digitale Wirtschaft zu verlieren?
M. Mors:
Die Verantwortung liegt tatsächlich nicht nur bei den Universitäten, da diese sich in den meisten Fällen gerne digitaler aufstellen wollen. Es liegt vor allem an mangelnden Ressourcen. Daher ist hier auch die Politik gefragt. Die zunehmende Abhängigkeit von Drittmitteln ist nicht nur in der Bewerbungsphase zeitaufwendig, sondern erschwert auch die langfristige Planung. Gleichzeitig sollten Universitäten an einer besseren Vernetzung miteinander arbeiten, um z.B. beim Einkauf von Lizenzen oder Software-Produkten gemeinsam bessere Konditionen verhandeln können.

Bildquelle: Box

]]>
Lea Sommerhäuser IT-Director Startseite it-zoom Cloud
news-23107 Wed, 12 Jun 2019 11:43:42 +0200 Verschlüsselung von Messenger- und Mail-Diensten in Gefahr http://www.it-zoom.de/it-director/e/verschluesselung-von-messenger-und-mail-diensten-in-gefahr-23107/ Müssen Anbieter von Mail- und Messenger-Diensten zukünftig Schnittstellen für Sicherheitsbehörden einrichten? Darüber könnte am Donnerstag ein Urteil des Europäischen Gerichtshofs entscheiden. Der Europäische Gerichtshof in Luxemburg soll die Frage beantworten, ob Gmail ein Telekommunikationsdienst im Sinne des deutschen Telekommunikationsgesetzes ist. Diese Auslegung will seit Jahren die Bundesnetzagentur durchsetzen, Google wehrt sich dagegen. Die Netzagentur will bereits seit 2012 erreichen, dass Google Gmail bei ihr als Telekommunikationsdienst anmeldet. Damit einher gingen Verpflichtungen beim Datenschutz und der „öffentlichen Sicherheit“ - sprich: Schnittstellen für den Datenzugriff von Ermittlungsbehörden in gesetzlich geregelten Fällen.

Ausgangspunkt für die Entscheidung ist die Definition eines Telekommunikationsdienstes in einer EU-Richtlinie und dem darauf basierenden deutschen Gesetz. Demnach sind Telekommunikationsdienste in der Regel gegen Entgelt erbrachte Dienste, die ganz oder überwiegend in der Übertragung von Signalen über Telekommunikationsnetze bestehen. Google argumentiert, man biete den Kunden keine Internetzugänge an, betreibe die Netze nicht, vermittele den Nutzern keinen Zugang dazu und kontrolliere nicht die Datenübertragung.

Die EU-Richter wurden vom Oberverwaltungsgericht Nordrhein-Westfalen eingeschaltet, um zu klären, ob auch internetbasierte E-Mail-Dienste, die über das offene Internet laufen, als Übertragung von Signalen über elektronische Kommunikationsnetze von der Richtlinie erfasst werden. Außerdem soll die Frage beantwortet werden, wie das Merkmal „gewöhnlich gegen Entgelt erbracht“ auszulegen ist. Gmail ist in der Grundversion kostenlos.

In erster Instanz hatte das Verwaltungsgericht Köln die Klage von Google gegen die Bescheide der Netzagentur abgewiesen. Im Berufungsverfahren rief das OVG im vergangenen Jahr das EuGH an.

Grundsätzliche Frage nach Regulierung

Netzagentur-Chef Jochen Homann hatte bereits deutlich gemacht, dass es hier nicht nur um Gmail, sondern auch die grundsätzliche Regulierung von Webdiensten geht. Die Abgrenzung zwischen traditionellen Telekommunikationsdiensten verschwimme zunehmend, sagte Homann etwa im vergangenen Jahr der „Financial Times“ und nannte dabei neben Gmail explizit den Chatdienst Whatsapp. „Viele Nutzer können überhaupt keinen Unterschied erkennen.“ Es könne nicht richtig sein, dass Anbieter traditioneller Telekom-Dienste Regulierungsvorgaben einhalten müssten, während das für Firmen, die vergleichbare Dienste über das Web bereitstellen, nicht gelte.

Whatsapp wird von vielen Nutzern als SMS-Alternative genutzt. Der zu Facebook gehörende Dienst ist verschlüsselt und nicht für die Sicherheitsbehörden zugänglich, da selbst Whatsapp den Inhalt nicht sieht. Auf herkömmliche SMS haben die Behörden mit richterlichem Beschluss dagegen einen Zugriff. Die Telekommunikations-Anbieter mussten dafür Schnittstellen in ihrer Infrastruktur einrichten.

dpa/pf

]]>
IT-Director Startseite it-zoom Sicherheit
news-23104 Wed, 12 Jun 2019 10:18:18 +0200 Kommunale IT im Fadenkreuz der Cyberangreifer http://www.it-zoom.de/it-director/e/kommunale-it-im-fadenkreuz-der-cyberangreifer-23104/ Klassische Sicherheitslösungen sind beim Schutz vor Angriffen mit unbekanntem Schadcode limitiert. Die Isolation von Gefahren am Endgerät auf Basis von Virtualisierung lautet deshalb ein neuer Ansatz. Er lässt Angriffe auf Hardware, Betriebssystem und Applikationen ins Leere laufen und verhindert damit auch Zugriffe auf Behördennetze, wie Jochen Koehler, Regional VP Sales Europe bei Bromium, im Interview erläutert. IT-DIRECTOR: Herr Koehler, welchen Gefahren ist eine kommunale IT grundsätzlich ausgesetzt? Wie sieht hier die aktuelle Bedrohungslage aus?
J. Koehler:
Die zentralen Gefahren für die kommunale IT bestehen in der E-Mail-Kommunikation, im Zugriff auf Webseiten und im Downloaden von Dokumenten. Und dabei besteht im Vergleich zu Unternehmen ein gravierender Unterschied: Restriktive Sicherheitsvorgaben wie auf Unternehmensseite – etwa Beschränkungen beim Webseitenzugang oder beim Öffnen von E-Mail-Attachments – sind im Behördenumfeld nicht ohne Weiteres umsetzbar, schließlich kann jede E-Mail ein wichtiges Anliegen einer Bürgerin oder eines Bürgers beinhalten. Zur aktuellen Bedrohungslage ist zu sagen: Wie auch Unternehmen geraten Behörden zunehmend ins Visier von Cyberangreifern. Vor allem Phishing-Mails kursieren in immer größerem Umfang. Auch Social Engineering liegt momentan im Trend und stellt eine große Gefahr für jedes Sicherheitssystem dar. Dass eine verschärfte Bedrohungslage besteht, hat auch BSI-Präsident Arne Schönbohm bei der Eröffnung des Deutschen Sicherheitskongresses Ende Mai 2019 bestätigt. So sei die Anzahl an Cyberattacken auf staatliche und zivile Ziele in jüngster Vergangenheit stark gestiegen.

IT-DIRECTOR: Was sind die Schwachstellen herkömmlicher Sicherheitslösungen wie Antiviren-Programme und Firewalls? Warum sind sie nicht in der Lage, der Gefahren Herr zu werden?
J. Koehler:
Herkömmliche Sicherheitslösungen wie Next-Generation-Firewalls, Intrusion-Detection- und Prevention-Systeme oder Antiviren-Tools sind auf die Detektion von Cyberattacken ausgerichtet. Hierzu werden u.a. Signaturen, Verhaltensanalysen oder heuristische Verfahren genutzt. Ziel ist, Angriffe zu erkennen und zu blockieren, um einen Zugriff auf das Behördennetz zu verhindern. Die Abhängigkeit von der Erkennung ist der größte Nachteil dieser Lösungen, denn einen zuverlässigen Schutz vor Cyberbedrohungen können solche Sicherheitslösungen nur bieten, wenn sie Schädlinge zu 100 Prozent aufspüren. Das ist aber aufgrund sich ständig ändernder und neuer Schadsoftware reine Utopie.

IT-DIRECTOR: Was muss eine Client-Sicherheitslösung (z.B. für Stadtverwaltungen) anno 2019 grundsätzlich leisten können?
J. Koehler:
Wenn keine zuverlässige Erkennung möglich ist, muss zwangsläufig eine andere Lösungsoption gewählt werden – und zwar eine, die nicht auf Detektion, sondern auf Isolation setzt. Das technische Hilfsmittel der Wahl ist dabei die Virtualisierung. Darauf basiert beispielsweise auch unsere Lösung „Secure Platform“. Sie erzeugt hardware-isolierte Micro-VMs für alle riskanten Anwenderaktivitäten mit Daten aus fremden Quellen, d.h., sie isoliert z.B. das Aufrufen einer Webseite, das Downloaden eines Dokuments, das Öffnen eines E-Mail-Anhangs oder den Zugriff auf die Daten eines portablen Speichermediums. Ein Angriff durch ein Schadprogramm bleibt dadurch immer auf die jeweilige Micro-VM beschränkt, die zudem nach Beendigung einer Aktivität wieder automatisch gelöscht wird. Eine Kompromittierung des Endgeräts und nachfolgend des Behördennetzes über einen dieser häufig genutzten Angriffspfade ist damit nahezu ausgeschlossen.

IT-DIRECTOR: Welche Rolle spielt hier Künstliche Intelligenz (KI), was kann sie ermöglichen und wo liegen wiederum ihre Grenzen?
J. Koehler:
Richtig ist, dass Security-Unternehmen derzeit stark mit dem Begriff KI werben. KI-gestützte Sicherheitssysteme, die lernbasierte Verfahren, Mustererkennungen oder statistische Prognosemodelle nutzen, bieten einen zentralen Vorteil: Sie können gigantische Datenbanken durchforsten und nach immer feineren Angriffsmustern oder Anomalien suchen, um Gefahren völlig selbstständig abzuwehren. Allerdings ist nicht garantiert, dass sie alle Risiken auch identifizieren. KI-gestützte Sicherheitssysteme haben gewiss ihre Berechtigung, gerade im Netzwerkbereich, in dem es um die Analyse großer Datenmengen geht, auf Client-Ebene aber ist ein Einsatz weniger sinnvoll.

IT-DIRECTOR: Welche Trends sind für den IT-Security-Markt zu erwarten?
J. Koehler:
Generell gehen wir davon aus, dass im Bereich Sicherheit die Virtualisierung das beherrschende Thema der nahen Zukunft sein wird. Auch wir werden den eingeschlagenen Virtualisierungsweg beibehalten. Ziel ist die „Isolation von kompletten Zugriffswegen mittels Virtualisierung“. Das heißt, wir entwickeln eine Lösung, mit der Zugriffe auf kritische Systeme und Applikationen wie Domain Controller, Datenbanken oder ERP-Systeme auf Basis einer hardware-isolierten Virtualisierung geschützt werden. Dieser Schutz besteht auch dann, wenn der Zugriff von einem kompromittierten Rechner aus erfolgt, auf dem etwa ein Keylogger installiert ist. Technisches Fundament dafür ist ein hochsicherer Tunnel, der abseits des eigentlichen Betriebssystems realisiert wird, z.B. mittels einer RDP-, also Remote-Desktop-Protocol-, oder ICA-, also Independent-Computing-Architecture-Verbindung.

Bildquelle: Bromium

]]>
Lea Sommerhäuser IT-Director Startseite it-zoom Sicherheit
news-23103 Wed, 12 Jun 2019 10:08:59 +0200 Auf digitaler Transformationsreise http://www.it-zoom.de/it-director/e/auf-digitaler-transformationsreise-23103/ Die Lufthansa-Technik-Gruppe, Anbieter von Komplett-Services an flugzeugtechnischen Dienstleistungen, hat die Product-Lifecycle-Management-Lösung (PLM) Windchill sowie die Industrial-IoT-Plattform (IIoT) Thingworx von PTC als Kerntechnologien zur digitalen Transformation der Produktentwicklungs- und Konstruktionsprozesse ausgewählt. Windchill soll als technisches Rückgrat dienen, damit die Bereiche Forschung und Entwicklung sowie Fertigung simultan arbeiten und die Zusammenarbeit sowohl intern als auch zwischen den zahlreichen Lieferanten intensivieren können. Die sichere Datenablage wird auch dazu beitragen, den Schutz des geistigen Eigentums der Lufthansa Technik in der gesamten globalen Lieferkette zu gewährleisten. Thingworx wird die Gruppe bei der Überwachung ihrer Betriebsstätten unterstützen, die Automatisierung vorantreiben und die datengesteuerte Entscheidungsfindung erhöhen. Zusammen sollen beide Lösungen einen Anstieg des Digitalisierungsgrades innerhalb der Konzernprozesse ermöglichen, die Schnittstellen zu Kunden und Lieferanten verbessern und durch neue innovative digitale Geschäftsmodelle zur Generierung von Umsatzströmen beitragen.

„Lufthansa Technik steht für modernste Arbeitsausführung und höchste Qualität. Die Größe unserer Organisation in Verbindung mit der Komplexität der Prozesse und Projekte, die wir vorantreiben, hat den entscheidenden Schritt zur ganzheitlichen digitalen Transformation unerlässlich gemacht“, sagt Dr. Severin S. Todt, Senior Director IT Completion and Design Solutions, Lufthansa Technik AG. Das Unternehmen habe vor der Entscheidung für einen konkreten Anbieter eine umfassende Bewertung wettbewerbsfähiger PLM- und IoT-Systeme durchgeführt. Man habe sich für die PTC-Technologie aufgrund ihrer Architektur und der nahtlosen Integration von Windchill und Thingworx entschieden.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Internet of Things (IoT)
news-23095 Tue, 11 Jun 2019 15:52:25 +0200 Zwei neue Führungskräfte für Noris Network http://www.it-zoom.de/it-director/e/zwei-neue-fuehrungskraefte-fuer-noris-network-23095/ Der IT-Dienstleister und Rechenzentrumsbetreiber Noris Network hat seinen bisherigen COO Jürgen Städing verloren. Mit Florian Sippel (36) und Stefan Keller (54) rücken allerdings zwei erfahrene Führungskräfte nach. Jürgen Städing, seit Ende 2017 im Vorstand der Noris Network AG als COO tätig, hat das Unternehmen mit Wirkung zum 1. Juni 2019 verlassen. Der Rückzug erfolgt einvernehmlich und aus persönlichen Gründen, da sich Städing zukünftig einer neuen beruflichen Herausforderung in einem anderen Umfeld widmen möchte. Bis zum Jahresende wird er dem Unternehmen beratend zur Seite stehen.

Für die Zukunft richtet sich die Firma nun neu aus und beruft Florian Sippel, bisher Executive Vice President Datacenter, als CTO in den Vorstand. Gleichzeitig mit ihm rückt Stefan Keller, verantwortlich für Marketing & Sales, als CMO in den Vorstand auf. Die beiden Manager sind bereits langjährig im Unternehmen tätig.

Bildquelle: Noris Network

]]>
IT-Director Startseite it-zoom Leute
news-23094 Tue, 11 Jun 2019 15:21:52 +0200 Künstliche Intelligenz im Rampenlicht http://www.it-zoom.de/it-director/e/kuenstliche-intelligenz-im-rampenlicht-23094/ Während die Bundesregierung die 2018 beschlossenen KI-Investitionen von drei Mrd. Euro bis 2025 kürzlich erst auf 50 Mio. Euro für 2019 herunterbrach, bauen IT-Anbieter ihr Engagement in Sachen KI weiter aus und investieren fleißig in neue Kompetenzzentren. Kaum eine Woche vergeht, in der die ITK-Branche nicht mit neuen KI-Initiativen oder breit angelegten Forschungsvorhaben aufwartet. Erst Ende April 2019 gaben IBM und Fortiss, das Forschungsinstitut des Freistaats Bayern für software-intensive Systeme und Services, die Gründung eines Zentrums für KI-Forschung in München bekannt. Beide Partner betonen, dass Wirtschaft und Gesellschaft KI-Technologien benötigen, die in unsicheren, komplexen Umgebungen und Situationen zeitnah sichere Entscheidungen treffen. Dabei sollten die von Maschinen, Automaten oder Fahrzeugen getroffenen Entscheidungen nicht nur nachvollziehbar und erklärbar, sondern auch gegen fehlerhafte Eingaben und gezielte Angriffe gefeit sein. Zudem müssen KI-Systeme immer größere Datenmengen verarbeiten – ohne Abstriche bei Vertraulichkeit und Privatsphäre machen zu müssen.

Vor diesem Hintergrund werden in der gemein­samen Einrichtung mehr als 50 Wissenschaftler von IBM und Fortiss KI-gestützte Software-Lösungen erforschen und entwickeln. Abgezielt wird darauf, Potentiale der KI für geschäftskritische Internet-of-Things-Anwendungen zu erschließen. Im Fokus stehen dabei: KI-­gestützte Assistenzsysteme zur transparenten Ent­scheidungsunterstützung, Prototypisierung neuer digitalisierter Bürgerdienste sowie die verlässliche, sichere Steuerung autonom agierender Roboter, verteilter Produktionssysteme und kritischer Versorgungsinfrastrukturen wie beispielsweise Energie und Wasser.

Ebenfalls in München hat Microsoft bereits vor einiger Zeit sein nach Redmond (USA) und Shenzhen (China) weltweit drittes „IoT & AI Insider Lab“ eröffnet. Das Labor soll dabei Firmenkunden aus Europa, dem Mittleren Osten und Asien ein produktives Umfeld bieten, um IoT- und KI-Projekte effizient voranzutreiben. Generell bieten die Labs den Nutzern einen kostenlosen Zugang zur Cloud-Plattform Azure, den IoT- und KI-Diensten des Anbieters, zu Industrie-Hardware und zum Expertenwissen der Microsoft-Entwickler, Ingenieure und Datenspezialisten. „Mit dem Lab wollen wir IoT- und KI-Projekte von der Ideenfindung über die Prototypenentwicklung bis hin zur Markteinführung fördern.

Wir begleiten die Digitale Transformation unserer Kunden, indem wir sie nicht nur dabei unterstützen, ihre Produkte, Services und Geschäftsmodelle zu vernetzen, sondern auch mit Intelligenz anzureichern“, sagt Sabine Bendiek, Vorsitzende der Geschäftsführung bei Microsoft Deutschland.

Die hohe Bedeutung von KI für den Software-Anbieter unterstrich einmal mehr das im April in Berlin veranstaltete KI-Festival, zum dem illustre Gäste wie die Staatsministerin im Bundeskanzleramt und Beauftragte der Bundesregierung für Digitalisierung Dorothee Bär geladen waren. Neben bereits bekannten KI-Szenarien etwa aus dem Personalmanagement oder der Diagnostik im Gesundheitswesen ging es in der Hauptstadt um nichts geringeres als das Überleben der Menschheit. Denn unter dem Programmpunkt „Erde an KI: Kannst du kurz die Welt retten?“ drehte sich alles um Klimawandel, Artensterben und Umweltverschmutzung. „Die Menschheit steht vor großen Herausforderungen. Wir sprechen darüber, wie wir KI nutzen können, um unsere Umwelt besser zu verstehen und zu schützen. Um genug Essen für alle zu produzieren, ohne unseren Planeten zu zerstören, um Lebewesen wie Bienen und Elefanten zu retten oder die Erderwärmung zu stoppen“, betont Microsoft.

Intelligente Daten für autonome Fahrzeuge


Eine weitere KI-Initiative mit Schwerpunkt auf autonomen Fahrzeugen findet sich im Nachbarland Österreich. Seit Mitte Februar 2019 fördert Here, ein Anbieter von digitalen Karten und ortsbezogenen Plattformdiensten, die Gründung eines KI-Forschungsinstituts in Wien über fünf Jahre mit über 25 Millionen Euro. Eigenen Angaben zufolge sei das „Institute for Advanced Research in Artificial Intelligence“ (IARAI) das erste globale Forschungsinstitut für maschinelles Lernen, das mit ortsbezogenen Daten im industriellen Maßstab arbeitet.

Als unabhängige Institution wird das IARAI im Bereich des maschinellen Lernens forschen, um die für die Entwicklung autonomer Welten ortsbezogene Intelligenz zu steigern. Dazu gehören beispielsweise eine verbesserte Umgebungswahrnehmung autonomer Fahrzeuge und genauere, sich selbst korrigierende Karten, bessere Modelle für Verkehrsprognosen, ein effizienteres Flottenmanagement sowie optimierte städtische Infrastrukturen. Here will eng mit dem Institut zusammenarbeiten, es mit seiner Expertise unterstützen und ihm seine Datensätze zur Verfügung stellen.

Nicht zuletzt machte der IT-Spezialist Atos mit der Eröffnung eines KI-Labors in Frankreich von sich reden. Die Etablierung des Zentrums ist Teil der globalen Partnerschaft zwischen Atos und Google Cloud. Es soll künftig Kunden, Geschäftspartner und öffentliche Einrichtungen bei der Identifizierung von Anwendungsfällen unterstützen, in deren Rahmen KI innovative und effiziente Lösungen beisteuern kann.

Kommt KI von der Stange?


Die Ziele solcher Initiativen sind schnell auf einen finanziellen Nenner gebracht, denn KI gilt als lukrative Querschnitts- und Schlüsseltechnologie. Auf lange Sicht wird es wohl kaum noch Produkte oder Services geben, die nicht in irgendeiner Form mit Künstlicher Intelligenz oder deren Spielarten in Verbindung stehen. Der zunehmenden Bedeutung von Künstlicher Intelligenz für das eigene Geschäftsmodell sind sich die meisten Verantwortlichen hierzulande bewusst. Eine vergangenen März veröffentlichte Studie von Deloitte kam zu dem Ergebnis, dass sich Deutschlands Firmen bereits mit Künstlicher Intelligenz beschäftigen und bei gewissen KI-Technologien im internationalen Vergleich auch vorne mit dabei sind.

„Es ist erfreulich, dass es bei der Anwendung von KI-Technologien in deutschen Unternehmen keine generellen Lücken gibt“, sagt Milan Sallaba, Partner bei Deloitte. „Alle Varianten Künstlicher Intelligenz kommen zum Einsatz. Auffällig ist allerdings die starke Verbreitung von Process Robotics in Deutschland. 67 Prozent der befragten deutschen Unternehmen nutzen robotergesteuerte Prozessautomatisierung.“ In den internationalen Vergleichsmärkten USA, China, Großbritannien, Frankreich, Kanada und Australien setzen derzeit nur 49 Prozent diese Technologie ein. Bei keiner anderen KI-Variante weichen deutsche Unternehmen so stark vom internationalen Durchschnitt ab, so die Studie weiter.
Aufholbedarf gebe es im internationalen Vergleich allerdings beim Thema Strategie. So verfüge erst ein Viertel (26 Prozent) der befragten Unternehmen in Deutschland über eine umfassende, firmenweite KI-Strategie. In allen sechs Vergleichsmärkten sei man hingegen weiter: Im Durchschnitt haben dort bereits 35 Prozent der Unternehmen eine übergreifende KI-Strategie.

KI wird hierzulande überwiegend auf Abteilungsebene umgesetzt. Will Deutschland als KI-Anwendungsmarkt nicht abgehängt werden, gilt es laut den Marktforschern, diese Lücke schnellstmöglich zu schließen. Die Zurückhaltung bei der Entwicklung übergreifender KI-Strategien könnte auch auf das noch immer ausbaufähige Vertrauen deutscher Unternehmen in Künstliche Intelligenz zurückzuführen sein. „Intern werden KI-Initiativen häufig eher mit Sorge begleitet. Die Angst, falsche Entscheidungen basierend auf KI zu treffen, ist verhältnismäßig groß. 46 Prozent der deutschen Unternehmen haben entsprechende Bedenken geäußert“, heißt es in der Studie.

Abschließend zeigt die Umfrage auf, dass sich „KI as a service“ – oder salopp gesagt „KI-Lösungen von der Stange“ – bei hiesigen Unternehmen großer Beliebtheit erfreut und damit maßgeblich die Implementierungen prägt. Demgegenüber implementieren nur 15 der befragten Verantwortlichen KI hauptsächlich mit firmeneigenen Kräften.

Starkes Wachstum bei KI-Start-ups


Doch nicht nur etablierte Unternehmen beschäftigen sich mit den Chancen und Potentialen von Künstlicher Intelligenz. Laut UnternehmerTUM, europäisches Zentrum für Gründung und Innovation, wenden immer mehr junge deutsche Firmen KI in ihren Produkten und Services an. Als Grundlage für diese Aussage gilt die in regelmäßigen Abständen aktualisierte Landkarte. Diese beinhaltet die wichtigsten, von einer Jury ausgewählten KI-Start-ups in Deutschland, mit dem Ziel, relevante Entwicklungen aus dem Bereich KI zu dokumentieren. „Während 2018 132 junge Unternehmen KI in signifikantem Umfang einsetzten, sind es in diesem Jahr bereits 214, was einem Plus von 62 Prozent entspricht“, stellt Immanuel Schwall, Projektverantwortlicher der KI-Landkarte, fest. Dabei konzentrieren sich die Akteure zunehmend in den beiden KI-Hubs Berlin und München. Demgegenüber entstehen nur wenige KI-Start-ups in den klassischen Mittelstandsregionen wie Baden-Württemberg oder Nordrhein-Westfalen. „Seit 2009 wurden in Deutschland rund 1,2 Mrd. Euro in KI-Start-ups investiert“, so die Erhebung weiter. Im internationalen Vergleich fehle es jedoch weiterhin an Investitionen. So erhielt das chinesische Start-up Sense Time bereits allein für sich mehr als 2,2 Mrd. Euro von Investoren.

Dies ist ein Artikel aus unserer Print-Ausgabe 5/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Desweiteren lassen sich entsprechend der KI-Landkarte branchenspezifische Entwicklungen erkennen: Waren 2018 lediglich 3,8 Prozent aller KI-Start-ups dem Bereich Fertigung und Industrie zuzuordnen, sind es 2019 bereits 5,6 Prozent. Noch deutlicher ist die Entwicklung im Bereich Transport und Mobilität: Hier stieg der Anteil von 6,1 auf 9,3 Prozent. „Die Tatsache, dass sich Start-ups zunehmend auf deutsche Kernindustrien fokussieren, ist eine gute Nachricht“, sagt Dr. Andreas Liebl, Managing Director von AppliedAI. Denn Entwicklung sei eine Grundlage dafür, dass etablierte Unternehmen in dem Bereich international nicht den Anschluss verlieren.

Bildquelle: Getty Images/iStock

]]>
Ina Schlücker IT-Director Startseite it-zoom Business Intelligence / Big Data
news-23092 Tue, 11 Jun 2019 12:03:09 +0200 Neuer Geschäftsführer für MTI Technology http://www.it-zoom.de/it-director/e/neuer-geschaeftsfuehrer-fuer-mti-technology-23092/ MTI Technology hat Michael Babylon als neuen Geschäftsführer für die deutsche GmbH an Bord geholt. Er habe langjährige Vertriebserfahrung und eine grundlegende Technikexpertise, heißt es. Michael Babylon ist Mitglied des Executive-Teams und berichtet direkt an Scott Haddow, Chief Executive Officer von MTI Technology. Als Experte in den Bereichen Technologie und Vertrieb ist sein Ziel, das Wachstum voranzutreiben und das Portfolio noch stärker auf die Anforderungen des Marktes hin auszurichten. Dabei kommen Michael Babylon nicht nur seine langjährige Vertriebserfahrung zugute, sondern auch seine Technikexpertise, die er u.a. bei Unternehmen wie Nortel und in verschiedenen Systemhäusern sammeln konnte. 

Darüber hinaus bringt er aufgrund seiner langjährigen Zusammenarbeit Beziehungen zu den Geschäftspartnern von MTI und ein persönliches Netzwerk mit ein. Vor seinem Wechsel zu jenem Unternehmen war Michael Babylon u.a. für das Thema Security bei Euromicron Deutschland verantwortlich. Davor war der leidenschaftliche Sportler in leitenden Positionen national und international bei Herstellern, Systemhäusern und Start-ups im Silicon Valley tätig. Seine Schwerpunkte reichen neben der Strategie, Positionierung sowie Hard- und Software-Vertrieb von Managed Services und Datacenter-Lösungen über Telekommunikation und Netzwerke bis hin zu Security und IoT.

Bildquelle: MTI 

]]>
IT-Director Unternehmen Leute
news-23081 Sat, 08 Jun 2019 17:55:37 +0200 G20 legen KI-Prinzipien fest http://www.it-zoom.de/it-director/e/g20-legen-ki-prinzipien-fest-23081/ Die G20-Staaten haben sich bei einem Treffen im japanischen Tsukuba auf Prinzipien für den Einsatz von Künstlicher Intelligenz geeinigt. Wer KI (Künstliche Intelligenz) einsetze oder entwickele „sollte die Rechtsgrundsätze, Menschenrechte und demokratische Werte respektieren“, heißt es in einer am Samstag verabschiedeten gemeinsamen Erklärung bei einem Ministertreffen der G20-Staaten in der japanischen Forschungsstadt Tsukuba. Unklar war jedoch, ob es auch bei einem anderen Thema zum Abschluss des zweitägigen Ministertreffens eine gemeinsame Erklärung geben wird: dem Handel.

Das G20-Treffen in Tsukuba findet zu einer Zeit statt, da zwischen den USA und China ein Handelskrieg tobt. Angesichts dieser Problematik herrschte Skepsis in Delegationskreisen, inwieweit die Mitgliedsstaaten vor dem G20-Gipfel Ende des Monats im japanischen Osaka zusammenfinden können. Eines der strittigen Themen ist eine Reform der Welthandelsorganisation (WTO). Ob es an diesem Sonntag eine gemeinsame Erklärung des Handelsministerrats gibt, war ungewiss.

Leichter dagegen war das Thema digitale Wirtschaft. Um Vertrauen in KI-Technologien zu fördern und das volle Potenzial der Technologien auszuschöpfen, fühle sich die Staatengemeinschaft zu einem Umgang mit KI verpflichtet, bei dem der Mensch im Mittelpunkt stehe, hieß es.

KI-Systeme „sollten robust, gesichert und sicher“ während der gesamten Nutzungsdauer sein und dürften „keine unzumutbaren Sicherheitsrisiken“ darstellen, so ein weiteres der vereinbarten Prinzipien. Es war das erste Mal, dass sich die G20-Gemeinschaft mit diesem Thema befasste. Bei dem zweitägigen Treffen, an dem auch Bundeswirtschaftsminister Peter Altmaier (CDU) teilnimmt, geht es um Handel und digitale Wirtschaft. Japan warb dabei für einen weltweit freien Datenfluss. Die drittgrößte Volkswirtschaft der Welt ist Gastgeber des G20-Gipfels am 28. und 29. Juni in der Stadt Osaka.

dpa/pf

]]>
IT-Director Startseite it-zoom Unternehmen