IT-DIRECTOR https://www.it-zoom.de/it-director/news/ IT-DIRECTOR: Business-Magazin für IT-Manager und CIOs de ©2019 Alle Rechte bei MEDIENHAUS Verlag GmbH Mon, 22 Apr 2019 15:42:40 +0200 Mon, 22 Apr 2019 15:42:40 +0200 TYPO3 EXT:news news-22665 Sat, 20 Apr 2019 15:00:00 +0200 Rote Ampeln für DDoS-Attacken http://www.it-zoom.de/it-director/e/rote-ampeln-fuer-ddos-attacken-22665/ Die ATU Auto-Teile-Unger GmbH & Co. KG lässt ihre zentralen Webshops und alle IP-Zugänge im Rechenzentrum von einer speziellen Sicherheits-Software vor Distributed-Denial-of-Service-Attacken (DDoS) schützen. Die Kombination von Kfz-Meisterwerkstatt für alle Marken und Autofahrerfachmarkt kommt an: 1985 gegründet, erwirtschaftet das Unternehmen mittlerweile über 1 Mrd. Euro Umsatz. Was man auf den ersten Blick nicht vermuten mag: Auch die Webpräsenzen in der DACH-Region sind heute „für einen relevanten Umsatzanteil verantwortlich“, berichtet Adrian Runte, Leiter IT des Unternehmens mit Sitz in Weiden in der Oberpfalz. Der Ersatzteileversand und die Online-Terminvergabe bilden dabei die Säulen des Webgeschäfts und werden von den Kunden rund um die Uhr genutzt.

In Zeiten häufiger Distributed-Denial-of-Service-Attacken (DDoS), die auf die Überlastung von Online-Angeboten zielen, wollte auch ATU seine Internet-Präsenzen besser schützen. Nachdem Adrian Runte zum Kfz-Spezialisten gekommen war, ergaben erste Risikoanalysen einen Handlungsbedarf. Schon bei seinem vorherigen Arbeitgeber erfuhr er die negativen Folgen eines großen DDoS-Angriffs. Er hatte dort daraufhin einen umfänglichen DDoS-Schutz über DNS-Forwarding eingeführt.

DDoS-Angriffe gehören aktuell zum Weballtag. Die Attacken zielen auf die Überlastung von Webservern, Online-Services oder Netzwerken. Dabei attackiert ein Angreifer mit gekaperten Rechnern oder Servern zeitgleich im Verbund (Botnetz) ein Ziel. Dahinter steht die Absicht, Zugänge und Ressourcen (Firewall, Server) des Opfers zu überlasten, damit sich Webseiten, Applikationen und Geschäftsprozesse verlangsamen oder offline gehen müssen.

Insgesamt fünf Webshops in der DACH-Region, darunter die zentrale Anwendung www.atu.de, sowie alle IP-Zugänge in die Zentrale sollten künftig rund um die Uhr vor sämtlichen DDoS-Attacken geschützt werden. Dabei wollte man das Thema von Anfang an komplett an einen Dienstleister delegieren und jeden eigenen Aufwand vermeiden. Bei einem externen Angriff sollte die Abschirmung automatisch greifen und allein der Dienstleister reagieren. Runte: „Wir wollten unseren eigenen 24/7-Betrieb in der IT mit diesem Thema nicht zusätzlich belasten.“

Illegitime Anfragen wirksam verhindern


Die Ausschreibung für den geplanten Schutz konnte Link11 für sich entscheiden – aus mehreren Gründen, berichtet Adrian Runte. Die Lösung lasse sich schnell und relativ einfach einrichten, sie sei performant und wirksam. Darüber hinaus haben die IT-Experten von ATU nach eigenen Angaben bereits bei ihrem vorigen Arbeitgeber gute Erfahrungen mit der Schutzlösung des Anbieters gemacht. Dass der Sicherheitsspezialist in der gleichen Zeitzone wie ATU arbeitet, war ein weiterer Pluspunkt. Wichtig war überdies, dass das Thema Datenschutz und Auftragsdatenverarbeitung bei einem hiesigen Anbieter einfacher zu handhaben ist als mit einem internationalen Player.

Flexibilität und Schnelligkeit bewies der Sicherheitsanbieter bei der Einführung des Schutzes: Das Anwenderunternehmen erhielt einen Tag nach der Eröffnung der Ausschreibung ein Angebot, wenige Tage später wurde der Dienst beauftragt und das DNS-Forwarding konnte binnen 24 Stunden umgesetzt werden. Dabei lief die Implementierung des DDoS-Schutzes reibungslos. Es musste lediglich eine Lösung gefunden werden, um ein detaillierteres Berechtigungskonzept umsetzen zu können. Heute werden die Netze auf den Layern 3 bis 7 durch Link11 geschützt.

Der gesamte Traffic wird zunächst in das Rechenzentrum des Anbieters geroutet und erst dann an den Kfz-Spezialisten weitergeleitet. Somit werden illegitime Anfragen wirksam verhindert. „Unsere Mitarbeiter registrieren dabei weder Performance-Einbußen noch irgendwelche Verzögerungen“, bilanziert IT-Leiter Runte.

Dies ist ein Artikel aus unserer Print-Ausgabe 4/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Der Schutz erfüllt seine Pflicht: Seit der Implementierung der cloud-basierten Schutzlösung ist keine DDoS-Attacke zu dem Kfz-Spezialisten in die Oberpfalz durchgedrungen. Und auch von einem massiven Angriff auf die ATU-Systeme über das Rechenzentrum des Anbieters ist den ITlern in Weiden nichts zu Ohren gekommen. So soll es auch sein, sagt Runte. Schließlich spreche es sich in der einschlägigen Szene schnell herum, „dass sich Angriffe nicht lohnen, weil wir nun gut gerüstet sind“.

ATU Auto-Teile-Unger ...

... mit Hauptsitz in Weiden in der Oberpfalz ist ein Unternehmen, das mit Kraftfahrzeugzubehör, Autoersatzteilen und Reifen handelt sowie an die Filialen angeschlossene Kfz-Werkstätten betreibt. 1985 gegründet, erwirtschaftet man mittlerweile mit mehr als 10.000 Mitarbeitern über 1 Mrd. Euro Umsatz.


Bildquelle: ATU

]]>
IT-Director Startseite it-zoom Sicherheit
news-22659 Thu, 18 Apr 2019 10:24:49 +0200 Der Weg zu mehr Agilität im E-Commerce http://www.it-zoom.de/it-director/e/der-weg-zu-mehr-agilitaet-im-e-commerce-22659/ Ergänzt man die vorhandene SAP-Systemlandschaft um ein E-Commerce-System eines spezialisierten Drittanbieters, welches den Hierarchien der SAP-Architekturen nicht unterliegt, lässt sich viel flexibler und skalierbarer agieren. Der Begriff „Customer Experience“ treibt derzeit viele Verantwortliche im E-Commerce um. In der Regel steht er für ein generelles Umdenken von Unternehmensstrategien hin zu mehr Kundenzentrierung. Auch der Software-Anbieter SAP hat sich dies auf die Fahnen geschrieben und mit C/4 Hana eine Suite kreiert, die verschiedene Tools für eine bessere Customer Experience bietet. Damit sollen sich die Anwender den Trend zunutze machen können. Jedoch ist dies laut der E-Commerce-Agentur Netz 98 derzeit nur Theorie, denn die entsprechenden SAP-Produkte werden kaum genutzt. Was sind die Gründe dafür? Und welche Alternativen gibt es?

In einer groß angelegten Marketing-Offensive unter dem Namen „SAP Customer Experience“ werben die Walldorfer seit einigen Monaten intensiv für das Cloud-Paket von C/4 Hana mit S/4 Hana im Rücken. Das aktuelle Portfolio legt den Fokus voll und ganz auf Kundenzentrierung. So wurde auch der Nachfolger der SAP-Commerce-Software Hybris namens „Commerce Cloud“ aus der Taufe gehoben. Es ist ein wichtiger Teil von C4/ Hana. Der Plan dahinter: Die Anwender steigen von ihren bisherigen SAP-Versionen auf C/4 Hana um, haben so alles, was sie für die Zukunft benötigen, unter einem Dach und binden sich langfristig als Kunde an den Software-Anbieter.

Die Realität sieht bisweilen ein wenig anders aus. Denn eines der Hauptprobleme, die den Walldorfern nachgesagt wird, haben auch die neuen Systeme geerbt: eine hohe Komplexität. Scheinbar schrecken viele Anwender vor einem Umstieg zurück. Die häufig genannten Kritikpunkte: Zu kompliziert, zu langwierig in der Umsetzung und vor allem zu kostspielig.

Ein weiterer Slogan zur SAP Customer Experience lautet „End-to-End-Commerce“. Damit ist gemeint, dass sich die Kunden überall und an jedem Punkt bei der Nutzung oder dem Kauf eines Produkts gut aufgehoben fühlen sollen. In diesem Zusammenhang stellt sich aber die Frage: Lässt sich dieses Versprechen überhaupt einlösen, wenn die von SAP dafür angebotenen Produkte kaum genutzt werden? Laut einer Studie der Deutschsprachigen SAP-Anwendergruppe e.V. (DSAG), nutzen aktuell nur drei Prozent der SAP-Bestandskunden C/4 Hana. Hauptsächlich seien noch ältere Systeme wie ECC 6 im Einsatz, alles weitere (darunter Marketing-Tools oder Vertriebs-Software) deckt oft ein Konglomerat aus Produkten von Drittanbietern ab. Dies gelte vor allem für den Einstieg in den E-Commerce. Die SAP Commerce Cloud kommt laut Studie für viele Manager eben wegen des Kostenfaktors und der Komplexität nicht infrage. Sie gehen deshalb auf die Suche nach Alternativen.

Eine gute Datenbasis reicht nicht aus

Für eine optimale Customer Experience sind gut gepflegte Daten und deren reibungsloser Transfer wichtig. Dass Daten und deren Verarbeitung die Königsdisziplin von SAP sind, muss den langjährigen Anwendern der Software nicht erläutert werden. Die Basis für erfolgreichen E-Commerce und umfängliche Customer Experience ist somit vorhanden. Der moderne Online-Handel lebt allerdings davon, die vorhandenen Daten maximal ergiebig weiter zu verarbeiten – sei es durch gezielte Marketing-Kampagnen, Analysen von Kunden- und Verkaufsverhalten oder zur allgemeinen Stärkung der Marke mithilfe des Webshops. Das bedeutet: Nur eine gute Basis zu haben reicht nicht aus, vielmehr muss der Handlungsspielraum durch zusätzliche Tools und Systeme erweiterbar sein. Genau hier können Fremdsysteme, die rein auf den E-Commerce spezialisiert sind, punkten. Denn ein spezialisiertes E-Commerce-System kann genau die Funktionalitäten liefern, die Unternehmen benötigen, um eine durchdachte Customer-Experience-Strategie zu realisieren.

Der E-Commerce bietet ganz neue Verkaufs- und Positionierungsmöglichkeiten für Unternehmen, deswegen spielt er für die Customer Experience eine große Rolle. Zum Beispiel durch die strategische Verbindung von Onlineshop und den lokalen Filialen mit einer sogenannten Omnichannel-Strategie. Die Grenzen zwischen Online- und Offlinekauf sind dabei fließend. Der Kunde kann frei entscheiden, wie er die Ware erhalten möchte: entweder per Versand an die Haustür, Lieferung an eine Wunschfiliale mit persönlicher Kundenberatung inklusive oder einfach auf die klassische Art, ohne Bestellung und direkt vor Ort. Bei der Omnichannel-Strategie haben Händler die Möglichkeit, sich den „Konkurrenten Internet“ gezielt zur Stärkung der Marke und der örtlichen Filialen zunutze zu machen und das Verkaufsspektrum ihrer Produkte erheblich zu erweitern. Für die Kunden entsteht so ein 360-Grad-Kauferlebnis, das sich einprägt und sie näher an Unternehmen und deren Marken bindet.

Kundenzentrierung und Agilität als Erfolgsfaktoren

Essentiell für den Erfolg einer solchen Verkaufsstrategie ist außerdem der bereits erwähnte, reibungslose Datenaustausch. Aus diesem Grund ist es wichtig, dass spezialisierte E-Commerce-Systeme problemlos in die SAP-Systemlandschaft integrierbar ist, wie beispielsweise die E-Commerce-Plattform Magento. Per SOAP- und REST-Schnittstellen oder über eine Middleware, ermöglicht die Software eine schnelle Verbindung mit SAP – und die Anwender können trotzdem losgelöst von den SAP-Strukturen agieren.

Dies stellt ein Vorteil von Drittsystemen dar: Sie unterliegen nicht den Hierarchien der SAP-Systemlandschaft und sind so viel agiler und – besonders wichtig – skalierbarer. Eine Commerce-Lösung muss schnell an neue Marktsituationen oder Strategiewechsel anpassbar sein. Bei fremden E-Commerce-Systemen können die Anwender Änderungen am Code oder das Hinzufügen von Features flexibel umsetzen. So bleibt der Webshop auch bei sehr hohen Zugriffszahlen stabil und skaliert bei weniger Auslastung auf die nötigen Ressourcen herunter.

Bildquelle: Getty Images/iStock

]]>
IT-Director E-Commerce / Marketing
news-22656 Thu, 18 Apr 2019 09:08:40 +0200 So wehrt KI perfide Cyberattacken ab http://www.it-zoom.de/it-director/e/so-wehrt-ki-perfide-cyberattacken-ab-22656/ Erheblicher Zeitvorteil: KI-basierte Cyber-Security-Software arbeitet rund 200 mal schneller als ein Analyst, berichtet Josef Meier von Fortinet. IT-DIRECTOR: Herr Meier, in Expertenkreisen gelten Machine Learning (ML) und im nächsten Schritt Künstliche Intelligenz (KI) als wichtige Technologien, um den Kampf gegen die zunehmenden Cyberbedrohungen zu gewinnen. Inwieweit haben sie bereits Einzug in aktuelle Sicherheitslösungen gehalten?
J. Meier:
Die genannten Technologien werden bereits seit vielen Jahren intensiv in verschiedenen Produkten genutzt. Das Spektrum reicht von User Behavior Analytics, also die Auswertung von Benutzerverhalten und die Erkennung von potentiell schadhaften Aktionen, bis hin zur Analyse und Erkennung von Schad-Software. Wir nutzen unsere Künstliche Intelligenz und unser neuronales Netz bereits seit über sechs Jahren für unsere Sicherheitstechnologien.

IT-DIRECTOR: Welche Vorteile können sich die Verantwortlichen vom Einsatz ML- bzw. KI-basierter Sicherheitslösungen versprechen?
J. Meier:
Zum einen bringt der Einsatz von KI einen erheblichen Zeitvorteil mit sich. Wir gehen davon aus, das eine KI-basierte Analyse circa 200 mal schneller arbeitet als ein Analyst. Und zum anderen können Muster und Zusammenhänge weitreichender erkannt werden. Hier spielt die Kombination aus Big-Data-Analyse gekoppelt mit einer KI eine entscheidende Rolle. Die Zusammenführung, Bewertung und Interpretation verschiedener Informationen aus unterschiedlichen Systemen kann bei menschlicher Analyse relativ viel Zeit in Anspruch nehmen. Bedeutet, wenn hier ein Angriff erkannt wurde, ist dieser meist bereits durchgeführt und man kann sich nur noch mit der Begrenzung beziehungsweise Aufarbeitung der Auswirkung beschäftigen. Ein KI-gesteuerter Verbund an Erkennungsmechanismen und automatisierter Abwehr kann in Mikrosekunden Entscheidungen treffen und einen Angriff sofort abwehren. Dies spielt vor allem bei komplexen Angriffen eine entscheidende Rolle.

IT-DIRECTOR: Auch Algorithmen können irren. Wie lassen sich sogenannte „False Positives“ am besten vermeiden?
J. Meier:
Hier spielt die Verwendung der richtigen Lernmethode eine große Rolle. Wir kombinieren hier Supervised Learning mit Unsupervised Learning und überprüfen Samples bis zu fünf Milliarden Mal in unserem neuronalen Netz. Das Ergebnis mündet direkt in Muster oder Filter, die dann auf unsere Geräte ausgebracht werden. Der Schlüssel ist hier, dass eventuell bereits nach mehreren tausend Rechenvorgängen ein Ergebnis feststeht, die Operationen aber fortgeführt werden, um das Ergebnis weiter zu präzisieren. Dennoch können False Positives niemals zu 100 Prozent ausgeschlossen werden.

IT-DIRECTOR: Ein Blick auf die Hacker-Seite: Wie nutzen Cyberkriminelle maschinelles Lernen und Künstliche Intelligenz für ihre Attacken?
J. Meier:
Leider gibt es hier vielfältige Anwendungsszenarien. Es gibt beispielsweise Angebote im Darknet, die den Scan von Custom Malware durch eine KI anbieten. Hierbei werden Erkenntnisse aus verschiedenen Quellen (Virus Total, Scan Engines verschiedener Anbieter) verwendet, um sicherzustellen, dass die Malware nicht erkannt wird. Der Service liegt bei unter 50 US-Dollar pro File und es gibt auch eine Geld-zurück-Garantie. Weiterhin beobachten wir, dass KI auch im Bereich DDoS eingesetzt wird. Hier werden mittlerweile intelligente Swarm Bots genutzt, die untereinander kommunizieren, bewerten, adaptieren und völlig autark operieren.

IT-DIRECTOR: Wie könnten solche Attacken in der Praxis ablaufen?
J. Meier:
Wenn wir als Beispiel eine Swarm-Bot-Attacke annehmen, würde das folgendermaßen ablaufen: Die Bot Clients waren bislang nur ausführenden Organe, die von einer Command-und-Control-Instanz mit Angriffsvariante und -ziel beauftragt wurden und diesen Angriff dann ausgeführt haben. Der Angriff würde auch erfolglos weiterlaufen, so lange der Auftraggeber diesen nicht abbricht. Ein Swarm-Bot-Cluster würde den Angriffsvektor sowie die zu verwendende Angriffsmethode auf Basis mehrerer Millionen Berechnungen selbst entscheiden und durchführen. Sofern kein Erfolg erzielt wurde, würde die KI den Angriff adaptieren und verändern. Der Auftraggeber gibt hier nur das gewünschte Ergebnis vor, also zum Beispiel die Kontrolle über mehrere hunderttausende Internet-of-Things-Devices zu erlangen. Alternativ können natürlich auch spezifische Ziele genannt werden und die KI entscheidet, welcher Angriffsvektor und Methode die besten Erfolgschancen hätte. Wenn diese Methoden jetzt beispielsweise mit Blockchain-Technologie genutzt werden würden, so wäre die Command-und-Control-Instanz, also der Auftraggeber, nicht mehre identifizierbar. Das bedeutet im Klartext: der Initiator der Attacke ist nicht verfolgbar und unter Umständen könnten sogar, wenn der Angriff erkannt wurde, jegliche Gegenmaßnahmen erfolglos verlaufen. Die Verwendung von Blockchain in Kombination mit einer DDoS-Attacke wurde bereits 2018 von einem Security Researcher in einem PoC erfolgreich demonstriert.

IT-DIRECTOR: Was wäre im Gegensatz zu bisherigen, altbekannten Attacken das Besondere daran? Welchen Schaden könnten sie anrichten?
J. Meier:
Ein konventioneller Angriff ohne KI benötigt extremen Aufwand an Vorbereitung, wenn er erfolgreich ablaufen soll. Das Ziel muss identifiziert werden, dann versucht man Eintrittstüren zu finden, danach muss ein Schadcode, Exploit usw. entwickelt werden. Die Attacke wird ausgeführt, schlägt unter Umständen fehl, muss adaptiert werden usw. Für jeden genannten Schritt braucht es unter Umständen einen Experten und je nach Komplexität mehrere Wochen oder gar Monate. Das alles unter Zeitdruck und der drohenden Gefahr der Entdeckung. Eine KI-gestützte Attacke führt einen Großteil der Operationen in wenigen Stunden oder Tagen durch und das Ergebnis ist wesentlich präziser. Damit lässt sich Manpower, Zeit und somit die Gefahr der Entdeckung minimeren. Der potentielle Schaden dieser Attacken lässt sich schwer abschätzen, aber im Grunde können wir KI gestützten Attacken nicht mit Manpower entgegnen. Hier bewahrheitet sich das Zitat „don’t bring a knife to a gunfight“ leider sehr deutlich.

]]>
Ina Schlücker IT-Director Startseite it-zoom Sicherheit
news-22655 Thu, 18 Apr 2019 08:56:41 +0200 BASF investiert in Quantencomputer-Start-up http://www.it-zoom.de/it-director/e/basf-investiert-in-quantencomputer-start-up-22655/ BASF Venture Capital schließt sich der Investorengruppe des auf Quantencomputing spezialisierten Start-ups Zapata Computing an. Eigenen Angaben zufolge entwickelt das US-Unternehmen Zapata sowohl eine leistungsstarke Software-Plattform als auch spezifische Anwendungen für die 1.000 größten Unternehmen der Welt, um eine Bandbreite neu entstehender Quantencomputing-Hardware effizient einsetzen zu können.

Mit der Investition in das Start-up will der Konzern das strategische Ziel von BASF unterstützen, die Chancen der Digitalisierung entlang der gesamten Wertschöpfungskette entschlossen zu nutzen. Quantencomputer sollen es BASF-Experten ermöglichen, komplexe Fragestellungen höchst effizient zu bearbeiten und die Zeit bis zur Markteinführung neuer Produkte weiter zu verkürzen.

Das Unternehmen Zapata, das im Jahr 2017 aus der Harvard University ausgegliedert wurde, nutzt die finanzielle Unterstützung für die Erweiterung seines wissenschaftlichen Teams und die Weiterentwicklung seiner Software-Plattform, um den wachsenden Kundenanforderungen gerecht zu werden. BASF schließt sich dabei einer Investmentrunde an, die von Comcast Ventures und Prelude Ventures angeführt wird und zu der sowohl neue als auch bestehende Co-Investoren gehören, darunter Pitango Ventures, Pillar Venture Capital und The Engine.

Bildquelle: Thinkstock/Creatas

]]>
IT-Director Unternehmen
news-22652 Wed, 17 Apr 2019 11:06:46 +0200 Mike Ettling wird Unit4-CEO http://www.it-zoom.de/it-director/e/mike-ettling-wird-unit4-ceo-22652/ Unit4, Anbieter von intelligenten und innovativen Unternehmensanwendungen für Mitarbeiter im Dienstleistungsbereich, hat Mike Ettling zum CEO ernannt. Mike Ettling ist ein erfahrener Geschäftsführer und war zuvor Präsident von SAP Successfactors, einem Anbieter von SaaS-basiertem Humankapital-Management. Er verfügt über Erfahrung und Kenntnis im Bereich cloud-basierter Technologien und Geschäftsanwendungen. Ettling ist eine anerkannte Führungskraft und hat eine klare Vorstellung davon, wie Technologie Unternehmen unterstützen kann; seine Erfolgsbilanz geht u.a. auf seine Tätigkeiten bei SAP Successfactors oder Unisys zurück.

Seit Unit4 im Jahr 2014 von Advent International übernommen wurde, hat sich das Unternehmen weiterentwickelt und zählt heute zu einem schnell wachsenden Unternehmen für SaaS im Mittelstand. Es wurden Investitionen in das Produktportfolio getätigt, wodurch der Anbieter seinen Kunden ein breites Spektrum an cloud-basierten Services anbieten kann.

Ettling übernimmt die Führungsposition von Stephan Sieber, der seit 2014 zum Führungsteam gehörte und der 2016 zum Chief Executive Officer ernannt wurde. Sieber wird das Unternehmen während einer Übergangsperiode weiterhin unterstützen.

Léo Apotheker, Vorsitzender des Aufsichtsrats: „Mike Ettling übernimmt diese Führungsposition zu einem äußerst wichtigen Zeitpunkt. Das Unternehmen befindet sich im Aufschwung, wie auch das globale SaaS-Umsatzwachstum von 26 Prozent im Jahr 2018 zeigt; unser Leistungsversprechen dehnen wir daher künftig auf weitere Geschäftsbereiche aus.“

Ettling: „Ich freue mich darüber, diese Position zu einem Zeitpunkt zu übernehmen, an dem digitale Lösungen so wichtig sind wie nie zuvor. Gemeinsam mit unserem Team werden wir unsere Kunden bei der Umsetzung ihrer digitalen Strategien unterstützen.“

Bildquelle: Unit4

]]>
IT-Director Startseite it-zoom Leute
news-22641 Tue, 16 Apr 2019 13:03:36 +0200 Schnellcheck für Legacy-Software http://www.it-zoom.de/it-director/e/schnellcheck-fuer-legacy-software-22641/ Mit einem Fragenkatalog von Avision sollen Unternehmen herausfinden können, ob sie Legacy-Software im Einsatz haben, die modernisiert werden sollte. Praktisch jedes Unternehmen hat Anwendungen im Einsatz, die in die Jahre gekommen sind. Das muss kein Problem sein, kann es aber, denn oft birgt Legacy-Software betriebliche Risiken in sich. Diese Fälle gilt es aber erst einmal zu finden. Der folgende Schnellcheck soll Unternehmen dabei helfen, potentielle Modernisierungskandidaten zu identifizieren:

1. Haben noch mehr als zwei Mitarbeiter Know-how für die aktuelle Anwendung?


Ist das nicht der Fall, droht eine doppelte Gefahr. Zum einen besteht die Möglichkeit, dass die Anwendung dann irgendwann nicht mehr gewartet werden kann. Zum anderen droht ein empfindlicher Know-how-Verlust, wenn die wenigen Mitarbeiter, die sich mit der Anwendung auskennen, das Unternehmen verlassen.

2. Ist das letzte Update vor weniger als zwölf Monaten erfolgt?


Häufige Updates sind ein Hinweis darauf, dass das nötige Know-how noch im Unternehmen ist, ein vernünftiger Pflegestatus der Software erhalten wurde, der Source Code vorhanden ist und aktuelle Sicherheitsanforderungen berücksichtigt werden. Liegt das letzte Update über ein Jahr zurück, kann das heißen, dass der Source Code fehlt bzw. kein Dienstleister mehr vorhanden ist, der Updates durchführen kann.

3. Können Komponenten wie Betriebssystem, Datenbanken und Java upgedatet werden?


Auch die Umgebung der Software muss update-fähig sein. Das kann aber aus zwei Gründen nicht gegeben sein: zum einen, weil Versionen von Betriebssystemen, Datenbanken oder Programmiersprachen verwendet werden, die am Ende ihres Lebenszyklus angelangt sind und von ihren Anbietern nicht mehr mit Updates oder Sicherheits-Patches versorgt werden. Zum anderen besteht bei Individual-Software die Möglichkeit, dass sie durch das Update einer solchen Komponente gar nicht mehr funktionsfähig ist.

4. Gibt es mehr als ein fachliches Release pro Jahr?


Selbst wenn die zweite und dritte Frage mit „Ja“ beantwortet werden, heißt das nur, dass ein technisches Release möglich ist. Trotzdem kann eine Anwendung aber so komplex geworden sein, dass sich nicht mehr als ein fachliches Release pro Jahr umsetzen lässt. Selbst kleinste Anpassungen erfordern dann einen horrenden Testaufwand. Dadurch häufen sich die fachlichen Anforderungen an und das Backlog wird immer größer.

5. Enthält das Release mehr als 70 Prozent fachliche Anpassungen?


Ist das nicht der Fall, bedeutet das, dass ein Release hauptsächlich der Anpassung technischer und kaum mehr fachlicher Anforderungen dient. Der Aktualisierungsbedarf der Anwendung ist dann so hoch, dass er nicht mehr innerhalb der Releases abgearbeitet werden sollte.

6. Sind die Kosten jedes Release gleichbleibend oder sinkend bei identischem Anteil von fachlichen Änderungen?


Lautet die Antwort „Nein“, werden die Anpassungen der Software immer teurer und das Kosten-Nutzen-Verhältnis verschlechtert sich immer mehr. Eine Gegenüberstellung der laufenden Kosten und der Kosten für eine Modernisierung kann das Potential für Kosteneinsparungen aufdecken.

7. Die IT-Verantwortlichen haben keine Bedenken, wenn die Anwendung angepasst werden soll?


Äußern die IT-Verantwortlichen bei jedem Release einer bestimmten Anwendung Bedenken und würden sie am liebsten gar nicht mehr verändern, sollten die Verantwortlichen hellhörig werden. Diese Bedenken sind ein eindeutiges Indiz dafür, dass bei der Anwendung etwas im Argen liegt und Modernisierungsbedarf bestehen könnte.

8. Nutzt die Anwendung aktuelle Sicherheitsfeatures?


Sicherheits-Features wie verschlüsselte Zertifizierungen und regelmäßige Sicherheits-Patches sind eine absolute Notwendigkeit. Sind diese nicht vorhanden bzw. können nicht eingespielt werden, stellt die Anwendung ein Sicherheitsrisiko für das Unternehmen dar.

„Lautet die Antwort auf diese Fragen öfter als dreimal ‚Nein‘, sollten sich die Verantwortlichen die betreffende Anwendung genauer ansehen und in eine tiefere Analyse einsteigen“, sagt Nadine Riederer, CEO bei Avision. „Stellen sie einen Modernisierungsbedarf fest, sollten sie den Umfang ermitteln. Je nach Menge der notwendigen Erneuerungen können dann vielleicht schon wenige Maßnahmen ausreichen. In manchen Fällen können aber auch gravierende Umbauten oder sogar eine komplette Neuimplementierung nötig sein.“

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Software
news-22638 Tue, 16 Apr 2019 09:27:00 +0200 Das sind die User-Anforderungen an SAP S/4 Hana http://www.it-zoom.de/it-director/e/das-sind-die-user-anforderungen-an-sap-s4-hana-22638/ Eine Studie von Arvato Systems zeigt auf, wie Nutzer das ERP-System SAP S/4 Hana bewerten und was bei dessen Einführung zu beachten ist S/4 Hana, die neue ERP-Generation aus dem Hause SAP, hat seit ihrer Markteinführung 2015 bereits in verschiedenen Unternehmen den Praxistest bestanden. Es ist insbesondere der Wunsch, flexibler und agiler zu sein, der SAP-Nutzer veranlasst, auf die neue Software-Generation umzustellen. Dies geht aus der noch im Jahr 2018 durchgeführten Studie „SAP S/4 Hana in Deutschland“ hervor.

Der IT-Spezialist Arvato Systems und das Marktforschungsunternehmen PAC haben dafür etwas mehr als einhundert Manager und SAP-Verantwortliche aus deutschen Unternehmen, die mindestens 1.000 Mitarbeiter beschäftigen, telefonisch interviewt. An der Umfrage beteiligten sich Unternehmen des verarbeitenden/produzierenden Gewerbes (43 Prozent) und Firmen aus den Branchen Dienstleistung, Handel und Verkehr (57 Prozent). Mehr als ein Viertel dieser Teilnehmer arbeitete zu diesem Zeitpunkt bereits mit der Hana-Plattform, etwa als Datenbank für das Data Warehouse (SAP BW). Die Studienergebnisse zeigen, welche Forderungen und Erwartungen die Befragten an die Plattform haben, welche Themen kontrovers eingeschätzt werden und wie sich die Migration zu S/4 Hana erfolgreich gestalten lässt.

Demzufolge hat die Studie ergeben,

  • dass mehr als zwei Drittel der Befragten erwarten, mit S/4 Hana ihre Prozesse signifikant zu beschleunigen und so die Möglichkeit zu haben, große Datenmengen zu analysieren,
  • dass für 76 Prozent ein Haupttreiber für S/4 Hana darin besteht, ihre SAP-Prozesse flexibler und agiler zu machen,
  • dass 57 Prozent davon ausgehen, dass die Einführung der neuen ERP-Plattform ihre Unternehmen veranlasst, auch die sonstigen SAP-Anwendungen und Infrastrukturen zu modernisieren,
  • dass sich 48 Prozent eine nutzerfreundlichere Bedienung versprechen und darauf vertrauen, dass sich die Neuentwicklung flexibler einsetzen und besser anpassen lässt als die Vorgängersysteme und
  • dass sich ein reichliches Drittel einen großen Nutzen bei der Unterstützung neuer Geschäftsprozesse und -modelle verspricht, etwa bei der Digitalisierung der Finanzprozesse.

Die Zurückhaltung überwiegt (noch)

Doch ist es bedenklich, dass trotz dieser hohen Erwartungshaltung zum Zeitpunkt der Umfrage nur fünf Prozent der Unternehmen S/4 Hana bereits einsetzen? Laut den Marktforschern durchaus nicht, denn lediglich für 14 Prozent der Befragten ist die neue ERP-Plattform kein Thema. Dem stehen 27 Prozent gegenüber, die just darauf migrieren oder die Umstellung fest eingeplant haben. Die verbliebenen 54 Prozent der Teilnehmer haben das Thema zwar im Blick, die Entscheidung für oder gegen die neue Software-Generation steht jedoch noch aus.

Warum? Auf die Frage, warum man sich noch nicht zur Migration entschlossen habe, bleiben die Antworten eher vage. Fast 70 Prozent haben Bedenken hinsichtlich ihrer eigenen Einschätzung von Aufwand und Nutzen. Außerdem können über die Hälfte der Firmen derzeit keinen überzeugenden Anwendungsfall für sich erkennen. Es ist daher anzunehmen, dass die Umstellung auf S/4 Hana an Fahrt aufnimmt, wenn es mehr „Business Cases“ gibt, die die Performance und Vorteile des neuen Systems an konkreten Praxisbeispielen greifbar machen. Die Umfrage lässt zudem den Schluss zu, dass sich Unternehmen mit der Migration auch zurückhalten, weil SAP die bestehenden Systeme SAP ECC und SAP Business Suite noch bis 2025 wartet und Firmen diese Zeit nutzen möchten, um sich gezielter mit der Thematik auseinanderzusetzen und eine mögliche Migration zu eruieren.

Wenn, dann gleich richtig

Nicht nur in Hinblick auf die in der Regel recht engen Zeit- und Budgetrahmen will die S/4-Hana-Einführung sehr gut vorbereitet sein. Schließlich handelt es sich um geschäftskritische Business-Process-Systeme mit einer großen Zahl betroffener Nutzer. Die Migration muss zumeist parallel zum laufenden Betrieb gestemmt werden, dennoch darf sie das Tagesgeschäft nicht behindern und soll nur wenig Ausfall-, Rüst- und Umstellungszeiten verursachen.

Für 68 Prozent der befragten Unternehmen ist das Hauptziel, mit der neuen Software bestehende SAP-gestützte Prozesse zu verbessern. Eine Mehrheit befürwortet überdies, die Umstellung rein technisch vorzunehmen und in Konsequenz so auf eine Optimierung der Prozesse zu verzichten, die durch eine Transformation erreichbar wäre. Die Mitautoren der Studie von PAC hingegen plädieren ausdrücklich für den Greenfield-Ansatz, da sich S/4 Hana an den Lines of Business ausrichtet und die Vorteile nur mit einer Optimierung bestehender Prozesse voll zur Wirkung kommen, beispielsweise in Hinblick auf die Performance bei Datenanalysen oder die Benutzerfreundlichkeit der Analytics-Funktionen. Auf diese Weise, indem man auch die anderen vorhandenen IT-Systeme in der Landschaft hinterfragt und auf der Grundlage von Best-Practice-Prozessen neu installiert, lassen sich die Prozesse von Grund auf restrukturieren und an die sich wandelnden geschäftlichen Anforderungen bestmöglich anpassen. Es kann also ratsam sein, in der Planungsphase genau zu analysieren, ob die eigenen, konkreten Zielstellungen, die mit der Umstellung auf S/4 Hana verbunden sind – beispielsweise eine umfänglichere Nutzung des SAP-Standards –, sich mit einer bloßen Systemumstellung wirklich erreichen lassen.

Mitunter hat sich bewährt, bei komplexen Vorhaben wie der S/4-Hana-Einführung externe Fachleute hinzuzuziehen. Das sehen 39 Prozent der Befragten genauso. Während 27 Prozent aller Teilnehmer der Studie dabei vor allem eine Unterstützung bei der Optimierung bestehender Geschäftsprozesse im Blick haben, wünschen sich 15 Prozent eine Beratung hinsichtlich der Implementierung neuer Geschäftsprozesse oder -modelle. Für über 80 Prozent steht fest, dass sich der externe Dienstleister nicht nur bestens in der SAP-Welt auskennen muss – er benötigt auch eine entsprechende spezifische Fachkompetenz, um sie bei der Transformation ihrer Geschäftsprozesse beraten zu können. 70 Prozent der Befragten verlangen einschlägiges Branchenwissen von ihrem Dienstleister. Er sollte die Besonderheiten der Geschäftsabläufe kennen und ein Gespür dafür haben, wie das Unternehmen tickt. Drei Viertel der Befragten legen bei der Wahl ihres Partners besonderen Wert auf Referenzen zu erfolgreichen S/4-Hana-Projekten.

Stufenplan für eine sichere und effiziente Umstellung bestehender SAP-Systeme:

1.    Orientierung
Kundensysteme klassifizieren
Legacy-Systeme analysieren

  • definierte, empfohlene Zielarchitektur
  • visualisierte Prozesslandschaft

2.    Fitting
SAP Readiness Check durchführen
Sizing ermitteln
Zeit- und Budgetvorgaben ermitteln, mögliche Herausforderungen beurteilen

  • Übersicht der notwendigen Aktivitäten mit Priorisierung
  • Anforderungen an die Hardware für eine Umstellung
  • allgemeine Projektübersicht

3.    Vorbereitung
individuelle Umstellung planen
parallele Datenbereinigung vorgeben
bisheriges System archivieren
Systemkopie erstellen

  • Roadmap und Prozessänderungsübersicht
  • Ressourcenübersicht

4.    Validation
Pre-Umstellungen, z. B. Geschäftspartner migrieren
Systemkopie konvertieren
Anwender schulen
Perioden- und Dokumentenabschluss im Finanzbereich

  • sichergestellte Funktionsfähigkeit durch konvertierte Systemkopie
  • Beweis für eine funktionsfähige Umgebung
  • Risikominderung, Bedenken werden ausgeräumt
  • paketierte Anpassungen

5.    Eigentliche Umstellung
Validierungspakete importieren
System Conversion- & User Acceptance-Tests durchführen

  • einsatzbereites S/4-Hana-System
  • digitale Basis für Innovationen

6.    Innovation
innovative Prozesse weiterentwickeln
Entwicklung neuer Businessmodelle sowie deren Umsetzung planen

  • Wettbewerbsfähigkeit gewährleisten

Bildquelle: Getty Images/iStock

]]>
IT-Director Startseite it-zoom ERP
news-22637 Tue, 16 Apr 2019 08:48:44 +0200 Wie Algorithmen neue Malware aufspüren http://www.it-zoom.de/it-director/e/wie-algorithmen-neue-malware-aufspueren-22637/ Intelligente Algorithmen erkennen selbständig Ähnlichkeiten von neuem Schadcode, wie beispielsweise Struktur oder Verhalten, mit bereits bekannter Malware, berichtet Thomas Uhlemann von Eset Deutschland im Interview. IT-DIRECTOR: Herr Uhlemann, in Expertenkreisen gelten Machine Learning (ML) und im nächsten Schritt Künstliche Intelligenz (KI) als wichtige Technologien, um den Kampf gegen die zunehmenden Cyberbedrohungen zu gewinnen. Inwieweit haben sie bereits Einzug in aktuelle Sicherheitslösungen gehalten?
T. Uhlemann:
Bei etablierten Herstellern wie Eset spielt das Thema „Machine Learning“ bereits seit 1998 eine entscheidende Rolle im Kampf gegen Malware. Damals flossen erste Ergebnisse unserer Forschung im Bereich „Neuronale Netze“ in die eigenen Produkte ein. Seit 2005 hilft uns Machine Learning, der Flut von täglich 200.000 bis 400.000 Malware-Codes Herr zu werden. Hinzu kommen noch die Möglichkeiten aus der Cloud, die von unserem Tool „Augur“ verarbeitet werden. Dies wandelt weltweite Datenströme und das Feedback der Kundeninstallationen in Sekundenschnelle in neue Informationen zum Schutz der Anwender um.

IT-DIRECTOR: Welche Vorteile können sich die Verantwortlichen vom Einsatz ML- bzw. KI-basierter Sicherheitslösungen versprechen?
T. Uhlemann:
Die Vorteile liegen nicht nur auf der Hand, sie sind längst im Einsatz. Bereits seit mehreren Jahren profitieren unsere Kunden von der kontinuierlichen Weiterentwicklung der Möglichkeiten, die uns Machine Learning bietet. So können wir einerseits durch intelligente Algorithmen den Speicherplatz und die Prozessorlast am Endpunkt geringhalten. Andererseits stoppen wir proaktiv bisher unbekannte Schädlinge zuverlässig. Algorithmen erkennen selbständig Ähnlichkeiten von neuem Schadcode, wie beispielsweise Struktur oder Verhalten, mit bereits bekannter Malware.

IT-DIRECTOR: Auch Algorithmen können irren. Wie lassen sich sogenannte „False Positives“ am besten vermeiden?
T. Uhlemann:
Ganz vermeiden lassen sich Fehlerkennungen nie. Wichtig ist, dass die eingesetzte Schutzlösung sich niemals auf nur eine Technologie verlässt. Mehrschichtige Erkennungssysteme wie unsere dämmen die Gefahr von Fehlalarmen ein, indem die Ergebnisse mehrerer Technologien kumuliert werden. Jede Schutzlösung sollte Aktualisierungen unterstützen, um False Positives korrigieren zu können. Anwender sind gut beraten, die Finger von Produkten zu lassen, deren Management eine Mitigation von Fehlerkennungen nicht oder nur schwierig realisieren lässt.

IT-DIRECTOR: Ein Blick auf die Hacker-Seite: Wie nutzen Cyberkriminelle maschinelles Lernen und Künstliche Intelligenz für ihre Attacken?
T. Uhlemann:
Der Schwerpunkt liegt hier in der Automatisierung, zum Beispiel beim Versand von Malware oder in der Auswertung von erhaltenen Informationen. Unsere Experten haben bereits Attacken entdeckt, die eigenständig reagieren, sobald es Anzeichen für eine Enttarnung oder Blockierung gibt. In diesem Moment greift die Künstliche Intelligenz ein und leitet automatisch um, bricht ab oder gestaltet den Angriff anders. So ist es für Malware-Forscher oft schwer, Schadcode verbreitende Webseiten zu identifizieren. Denn diese entscheiden „intelligent“, welchem Besucher Malware überhaupt „angeboten“ wird und wenn ja, welche.

IT-DIRECTOR: Wie könnten solche Attacken in der Praxis ablaufen?
T. Uhlemann:
Wenn etwa eine Firma angegriffen wird, sammeln Algorithmen und Scripte automatisch alle verfügbaren Daten über das Ziel, werten diese aus, qualifizieren und sortieren sie. Dazu gehören vor allem öffentlich zugängliche Daten. Zu diesen zählen auch Informationen über offene Ports oder Verwundbarkeiten von Webcams. Daraufhin entscheiden teilweise heute schon ML-Algorithmen, über welchen Weg am schnellsten, günstigsten und unauffälligsten ein Angriff realisiert werden kann. Gestohlene Daten der Opfer fließen dann wieder in Datenbanken für weitere Angriffe auf andere Ziele.

IT-DIRECTOR: Was wäre im Gegensatz zu bisherigen, altbekannten Attacken das Besondere daran? Welchen Schaden könnten sie anrichten?
T. Uhlemann:
Neu an KI-gestützten Angriffen ist unter anderem die Geschwindigkeit, mit der Angriffe gestartet werden, ablaufen und wieder „verschwinden“ oder eben auf eine mögliche Erkennung reagieren. Da hier keine Menschen mehr im laufenden Prozess „auf Knöpfe drücken“ müssen, reden wir hier möglicherweise von Millisekunden, in denen automatisch Entscheidungen getroffen werden. Dadurch lassen sich Angriffe nahezu jeder Größe realisieren.

Aufgrund der Komplexität und den vielen Möglichkeiten von KI muss man mit der Steigerung von Schäden stark rechnen. In derselben Zeit können nicht nur mehr Attacken gefahren werden, sondern auch intelligenter und zielgerichteter ablaufen. Die Art der Schäden wird sich eher nicht oder kaum ändern. Dazu zählen unter anderem Reputationsverlust, physischer Schaden durch Zugriff auf Anlagensteuerungen, finanzielle Verluste durch Diebstahl, Lösegelderpressung, Produktions- und Verdienstausfall sowie der Verlust von Daten.

]]>
IT-Director Startseite it-zoom Ina Schlücker Sicherheit
news-22633 Mon, 15 Apr 2019 14:56:44 +0200 Evaluation einer neuen Disaster-Recovery-Lösung http://www.it-zoom.de/it-director/e/evaluation-einer-neuen-disaster-recovery-loesung-22633/ Coop suchte eine neue Disaster-Recovery-Lösung, die flexibel einsetzbar ist und das Disaster Recovery für die unternehmenseigenen Rechenzentren und die darin gehosteten virtuellen Maschinen bietet. Man entschied sich für die Plattform von Zerto. Die Coop-Genossenschaft gehört zu den größten Einzel- und Großhandelsunternehmen der Schweiz. Sie ist als Genossenschaft mit rund 2,6 Millionen Mitgliedern organisiert und betreibt unter dem Eigennamen Coop Supermärkte, Warenhäuser, Restaurants, Heimwerkerbedarfsgeschäfte, Apotheken sowie über eine Tochtergesellschaft Tankstellen und Convenience-Shops.

Der Unternehmenserfolg hängt bei einer verzweigen Einzelhandelsorganisation wie der Coop fest davon ab, dass die Kommunikation zwischen Lieferanten, Distributionszentren, allen PoS-Orten und der zentralen IT über die Unternehmensanwendungen jederzeit reibungslos läuft. Zur Unterstützung seiner weit verteilten Organisation unterhält Coop zwei Rechenzentren, in Basel und Bern. Um diese bei schnellem Wachstum und gesteigerten Anforderungen an die Verfügbarkeit aller IT-Dienste besser absichern zu können, suchte das Unternehmen seit Längerem eine neue Disaster-Recovery-Lösung, die flexibler einsetzbar sein und Disaster Recovery (DR) für die Rechenzentren und die darin gehosteten virtuellen Maschinen bieten sollte.

Komplette Absicherung


Um ihre IT zu modernisieren, flexibler zu sein und Komplexität zu reduzieren, hatte Coop seine Infrastruktur bereits in der Vergangenheit zu einem hohen Grad unter vSphere virtualisiert. Zur Absicherung innerhalb einer DR-Strategie nutzte man VMware Site Recovery Manager (SRM), der sich jedoch als Engpass entpuppte. Michel Rodel, Leiter des Infrastrukturteams Unix Solutions der Coop, erläutert das Problem: „Mit SRM hatten wir einfach nicht genügende Flexibilität. Aufgrund der Distanz (100 km) zwischen den Rechenzentren mussten wir eine Aktiv-Passiv-Konfiguration wählen und schützten diese durch asynchrone Storage-Replikation mit einer Roundtrip-Zeit von 1,5 Millisekunden. Dazu kommt, dass mit der bisherigen Lösung nur die wichtigsten Systeme geschützt waren. Eine weitere Herausforderung mit SRM waren die Konsistenzgruppen, die uns auf Speicherebene Probleme bereiteten.“

Bereits seit 2016 arbeitete Coop mit dem Partner Bechtle Steffen zusammen, um die Zukunft seiner Disaster-Recovery-Strategie zu planen und eine neue DR-Lösung zu evaluieren. Die Kernziele des neuen Plans waren, die beiden Rechenzentren und alle darin gehosteten Workloads künftig komplett abzusichern und noch mehr Komplexität aus dem System zu nehmen.

Coop erstellte zusammen mit Bechtle Steffen das Anforderungsprofil und eine Projektausschreibung. Nach der Ausschreibung kamen letztlich zwei Lösungen in die engere Wahl: Zertos IT Resilience Platform und eine weitere CDP-Lösung. Mit beiden Produkten wurden Ende 2017 je ein Proof of Concept (PoC) erstellt und anhand eines detaillierten Anforderungskatalogs getestet. Der Zerto-PoC war einfach zu installieren, innerhalb eines Tages aufgesetzt und konfiguriert. Danach konnte mit der Synchronisierung der Daten begonnen und die ausführlichen Tests durchgeführt werden. Das Produkt ist laut Anwender intuitiv zu bedienen, glänzte mit Produktqualität, war einfach zu skalieren und erfüllte alle gestellten Anforderungen. Daher entschied sich Coop nach den Tests für Zerto.

Bildquelle: Coop

]]>
IT-Director Startseite it-zoom Sicherheit
news-22632 Mon, 15 Apr 2019 14:23:11 +0200 Datenbasierte Entscheidungen statt Bauchgefühl http://www.it-zoom.de/it-director/e/datenbasierte-entscheidungen-statt-bauchgefuehl-22632/ Daten zu erfassen und zu speichern, ist technisch kein Problem. Daten bilden immer mehr die Grundlage für unternehmerische Entscheidungen – jede Fachabteilung bekommt die Zahlen, die sie möchte. Doch bringt das wirklich den erhofften Nutzen? Und wie wäre es, wenn das Ergebnis der Datenanalyse kein Sheet mit Zahlen, Daten und Fakten wäre, sondern ein automatisch optimierter Prozess? Datenbasierte Analysen können Optimierungs- und Einsparpotentiale in Unternehmen freisetzen. Nicht umsonst sind Big Data und Data Analytics im Rahmen von Digitaler Transformation und Industrie 4.0 viel diskutierte Themen. Allerdings sind in vielen Firmen die Daten da, doch die Auswertung und Nutzung der Datenmengen erfolgt nur punktuell. Die Analysen unterstützen dann zwar übliche Bauchgefühlentscheidungen, eine Revolution ist das allerdings nicht.

Die Datenbasis verbreitern

Beinahe jedes Unternehmen erfasst gewisse Daten und wertet sie aus. Üblich ist es etwa, die Kundenkaufhistorien für Marketingkampagnen oder gezielte Erweiterungsangebote zu nutzen. Doch die Ansprüche sind in den letzten Jahren gewachsen, immer häufiger konnte die IT oder der Data-Warehouse-Verantwortliche die Anforderungen der Fachabteilungen nicht mehr erfüllen. Die Folgen: Es entstanden Datensilos und Business Intelligence im Self Service. Durch beide Entwicklungen kann Data Analytics das eigentliche Potential nicht ausschöpfen – denn das Entscheidende sind nicht die Auswertungen, sondern die Datenbasis selbst und die möglichst automatisierte Anpassung der Prozesse.

Für das obige Marketingbeispiel könnte dies folgendes bedeuten: Die Datenbasis ließe sich deutlich verbreitern. Daten aus dem CRM-System könnten neben der Kaufhistorie mit Daten aus dem Beschwerdemanagement und dem Kundensupport verknüpft werden. Ebenso interessant sind die zusätzlichen Tools, die die Kunden einsetzen und eventuelle geografische Besonderheiten. Gleichzeitig lohnt ein Blick, welche Sonderangebote der Wettbewerb gerade im Programm hat und welche Zielgruppen bisher unbeachtet blieben. Soll heißen: Die Integration aller internen und ausgewählter externer Datenquellen kann eine Geschäftsentscheidung auf eine validere Basis stellen und sogar neue Geschäftspotentiale eröffnen.

Von Auswertungs-Sheets zur Prozessoptimierung

Wichtig ist dabei, nicht einfach Auswertungen über die vergrößerte Datenbasis zu fahren, sondern Modelle zu entwickeln, die die Auswertungen direkt in Prozesse umwandeln. So könnten die Fachabteilungen weniger bestimmte Daten anfordern, sondern Fragestellungen definieren. Zum Beispiel: Wie gestalten wir unsere Kampagnen zielgerichteter? Wie verbessern wir den Kundensupport? Und warum verkauft der Wettbewerber erfolgreicher? Smarte Modelle, zunehmend auf der Basis von Deep und Machine Learning liefern die Zusammenhänge und lösen dabei unternehmerisches Bauchgefühl ab. Schon heute generieren konsequent datenbasiert automatisierte Webseiten dem Nutzer die Angebote und Optionen, die nach Meinung des Algorithmus erfolgsversprechend sind. Dynamic Pricing und User Experience sind hier die Schlagworte.

Um Prozesse in dieser Art überhaupt anpassen zu können, brauchen Unternehmen Klarheit darüber, welche Daten bereits erfasst werden und wer sie zu welchem Zweck nutzt. Zudem sollten die Verantwortlichen eine übergreifende Datenstrategie definieren, die festlegt, wie künftig die Datenhaltung zentralisiert werden könnte und welche unternehmerischen Ziele durch datenbasierte Entscheidungen unterstützt würden. Denn Data Analytics ist vor allem ein organisatorisches Thema, welches sich durch interdisziplinäre Zusammenarbeit und Rückendeckung durch das Management deutlich verbessern lässt.

Die Infrastruktur: Skalierbarkeit, Performance und Verfügbarkeit

Für die Umsetzung der Datenstrategie ist überdies eine entsprechende Infrastruktur notwendig. Dank wachsender Datenmengen und steigender Ansprüche in punkto Geschwindigkeit stoßen vorhandene IT-Infrastrukturen schnell an ihre Grenzen. Selten ist die Modernisierung der gesamten Umgebung notwendig, vielmehr sollten die Verantwortlichen zunächst die Erweiterungsoptionen prüfen – idealerweise solche, die aus dem High-End-Performance-Bereich kommen und flexible Skalierung bieten.

So hat sich im analytischen Bereich die In-Memory-Datenbank-Technologie etabliert. Sie nutzt den Hauptspeicher des Servers als beschleunigenden Cache und das über mehrere Cluster-Knoten hinweg parallel. In-Memory-Datenbanken (IMDB) sind deshalb performanter als klassische Datenbanksysteme, gleichzeitig lassen sich beide gut kombinieren.

Um die Skalierbarkeit sicherzustellen, bieten sich Cloud-Optionen an. Gerade wenn es um große Datenmengen oder um die Abdeckung von Lastspitzen geht, ist die Cloud eine flexible Alternative. Allerdings müssen sich Unternehmen dann verstärkt mit Integrationsfragen auseinandersetzen – eine zusätzlich angeschaffte Datenbank sollte cloud-ready sein und insgesamt für hybride Infrastrukturen taugen.

Data Analytics praktisch umsetzen:

  • Den Ist-Zustand der Datenerfassung, -haltung und -nutzung kritisch hinterfragen: Welche Daten gibt es im Unternehmen und wer hat Zugriff darauf? Wo sind Datensilos entstanden?
  • Eine übergreifende Datenstrategie entwickeln: Wie können Daten künftig die Unternehmensentwicklung unterstützen? Essentiell dabei: die volle Unterstützung durch das Management.
  • Datenzentralisierung: zentrale Datenhaltung mit klar definierten Zugriffsregeln.
  • Prozessautomatisierung: die Datenanalysen nutzen, um Prozesse direkt und weitgehend automatisiert anzupassen.
  • Infrastruktur bereitstellen: als Erweiterung möglich, mit hoher Performance und Skalierbarkeit

* Der Autor Mathias Golombek ist CTO bei der Exasol AG.

Bildquelle: Getty Images/iStock

]]>
IT-Director Startseite it-zoom Business Intelligence / Big Data
news-22631 Mon, 15 Apr 2019 13:48:14 +0200 So sah das Geschäftsjahr 2018 von G+D aus http://www.it-zoom.de/it-director/e/so-sah-das-geschaeftsjahr-2018-von-g-d-aus-22631/ Der weltweit tätige Konzern für Sicherheitstechnologie, Giesecke+Devrient (G+D), konnte nach eigenen Angaben im Geschäftsjahr 2018 einen Rekordumsatz erzielen. Besonders großen Erfolg hatte das Unternehmen bei der Gewinnung neuer Kundenaufträge; der Auftragsbestand wuchs um 50 Prozent. Im Geschäftsjahr 2018 stieg der Umsatz von G+D im Vergleich zum Vorjahr um fünf Prozent (wechselkursbereinigt: sieben Prozent) auf 2,25 Milliarden Euro. Das Unternehmen konnte damit erneut einen Rekordumsatz verzeichnen. Der Auftragsbestand belief sich zum Abschluss des Geschäftsjahres auf 1,7 Milliarden Euro und lag 50 Prozent über dem Vorjahreswert. Damit verzeichnete der Konzern den höchsten Auftragsbestand in der Unternehmensgeschichte.

Alle Unternehmensbereiche – Currency Technology, Mobile Security, Veridos und Secunet – konnten ihren Umsatz erhöhen und haben positiv zum Ergebnis beigetragen, heißt es. Insgesamt liege das angepasste Ergebnis vor Zinsen und Steuern (EBIT) bei 120 Millionen Euro und damit leicht unter dem Vorjahresniveau. Dabei wirkten sich negative Währungseffekte und Kursschwankungen bei Pensionsfonds belastend auf das Ergebnis aus.

Einen wesentlichen Beitrag zum Umsatzanstieg des Unternehmens leistete wohl das Geschäft mit Lösungen und Dienstleistungen. Dieses wuchs um 13 Prozent und liegt damit über dem Umsatzwachstum im Produktgeschäft.

Auch für das Geschäftsjahr 2019 erwartet G+D eine positive Entwicklung in seinen Kernmärkten Bezahlen, sichere Verbindungen, Identitätslösungen und digitale Sicherheit kritischer Infrastrukturen. Man plane steigende Investitionen in das Geschäft, die eine gezieltere Ausrichtung der Unternehmensorganisation auf diesen dynamischen Märkten ermöglichen soll. Der Umsatz werde auf dem hohen Niveau des Vorjahres erwartet, beim Ergebnis sei mit einem Wachstum zu rechnen.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Unternehmen
news-22630 Mon, 15 Apr 2019 12:26:39 +0200 CHG-Meridian mit erfolgreichem Neugeschäft http://www.it-zoom.de/it-director/e/chg-meridian-mit-erfolgreichem-neugeschaeft-22630/ Wie bereits vergangene Woche verkündet, blickt die CHG-Meridian-Gruppe auf ein erfolgreiches Geschäftsjahr 2018 zurück. Vor allem beim Neugeschäft konnte man um mehr als die Hälfte zulegen. Der hersteller- und bankenunabhängige Anbieter von Technologiemanagement steigerte sein Neuinvestitionsvolumen 2018 eigenen Angaben zufolge um 22 Prozent auf 1,511 Mrd. Euro (2017: 1,244 Mrd. Euro). Das Ergebnis der gewöhnlichen Geschäftstätigkeit (vor Steuern) lag mit 95 Mio. Euro neun Prozent über dem Vorjahr (2017: 87 Mio. Euro). Der Konzernjahresüberschuss (nach Steuern) konnte mit 66 Mio. Euro um knapp 15 Prozent gesteigert werden (2017: 57 Mio. Euro). „Durch die fortschreitende Digitale Transformation unserer Kunden, setzten wir unser Wachstum auch 2018 fort. Dabei zahlt sich unsere Geographie- und Technologiediversifikation aus, wodurch wir auch für zukünftiges Wachstum bestens positioniert sind“, betont Dr. Mathias Wagner, Vorsitzender des Vorstands der CHG-Meridian-Gruppe.

Der Zuwachs beim Neuinvestitionsvolumen basiert u.a. auf dem 15 prozentigen organischen Wachstum, das in verschiedenen Märkten generiert wurde. Der Anteil des internationalen Neugeschäfts lag bei 52 Prozent. Positiv entwickelten sich auch die Technologiebereiche Industrie- und Medizintechnik, die laut Anbieter derzeit weiter ausgebaut und internationalisiert werden. Sie trugen 2018 mit einem Anteil von rund 20 Prozent positiv zum Neugeschäft bei.

Fortschreitende Internationalisierung

Im September 2018 hat CHG-Meridian zudem den australischen Spezialisten für Technologiemanagement Equigroup übernommen. Die viermonatige Konsolidierung der Gesellschaft hat ebenfalls positiv zum Wachstum der Gruppe beigetragen, heißt es in einer Pressemitteilung.

Desweiteren konnte die Anzahl der nachvermarkteten Geräte im Jahr 2018 ebenfalls gesteigert werden. Insgesamt wurden gruppenweit erstmalig rund 690.000 IT-Geräte für den Zweitmarkt professionell aufbereitet. In den eigenen Technologie- und Servicezentren Groß-Gerau (Deutschland) und Skien (Norwegen) wurden rund 552.000 IT-Geräte wiedervermarktet. Als Wiedervermarkter von IT-Geräten in Europa will man einen Beitrag zur Nachhaltigkeit und zu einer erfolgreichen Kreislaufwirtschaft, in der Ressourcen effizient genutzt werden, leisten.

Im Zuge der Rücknahme von Endgeräten hat sich auch die professionelle Datenlöschung von IT-Geräten 2018 als nachhaltiges Erfolgsmodell entwickelt: Die Zahl der Geräte, von denen professionell Daten gelöscht wurden, stieg gruppenweit auf rund 213.000 Stück. Davon wurden Daten von rund 168.000 Geräten in den eigenen Technologie- und Servicezentren zertifiziert gelöscht. „Unsere zertifizierte Datenlöschung Erasure ist auf die gestiegene Sensibilität von Unternehmen hinsichtlich des Datenschutzes und der Datensicherheit zugeschnitten und ist deshalb ein fester Bestandteil unseres Lösungsportfolios entlang des gesamten IT-Lebenszyklus“, sagt Dr. Wagner.

Neben der weiteren Internationalisierung soll die Digitalisierung bei der Unternehmensgruppe klar im Fokus stehen: So will man die Kunden mit einem ganzheitlichen Serviceangebot im Bereich 'Digital Workplace' entlang des gesamten Technologielebenszyklus unterstützen und Nutzen in komplexen, internationalen Digitalisierungsprozesse schaffen.

]]>
IT-Director Unternehmen
news-22611 Fri, 12 Apr 2019 09:40:09 +0200 Stets die Kontrolle in der Cloud behalten http://www.it-zoom.de/it-director/e/stets-die-kontrolle-in-der-cloud-behalten-22611/ In immer mehr Unternehmen nutzen die Mitarbeiter verschiedene Cloud-Anwendungen. Um die Sicherheit für vernetztes Arbeiten zu gewährleisten, sollte man laut Carsten Hoffmann, Manager Sales Engineering bei Forcepoint, die folgenden Tipps beherzigen. 1. Schützenswertes identifizieren


Immer mehr sensible Daten liegen in der Cloud, ob von der IT bereit gestellt oder durch Mitarbeiter und Abteilungen selbst angeschafft. In vielen Fällen ist eine derartige Schatten-IT durchaus wünschenswert und produktiv – solange das Risiko überschaubar ist. Die Bewertung des Risikos ist allerdings nur möglich, wenn das Unternehmen schützenswerte Daten identifizieren kann: Art, Ort, Status und Zugriff auf die Daten gilt es zu kennen.

2. Daten analysieren


Wichtige Informationen lassen sich dabei mit Technologien wie CASB- (Cloud Access Security Broker) und DLP-Lösungen (Data Loss Prevention) erfassen. DLP-Lösungen können aufwendige Datenklassifizierungen weitgehend ersetzen. Etwa durch vom Hersteller zur Verfügung gestellte Regelwerke, mit denen länderspezifisch Daten erkannt werden, die gesetzlichen Regelungen unterliegen. Ob im Sharepoint der Entwicklungsabteilung oder Fileshare der Personalabteilung, auch wenn der genaue Inhalt nicht bekannt ist, können DLP und CASB verhindern, dass diese Daten abfließen.

3. Transparenz schaffen


Transparenz über Cloud-Applikationen und Devices kann eine Lösung mit Cloud-Access-Security-Broker-Funktionen liefern. CASB ist zwischen dem Nutzer und dem Netzwerk der Cloud-Dienste zwischengeschaltet. Dadurch lassen sich die eigenen Richtlinien über die eigene Infrastruktur hinaus überwachen. Auch an ein Frühwarnsystem sollte gedacht werden. User and Entity Behavior Analytics (UEBA) erkennen Anomalien sofort. Ein kompromittierter Account fällt sonst nur durch Zufall oder entstandenen Schaden auf.

4. Informationssicherheit und Datenschutz ausgleichen


Mitarbeiter haben ein berechtigtes Interesse daran, dass ihre Daten und Bewegungen im Firmennetzwerk nicht pauschal überwacht werden. Gleichzeitig muss aber auch gewährleistet sein, dass geistiges Eigentum im Unternehmen bleibt. Eine Sicherheitslösung ist also ähnlich wie ein Flugschreiber aufzusetzen. Erstens wird vorab festgelegt, welche Daten erfasst werden sollen. Zweitens sind Informationen zum Nutzerverhalten immer pseudonymisiert. Alle Daten können nur bei einem konkreten Verdacht einem bestimmten Mitarbeiter zugeordnet werden. Hier ist die Zustimmung eines autorisierten Gremiums einzuholen, etwa aus Betriebsrat, Geschäftsführung und IT-Leiter.

5. Regularien aufsetzen


Alle Sicherheitslösungen sollten in einer Plattform integriert sein. So stehen alle Informationen durchgängig zur Verfügung und können über Dashboards kontrolliert werden. Nun gilt es für die Arbeit essentielle Applikationen zu definieren und freizugeben. Außerdem lassen sich Zugriffsrechte für verschiedene Devices an die Firmenrichtlinien anpassen. Auf Basis des User-Verhaltens lassen sich Richtlinien zudem automatisiert für die Benutzung von Cloud-Anwendungen und für den Zugriff von extern erstellen und anwenden.

6. Bewusstsein für IT-Sicherheit stärken


Schulung und Aufklärung über Informationssicherheit sowie die eingesetzten Cloud-Systeme ist das A und O. Sicherheit funktioniert nur, wenn sich auch jeder dafür verantwortlich fühlt. Mit Mitarbeitern sollten aktuelle Trends und Gefahren besprochen werden. In kritischen Bereichen sind zusätzlich realitätsnahe Trainingssituationen hilfreich. Bei besonders schützenswerten Benutzerkonten, den sogenannten privilegierten Nutzern bzw. Administratoren, ist außerdem eine verpflichtende Zwei-Faktor-Authentifizierung ratsam. Der Einsatz einer Lösung sollte dabei stets transparent den Mitarbeitern kommuniziert werden und in Zusammenarbeit mit dem Betriebsrat und der Personalabteilung erfolgen. Der beste Schutz ist es schließlich, den Mitarbeitern Verhaltensrichtlinien an die Hand zu geben, die nicht unnötig einschränken.

Dies ist ein Artikel aus unserer Print-Ausgabe 4/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Sicher in die Cloud


Eine Sicherheitsstrategie für Cloud-Umgebungen kann in sechs grundlegende Schritte münden:

  • Wissen, was zu schützen ist
  • Art, Ort und Status der Daten bestimmen
  • Transparenz über Cloud-Anwendungen schaffen
  • Interesse an Informationssicherheit und Datenschutz ausgleichen
  • Regularien aufsetzen
  • Bewusstsein für IT-Sicherheit stärken


Bildquelle: Getty Images/iStock

]]>
IT-Director Startseite it-zoom Cloud
news-22604 Thu, 11 Apr 2019 12:30:00 +0200 Ist Deutschland ein Blockchain-Nachzügler? http://www.it-zoom.de/it-director/e/ist-deutschland-ein-blockchain-nachzuegler-22604/ Bei Banken oder in der Logistikbranche wird der noch jungen Blockchain-Technologie enormes Potential zugesprochen. Doch im internationalen Vergleich sieht jedes zweite Unternehmen hierzulande Deutschland dabei als Nachzügler, wie eine Studie des Digitalverbands Bitkom ergab. Dabei könne die Blockchain-Technologie „viele bisher gängige Verfahren völlig auf den Kopf stellen“, sagte Bitkom-Präsident Achim Berg beim Technologiefestival Hub.Berlin.

„Bei der Blockchain befinden wir uns aktuell in einer Experimentierphase, es fehlt noch an einem breiten Angebot wirklich alltagstauglicher Lösungen“, betonte Berg. Dennoch sollten Unternehmen „unbedingt heute bereits bei Forschung und Entwicklung vorne mit dabei sein“.

Blockchains sind spezielle Datenbanken, die Transaktionsdaten ohne eine zentrale Kontrollinstanz mit absoluter Transparenz verwalten können. Die Digitalwährung Bitcoin zählt zu den bekanntesten Nutzungsformen. Dabei wird bei einer Finanztransaktion ein virtuelles Logbuch angelegt, bei dem jeder einzelne Schritt kryptografisch gesichert wird und damit fälschungssicher ist.

In vielen Geschäftsbereichen könnten Geschäftsprozesse damit sicher und viel einfacher, ganz ohne Zwischenstellen, neu gestaltet werden. Das sieht mit 87 Prozent auch die überwiegende Mehrheit der in der repräsentativen Studie des Bitkom befragte Unternehmensvertreter als größten Vorteil. In der Finanzbranche ermöglicht die Blockchain etwa Transaktionen ohne Banken. In der Logistik könnte sie für einen lückenlosen Nachweis beim Transport von Waren sorgen.

Der Bitkom-Präsident begrüßte, dass die Bundesregierung eine eigene Blockchain-Strategie angekündigt hat. „Das ist ein wichtiges Signal.“ Blockchain sei neben dem Thema Künstliche Intelligenz eine der spannendsten Entwicklungen. Dennoch müssen Deutschland bei der Entwicklung eine weltweite Spitzenstellung anstreben, fordert Berg. Dort habe niemand aus der Studie die deutsche Wirtschaft in internationalen Vergleich verortet.

dpa/ls

]]>
IT-Director Startseite it-zoom Studien
news-22586 Wed, 10 Apr 2019 10:27:29 +0200 Wie KI Kampagnen optimiert http://www.it-zoom.de/it-director/e/wie-ki-kampagnen-optimiert-22586/ Das Bonusprogramm Payback nutzt zur Optimierung seiner Kampagnen ein auf ­Künstlicher Intelligenz (KI) basierendes Software-Tool. Mit 30 Millionen aktiven Kunden und 15 Millionen heruntergeladenen Apps zählt Payback zu den führenden Bonusprogrammen in Deutschland. An dem Programm beteiligen sich 35 stationäre und über 650 Online-Händler. Der Zugriff auf die Multichannel-Marketing-Plattform ermöglicht den Partnern, die Kunden gezielt über alle Kanäle hinweg mittels integrierter Kampagnen anzusprechen. Für den Erfolg der Kampagnen spielen Daten eine wichtige Rolle. Das Analytics-Team des Bonusspezialisten unterstützt die Partner mit Datenanalysen beim Targeting und bei der Kundensegmentierung. Es hilft auch dabei, die internen und Partnerkampagnen zu evaluieren und weiter zu optimieren. „Unser Analytics-Team sitzt sozusagen im Zentrum der Daten“, erklärt Andreas Kretschmer, Director Analytics bei Payback. „Durch die Dateneinblicke können wir einerseits unsere eigenen und die Kampagnen der Partner konsequent optimieren.“

In der immer schneller werdenden und zunehmend auf Echtzeit reagierenden Geschäftswelt reichte die von Payback genutzte Reporting-Lösung von SAP Business Objects allein nicht mehr aus. „Sowohl intern als auch extern kamen immer mehr Anfragen nach Ad-hoc-Analysen und Self-Service Reporting, die es den Fachbereichen und Partnern ermöglichen, ohne Umwege über unsere Analytics-Teams Zugriff auf die Daten zu bekommen“, führt Andreas Kretschmer aus. „Wir hatten uns daher entschieden, ein neues Tool zu suchen, das neben den täglichen und monatlichen Reports mit Business Objects für diese Art der Analyse zum Einsatz kommen sollte.“

Für Payback war es wichtig, dass das neue Tool einfach zu bedienen ist und schnell ohne längere Wartezeit Analyseresultate liefert. Darüber hinaus sollte die Lösung auf neueste Technologien wie Künstliche Intelligenz setzen und auch die enorme Datenmenge, die durch die Plattform generiert wird, sollte kein Problem darstellen. Da in der Zukunft mit wachsenden Datenmengen und mehr Nutzern zu rechnen ist, sollte die Software einfach skalierbar sein. Das Tool sollte ferner ohne größere Schwierigkeiten in die bestehende Architektur integriert werden können.

In einer ersten Phase haben die Verantwortlichen elf Self-Service-Business-Intelligence-Tools evaluiert, von denen es drei in die engere Auswahl geschafft haben. Die drei wurden parallel in einem Proof of Concept mit realen Daten ausgiebig getestet. Am Ende der Testphase entschied man sich aufgrund der einfachen Bedienbarkeit, der reibungslosen Integration mit dem Data Warehouse von Oracle und der guten Leistung für Thoughtspot. Dahinter steckt ein Tool, das mit search-basierter und KI-gestützter Business Intelligence (BI) auf einen neuen Ansatz setzt. „Die intuitive Art der Lösung, mit Daten umzugehen, hat uns angesprochen“, so Andreas Kretschmer. „Jeder kann heutzutage mit einer Suchmaschine umgehen, und dieser Ansatz auf unsere enorme Datenmenge übertragen nimmt der Datenanalyse ihre Komplexität.“ Mit dem Search-Ansatz können alle Mitarbeiter auch ohne Analyse-Know-how jede datenbezogene Frage zu einer Kampagne (Welche Kampagne hatte im Ruhrgebiet den meisten Umsatz?) in die Suchleiste der Anwendung eingeben. Das Tool kalkuliert die Antworten sofort und stellt diese je nach Art der Daten bzw. Frage in der passendsten Visualisierung dar. Da normalerweise eine Frage die nächste nach sich zieht, können die User mit weiteren Fragen in die Datensätze eintauchen.

Zwei Milliarden Datensätze


Die integrierte KI-Engine SpotIQ bietet auch Einsichten, wenn die Anwender nicht recht wissen, welche Fragen sie stellen sollen. Dazu macht die Engine, basierend auf identifizierten Trends oder Ausreißern in den Datensätzen, Suchvorschläge. Diese Suchvorschläge werden basierend auf den Zahlen, den Interessen eines Nutzers und der damit einhergehenden Interessenswahrscheinlichkeit angezeigt.

Obwohl Thoughtspot nach dem Prinzip einer wortgetriebenen Suche à la Amazon oder Google funktioniert, wird der Nutzer geleitet, um eine eindeutige Antwort zu generieren. Dies ist essentiell für eine fundierte Analyse und gewährleistet die Genauigkeit. Zudem war die Leistungsfähigkeit ein wichtiges Kriterium für die Auswahl. Die BI-Lösung war in der Lage, für die jeweiligen Suchanfragen in weniger als einer Sekunde Analyse-Ergebnisse anzuzeigen. Auch der umfassende Support während der Auswahlphase und die positiven Rückmeldungen anderer Kunden stärkten das Vertrauen in die Lösung. Nach einem dreimonatigen Implementierungsprozess und vier Endnutzer-Informationsveranstaltungen ging das BI-Tool in den Live-Betrieb. Ein Training im herkömmlichen Sinne ist für Endnutzer nicht notwendig. Die Daten bezieht die Anwendung aus dem Oracle Data Warehouse von Payback. Zurzeit werden rund 600 GB und zwei Milliarden Datensätze mit dem System analysiert.

In die Prozesse integriert


Seit Mai 2017 ist die Software im Einsatz und wird von über 250 Anwendern verschiedener Abteilungen genutzt. Das Analytics-Team ist mit rund 40 Mitarbeitern einer der Power-Nutzer. Es nutzt die Software komplementär zu SAP Business Object als Reporting-Tool und der Analyse-Software SAS vorrangig für die Ad-hoc-Analyse, um in Echtzeit Dateneinblicke zu erhalten. In den ersten zwei Monaten konnten dank der neuen BI-Lösung etwa die Tickets für Ad-hoc-Analysen signifikant reduziert werden. Vor allem muss das Team den anderen Fachbereichen weniger häufig aushelfen, da diese nun selbstständig analysieren und Antworten in Echtzeit finden können.

Dies ist ein Artikel aus unserer Print-Ausgabe 3/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Insbesondere im Partner-Management kommt die Lösung intensiv zum Einsatz. Jeder Account-Manager nutzt das Tool, um die Effektivität der jeweiligen Partnerkampagnen zu messen und entsprechende Verbesserungen oder Anpassungen beim Targeting und bei der Segmentierung vorzuschlagen. Dadurch kann der Nutzen aus den Daten in Echtzeit in die täglichen Prozesse integriert werden. Um die Kampagnen umfassend bewerten zu können, werden auch die Kundenaktivitäten analysiert. So können Probleme oder Trends frühzeitig erkannt werden und der Partner kann entsprechend schnell darauf reagieren. Auch die Marketingabteilung nutzt die Software zur Ad-hoc-Analyse. Jedes Team hat einen eigenen Zugang mit eigenen Pin-Boards (Visualisierungen zu fest definierten oder häufigen Suchanfragen), auf denen sich die Performance der Marketingkanäle wie Newsletter oder App genau verfolgen und im Detail sehen lässt, was funktioniert, wo es Probleme gibt und welche Ursache diese haben können.


Die Payback GmbH ...

... ist eine Tochtergesellschaft der Loyalty Partner GmbH, die wiederum als Teil der American-Express-Gruppe fungiert. An dem in Deutschland seit März 2000 und in Österreich seit Mai 2018 bestehenden Bonussystem beteiligen sich 35 stationäre und über 650 Online-Händler.


Bildquelle: Payback

]]>
IT-Director Startseite it-zoom Business Intelligence / Big Data
news-22585 Tue, 09 Apr 2019 17:04:07 +0200 Die Cloud ist bald eine Billion Dollar wert http://www.it-zoom.de/it-director/e/die-cloud-ist-bald-eine-billion-dollar-wert-22585/ Der Cloud-Markt wächst und wächst: Die Umsätze liegen bei 272 Milliarden, die Marktkapitalisierung bei 690 Milliarden US-Dollar. Die Billion ist nicht mehr fern. So sieht Erfolg aus: Nach aktuellen Marktdaten wurden 2018 auf dem globalen Cloud-Computing-Markt 272 Milliarden US-Dollar erwirtschaftet. Die Experten von Research & Markets erwarten, dass die Umsätze im Cloud Computing bis 2023 auf 623,3 Milliarden US-Dollar anwachsen. Grund für die mehr als positive Prognose: Immer mehr Unternehmen setzen auf erhöhte Automatisierung, Kosteneinsparungen und bessere Rentabilität. Diese wichtigen Wachstumsfaktoren sorgen dafür, dass die Cloud-Umsätze um etwa 18 Prozent pro Jahr ansteigen.

Bald eine Billion Dollar Marktkapitalisierung

Insgesamt hat dieser Markt in den letzten Jahren ein erhebliches Wachstum gezeigt. So gibt es inzwischen gut 100 Cloud-Einhörner – Unternehmen mit einer Bewertung von einer Milliarde US-Dollar oder mehr. Etwas mehr als die Hälfte davon befindet sich in Privatbesitz, die anderen sind börsennotiert. Dabei handelt es sich nicht um einzelne Leuchttürme, sondern lediglich um die Spitzenreiter im Gesamtmarkt.

Auch an der Börse sind Cloud-Unternehmen der Renner, die Nachfrage nach Cloud-Aktien erreichte laut einer Analyse von Bessemer Venture Partners ein neues Rekordhoch. Auch in anderer Hinsicht gibt es Erfolgszahlen zu melden: Insgesamt wurden mehr als 90 Milliarden Dollar für die Übernahme von großen Cloud-Unternehmen erlöst. Spitzenreiter waren dabei der Kauf von Red Hat durch IBM (33 Mrd. USD) und die Übernahme von GitHub durch Microsoft (7,5 Mrd. USD).

Zudem gab es einige erfolgreiche Börsengänge (etwa DocuSign, Dropbox oder Elastic), die insgesamt über 50 Milliarden US-Dollar erlösten. Damit hat die Marktkapitalisierung aller Public-Cloud-Anbieter erreichte vor wenigen Wochen 690 Milliarden US-Dollar. Angesichts der stürmischen Entwicklung mit etwa 35 Prozent Wachstum in den letzten vier Jahren geht Bessemer Venture Partners davon aus, das Im Laufe des Jahres 2020 die Billionen-Dollar-Grenze durchstoßen wird.

Fast alle Firmen sind in der Cloud

Schon die reinen Marktdaten sprechen für eine hohe Verbreitung von Cloud Computing in den Unternehmen. Laut der Flexera-Studie „State of the Cloud Report 2019“ nutzen inzwischen die meisten Unternehmen die Cloud – jedenfalls weltweit betrachtet. Die Umfrage unter 786 weltweiten Unternehmen ergab einige interessante Einblicke. So gaben 94 Prozent aller Befragten an, dass sie eine Art von Cloud Computing einsetzen. Dabei nutzt die Mehrheit (69%) einen Hybriden Ansatz, also die Kombination aus Private und Public Cloud.

Auch die Multi-Cloud, also die Nutzung von Cloudservices unterschiedlicher Anbieter, ist vor allem in großen Unternehmen mit 84 Prozent weit verbreitet. Im Durchschnitt nutzen die Unternehmen fünf unterschiedliche Cloudservices, in den tatsächlich auch ein sehr großer Teil (79%) aller Business-Workloads ausgeführt werden. Dabei hat die Private Cloud aber einen Vorsprung, 46 Prozent der Workloads entfallen auf diese Art des Cloud Computing.

Trotzdem wächst die Public Cloud. Gut die Hälfte der Großunternehmen geben mehr als 1,2 Millionen US-Dollar für Public-Cloud-Services aus. Bei den kleinen und mittelgroßen Unternehmen verteilen sich die Ausgaben etwas anders. Hier geben etwa die Hälfte (51%) bis zu 120.000 Dollar aus und etwas mehr als ein Viertel (27%) maximal 600.000 Dollar. Das meiste Geld davon geht an die beiden Marktführer Amazon (AWS) und Microsoft (Azure). Sie liegen etwa gleichauf. Die Cloudservices von Google sind mit etwas Abstand Dritter, der Rest des Feldes (VMware, IBM, Oracle) wird deutlich seltener eingesetzt.

Hoher Reifegrad der Cloud-Nutzung

Die Angaben für Cloud-Kosten und die Nutzung der Marktführer zeigen, dass zahlreiche Unternehmen sich mehrere der vergleichsweise teuren großen Cloudservices. Dementsprechend ist - im dritten Jahr in Folge - die Kostenoptimierung auf Platz Eins der Agenda der meisten Unternehmen (64%) in den nächsten Monaten. Zwar hat die Cloud auch weiterhin Kostenvorteile gegenüber lokal betriebener Software, doch einige Probleme sterben nicht aus.

So hat gut jedes zweite Unternehmen Probleme mit dem Lizenzmanagement. Viele Cloud-Anbieter berechnen die monatlichen oder jährlichen Gebühren nach Anzahl der Nutzer. Grundsätzlich können Unternehmensmitarbeiter einzeln in das Nutzerverzeichnis eines Service eingetragen werden. Doch der Verwaltungsaufwand dafür ist vor allem in Konzernen groß, sodass die Unternehmen größere Kontingente bestellen.

Hier entsteht aber die Gefahr der Überlizenzierung. Das Ergebnis: 36 Prozent der Unternehmen haben Schwierigkeiten damit, diese Überlizenzierung zu entdecken und 30 Prozent finden es problematisch, nicht länger benötigte Lizenzen zu ermitteln. Diese Herausforderungen beim Management von Cloudservices deuten aber darauf hin, dass Cloud Computing in den Unternehmen einen hohen Reifegrad erreicht und den Exotenstatus verloren hat.

Bildquelle: Getty Images

]]>
Ingo Steinhaus Startseite it-zoom Cloud IT-Director
news-22583 Tue, 09 Apr 2019 16:15:31 +0200 Hier vernetzen sich IT-Experten http://www.it-zoom.de/it-director/e/hier-vernetzen-sich-it-experten-22583/ Karriere-Netzwerke wie Xing oder Linkedin haben in ihrem Segment nur wenig Konkurrenz. Wer sich darüber hinaus vernetzen möchte, kann im Netz aber trotzdem spannende Alternativen finden. Es gibt für Unternehmen ganz klare Anlaufstellen, wenn es um Maßnahmen wie das sogenannte „Active Sourcing” geht. Damit ist das proaktive Ansprechen von potentiellen Kandidaten gemeint, die für das Unternehmen interessant sein könnten. Die großen B2B-Netzwerke wie Xing oder Linkedin sind häufig die erste Wahl für solche Strategien. Das dürfte vor allem an der anhaltenden Popularität der Plattformen liegen: Xing hat nach eigenen Angaben rund 15 Millionen Nutzer im deutschsprachigen Raum, Linkedin gab zuletzt 13 Millionen Mitglieder für die DACH-Region an. Dass sich dort Fachkräfte aus den verschiedensten Branchen vernetzen, liegt also nahe. Dennoch lohnt es sich für Unternehmer, Personaler und Fachkräfte gleichermaßen, hin und wieder einen Blick über den Tellerrand zu werfen. Dort finden sich nämlich ebenfalls interessante Möglichkeiten, um das eigene Netzwerk auszubauen.

Umfangreiches Expertenverzeichnis

Das Expertenportal Brainguide verzichtet etwa weitestgehend auf die Funktionalitäten der gängigen B2B-Social-Media-Plattformen, bietet Fachkräften sowie Unternehmen dafür aber umfangreiche Präsentationsmöglichkeiten an. Ein eingeschränktes Grundprofil kann umsonst beantragt werden – Voraussetzung ist der Nachweis einer Veröffentlichung bzw. eines Veranstaltungsbeitrags oder mindestens 5 Jahre Berufserfahrung im jeweiligen Fachbereich. Ein Standard- oder Premium-Profil mit erweiterten Präsentationsmöglichkeiten kann gegen eine monatliche Gebühr freigeschaltet werden. Für Unternehmensprofile wird eine ähnliche Staffelung angeboten. Auf der Plattform sind zahlreiche Experten für Fachgebiete wie Business Intelligence, ERP oder IT-Sicherheit angemeldet, deren Kontaktdaten und weiterführende Online-Profile auch ohne Anmeldung eingesehen werden können.

Schlank organisierte Networking-Veranstaltungen

Einen etwas anderen Networking-Ansatz bietet Meetup. Über das Portal organisieren sich viele Millionen Nutzer aus der ganzen Welt in spezifischen Interessengruppen, um sich bei gemeinsamen Treffen von Angesicht zu Angesicht auszutauschen. Neben Themenbereichen wie Sport, Kultur oder Familie spielen hier auch Aspekte wie Karriere und Technologie eine wichtige Rolle. Fachkräften und Experten bietet sich so die Möglichkeit, sich in ihrer Umgebung direkt mit anderen Profis auszutauschen. Das Angebot hängt dabei stark vom eigenen Standort ab. Menschen aus ländlicher Region müssen ggf. weitere Anfahrten für spezielle Treffen in Kauf nehmen. In den Großstädten und Metropolregionen findet sich dagegen ein breites Angebot an kostenlosen Veranstaltungen, darunter regelmäßige Netzwerkmöglichkeiten für Start-up-Gründer, SEO-Profis, Blockchain-Enthusiasten oder KI-Spezialisten. Unternehmen treten in diesem Kontext häufig als Veranstalter oder Präsentatoren auf.

Kleine Alternative für Minimalisten

Das Karriere-Netzwerk Vutuv konnte im Jahr 2016 erstmals für eine gewisse Aufmerksamkeit sorgen, als die Plattform von Stefan Wintermeyer als erste deutsche Webseite in die Internet.org-Initiative von Facebook aufgenommen wurde. Der Gründer hatte sich damals zum Ziel gesetzt, die Grundidee hinter Xing und Linkedin auf das aller nötigste zu reduzieren und so eine besonders schlanke und schnelle B2B-Plattform anzubieten, die auf die überladenen Benutzeroberflächen der Konkurrenz verzichtet. Eine Ambition, die durchaus gelungen ist: In dem Netzwerk wird konsequent auf Features verzichtet, die nicht unmittelbar mit dem Vernetzungsgedanken in Verbindung stehen – inklusive zahlungspflichtigen Premium-Inhalten. Wirklich Konkurrenz konnte man den großen Anbietern bisher allerdings nicht machen: Das Portal wirbt auf seiner Startseite mit etwas mehr als 21.000 registrierten Mitgliedern. Dementsprechend übersichtlich fallen leider auch die Suchergebnisse in manchen IT-Fachbereichen aus. Nichtsdestotrotz ist ein kleiner Teil der Branche auch hier zu finden. Unterstützenswert ist die kleine Alternative in jedem Fall.

Alternativen wie Brainguide, Meetup oder Vutuv sind zwar kein Ersatz für die beiden großen Karrierenetzwerke, aber eine hervorragende Ergänzung – ganz egal, ob man als Unternehmer auf Personalsuche ist oder sich als Fachkraft mit Gleichgesinnten austauschen möchte. Während sich über Brainguide schnell und unkompliziert Kontaktdaten von Experten auf bestimmten Fachgebieten beziehen lassen, eignet sich Meetup gut dafür, um langfristige Beziehungen im Berufsnetzwerk aufzubauen. Vutuv krankt zwar ein wenig an seiner geringen Nutzerbasis, steht aber immer noch für eine vielversprechende Idee.

Bildquelle: Getty Images/iStock

]]>
Philip Fassing IT-Director Startseite it-zoom HR Personal
news-22575 Tue, 09 Apr 2019 09:43:41 +0200 Der Co-Pilot der Datenverwaltung http://www.it-zoom.de/it-director/e/der-co-pilot-der-datenverwaltung-22575/ Mit der Nutzung von Colocation-Dienstleistungen können Unternehmen die ­Anforderungen ihrer Kunden besser erfüllen. So auch in der Logistikbranche. In der Logistik stehen Unternehmen vor der Herausforderung, sensible Informationen zu Gütern, Kunden, Routenplänen oder Gefahrfrachten zu speichern und zu verwalten, die nach DSGVO-Anforderungen und revisionssicher behandelt werden müssen. Hier spielen neben der IT-Sicherheit auch bauliche Sicherheitsmaßnahmen eine Rolle, die nicht jedes Unternehmen intern umsetzen kann. So ging es auch einem großen Logistiker aus Norddeutschland. Um die Kundenanforderungen an Datensicherheit und -verwaltung zu erfüllen, setzt man auf die Plutex GmbH aus Bremen.

„Grundsätzlich ergibt eine Auslagerung der IT in eine Colocation für Unternehmen dann Sinn, wenn sie sich auf ihr Kerngeschäft konzentrieren wollen und die Sicherung der Daten gleichzeitig nachweislich nach den aktuellen Standards erfolgen muss. Wirtschaftlich gesehen betrifft dies auch rechtliche Veränderungen, wie Kundenprojekte, die nur zustande kommen, wenn eine Auslagerung der Daten erfolgt“, so Torben Belz, Geschäftsführer der Plutex. Im konkreten Fall ­forderte ein Kunde als Sicherheitsvorkehrung, dass die zu verwaltenden Kundendaten nicht innerhalb des Logistikunternehmens gespeichert werden sollten, sondern in einem externen, räumlich getrennten Rechenzentrum, das für Betriebs- und Informationssicherheit gemäß den DIN-ISO-Industriestandards zertifiziert ist.

Die Umsetzung sollte auf Basis aktueller Standards bei IT- und Ausfallsicherheit sowie baulichen Gegebenheiten bei Brandschutz, Zutrittskontrolle und Revisionsmöglichkeiten erfolgen. Diese Kriterien musste der Colocation-Partner erfüllen. Ausschlaggebend für die Colocation waren das Preis-Leistungs-Verhältnis und die Tatsache, dass der Managed-Service-Provider Tüv-zertifizierte Rechenzentren betreibt, die gemäß dem europäischen Datenschutzrecht arbeiten und durch ein Zugangs- und Sicherheitskonzept geschützt sind. Weiter konnten die persönliche Beratung und der Notfalldienst überzeugen. Der Service-Provider betreibt in Bremen und Bielefeld energieeffiziente Rechenzentren. Tüv-Zertifikate für die IT- und Informationssicherheit (ISO/IEC 27001) und für das Qualitätsmanagement (ISO/IEC 9001) sowie ein mehrstufiges Sicherheitskonzept und ein eigener Datenschutzbeauftragter sollen dabei für Sicherheit und Kontrolle von Daten und Servern sorgen.

Der Start der Zusammenarbeit war Anfang 2018. Umgesetzt wurden vier Racks in zwei Brandabschnitten in unterschiedlichen Gebäuden. Von Beginn an stand der Colocation-Anbieter dem Logistikexperten bei Planung und Umsetzung zur Seite. Da die Lkws auch während des Umzugs der Server weiterhin fahren mussten und der gesamte Firmenalltag nicht pausieren konnte, erfolgte die Umstellung ohne Shutdown. Dazu setzte der Provider die Umlagerung der Server in mehreren Etappen um. „Die Zeit zwischen den Umlagerungen war wichtig, weil nicht alle Server gleichzeitig abgeschaltet werden konnten und wir immer mit Ausfällen der Festplatten rechnen müssen, vor allem, wenn die Hardware der Kunden alt ist. Mit diesem Vorgehen verhindern wir, dass Daten unwiederbringlich verloren gehen“, veranschaulicht Belz. Es erfolgte eine doppelte Sicherung aller Daten, ohne den Kundenalltag zu beeinträchtigen. Erst als alle Server wieder angeschlossen und hochgefahren waren, wurden die Doppelgänger im Kundenunternehmen abgeschaltet. Grundsätzlich bietet eine Umlagerung der IT in eine Colocation Unternehmen die Chance, ihre Soft- und Hardware neu anzuordnen und zu strukturieren. Alte, „gewachsene“ und schwer nachzuvollziehende Strukturen können so geordnet und IT-basierte Altlasten, die bei einem technischen Zwischenfall zum Problem werden, eliminiert werden.

Dies ist ein Artikel aus unserer Print-Ausgabe 3/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Im Alltag der Datenspeicherung und -verwaltung besitzt der Logistiker nun eine höhere Betriebssicherheit und erfüllt die Anforderungen seiner Kunden, die Daten in einem zertifizierten Rechenzentrum zu verwalten. Im Rahmen der Services unterstützt ein Team mit 24-Stunden-Notfallbereitschaft den Logistiker. Dabei behält er trotzdem die Kontrolle über seine ausgelagerten Server und hat jederzeit physischen Zugang zu seinen Servern und Racks. Somit verfügt der Kunde über eine moderne RZ-Infrastruktur für seine Unternehmens-IT ohne eigene Investitions- und Wartungskosten. Trotz dieser Zugewinne spart der Kunde ca. 20 Prozent seiner jährlichen IT-Kosten.


Die Vorteile einer Colocation

  • DSGVO-konforme Sicherung der Daten
  • Der Fokus richtet sich wieder auf das ­Kerngeschäft des Unternehmens.
  • Viele Projekte erfordern eine Datensicherung nach europäischem Datenschutzrecht.
  • Viele Anbieter von Rechenzentren werden regelmäßig vom Tüv hinsichtlich der IT- und Informationssicherheit sowie des ­Qualitätsmanagements zertifiziert.24/7-Notfalldienst
  • Möglichkeit der Neustrukturierung von Soft- und Hardware
  • Das Anwenderunternehmen behält Kontrolle und vollen Zugang zu Servern und Daten.
  • keine eigenen Investitions- und Wartungskosten
  • jährliche IT-Kosteneinsparung von etwa 20 Prozent


Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom IT-Dienstleistung / Outsourcing
news-22574 Tue, 09 Apr 2019 09:37:58 +0200 Multifunktion für den digitalen Arbeitsplatz http://www.it-zoom.de/it-director/e/multifunktion-fuer-den-digitalen-arbeitsplatz-22574/ Bereits im Januar 2019 stellte Ricoh eine erste Serie neuer, intelligenter ­Multifunktionssysteme für den ­digitalen Arbeitsplatz vor. Die IM-C-Serie, zu der aktuell 13 A3-Farb-Multifunktionsgeräte gehören, soll Teil des neuen Konzepts „Dynamic Workplace Intelligence“ sein, das auch mit der Einführung einer neuen Technologieplattform einhergeht: Always Current Technology. Hierbei handelt es sich laut Hersteller um eine Plattform, die es den neuen Systemen ermöglicht, ihre Funktionen und technischen Eigenschaften kontinuierlich weiterzuentwickeln und entsprechend den sich dynamisch verändernden Kundenanforderungen zu erweitern und anzupassen.

Hierfür können Benutzer über die Plattform beispielsweise neue Anwendungen, Funktionen und Upgrades direkt auf ihr System herunterladen und installieren, sobald diese verfügbar sind. Damit soll die Plattform für mehr Agilität und Flexibilität an digitalen Arbeitsplätzen sorgen. Für zusätzliche Funktionen müssten nun nicht mehr unbedingt Anpassungen an der Hardware vorgenommen werden. Außerdem können die Kapazitäten je nach aktuellem Bedarf skaliert werden und die Software und Sicherheitsfunktionen der Systeme sind immer auf dem neuesten Stand. Der Intelligent Support des Herstellers soll überdies gewährleisten, dass Software-Upgrades schnell per Fernwartung durchgeführt werden können und die Systemverfügbarkeit gesteigert wird.

Die neue IM-C-Serie gilt als Reihe intelligenter Systeme, die Ricoh mit dieser neuen Plattform auf den Markt bringen wird. Zu den künftigen Weiterentwicklungen im Bürodruck gehören auch die „Cloud Workflow Solutions“. Diese enthalten eine Reihe cloud-basierter Technologien, die auf Basis eines Abonnements Zugang zu skalierbaren Software-Paketen für Effizienz im digitalen Arbeitsalltag sorgen, heißt es in einer Pressemeldung.

Bildquelle: Ricoh

]]>
IT-Director Dokumentenmanagement und ECM
news-22573 Tue, 09 Apr 2019 09:12:17 +0200 Positionspapier für ethischen KI-Einsatz http://www.it-zoom.de/it-director/e/positionspapier-fuer-ethischen-ki-einsatz-22573/ Eine Expertengruppe der EU-Kommission hat ein Kompendium mit Ethikleitlinien für den Einsatz von Künstlicher Intelligenz (KI) vorgelegt. „Ein wichtiges Augenmerk wird die Bundesregierung auf Ethikaspekte in der Normung und Standardisierung für KI in autonomen Maschinen und Fahrzeugen setzen”, hieß es bereits in der KI-Strategie der Bundesregierung, die im November des vergangenen Jahres enthüllt wurde. Eine aus 52 Experten und Expertinnen bestehende Arbeitsgruppe der EU-Kommission demonstriert nun mit den neuen Leitlinien, was sich konkret hinter dieser Formulierung verbirgt. So beschäftigen sich die Ethikleitlinien über eine Länge von 36 Seiten u.a. mit der Formulierung von Grundlagen von für eine vertrauenswürdige KI, der Anwendung von KI unter ethischen Vorzeichen sowie den damit einhergehenden Chancen und Risiken.

Die Positionen basieren auf sieben grundlegenden Voraussetzungen, die vertrauenswürdige Anwendung von KI ermöglichen sollen. Diese besagen etwa, dass KI die Autonomie der Menschen nicht verringern, beschränken oder fehlleiten darf. Darüber hinaus spielen Aspekte wie Datenschutz, Transparenz, Rechenschaftspflicht und Nichtdiskriminierung spielen eine wichtige Rolle bei der Bewertung der Vertrauenswürdigkeit einer KI. Die Kommission will nach der Bestimmung dieser Anforderungen nun eine umfangreiche Pilotphase gehen, um Verbesserungsvorschläge und Anmerkungen von Interessengruppen aus der Praxis zu erhalten. Daraus soll sich schließlich ein internationaler Konsens zum Aufbau einer menschenzentrierten Künstlichen Intelligenz ergeben.

In der Expertengruppe der EU-Kommission finden sich neben unabhängigen Forschern und Wissenschaftlern auch zahlreiche Vertreter großer Digitalkonzerne wie Google, SAP oder IBM. Achim Berg, der als Präsident des Branchenverbandes Bitkom die Interessen dieser Konzerne vertritt, begrüßt den Vorstoß prinzipiell. Zugleich mahnt Berg aber auch, dass man in Deutschland und Europa aufpassen müsse, nicht nur über KI zu diskutieren, sondern sie auch anzuwenden.

Bildquelle: Thinkstock/iStock

]]>
Philip Fassing IT-Director Startseite it-zoom Unternehmen
news-22567 Mon, 08 Apr 2019 15:37:43 +0200 Sichere IT-Infrastruktur für die Krebsforschung http://www.it-zoom.de/it-director/e/sichere-it-infrastruktur-fuer-die-krebsforschung-22567/ Das Deutsche Krebsforschungszentrum (DKFZ) will mit der Speicherlösung von Pure Storage seine IT-Infrastruktur verbessern. Das DKFZ ist das größte biomedizinische Forschungsinstitut in Deutschland und Mitglied der Helmholtz-Gemeinschaft Deutscher Forschungszentren. In über 90 Abteilungen und Forschungsgruppen erforschen mehr als 1.200 Wissenschaftler die Mechanismen von Krebs, identifizieren Risikofaktoren und versuchen, Strategien zu finden, um zu verhindern, dass Menschen Krebs bekommen. Um diese Entdeckungen zu unterstützen, ist die Rechenzentrumsinfrastruktur für den Forschungsbetrieb prozesskritisch. Eine kürzlich durchgeführte Bewertung dieser Infrastruktur ergab, dass die aktuelle Lösung für die Zukunft nicht tragfähig war, da die IT-Anforderungen, einschließlich Geschwindigkeit, Agilität und Benutzerfreundlichkeit der Infrastruktur, alle bereit waren für robustes Wachstum.

„Unser Infrastrukturdesign erforderte eine moderne Datenlösung“, erklärt Tobias Reber, im Bereich Core Facility IT, AG Zentrale Server, am DKFZ tätig. „Die Lösung von Pure Storage war schnell zu installieren, obwohl es sich um mehrere Systeme handelte und einen Eingriff in eine bestehende Infrastruktur bedeutete. Die Installation hatte keine Auswirkungen auf das laufende System und konnte während der normalen Arbeitszeiten durchgeführt werden. Der entscheidende Unterschied in der Systemverfügbarkeit ist, dass kein Festplattentausch mehr erforderlich ist.“

Die Administratoren verwalten den Speicher direkt über die Pure1-Oberfläche, eine cloud-basierte Management-Plattform für Pure-All-Flash-Arrays. Der Aufwand für die Datenverwaltung am DKFZ ist gesunken. Darüber hinaus konnte die Forschungseinrichtung auch den Platzbedarf in den Rechenzentren um 50 bis 70 Prozent reduzieren.

„Wir sind eine bedeutende Forschungseinrichtung auf dem Gebiet der Medizin. Die Anbindung von Arbeitsplätzen in Krankenhäusern an die IT-Infrastruktur ist entscheidend. Außerdem benötigen unsere eigenen Mitarbeiter in externen Kliniken direkten Zugriff auf Daten und Anwendungen“, verdeutlicht Reber. Mitarbeiter, die in anderen Kliniken und im Deutschen Konsortium für Tumorkrankheiten arbeiten würden, könnten aus der Ferne und schnell auf sensible Daten in einer sicheren Umgebung zugreifen. Dies verbessere die Wirksamkeit der Krebsforscher und beschleunige den Nutzen für die Patienten.

Bildquelle: Thinkstock/Wavebreak Media

]]>
IT-Director Startseite it-zoom Storage
news-22566 Mon, 08 Apr 2019 15:14:28 +0200 Von Smart-Home-Schutz bis VR-Haus http://www.it-zoom.de/it-director/e/von-smart-home-schutz-bis-vr-haus-22566/ Schutz vor Cyberkriminalität für Privatpersonen, Versicherungsschutz für alle elektronischen Geräte des Haushalts sowie die überarbeiteten Produkte Hausrat und Multirisk– mit innovativen Leistungsbausteinen und diversen Leistungsverbesserungen in ihren Produkten will sich die Gothaer auf die neuen Rahmenbedingungen einer digitalisierten Welt ausrichten. 94 Prozent aller deutschen Haushalte haben laut dem Statista einen Internet-Anschluss. Der Zugang zum Netz ist längst aus keinem Haushalt mehr wegzudenken. „Dadurch entstehen aber auch neue Risiken und die Gothaer richtet ihren Versicherungsschutz an der Lebenswelt ihrer Kunden aus“, erläutert Jörg Kranz, Leiter des Produktmanagements für Privatkunden. Entsprechend bietet die Versicherung im Rahmen ihrer Produktmodernisierung einen neuen Baustein an: den Internet-Schutz. Dieser sei zusätzlich zur Hausratversicherung abschließbar und trete beispielsweise bei einem Vermögensschaden durch Diebstahl von Identitäts- und Zahlungsmitteldaten, beim Online-Shopping und als Highlight bei Online-Buchungen ein.

Ein weiterer zusätzlich abschließbarer Leistungsbaustein ist der Elektronik-Schutz. „Heutzutage gehören hochwertige elektronische Geräte wie Smart-TV, HiFi-Anlagen oder mobile Endgeräte zum Standard vieler Haushalte. Schäden an allen Elektrogeräten des Haushalts lassen sich durch den neuen Elektronik-Schutz absichern“, erklärt Kranz. Kunden, die den Baustein hinzuwählen, erhalten für ihre Geräte im ersten Jahr der Anschaffung den Neuwert, danach erfolgt die Erstattung nach der Zeitwertstaffel.

Dann gibt es fortan innerhalb der Hausratversicherung auch den Smart-Home-Schutz. Versicherungskunden, die eine Smart-Home-Anlage der Kooperationspartner Abus oder Bosch installiert haben, sollen beitragsfrei von diesem Baustein profitieren – beispielsweise durch eine Erhöhung von Entschädigungsgrenzen.

Eine weitere Neuheit ist der Baustein „Kunst & Mobilien“-Schutz, der zum Premium-Tarif zuwählbar ist und erhöhte Entschädigungsgrenzen bietet. So können Kunstliebhaber oder Menschen mit besonders wertvollem Inventar ihre Wertgegenstände absichern.

Ein eigenes VR-Haus


Darüber hinaus hat die Versicherung ihre Multirisk-Produkte „Wohnung&Wert“ sowie „Heim&Haus“ überarbeitet. Diese Produkte sollen für sicherheitsbewusste Kunden Rundum-Schutz-Pakete bieten. Hausrat, Glasbruch, Haftpflicht und Rechtsstreitigkeiten – sowie bei „Heim&Haus“ zusätzlich Wohngebäude – seien in einem Paket abgesichert.

Um Kunden mögliche Schadenquellen, aber auch Präventionsmöglichkeiten lebensecht vor Augen zu führen, hat die Versicherung zudem ein eigenes Virtual-Reality-Haus (VR) entwickelt. Dort lasse sich beispielsweise realitätsnah nachvollziehen, was ein Leitungswasserschaden anrichten kann oder an welchen Stellen des Hauses Einbrecher vermehrt in die Wohnung eindringen. „Mit diesem modernen Ansatz wollen wir unsere Kunden sensibilisieren, gleichzeitig aber auch mögliche Präventionslösungen unserer Kooperationspartner im Bereich Smart Home – Abus, Grohe und Bosch – vorstellen“, sagt Kranz.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom Sicherheit
news-22561 Mon, 08 Apr 2019 11:13:25 +0200 Digitalisierer aus Leidenschaft http://www.it-zoom.de/it-director/e/digitalisierer-aus-leidenschaft-22561/ Interview mit Matthias Moeller, CEO von Arvato Systems und CIO der Muttergesellschaft Bertelsmann, über erfolgreiche Digitalstrategien, Cloud-Migrationen und aktuelle KI-Projekte. IT-DIRECTOR: Herr Moeller, Sie fungieren in Personalunion als CEO von Arvato Systems und CIO der Bertelsmann-Gruppe. Wie passt das zusammen?
M. Moeller:
Sehr gut, denn daraus resultieren zahlreiche Synergien. So kümmern wir uns mit Arvato Systems genau um die Fragen, die Bertelsmann innerhalb der IT-Strategie bewegen. Das heißt, dass mich viele Themen als CEO und CIO gleichermaßen beschäftigen.

In meiner Funktion als CIO bin ich stets darauf bedacht, funktionierende Basisinfrastrukturen für den Gesamtkonzern sicherzustellen. Darüber hinaus gilt es, aktuelle Technologien wie Cloud Computing und Künstliche Intelligenz in unsere Geschäftsmodelle zu integrieren.

IT-DIRECTOR: Wie läuft die Entscheidungsfindung ab?
M. Moeller:
Der Konzern ist IT-seitig dezentral aufgestellt, sodass die jeweilige Roadmap für die Digitalisierung in den Händen der einzelnen Bertelsmann Divisionen wie RTL, Gruner + Jahr oder Random House liegt. Meine Aufgabe als Bertelsmann-CIO ist es, übergreifende Rahmenbedingungen zu definieren und sicherzustellen – etwa im Kontext von Cybersicherheit, Risikomanagement oder Kosteneffizienzmanagement. Konkrete IT-Vorhaben liegen jedoch in der Verantwortung der einzelnen CIOs der Divisionen.

IT-DIRECTOR: Hinter Arvato Systems steckt ein Unternehmen mit rund 2.800 Mitarbeitern und einem Umsatz von zuletzt 400 Millionen Euro. Als umfassender IT-Dienstleister agieren Sie dabei nicht nur für die Bertelsmann-Gruppe, sondern auch für eine Vielzahl anderer Kunden. Welche Schwerpunkte setzen Sie dabei?
M. Moeller:
Wir sind bereits seit langem als Cloud-Spezialist unterwegs und positionieren uns seit über drei Jahren als Multi-Cloud-Anbieter. Im Zuge dessen stellen wir den Kunden sämtliche denkbaren Cloud-Varianten bereit und bieten Managed Services für die gängigen Hyperscaler wie Microsoft Azure, Google und Amazon Web Services. Daneben betreiben wir eigene Private-Cloud-Infrastrukturen auf unserem Campus in Gütersloh sowie in weiteren Rechenzentren in Nordrhein-Westfalen und Sachsen. Auf diese Weise haben wir sozusagen eine „deutsche Cloud“ aufgebaut.

IT-DIRECTOR: Welche Dienstleistungen fragen die Kunden momentan verstärkt nach?
M. Moeller:
Bei allen Kunden rücken Cloud-Betriebsmodelle in den Fokus. Dabei stößt man im Regelfall auf Multi-Cloud-Szenarien, die aus Public-, Private- und On-Premises-Installationen bestehen. Ausschließliche Public-Cloud-Strategien hingegen findet man noch eher selten vor. Demgegenüber gibt es nach wie vor noch viele Kunden, die ausschließlich auf Private-Cloud-Infrastrukturen setzen, auch im Rahmen von klassischem IT-Outsourcing.

IT-DIRECTOR: Worauf kommt es an, wenn Anwenderunternehmen von der klassischen IT-Welt in die Cloud umsteigen wollen?
M. Moeller:
Dies hängt stark von der jeweiligen Ausgangslage ab: Betreiben die Kunden ihre IT noch immer selbst und dies sogar im eigenen Rechenzentrum, dann werden sie wohl zunächst über Private-Cloud-Strukturen nachdenken. Kunden der ersten und zweiten Outsourcing-Generation sind hingegen einen Schritt weiter und wandeln sich zu reinen Cloud-Anwendern.

Dies ist ein Artikel aus unserer Print-Ausgabe 4/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Generell bieten wir verschiedene Wege in die Cloud an. Im Rahmen eines „Smart Shift“ bringen die Kunden bestehende Strukturen und eigens betriebene Systeme in ein gemanagtes Outsourcing, was im Wesentlichen dem Umstieg in eine Private Cloud gleichkommt. Daneben können wir auch eine Transformation direkt in die Public Cloud realisieren. Für welches Modell sich die Kunden entscheiden, hängt zudem von den Geschäftsanforderungen, der Geschäftsstrategie, der existierenden Unternehmenskultur und den technisch-organisatorischen oder auch regulatorischen Voraussetzungen ab.

IT-DIRECTOR: Wie laufen die Vorbereitungen bestenfalls ab?
M. Moeller: Die
Verantwortlichen sollten folgende Fragen beantworten können: Inwieweit ist eine Cloud-Migration technisch und organisatorisch machbar? Welchen wirtschaftlichen Nutzen will man damit erzielen? Wichtige Gründe, die gegen den Betrieb in der Public Cloud sprechen, können beispielsweise entsprechende Vorgaben in stark regulierten Bereichen sein. Desweiteren spielen Sicherheitsaspekte eine wichtige Rolle, insbesondere bei so sensiblen Projekten wie der elektronischen Gesundheitskarte, der Etablierung von Smart Grids oder anderer kritischer Infrastrukturen. Es passiert durchaus, dass Ausschreibungen von vorneherein ein Management in der Public Cloud ausschließen.

IT-DIRECTOR: Inwieweit stellen Public-Cloud-Services die kostengünstigste Alternative dar?
M. Moeller:
Bei unseren Vergleichen zwischen Public- und Private-Cloud-Betriebsmodellen erwiesen sich die Private-Cloud-Angebote zum jetzigen Zeitpunkt oft als kostengünstiger. Generell gilt es, neben den zugrundeliegenden Architekturen auch die weiterführende Roadmap und künftige Preisschwankungen im Blick zu behalten. Aktuell beobachten wir, dass viele Cloud-Anbieter an der Preisschraube drehen und insbesondere die großen Provider ihre Skaleneffekte auf die Preise umlegen, sodass hier in den kommenden Jahren mit sinkenden Preisen gerechnet werden kann.

IT-DIRECTOR: Wie gestaltet sich derzeit ein Wechsel des Cloud-Providers?
M. Moeller:
Geht es um den Betrieb der reinen Infrastrukturen in der Public Cloud, kann man grundsätzlich von einem auf den anderen Hyperscaler der drei großen Anbieter Amazon, Google und Microsoft umsteigen. In der Praxis wechseln Kunden jedoch kaum hin und her, vielmehr bleiben sie ihrem einmal ausgewählten Public-Cloud-Anbieter treu. Allerdings kommt es durchaus vor, dass Kunden den IT-Betrieb aus der Public Cloud wieder in die private Cloud oder dedizierte Strukturentypo3/#_msocom_1  zurückholen, da sie die wirtschaftlichen Vorteile nicht erkennen.

IT-DIRECTOR: Was treibt die Verantwortlichen über Cloud Computing hinaus beim IT-Outsourcing derzeit um?
M. Moeller:
Transformations- oder Migrationsprojekte laufen zunehmend in Teilbereichen automatisiert ab. Aufgrund dessen legen wir großes Augenmerk darauf, standardisierte Managed Services bereitzustellen. Zudem stellen wir sicher, dass Migrationsvorhaben dank unserer Erfahrungen und dank vorgefertigter Templates in Teilen stark automatisiert realisiert werden können. Denn hinsichtlich der Technologie-Stacks und der Basisinfrastrukturen laufen solche Projekte in allen Branchen ähnlich ab. Dafür greifen wir auf moderne Technologien wie Hyperkonvergenz oder software-definierte Infrastrukturen zurück. Geht es jedoch über die Infrastrukturen hinaus um die Applikationsebene, gibt es innerhalb der einzelnen Branchen deutliche Unterschiede, weshalb wir hier individualisierte Ansätze anbieten.

IT-DIRECTOR: Welche Verantwortlichen sitzen seitens der Anwenderunternehmen mit am Tisch?
M. Moeller:
Zunächst die IT-Organisation, hinzu kommen Datenschutzbeauftrage, Betriebsräte und die Sicherheitsverantwortlichen, neudeutsch Chief Information Security Officers (CISO). In immer mehr Unternehmen trifft man auch Chief Digital Officers an. Diese sind entweder in die IT-Organisation eingebunden oder als eigene Position neben dem CIO etabliert, um die Digitalisierung der Geschäftsmodelle voranzutreiben. Letztere Unternehmen trennen somit klar zwischen IT-Betrieb und digitalen Innovationen.

IT-DIRECTOR: Inwieweit findet man in deutschen Firmen bereits klare Digitalstrategien vor?
M. Moeller:
Die Top-100-Unternehmen beschäftigen sich ausnahmslos alle mit der Digitalisierung. Denn die Verantwortlichen sind sich bereits seit Jahren der Bedeutung der Digitalen Transformation bewusst. Unterhalb der Führungsebene ist eine „digitale Denke“ jedoch noch nicht in allen Abteilungen und Köpfen der Mitarbeiter angekommen.

IT-DIRECTOR: Wie lässt sich dies ändern?
M. Moeller:
Die Unternehmensorganisation sollte agiler werden. Oftmals muss sich auch die Firmen- und Kommunikationskultur entsprechend verändern, denn die Arbeitswelt sieht heutzutage vielfach ganz anders aus als noch vor einigen Jahren. Die zunehmende virtuelle Vernetzung macht es möglich, von allen erdenklichen Standorten aus zu arbeiten. Dennoch achten wir bei Arvato Systems verstärkt darauf, unsere Mitarbeiter nicht nur virtuell, sondern auch direkt zu vernetzen. Denn der persönliche Kontakt stellt die wichtigste Voraussetzung dafür dar, dass virtuelle Zusammenarbeit bestmöglich funktioniert.

IT-DIRECTOR: Gibt es weitere Ansatzpunkte?
M. Moeller:
Wir unterstützen die Kunden sowohl bei der Digitalisierung des Unternehmens als auch ihrer Geschäftsmodelle. Dabei lautet unser Motto „Empowering digital leaders“. Das heißt, wir begleiten die Weiterentwicklung der Unternehmen, die mit ihren digitalen Geschäftsmodellen bereits Vorreiter in vielerlei Hinsicht sind. In diesem Zusammenhang treiben wir gemeinsam mit den Anwendern aktiv digitale Innovationen voran – etwa in Form von Roadmaps, Workshops, Machbarkeitsstudien oder Showcases.

IT-DIRECTOR: Woher stammt das hierfür erforderliche Wissen?
M. Moeller:
Für unsere Geschäftsmodelle und Services haben wir ein eigenes Innovationsmanagement aufgesetzt, womit wir unseren digitalen Erfahrungsschatz kontinuierlich erweitern können. Auf Basis dessen verstehen wir die Geschäfte der Kunden immer besser und helfen genau dort, wo der Schuh drückt. Wir agieren sehr flexibel und können konkrete Kundenanforderungen daher schnell in digitalen Showcases abbilden.

IT-DIRECTOR: Hierfür benötigt man sowohl Branchen- als auch Prozess-Know-how. Welche Ausrichtung verfolgen Sie in diesem Zusammenhang?
M. Moeller:
Wir haben zahlreiche Kunden aus dem Handel, der Medienlandschaft, dem Gesundheitswesen und dem Bereich Utilities, also der Energie- und Versorgungswirtschaft sowie anderen regionalen Infrastrukturunternehmen. Alles in allem liegt unser Fokus auf Firmen mit starkem Business-to-Consumer-Bezug, die eine große Anzahl von Endkunden adressieren.

Aufgrund unserer Bertelsmann-Historie haben wir zudem die Digitalisierung des Mediengeschäfts seit ihren Anfängen begleitet. Schon früh gab es erste Berührungspunkte mit dem Streaming von Musik, Videos und Filmen oder mit der Bereitstellung von E-Books und E-Publishing über entsprechende Medienportale.

IT-DIRECTOR: Wie ist der Handel hinsichtlich der Digitalisierung aufgestellt?
M. Moeller:
Eine immense Bedeutung besitzen Multi-Channel-Lösungen. Zwar kaufen noch immer viele Kunden in den Läden vor Ort ein, gleichzeitig steigt jedoch auch der Umsatz im Online-Handel. Mit der zunehmenden Bandbreite an Webangeboten gehen mittlerweile virtuelle Beratungen und Empfehlungen auf Basis entsprechender Algorithmen einher. Hinzu kommen individuell auf die Kunden zugeschnittene Bindungsprogramme. Das Ineinandergreifen eines breiten Angebots, diverser Auslieferungsmöglichkeiten und der genauen Kenntnis der Kundenbedürfnisse hilft Handelsunternehmen, ihre Umsätze zu steigern.

IT-DIRECTOR: Worauf kommt es im Gesundheitswesen an?
M. Moeller:
Die vor einigen Jahren von der Gesellschaft für Telematikanwendungen – Gematik – angestoßene Verbreitung der elektronischen Gesundheitskarte nimmt weiter ihren Lauf. Dafür notwendig sind sowohl eine zentrale Telematikinfrastruktur als auch dezentrale Infrastrukturkomponenten, über die sich Patienten, Krankenkassen und Ärzte authentifizieren können. Die im Zuge dessen bereitgestellten Zugangsdienste müssen extrem sicher sein und sämtlichen Datenschutzanforderungen genügen.

Aktuell wird die zentrale Telematikinfrastruktur für Deutschland bei Arvato Systems betrieben. Gleichzeitig werden die dezentralen Anbindungen via VPN-Zugangsdienst mit entsprechenden Konnektoren deutschlandweit ausgerollt. Als einer der eingebundenen Partner setzen wir die Zugangsdienste in Arztpraxen und Kliniken um, was bis Mitte des Jahres abgeschlossen sein soll. Auf Basis dessen sollen künftig sukzessive weitere Gesundheitsapplikationen entwickelt und integriert werden. Dabei gilt es stets, einen Konsens zwischen Gesundheitsvertretern wie Ärzten und Kliniken, den Krankenkassen, der Politik und nicht zuletzt den Patienten herzustellen.

IT-DIRECTOR: Was treibt die Gesundheitsbranche noch um?
M. Moeller:
Seit Anfang Februar schreibt eine EU-weite Verpflichtung vor, dass man den Weg von verschreibungspflichtigen Medikamenten von der Produktion bis zum Endverbraucher nachvollziehen können muss. Damit will man zum einen ausschließen, dass Fälschungen in den Handel gelangen. Zum anderen sollen hohe Qualitätsstandards gewährleistet werden. Im Rahmen dieser internationalen Lösung müssen Pharmahersteller, Pharmahändler und Apotheken eingebunden werden. Dabei sind wir einer von zwei Anbietern, die die nationalen Systeme realisiert haben und es allen Betroffenen ermöglichen, dort anzudocken.

IT-DIRECTOR: Welche weitere Rolle haben Sie bei diesen Projekten gespielt?
M. Moeller: Wir haben sowohl bei der elektronischen Gesundheitskarte als auch der neuen Pharmaplattform die Applikationsentwicklung und den Aufbau sowie den Betrieb der IT-Architekturen realisiert. Als IT-Provider müssen wir hierbei neben den technischen Fragestellungen auch verschiedene europäische Interessen – etwa im Falle von Release-Wechseln – unter einen Hut bekommen.

IT-DIRECTOR: Neben solchen großflächigen Digitalprojekten treiben Themen wie Künstliche Intelligenz oder das Internet der Dinge derzeit viele Verantwortliche um. Wie sind Sie hier aufgestellt?
M. Moeller
: Wir unterstützen die Kunden dabei, alle Möglichkeiten der Künstlichen Intelligenz in ihre Geschäftsentwicklung einzubinden. Dabei lohnt sich der KI-Einsatz beispielsweise im Rahmen der Service-Automation und der Automatisierung von Prozessen. Hierzu zählen die Automatisierung des Servicedesks, des Incident-Managements und andere Support-Dienstleistungen, wo Anfragen und Tickets nachgelagert intelligent weiterverarbeitet werden können.

Darüber hinaus lassen sich insbesondere in der Medienwelt zahlreiche Anwendungen von KI in Text, Bild und Bewegtbild finden. Nicht zuletzt spielen KI-Technologien eine herausragende Rolle, wenn es um vorausschauende Wartung oder Vorhersagen beispielsweise von Kundenverhalten geht. Für alle diese KI-Anwendungsfelder entwickeln wir eigene Lösungen, integrieren jedoch auch Produkte und Plattformen verschiedener Anbieter. 

IT-DIRECTOR: Wie ausgereift sind aktuelle KI-Lösungen bereits?
M. Moeller: Sprach- oder Bilderkennung sind bereits sehr weit entwickelt. So können beispielsweise bei Bewegtbildern automatisiert Metadaten generiert und genutzt werden, sodass man aus großen Medienbeständen beispielsweise Prominente oder bestimmte Szenen herausfiltern kann. Mit der Verschlagwortung müssen sich also keine Mitarbeiter mehr beschäftigen. Auch können zum Beispiel Stimmungen oder Kleidungsstil von Personen interpretiert und ausgewertet werden.

IT-DIRECTOR: Können Sie Beispiele nennen?
M. Moeller:
Unternehmen platzieren ihre Werbung genau dort, wo sie ihre Zielgruppe am besten erreichen können. So haben wir für den Einsatz im Einzelhandel zum Beispiel ein Proof of Concept realisiert, in dessen Rahmen die Kunden beim Betreten eines Ladens von einem Roboter begrüßt werden. Anhand der jeweiligen Kleidung, der Körperhaltung und der Stimmung werden den Kunden entsprechende Kleidungsvorschläge unterbreitet. Auf Wunsch könnte der Roboter die Kunden auch direkt zum passenden Regal führen.

IT-DIRECTOR: Welche Rolle spielt KI bei der Medienerstellung?
M. Moeller:
Nicht zuletzt aufgrund unserer Muttergesellschaft Bertelsmann, in die zahlreiche Medienunternehmen eingebunden sind, spielt die automatisierte Generierung von Content eine große Rolle für uns. Dabei lassen sich statische Inhalte wie Sportergebnisse oder Wetterberichte bereits mit Hilfe von KI erstellen. Denn dies ist für Journalisten meist mit viel Fleißarbeit verbunden, wobei sie die darauf verwendete Zeit deutlich kreativer nutzen könnten.

Alle Themen rund um Content wie Verwertung, Anzeigenschaltung, Programmgestaltung etc. sind wichtig für uns. Dabei wird momentan noch großes Augenmerk auf deren Interpretation und Verarbeitung gelegt. Hierbei geht es darum, einen Stoff entsprechend zu bewerten und mit Schlüsselwörtern zu extrahieren. Ganz am Ende könnte tatsächlich ein mit Künstlicher Intelligenz erstelltes Buch stehen. Bei Rohmaterialien oder einfach gestrickter Literatur und Dokumentationen scheint das durchaus denkbar.

IT-DIRECTOR: Was hat sich vor dem Hintergrund der zunehmenden Digitalisierung in Ihrer eigenen IT-Organisation verändert?
M. Moeller: Digitalisierung, Cloud Computing oder eben auch Künstliche Intelligenz erfordern eine entsprechende Neuausrichtung unserer IT-Mannschaft. Diese begleiten wir mit Weiterbildungsmaßnahmen, gezielter Qualifizierung der Mitarbeiter und gezielter Rekrutierung von Experten.

Hinter Künstlicher Intelligenz verbergen sich verschiedenste Kompetenzen, sodass es immer auch um die Kombination von unterschiedlichen Fähigkeiten geht. Man benötigt beispielsweise Spezialisten für Big Data, Data Analytics und Data Science, aber auch Statistiker, Mathematiker und Mitarbeiter, die sich mit den Anwendungsfeldern auskennen.

IT-DIRECTOR: Wie wichtig ist Digitalethik im Bereich der Künstlichen Intelligenz?
M. Moeller: Es gilt die Frage zu klären, wie weit KI-Technologien in die Privatsphäre von Nutzern eingreifen dürfen. Desweiteren geht es darum, im Rahmen von Algorithmik und Künstlicher Intelligenz Diskriminierung zu vermeiden. Hier gibt es unschöne Beispiele aus der Vergangenheit, wo Maschinen falsch angelernt wurden und Dinge misinterpretiert haben.

Nicht zuletzt darf man nicht vergessen, dass mit hochskalierten Datenanalysen und maschinellem Lernen auch Fehler einhergehen können. Aus den daraus resultierenden Fehlinterpretationen sollte man für die Zukunft lernen.

Vor diesem Hintergrund gibt es hinsichtlich der Digitalethik in Zukunft noch vieles zu klären. Es existieren noch keine Standards; zudem ziehen alle ethischen Fragen im nächsten Schritt auch juristische Fragen nach sich, beispielsweise wer bei durch Künstliche Intelligenz verursachten Schäden haftet.

 

Matthias Moeller
Alter:
48 Jahre
Werdegang:
Nach einem Studium der Informatik mit Betriebswirtschaftslehre durchlief Moeller seit 1995 diverse Stationen bei Bertelsmann/Arvato. Seit 2003 bekleidete er Geschäftsführungspositionen im Bereich IT Services. Von 2012 bis 2016 war er als Vorsitzender Geschäftsführer der Arvato Systems Perdata GmbH verantwortlich für IT Solutions und Services für die Branche Utilities. Als CEO von Arvato Systems verantwortet Matthias Moeller seit dem 1. April 2016 das Gesamtgeschäft der Arvato Systems Gruppe. Gleichzeitig fungiert Moeller als CIO für die Bertelsmann-Gruppe.
Derzeitige Position:
CEO bei Arvato Systems, CIO bei Bertelsmann

Bilder: Jörg Sänger

 

]]>
Ina Schlücker IT-Director Startseite it-zoom
news-22541 Fri, 05 Apr 2019 11:01:36 +0200 Digital ins Gericht gehen http://www.it-zoom.de/it-director/e/digital-ins-gericht-gehen-22541/ Der Arbeitgeberverband Vem.die arbeitgeber e.V. nutzt die digitale Verwaltung von Rechtsakten, um die Effizienz seiner Prozesse zu erhöhen, die Arbeit der Mitarbeiter zu erleichtern und eine mobile Nutzung zu ermöglichen. Digitale Akten statt Papier: Die Digitalisierung schreitet auch im Rechtsverkehr voran und erlaubt es allen Beteiligten, Prozesse effizienter zu gestalten. Als ein Vorreiter für moderne Konzepte hat der Arbeitgeberverband eine umfassende Lösung für die digitale Verwaltung von Rechtsakten eingeführt.

Der Verband unterstützt seine Mitglieder u.a. mit umfassender Rechtsberatung und vertritt sie in rechtlichen Auseinandersetzungen vor Arbeitsgerichten sowie den Gerichten der Sozialgerichtsbarkeit. Im Rahmen der Beratungen und Verfahren entstehen umfangreiche Dokumentensammlungen, sogenannte Rechts- oder Gerichtsakten, die bislang in Papierform geführt wurden. Das stellte ein wesentliches Hemmnis dar. Denn die Papierform limitierte die Transparenz der Ablage, schränkte Such- und Zugriffsmöglichkeiten deutlich ein und erforderte zudem erheblichen Platz zur physischen Archivierung. Insbesondere behinderte sie auch die von den Rechtsexperten dringend gewünschte mobile Nutzung. Anstatt große Papierstapel zum Mandanten oder ins Gericht mitführen zu müssen, sollten die Rechtsexperten einfach einen sicheren, mobilen Zugriff auf die digitale Form der Akte haben, um offene Fragen sofort klären zu können.

Vor diesem Hintergrund entschied sich der Arbeitgeberverband für die vollständige Digitalisierung der Rechtsakten. Nach gründlicher Analyse der Anforderungen empfahlen die Experten des IT-Systemhauses Esch & Pickel das Produkt M-Files als Basis für eine individuelle Lösung. Heute werden alle Dokumente in einer fallbasierten, digitalen Rechtsakte zusammengeführt. Dazu werden Dokumente, die das Rechtsteam des Verbands in Papierform erreichen, gescannt und dem jeweiligen Fall zugeordnet. So sind alle relevanten Dokumente an einem Platz und die Suche nach Papierakten und räumliche Limitationen beim Zugriff entfallen.

Die Zugriffsrechte werden transparent und nachvollziehbar unter vollständiger Berücksichtigung von Datenschutzauflagen digital gesteuert. Im Fall einer urlaubs- oder krankheitsbedingten Vertretung kann der Vertreter einfach auf die Akten seines Kollegen zugreifen. Das ersehnte mobile Arbeiten wurde ebenfalls vereinfacht. Die Unterlagen sind auch dann verfügbar, wenn kein Zugriff auf das Internet besteht, was insbesondere vor Gericht wichtig ist.

Um den Nutzern die Umstellung so einfach wie möglich zu gestalten, bildet die mobile Gerichtsakte das eingespielte Vorgehen ab. Im Gericht haben die Anwälte die vollständige Akte digital dabei und greifen über ein iPad Pro auf die Unterlagen zu. Dabei wurden die in der Papierakte genutzten Reiter und Post-its für eine schnelle Navigation und besondere Hinweise digital im PDF als Inhaltsverzeichnis mit Sprungmarken und Annotationen umgesetzt. Die zusätzliche Möglichkeit zur Volltextsuche schafft einen neuen, schnellen Zugang. Auch Notizen können während der Verhandlung direkt erfasst werden.

Dokumentenklassifizierung und Metadaten


Gemeinsam mit dem Arbeitgeberverband wurde eine individuelle Struktur für die Klassifizierung der Dokumente entwickelt. Jedes Dokument wird nicht nur der entsprechenden Akte zugeordnet, sondern auch seinem Inhalt entsprechend einer Dokumentenklasse zugewiesen. Aus der Klasse ergeben sich dann die Metadaten und auch Zugriffsrechte. Workflows oder Archivierungsfristen können damit gesteuert werden. Die Dokumentenklassen werden zudem zur automatischen Generierung von Inhaltverzeichnissen und Sprungmarken im PDF der Gerichtsakte genutzt. „Die langwierige Suche nach Unterlagen in großen Aktenstapeln gehört dank der Lösung der Vergangenheit an. Heute haben wir moderne Suchmöglichkeiten und können unsere Suche durch Metadaten und Dokumentenklassen eingrenzen, um schnell zu den richtigen Unterlagen zu kommen“, sagt Alexandra Wellmann, Syndikusrechtsanwältin beim Vem.die arbeitgeber e.V.

Über die digitale Verwaltung und Archivierung der Unterlagen hinaus können auch Fristen in Dokumenten markiert und als Metadaten übernommen werden. Die relevanten Nutzer werden somit proaktiv mit direktem Bezug zu den Unterlagen über Fristen und Termine informiert. „Wir sehen heute auf einen Blick, welche Fristen anstehen und ob und wie bereits auf sie reagiert wurde. So haben wir jederzeit Trans­parenz über den aktuellen Stand eines Falls“, erläutert Wellmann.

Dies ist ein Artikel aus unserer Print-Ausgabe 3/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Mit der Digitalisierung der Rechtsakten ist der Verband einen bedeutenden Schritt weitergekommen. Die Rechtsexperten haben heute einen besseren Zugriff auf alle Unterlagen und können diese auch mobil einfach nutzen. „Die Digitalisierung ist für uns, ebenso wie für unsere Mitglieder, ein wichtiges Thema. Mit der digitalen Rechtsakte konnten wir nicht nur unsere Abläufe erheblich verbessern, sondern als Arbeitgeberverband auch als Vorbild dafür dienen, wie moderne IT-Lösungen Effizienz und Mitarbeiterzufriedenheit steigern können“, betont Thorsten Bröcker, Hauptgeschäftsführer des Arbeitgeberverbands.

Über Vem.die arbeitgeber e.V.

Der Arbeitgeberverband mit Hauptgeschäftsstelle in Koblenz vertritt die Interessen der Metall- und Elektroindustrie in der Region Rheinland-Rheinhessen und ist Mitglied im nationalen Dachverband „Gesamtmetall“. Zu den Aufgaben des Verbands gehören die Rechtsberatung für seine Mitglieder, Maßnahmen zur Bildung und Fachkräftesicherung, die Arbeits- und Entgeltgestaltung sowie der Abschluss von Tarifverträgen. Zudem berät man in Fragen der Öffentlichkeitsarbeit und Kommunikation.


Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom Dokumentenmanagement und ECM
news-22539 Fri, 05 Apr 2019 10:28:22 +0200 BI-Lösung an 5.400 Bahnhöfen http://www.it-zoom.de/it-director/e/bi-loesung-an-5400-bahnhoefen-22539/ Die DB Station & Service AG entwickelt und betreibt bundesweit die Personenbahnhöfe der Deutsche Bahn AG. Nun wurde Board zur Unterstützung eines strategischen Prozesses implementiert, der zum Ziel hat, das DB-Tochterunternehmen weiter in die digitale Zukunft zu bringen. Zur internen Steuerung und Optimierung von finanziellen und qualitativen Aspekten hat der Bereich Operations der DB Station & Service AG eine neue Steuerungslogik entwickelt, die digital in der BI-Lösung Board in Form einer Balanced Scorecard abgebildet wurde. Anhand der Dashboards aus dieser BI-Lösung können die verantwortlichen Operations-Manager sowohl zentral als auch regional vor Ort Operations-Prozesse rund um die 5.400 Bahnhöfe zukunftsgerichtet steuern. Ein Ampelsystem zeigt, an welchen Stellen es Handlungsbedarf gibt. Im Hintergrund der Balanced Scorecard laufen Berechnungen sowohl mit zukunftsgerichteten als auch vergangenheitsbezogenen Werten ab, die aus vielen Datenquellen stammen und in der BI-Lösung sowohl in der Datenarchitektur als auch im Frontend zusammenlaufen.

Qualität und Geschwindigkeit der Steuerung


„Die Herausforderung war komplex durch ihre Vielschichtigkeit: Im Alltag muss aus dem Zusammenspiel von Datenmanagement, Frontend, strategischer Steuerung, organisatorischen Zuständigkeiten etc. Handlungsbedarf sofort erkennbar sein“, erklärt Christoph Reichelt, Leiter Grundsätze Operations, Planung und Steuerung bei DB Station & Service. „Unser klares, strategisches Ziel des Projekts daher: alles auf einen Blick in einem System ohne den Nutzer dabei zu überfrachten. Nur so konnten wir Qualität und Geschwindigkeit der Steuerung verbessern und damit eine neue User Experience schaffen.“

Dabei unterstützt Board die strategische Steuerung mittels dynamischer Business Intelligence eins zu eins: Daten können nicht nur per Dashboard bereitgestellt werden, sondern umgekehrt auch zugehörige Prozesse oder Workflows, wie Definition und Status von Steuerungsmaßnahmen, direkt vor Ort durch Nutzer gepflegt werden. Im nächsten Projektschritt können damit dann neue Anwendungsbereiche wie Harmonisierung von Kostenstellen- und operativer Planung oder rollierender Forecast erschlossen werden.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Business Intelligence / Big Data