IT-DIRECTOR https://www.it-zoom.de/it-director/news/ IT-DIRECTOR: Business-Magazin für IT-Manager und CIOs de ©2016 Alle Rechte bei MEDIENHAUS Verlag GmbH Sat, 15 Dec 2018 19:14:26 +0100 Sat, 15 Dec 2018 19:14:26 +0100 TYPO3 EXT:news news-21577 Fri, 14 Dec 2018 14:40:36 +0100 Mehr als Forensik und Krisenmanagement http://www.it-zoom.de/it-director/e/mehr-als-forensik-und-krisenmanagement-21577/ Wie Cyberversicherungen im Falle von Cyberangriffen Schäden durch eventuelle Betriebsunterbrechungen regeln, erläutert Oliver Schulze, Rechtsanwalt bei der Gothaer. IT-DIRECTOR: Herr Schulze, welche Risiken lassen sich aktuell mit Cyberversicherungen abdecken?
O. Schulze:
Mit den hierzulande üblichen Cyberversicherungen lassen sich zum Einen die aus Cyberkriminalität und sonstigen Datenschutzrechtsverletzungen resultierenden Haftpflichtrisiken abdecken, die immer dann entstehen können, wenn Daten abhanden kommen. Andererseits leisten Cyberversicherungen aber auch Ersatz für aus Cyberkriminalität entstehende Eigenschäden der Unternehmen, wie zum Beispiel eine Betriebsunterbrechung als Folge eines Hackerangriffs, und bieten darüber hinaus diverse Assistance-Bausteine, wie etwa Forensik oder Krisenmanagement. Diese Assistance-Dienstleistungen werden in der Regel nicht vom Versicherer selbst erbracht, sondern durch spezialisierte, vom Versicherer beauftragte Firmen.

IT-DIRECTOR: Für welche Unternehmen lohnt sich der Abschluss einer Cyberversicherung?
O. Schulze:
Der Abschluss einer Cyberversicherung dürfte sich mittlerweile für fast jedes Unternehmen lohnen, da es kaum mehr Unternehmen ohne eigene IT gibt, welche dann Ziel oder Mittel von Cyberkriminalität werden kann. Hierbei können sowohl kleine Unternehmen in die Zielscheibe von Cyberkriminellen geraten, indem sie beispielsweise über eine gefälschte Bewerbungs-Mail Opfer einer Verschlüsselungs-Software werden, als auch große Unternehmen, die von Hackern gezielt angegriffen werden, um Kundendaten oder Betriebsgeheimnisse zu stehlen. Betroffen sind mittlerweile Unternehmen aller Branchen.

IT-DIRECTOR: Auf welche Vertragsinhalte sollten die Kunden bei der Auswahl einer passenden Cyberversicherung vor allem achten?
O. Schulze:
Zum einen gibt es diverse Vertragsbausteine, die in der Regel optional angeboten werden, wie zum Beispiel eine Deckung für PCI-DSS-Vertragsstrafen, also Strafzahlungen, die dann anfallen können, wenn das versicherte Unternehmen Kreditkartendaten von Kunden verliert. Der Baustein ist also für Unternehmen sehr relevant, die Kreditkartendaten von Kunden vorhalten – ist das in einem Unternehmen nicht der Fall, lohnt der Kauf des Bausteins nicht. Beim Einkauf einer Cyberversicherung sollte also darauf geachtet werden, genau die Bausteine zusammenzustellen, die den Gegebenheiten und der Risikosituation im Unternehmen gerecht werden. Zum anderen sind wichtige Vertragsinhalte die Versicherungssumme und der Selbstbehalt. Auch hier sollten interessierte Unternehmen zunächst gemeinsam mit ihrem Versicherungsberater eine Analyse anstellen, welche Parameter die passenden sind.

IT-DIRECTOR: Was muss im Schadensfall sofort passieren? Was sind die wichtigsten nachgelagerten Schritte?
O. Schulze:
Ein zentraler Inhalt einer Cyberversicherung ist der sogenannte Forensik-Baustein. Dies bedeutet, dass der Versicherer dem versicherten Unternehmen eine 24/7/365-Hotline zur Verfügung stellt, an die sich das Unternehmen wenden kann, sollte ein Versicherungsfall eingetreten sein. Die dort verfügbaren Experten werden sofort die nötigen Schritte einleiten, um beispielsweise einen Virenbefall zu neutralisieren, Daten wieder zu entschlüsseln oder eine Betriebsunterbrechung zu beenden. Der wichtigste Schritt im Schadenfall ist also der Anruf bei der Schadenhotline. Von dort aus werden dann alle weiteren Prozesse gesteuert und bei Bedarf weitere Spezialisten wie Krisenmanager, PR-Berater etc. aktiviert und eingebunden.

IT-DIRECTOR: Inwiefern lassen sich im Rahmen des Versicherungsumfangs auch Ertragsausfälle auffangen?
O. Schulze:
Cyberversicherungen enthalten meist auch einen Baustein, der den im Falle eines Cyberangriffs eventuell entstandenen Betriebsunterbrechungsschaden ersetzt. Hier muss jeder Interessent einer solchen Deckung für sich abwägen, ob er diesen Baustein mitversichern möchte bzw. wie schwer ihn eine Betriebsunterbrechung treffen würde.

IT-DIRECTOR: Wie werden beispielsweise Schäden durch Hackerangriffe auf Basis von Ransomware reguliert?
O. Schulze:
Nach Meldung des Schadens auf der oben beschriebenen Hotline wird der vom Versicherer gestellte, auf solche Szenarien spezialisierte Dienstleister die Schadsoftware entfernen und versuchen, die verschlüsselten Dateien wiederherzustellen, was in der Regel auch gelingt. Dabei arbeitet der Dienstleister Hand in Hand mit der IT-Abteilung des versicherten Unternehmens sowie etwaiger externer Dienstleister, die für das versicherte Unternehmen tätig sind.

IT-DIRECTOR: Inwieweit existieren bereits Präzedenzfälle für Schadensregulierungen nach Cyberattacken? Können Sie Beispiele nennen?
O. Schulze:
Präzedenzfälle existieren mittlerweile tausende. Die Größeren und Prominenten lassen sich beinahe täglich der Presse entnehmen. Aber auch kleinere Unternehmen sowie der Mittelstand sind regelmäßig betroffen. Insbesondere im kleineren Bereich geht es hauptsächlich um die bereits genannten Verschlüsselungstrojaner. Das Versenden von mit dieser Angriffsvariante verseuchten E-Mails und die darauffolgende Erpressung (Zahlung von Lösegeld gegen Bekanntgabe des Entschlüsselungscodes) ist mittlerweile eine echte eigene Industrie geworden, die hohe Umsätze erzielt.

]]>
Ina Schlücker IT-Director Sicherheit
news-21575 Fri, 14 Dec 2018 12:34:26 +0100 Bei Zuruf Service http://www.it-zoom.de/it-director/e/bei-zuruf-service-21575/ Text- und sprachbasierte Technologien wie Chatbots, Smart Speaker oder Voice-Biometrie erobern zunehmend den Kundenservice. Sie sollen das Leben der Kunden einfacher machen – und viele Anliegen auf Zuruf lösen. Noch stehen sie am Anfang, aber die Verbreitung digitaler Sprachroboter schreitet voran. Sie heißen Mildred (Lufthansa), Clara (Otto) oder Elvis (Klarmobil). Sie helfen, Flüge zu finden, die Lottozahlen zu überprüfen, ein Taxi zu bestellen und das Wetter vorherzusagen. Immer mehr Unternehmen stellen ihren Kunden virtuelle Assistenten zur Seite, die diverse Alltagsaufgaben erledigen oder häufig gestellte Fragen beantworten. Allein über den Facebook-Messenger waren Anfang 2018 bereits rund 200.000 Chatbots verfügbar.

Aber nicht nur die Verbreitung, auch die Akzeptanz der digitalen Helfer steigt: Laut Bitkom kann sich schon jeder vierte Bundesbürger vorstellen, einen Chatbot zu nutzen. Und vier von zehn Befragten finden ihren Einsatz im Kundenservice attraktiv, etwa bei Nachfragen zu Bestellungen oder um Anliegen zu adressieren. Die Kunden sehen in der Nutzung von Sprach- und Service-Robotern vor allem drei Vorteile: Service rund um die Uhr (64 Prozent), eine umgehende Reaktion (55 Prozent) und schnelle Antworten auf einfache Fragen (55 Prozent). Das geht aus dem aktuellen Drift-Report hervor.

Chatbots können schnelle Antworten liefern

Ein Beispiel für Chatbots im Service liefert die Telekom: Im Herbst 2016 eingeführt, konnte ihr digitaler Assistent zunächst nur simple Fragen zu Telefonie-, Internet- und TV-Störungen beantworten. Doch weil der Chatbot von den Kunden gut angenommen wurde, hat ihm das Unternehmen inzwischen mithilfe von IBM Watson mehr Künstliche Intelligenz (KI) eingehaucht. Ergebnis: eine bessere Dialogfähigkeit und ein größerer Hilfebereich. Heute beantwortet der digitale Assistent auch Fragen zu Rechnungen, Aufträgen, Verträgen, zum Umzug, WLAN, der E-Mail-Einrichtung oder SIM-Aktivierung. Rund 450 unterschiedliche Anfragen versteht er bereits. Etwa 40.000 Mal im Monat nutzen ihn die Kunden – über die Website oder Service-App des Unternehmens.

„Unsere Kunden bekommen jederzeit eine schnelle Antwort, und unsere Mitarbeiter werden von Routineaufgaben entlastet“, sagt Dr. Ferri Abolhassan, Service-Chef von Telekom Deutschland. „Wird das Anliegen nicht zur Zufriedenheit des Kunden gelöst, kann er direkt mit einem Berater weiterchatten.“ Dazu übergibt der digitale Assistent sein Chatprotokoll an den Kundenberater, der sieht, worum es im konkreten Anliegen geht und den Anrufer weiterbedienen kann. „Der Chatbot soll die Berater aus Fleisch und Blut nicht ersetzen, sondern sinnvoll unterstützen“, betont Abolhassan.

Künstliche Intelligenz im Kundendialog nimmt zu

Aktuell sind die Fähigkeiten von Chatbots – trotz aller technischen Fortschritte – ohnehin noch beschränkt. Sobald die Anfragen komplexer werden, müssen die Kundenberater übernehmen. Und für individuelle Hilfeleistungen wie Rückfragen zur eigenen Rechnung oder Vertragswünsche fehlt – Stand heute – häufig eine Verknüpfung mit der Kundendatenbank. Auch die Stiftung Warentest hatte zuletzt ermittelt, dass es bei den Service-Bots insgesamt noch Luft nach oben gibt.

Fakt ist aber: Der Einsatz von Künstlicher Intelligenz im Kundendialog nimmt stetig zu. Nach einer Untersuchung von PwC waren sich 27 Prozent der Konsumenten nicht sicher, ob sie sich bei ihrem letzten Kundenservice-Kontakt mit einem Menschen oder Bot unterhalten haben. Und Gartner rechnet damit, dass Chatbots bis 2020 etwa 85 Prozent aller Interaktionen im Kundenservice übernehmen. In zwei Jahren würden wir häufiger mit einem Chatbot kommunizieren als mit dem Partner bzw. der Partnerin, mutmaßen die Analysten. Nicht umsonst sprechen Experten auch vom „Age of Assistance“.

Smart Speaker helfen bei Serviceanliegen

Solche Assistenzfunktionen übernehmen zunehmend auch Smart Speaker wie Amazon Echo, Google Home oder der Apple Homepot. Jeder achte Bundesbürger ab 18 Jahren nutzt bereits einen, hat der Digitalverband Bitkom herausgefunden. Das sind fast neun Millionen Menschen allein in Deutschland. Sprachsteuerung boomt, weil sie schnell, einfach und intuitiv ist. 89 Prozent der befragten Nutzer unterhalten sich täglich mit ihrem Sprachassistenten, ein Drittel sogar mehr als fünfmal am Tag, so eine Befragung von Invoca. Die intelligenten Lautsprecher werden vor allem dafür genutzt, um Musik abzuspielen (82 Prozent), zu shoppen (54 Prozent) und das Smart Home zu steuern (35 Prozent). Zu diesen Ergebnissen kommt eine Cap-Tech-Untersuchung.

In Zukunft sollen sie den Anwendern auch bei Servicefragen weiterhelfen – ganz einfach und bequem. Abolhassan: „Dafür integrieren wir unseren digitalen Assistenten demnächst auch in einen eigenen Smart Speaker, den wir gemeinsam mit dem Fraunhofer-Institut für Digitale Medientechnologie in Oldenburg entwickelt haben.“ Derzeit testen 1.000 ausgewählte Kunden den intelligenten Lautsprecher noch auf Herz und Nieren. Sobald er auf den Markt kommt, sollen sich darüber diverse Dienste per Sprache steuern lassen: das Smart Home, die Online-Videothek und die Telefonie etwa. Und perspektivisch steht er den Kunden dann auch bei alltäglichen Anliegen zur Seite. Service auf Zuruf, lautet das Motto.

Stimme ersetzt Passwort

Als intuitiver Türöffner zur großen, weiten Servicewelt dient indes mehr und mehr eine weitere Sprachtechnologie: die Voice-Biometrie. Damit können Kunden sich allein mit ihrer Stimme an der Hotline ausweisen. Das lästige Merken von Kundennummern, Passwörtern und Pin-Codes entfällt dabei. Die Identität des Kunden wird schnell und unkompliziert anhand der einzigartigen Eigenschaften seiner Stimme ermittelt.

Die Stimmerkennung gilt nicht nur als besonders sicher, weil kein Passwort mehr in falsche Hände gelangen kann, sie erfreut sich auch wachsender Beliebtheit über alle Branchen hinweg: Die Analysten von Opus Research schätzen, dass Ende 2017 bereits über 270 Millionen Menschen weltweit ihre Stimme für ein solches Authentifizierungsverfahren hinterlegt hatten. 2020 soll es schon 600 Millionen Stimmabdrucke geben.

Seit der IFA 2018 bietet die Telekom ihren Privatkunden diesen Service an: In den ersten Wochen haben sich rund 100.000 Kunden für SprachID registriert. Dazu mussten sie dreimal die Passphrase „Bei der Telekom ist meine Stimme mein Passwort“ aufsprechen, um sich fortan mit der eigenen Stimme an der Service-Hotline auszuweisen.

„Wir haben diesen Service gemeinsam mit Kunden entwickelt und setzen als erster deutscher Telekommunikationsanbieter Sprachbiometrie an der Service-Hotline ein“, so der Telekom-Service-Chef. „Dank der Technologie gibt es keine Suche nach Vertragsnummern. Die Kunden können ihre Anliegen direkt den Kundenberatern schildern.“ Rund 20 Sekunden sollen sich durch Voice-Authentifizierung pro Anruf einsparen lassen.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom CRM
news-21574 Fri, 14 Dec 2018 12:28:38 +0100 C-Teile im Griff http://www.it-zoom.de/it-director/e/c-teile-im-griff-21574/ Um das C-Teile-Management für Industriekunden effizienter zu gestalten, hat die Würth Industrie Service GmbH & Co. KG eine neue Plattform entwickelt. Das Portal zeichne sich durch eine benutzerfreundliche Oberfläche aus und vereine sämtliche Funktionen rund um das Kanban-System bei voller Transparenz aller Prozesse. Dank Mehrsprachigkeit lasse sich die Lösung länderübergreifend in Produktionsstandorten einsetzen. Als zentrale Plattform für sämtliche Prozesse, Funktionen, Artikel und Serviceleistungen löst das WIS-Portal nicht nur die bisherige Lösung CPS-Online, die seit mehr als 15 Jahren im Einsatz ist, ab. Das neue Portal bietet vor allem Anwendern eine Lösung, um sämtliche Vorzüge sowohl des konventionellen als auch des RFID-Kanban-Systems zu nutzen und Daten intelligent einzusetzen. Die Neuentwicklung wurde über mehrere Monate hinweg bei Industrieunternehmen erfolgreich getestet und wird bei Kunden in ganz Europa implementiert. Derzeit ist das Portal komplett auf Deutsch und Englisch verfügbar; in folgenden Ausbaustufen seien weitere europäische Sprachen geplant.

Transparenz im C-Teile-Management

Über das WIS-Portal haben die Kunden Einblick in die Logistik-Prozesse des Kanban-Systems. Informationen wie der Befüllstatus von Behältern, anstehende Befülltermine oder der exakte Standort bestimmter C-Teile innerhalb der Produktion lassen sich so abrufen. Auch Bestellprozesse wie Streckenlieferungen über Drittlieferanten werden übersichtlich dargestellt. Eine umfangreiche Track-and-Trace-Funktion, bei der relevante Behälterinformationen automatisiert ins Portal eingespeist werden, dient der lückenlosen Rückverfolgbarkeit: Wo befindet sich der Behälter; wann wird er befüllt oder geliefert; wie sieht die Vorausplanung aus? Um Status und Standort der Behälter auf einen Blick und eindeutig zu markieren, verfügt das neue Portal über ein intelligentes Farbkonzept. Dank eines mehrstufigen Berechtigungssystems zeigt das WIS-Portal dabei immer genau die Informationen und Funktionen an, die für den jeweiligen User relevant sind. Hierüber sollen sich auch Bestell- und Abrechnungsvorgänge bzw. das produktionsnahe Datenmanagement für die entsprechende Zielgruppe gestalten lassen.

Kontrolle und Auswertung

Um Optimierungspotenzial hinsichtlich Bedarf und Verbrauch von C-Teilen aufzudecken, bietet das Portal umfangreiche Analyse-Funktionen. Hierzu erfasst die Software sämtliche Behälter- und Artikeldaten und erstellt Grafiken über die jeweiligen Verbrauchsmengen. Auch die Umschlaghäufigkeit der Artikel kann der Nutzer zügig aufrufen. Damit sollen Industriekunden jederzeit einen Überblick zu möglichen Bedarfsschwankungen haben und frühzeitig auf unerwartete Engpässe reagieren können – es lassen sich beispielsweise Behälter aus anderen Lagerorten an den Bedarfspunkt holen. Zusätzlich bietet das Portal die Möglichkeit einer Warnmeldung: Es schlägt Alarm, sollte der Bestand unter eine kritische Menge fallen, und löst auf Wunsch sogar eigenständig eine Bestellung aus. Dafür kommen moderne RFID-Kanban-Systeme zum Einsatz. Mittels Datenübertragung per Funk meldet beispielsweise ein intelligentes Regal, das Ishelf, den Bedarf, sobald ein leerer Behälter darauf abgestellt wird. Das WIS-Portal stellt die Informationen auf allen Endgeräten zur Verfügung. Das sorgt für Versorgungssicherheit im C-Teile-Bereich.

(Bild: Würth Industrie Service GmbH & Co. KG))

]]>
IT-Director
news-21571 Fri, 14 Dec 2018 11:13:27 +0100 In Aachen entsteht 5G-Fabrik der Zukunft http://www.it-zoom.de/it-director/e/in-aachen-entsteht-5g-fabrik-der-zukunft-21571/ Die Deutsche Telekom wird Mitglied im Center Connected Industry (CCI) auf dem RWTH-Aachen-Campus. Dort baut der Telekommunikationsdienstleister ein Campus-Netz auf und arbeitet zusammen mit Partnern aus Industrie und Forschung an der Digitalfabrik der Zukunft. Produktions- und Logistikprozesse werden zunehmend digitalisiert. Industrie 4.0 ist das Schlagwort für die Digitalisierung der Industrie. Die Mitgliedschaft beim CCI ist mit der Zusage der jeweiligen Partner verbunden, Ressourcen in die Partnerschaft einzubringen. Dazu wird die Deutsche Telekom ein Campus-Netz auf dem Gelände der RWTH Aachen aufbauen, welches vorerst auf Basis der LTE-Technologie funktionieren soll. Geplant sei zukünftig eine Ergänzung durch ein Netz, das auf der 5G-Technologie basiert. Das Campus-Netz werde dabei nicht nur Innenbereiche, wie z.B. Werkshallen umfassen, sondern auch die Außenbereiche des Campus abdecken.

Das Center Connected Industry treibt die Vision, Unternehmen, Maschinen, Systeme und Nutzer auf schnelle, einfache und robuste Weise im Sinne des Aachener Internet of Production oder Industrial Internet of Things (IIoT) miteinander zu vernetzen. Unter Einbezug bestehender und kommender Schlüsseltechnologien wie 5G und Blockchain sollen die Potentiale der informationsgetriebenen Wirtschaft in einem einmaligen industriellen Testfeld nicht nur erfahrbar, sondern in der Praxis nutzbar werden.

Zwei wichtige Bereiche stehen für die Zusammenarbeit mit dem CCI und den Partnern im Fokus: zum einen die Entwicklung neuer Produkte und Anwendungen für die Industrie. Im Rahmen des neuen Campus-Netzes können neue Ansätze für Industrielösungen und der Bau von Prototypen vorangetrieben werden, heißt es. Zum anderen ermögliche die Mitgliedschaft im Center die Entwicklung von spezifischen Kundenlösungen, die gemeinsam mit dem Kunden und den Partnern bis zur Produktreife getestet und umgesetzt werden. Dafür werde die Produktionsumgebung des Kunden nachgestellt, sodass die Lösung nach erfolgreicher Produktentwicklung 1:1 in den Betrieb beim Kunden implementiert werden kann.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom Netzwerk
news-21566 Thu, 13 Dec 2018 16:37:06 +0100 Rückschlag für Leistungsschutzrecht? http://www.it-zoom.de/it-director/e/rueckschlag-fuer-leistungsschutzrecht-21566/ Ein formelles Versäumniss könnte den Verlagen im Streit um das deutsche Leistungsschutzrecht zum Verhängnis werden. Der zuständige EuGH-Gutachter hält das deutsche Gesetz für nicht anwendbar, weil die Bundesregierung im Jahr 2013 darauf verzichtet hat, die EU-Kommission vor der Einführung in Kenntnis zu setzen. Das Gericht folgt oft der Einschätzung des Gutachters, entscheidet manchmal aber auch anders. Der EU-Generalanwalt Gerard Hogan musste zunächst einmal abwägen, ob es sich beim Leistungsschutzrecht (LSR) um eine „technische Vorschrift, die speziell auf einen Dienst in der Informationsgesellschaft abzielt” handelt. In diesem Fall ist eine vorherige sogenannte „Notifizierung” notwendig.

Hogan kam in seinem Gutachten zu dem Schluss, dass die strittigen Vorschriften speziell auf Dienste der Informationsgesellschaft abzielen. „Folglich dürften mangels einer Notifizierung dieser nationalen Vorschriften an die Kommission die neuen deutschen Urheberrechtsbestimmungen von den deutschen Gerichten nicht angewandt werden”, resümierte er. Wann das Gericht sein Urteil verkündet, blieb offen.

Presseverlage gegen Google

Der Streit war im Mai 2017 vom Berliner Landgericht an das EuGH verwiesen worden. In dem Verfahren verlangt die Verwertungsgesellschaft VG Media Schadenersatz von Google. Die VG Media vertritt dabei etliche Presseverlage in Deutschland, darunter Axel Springer, Handelsblatt, Funke und Dumont. Die VG Media argumentierte bisher, das Leistungsschutzrecht sei keine technische Vorschrift im Sinne der Info-Richtlinie und es habe keine Notifizierungspflicht bestanden.

Eine Entscheidung des EuGH, dass eine Notifizierung notwendig gewesen wäre, würde einen Schlussstrich unter das aktuelle LSR setzen, betonte Daniel Kendziur, Urheberrechtler bei der Kanzlei Simmons & Simmons, als das Verfahren an den Gerichtshof ging. „Angesichts der vorherrschenden Meinung, dass eine Notifizierung nicht nachgeholt werden kann, müsste neu erlassen und neu notifiziert werden.” Das Leistungsschutzrecht für Presseverlage war am 1. August 2013 in Kraft getreten. Im August 2014 erteilten etliche Verlage innerhalb der VG Media eine „Gratiseinwilligung” an Google, weil sie sonst nicht mehr mit Snippets dargestellt worden wären. Im Gesetz heißt es, „einzelne Wörter oder kleinste Textausschnitte” dürften von Suchmaschinen frei verwendet werden. Darüber, wie lang ein „Snippet” nach dieser Formulierung sein kann, gibt es nach wie vor Debatten.

„Es wäre höchst bedauerlich, wenn ein formelles Versäumnis der Bundesregierung dazu führen würde, dass diese großen und vor allem aktuellen Anstrengungen vergeblich waren”, erklärten die Aufsichtsräte der VG Media, Christian DuMont Schütte, Aufsichtsratsvorsitzender der DuMont Mediengruppe GmbH & Co. KG, und Eduard Hüffer, Geschäftsführer der Aschendorff Medien GmbH & Co. KG am Donnerstag. „Die Verlegerverbände vertrauen darauf, dass die Richter alle Argumente noch einmal gründlich abwägen”, hieß es vom Verband Deutscher Zeitschriftenverleger.

dpa/pf

]]>
IT-Director Startseite it-zoom Netzwerk
news-21562 Thu, 13 Dec 2018 15:12:43 +0100 Neue Struktur in der Geschäftsführung http://www.it-zoom.de/it-director/e/neue-struktur-in-der-geschaeftsfuehrung-21562/ T-Systems transformiert sich: Ab Januar 2019 zählt die Geschäftsführung nur noch vier statt bisher sechs Mitglieder. Sie besteht neben dem Vorsitzenden aus einem Geschäftsführer „Commercial“, einem Geschäftsführer für Finanzen und einem weiteren für Personal. Die Stelle des Geschäftsführers Commercial ist neu. Er bündelt Kundenbelange einschließlich Vertrieb, Marketing, Partner- und Vertrags-Management. „Wir stellen das Unternehmen schlanker und agiler auf. Wir haben die alte monolithische Struktur durch zehn agile Portfolio-Einheiten ersetzt. Wir haben alle Funktionen des Marktangangs in einer zentralen Organisation gebündelt. Das gleiche gilt für alle globalen Lieferfunktionen. Alle Einheiten haben die volle Verantwortung für die jeweilige Funktion, für ihre Produkte und Lösungen. Die Hierarchie ist deutlich flacher als bisher.“ So erläutert Telekom-Vorstand und T-Systems-Chef Adel Al-Saleh den Umbau. „Wir haben den neu geschaffenen Einheiten mehr Verantwortung gegeben und verschlanken deshalb auch die Geschäftsführung.“

Der Aufsichtsrat hat François Fleutiaux in die neu geschaffene Position des Geschäftsführers Commercial berufen. Fleutiaux war bisher in der Geschäftsführung für die Einheit „IT Division" zuständig. Neben Fleutiaux verbleiben Christoph Ahrendt (Finanzen) und Georg Pepping (Personal) für ihre Ressorts unverändert in der Geschäftsführung.

Mit den neuen Portfolio-Einheiten laufen die bisherigen drei Organisationseinheiten (für Informationstechnik, Telekommunikation und Digitalgeschäft) zum Jahresende aus. In Folge verlassen Anette Bronder (Digital Division) und Patrick Molck-Ude (Telecommunications Division) die Geschäftsführung.

Ende 2018 wird Anette Bronder das Unternehmen auf eigenen Wunsch verlassen. Anette Bronder kam im August 2015 als Geschäftsführerin zu T‑Systems. Sie verantwortete den Aufbau der „Digital Division“ und der „Telekom Security“. Beide Einheiten gehören in der neuen Portfolio-Struktur zu den Wachstumsbereichen.

Patrick Molck-Ude übernimmt zum 1. Januar 2019 die Leitung der Portfolio-Einheit „TC Services“. Damit führt er die größte Portfolio-Einheit. Deren Aufgabe ist es, nationalen und internationalen Großkunden globale Netze für ihren digitalen Umbau bereitzustellen.

(Bild: Deutsche Telekom AG)

]]>
IT-Director
news-21557 Thu, 13 Dec 2018 09:17:22 +0100 Cloud-Konzepte: Bloß nicht zögern! http://www.it-zoom.de/it-director/e/cloud-konzepte-bloss-nicht-zoegern-21557/ Nach Meinung von IT-Experten haben sich Private- und Public-Cloud-Konzepte mittlerweile etabliert. Unter­nehmen, die weiterhin zögern, Cloud-Lösungen in ihre IT- und Unternehmensstrategien zu integrieren, laufen Gefahr, ihre Wettbewerbsfähigkeit aufs Spiel zu setzen. „Die Cloud ist heute Commodity“, bringt Matthias Zacher, Manager Research & Consulting bei IDC Deutschland, die Ergebnisse einer aktuellen IDC-Studie auf den Punkt. In den vergangenen Jahren wurden demnach in rascher Folge Technologien, Lösungsansätze, Frameworks und Deployment-Modelle neu entwickelt und optimiert. „Cloud Computing in seinen unterschiedlichen Facetten hat sich u. a. durchgesetzt, weil es die Fragen nach Compliance, Sicherheit, Wirtschaftlichkeit, Skalierbarkeit, Agilität und Kundenzufriedenheit beantwortet hat“, erklärt Zacher. Cloud-Services und Cloud-Technologien verfügen nach seinen Worten über ein großes Potential zur Verbesserung der internen Prozesse, zur Erhöhung der Profitabilität oder auch zur Digitalisierung von Prozessen und Geschäftsmodellen.

Während einige Unternehmen diese Erkenntnis zwar teilen, jedoch noch nicht mit der Umsetzung produktiver Konzepte begonnen haben, haben viele andere bereits definiert, welche Cloud-Technologien für welchen Anwendungsfall genutzt werden bzw. genutzt werden sollen. „Die Bandbreite der Einsatzszenarien ist extrem groß und umfasst alle IT-Ressourcen eines Unternehmens: ­Während sich Standardanwendungen mit geringem Aufwand aus der Cloud nutzen lassen, bleibt die Überführung von firmenkritischen Anwendungen in die Cloud weiterhin eine anspruchsvolle Aufgabe“, so Zacher.

Mit offenen Standards zur Multi-Cloud


Die ursprüngliche Vorstellung, dass alles in Public Clouds wandern würde, hat sich also nicht bewahrheitet. Ziel der Anbieter von Cloud-Services ist es stattdessen, die Kunden zu unterstützen, die ihre lokalen Systeme erhalten, gleichzeitig aber auch eine Vielzahl von Cloud-Plattformen und Anbietern nutzen wollen. Die Herausforderung liegt dabei in der Integration.

Auch wenn viele Unternehmen mehr geschäftskritische Anwendungen in die Cloud verlagern möchte, zögern sie aktuell noch aufgrund der Leistungsfähigkeit, des Integrationsaufwands und der internen Sicherheits- und Datenschutzbestimmungen. Um diese Herausforderungen zu adressieren, hat etwa IBM im Oktober eine neue Technologie vorgestellt. Nach IBM-Angaben können Unternehmen damit Multi-Cloud-Systeme offen und interoperabel betreiben. Die Lösung, die mehr Transparenz bei den Geschäftsprozessen, mehr Kontrolle und höhere Sicherheit bieten soll, ist für die IBM Cloud optimiert, integriert aber auch Cloud-Lösungen anderer Anbieter wie Amazon, Red Hat und Microsoft.

Der volle Umfang der Möglichkeiten der Business-Cloud ist nach den Worten von Arvind Krishna von IBM Hybrid Cloud vielfach noch nicht komplett erkannt. „Es geht nicht einfach nur um eine Computer-Infrastruktur, die genutzt wird. Unternehmen setzen auf die Cloud, um ihre geschäftskritischen Geschäftsprozesse zu modernisieren, zu transformieren und neue Geschäftsservices einzuführen. Dies erfordert einen interoperablen Ansatz für die Cloud, der auf offenen Standards basiert und es Kunden ermöglicht, Anwendungen und Workloads über Cloud-Systeme hinweg zu verwalten. So kann sich der volle Geschäftsnutzen der Cloud entfalten“, meint Krishna. Beim Bestreben, durch den Einsatz von Cloud-Services die Effizienz von Geschäftsprozessen zu steigern, dürfen firmeninterne Sicherheits- und Datenschutzbestimmungen aber nicht auf der Strecke bleiben.

Führende Anbieter von Sicherheitslösungen haben diese Notwendigkeit erkannt und ihre klassischen Security-Plattformen sukzessive erweitert. Mit seiner Integrated Cyber Defense Platform adressiert beispielsweise Sy­mantec diese Herausforderungen einer umfangreichen Suite an Technologien und Lösungen, die nach eigenen Angaben alle Cloud-Security- und Compliance-Anforderungen abdecken soll. Die Integrated Cyber Defense Platform bietet integrierte Security-Lösungen, die aus einem robusten Set an IaaS-, PaaS- und SaaS-Technologien bestehen, so der Anbeiter.

Nicht in kompletter Eigenleistung


Die kürzlich vorgestellte Cloud Workload Assurance integriert Sicherheitszustands-Management, Cloud Workload Protection (CWP) for Storage mit Data Loss Prevention (DLP) und CloudSOC CASB (Cloud Access Security Broker). Diese neuen Funktionen sollen die Sicherheit der Infrastruktur stärken und Richtlinienkontrolle sowohl für Cloud-Daten als auch für die Control Plane der Cloud-Anwendungen bieten.

Für NTT Security ist eine umfassende Automatisierung Grundlage für ein erfolgreiches IaaS-Deployment. „Compliance und Configuration Automation sind heute ein absolutes Muss für Cloud-Umgebungen. Damit kann zu jeder Zeit sichergestellt werden, dass eine Infrastruktur gehärtet ist, dass die Compliance-Richtlinien eingehalten werden und dass schnelle Reaktionen erfolgen“, erklärt Franck Braunstedter, Senior Manager Cyber Defense und Cloud Security bei NTT Security. Allerdings ist nach seiner Aussage die Implementierung dieser Lösungen technologisch wie prozessual recht komplex.

Viele Unternehmen können die Planung und den Aufbau von Cloud-Infrastrukturen nicht in kompletter Eigenleistung bewältigen. Dafür fehlen entsprechende IT-Fachkräfte, aber auch Fach- und Branchen-Know-how sowie Best Practices. Gefragt ist daher oftmals die externe Unterstützung durch IT-Sourcing-Berater.

Nach einer aktuellen Studie des Beratungshauses Lünendonk bündeln immer mehr Anwenderfirmen bei der externen Vergabe von Projekten an Dienstleister verschiedene Bestandteile, wie beispielsweise Prozessberatung, IT-Strategie, IT-Architektur und Technologieauswahl. Dabei entfallen mit 43 Prozent die meisten Nennungen auf IT-Sourcing-Generalisten, also auf Beratungen, die alle Sourcing-Themen abdecken. 38 Prozent der Befragten sehen Managementberatungen, bei denen IT-Sourcing Teil ihres Beratungsportfolios ist, als bevorzugte Anbietergruppe, während 34 Prozent auch IT-Sourcing-Beratungen beauftragen, die Themen aus der Management- und IT-Beratung mit abdecken. „Je nach Fokus des Projekts und Schwerpunkt der extern ausgeschriebenen Inhalte wählen Anwenderfirmen verschiedene Typen von Beratungsunternehmen“, analysiert Studienautor Mario Zillmann. „Es wird jedoch deutlich, dass Generalisten tendentiell bessere Chancen haben als Spezialisten, da sich immer mehr Beratungsfelder miteinander verzahnen.“

Dies ist ein Artikel aus unserer Print-Ausgabe 12/2018. Bestellen Sie ein kostenfreies Probe-Abo.

Gleichzeitig zeigt sich ein neuer Trend in der Zusammenarbeit mit den firmeninternen Fachbereichen. Cloud-Migration, Hybrid-/Multi-Cloud, Cloud-Orchestration, DevOps, APIs und Business-/IT-Alignment sind laut Zillmann nicht mehr nur für CIOs wichtige Themen. Vielmehr sorgt der hohe Reife- und Akzeptanzgrad von Cloud-Technologien dafür, dass diese immer öfter die technologische Basis von Digitalisierungsstrategien der Fachbereiche bilden.

Nutzenvorteile überwiegen vorhandene Bedenken


In einer Trendanalyse hat IDC im September dieses Jahres 200 deutsche Unternehmen jeder Größe und aus allen Branchen befragt, die Cloud-Technologien nutzen bzw. deren Einsatz planen. 90 Prozent der Befragten haben eine Cloud-Strategie definiert. 15 Prozent nutzen bereits Multi-Cloud-Lösungen. Die Nutzenvorteile der Multi-Cloud überwiegen dabei vorhandene Bedenken und lassen technologische Herausforderungen in den Hintergrund treten. „Die Anbieter von Cloud-Technologien sind gefordert, Aufklärungsarbeit zu leisten und die Anwender abzuholen. Cloud Computing hat die Disruption der Nutzung von IT erfolgreich eingeleitet und wird sie Hand in Hand mit anderen technologischen Entwicklungen weiter vorantreiben“, resümiert Matthias Zacher.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom Cloud
news-21553 Wed, 12 Dec 2018 14:57:47 +0100 2018 – das Jahr der Datenskandale? http://www.it-zoom.de/it-director/e/2018-das-jahr-der-datenskandale-21553/ Datenschutz ist eine fragile Angelegenheit. Für diese Erkenntnis musste man 2018 kein ausgemachter Technologie-Skeptiker mehr sein. Das Ausmaß, mit dem in diesem Jahr sensible Daten in falsche Hände gerieten, bleibt nach wie vor beeindruckend. Das Thema Datenschutz fiel im ersten Quartal des Jahres quasi mit der Tür ins Haus. Kein Klopfen, kein Klingeln, dafür eine Firma, deren Name zum Synonym für den arglistigen Umgang mit privaten Daten werden sollte: Cambridge Analytica. Das Datenanalyse-Unternehmen aus New York soll über Jahre die persönlichen Daten von Millionen Facebook-Nutzern gesammelt und ausgewertet haben, um sie dann für politisch motivierte Mikrotargeting-Kampagnen zu missbrauchen. Eine Geschichte, bei der es nur Verlierer gab: Facebook erlitt nicht nur einen massiven Kurseinbruch an der Börse, sondern auch einen bis heute andauernden Vertrauensverlust und Imageschaden. Cambridge Analytica musste zwei Monate später Insolvenz anmelden. Die Nutzer von sozialen Netzwerken wie Facebook konnten sich derweil endgültig sicher sein, dass ihre privaten Daten bei den großen US-Konzernen nicht in guten Händen sind.

Das Inkrafttreten der EU-Datenschutz-Grundverordnung (DSGVO) im Mai hätte vor diesem Hintergrund kaum passender kommen können. Einzig: Niemand schien so richtig zu verstehen, was man mit diesem bürokratischen Apparat überhaupt anfangen sollte. Das diffuse und teils widersprüchliche Regelwerk der Verordnung verunsicherte nicht nur kleine und mittlere Unternehmen, sondern nahezu die gesamte Wirtschaft. Bei einer Studie des Digitalverbandes Bitkom im Mai gab gerade mal ein Viertel der befragten Unternehmen aus Deutschland an, auf die DSGVO vorbereitet zu sein. Neben den angedrohten Strafen der Behörden befürchteten viele Unternehmen zudem unkontrollierte Abmahnwellen, bei denen entsprechende Kanzleien systematisch gegen Verstöße vorgehen würden. Davon waren laut einer Studie des Bundesverbands Digitale Wirtschaft (BVDW) im ersten Monat nur fünf Prozent der befragten Unternehmen betroffen. Dennoch war auch hier die Grunderkenntnis, dass die neue Regelung Unternehmen stark einschränke.

Datenschutzgespenst in der Praxis

Wie genau der Umgang mit diesem „bürokratischen Gespenst” hierzulande in der Praxis aussehen kann, wurde schließlich im Falle eines großen Datenlecks im September gut veranschaulicht. Das tat sich bei dem Jugendportal knuddels.de auf und hatte zur Folge, dass die Mailadressen von mehr als 300.000 Nutzern des Portals veröffentlicht wurden. Da die Daten offensichtlich nicht angemessen gesichert waren und Passwörter unverschlüsselt vorlagen, wurde der Vorgang als klarer Verstoß gegen die DSGVO gewertet. Weil das Unternehmen den Angriff aber unmittelbar bei den Behörden meldete und transparent an seine Nutzer kommunizierte, fiel die Strafzahlung mit einem Betrag von 20.000 Euro einigermaßen überschaubar aus. Ein Zwischenfall, von dem man zwei Dinge ableiten konnte: Zum einen zeigte sich, dass die Behörden bei vorbildlicher Zusammenarbeit eine Art Kulanz walten lassen und Unternehmen generell gut damit beraten sind, etwaige Probleme umgehend zu melden. Zum anderen machte der Fall deutlich, dass eine zeitnahe und gezielte Auseinandersetzung mit derartigen Vorfällen einen Lerneffekt mit sich bringen kann, der eine IT-Abteilung im Zweifel sogar stärkt.

Wie man besser nicht mit einem Datenleck umgehen sollte, demonstrierte Google nur einen Monat später. Bis zu hunderttausende Konten des Google-Plus-Netzwerks  sollen von einer Datenpanne betroffen gewesen sein, wie Anfang Oktober bekannt wurde. Genug, um das ohnehin bereits „scheintote” Netzwerk ganz zu Fall zu bringen. Dessen Ende wurde nämlich gleich mitverkündet und sollte so wohl den eigentlichen Skandal an der Geschichte übertönen. Das Datenleck soll laut dem „Wall Street Journal” nämlich schon seit gut drei Jahren existiert haben. Eine Notwendigkeit, Nutzer oder Behörden zu informieren, sah Google nicht. Die Panne ermöglichte es App-Entwicklern, auf private Kontodaten wie Name, Mailadresse oder Beschäftigung zuzugreifen. Ob durch die Lücke im System tatsächlich ein Missbrauch der Daten stattgefunden hat, weiß derweil niemand so genau. Die zuständige Behörde in Hamburg soll die Ermittlungen kurz nach bekanntwerden der Panne aufgenommen haben.

Trauriger Rekord zum Jahresende

Man kann die Liste der betroffenen Unternehmen in diesem Jahr sehr beliebig fortführen: Uber, British Airways, Twitter, Quora, Amazon – kaum eine Woche verging, ohne dass ein neuer Fall bekannt wurde. Zum Abschluss des Jahres folgte dann noch mal ein ganz großer Brocken: Die Daten von einer halben Milliarde Hotelgästen sollen dem Hotelunternehmen Marriott abhanden gekommen sein. Damit ist die Panne direkt auf den zweiten Platz der größten Datenlecks aller Zeiten gerutscht – nur noch geschlagen von Yahoo, bei denen im Jahr 2013 sogar drei Milliarden Personen betroffen waren. Im Fall des Marriott-Skandals sollen bereits seit 2014 Unbefugte Zugang zu den Daten der betroffenen Tochterkette Starwood gehabt haben. Eine Sicherheitslücke, die Marriott im Zuge der Übernahme vor zwei Jahren gleich miterwarb. Besonders pikant: Bei den aus der Reservierungsdatenbank gestohlenen Informationen soll es sich nicht nur um Daten wie Name, Anschrift und Buchungszeitraum handeln, sondern auch um Einzelheiten zu den Kreditkarten der Gäste. Ob die zur Entschlüsselung dieser Daten notwendigen Informationen ebenfalls abhanden gekommen sind, war im Nachgang nicht bekannt.

Glaubt man den Umfragen der Branchenverbände, ist das zunehmende Bedrohungspotential durch solche Angriffe nicht nur ein subjektives Gefühl: Bitkom erwartet, dass die Ausgaben für IT-Sicherheit im kommenden Jahr hierzulande auf 4,4 Milliarden Euro steigen – neun Prozent mehr als im Vorjahr. Neben den anhaltenden Risiken durch Bedrohungsfaktoren wie Ransomware können auch neue Formen der Kriminalität wie Kryptomining nachhaltige Schäden hinterlassen. Ob sich die zusätzlichen Ausgaben dahingehend bezahlt machen, wird man vermutlich erst im nächsten Jahr um diese Zeit sagen können.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom Philip Fassing Sicherheit
news-21551 Wed, 12 Dec 2018 14:40:36 +0100 Bei Versicherungen zählt das Image http://www.it-zoom.de/it-director/e/bei-versicherungen-zaehlt-das-image-21551/ Eine aktuelle Studie zeigt, dass viele der Befragten sich durchaus vorstellen könnte, eine Versicherung bei einem Automobilkonzern oder einem Energieanbieter abzuschließen, nicht jedoch bei einem Discounter. Deutschlands Versicherungskunden sind nicht auf Herrn Kaiser festgelegt. Viele von ihnen würden auch bei einem Stromanbieter (43 Prozent), einem Autohersteller (42 Prozent) oder einem Telefonkonzern (40 Prozent) eine Versicherung abschließen. Deutlich zurückhaltender sind die Bundesbürger hingegen bei Internet-Firmen (34 Prozent) oder Discountern (26 Prozent). Das sind Ergebnisse der Studie „Digitale Versicherung 2018“, für die im Auftrag des Softwareherstellers Adcubum mehr als 1.000 Bundesbürger bevölkerungsrepräsentativ befragt wurden.

„Die Teilnehmer haben sehr genau die Tätigkeitsfelder der abgefragten Unternehmen verglichen“, sagt Michael Süß, Geschäftsführer von Adcubum Deutschland. „Das führte bei den Befragten ganz offensichtlich zu der Überzeugung, dass es besser passt, eine Versicherung bei Stromanbietern wie Vattenfall oder Eon abzuschließen als beispielsweise bei einem Discounter.“

Was durchaus Sinn ergebe, wie Süß weiter erklärt. „Einen Supermarkt bringt man ja in aller Regel nicht unbedingt mit dem Abschluss einer Hausratversicherung in Verbindung. Einen Energielieferanten hingegen schon sehr viel eher, wenn etwa der Strom bei einem Umzug ohnehin neu angemeldet werden muss.“ Als Erweiterung des Angebots dieser Unternehmen seien daher Versicherungen denkbar, die thematisch passen. Bei Autoherstellern könne man dabei an eine Haftpflicht-Police denken, was bereits oft gängige Praxis sei.

Die mittelmäßigen Ergebnisse der Discounter müsse man deshalb aber nicht sofort als negativ einstufen. Man könne sie viel mehr auch als zukünftige Chance begreifen, so der Versicherungsexperte. „Denn wenn wir uns die rasende Entwicklung in Sachen Mass Customization ansehen, dann ist der Weg in Richtung Versicherung aus dem Discounter auch nicht mehr besonders weit.“

Das funktioniere allerdings nur, wenn die Abwicklung parallel auch durch digitale Plattformen gestützt werde, die leicht zu begreifen und vor allem störungssicher sind. Süß dazu: „Die Kundenreichweite dieser Märkte ist absolut nicht zu unterschätzen und vor allen Dingen jüngere Generationen wollen nun mal nicht erst in drei Wochen einen Termin beim Berater haben – sondern jetzt. Genau da kann man ansetzen.“

Die Ergebnisse der aktuellen Studie stützen diese Einschätzung. Dort standen besonders jüngere Teilnehmer zwischen 18 und 34 Jahren dem Abschluss eines Versicherungsvertrages bei den genannten Nicht-Versicherungs-Unternehmen am offensten gegenüber.

]]>
IT-Director
news-21552 Wed, 12 Dec 2018 14:34:02 +0100 Die Kundenanforderungen werden vielschichtiger http://www.it-zoom.de/it-director/e/die-kundenanforderungen-werden-vielschichtiger-21552/ Im Vergleich zu klassischen IT-Dienstleistern gestaltet sich die Rolle von Managed-Service-Providern viel anspruchsvoller, betont Markus Rex von Datto. IT-DIRECTOR: Herr Rex, welche Art von Managed Services werden derzeit von Großunternehmen und Konzernen am meisten nachgefragt?
M. Rex:
Unsere Kunden betreuen als Managed-Service-Provider (MSP) vom Kleinunternehmen bis zum Konzern weltweit Organisationen aller Größenordnungen, daher haben wir einen guten Überblick über die Angebots- und Nachfragesituation von Managed Services. Es ist allerdings schwer zu verallgemeinern, welche Einzelservices am meisten nachgefragt werden, da unsere Partner in der Regel eine Kombination von Managed Services bei ihren Kunden einsetzen.

Die Nachfrage von Managed-Service-Providern nach unseren Business-Continuity-und Disaster-Recovery-Lösungen steigt jedenfalls kontinuierlich, was eine steigende Nachfrage bei den Unternehmen widerspiegelt.

Was wir jedoch unabhängig von Unternehmensgrößen bestätigen können: Die Kunden von MSPs wollen mit dem Einsatz von Managed Services ihre Digitalisierung vorantreiben, Prozesse optimieren, Effizienz durch Automatisierung steigern, Kosten senken, Risiken minimieren und die Sicherheit verbessern. Alle Managed Services, die dazu beitragen, stehen bei den Unternehmen hoch im Kurs.

IT-DIRECTOR: Worauf kommt es den Kunden bei der Auswahl von Managed-Services-Providern momentan besonders an?
M. Rex:
Im Vergleich zum klassischen IT-Dienstleister ist die Rolle des MSPs sehr viel anspruchsvoller, da das Anforderungsprofil der Kunden an die Provider vielschichtiger ist. So spielt die Beraterfunktion zum Beispiel eine zentrale Rolle: Der MSP muss in der Lage sein, seinen Kunden den Weg in eine digitalisierte Zukunft zu weisen und die technischen Voraussetzungen und Möglichkeiten für die Kunden schaffen, die diese zum Erreichen ihrer Ziele benötigen. Das setzt eine unternehmerische Denkweise und eine genaue Kenntnis des Kerngeschäfts der Kunden voraus.

MSPs können einen entscheidenden Beitrag zum Wettbewerbsvorteil ihrer Kunden leisten. Daher müssen sie im Hinblick auf den technologischen Fortschritt natürlich immer auf dem aktuellsten Stand sein und Zukunftstrends beobachten, um vorausschauend und langfristig für ihre Kunden planen zu können. Kosten spielen bei der Auswahl eines MSPs natürlich auch eine Rolle, im Vergleich zu den genannten Punkten unserer Erfahrung nach aber eher eine untergeordnete.

IT-DIRECTOR: Welche Vertragslaufzeiten sind die Regel?
M. Rex:
Auch das variiert. Vertragslaufzeiten von einem Jahr sind unserer Beobachtung nach jedoch recht weit verbreitet.

IT-DIRECTOR: Was sind die wichtigen Vertragsinhalte bzw. Service Level Agreements?
M. Rex:
In Managed-Services-Verträgen sollten die Leistungsbeschreibung des MSPs unmissverständlich enthalten und die Managed Services, die er bietet, klar definiert sein. Für die Kunden muss aus den Verträgen klar hervorgehen, was die angebotenen Managed Services leisten und was nicht. In Bezug auf die SLAs sind kurze Reaktions- und angemessene Lösungszeiten besonders wichtig für die Kunden. Berichte und Nachweise für die Einhaltung der SLAs sowie Vertragsstrafen für deren Nichteinhaltung sollten ebenfalls ganz klar vereinbart sein.

IT-DIRECTOR: Wie ist das Vertragsende – beispielsweise die Übergabe zurück ins Anwenderunternehmen oder an einen anderen Managed-Services-Provider – geregelt?
M. Rex:
Auch diesbezüglich geht jeder Provider seinen eigenen Weg. Protokollierte Übergaben und dokumentierte Haftungsausschlüsse bzw. Übertragung der Verantwortung auf das Unternehmen oder den nachfolgenden MSP sind jedoch die Regel. Saubere Abschlüsse und klare Verantwortlichkeiten sind sowohl den MSPs als auch den Unternehmen wichtig.

]]>
Ina Schlücker IT-Director IT-Dienstleistung / Outsourcing
news-21548 Wed, 12 Dec 2018 13:06:16 +0100 Mehrjähriger Streit mit Google geht zu Ende http://www.it-zoom.de/it-director/e/mehrjaehriger-streit-mit-google-geht-zu-ende-21548/ Jahrelang hat ein ehemaliger Bürgermeister gegen die Anzeige von Suchergebnissen gekämpft, die ihn seiner Auffassung nach in ein unrechtes Licht rücken. Nun gibt der Mann in der juristischen Auseinandersetzung mit Google auf. Zuvor hatte das Oberlandesgericht Stuttgart dem Mann in einer Berufungsverhandlung klar gemacht, dass er den Suchmaschinenbetreiber nicht dafür verantwortlich machen könne, wenn unter den Suchbegriffen seines Namens in Verbindung mit dem Wort „Balkan” Links zu Texten erscheinen, die verleumderische Äußerungen und Beleidigungen enthalten. So schlimm die Texte für ihn seien, sagte der Vorsitzende Richter Matthias Haag, so erwachse daraus kein Anspruch auf Unterlassung und dauerhafte Löschung gegen Google.

Der Ex-Bürgermeister der Gemeinde Hausen ob Verena bei Villingen-Schwenningen zog daraufhin seine Berufung gegen ein Urteil des Landgerichts Rottweil zurück. „Obwohl das Aufgeben gar nicht zu mir passt”, wie er betonte. Erreichen wollte er mit seinem seit mehreren Jahren andauernden Rechtsstreit, dass der Internetriese die Ergebnislinks zu insgesamt 14 beleidigenden Texten dauerhaft löscht. Das Landgericht Rottweil hatte seine Klage abgewiesen. OLG-Richter Haag sagte am Mittwoch, dass auch die danach erst in Kraft getretene EU-Datenschutzgrundverordnung (DSGVO) am Sachverhalt nichts ändere.

Der Kläger war 17 Jahre lang Bürgermeister der Gemeinde im Kreis Tuttlingen und zudem Geschäftsführer der Gemeindewerke und Vorsitzender des Abwasserzweckverbandes. Deshalb habe ihn das Bundesministerium für wirtschaftliche Zusammenarbeit 2001 mit dem Aufbau einer effektiven Verwaltung und der kommunalen Infrastruktur in albanischen Städten beauftragt. Die für ihn beleidigenden Texte mit Worten wie „Albanermafia” und „Bestechungslobby” stammten von einem Blog, die Urheber seien nicht zu fassen, sagte der Kläger. Er sehe seine Persönlichkeitsrechte verletzt, seine Tätigkeit in Albanien sei stets legal gewesen.

dpa/pf

]]>
IT-Director Startseite it-zoom Unternehmen
news-21544 Wed, 12 Dec 2018 10:14:19 +0100 Digitale Risiken absichern http://www.it-zoom.de/it-director/e/digitale-risiken-absichern-21544/ Im Interview erklärt Robert Dietrich, Hauptbevollmächtigter bei dem ­Versicherungsspezialisten Hiscox Deutschland in München, wie Kunden dank eines entsprechenden Versicherungsschutzes die Auswirkungen von ­Cyberattacken abfedern können und warum IT-Unternehmen prinzipiell nicht auf Haftpflichtversicherungen verzichten sollten. IT-DIRECTOR: Herr Dietrich, was ist das  Hauptgeschäftsfeld von Hiscox?
R. Dietrich:
Hiscox wurde 1901 in London gegründet, in Deutschland starteten wir 1995 zunächst mit Kunst- und Privatvermögensversicherungen. Im nächsten Schritt kamen Haftpflichtversicherungen für ausgewählte Berufsgruppen hinzu. Mittlerweile beschäftigen wir als reiner Spezialversicherer rund 3.000 Mitarbeiter weltweit, wobei der Fokus auf Nischenprodukten wie IT- und Cyberversicherungen liegt. Mit unseren Haftpflichtversicherungen sichern wir von Freelancern bis zu internationalen Großunternehmen alle Kunden ab. In diesem Rahmen bieten wir mit „Net IT“ eine Berufshaftpflichtversicherung speziell für die IT-Branche an. Sollten den Mitarbeitern von IT-Unternehmen Fehler unterlaufen, sind mögliche daraus resultierende Schäden versichert.

IT-DIRECTOR: Inwieweit schließen hiesige Firmen solche Policen bereits ab?
R. Dietrich:
Eine Studie von Hiscox und Bitkom Research zeigt: Ca. 80 Prozent der Auftraggeber erwarten von IT-Freelancern und IT-Dienstleistern mittlerweile den Nachweis einer IT-Haftpflichtversicherung. Zudem bieten wir für diverse Sparten – z.B. IT-Unternehmen, Architekten, Hotels oder Kliniken – spezielle Cyberversicherungen an. Werden die Versicherten Opfer von Cyberangriffen, übernehmen wir sowohl die Schadensbehebung als auch das Krisenmanagement.

IT-DIRECTOR: Was ist hierbei inkludiert?
R. Dietrich:
In enger Zusammenarbeit mit unserem exklusiven Krisen-Dienstleistungspartner HiSolutions aus Berlin übernehmen wir alle forensischen Dienstleistungen. Dabei rekapitulieren wir gemeinsam, was bei den Versicherungsnehmern genau vorgefallen ist. Im Anschluss klären wir, ob Endkunden oder Strafverfolgungsbehörden über den Sicherheitsvorfall informiert werden müssen. Falls ja, übernehmen wir auch dies für unsere Kunden. Sollte der Vorfall zudem in der Öffentlichkeit hohe Wellen schlagen, dann steuern wir auch die Krisen-PR. Diese Leistungen kommen insbesondere Mittelständlern zugute, die mit Cyberangriffen häufig überfordert sind.

IT-DIRECTOR: Welche Schäden regulieren Sie nach Cyberattacken?
R. Dietrich:
Bei Bedarf übernehmen wir die Wiederherstellung der IT-Systeme und Unternehmensdaten. Auch gleichen wir entstandene Haftpflichtschäden aus. Weiterhin regulieren wir die Folgen von Betriebsunterbrechungen. Alles in allem handelt es sich um ein Komplettpaket mit einer Haftpflicht- und Eigenschadendeckung inklusive einer „Krisen-Assistance“. Zudem setzen wir sehr auf Prävention und führen unmittelbar nach dem Versicherungsabschluss kostenlose Online-Sicherheitsschulungen durch, um die Mitarbeiter unserer Kunden gegenüber Cybergefahren zu sensibilisieren. Dabei lernen diese etwa, nicht vorschnell auf Links zu klicken oder E-Mail-Anhänge zu öffnen – auch wenn es sich um vermeintlich bekannte Absender handelt.

Dies ist ein Artikel aus unserer Print-Ausgabe 12/2018. Bestellen Sie ein kostenfreies Probe-Abo.

IT-DIRECTOR: Wie hoch ist die Nachfrage speziell nach Cyberversicherungen?
R. Dietrich:
In Deutschland bieten wir solche Verträge seit gut acht Jahren an, wobei das Thema zuletzt durch das Sicherheitsgesetz und die EU-Datenschutz-Grundverordnung (DS-GVO) enormen Schub erhalten hat. Auch die Investitionsbereitschaft ist inzwischen vorhanden, denn das wachsende Risiko ist vielen bewusst.

IT-DIRECTOR: Worauf kommt es bei der Schadensregulierung an?
R. Dietrich:
Vor allem auf sehr schnelle Reaktionszeiten, da die Schadensfälle in der Regel äußerst zeitkritisch sind: Geht es etwa um eine fehlerhafte Programmierung in laufenden IT-Projekten, lassen sich die Klärung des Schadensfalls oder etwaige Klagen auf Schadensersatz nicht monatelang aufschieben. Generell wollen wir unsere Kunden vor unberechtigten Ansprüchen schützen. Sollte an den Beschuldigungen nichts dran sein, verteidigen wir unsere Kunden aktiv auch vor Gericht. Ebenso zeitkritisch erweist sich das Handeln nach Sicherheitsvorfällen. Deshalb müssen unsere Krisenspezialisten permanent und direkt erreichbar sein. Denn werden z.B. Online-Händler an Tagen wie dem Black Friday attackiert, kann dies geschäftskritisch für sie sein.

IT-DIRECTOR: Was passiert als Erstes, sollte ein Schadenfall eintreten?
R. Dietrich:
Betroffene sollten uns oder unseren Krisendienstleister unmittelbar informieren – auch im Verdachtsfall. Denn wir nehmen lieber einen Fehlalarm in Kauf, als verzögert zu reagieren. Nach der Alarmierung nehmen die Forensiker zunächst eine Ferndiagnose vor. Dabei können sie in der Regel schnell einschätzen, ob es sich um einen kritischen Vorfall handelt. Bei schweren Attacken werden die Forensiker zu den Kunden vor Ort geschickt. Auf diese Weise ist der Sicherheitsvorfall entweder schnell gelöst oder wir leiten den Krisenstab ein. Generell sind weniger DDoS- oder Massen-Phishing-Angriffe kritisch als vielmehr einzelne, zielgerichtete Angriffe, die immens viele Daten und Know-how aus den Firmen abgreifen können.

IT-DIRECTOR: Was ist die größte Herausforderung bei der Regulierung?
R. Dietrich:
Basis unseres Erfolgs ist die schnelle und unkomplizierte Regulierung. So haben wir erst im vergangenen Jahr bei einem Kunden einen Drei-Millionen-Euro-Schaden reguliert. Bei solch hohen Summen arbeiten wir auch mit Rückversicherern zusammen, die aber erst ins Spiel kommen, wenn unser relativ großer Eigenbehalt nicht mehr greifen sollte.

IT-DIRECTOR: Nicht alle Vorfälle sind klar nachvollziehbar. Wer würde z.B. bei Unfällen von autonomen Fahrzeugen haften – Automobilhersteller oder Software-Entwickler?
R. Dietrich:
Solche mit der zunehmenden Digitalisierung sämtlicher Lebensbereiche verbundenen Fragen sind vielfach noch nicht abschließend geklärt. Hier besteht die große Kunst künftig darin, für alle Beteiligten vertretbare und klare Regeln zu schaffen. Gefordert ist dabei die Zusammenarbeit aller relevanten Parteien, von den IT-Anbietern über die Politik bis hin zu Versicherern. Vor diesem Hintergrund sind wir seit Kurzem in verschiedenen politischen Institutionen in Berlin aktiv. Und wir sitzen als einziger Versicherer im digitalen Wirtschaftsrat, wo wir die Sicht der Versicherungswirtschaft auf die Digitalisierung darlegen.

IT-DIRECTOR: Was ist ein gestohlener Datensatz überhaupt wert?
R. Dietrich:
Dafür gibt es gewisse Richtwerte. Bei dem erwähnten Drei-Millionen-Euro-Schaden kam Verschiedenes zusammen: Hier wollte ein ehemaliger Mitarbeiter das betroffene Unternehmen ganz bewusst schädigen. Die Aussendung mehrerer IT-Forensikspezialisten machte einen großen Anteil der Kosten aus. Sie konnten direkt vor Ort eigene Nachforschungen anstellen. Ein weiterer Kostenfaktor war die Betriebsunterbrechung. In diesem Fall konnte das Unternehmen seine angebotenen Dienstleistungen nicht mehr erbringen, da alle IT-Systeme am Boden lagen. Dadurch kam es täglich zu großen Verlusten, die wir ebenfalls aufgefangen haben. Desweiteren ging es darum, den Angriff den Behörden zu melden und betroffene Kunden anzuschreiben. Also übernahmen wir auch das gesamte Krisenmanagement und die Öffentlichkeitsarbeit, wobei auch Krisen-PR sehr kostenintensiv sein kann.

IT-DIRECTOR: Mit welchen Behörden arbeiten Sie zusammen?
R. Dietrich:
Wir sind mit allen wichtigen Behörden wie dem Verfassungsschutz, dem Bundeskriminalamt und sämtlichen Landeskriminalämtern vernetzt. Allerdings informieren wir die Behörden immer erst nach Rücksprache mit den betroffenen Kunden. Die neue EU-Datenschutz-Grundverordnung und das Sicherheitsgesetz Kritis regeln mittlerweile klar, was direkt nach Cyberangriffen zu tun ist und welche Behörden oder Personen in welcher Form informiert werden müssen. Hier geben wir die klare Empfehlung, alle Vorgaben einzuhalten, weil sich die Unternehmensverantwortlichen strafbar machen würden.

IT-DIRECTOR: Was empfehlen Sie, wenn Firmendaten per Ransomware verschlüsselt werden. Haften Sie für Lösegeldzahlungen?
R. Dietrich:
Ja, wobei die Zahlung von Lösegeld die Ultima Ratio sein sollte. Zuvor würden wir gemeinsam mit den Kunden und unseren Experten andere Wege wie Back-ups, Schattenkopien, Entschlüsselung oder die manuelle Wiederherstellung prüfen. Während das FBI eher die Begleichung der Lösegeldforderungen empfieht, raten hiesige Behörden eher davon ab. Letzteres tun wir in der Regel auch.

IT-DIRECTOR: Warum?
R. Dietrich:
Unsere Erfahrung zeigt, dass selbst Lösegeldzahlungen längst nicht bewirken, die verschlüsselten Daten wieder verfügbar zu machen. Ein weiterer Grund: In den letzten Jahren haben sich im Darknet zahlreiche Handelsplattformen etabliert, über die man Ransomware- oder DDoS-Attacken für wenig Geld einkaufen kann. Resultiert daraus jedoch kein Gewinn aus Lösegeldern, haben die Kriminellen schnell ein Reputationsproblem.

IT-DIRECTOR: Wie wird sich der Cyberversicherungsmarkt entwickeln?
R. Dietrich:
Derzeit bewegt sich der deutschsprachige Markt im einstelligen Prozentbereich. Aktuell existiert ein Cyberversicherungsprä-mienvolumen von ca. 115 Mio. Euro, das bis 2025 aus unserer Sicht auf 3 Mrd. Euro steigen wird.

IT-DIRECTOR: Könnten Cyberpolicen zur Pflichtversicherung werden?
R. Dietrich:
Haben die Mitarbeiter keinen Zugriff mehr auf die Firmendaten, steht der Geschäftsbetrieb meist still. Deshalb benötigt jeder, der Daten digital vorhält und verarbeitet, über kurz oder lang eine entsprechende Absicherung. Neben Back-up- und Sicherheitstechnologien kann dies auch in Form einer Cyberversicherung passieren.

IT-DIRECTOR: Was würde gegen eine Pflichtversicherung sprechen?
R. Dietrich:
Die Versicherer müssten künftig auf einen Schlag massenhaft Cybersicherheitsschäden abfangen können, etwa wenn Hunderttausende Privatkunden gegen Ransomware-Schäden versichert wurden. Da solche Angriffe weltweit zeitgleich ablaufen, müssten alle Schäden unmittelbar reguliert werden. Dieses Szenario ist sehr schwer kalkulierbar. Daneben gibt es weitere Besonderheiten: Bei der Versicherung von Cyberschäden kann es einerseits um sehr hohe Summen gehen, anderseits müssen auch die Versicherungen den steten digitalen Wandel abbilden. In der Regel arbeiten Versicherer jedoch mit Vergangenheitswerten, die für den Versicherungsrahmen und die Prämien
statistisch neu berechnet werden. Daher müsste man die Verträge künftig schnell an neue Gegebenheiten anpassen können.

IT-DIRECTOR: Was bedeutet der digitale Wandel für Ihr Geschäftsmodell?
R. Dietrich:
Die Lebenszyklen unserer Angebote werden immer kürzer, wobei künftig auch Modelle wie „Dynamic Pricing“ bei der Absicherung von Risiken denkbar wären. In den acht Jahren unseres Bestehens in Deutschland haben wir unser Produkt bereits drei umfänglichen Relaunches unterzogen. Blieben Policen für Kfz- oder Hausratversicherungen früher bis zu 30 Jahre unverändert, wird sich dies radikal ändern: Bald werden bei Kfz-Versicherungen Aspekte wie das autonome Fahren und Telematik berücksichtigt müssen. Und bei Hausratversicherungen wird es zunehmend um die Einbindung der Risiken von Smart-Home-Technologien gehen.

IT-DIRECTOR: Was bedeutet dies?
R. Dietrich:
Bislang gab es standardisierte Definitionen für Einbruchs- und Diebstahlspuren infolge gewaltsamen Zutritts. Im Zuge der Verbreitung von Smart-Home-Technologien gilt es, neue Vorgaben zu formulieren. Denn werden die Sicherheitssysteme gehackt, können Kriminelle, ohne Einbruchsspuren zu hinterlassen, einfach hereinspazieren.

IT-DIRECTOR: Was ist mit Künstlicher Intelligenz (KI)?
R. Dietrich:
Mit KI beschäftigen wir uns intensiv. Zu klären ist, wer künftig in die Haftung genommen werden kann: die Entwickler der zugrunde liegenden Algorithmen, die Software-Anbieter oder die Anwender? Wichtig ist, Trends wie KI, Smart Home oder das Internet der Dinge nicht mehr getrennt voneinander zu betrachten. Vielmehr sollte man berücksichtigen, dass aufgrund der zunehmenden Vernetzung alles ineinandergreift.

IT-DIRECTOR: Was ist wichtig bei der Auswahl der Policen?
R. Dietrich:
Man sollte sich die Bedingungswerke genau ansehen: Welche Ausschlüsse und Obliegenheiten sind notiert? Gibt es versteckte Hintertüren, die die Versicherer offenhalten, oder existieren Verklausulierungen wie „dem Stand der Technik entsprechend“? Solche Floskeln sind viel zu allgemein und für die Versicherungsnehmer nicht selten mit großen Nachteilen verbunden.

IT-DIRECTOR: Was kosten Cyberversicherungen?
R. Dietrich:
Im Allgemeinen kommt es auf die Unternehmensgröße, die vorhandene Datenmenge, die Umsätze und die Branche an. Anbieter kritischer Infrastrukturen bezahlen wegen des höher abzudeckenden Risikos höhere Beiträge – teils sechsstellige Beträge jährlich. Im klassischen Mittelstand hingegen bewegen wir uns bei 10.000 bis 15.000 Euro pro Jahr. Bei dem erwähnten Drei-Millionen-Euro-Schaden bezahlte das betroffene Unternehmen eine jährliche Prämie von rund 10.000 Euro. Hätten wir den Schaden nicht reguliert, hätte das mittelständische Unternehmen wohl Insolvenz beantragen müssen.

Über Robert Dietrich

Alter: 44 Jahre
Familienstand: verheiratet, 4 Kinder
Werdegang:
Management-Studium und MBA; anschließend Tätigkeiten bei Allianz und Debeka. Seit 1997 bei Hiscox, anfangs als Underwriting Manager verantwortlich für den Privat- und Geschäftskundenbereich. 2005 wechselte er für ein Jahr zu Hiscox in UK und trieb dort die Markteinführung des Direktgeschäfts voran. 2007 wurde er zum Hiscox Deutschlandchef ernannt, seit 2012 ist er Hiscox Partner.
Derzeitige Position:
Hauptbevollmächtigter bei Hiscox Deutschland

]]>
IT-Director Startseite it-zoom Ina Schlücker
news-21543 Wed, 12 Dec 2018 09:34:00 +0100 Flexibler Zugang für Ingenieure http://www.it-zoom.de/it-director/e/flexibler-zugang-fuer-ingenieure-21543/ Opentext, ein Anbieter von Enterprise Information Management (EIM), hat die Partnerschaft mit der SMS Group bekanntgegeben. Der Zulieferer für die Metallindustrie setzt auf Exceed Turbo X, um seinen Ingenieuren eine flexible Arbeitsumgebung bereitzustellen. Die SMS Group arbeitet als Zulieferer der Metallindustrie im Bereich der Bearbeitung von Stahl, Aluminium, Kupfer und anderen Metallen. Sie bietet Konstruktions-, Ingenieurs- und Fertigungsdienstleistungen, darunter die Gestaltung neuer Fabrikanlagen, Modernisierungs- und Digitalisierungsinitiativen sowie Dienstleistungen rund um das Product-Lifecycle-Management. Die SMS Group hat weltweit 13.500 Mitarbeiter, darunter viele Ingenieure, die an grafisch und rechnerisch anspruchsvollen Designaufgaben arbeiten. Diese Ingenieure führen zahlreiche komplexe Berechnungen und Simulationen durch, wenn sie neue Fabriken für ihre Kunden gestalten und konstruieren. Dazu verwenden sie MSC Marc und Mentat Software. Mit Opentext Exceed Turbo X haben sie eine Fernzugriffslösung für ihre tägliche Arbeit, die dabei helfen soll, Kosten zu senken und die Flexibilität zu steigern.

„Bisher haben unsere Ingenieure teure persönliche Workstations genutzt“, so Dr. Ing. Christian Imiela, Manager, Calculations and Structure Analysis Team, SMS Group. „Wir waren wir auf der Suche nach einer zuverlässigen Lösung, die dieselbe Leistung bietet – aber mit einem globalen Zugriff und der Möglichkeit zum effektiven Arbeiten selbst bei niedriger Bandbreite. Genau das erfüllt die neue Software. Es ist genauso gut wie eine persönliche Workstation, aber unsere Teams können jetzt problemlos auch mit Laptops arbeiten – was günstiger und flexibler ist. Dank der Lösung sind wir nun in der Lage, Ergebnisse in Echtzeit mit unseren Kunden zu teilen und können alle vorgenommenen Änderungen oder laufenden Arbeiten für eine spätere Wiederaufnahme aussetzen.“

Die SMS Group nutzt ein Rechenzentrum pro Region, auf das die Anwender für ihre Projekte nun einfach zugreifen können. Die Remote-Access-Software soll eine ausgezeichnete 3D-Open GL-Leistung bieten. So sollen Ingenieure die Performance, die sie benötigen, um ihre Finite-Element-Modelle zu entwickeln, erhalten – mit einer schnellen Anbindung, selbst bei geringer Bandbreite. Es bietet außerdem die Möglichkeit, Projekte auszusetzen und wiederaufzunehmen.

Bild: Thinkstock/iStock

]]>
IT-Director
news-21541 Tue, 11 Dec 2018 16:14:07 +0100 Dell kehrt an die Börse zurück http://www.it-zoom.de/it-director/e/dell-kehrt-an-die-boerse-zurueck-21541/ Nun ist es offiziell: Der PC-Hersteller Dell wird künftig wieder an der Börse sein. Nach Verhandlungen mit den Investoren haben diese schließlich zugestimmt. Der Plan, den Computerkonzern Dell an die Börse zurückzubringen, hat grünes Licht der Aktionäre bekommen. Sie stimmten einem Deal zur Übernahme der sogenannten Tracking-Aktien des Cloud-Spezialisten VMware zu, wie Dell mitteilte. Die nach bisherigen Angaben rund 24 Milliarden Dollar schwere Transaktion soll am 28. Dezember abgeschlossen werden - und damit auch Dell wieder an der Börse notiert sein.

Der 53-jährige Michael Dell hatte den einst weltgrößten PC-Hersteller 2013 zusammen mit Finanzinvestoren für rund 25 Milliarden Dollar gekauft und von der Börse genommen. Dadurch - und durch die 67 Milliarden Dollar schwere Übernahme des Speicherspezialisten EMC - entstand allerdings ein drückender Schuldenberg. Der Deal zur Börsenrückkehr soll auch helfen, diesen abzutragen. Als Dell im Jahr 2016 den Cloud-Spezialisten VMware übernahm, blieb die Firma mit Hilfe eines Börsenvehikels, einer sogenannten Tracking-Aktie, an der Börse notiert. Diese spiegelt die Entwicklung von VMware wider. Dell hatte den Inhabern der Aktie im Juli ein Angebot gemacht, die Papiere zu übernehmen.

dpa/pf

]]>
IT-Director Startseite it-zoom Unternehmen
news-21540 Tue, 11 Dec 2018 16:02:16 +0100 Die Umwelt mobil im Blick http://www.it-zoom.de/it-director/e/die-umwelt-mobil-im-blick-21540/ In Baden-Württemberg soll die Umweltverwaltung durch die Einführung mobiler Technologien gestärkt werden. Deshalb hat das Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg im Rahmen des Leuchtturmprojekts „WIBAS wird mobil“ (Wasser, Immissionsschutz, Boden, Abfall, Arbeitsschutz) das Pilotprojekt „BRSMobil“ durchgeführt. In dem Pilotprojekt wurde die Komponente BRSMobil entwickelt und anschließend getestet, ob sie das UIS-Berichtssystem (UIS-BRS) wirkungsvoll erweitert. Die Komponente basiert auf der Software Cadenza Mobile, die vom Karlsruher Unternehmen Disy Informationssysteme GmbH entwickelt wird. Baden-Württemberg geht die Digitalisierung an: Im Juli 2017 wurde die Digitalisierungsstrategie digital@bw beschlossen. Sie zeigt auf, in welche Zukunft die Digitalisierung führen soll und wie die richtigen Weichen gestellt werden können. Das Umweltministerium verfolgt dabei das Ziel, den Gedanken der Nachhaltigkeit im Digitalisierungsprozess zu verankern. Hier ist aktuell im Rahmen des Leuchtturmprojekts „WIBAS wird mobil“ das Pilotprojekt „BRSMobil“ erfolgreich abgeschlossen worden, das den Außendienst der Umweltverwaltung durch die Einführung mobiler Technologien unterstützen soll und bei dem Cadenza Mobile, eine Software der Disy Informationssysteme GmbH, zum Einsatz kommt.

Das Ziel ist es, relevante Daten, die im übergreifenden Berichtssystem des Umweltinformationssystems – kurz UIS-BRS – in Form einer Desktop-Applikation abrufbar sind, für die Mitarbeiter auf mobilen Endgeräten verfügbar zu machen und damit die Geschäftsprozesse für Mitarbeiter und Bürger zu vereinfachen. Das UIS-BRS bietet als zentrales Auswertewerkzeug für über 4.000 Beschäftigte der Landesverwaltung, insbesondere der Umweltverwaltung, Daten und Karten zu nahezu allen Umweltthemen an. Allerdings haben die Mitarbeiter im Außendienst bisher keinen mobilen Zugang zu diesen Daten, was ein umständliches Mitführen von Akten, Karten und Papieren bei Außenterminen wie Ortsbesichtigungen, Begehungen und Prüfterminen zur Folge hat. Mit der Einführung der mobilen Komponenten, die im Pilotprojekt „BRSMobil“ entwickelt wurden, soll das geändert werden.

Damit die Daten aus dem UIS-BRS optimiert auf dem Smartphone oder Tablet im Außendienst offline, also ohne Mobilverbindung, genutzt werden können, waren im Pilotprojekt drei Aspekte zu berücksichtigen: zum einen die Aufbereitung und der Datenexport aus dem UIS-Berichtssystem, zum anderen die Vor-Ort-Nutzung der Daten auf den Mobilgeräten im Offline-Modus und schließlich der Reimport der Daten. Durch die folgenden Bausteine wird das nun realisiert: das UIS-Berichtssystem, den BRSMobil-Server und die GIS-2go-App „Cadenza Mobile“. Letztere vereint dabei drei Funktionen, die das effiziente Arbeiten draußen im Gelände ermöglichen: die mobile Fachkarte, das grafische Notizbuch und das mobile Fachkataster. In die Fachkarte sind nützliche GIS-Funktionen wie Zoomen und Verschieben, Standortbestimmung per GPS, Abfragen von Sachdaten zu Kartenobjekten oder das Anzeigen von Dokumenten und Mediendateien integriert. Mithilfe des grafischen Notizbuchs können unterwegs Textnotizen erfasst, Punkt-, Linien- und Flächenobjekte gezeichnet sowie Fotos oder Audioaufnahmen zu einem Geoobjekt aufgenommen werden. Das mobile Fachkataster erleichtert dem Außendienst die Datenerfassung, indem Objektgeometrien und Sachdaten mit Eingabehilfen wie Pflichtfelder, Auswahllisten und spezielle Editierkomponenten (wie Kalender) erfasst und geändert werden können.

Bis Ende 2017 hatte Disy gemeinsam mit dem Umweltministerium Baden-Württemberg die Prototypen der Komponenten für BRSMobil entwickelt. Anschließend testeten über 20 Dienststellen aus der Umweltverwaltung in Baden-Württemberg über mehrere Monate das mobile Arbeiten in der Praxis. Bei einem Abschlussworkshop im April 2018 wurde entschieden, dass BRSMobil eine sinnvolle Erweiterung der Technologiepalette des Umweltinformationssystems sei. Gleichzeitig gaben sie viele Hinweise für technische Verbesserungen und die Weiterentwicklung der Software. Darüber hinaus haben die Dienststellen im Testbetrieb Beobachtungen und Erfahrungen mit organisatorischen Aspekten im Arbeitsalltag gemacht, die in Konzepte für den Regelbetrieb einfließen sollen.

Mit dem Abschlussworkshop wurde das Pilotprojekt „BRSMobil“ erfolgreich beendet. Daraus ergeben sich eine Reihe von Maßnahmen, wie zum Beispiel die Erstellung und Einführung eines Betriebskonzeptes und eines IT-Sicherheitskonzeptes, Weiterentwicklung der geeigneten Fachanwendungen, eine Erweiterung der Benutzerverwaltung und eine automatische Synchronisation mit der Benutzerverwaltung des Mobil-Servers sowie die Optimierung des Reimports von mobil erfassten Daten, Fotos und Notizen. Bis November 2019 soll dann BRSMobil in den Regelbetrieb gehen – und das Land Baden-Württemberg ist dann wieder einen großen Schritt weiter in der Umsetzung seiner Digitalisierungsstrategie und in der Stärkung seiner Umweltverwaltung.

Bild: Thinkstock/iStock

]]>
IT-Director
news-21537 Tue, 11 Dec 2018 15:20:10 +0100 Redundanz auf ganzer Linie http://www.it-zoom.de/it-director/e/redundanz-auf-ganzer-linie-21537/ Das neue Rechenzentrum der Schuler Group erhält die TÜV-Level-3-Zertifizierung und setzt damit auf redundant ausgelegte IT-Strukturen. Als Spezialist für Umformtechnik bietet Schuler Pressen, Automationslösungen, Services oder Werkzeuge für die Metall verarbeitende Industrie und den automobilen Leichtbau. Zu den Kunden zählen Automobilhersteller und -zulieferer ebenso wie Unternehmen aus der Schmiede-, Hausgeräte-, Verpackungs-, Energie- und Elektroindustrie. Einhergehend mit der weltweiten Expansion des Unternehmens stiegen im Laufe der Jahre die Anforderungen an eine hochverfügbare und gleichermaßen redundant ausgelegte IT-Struktur.

Das bestehende Hauptrechenzentrum stieß sowohl kapazitativ als auch rein physikalisch an seine Grenzen. In logischer Konsequenz bedeutete dies den Startschuss für die Planung des rund 120 m2 großen neuen Rechenzentrums. Ziel war es, das neue RZ parallel zum Neubau des „Innovation Tower“ am Stammsitz in Göppingen zu realisieren und somit die Weichen für die Zukunft der IT, die aus strategischen Gründen weiterhin im eigenen Hause betrieben werden sollte, zu stellen. Für die Konzeption und Realisierung beauftragte Schuler die Prior1 GmbH, deren Verantwortliche bereits aus der Vergangenheit bekannt waren und als Partner mit hoher Expertise galten.

Konventionelle RZ-Bauweise


„Zunächst, da wir gute Erfahrungen damit gemacht hatten, favorisierten wir ein Raum-in-Raum-System“, erklärt Dieter Mayer, Leiter IT-Infrastruktur bei der Schuler Pressen GmbH, und führt fort, dass dies aufgrund der vorhandenen statischen Säulen im vorgesehenen Gebäudebereich nicht realisierbar gewesen sei. So wurde ein Rechenzentrum in F-90 in konventioneller Bauweise mit innenseitiger Niedertemperatur- sowie Diffusionsdämmung unter Berücksichtigung der EN 1047-2 umgesetzt, welches als Gesamtkonstrukt einschließlich der technischen Infrastruktur die TÜV-Level-3-Zertifizierung erhielt und damit dem Hochverfügbarkeitsniveau entspricht.

In Abstimmung mit dem Generalunternehmer, der den Bau des Towers verantwortete, stellte Prior1 die Detailplanung vor. Diese erfüllte alle Anforderungen, die an ein Tier-3-RZ und damit eine 99,99-prozentige Verfügbarkeit geknüpft sind. So wurde zum einen die redundante Auslegung der Elektroversorgung über zwei Technikräume mit jeweils einer modularen USV-Anlage berücksichtigt.

Weiterhin sah die Planung eine Netzersatzanlage und die Klimatisierung über zwei Kaltwassersätze vor. Die Kaltwassererzeugung erfolgt hierbei über zwei, gleichfalls redundant ausgelegte Abwasserwärmepumpen, zwei Kältemaschinen sowie die Möglichkeit zur freien Kühlung, sofern es die Außentemperaturen zulassen. Das implementierte Notstromaggregat bevorratet im Live-Betrieb knapp 5.000 Liter Diesel und kann mittels einer speziellen Pumpe bei zusätzlichem Bedarf noch mit dem Heizmittel aus der Gebäudeheizung gespeist werden.

Thematisiert wurde im Rahmen der Redundanzstrategie weiterhin, welche Konsequenzen es hätte, wenn alle drei Betriebsarten der Kühlung versagen. „Auch in diesem Fall wären wir nicht handlungsunfähig und könnten eine manuelle Notkühlung mit Brauchwasser aktivieren“, konstatiert Dieter Mayer und fügt hinzu, dass die Kühlleistung mit 215 kW auch für die kommenden Jahre ausreichend dimensioniert sei.

Einem weiteren Hochverfügbarkeitsaspekt sind die Experten des Dienstleisters mit der Trennung des RZ-Rohrnetzes von der Gebäudeklimakaltwassererzeugung und der beiden Technikräume durch zwei Wärmetauscher nachgekommen. Die im Raum befindlichen Server werden mittels Rack- und Warmgangeinhausung sowie Klimatisierung über redundante Seitenkühler von der restlichen Technik getrennt. „Die im Server-Raum befindliche Library setzt eine andere Umgebungstemperatur und Luftfeuchtigkeit als die anderen Komponenten voraus“, erklärt Dieter Mayer die Separation. Bei der Sicherung der Daten wurde darauf geachtet, dass diese nicht nur im neuen Hauptrechenzentrum, sondern parallel via Glasfaserverbindung in Echtzeit gespiegelt im sekundären RZ erfolgt.

Bis ins letzte Detail durchgeplant


Während im Brandfall außerhalb des Rechenzentrums konventionell mit Wasser gelöscht wird, setzt Schuler innerhalb auf Brandfrühesterkennung in Kombination mit einer Novec-1230-Löschanlage und entsprechender Steuerung. Die Vorteile des automatischen, geruch- und farblosen stationären Löschsystems: Die Löschung erfolgt gefahrlos für den Mensch, verursacht keine Schäden an der Hardware und stellt die schnelle Wiederinbetriebnahme sicher.

Dies ist ein Artikel aus unserer Print-Ausgabe 11/2018. Bestellen Sie ein kostenfreies Probe-Abo.

Der Hochverfügbarkeitsstrategie folgend wird der RZ-Zugang über eine Zutrittskontrollanlage als Zwei-Faktor-Authentifizierung geregelt. Abgerundet wird das IT-Projekt durch den Einsatz eines Monitoring- und Überwachungssystems, das elementare Informationen wie Temperatur, Leckagen, Kühlungszustand und Stromversorgung via E-Mail und SMS an die Mitarbeiter meldet und bei Abweichungen ein frühzeitiges Eingreifen sicherstellt. „Wir konnten uns sowohl bei der Konzepterstellung für das Tier-3-Rechenzentrum auf den Dienstleister verlassen als auch bei der anschließenden Realisierung, die gleichermaßen die Koordination der Generalunternehmerschaft und der IT beinhaltete“, berichtet Dieter Mayer und ergänzt, dass es Schuler mit dem neuen Rechenzentrum gelungen ist, auch in den nächsten Jahren nicht an die Leistungsgrenzen seiner IT zu stoßen, sondern sich bedarfsgerecht weiterzuentwickeln.


Die Schuler Group ...

... bietet nicht nur Pressen, Automationslösungen und Werkzeuge, sondern auch das dazugehörige Prozess-Know-how sowie den Service für die gesamte Metall verarbeitende Industrie und den automobilen Leichtbau. Schuler ist führend bei Münzprägepressen und realisiert Systemlösungen für Hightechbranchen. Nach der Übernahme des Werkzeugbauers Aweba und der Mehrheitsbeteiligung am chinesischen Pressenhersteller Yadon ist Schuler mit rund 6.600 Mitarbeitern in 40 Ländern präsent und gehört mehrheitlich zur österreichischen Andritz-Gruppe.


Bildquelle: Schuler

]]>
IT-Director Startseite it-zoom Rechenzentrum / Server
news-21536 Tue, 11 Dec 2018 14:38:35 +0100 Cyberangriff via Roboter http://www.it-zoom.de/it-director/e/cyberangriff-via-roboter-21536/ Unternehmen müssen sich mit einer neuen Art von Cyberattacken befassen. Hacker nutzen verstärkt Künstliche Intelligenz (KI) für ihre Angriffe und setzen damit die IT-Sicherheitsverantwortlichen unter Zugzwang. Denn Unternehmen sind noch nicht soweit, neuste KI-Technologien zur Verteidigung zu nutzen. Spezielle Überwachungswerkzeuge für den Datenverkehr, die bei der Identifikation von IT-Sicherheitsvorfällen helfen – zum Beispiel so genannte Intrusion Detection- oder Prevention-Systeme – werden von jedem vierten Unternehmen eingeführt. Das ergibt eine Studie von Sopra Steria Consulting.

Der weltweite Markt für Machine-Learning-Software soll sich im Vergleich zu 2016 bis 2022 zirka versiebenfachen, auf rund neun Milliarden US-Dollar, wie eine Prognose des Marktforschungsinstituts Marketsandmarkets zeigt. Parallel zu diesem Angebotswachstum wird sich aufgrund von immer leichter zugänglichen und relativ günstigen KI-Services auch ein Markt im Dark Net entwickeln. Ein von Künstlicher Intelligenz unterstützter Cyberangriff umgeht herkömmliche Sicherheitsvorkehrungen unter anderem durch Nachahmung menschlichen Verhaltens. Mit Hilfe einer rudimentären Software wurde beispielsweise in Indien das normale Nutzerverhalten innerhalb eines Netzwerkes beobachtet und Muster erkannt. Im zweiten Schritt begann die Software, das Verhalten nachzuahmen und trat dabei bewusst in den Hintergrund. Für die Sicherheits-Tools war sie deshalb nur noch äußerst schwer zu erkennen.

Eine weitere Strategie ist das Umgehen so genannter Captcha-Systeme. Unternehmen nutzen die Bildermosaike beispielsweise beim Registrieren für Newsletter und bei Bestellformularen im Internet als Spamschutz. Mit Hilfe optischer Zeichenerkennung durch maschinelles Lernen identifiziert und lernt eine Software Millionen verschiedener Bilder, bis sie darauf trainiert ist, diese automatisch zu erkennen und das Captcha zu lösen. „Dadurch werden die Schutzfunktion von Captchas sowie der eigentliche Nutzen des Mechanismus ausgehebelt, nämlich die Unterscheidung zwischen Mensch und Maschine, um vor Manipulation oder Missbrauch zu schützen, sagt Dr. Gerald Spiegel, Leiter des Geschäftsbereichs IT- und Informationssicherheit von Sopra Steria Consulting.

Unternehmen und Behörden sind somit gefordert, mit Hackern und Spionen KI-technisch zumindest mitzuhalten. Sie müssen nachziehen und eine KI-Verteidigungsstrategie aufbauen. Es geht darum, Hacker mit den eigenen Waffen zu schlagen.

„KI kann IT-Sicherheitsexperten bei ihrer Einschätzung von Bedrohungen assistieren und Entscheidungen vorbereiten“, sagt Kerstin Sander, Beraterin für IT-Sicherheit von Sopra Steria Consulting. „Eine auf Künstlicher Intelligenz basierende Software durchsucht beispielsweise Daten wie E-Mails deutlich schneller und genauer und erkennt eindeutig identifizierbare Bedrohungen anhand von definierten Regeln. So genannte Augmented-Intelligence-Lösungen liefern zudem fundiertes Wissen zu, um das menschliche Urteilsvermögen zu verbessern und so die menschlichen Systemüberwachungsexperten bei ihren Entscheidungen zu unterstützen“, so Sander.

Ein fortgeschrittener Ansatz sind mitlernende KI-Lösungen. Sie übernehmen selbstständig Analyseaufgaben. Dazu zählen die Suche nach Bedrohungen im gesamten Netzwerkverkehr und das Aufspüren komplexer Angriffsszenarien anhand von Mustern.

Über die Studie

Für die Studie hat das F.A.Z.-Institut im September 2018 eine Online-Befragung bei 308 Entscheidern und Fachkräften verschiedener Branchen (Banken, Versicherungen, sonstige Finanzdienstleistungen, Energie- und Wasserversorgung, Telekommunikation/Medien, öffentliche Verwaltung, Automotive, sonstiges verarbeitendes Gewerbe) durchgeführt. Die Teilnehmer wurden zu den Erfahrungen mit Cyber-Attacken, den IT-Sicherheitsstrategien sowie zu den Maßnahmen und Herausforderungen in ihren Unternehmen befragt.

Bild: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom
news-21533 Tue, 11 Dec 2018 11:33:45 +0100 Bestehende Risiken nach außen verlagern http://www.it-zoom.de/it-director/e/bestehende-risiken-nach-aussen-verlagern-21533/ Kurzinterview mit Andreas Dürk von Prego Services über die Gründe für die aktuell wachsende Nachfrage nach Managed Services IT-DIRECTOR: Herr Dürk, welche Art von Managed Services werden derzeit nachgefragt?
A. Dürk:
Hosting und Application Management insbesondere SAP-Hana-Landschaften –, Managed-Network- und Security-Services sowie hybride Cloud-Lösungen.

IT-DIRECTOR: Aus welchen Gründen entscheiden sich größere Kunden für den Bezug von Managed Services?
A. Dürk:
Es geht um die Entlastung der Mitarbeiter bei den täglichen Routine- und Wartungsaufgaben in den verantwortlichen IT-Abteilungen des Kunden. Erst wenn die Entlastung ermöglicht wird, können sich die eigenen Mitarbeiter auf geschäftskritische Prozesse und Anwendungen fokussieren. Bestehendes Risikopotential kann mit Managed Services an den Service-Provider verlagert werden. Dabei behält der Kunde die vollständige Kostenkontrolle und -transparenz.

IT-DIRECTOR: Worauf kommt es den Kunden bei der Auswahl von Managed-Services-Providern besonders an?
A. Dürk:
Die Verantwortlichen legen inzwischen besonderen Wert darauf, dass ihre Daten nach deutschem Recht verarbeitet werden. Das heißt, dass die Standorte der Rechenzentren innerhalb von Deutschland liegen müssen. Managed Security Services sind ein Muss und werden aufgrund der zunehmenden Angriffsvektoren immer stärker nachgefragt; dabei steht die Minimierung der geschäftskritischen Risiken absolut im Fokus.

IT-DIRECTOR: Welche Vertragslaufzeiten sind die Regel?
A. Dürk:
Hier erleben wir einen neuen Trend, der zu flexiblen Laufzeiten sowie Pay-what-you-use im Zusammenhang mit der Flexibilisierung von Kostenstrukturen übergeht.

IT-DIRECTOR: Was sind die wichtigen Vertragsinhalte?
A. Dürk:
Neben den flexiblen Laufzeiten und Pay-what-you-use sind die wichtigsten Vertragsinhalte das Servicemanagement und die Verfügbarkeiten, sowie die Reaktions- und Lösungszeiten bei der Abarbeitung von Störungen.

IT-DIRECTOR: Wie ist das Vertragsende – beispielsweise die Übergabe zurück ins Anwenderunternehmen oder an einen anderen Managed-Services-Provider – geregelt?
A. Dürk:
In der Regel beinhalten die Verträge eine Exit-Unterstützung mit einem definierten Projektplan.

]]>
Ina Schlücker IT-Director Startseite it-zoom IT-Dienstleistung / Outsourcing
news-21532 Tue, 11 Dec 2018 11:17:24 +0100 KI in der Kundenbetreuung http://www.it-zoom.de/it-director/e/ki-in-der-kundenbetreuung-21532/ Umsatzwachstum, Lead-Generierung – das bringt Künstliche Intelligenz (KI) in der professionellen Kundenbetreuung Der KI-Markt wächst momentan wie kaum ein anderer: Künstliche Intelligenz dringt weltweit in immer mehr Branchen und Arten von Geschäftsprozessen ein. Auch Customer Relationship Management (CRM) wird ohne KI wohl bald nicht mehr auskommen. Die Analysten von IDC kommen zu dem Schluss, dass CRM-Lösungen mit integrierter KI bis 2021 zu einem weltweiten Umsatzwachstum von 1,1 Billionen US-Dollar und 800.000 neuen Jobs führen, 130.000 davon allein in Deutschland. Für die Bundesrepublik prognostiziert man ein gesamtwirtschaftliches Umsatzwachstum von 62 Milliarden US-Dollar durch KI-basierte CRM-Systeme in den nächsten fünf Jahren. Unternehmen gleich welcher Branche sollten sich deshalb jetzt mit den Möglichkeiten beschäftigen, die KI für ihre Geschäftsprozesse und Kundenbeziehungen eröffnet, und erste Erfahrungen sammeln.

Es ist eine Binsenweisheit: Je genauer Unternehmen ihre Kunden, deren Wünsche und Bedürfnisse kennen, desto besser kann man sie betreuen, die passenden Angebote zum richtigen Zeitpunkt unterbreiten und einen individuellen Service bieten. Doch Umfragen, Verkaufsstatistiken, Gesprächsprotokolle und das (oft durchaus richtige) Bauchgefühl der Vertriebsmitarbeiter helfen nur bedingt weiter. Sie geben oftmals allein Teilaspekte wieder. Benötigt wird jedoch eher eine stets aktuelle 360°-Sicht auf den Kunden. Hier stehen den Verantwortlichen seit einiger Zeit elektronische Helfer zur Seite, die die vorhandenen Kundendaten in ihrer Gesamtheit analysieren, sie mit Daten weiterer Systeme, etwa Netzwerken wie Linkedin, verknüpfen und zu jedem Kunden entsprechende Erkenntnisse liefern – wenn sie nicht gleich aktiv in eine direkte Kommunikation mit dem Kunden treten. Ein Beispiel dafür sind Webshops, die dem Interessenten automatisiert weitere Produkte empfehlen – auf Grundlage der bisherigen Aktivitäten des Nutzers oder durch Auswertung des Kaufverhaltens ähnlicher Kundengruppen.

Doch wer zählt zu den elektronischen Helfern? Die Rede ist hier von Künstlicher Intelligenz. Denn nur KI-basierte Systeme

  • können Daten aus verschiedenen Quellen und auch unterschiedlicher Formate miteinander sinnvoll verknüpfen und analysieren,
  • bewältigen die ungeheuren Datenmengen,
  • liefern die Ergebnisse der Datenauswertung in Echtzeit und
  • machen fundierte Vorhersagen zu künftigen Bedürfnissen oder dem Kundenverhalten, wenn ein bestimmtes Ereignis eintritt.

Den Verkauf der Maschine überlassen?

Wie schnell und wirkungsvoll KI unterschiedlichste Daten aus einer Vielzahl von Quellen miteinander verknüpft, analysiert und daraus Prognosen ableitet, übersteigt die menschlichen Fähigkeiten. Aber für das Kundenverhalten spielen nicht nur Fakten eine Rolle, sondern auch die „Chemie“ zwischen den Akteuren. Der Kunde muss beim Gedanken an den Anbieter ein gutes Gefühl haben, besser noch, ihm emotional verbunden sein. Die Kundenpflege und der damit einhergehende Verkaufserfolg sind also umso nachhaltiger, je besser es gelingt, die Besonderheiten von Mensch und Maschine miteinander zu kombinieren. Die technischen Fähigkeiten von KI auf der einen Seite – menschliche Eigenschaften wie Empathie und Freundlichkeit sowie das Vermögen, strukturiert Probleme zu lösen, auf der anderen. Gute Vertriebs-, Marketing- und Servicefachkräfte sind also auch in Zukunft unverzichtbar.

KI-basierte CRM-Aktivitäten führen allerdings nicht nur dazu, dass Unternehmen ihre Kunden besser verstehen, sondern sie beschleunigen die Verkaufszyklen – insbesondere in Branchen, die stark von technischen Innovationen getrieben sind. Die detaillierten, kundenspezifischen Informationen ermöglichen überdies personalisierte Marketing-Kampagnen, was wiederum zu einer verbesserten Lead-Generierung führen kann.

Zudem ist das intelligente CRM-System gelehrig. Mithilfe des maschinellen Lernens kann es auf Basis der vorhandenen Datenbestände Muster und Zusammenhänge erkennen und seine eigenen Fertigkeiten ausbauen. Zwei Beispiele aus der Praxis: Durch automatisches Priorisieren der Leads etwa anhand von diversen, auch während des Prozesses erlernten Kriterien lässt sich die Konversionsrate im Verkaufsprozess signifikant erhöhen. Wenn außerdem das System die Organisationsstruktur und Zusammenhänge nicht nur abbildet, sondern diese Visualisierung eigenständig und fortlaufend aktualisiert, dann weiß jedes Vertriebsteam immer, ob ein anderes Team gerade parallel den gleichen Kunden bedient.

Bei der Aussicht auf enorme Umsatzzuwächse, wie sie für KI erwartet werden, ist es wenig verwunderlich, dass sich internationale IT-Giganten schon in Stellung gebracht haben. Bereits heute sind KI-Funktionen zentraler Bestandteil ihrer Infrastrukturangebote. Dabei ermöglichen intelligente Cloud-Applikationen es auch Unternehmen außerhalb der IT-Branche, KI-Anwendungen für das Customer Relationship Management zu nutzen, ohne in die dafür notwendigen KI-Infrastrukturen zu investieren und sich entsprechendes Spezialwissen aneignen zu müssen.

* Der Autor Ralf Haberich ist CEO bei der CRM Partners AG.

Bildquelle: Thinkstock/iStock

]]>
IT-Director CRM
news-21524 Mon, 10 Dec 2018 15:25:43 +0100 Kundenpflege aus der Datenwolke http://www.it-zoom.de/it-director/e/kundenpflege-aus-der-datenwolke-21524/ Die Unternehmensgruppe Fiege führt BSI CRM aus der Cloud ein. Damit plant der Logistikkonzern, die Kundenbeziehungspflege in 15 Ländern zu optimieren und die Effizienz zu steigern. Das Logistikunternehmen möchte nicht nur Kontraktlogistik, sondern auch Kontaktlogistik bieten: Die Unternehmensgruppe führt CRM von der BSI Business Systems Integration AG aus der Cloud ein. Damit soll die Kundenbeziehungspflege gesteigert werden.

Als erste Einheit wagte sich Fiege Schweiz an das CRM-Thema heran: Das Team in der Schweiz hat die Software intensiv getestet und geprüft, ob sich die Lösung auch für andere Länder bzw. die ganze Gruppe eignet.

Inzwischen hat der Logistikanbieter das CRM eigenständig in den weiteren 14 Ländern ausgerollt. BSI agierte dabei im Hintergrund und stand lediglich im Bedarfsfall mit Empfehlungen beratend zur Seite.

Im Frühjahr ist bereits ein Update auf die jüngste Version CRM Ocean geplant, welche mit noch mehr Automatisierungsmöglichkeiten aufwartet. Die Konfiguration der 360°-Sichten und Masken erfolgt selbständig durch das Team des Logistikers. Selbst die Einführung der CRM-Lösung in neun Ländern hat das Unternehmen von der Schulung bis zum Rollout in Eigenregie für alle Benutzer durchgeführt.

Die Mitarbeiter profitieren von einer zentralen 360°-Kundensicht einschließlich Kundenhistorie, einfachen Reports und übersichtlichen Dialogfeldern.

«Mit BSI CRM haben wir unsere eigene Lösung durch eine moderne Cloud-Anwendung abgelöst. Damit ist das Kundenwissen zentral verfügbar und nicht länger eine Frage des individuellen Wissensstandes der einzelnen Mitarbeiter in den jeweiligen Ländern», sagt Hans-Ulrich Wolf, CIO bei Fiege.

Bild: (Thinkstock/iStock)

]]>
IT-Director
news-21515 Mon, 10 Dec 2018 10:34:21 +0100 Weltwirtschaftsforum zieht Digital-Bilanz http://www.it-zoom.de/it-director/e/weltwirtschaftsforum-zieht-digital-bilanz-21515/ Wie sieht die Zukunft der Digitalisierung aus? Dieser Frage ist das Weltwirtschaftsforum (WEF) nachgegangen – und schließlich zu einer bedenklichen Bilanz gekommen. Das WEF hat in einem neuen Report dringenden Handlungsbedarf für die weitere Entwicklung der digitalen Welt angemahnt. Es gehe darum, eine vertrauensvolle, nachhaltige und für alle zugängliche digitale Welt sicherzustellen, heißt es. Andernfalls drohe eine ernste Krise. „Die digitale Welt ist wie unsere natürliche Welt”, sagte Derek O'Halloran vom WEF. „Wir alle - Regierungen, Unternehmen und Individuen - haben die Pflicht sicherzustellen, dass sie sauber, sicher und gesund bleibt.”

Dem Report zufolge hat sich das Wachstum von verfügbaren Internet-Zugängen weltweit deutlich abgeschwächt - von 19 Prozent im Jahr 2007 auf nur noch 6 Prozent Zuwachs 2017. Zugleich sei allerdings erstmals die Marke von 50 Prozent der Weltbevölkerung erreicht, die Zugang zum Netz haben. Um den digitalen Graben zu schließen, seien aber mehr Investitionen nötig, so die Verfasser des Reports. Dabei gehe es nicht nur um den einfachen Zugang, sondern auch um die Verbesserung der Akzeptanz.

Einer Milliarde Menschen fehle derzeit eine formale Identität, mit der sie sich im Netz ausweisen könnten. Damit seien sie von der wachsenden digitalen Wirtschaft komplett ausgeschlossen, deren Wert bis 2022 auf rund 60 Prozent des globalen Bruttoinlandsprodukts geschätzt wird. Gute und sichere Identitäts-Lösungen seien ein Schlüssel dafür, um den digitalen Graben zu schließen und die Rechte der Menschen in der Gesellschaft zu sichern.

Cyber-Attacken verursachen demnach der globalen Wirtschaft jährlich einen Schaden in Höhe von bis zu 400 Milliarden Dollar. Mehr als 4,5 Milliarden Datensätze seien allein in der ersten Hälfte des Jahres von Schadsoftware kompromittiert worden, 2017 seien es demnach im ganzen Jahr noch 2,7 Milliarden Daten gewesen. Zugleich würden Unternehmen in diesem Jahr voraussichtlich 1,2 Billionen Dollar für die digitale Transformation investieren. Nur 45 Prozent der Weltbevölkerung geht allerdings davon aus, dass neue Technologien ihr Leben verbessern werden.

Dabei wachse die Menge an anfallenden Daten exponentiell. Bis 2020 erwartet das Forum weltweit mehr als 20 Milliarden verbundene Geräte. Noch sei jedoch nicht geklärt, ob die Daten die neue Währung für Unternehmen werden oder ein gesellschaftliches Gut, das besser geschützt werden müsse. Es bedürfe Anstrengungen und weiterer Innovationen, damit Gesellschaften von den Daten profitierten und zugleich ihre Privatsphäre geschützt werde.

dpa/pf

]]>
IT-Director Startseite it-zoom Unternehmen
news-21513 Mon, 10 Dec 2018 09:20:07 +0100 Aus Leidenschaft für Rechenzentren http://www.it-zoom.de/it-director/e/aus-leidenschaft-fuer-rechenzentren-21513/ 1993 gegründet, feiert die Noris Network AG dieses Jahr ihr 25-jähriges Bestehen. IT-DIRECTOR sprach mit Ingo Kraupa, dem Vorstandsvorsitzenden des Rechenzentrumsdienstleisters, über die wichtigsten Ereignisse der Firmengeschichte und worauf es beim energieeffizienten und sicheren Betrieb von Rechenzentren heutzutage besonders ankommt. IT-DIRECTOR: Herr Kraupa, Ihr Unternehmen hat sich vom ersten Internet Service Provider (ISP) in der Region Nürnberg zum Betreiber mehrerer Hochsicherheitsrechenzentren und Cloud-Service-Provider entwickelt. Welche einschneidenden Ereignisse gab es im Verlauf der Firmengeschichte?
I. Kraupa:
Wir bieten IT-Dienstleistungen, die auf eigenen Rechenzentren und IT-Infrastrukturen basieren. Dies macht uns flexibel und wir können mit Pluspunkten hinsichtlich der Sicherheit, Verfügbarkeit und Energieeffizienz punkten. Die Wurzeln liegen bei dem Bau unseres ersten Rechenzentrums im Jahr 2000. Danach stechen insbesondere die Neubauten Nürnberg Süd (2011) und München Ost (2016) hervor. In beiden Städten beginnen wir dieses Jahr den nächsten Erweiterungsbauabschnitt. So errichten wir bis Ende 2019 weitere 10.000 m2 IT-Fläche, denn die Nachfrage ist sehr groß. Ein weiteres wichtiges Ereignis war auch die Zertifizierung nach ISO 27001 im Jahr 2007 und die darauf aufbauenden Normen, die wir erfüllen.

IT-DIRECTOR: Wie erwähnt betreiben Sie mehrere Rechenzentren in Nürnberg und München. Wie gewährleisten Sie die Energieeffizienz der RZ-Standorte?
I. Kraupa:
Energie ist der wesentliche Kostenfaktor beim Betrieb von Rechenzentren. Ohne energieeffiziente Datacenter würde unsere Wettbewerbsfähigkeit leiden. Mit innovativen Lösungen wie Kyoto Cooling, modularen Energiezellen und indirekt freier Kühlung stehen wir hier auch im internationalen Vergleich sehr gut da. Und wir müssen das angesichts der Energiekosten in Deutschland auch.

IT-DIRECTOR: Nach wie vor zählt die Klimatisierung zu den größten Energiefressern in Rechenzentren. Mit welchen Methoden können die Verantwortlichen – über übliche Verfahren wie Kalt-Warm-Gänge und freie Kühlung hinaus – ihren Energieverbrauch bei der Klimatisierung in den Griff bekommen?
I. Kraupa:
Die Tatsache ist: Technologisch sind hier zuletzt die größten Fortschritte gemacht worden. Die niedrigen PUE-Werte (Power Usage Effectiveness) in unseren und anderen modernen Rechenzentren zeigen das. Effizienzverbesserungen gab es zuletzt bei den USV-Anlagen. Auch diese Technologien nutzen wir in München bereits. Ansonsten gilt: permanent messen, regeln und steuern. Einen guten PUE-Wert im Volllastbetrieb zu erreichen, ist nicht mehr so schwer. Die hohe Kunst ist es, auch im Teillastbetrieb und bei hoher Redundanz sehr gute Werte zu erzielen. Unser Konzept des modularen Rechenzentrums mit separat zuschaltbaren Energie- und Klimazellen kann hier Maßstäbe setzen.

IT-DIRECTOR: Welche weiteren RZ-Komponenten bieten das Potential, um Energiekosten zu senken?
I. Kraupa:
An erster Stelle sehen wir hier die Verbraucher – und damit ihre Server selbst. Hier gibt es noch genug Potentiale. Zum Beispiel könnte man auf der Virtualisierungsschicht mittels neuronaler Netze herausfinden, wie man die CPU-Taktung für die verschiedenen Loads optimiert. Allerdings: Wir als Betreiber haben das nur bedingt in der Hand, schon weil für uns im Zweifelsfall die Betriebssicherheit und die Service Level Agreements mit den Kunden das Maß aller Dinge sind.

IT-DIRECTOR: Ihre Rechenzentren weisen verschiedene Zertifizierungen auf. Welche sind Ihrer Ansicht nach aktuell die wichtigsten?
I. Kraupa:
ISO 27001 ist elementar, ISO 9000 für die Industrie, BSI für Behörden, PCI-DSS ist wichtig für den Finanzbereich. Wir erreichen außerdem seit vielen Jahren beim „Eco Datacenter Star Audit“ die Höchstzahl an Punkten. Neu ist die EN 50600, die zukünftig wichtiger wird.

IT-DIRECTOR: Seit Kurzem besitzen Sie auch die Zertifizierung nach EN 50600. Was steckt hinter dieser europäischen Norm und warum ist sie für RZ-Betreiber bzw. deren Kunden so wichtig?
I. Kraupa:
Normen sind grundsätzlich hilfreich, da sie eine Vorauswahl auf Basis objektiv vergleichbarer Mindestanforderungen ermöglichen. Die EN 50600 erfüllt dabei vieles, was es bisher nicht gab. Statt Tier-Level gibt es jetzt Sicherheits- und Verfügbarkeitsklassen, was ich sehr sinnvoll finde. Wir haben in München eines der wenigen Rechenzentren in Deutschland, das die höchste Klasse 4 in beiden Bereichen erfüllt. Ein weiterer Vorteil: Eine internationale Norm macht Rechenzentren über Ländergrenzen hinweg vergleichbar.

IT-DIRECTOR: Aktuell spricht alle Welt von Digitalisierung und digitaler Transformation. Wie unterstützen Sie Ihre Kunden bei ihrem digitalen Wandel?
I. Kraupa:
Wir als IT-Service-Provider verstehen uns hier als Wegbereiter. Die Digitalisierung von Prozessen im Industrie- und Dienstleistungsbereich, aber auch im öffentlichen Sektor, wird zusätzliche, hochmoderne IT-Kapazitäten erfordern. Ständig neue Kompetenzen für die sich wandelnden Technologien aufzubauen oder große Rechenzentren zu betreiben, lässt sich für Unternehmen wirtschaftlich nicht darstellen. Zudem fehlen nicht nur Kapazitäten und Budgets, sondern auch schlicht fähige Fachleute. Outsourcing an Anbieter wie uns ist die eindeutig wirtschaftlichere Strategie – und zudem skalierbar.

Dies ist ein Artikel aus unserer Print-Ausgabe 11/2018. Bestellen Sie ein kostenfreies Probe-Abo.

Wir unterstützen Unternehmen in jeder Phase der „Cloud Journey“. Aber anders als die großen internationalen Cloud-Konzerne stellen wir uns auf die „hybriden“ IT-Anforderungen ein. Denn neben neuen Cloud-Anwendungen gilt es auch, über Jahre hinweg Legacy-Anwendungen, spezielle Systeme und traditionelle Datenbanken zu betreuen. Gleichzeitig ebnen wir unseren Kunden den Weg in die Cloud. Ein Beispiel: Mit unserem auf dem Open-Source-System Kubernetes aufbauenden Framework „Koris“ helfen wir klassischen Banken und Versicherungen ebenso wie Fintechs, ihre Applikationen mit höchsten Sicherheitsanforderungen in der Private und Public Cloud zu betreiben. Unsere DevOps-Spezialisten helfen dabei, dass Kunden ihre Software als Microservices sicher und skalierbar mit vollautomatischen Tests und Deployment entwickeln können.

IT-DIRECTOR: Compliance, Risikomanagement oder IT-Sicherheit: Die Digitalisierung stellt viele neue Anforderungen an die Unternehmens-IT. Welche Fragen treiben Ihre Kunden derzeit am häufigsten um?
I. Kraupa:
Die drei Themenfelder gehören untrennbar zusammen. Jedes Unternehmen hat hier eigene Anforderungen und unterschiedliche Reifegrade, insofern ist die Frage pauschal nicht zu beantworten. Wir besprechen diese Themen mit den Kunden und entwickeln individuelle Maßnahmen.

IT-DIRECTOR: Ein Blick in die Zukunft: Welche Datacenter-Trends werden die Branche in den nächsten Jahren bewegen? Was haben Sie sich für die nächsten 25 Jahre von Noris Network vorgenommen?
I. Kraupa:
Cloud Computing wird über die nächsten Jahre sicherlich das bestimmende Paradigma sein – allerdings ein wenig anders, als es die großen internationalen Anbieter momentan gerne darstellen. Wachsen werden neben Public-Cloud- auch Private-Cloud-Anwendungen und dies allein dadurch, dass sich Unternehmen in ihrer IT unterscheiden und mittels Differenzierung Wettbewerbsvorteile gewinnen wollen. Das Outsourcing von IT, flexible Skalierbarkeit und Pay-per-use anstelle eigener Systeme werden zur Selbstverständlichkeit. Insofern sehe ich eine wachsende Rolle für einen IT-Dienstleister wie uns, der mit Kunden auf Augenhöhe individuelle Lösungen bietet und entwickelt.

Bildquellen: Thinkstock/iStock, Noris Network

]]>
Ina Schlücker IT-Director Startseite it-zoom Rechenzentrum / Server
news-21505 Fri, 07 Dec 2018 13:11:55 +0100 50 Jahre Computermaus http://www.it-zoom.de/it-director/e/50-jahre-computermaus-21505/ Die erste Computermaus hat mit den heute gängigen Modellen nicht mehr viel zu tun. Trotzdem legte ihr Erfinder Douglas C. Engelbart mit seiner Idee den Grundstein für die bis heute noch gängige Interaktion mit Computern. Das Auditorium der Brooks Hall in der Innenstadt von San Francisco ist schon seit 1993 geschlossen. Nichts erinnert daran, dass hier vor 50 Jahren ein Meilenstein in der Computer-Geschichte gesetzt wurde. Lange bevor der erste Personal Computer auf den Markt kam, demonstrierte am 9. Dezember 1968 der Tüftler Douglas C. Engelbart erstmals eine Computermaus. Es gingen dann aber noch über zehn Jahre ins Land, bevor die Maus mit dem Apple Macintosh für ein Massenpublikum verfügbar wurde. Engelbart hatte sich vor der großen Präsentation vor über 1000 Computerexperten in San Francisco jahrelang mit dem Entwurf eines Gerätes beschäftigt, das die Interaktion zwischen einem Menschen und einem Röhrenbildschirm erlaubt. Computer waren damals so teuer, dass nur Universitäten, große Unternehmen und das Militär sich die großem Rechenschränke leisten können. Und sie waren unglaublich kompliziert zu bedienen: Um mit der Maschine kommunizieren zu können, musste man lange Befehlsfolgen eintippen oder vorab in Lochstreifen gestanzte Befehle einlesen.

In der Vision von Engelbart sollten Symbole auf dem Bildschirm erscheinen, die man mit einem Zeiger ansteuern und aktivieren kann. 1962 veröffentlichte der ehemalige Navy-Radartechniker am Stanford Research Institute (SRI) in Menlo Park ein wissenschaftliches Papier unter dem Titel „Augmenting the Human Intellect: A conceptual framework” (Erweiterung des menschlichen Intellekts: Ein Grundkonzept). Zwei Jahre später baute Engelbart zusammen mit seinem Chefingenieur Bill English den ersten Maus-Prototypen. Diese Originalmaus, die in einem Holzgehäuse untergebracht war, enthielt ein Rad, das die Bewegung des Gerätes in Cursorbewegungen auf dem Bildschirm umsetzte. Ein Mitarbeiter in Engelbarts Labor meinte, das Holzkästchen sehe mit der roten Taste oben und dem Kabel hinten wie eine Maus. Der Name blieb hängen. Es dauerte dann bis zum 9. Dezember 1968, bis Engelbart das Konzept der Öffentlichkeit vorstellte. Die 90-minütige Live-Präsentation auf der „Fall Joint Conference”, die in einem Video für die Nachwelt erhalten geblieben ist, ging als „Mutter aller Demos” in die Geschichte ein.

Engelbart führte damals den Einsatz einer Maus vor, die auf einem Bildschirm einen schwarzen Punkt bewegte. „In unserer Vision gingen wir davon aus, dass die Menschen zur Lösung von Problemen computergestützte Arbeitsstationen einsetzen werden”, sagte Engelbart 30 Jahre später in einem Interview. „Diese Stationen setzten voraus, dass man mit Hilfe eines Geräts einen Cursor und damit die Informationen auf dem Bildschirm ansteuern konnte.” Er habe damals im Auftrag der Weltraumorganisation Nasa verschiedene Geräte ausprobiert, darunter einen Lichtgriffel und auch Joysticks. „Es stellte sich schnell heraus, dass die Maus besser als alle anderen Geräte funktionierte.”

Zwei Erfinder, ein Gedanke

Fast in Vergessenheit geraten ist, dass in dieser Zeit auch in Deutschland an dem Konzept einer Computermaus gearbeitet wurde. Für die Bundesanstalt für Flugsicherung (BFS) in Frankfurt entwickelte eine Abteilung des Elektro-Pioniers Telefunken in Konstanz ein System, in dem ein Zeiger benötigt wurde. Eine „Rollkugelsteuerung” sollte den Fluglotsen ermöglichen, auf einem großen Radar-Bildschirm Darstellungen von Flugzeugpositionen zu markieren. Einige Wochen vor der Demo in San Francisco stellte Telefunken sein Konzept vor. Engelbart hatte die Idee also nicht allein. Doch im Gegensatz zu den Deutschen ließ sich sein Arbeitgeber SRI die Erfindung 1970 als „X-Y-Positionsanzeigesteuerung für die Bewegung per Hand über eine beliebige Oberfläche zur Verschiebung eines Positionsanzeigers auf dem Bildschirm” unter der Nummer 3,541,541 als Patent eintragen.

Einen Erfolg im Massenmarkt konnten damals aber weder Telefunken noch das Team in Kalifornien feiern. Engebarts Auftraggeber Nasa konnte mit der ersten Maus nicht viel anfangen, auch weil bald deutlich wurde, dass seine Maus in der Schwerelosigkeit nicht angewandt werden konnte. Und Telefunken baute die „Rollkugelsteuerung” zwar in seinen Großrechner TR440 ein, doch diese Computerschränke bekam kaum jemand zu Gesicht. Die Großrechner kosteten bis zu 15 Millionen D-Mark und wurden in geringen Stückzahlen von der Bundesanstalt für Flugsicherung und anderen Behörden verwendet.

Das Konzept der Computermaus verschwand für einige Jahre wieder in der Versenkung, wurde dann vom legendären kalifornischen Forschungszentrum Xerox Parc aufgegriffen, wo auch eine grafische Benutzungsoberfläche für den Computer Xerox Alto entwickelt wurde. Aber auch dieser Rechner war für ein Massenpublikum viel zu teuer. Apple-Mitgründer Steve Jobs sah den Alto 1979 und übernahm das Konzept der grafischen Bedienoberfläche. Apples „Lisa” war der erste Computer, der für die Maus ausgelegt war. Mit dem Macintosh erreichte die Maus 1984 dann den Durchbruch. Dieser Erfolg beeindruckte wiederum Microsoft-Mitbegründer Bill Gates so sehr, dass er sich von der Kommandozeile von MS-DOS verabschiedete und nach dem Vorbild des Apple Macintosh dann Maus und Icon als Standard bei Windows einführte.

Die von Engelbart entwickelte Computermaus hat mit den heutigen Mäusen nur wenig gemeinsam. Der erste Maus-Prototyp besaß anstelle einer Kugel ein Rad für die Cursorbewegungen. In den siebziger Jahren passte der Schweizer Jean-Daniel Nicoud das Konzept an, indem er die Regelwiderstände in Engelbarts Maus durch optische Messgeber ersetzte - und damit auch den Grundstein für den unternehmerischen Erfolg der Firma Logitech legte. Heutige Computermäuse funktionieren zumeist mit Laserdioden, die auf Infrarot-Technik basieren.

Als Eingabeinstrument wird die Maus aber inzwischen vom menschlichen Finger überholt. Auf Milliarden von Smartphones und Tabletcomputern wird ohne Maus gewischt und getippt. Und in Zukunft könnte die menschliche Sprache wiederum zur populärsten Dialogmethode zwischen Mensch und Maschine werden. Douglas C. Engelbart hat diese Zeitenwende noch mitbekommen. Er starb am 2. Juli 2013 im Alter von 88 Jahren in Atherton (Kalifornien).

dpa/Christoph Dernbach/pf

]]>
IT-Director Startseite it-zoom Infrastruktur
news-21503 Fri, 07 Dec 2018 11:40:30 +0100 Massive Kritik an großen Software-Providern http://www.it-zoom.de/it-director/e/massive-kritik-an-grossen-software-providern-21503/ In einer Umfrage des europäischen Voice-Dachverbandes EuroCIO übten über 100 europäische Anwenderunternehmen zum Teil massive Kritik an großen Software-Anbietern. Die im „Supplier Satisfaction Survey“ befragten Anwender sind Mitglieder der im EuroCIO vertretenen nationalen CIO-Verbände aus sieben Ländern sowie Direktmitglieder des EuroCIO. In der aktuellen Umfrage stieg die Unzufriedenheit mit der Preispolitik und den unflexiblen On-Premises- Lizenz- und -Vertragsmodellen gegenüber der letzten Befragung im Jahr 2016 deutlich an. Durchschnittlich lag die allgemeine Zufriedenheit mit den Software-Lieferanten bei rund 46 Prozent.

Die befragten Unternehmen haben durchschnittlich Lizenzverträge mit vier On-Premise-Service-Providern. Im Cloud-Bereich seien es durchschnittlich zwei. Während im On-Prem-Sektor Microsoft, Oracle, VMware, SAP und IBM die wichtigsten Lieferanten seien, hätte im Cloud-Segment Microsoft (63 Prozent der Verträge) deutlich die Nase unter den 102 Befragten vorn, gefolgt von Amazon (24 Prozent) und Salesforce (23 Prozent).

Bereitschaft zur Vertragserneuerung sinkt


Gegenüber der Zufriedenheitsstudie von 2016 sinkt laut Umfrage die Zustimmung zu den wichtigen On-Prem-Anbietern zum Teil sehr deutlich. Beurteilten 2016 noch 87 Prozent der Befragten die lizenzierten Produkte als „ok“, waren es 2018 nur noch 77 Prozent. „Bedenkt man, dass sich die Anwender aktiv für die Produkte und Services entschieden haben, ist das eine zurückhaltende Einschätzung“, erklärt Patrick Quellmalz, Leiter Voice-Services.

Ähnlich verhalte es sich mit der Zustimmung zum Lizenzmodell und zur Vertragsgestaltung. Sie sei in den zwei Jahren um 20 bzw. um 22 Prozent gesunken. Das gleiche gelte für die Bereitschaft, bestehende Verträge zu verlängern: Sie sank von 70 Prozent auf unter 50, also um gut 20 Prozent. Allerdings ist auch zu konstatieren, dass die meisten Anwender aus ihrer zurückgehenden Zufriedenheit wohl wenig Konsequenzen ziehen. Nur etwa 25 Prozent wollen zu einem anderen Provider wechseln und ca. 18 Prozent arbeiten an konkreten Exit-Plänen. Diese Werte waren vor zwei Jahren sogar noch etwas höher. „Die Anbieter sollten diese beiden Werte keinesfalls als Entwarnung werten und hoffen, dass ihr Vendor-Lockin weiterhin greift. Wir gehen davon aus, dass ab einer gewissen Schmerzgrenze trotz aller Schwierigkeiten der Anbieter gewechselt wird. Das kann sehr schnell gehen“, betont Quellmalz.

Cloud-Markt in Bewegung


Insgesamt am zufriedensten sind die Befragten mit Cisco, VMware und Microsoft. Am wenigsten zufrieden sind sie mit Oracle. Nur 29 Prozent der Befragten sollen insgesamt zufrieden mit dem Anbieter sein. Hier arbeiten auch die meisten Anwender an Exit-Plänen (39 Prozent). Die SAP schneidet mit einer allgemeinen Zufriedenheitsrate von 43 Prozent unter den wichtigen sechs Providern leicht unterdurchschnittlich ab. Auffällig ist beim deutschen Softwarehaus, dass die Bereitschaft der Befragten, ihre Verträge erneut abzuschließen von 80 Prozent im Jahr 2016 auf aktuell unter 40 Prozent gefallen ist.

Im Cloud-Bereich weist die Studie nur für Amazon und Microsoft detaillierte Ergebnisse aus. Demnach sind 88 Prozent der Befragten insgesamt mit Amazon zufrieden und 62 Prozent mit Microsoft. Das Verhalten der Cloud-Provider weist laut Studienautoren trotz inzwischen stärkerer Konkurrenz im Cloud-Markt monopolistische Züge auf. Doch angesichts steigender Preise werden Provider-Wechsel für Anwender wirtschaftlich attraktiver. „Das wird den Cloud-Markt in Bewegung bringen“, glaubt Quellmalz.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom Studien
news-21502 Fri, 07 Dec 2018 11:24:45 +0100 Neuauflage des Umweltzeichens Blauer Engel http://www.it-zoom.de/it-director/e/neuauflage-des-umweltzeichens-blauer-engel-21502/ Das Umweltzeichen „Blauer Engel für energieeffizienten Rechenzentrumsbetrieb“ wurde im Expertenkreis des Umweltbundesamte überarbeitet. Durch die aktualisierten Vergabekriterien soll der Blaue Engel voraussichtlich ab Anfang 2019 nachhaltiger sein. Das Umweltzeichen wird an Rechenzentren respektive ressourcenbewusste Unternehmen und Organisationen vergeben, die mit einer langfristigen Strategie ihre Energie- und Ressourceneffizienz in Bezug auf die zu erbringende IT-Dienstleistung erhöhen sowie ein regelmäßiges Monitoring zur Optimierung des Rechenzentrumsbetriebs durchführen.

Künftig muss die Energy Usage Effectiveness (EuE) unter dem Wert 1,3 liegen, während die Jahresarbeitszahl (JAZ) den Wert 8 nicht mehr unterschreiten darf, heißt es in einer Pressemeldung. Zudem werde nur noch der Einsatz ausschließlich halogenfreier Kältemittel erlaubt sein. Ferner muss der genutzte Strom für das RZ zertifiziert aus 100 Prozent erneuerbarer Energie stammen. Schließlich darf die mittlere CPU-Auslastung über das Jahr nicht kleiner sein als 20 Prozent.

Wahrscheinlich ist auch eine Änderung der Gültigkeitsdauer des Umweltzeichens: Bisher war der Blaue Engel nur ein Jahr nach dem Erstantrag gültig und musste danach rezertifiziert werden. Bald soll er bis zur nächsten Überarbeitung der Vergabekriterien, voraussichtlich alle drei bis vier Jahre, gültig bleiben. Das senkt den Aufwand sowie die Kosten für Unternehmen.

„Der Blaue Engel ist wichtig, da er die einzige Zertifizierungsmöglichkeit ist, um die Energie-Performance von Rechenzentren, sowohl der Infrastruktur als auch der IT, und damit auch die Betriebskosten und die Nachhaltigkeit zu bewerten. Alle anderen RZ-Zertifizierungen fokussieren sich auf die Beurteilung von Betriebssicherheit und -risiken respektive die Konformität mit den einschlägigen Planungsnormen. Allerdings war es unabdingbar, ihn an aktuelle und künftige Anforderungen anzupassen“, erklärt Dr. Dieter Thiel, Mitglied des Expertengremiums im Umweltbundesamt und Senior Consultant Energiekonzepte der Data Center Group.

Nach seiner Einschätzung ist die Arbeit des Gremiums fast abgeschlossen und der finalen Verabschiedung des neuen Anforderungskataloges in den nächsten Wochen ist durchaus realistisch. „Wir haben einige Kunden, die eine Blauer-Engel-Zertifizierung anstreben. Daher berücksichtigen wir bereits heute in unseren Effizienzprojekten die zukünftigen Kriterien und sichern so deren Konformität mit den kommenden Anforderungen Umweltzeichens“, resümiert Thiel.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Rechenzentrum / Server