IT-DIRECTOR https://www.it-zoom.de/it-director/news/ IT-DIRECTOR: Business-Magazin für IT-Manager und CIOs de ©2019 Alle Rechte bei MEDIENHAUS Verlag GmbH Fri, 22 Feb 2019 18:45:36 +0100 Fri, 22 Feb 2019 18:45:36 +0100 TYPO3 EXT:news news-22139 Fri, 22 Feb 2019 17:03:17 +0100 So treibt 5G das Internet der Dinge voran http://www.it-zoom.de/it-director/e/so-treibt-5g-das-internet-der-dinge-voran-22139/ Eine weltweite Studie des Telekommunikationskonzerns Vodafone brachte kürzlich zutage: Bereits jedes dritte Unternehmen nutzt das Internet der Dinge. Laut der internationalen Studie beeinflusst das Internet der Dinge (Internet of Things, IoT) Unternehmen unabhängig von Größe und Branche. Fast zwei Drittel der Firmen, die das Internet der Dinge nutzen, geben an, dass sich ihr Geschäft durch die Vernetzung von Gegenständen verändert hat oder in den nächsten fünf Jahren deutlich verändern wird.

84 Prozent der Anwender berichten von wachsendem Vertrauen in das Internet der Dinge. Die Folge: Acht von zehn Betrieben haben den Umfang, in dem sie das Internet der Dinge nutzen, vergrößert. Einige Nutzer können sich das eigene Unternehmen ohne die neuen Möglichkeiten der Digitalisierung kaum noch vorstellen, so die Studie weiter: Fast jeder zehnte Anwender gibt sogar an, dass das gesamte Geschäft vom IoT abhängig ist.

Unternehmen setzen auf 5G

5G soll ein weiterer Treiber für das Internet der Dinge sein, so ein weiteres Ergebnis. Mehr als die Hälfte aller Nutzer will künftig vor allem auf die fünfte Mobilfunkgeneration setzen, um Dinge miteinander zu vernetzen. Die Studienergebnisse zeigt aber auch: Für viele Anwendungen im Internet der Dinge wird insbesondere die vorhandene Mobilfunktechnologie LTE von hoher Bedeutung bleiben.

Aufgrund der steigenden Bedeutung vom Internet der Dinge für Industrie und Wirtschaft hat Vodafone ein neues Maschinennetz (Narrowband IoT) großflächig über Deutschland gelegt. Das Maschinennetz sei für die kosten- und stromsparende Vernetzung von Gegenständen geeignet, die regelmäßig Daten übertragen – auch an Orten, an denen Mobilfunk sonst nur schwer hinkommt. Beispielsweise unter der Erde im Keller oder hinter dicken Betonwänden.

Beispiele für das Internet der Dinge gibt es zuhauf. Beispielsweise vernetzt Vodafone gemeinsam mit Continental LKW-Reifen. Diese schlagen Alarm, wenn Reifendruck oder Temperatur nicht in Ordnung sind und verhindern so Unfälle. Zudem stattet ZEG und der TK-Anbieter E-Bikes mit einem digitalen Diebstahlschutz aus. Zusammen mit Siren Marine bringt man überdies Yachten und Boote ins Internet der Dinge. Hier bemerken intelligente Sensoren, wenn Wasser ins Schiff eindringt und lösen einen Notruf aus.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Internet of Things (IoT)
news-22134 Fri, 22 Feb 2019 14:53:37 +0100 Christian Gosch in den Vorstand von Avaloq aufgerückt http://www.it-zoom.de/it-director/e/christian-gosch-in-den-vorstand-von-avaloq-aufgerueckt-22134/ Christian Gosch wird an März 2019 als Verantwortlicher für IT und Operations zum Vorstand der Avaloq Sourcing (Europe) AG gehören, die die deutschen Aktivitäten der Gruppe verantwortet. Als Bank- und IT-Manager hatte Gosch vor seiner Zeit bei Avaloq bereits verschiedene C-Level-Funktionen inne, zuletzt als Head of Organization and IT/CIO bei der Erste Group Bank AG in Österreich und in Osteuropa. Seit seinem Wechsel zu dem Schweizer Fintech-Unternehmen im Jahr 2017 fungierte Gosch als Senior Global Programme Manager in Berlin. Bereits in dieser Position zeichnete er für das IT-Projekt der Deutschen Apotheker- und Ärztebank verantwortlich: den Wechsel des bisherigen Kernbankensystems der Apobank hin zur vollintegrierten Bankensoftware von Avaloq. Gosch wird nun an die Stelle von Stefan Spannagl treten, der das Unternehmen nach fast sechs Jahren Unternehmenszugehörigkeit auf eigenen Wunsch verlässt. 

]]>
IT-Director Leute
news-22049 Thu, 21 Feb 2019 19:55:00 +0100 Umsetzung der PSD2 http://www.it-zoom.de/it-director/e/umsetzung-der-psd2-22049/ Bundesdruckerei-Experte Christian Seegebarth erklärt im Interview, mit welchen Tools die PSD2 bis September sicher und rechtskonform umgesetzt werden kann. Die Payment Services Directive (PSD2) erlaubt digitalen Zahlungsdiensten über eine Schnittstelle (API) Zugriff auf Online-Zahlungskonten. Bundesdruckerei-Experte Christian Seegebarth sprach zuletzt bei der NextGenPSD2 Conference über die technische Umsetzung der Richtlinie. Im Interview erklärt er, wer besonders von der PSD2 profitiert und mit welchen Tools man trotz straffen Zeitplans gut gerüstet ist.

Wie gut ist die PSD2 unter Banken und FinTechs bekannt?
Banken wissen sicher bestens Bescheid. Sie stehen dauernd mit der BaFin und den entsprechenden Regulatoren im Austausch, die sich mit der Einrichtung der notwendigen Schnittstelle (API) befassen. Bei den Zahlungsdiensten entscheidet wohl die Größe. Etablierte FinTechs sollten informiert sein und kaum Probleme bei der Umsetzung haben. Bei kleineren Zahlungsdienstleistern dürfte dagegen weniger Klarheit herrschen.

Für die FinTechs ist die PSD2 aber ungleich vorteilhafter.
Genau, denn der Zugang zur Bankenschnittstelle spart ihnen viel Geld für Personal. Die größeren Player haben ja bisher schon auf Kontoinformationen zugegriffen – durch Screen Scraping, das Auslesen der Kundeninformationen auf der Bankenwebsite. Bei Änderungen der Website vonseiten des Geldinstituts programmierte man einfach hinterher. Die Schnittstelle macht Screen Scraping obsolet – sie gibt Unternehmen die Chance, ihre Services ohne hohen Aufwand anzubieten. Damit Drittanbieter diese Chance nutzen, muss man sie für die PSD2 an sich, aber auch für die technischen Anforderungen der Richtlinie sensibilisieren.

Wie das?
Gerade die Banken müssten als Anbieter der Schnittstelle doch bestens über die technischen Anforderungen informiert sein. Nicht unbedingt. Die PSD2 enthält regulatorische technische Standards zur starken Kundenauthentifizierung (RTS on SCA). Diese schreiben etwa den Einsatz qualifizierter Website-Zertifikate (QWACs) fest, mit denen die Unternehmen ihre Identität und ihre Rolle im Zahlungsprozess nachweisen. Allerdings sind die recht neuen QWACs weder flächendeckend verbreitet noch scheinen sie besonders bekannt, was auch daran liegt, dass die „RTS on SCA“ noch nicht lange besteht. Ein echtes Problem.
Andere Zertifikate, wie beispielsweise die EV-Zertifikate für das Kunden-Login, sind zwar schon recht etabliert, aber in diesem Zusammenhang ist ihre Verwendung neu. Entwickler brauchen Zeit, um Erfahrungen mit den Zertifikaten im Zusammenhang mit der Schnittstelle zu sammeln. Und der Zeitplan ist mehr als eng.

Am 14. September startet der Echtbetrieb. Funktionieren müssen die Zertifikate früher.
Schon am 14. Juni startet ein dreimonatiger Markttest, in dem Banken die QWACs unter Realbedingungen nutzen müssen. Nur wenn die Banken diesen Test bestehen, können sie sich von der Fallback-Lösung befreien lassen.
Alles in allem bleibt wenig Zeit – auch für die Drittanbieter, deren Geschäftsmodell von der PSD2 abhängt.

Wie sollten Banken und Drittanbieter Ihrer Meinung nach vorgehen?
Anpacken. Wir, die Bundesdruckerei, geben beispielsweise schon jetzt  kostenlose Testzertifikate heraus, damit Entwickler damit „spielen“ können. Ab März sind sie dann sogar validierbar, das heißt, sie stammen aus einer Referenzumgebung unseres Tochterunternehmens D-TRUST. Banken und Drittanbieter von Payment Services können damit bereits wie mit produktiven Zertifikaten arbeiten. Das erlaubt ihnen, wichtige Einschätzungen darüber zu treffen, wo es hakt und wie man Mängel behebt.

Worauf kommt es bei der Wahl der Website-Zertifikate an?
Es müssen qualifizierte Website-Zertifikate nach eIDAS* sein (QWACs). Alle Anbieter qualifizierter eIDAS-Vertrauensdienste (Trust Service Provider) stehen auf einer EU-Vertrauensliste (Trusted List). Sie sind von den jeweiligen nationalen Aufsichtsstellen für die Herausgabe der qualifizierten Zertifikate zugelassen.

Also gibt es unter den Vertrauensdiensteanbietern keinerlei technologische Unterschiede?
Nein, die technische Sicherheit ist gleich hoch. Bei der Investitionssicherheit sieht es anders aus. Ein Platz auf einer Vertrauensliste schützt einen Vertrauensdiensteanbieter weder vor Insolvenz noch vor der Übernahme durch eine Firma, die nicht aus Europa stammt. Bei der D-TRUST als Tochter eines Staatsunternehmens ist beides ziemlich unwahrscheinlich. Wir erstellen neben vielen anderen Sicherheitslösungen für den Bund seit über 20 Jahren Zertifikate und werden damit sicher so schnell nicht aufhören.

Neben den QWACs können Banken auch den Einsatz qualifizierter Siegel fordern, so wie es die European Banking Authority (EBA) empfiehlt. Wo liegt hier der Mehrwert?
QWACs sind SSL-Zertifikate und sichern die Datenübermittlung ab. Sie schaffen eine durchgehende Ende-zu-Ende-Verschlüsselung. Qualifizierte Siegel (QSiegel) signieren einen Dateninhalt, zum Beispiel die Überweisung von 3,90 Euro. Auch nach Jahren könnte eine Bank im Backend nachvollziehen, wer was wann besiegelte.

Mehr Informationen zur Umsetzung der PSD2 und zu qualifizierten Zertifikaten finden Sie unter bdr.de/psd2

 

*EU-Verordnung Nr. 910/2014

Bildquelle: Bundesdruckerei GmbH

 

 

]]>
Startseite it-zoom IT-Director FIBU REWE Controlling
news-22125 Thu, 21 Feb 2019 15:04:16 +0100 Die digitale Evolution des Vertriebs http://www.it-zoom.de/it-director/e/die-digitale-evolution-des-vertriebs-22125/ So verändern Machine Learning und Künstliche Intelligenz (KI) den Vertrieb Künstliche Intelligenz, Automatisierung, Digitale Transformation gelten aktuell als Synonyme für mehr Effizienz, höhere Produktivität und stärkere Personalisierung. Möglich machen dies die Datenmengen der digitalen Ära und der fortschreitende Erfolg neuer Machine-Learning-Algorithmen. Dabei hat Künstliche Intelligenz von diesen Entwicklungen enorm profitiert und ist für die praktische Anwendung gereift. Denn durch präzise und schnelle Analysen kann sie die Fertigkeiten der Mitarbeiter schärfen und Unternehmensprozesse optimieren. Insbesondere im Vertrieb finden sich viele Anwendungsgebiete für neue KI-basierte Technologien.

Allerdings gilt für viele KI-Anwendungsfälle: Hilfestellung ist der Schlüsselbegriff. Denn viele Nutzer haben Angst um ihren Arbeitsplatz, wenn sie KI hören. Doch verschwinden werden die Vertriebsmitarbeiter nicht. Vielmehr stellt sich bei immer mehr KI-unterstützten Tools im Vertrieb unweigerlich die Frage: Wie wirkt sich das auf die Vertriebsteams aus? Die gute Nachricht: Vertriebsmitarbeiter werden auch in Zeiten von KI & Co. unverzichtbar sein. Gerade Jobs, die komplexe Anforderungen an Mensch und Maschine stellen oder nuancierte Fähigkeiten erfordern – wie lösungsorientiertes Arbeiten, Verhandlungsgeschick, Überzeugungskraft und Empathie – können nicht durch Software ersetzt werden. Dazu gehören auch die Aufgaben im Vertrieb.

KI-unterstützte Vertriebstools zielen daher nicht darauf ab, Mitarbeiter zu ersetzen. Im Gegenteil, sie sollen sie unterstützen. In diesem Sinne funktioniert KI zunehmend als ein digitaler Mentor, der den Vertriebsteams repetitive und standardisierbare Fleißarbeit abnimmt. Denn der Arbeitsalltag eines Vertriebsmitarbeiters ist heutzutage schnell mit kleinteiligen aber zeitintensiven Aufgaben belegt: etwa mit der Datenpflege von CRM-Systemen und Spreadsheets, Mailings oder der Terminplanung rund um Meetings.

In der Folge konzentrieren sich Vertriebsteams und ihre Mitarbeiter auf Vieles, aber nicht auf ihren eigentlichen Job – das Verkaufen. Stattdessen verstricken sie sich in den genannten Aufgaben. Neue Technologien können diese kleinteiligen Aufgaben übernehmen; sie ermöglichen den Vertriebsteams auf diese Weise, sich auf das Wesentliche zu fokussieren. Vertriebler erledigen ihren Job schneller und besser, und erhalten mehr qualitativ hochwertige Leads.

Durchblick im Datendickicht

Aktuell existieren bereits viele Arten dieser virtuellen Assistenten. Ein Beispiel: durch Künstliche Intelligenz unterstützte E-Mail-Korrespondenz. Programme wie x.ai und Clara sind zwischen den Mail-Verkehr und Kalender geschaltet. Ganz wie ihre menschlichen Vorbilder filtern sie aus der Korrespondenz Handlungsanweisungen heraus – und koordinieren zum Beispiel automatisch Meetings zwischen den betreffenden Parteien. Mit der Zeit können diese Assistenten die Präferenzen der Nutzer erlernen: Telefonkonferenz oder Google Hangout? Besprechung beim Kaffee oder Mittagessen? Morgens oder nachmittags?

Andere KI-Funktionen sind direkt in CRM-Systeme integriert. Dort suchen intelligente Kontaktdatenprogramme selbstständig nach Informationen und Daten über potentielle Kunden und Partner – und ersparen den Mitarbeitern eine lange manuelle Recherche.

Besonders viel Zeit investieren Vertriebsmitarbeiter in die Analyse unstrukturierter Datensätze. Damit sind jene Daten gemeint, die sich nicht eindeutig in fest definierte Kategorien sortieren lassen. Einen Sinn aus diesen Informationen abzuleiten, ist ein mühseliges Unterfangen. KI-unterstütze CRM-Systeme können diese Daten in ihre Einzelteile herunterbrechen, kategorisieren und analysieren; sie filtern auf diese Weise Informationen aus den undurchsichtigen Datenbergen. Mitarbeiter verstehen anhand dieser Übersichten wiederum, warum ein Deal gescheitert ist – und was sie beim nächsten Mal besser machen können.

Keine Konkurrenz, sondern digitaler Coach

Fazit: Personalisierte und KI-unterstützte digitale Assistenten besitzen Potential. Als Coach helfen sie Vertriebsteams, präsentieren diverse Verkäufe übersichtlich und kontrollieren den Vertriebsprozesse. Bildlich gesprochen können sie den Vertriebsmitarbeiter den richtigen Weg weisen. In den nächsten Jahren müssen CRM-Systeme diese Funktionen und Aufgaben übernehmen, um die Mitarbeiter besser in ihrer täglichen Arbeit zu unterstützen.

Letztlich sammeln die digitalen Assistenten Daten schneller und sauberer. Vertriebsteams können so ihre Prozesse verschlanken, sie präzisieren und datenbasiert gestalten. Denn durch die verbesserte Datensammlung, erhalten die Teams Zugriff auf bessere Leads. Eine Entwicklung, die bereits mit der viel diskutierten Datenschutzgrundverordnung begonnen hat.

Künstliche Intelligenz erlaubt es den Vertriebsteams, sich wieder auf ihre Stärken zu besinnen und zu fokussieren: auf den Kundenkontakt und auf Talente wie Empathie und Verhandlungsgeschick sowie das Verkaufen an sich. Von daher ist die Position und das Potential des Vertriebsmitarbeiters dank Künstlicher Intelligenz stärker denn je.

* Der Autor Vinay Ramani ist Chief Product Officer bei Pipedrive.

Bildquelle: Thinkstock/iStock

]]>
IT-Director CRM Startseite it-zoom
news-22124 Thu, 21 Feb 2019 13:57:46 +0100 Fujitsu-Chefin wird nun CDO bei Bosch http://www.it-zoom.de/it-director/e/fujitsu-chefin-wird-nun-cdo-bei-bosch-22124/ Vera Schneevoigt (53), zuletzt Geschäftsführerin der Fujitsu Technology Solutions GmbH, übernimmt zum 1. April 2019 die neu geschaffene Position des Chief Digital Officer sowie die Entwicklungsleitung des Bosch-Geschäftsbereichs Building Technologies. Die Entwicklungsleitung hatte bisher Tanja Rückert, Vorsitzende des Bereichsvorstands bei Bosch Building Technologies, kommissarisch inne. „Ich freue mich, mit Vera Schneevoigt eine IT-Managerin mit Expertise in den Zukunftsthemen digitale Transformation, Internet der Dinge und Industrie 4.0 an Bord zu holen. Sie wird die Digitalisierung unseres Geschäfts und die Entwicklungsstrategie hin zu ganzheitlichen, vernetzten Lösungen, kombiniert aus Hardware, Software und Services, vorantreiben“, so Rückert.

Schneevoigt verantwortete seit 2014 bei Fujitsu als Geschäftsführerin die Entwicklung, Produktion, Logistik und den Einkauf für das Produktgeschäft außerhalb Japans. In dieser Position lag ihr Schwerpunkt u.a. auf der Entwicklung und Einführung neuer Technologien vor dem Hintergrund der fortschreitenden Digitalisierung. Sie leitete zudem den Entwicklungs- und Produktionsstandort des Konzerns in Augsburg. Zuvor war sie als Geschäftsführerin bei Siemens Enterprise Communications, heute Unify, zuständig für Werke und Logistik. „Bosch ist hoch innovativ und auf dem Weg hin zu einem weltweit führenden IoT-Unternehmen. Ich freue mich, dass ich den Geschäftsbereich Gebäudetechnik bei dieser Reise unterstützen darf“, so Schneevoigt.

Bildquelle: Bosch

]]>
IT-Director Startseite it-zoom Leute
news-22111 Thu, 21 Feb 2019 12:43:00 +0100 Bernd Leukert scheidet aus SAP-Vorstand aus http://www.it-zoom.de/it-director/e/bernd-leukert-scheidet-aus-sap-vorstand-aus-22111/ SAP-Vorstandsmitglied Bernd Leukert hat sich einvernehmlich mit dem Aufsichtsrat auf sein sofortiges Ausscheiden aus dem Unternehmen verständigt. Zugleich hat der Aufsichtsrat der SAP SE entschieden, den Vorstandsvertrag von Michael Kleinemeier bis Ende 2020 zu verlängern. Bernd Leukert, der zusammen mit Kleinemeier den Bereich Digital Business Services leitet, blickt auf eine langjährige Historie als Führungskraft bei SAP zurück. In seiner Karriere war er an zahlreichen Initiativen und Entwicklungen beteiligt. Zu Themen wie Geschäftsanwendungen, Industrie 4.0 und Digitalisierung genießt er in der Technologiebranche einen guten Ruf.

„Bernd Leukert hat viel zum Erfolg der SAP beigetragen“, sagte Professor Hasso Plattner, Vorsitzender des Aufsichtsrats der SAP SE. „Wir danken ihm für sein Engagement und seinen langjährigen Einsatz für das Unternehmen. Michael Kleinemeier wird von unseren Kunden sehr geschätzt. Wir freuen uns, dass er der Firma in Zukunft weiter zur Verfügung steht.“

„Ich bin sehr stolz darauf, Teil des SAP-Vorstands gewesen zu sein und SAP S/4 Hana am Markt eingeführt zu haben“, so Leukert. Er danke Hasso Plattner und dem Aufsichtsrat für ihr langjähriges Vertrauen und ihre Unterstützung.

Bildquelle: SAP

]]>
IT-Director Startseite it-zoom Leute
news-22119 Thu, 21 Feb 2019 12:25:07 +0100 5G als Treiber für Edge Computing http://www.it-zoom.de/it-director/e/5g-als-treiber-fuer-edge-computing-22119/ Die Verbreitung der neuen Mobilfunkgeneration 5G wird die Entwicklung von Edge Computing weiter ankurbeln, betont Reinhard Purzer von Vertiv IT-DIRECTOR: Herr Purzer, nicht nur im Internet of Things (IoT) werden leistungsfähige Kapazitäten am Netzwerkrand benötigt. Inwieweit stößt man hierzulande bereits auf erfolgreiche Edge-Computing-Installationen?
R. Purzer:
Gerade da, wo viele Daten über Sensoren generiert werden und in Echtzeit verarbeitet werden müssen, oder wo unser Leben durch Automatisierung einfacher und sicherer gemacht werden soll – also beispielsweise in Bereichen wie Smart Home, Augmented Reality, Robotik oder Ähnlichem finden wir heute schon Edge-Anwendungen. Aber auch der Einzelhandel mit mehreren Niederlassungen und lokal erforderlicher Datenverarbeitung in Echtzeit im Rahmen von Kassen- oder Bezahlsystemen setzt hierzulande schon vielfach auf Edge Computing. Im Vergleich zu großen Rechenzentren sind Edge-Computing-Installationen klein, unauffällig und können prinzipiell in jeder Niederlassung eines Unternehmens oder an jeder Straßenecke stehen.

IT-DIRECTOR: In welchen Branchen und für welche Anwendungsfälle spielen Edge Computing und sogenannte „Edge Datacenter“ momentan eine bedeutende Rolle?
R. Purzer:
Neben den bereits genannten Beispielen ist Edge Computing insbesondere für die Telekommunikationsbranche und in der Produktion von Bedeutung und wird hier immer wichtiger. In Zukunft wird 5G die Entwicklung von Edge Computing stark beeinflussen und nochmals ankurbeln.  

IT-DIRECTOR: Welche Daten und Applikationen werden dabei vorrangig allein am Netzwerkrand verarbeitet und welche an „klassische“ Rechenzentren weitergeleitet?
R. Purzer:
Große Datenmengen, die in Echtzeit verarbeitet werden müssen und extrem niedrige Latenzzeiten erlauben, sind oftmals schlichtweg zu groß und auch zu teuer für den schnellen Transport über große Distanzen in eine Cloud und zurück. Das würde auch Verbindungen mit extrem hoher Bandbreite erfordern, die oftmals einfach nicht zur Verfügung stehen oder sehr kostenaufwendig sind. Solche Daten werden immer häufiger direkt am Netzwerkrand verarbeitet. Weitere Beispielanwendungen sind neben den bereits genannten Applikationen HD-Inhalte, medizinische Geräte oder auch der Aktienhandel. Für Autonomes Fahren wird Edge Computing sogar zur Voraussetzung. Ohne 5G und ohne Rechenkapazitäten am Netzwerkrand werden die Autos nicht selbst fahren.

IT-DIRECTOR: Worauf kommt es bei der Verbindung zwischen Netzwerkrand und den „klassischen“ Rechenzentren besonders an?
R. Purzer:
Das Wichtigste sind die Stabilität und Zuverlässigkeit beim Datentransfer sowie ein weit verzweigtes, sicheres und schnelles Netz über das die Daten zwischen Netzwerkrand und Rechenzentrum fließen können.

IT-DIRECTOR: Wie lassen sich Edge-Datacenter-Infrastrukturen besonders energieeffizient betreiben? Welche Kühlverfahren können am Netzwerkrand zum Einsatz kommen?
R. Purzer:
Mikro-Rechenzentren, auch Datacenter-in-a-Box genannt, sind hierfür besonders gut geeignet. Sie integrieren alle relevanten Infrastrukturkomponenten und Schutzmaßnahmen aufeinander abgestimmt in einem oder mehreren Racks. Dazu gehören Kühlung, USV (Unterbrechungsfreie Stromversorgung), Zugangssicherung und Brandschutz, aber auch die Software, um die Assets durch Remote oder Data Center Infrastructure Management (DCIM) zu überwachen, zu steuern und zu warten. Sie sind für den energieeffizienten Einsatz am Netzwerkrand optimiert. Als Kühlverfahren bewähren sich hier je nach Größe und Ausstattung des Mikro-Rechenzentrums die freie, passive Luftkühlung mittels horizontaler Durchströmung und Perforationen im Schrank oder die aktive Luftkühlung über Lüfter, die die warme Luft entweder in den Raum oder direkt nach Außen ins Freie abgeben.

IT-DIRECTOR: Stichwort Ausfallsicherheit: Ein funktionierender Netzwerkrand wird für viele Unternehmen immer geschäftskritischer. Wie können Ausfallsicherheit und nahtlose Energieversorgung beim Edge Computing gewährleistet werden?
R. Purzer:
Auch hier gilt wie für große, klassische Rechenzentren: Je geschäftskritischer die Anwendung ist, desto wichtiger werden die Themen Redundanz sowie unterbrechungsfreie Stromversorgung mittels USV-Systemen und gegebenenfalls nachgelagerten Generatoren. Außerdem ist die Software entscheidend: Die Fernverwaltung über Software und Sensoren ist wegweisend für die Optimierung und Zuverlässigkeit während des gesamten Lebenszyklus.

IT-DIRECTOR: Wie stellen sich etablierte Rechenzentrumsbetreiber bzw. Colocation-Anbieter derzeit auf Edge-Technologien ein?
R. Purzer:
Edge Computing ist nicht das primäre Geschäft großer Rechenzentrumsbetreiber oder Colocation-Anbieter und daher bisher auch nicht wirklich in ihrem Fokus. Sie werden sich aber auf die Edge-Computing-Nachfrage seitens ihrer Kunden einstellen müssen. Chancen sehen wir hier für unsere Mikro-Rechenzentrumsangebote, die Out-of-the-Box am Netzwerkrand schnell und einfach installiert und über die integrierte DCIM-Software remote gewartet werden können. Hier kommen auch insbesondere unsere Channel-Partner zum Zug, die sich um Edge-Installationen bei den Unternehmen vor Ort kümmern. Denn Unternehmen können nicht über Nacht auf Edge umsteigen – es erfordert vielmehr ein Konzept und einen Prozess, den man mit dem entsprechenden Know-how, den richtigen Ansprechpartnern und Angeboten wie Mikro-Rechenzentren sehr gut beschleunigen kann.

]]>
Ina Schlücker IT-Director Rechenzentrum / Server
news-22105 Wed, 20 Feb 2019 15:01:06 +0100 Dräxlmaier Group führt S/4Hana ein http://www.it-zoom.de/it-director/e/draexlmaier-group-fuehrt-s4hana-ein-22105/ Für das Redesign des Rollen- und Berechtigungskonzeptes setzt der Automobilzulieferer Dräxlmaier auf Sast aus dem Hause Akquinet. Anlass dafür ist die weltweite Einführung von SAP S/4Hana im Unternehmen. Die Hamburger Experten für SAP-Sicherheit und Compliance konnten sich in der Ausschreibung durchsetzen. Mit der Dräxlmaier Group, die rund 70.000 Mitarbeiter in über 20 Ländern beschäftigt, setzt ein weiterer  Automobilzulieferer in Sachen SAP-Sicherheit auf das Hamburger Unternehmen. Im Rahmen der Zusammenarbeit bis 2024 wird das Rollen- und Berechtigungskonzept mit Hilfe einer Managed-Service-Lösung und der Sast Suite auf den Prüfstand gestellt. Der Automobilzulieferer ist eines von global rund 50 Unternehmen, die ihre Produktivsysteme auf S/4Hana umstellen.
 


Die SAP-Sicherheitsexperten unterstützen bei der Härtung der Hana-Datenbank, der Neuaufstellung eines sauberen Berechtigungskonzeptes und beim Safe-Go-Live-Management. Die dabei eingesetzte Suite gilt als eines der umfangreichsten GRC-Tools am Markt und ist von SAP offiziell für S/4Hana zertifiziert.

Bild: Thinkstock/iStock

]]>
IT-Director Unternehmen
news-22094 Wed, 20 Feb 2019 10:15:06 +0100 Am Puls des Rechenzentrums http://www.it-zoom.de/it-director/e/am-puls-des-rechenzentrums-22094/ Wenn im Rechenzentrum nicht alles rund läuft, dann stocken bei vielen Unternehmen nicht nur interne Arbeitsabläufe, sondern oft auch das direkte Geschäft mit den Kunden. Doch verschiedene Open-Source-Monitoring-Tools können den Administratoren dabei helfen, alles Wichtige im Blick zu behalten. Moderne IT-Architekturen sind komplex, oft hochgradig verteilt, besitzen virtualisierte Komponenten und nicht selten dynamische Strukturen, bei denen alle Ressourcen flexibel eingesetzt werden sollen. Wer hier den Überblick behalten und Ausfallszeiten vermeiden will, braucht ein leistungsfähiges Monitoring. Aktuell finden sich hierfür zahlreiche kostengünstige Open-Source-Systeme, die sich für unterschiedlichste Rechenzentrumsarchitekturen eignen. Die im Folgenden betrachteten Systeme stammen laut einer Studie der Becon GmbH aus verschiedenen Zeiten und zeichnen sich daher durch unterschiedliche technologische Paradigmen aus. Während die ersten sich seit fast 20 Jahren im Einsatz bewährt haben und einer großen Entwickler- und Anwender-Community erfreuen, sind die jüngsten eher maßgeschneidert für den Einsatz in modernen Cloud-Infrastrukturen.

Vom Klassiker Nagios ...

Das Monitoring-Tool Nagios lässt sich getrost als Klassiker unter den Open-Source-Monitoring-Systemen bezeichnen. In der Programmiersprache C geschrieben und bereits 1999 veröffentlicht, galt es lange als das Standardsystem unter den Lösungen. Nagios profitiert von einer großen Community, die eine Vielzahl ergänzender Plugins entwickelt hat. Es skaliert durch den Einsatz abgesetzter eigenständiger Instanzen, was das Tool schwer skalierbar macht. Für eine Übersicht aller Elemente in einem Web-Frontend müssen diese aufwendig zusammengeführt werden. Auf Basis von Nagios entstanden verwandte Nachfolgesysteme (sogenannte Forks) wie Naemon und Icinga. Alle drei Monitoring-Werkzeuge überwachen ihre Systeme mit Status-Checks: Sie prüfen Systemwerte im Hinblick auf vorher definierte Schwellenwerte und melden zurück, ob das Ergebnis in Ordnung oder kritisch ist.

OpenNMS und Zabbix, die aus den Jahren 2000 und 2001 stammen, sind event-basierte Monitoring-Systeme. Beide sammeln relevante Monitoring-Werte per Status-Checks, Collectoren oder über Protokolle wie SNMP, ICMP, WMI, JMX oder HTTP. Mit ihren datenbankbasierten Web-Frontends bieten sie rollenbasierte Zugriffskontrolle (RBAC). OpenNMS ist in Java geschrieben, skaliert mittels verteilter Instanzen und bietet personalisierte Dashboards. Zabbix enthält Programmteile in C, Java und PHP und skaliert durch das Verteilen von Subprozessen auf unterschiedliche Systeme.

Zur nächsten Generation von Open-Source-Monitoring-Systemen gehören Check_MK (2008) und Icinga2 (2014). Beide bieten mehr Business-Funktionen als ihre Vorgänger, wozu beispielsweise die Möglichkeiten für Visualisierung und Reporting gehören. Check_MK ermittelt relevante Monitoring-Werte üblicherweise mit Hilfe von Agenten, die auf den zu überwachenden Systemen installiert sind. Agenten-Updates können über das Web-Frontend gesteuert werden. Zur Skalierung können mehrere Instanzen von Check_MK eingesetzt und in einem Web-Frontend konsolidiert werden. Icinga2 ist ein Re-Write von Icinga, aber nicht kompatibel zur Vorgängerversion. Das Web-Frontend bietet RBAC und der Icinga Director unterstützt bei der Konfiguration der gesamten Monitoring-Landschaft.

Prometheus ist ein Open-Source-Monitoring-System, das als Microservice für Cloud-Umgebungen konzipiert ist und 2012 veröffentlicht wurde. Es sammelt Monitoring-Werte mit Hilfe so genannter Exporter, die als eigenständige Dienste arbeiten und Metriken via Webservices für Prometheus bereitstellen. So können die Monitoring-Inhalte beliebig erweitert werden.

... bis zum Brückenbauer Sensu Go

Sensu ist als Microservice für moderne Cloud-Architekturen konzipiert. Es wurde zunächst in Ruby geschrieben und 2011 veröffentlicht. Mit Sensu Go liegt seit Dezember 2018 das komplette Re-Write in Go dieses Open-Source-Monitoring-Tools vor. Es überwacht alle Ebenen einer IT-Architektur: von Servern, virtuellen Maschinen und Containern über Netzwerkgeräte, CPUs und Speicher bis hin zu Applikationen und Microservices. Sensu Go besteht aus einer Backend-Komponente und Agenten auf den zu überwachenden Systemen. Die Agenten führen auf Basis eines Publish-Subscribe-Ansatzes Monitoring-Checks effizient durch und sparen so im Vergleich zu älteren Monitoring-Lösungen viel Rechenleistung ein. Sensu skaliert durch die Hinzunahme weiterer Backend-Instanzen und entfaltet seine Stärken in Cloud-Umgebungen und Infrastrukturen, in denen viel Dynamik herrscht und die Fluktuation von Hard- und Software hoch ist.

Dies ist ein Artikel aus unserer Print-Ausgabe 1-2/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Sensu Go vereint nicht zuletzt die Möglichkeiten von Status- und Metrik-Checks, so dass Unternehmen bewährte Plugins, die sie beispielsweise mit dem Open-Source-Monitoring-Klassiker Nagios erstellt haben, nahtlos integrieren können. So kann Sensu Go eine Nagios-Umgebung erweitern, ihre Skalierbarkeit verbessern, Workloads aus der Cloud einbinden oder sie unter Beibehaltung bewährter Plugins relativ einfach ablösen. Durch diese Kompatibilität baut Sensu eine Brücke zwischen alter und neuer Monitoring-Welt. Seine offene Architektur und die dadurch verfügbaren Integrationen erlauben es, Sensu Go mit wenig Aufwand maßgeschneidert in die IT-Landschaft und -Prozesse des Unternehmens einzubetten.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom Rechenzentrum / Server
news-22092 Wed, 20 Feb 2019 09:51:08 +0100 CRM-Standard für Versicherungen http://www.it-zoom.de/it-director/e/crm-standard-fuer-versicherungen-22092/ Die zur Provinzial Rheinland gehörende Protect Versicherung AG vertraut auf BSI Insurance in der Betreuung der Vertriebspartner. Mit der Protect Versicherung setzt ein weiteres Unternehmen aus der Assekuranz auf BSI Insurance in der Vertriebspartnerbetreuung. Ziel der Customer-Relationship-Management-Einführung (CRM) ist die Service-Optimierung für Sparkassen und andere Vertriebspartner, welche sowohl mit innovativen Produktlösungen, einem dynamischen Gesamtkonzept wie auch mit individuellem Service in ihren Aktivitäten unterstützt werden sollen.

Die Protect gehört der Unternehmensgruppe der Provinzial Rheinland an und ist auf die Gestaltung von innovativen Produktlösungen für Finanzierungs- und Zahlungsabsicherungen spezialisiert. Der Spezialversicherer setzt im Vertrieb auf eine enge und vertrauensvolle Partnerschaft mit den Vertriebs- und Kooperationspartnern. Als öffentlicher Versicherer treten Protect und die Partner deutschlandweit unter dem Dach der Sparkassen-Finanzgruppe auf.

„Unsere Vertriebspartner tragen maßgeblich dazu bei, entscheidende Wettbewerbsvorteile in engen Marktsegmenten zu generieren. Ihnen einen optimalen Service zu bieten, ist unsere Pflicht. Dieser können wir mit der versicherungsspezifischen CRM-Lösung künftig besser nachkommen“, erklärt Markus Kalbas, Bereichsleiter Vertrieb bei Protect. „BSI bietet uns genau das, was wir für eine proaktive Betreuung unserer Vertriebspartner brauchen: eine zentrale 360-Grad-Sicht, durchgängige Prozesse und eine lückenlose Kommunikationshistorie. Auch für künftige Marketing-Aktivitäten halte die Lösung passende Antworten bereit.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom CRM
news-22089 Tue, 19 Feb 2019 14:36:23 +0100 Schnelle Transaktionen am Netzwerkrand http://www.it-zoom.de/it-director/e/schnelle-transaktionen-am-netzwerkrand-22089/ In welchen Bereichen Edge Computing künftig eine große Rolle spielen wird, erläutern Thomas Sting und Andreas Schürkamp von der DC-Datacenter-Group. IT-DIRECTOR: Herr Sting, nicht nur im Internet of Things (IoT) werden leistungsfähige Kapazitäten am Netzwerkrand benötigt. Inwieweit stößt man hierzulande bereits auf erfolgreiche Edge-Computing-Installationen?
T. Sting:
Das kommt darauf an, wen man fragt und wann man etwas als Edge Computing und Netzwerkrand definiert. Ähnlich der Cloud-Definition und der Frage, ab wann ist etwas Cloud? Im Grunde ist Edge Computing keine Neuerfindung, das Kind hat nur einen neuen Namen bekommen. Wenn man mit Edge Computing meint, dass Rechen- und Speicherleistung näher an den Datenerzeuger oder Abnehmer herangebracht wird, dann ist das „Prinzip“ schon verbreitet. Nehmen wir als Beispiel ein Mittelständler mit zehn Standorten und einer Firmenzentrale, in der der Großteil der Server steht. Dann haben wir zehn Edge-Rechenzentren am Netzwerkrand und den Hauptstandort, der natürlich eine höhere Bandbreite und Redundanzen aufweisen wird. Ähnliches trifft man im Bereich der Automatisierung und Smart-Home-Technologie auch schon an, aber flächendeckende Konzepte noch nicht.

IT-DIRECTOR: Herr Schürkamp, in welchen Branchen und für welche Anwendungsfälle spielen Edge Computing und sogenannte „Edge Datacenter“ momentan eine bedeutende Rolle?
A. Schürkamp:
Im Bereich Smart Home, Internet of Things (IoT) und Autonomes Fahren wird es in der Zukunft eine Rolle spielen. Immer dort, wo ein Caching und (vor)verarbeiten von Daten Geschwindigkeitsvorteile bringen und Latenzzeiten verringern wird. Je schneller Transaktionen getätigt sind, desto eher kann eine Applikation „weiterarbeiten“. Wenn man Informationen intelligent verteilen oder die Rechenleistung und Speicherplatz einer Anwendung „folgen“ kann, fördert dies die Performance und kann auch zur Steigerung der Verfügbarkeit bzw. Ausfallsicherheit beitragen.

IT-DIRECTOR: Welche Daten und Applikationen werden dabei vorrangig allein am Netzwerkrand verarbeitet und welche an „klassische“ Rechenzentren weitergeleitet?
T. Sting:
Das Gesamtkonzept gibt im Grunde vor, wo welche Daten abzulegen oder zu verarbeiten sind. Wobei natürlich eine sichere und lange Aufbewahrung von Daten im klassischen RZ bevorzugt wird (Thema Archivierung/Backup usw.). In einem Edge-Rechenzentrum könnten vom Prozessdesign z.B. nur „vergängliche Information“ verarbeitet werden, z.B. Verkehrsinfos für im Einzugsgebiet befindliche Fahrzeuge.

Ein anderes Beispiel wäre die Steuerung von Energiespeichersystemen (z.B. E-Fahrzeuge, Solar-/Windkraftanlagen, BHKWs), um die (Strom-)Netzstabilität zu erhöhen oder Strom aus Speichern dann einzuspeisen, wenn Windkraft und Sonne gerade keine Energie erzeugt. Denkbar sind Stadteile oder Wohngebiete die durch Edge Computing gesteuert werden, aber auch den Einwohnern Compute und Storage für ihre Zwecke bereitstellen.

IT-DIRECTOR: Worauf kommt es bei der Verbindung zwischen Netzwerkrand und den „klassischen“ Rechenzentren besonders an?
A. Schürkamp:
Der Trick ist, dass es mit dem Vorlagern von Rechenleistung eben keine hohen Anforderungen mehr gibt. Aber wie immer ist hohe Bandbreite, hohe Ausfallsicherheit und geringe Latenz von Vorteil. Wenn Edge Computing so aufgebaut ist, dass benachbarte Knoten einen Ausgefallenen „ersetzen“ können und Netzwerkkonnektivität als Mesh funktioniert ist das Ziel erreicht.

IT-DIRECTOR: Wie lassen sich Edge-Datacenter-Infrastrukturen besonders energieeffizient betreiben? Welche Kühlverfahren können am Netzwerkrand zum Einsatz kommen?
T. Sting:
Das kommt natürlich, wie so häufig, auf den Standort und die Anwendung an. Denkbar und auch schon von uns realisiert, sind Rechenzentren in Windparks oder auch Solarparks die sich zum Großteil selbst versorgen u.U. komplett CO2-neutral im Betrieb. Je nach Standort kann dass auch ohne aktive Kälteerzeugung gelingen, weil man vielleicht ganzjährig unter 24 bzw. 25 Grad Celsius Außentemperatur bleibt.

IT-DIRECTOR: Stichwort Ausfallsicherheit: Ein funktionierender Netzwerkrand wird für viele Unternehmen immer geschäftskritischer. Wie können Ausfallsicherheit und nahtlose Energieversorgung beim Edge Computing gewährleistet werden?
A. Schürkamp:
Auch hier ist das Konzept ausschlaggebend. Warum Edge-Rechenzentren (höchst) verfügbar bauen, wenn man in zwei Kilometern Entfernung ein zweites (oder mehrere) Datacenter hat, welches den Ausfall kompensiert? Das Thema Sicherheit sollte man heutzutage jedoch nicht außer Acht lassen, denn auch Edge-Rechenzentren können Einfallstore für Cyberattacken sein.
   
IT-DIRECTOR: Wie stellen sich etablierte Rechenzentrumsbetreiber bzw. Colocation-Anbieter derzeit auf Edge-Technologien ein? Worin liegen derzeit die für sie größten Herausforderungen?
T. Sting:
Die Nachfrage nach klassischem Housing in den Ballungsräumen wie z.B. Frankfurt ist aktuell noch so hoch, dass sich die klassischen großen RZ-Betreiber mit dem Trend „Edge“ noch nicht beschäftigen. Erst wenn sich die Nachfrage weg von zentralen und hin zu dezentralen Rechenzentren verlagert, werden die großen RZ-Betreiber reagieren. Die Frage könnte auch genauso gut zum Thema Sicherheit der Daten gestellt werden, denn die meisten großen RZ-Dienstleister in Deutschland sind ausländische Unternehmen, für die die Einhaltung der deutschen IT-Sicherheitsgesetze bestenfalls zweitrangig ist.

]]>
IT-Director Rechenzentrum / Server
news-22088 Tue, 19 Feb 2019 14:19:55 +0100 Eine gute Adresse für alle Medien-Assets http://www.it-zoom.de/it-director/e/eine-gute-adresse-fuer-alle-medien-assets-22088/ Eine Unternehmensgruppe mit weltweitem Marketing braucht für ihre Bilder und Medien-Assets eine zentrale Datenbank. So auch die Deutsche Hospitality, die bis 2016 noch als Steigenberger Hotel Group firmierte. Aus der Steigenberger Hotel Group wurde im Oktober 2016 die Deutsche Hospitality, die vier Welten unter ihrem Dach vereint: Die Steigenberger Hotels and Resorts stehen für Eleganz. „Maxximize your stay“ heißt es durch den Fokus auf das Wesentliche in den neuen Maxx by Steigenberger Hotels. Das Konzept Jaz in the City präsentiert sich jung, urban und nah am pulsierenden Leben der Stadt. Und die Intercity Hotels liegen im Herzen der Städte mit bester Anbindung an Bahnhöfe und Flughäfen.

Als man sich bei der Unternehmensgruppe auf die Suche nach einer Bilddatenbank machte, geriet das moderne Digital-Asset-Management-System (DAM) Cavok in den Blick. „Die Entscheidung dafür war bei uns dann schnell gefallen“, erklärt Nicole Hennig, Manager Corporate Marketing in der Zentrale der Deutschen Hospitality in Frankfurt. Heute haben mehr als 100 Hotels der Gruppe auf drei Kontinenten Zugriff auf das DAM-System. „Die knapp 1.000 Nutzer können dabei mehr als 15.000 Bilder aus unserer Datenbank nutzen“, sagt Hennig.

Hersteller des DAM-Systems ist die Peak-14 GmbH aus Darmstadt. Ein Vorzug ihres Systems ist es, dass es sich bei Bedarf tief in andere Software integriert. Ob dies nun Layout-Programme, Webshops oder Content-Management-Systeme sind. Möglich wird dies wegen der besonderen Architektur: Das DAM-System basiert auf einem SOAP-Server (Simple Object Access Protocol) als bewusst schlank gehaltenem Kern. Daran knüpft eine Schicht mit funktionalen Modulen an, die quelloffen sind und die sich darum leicht an andere Anwendungen anbinden lassen.

Interne wie externe Nutzer

Die Bilddatenbank der Hotelgruppe wird nicht intern, sondern auch extern genutzt. „Mit der Bilddatenbank arbeiten wir im Marketing in der Zentrale, aber auch die Kollegen aus unseren Hotels überall auf der Welt greifen auf das Bildmaterial zu“, erklärt Nicole Hennig, „ebenso wie unsere externen Agenturen und sogar Journalisten.“ Möglich wird diese Öffnung von Cavok nach außen durch ein differenziertes Rechte- und Rollenkonzept, das die Zugriffs- und Bearbeitungsmöglichkeiten detailliert regelt.

Auch bei internen Nutzern gibt es unterschiedliche Rechteniveaus. „Da sind die Administratoren; dann gibt es Kollegen mit Zugriff auf all unsere Geschäftsbereiche; jene, die beispielsweise nur auf die Steigenberger Hotels and Resorts zugreifen; oder die, bei denen es nur um Bildmaterial geht, das mit ihrem eigenen Haus zu tun hat“, sagt Hennig. Für externe Nutzer wie etwa Fachjournalisten ist der Datenbankzugriff in der Regel nicht nur dem Umfang nach, sondern auch zeitlich begrenzt, meist auf ein Jahr. Die Rechte lassen sich auch so einschränken, dass sie nur für das Bildmaterial einer der vier Marken der Deutschen Hospitality gelten, für definierte Länder oder für bestimmte Regionen, wie etwa das Rhein-Main-Gebiet. Lädt sich ein Journalist für sein Medium dann die benötigten Bilder oder Logos herunter, sind sie auch gleich mit den entsprechenden Copyright-Hinweisen versehen.

Lokalisierte Werbemittelerstellung

Für die Deutsche Hospitality ist es eine zentrale Anforderung, dass die Hotels weltweit bei Bedarf ihre eigenen Flyer erstellen können. Darum ist in Frankfurt neben der DAM-Lösung auch ein zentrales Web-to-Print-System im Einsatz, mit dem Hotels weltweit saisonale Flyer auf Basis diverser Templates erstellen und lokalisieren. „Kollegen vor Ort können damit ihre Flyer anlegen, betexten und dafür auf die Bilder aus dem DAM-System zurückgreifen“, erklärt Hennig. „Dabei werden beispielsweise auch die Farben gleich für den Druck angepasst – aus RGB wird dann automatisch CMYK.“

Die Zusammenarbeit mit Peak-14 empfindet Hennig als positiv: „Schon beim Wechsel der Bilddatenbank waren die Experten im Grunde unsere Rettung. Die Betreuung ist gut, das Team arbeitet schnell und professionell, und sie haben großes Know-how, was unsere ganze Systemlandschaft angeht“, sagt Hennig. Zudem sei es ein wichtiger Pluspunkt, dass der Anbieter sich in die spezifischen Anforderungen der Hotelbranche hineindenken könne. „Auch jetzt, anlässlich des bevorstehenden Updates auf die neue Version 4.1 haben wir uns zusammengesetzt und neue Ideen entwickelt.“ Dazu zählt die neue Suchfunktion, womit sich in Zukunft die Media-Assets auf Basis von Kategorien durchsuchen lassen. Dadurch wird ein Suchvorgang so komfortabel wie in einem Online-shop, in dem man einfach die gewünschte Farbe oder Größe angibt, damit nur die relevanten Produkte angezeigt werden. Für Nutzer mit unterschiedlichen Rollen lassen sich zudem individuelle Suchoberflächen mit spezifischen Suchkategorien erstellen.

Derzeit baut die Deutsche Hospitality auch die Möglichkeiten, die Marketingmaterialien zu lokalisieren, weiter aus. Gerade für den Expansionskurs der Steigenberger Hotels and Resorts ist dies wichtig. Während Templates im Web-to-Print-System bisher nur in bestimmten, definierten Bereichen anpassbar waren, wird es im DAM-System zukünftig Vorlagen geben, die umfassend adaptierbar sind. Sämtliche Standardmaterialien, die ein neues Hotel als Grundausstattung benötigt, werden dann als offene Adobe-InDesign-Vorlagen direkt im DAM-System verfügbar sein. Anders gesagt: Das DAM-System wird somit auch zum CI-Portal.

]]>
IT-Director Startseite it-zoom Dokumentenmanagement und ECM
news-22085 Tue, 19 Feb 2019 12:10:29 +0100 Die Datenflut im Griff http://www.it-zoom.de/it-director/e/die-datenflut-im-griff-22085/ Die Tüv Rheinland Plus GmbH als Zulassungsdienst des Tüv Rheinland will ab sofort von einem reduzierten Aufwand beim Controlling von Aufträgen, deren Abarbeitung und dem Zahlungsfluss profitieren. DocXtrans, eine Lösung für erweitertes Dokumentenmanagement von Gedak IT Solutions, soll den Mitarbeitern helfen, die anfallende Datenflut schnell und zuverlässig zu bewältigen. Bisher musste das Personal viel Zeit verwenden, um abzugleichen, ob die tatsächlich angefallenen Gebühren für Zulassungserledigungen mit den angelegten Aufträgen und den erfolgten Zahlungen übereinstimmen. Denn die circa 250 Beschäftigten an 15 Standorten bearbeiten jährlich nicht nur mehr als 400.000 Vorgänge rund um die Zulassung, Ab- oder Ummeldung von Fahrzeugen, sondern kontrollieren zudem sehr heterogene Belege. Diese unterscheiden sich zum Beispiel in ihrem Format und ihrer Struktur, sodass eine standardisierte Dokumentenmanagementlösung diese in der Form nicht verarbeiten kann. Deshalb erfolgten Bearbeitung und Prüfung der Belege bisher manuell.

„Um diesen Prozess effizienter zu gestalten, haben wir zunächst online nach einer individualisierten Dokumentenmanagementlösung gesucht. Unsere Primärziele waren das Scannen, Archivieren und Auslesen von Quittungsbelegen mit dem Ziel, die manuellen Tätigkeiten zu reduzieren, die physische Ablage abzulösen und Prüfungen, Recherchen sowie Datenanreicherungen mit bestehenden Systemen zu ermöglichen“, erklärt Florian Cichon, Geschäftsführer der Tüv Rheinland Plus. Dabei sei das Unternehmen auf Gedak gestoßen, die in einer anschließenden Präsentation mit ihrer Lösung überzeugen konnten.

Innerhalb eines knappen halben Jahres wurde die Lösung implementiert. Dabei erfolgte auch eine Anbindung an die bestehende webbasierte Auftragsverarbeitungsplattform, auf der Händler, Autohäuser oder andere Gewerbetreibende Aufträge anlegen. Das Ergebnis ist eine auf das Anwenderunternehmen zugeschnittene Lösung. Die im Rahmen der Zulassungsgeschäfte entstehenden Belege werden gescannt und über den Archiver, welcher als Druckertreiber nahezu in jedes Betriebssystem implementiert werden kann, in eine bei Gedak gehostete Private Cloud übertragen. Das Programm erkennt charakteristische Merkmale wie die Quittungsbeträge und Kfz-Kennzeichen auf den Belegen und gleicht die Daten mit den dazugehörigen Pendants aus der Auftragsverarbeitungssoftware ab. Dabei stellt sie fest, wenn Informationen nicht übereinstimmen.

Kurze Amortisationszeit

Die Mitarbeiter in den Zweigstellen erhalten in einem Dashboard sowohl die gescannten Belege als auch Abweichungen in den Daten angezeigt. Sie können diese analysieren, manuell korrigieren oder über die anschließenden Schritte entscheiden. Weitere Rollen, zum Beispiel für die Zentrale, ermöglichen andere Perspektiven, unter anderem auf sämtliche Niederlassungen und offene Aufträge. „Auf diese Weise sparen wir viel Aufwand und Zeit und sichern unseren Service auf zeitgemäßem Niveau“, sagt Florian Cichon. Er rechnet damit, dass sich die Investition bereits nach eineinhalb bis zwei Jahren auszahlen wird.

Bild: Thinkstock/iStock

]]>
IT-Director Dokumentenmanagement und ECM
news-22082 Tue, 19 Feb 2019 10:17:00 +0100 Digitalsteuer: Trifft es Google und Co. hier in Kürze? http://www.it-zoom.de/it-director/e/digitalsteuer-trifft-es-google-und-co-hier-in-kuerze-22082/ Einem Medienbericht zufolge könnte in Neuseeland schon bald eine Digitalsteuer für die großen Internetkonzerne anfallen. Es ist eine alte Diskussion, die immer wieder aufs Neue in die Schlagzeilen gerät: welche Abgaben sollten die global agierenden Internetriesen zahlen? Aktuell sorgt in diesem Zusammenhang mal wieder Amazon für reichlich Unmut. Der Konzern soll im vergangenen Jahr Umsätze im Wert von elf Milliarden Dollar eingefahren haben, ohne dafür die üblichen Bundessteuern gezahlt zu haben. Im Gegenteil: Das Unternehmen habe sogar noch eine Gutschrift in Höhe von mehreren Millionen erhalten. Einsparungen, die unter anderem Donald Trumps Steuerreformen zu verdanken sind, von denen vor allem große Unternehmen profitieren.

Wie die „New Zealand Herald” berichtet, soll in Neuseeland bald Schluss mit diesen günstigen Bedingungen sein. Demnach verkündete Premierministerin Jacinda Ardern, dass derzeit eine Überarbeitung des neuseeländischen Steuersystems stattfinde, damit auch die global agierenden Digital-Unternehmen einen fairen Anteil an Steuern zahlen würden. Angedacht ist eine pauschale Abgabe von zwei bis drei Prozent auf den jährlichen Bruttoumsatz. Hoch digitalisierte Konzerne, die Social-Media-, Handels- oder Werbeplattformen anbieten, würden auf Basis der neuseeländischen Bevölkerung signifikante Einnahmen erzielen, ohne dafür die entsprechenden Steuern zu zahlen. Dies sei nicht fair und deshalb werde man etwas dagegen tun, so die Argumentation der Politikerin.

Kein Konsens auf internationaler Ebene

Unternehmen zahlen in Neuseeland normalerweise 28 Prozent Abgaben auf Gewinne. Die Regierung des Inselstaates hatte bereits im vergangenen Jahr eine umgangssprachlich „Amazon-Steuer” genannte Abgabe eingeführt. Die sollte sicherstellen, dass auch bei Importen über digitale Handelsplattformen der übliche Steuersatz gezahlt wird, damit lokale Händler nicht benachteiligt werden.

Auf EU-Ebene wird bereits seit geraumer Zeit ein Konsens für eine länderübergreifende Digitalsteuer gesucht. Dabei spielen allerdings auch die Interessen der OECD (Organisation for Economic Co-operation and Development) eine große Rolle, die bis zum kommenden Jahr ein internationales Abkommen vorlegen will. Diesen Vorschlag will Finanzminister Olaf Scholz abwarten, bevor eine Lösung auf europäischer Ebene vorangetrieben werden soll. Die USA, ebenfalls Mitglied der OECD, lehnen entsprechende Bemühungen ab. US-Behörden bezeichneten das Vorhaben als „diskriminierend”.

Bildquelle: Thinkstock/iStock

]]>
Philip Fassing IT-Director Startseite it-zoom Unternehmen
news-22073 Mon, 18 Feb 2019 09:34:25 +0100 DSGVO-konformer Einsatz von Testdaten http://www.it-zoom.de/it-director/e/dsgvo-konformer-einsatz-von-testdaten-22073/ „Es wird schon nichts passieren“ denken und hoffen viele IT-Verantwortliche, wenn es darum geht, Originaldaten zu Testzwecken zu verwenden. Ein zumeist riskantes Unterfangen, denn häufig handelt es sich dabei um personenbezogene Daten. Noch gefährlicher wird es, wenn die Daten in cloud-basierten Anwendungen zum Einsatz kommen, in Zeiten der EU-Datenschutz-Grundverordnung (DSGVO) ein Albtraum für jeden Datenschützer. Dabei ist das Generieren von funktionalen und gleichzeitig sicheren Testdaten aus Originaldaten dank aktueller IT-Lösungen einfach möglich.

Wozu werden Testdaten überhaupt benötigt? Unternehmen müssen Standardprodukte testen, bei denen personenbezogene Daten verarbeitet werden. Beispiele dafür sind CRM-Anwendungen, Buchhaltungs- und Recruiting-Software. Oder sie nutzen personenbezogene Daten für die Tests selbstentwickelter Software. Gerade wenn es sich um fach- und branchenspezifische Software handelt, sind die Anforderungen an Testdaten extrem hoch.

Um mögliche Risiken im operativen Betrieb auszuschließen, müssen diese Systeme regelmäßig intensiven Tests unterzogen werden. Aber bereits bei der Entwicklung der Anwendungen ist Vorsicht geboten: Werden externe Entwickler eingesetzt, müssen bereits hier strenge Datenschutzregeln eingehalten werden. Denn die DSGVO besagt, dass Daten ausschließlich für den Zweck verwendet werden dürfen, zu dem sie erhoben wurden und zu dem der Betroffene auch seine Einwilligung gegeben hat (DSGVO; Art. 6 Absatz 4, Buchstabe e). Das gilt natürlich ebenso für den Testbetrieb – ganz besonders in cloud-basierten Anwendungen. Im Klartext bedeutet dies: Nur korrekt pseudonymisierte oder anonymisierte Daten dürfen zu Testzwecken verwendet werden.

Reale Testszenarien im Fokus


Zusätzlich stehen die IT-Verantwortlichen noch vor einem anderen Problem: Die Testszenarien müssen möglichst realitätsnah sein. Unternehmen führen deshalb in vielen Fällen Testdatenbanken mit Pseudo-Einträgen: Eine mühsame Arbeit, die viel Zeit benötigt und häufig nicht den flexiblen Anforderungen der Tester entspricht. E-Mail-Adressen müssen beispielsweise noch als E-Mail-Adressen erkennbar sein, damit die Fachanwendung damit arbeiten kann und nicht in einen Fehlerzustand gerät. Bestimmte Informationen müssen darüber hinaus noch mit den Daten verknüpft sein.

Was dies bedeuten kann, zeigt ein Beispiel aus der Finanzbranche: Ein namhafter Schweizer Finanzdienstleister, der auch Kreditkarten ausstellt, muss seine eigene Software regelmäßigen Tests unterziehen. Diese Anwendung ist eine komplexe Eigenentwicklung, die strengsten Regulierungen und gesetzlichen Vorgaben wie dem Payment Card Industry Data Security Standard (PCI-DSS) unterliegt. Daher waren die Anforderungen klar: Es musste gewährleistet werden, dass die Testdaten aus 16-stelligen Kreditkartennummern bestehen, die mit entsprechenden Prüfziffern, Codierungen und Steuerinformationen verknüpft sind. Aus den Originaldaten sollten anonyme Testdaten werden, ohne dass Rückschlüsse auf die echten Daten gezogen werden können. Die größte Herausforderung bestand allerdings darin, dass die Lösung mit dem System des Unternehmens kompatibel sein muss und sowohl Webanwendungen, Dateien und Datenbanken wie DB2 und Oracle unterstützt.

Durch die eingesetzte Pseudonymisierungslösung von Eperi können alle rechtlichen und compliance-relevanten Vorgaben eingehalten werden. Eine Tokenisierung gewährleistet, dass keine Rückschlüsse auf die Originaldaten gezogen werden können, aber gleichzeitig unter realen Bedingungen getestet werden kann. Zusätzlich kann das Unternehmen die Testdaten ganz nach seinen Anforderungen konfigurieren, einzelne Parameter können so jederzeit angepasst werden. Ein weiteres Plus ist die nahtlose Einbindung in die bestehenden Systeme – Änderungen sind nicht nötig. Nutzt man Pseudonymisierungslösungen, die als transparenter Proxy vor die Testsysteme wie Datenbanken, Anwendungen oder Dateisysteme geschaltet werden, so minimiert sich der Integrationsaufwand und man kann in Echtzeit Testdaten erzeugen, die über alle Systeme konsistent sind.

Pseudonymisierung oder Anonymisierung?


Die DSGVO schreibt vor, personenbezogene Daten zu pseudonymisieren bzw. anonymisieren, das ist auch und gerade in Testumgebungen essentiell. Worin aber unterscheiden sich diese Verschlüsselungsarten? Die DSGVO definiert Pseudonymisierung als das Verarbeiten personenbezogener Daten so, dass die personenbezogenen Daten „ohne Hinzuziehung zusätzlicher Informationen nicht mehr einer spezifischen betroffenen Person zugeordnet werden können“ (Art. 4, Abs. 5 DSGVO).

Dies bedeutet, ein Originalwert wird durch einen anderen Wert ersetzt und die Zuordnung in einer entsprechenden Tabelle gespeichert. Bei Bedarf kann das Original so wieder rekonstruiert werden. Die Zuordnungstabelle kann getrennt von den Systemen, Anwendungen und Datenbanken auf-bewahrt werden. Tokenisierung – also die Erzeugung von Ersatzwerten für bestimmte Originalwerte – zählt zur Pseudonymisierung. Bei aktuellen Lösungen werden die Originalwerte nach der Tokenisierung verschlüsselt und erst dann in der in der eigenen Token-Datenbank abgelegt.

Dies ist ein Artikel aus unserer Print-Ausgabe 1-2/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Anonymisierung ist noch eine Stufe strikter als die Pseudonymisierung: Personenbezogene Daten werden dergestalt gespeichert und verarbeitet, „dass die betroffene Person nicht oder nicht mehr identifiziert werden kann“ (Vorwort 26 DSGVO). Im Gegensatz zur Pseudonymisierung schließt dies also das Speichern des Originalwertes und der Zuordnungstabelle aus. Durch die strenge Datenschutzauffassung eignet sich die Anonymisierung bestens für die Bereitstellung von Testdaten, denn es sind keine Rückschlüsse mehr auf die Originaldaten möglich.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom CRM
news-22063 Fri, 15 Feb 2019 11:35:22 +0100 Wo steht die Künstliche Intelligenz? http://www.it-zoom.de/it-director/e/wo-steht-die-kuenstliche-intelligenz-22063/ Der Bundestag berät über die richtige Strategie im Umgang mit Künstlicher Intelligenz. So sieht der Status quo aus >>> Wir tragen sie längst in der Hosentasche mit uns rum oder haben sie im Wohnzimmer stehen - Millionen Bundesbürger haben bereits jeden Tag Kontakt zu Künstlicher Intelligenz, wenn auch nur durch Siri im Telefon oder den Sprachassistenten Alexa. Doch die Unsicherheit ist groß: Vom Schreckensszenario „Maschinen übernehmen die Welt” bis hin zur Angst um Arbeitsplätze. Zugleich gewinnt künstliche Intelligenz in fast allen Lebensbereichen rasant an Bedeutung. Vor allem die Industrie setzt große Hoffnungen in einen Markt, der - zumindest in Deutschland - vielfach noch in den Kinderschuhen steckt.

„Schlüsseltechnologie” Künstliche Intelligenz:

KI ist ein Überbegriff - für unterschiedliche Maschinen und Programme, die ähnlich wie Menschen selbstständig lernen, urteilen und Probleme lösen können. Computer lernen, indem sie gewaltige Datenmengen auswerten. Ausgefeilte Algorithmen können in Bildern, Texten oder gesprochener Sprache Muster erkennen, anhand dieser Ereignisse vorhersagen und Entscheidungen treffen. So können sie inzwischen sogar auch Emotionen in menschlichen Gesichtern erkennen, zu eigenen Emotionen, Mitgefühl und echter Kreativität sind sie aber (noch) nicht fähig.

Künstliche Intelligenz im Alltag:

Lernende Systeme stecken nicht nur in der Spracherkennung von Apple und Amazon. Es gibt einen Google-Assistenten, der - deutlich authentischer als Siri und Alexa - Friseurtermine buchen kann. Auch, dass Handys Fotos nach bestimmten Merkmalen anzeigen - etwa alle mit Autos oder Palmen oder bestimmten Personen - liegt an Künstlicher Intelligenz. In Rasenmäher- oder Staubsaugerrobotern ist sie ebenfalls verbaut. In modernen Autos lassen sich Navigation, Telefon und Klimaanlage dank KI über die Sprache und teils sogar über Gesten steuern, auch in Einpark- und Spurhalteassistenten steckt Künstliche Intelligenz.

KI in Wirtschaft und Forschung:

In der Medizin soll KI bei der Früherkennung von Krebs unterstützen, Roboter führen Teile von Operationen schon jetzt wesentlich präziser durch als ein Chirurg. Das Deutsche Forschungszentrum für Künstliche Intelligenz arbeitet unter anderem an Exoskeletten, die zum einen an unzugänglichen Orten wie in Tiefsee oder Weltraum eingesetzt werden könnten, die aber auch Pflegekräften die körperlich anstrengende Arbeit erleichtern sollen.

Die lernenden Algorithmen sollen auch den Finanzmarkt erobern und die Aktienauswahl von Fonds steuern. In der Landwirtschaft arbeiten die Wissenschaftler an Systemen, die erkennen, ob Kartoffeln von Krankheiten befallen sind - der Einsatz von Fungiziden soll dadurch deutlich reduziert werden. Wohl bekanntester Einsatzbereich ist autonomes Fahren. KI muss dafür nicht nur Stoppschilder erkennen, sondern Gefahren vorhersehen - zum Beispiel antizipieren, dass einem Ball, der zwischen parkenden Autos auf die Straße rollt, ein Kind hinterlaufen könnte.

Deutschland will aufholen:

Weltweit führend bei der KI sind die USA und China mit Unternehmen wie Google, Amazon, Facebook, Apple, Alibaba oder Huawei. „Sie alleine investieren jedes Jahr Milliarden in KI”, sagt der Präsident des Digitalverbandes Bitkom, Achim Berg. Deutschland sei zwar in der Grundlagenforschung viele Jahre Weltspitze. „Aber es entstanden daraus zu wenige Produkte.” Industriepräsident Dieter Kempf sieht dennoch eine gute Ausgangsposition: „Wenn es uns in Deutschland gelingt, unser Industrie-Know-how mit KI-Know-how zu verbinden, werden wir uns eine hervorragende Wettbewerbsposition sichern.”

Die Strategie der Bundesregierung:

Die Bundesregierung will Forschung und Anwendung Künstlicher Intelligenz bis 2025 mit drei Milliarden Euro unterstützen - und baut darauf, dass Wirtschaft, Wissenschaft und Länder mindestens noch einmal genauso viel investieren. Unter anderem soll ein Netz von mindestens zwölf vernetzten Forschungszentren aufgebaut werden. An den Hochschulen werden 100 zusätzliche Professuren eingerichtet. Mittelständische Unternehmen sollen bei Tests unterstützt werden. Außerdem sollen mehr Daten zur Verfügung stehen, mit denen KI-Systeme lernen können.

In welchen Branchen KI wichtig wird:

In fast allen Branchen, sagen Wirtschaftsverbände. KI werde wichtig dort, wo Daten gesammelt und interpretiert werden können, dies treffe nahezu auf die gesamte Wirtschaft zu. Auch Berg sagt: „Künftig wird es kaum noch Produkte oder Dienstleistungen geben, die nicht auf die eine oder andere Weise KI-Technologie nutzen.” KI werde Grundlage für die Entwicklung autonomer Autos ebenso wie für eine effiziente Logistik mit optimaler Routenplanung. Und in der Fertigung seien KI-Systeme in der Lage, Fehler in Bauteilen automatisch zu erkennen.

Was KI für Jobs bedeutet:

Braucht man künftig noch Taxi- oder Busfahrer, wenn Autos und Busse autonom fahren? Und was passiert in den Fabriken? Die Wirtschaft versucht, Ängste zu nehmen. Zwar bringe es der technische Fortschritt mit sich, dass manche Tätigkeiten wegfallen und andere neu entstehen, sagt der Hauptgeschäftsführer des Deutschen Industrie- und Handelskammertags, Martin Wansleben. DIHK-Umfragen aber deuteten unterm Stich auf keine Beschäftigungsverluste hin.

Die Anforderungen an die Beschäftigten jedoch werden steigen. „KI wird in unser Berufsleben ebenso wie in unser Privatleben einziehen”, sagt Berg. „Dabei wird Künstliche Intelligenz in absehbarer Zukunft in den allermeisten Fällen niemandem die Arbeit komplett abnehmen, sondern uns bei unserer Tätigkeit unterstützen.”

Wann ist es so weit

Bis KI flächendeckend eingesetzt wird, dürfte es noch dauern. Erst 20 Prozent aller deutschen Unternehmen wenden KI an, 30 Prozent befinden sich noch in der Entwicklungsphase, so der BDI. In einer repräsentativen Bitkom-Befragung geben zwei Drittel der Bürger an, dass KI spätestens in zehn Jahren die Gesellschaft spürbar verändert haben wird.

dpaTheresa Münch/Andreas Hoenig/pf

]]>
IT-Director Startseite it-zoom IT-Markt
news-22064 Fri, 15 Feb 2019 11:25:36 +0100 Hohe Datendichte am Netzwerkrand http://www.it-zoom.de/it-director/e/hohe-datendichte-am-netzwerkrand-22064/ Vor allem große Datenmengen, die zunächst aggregiert, sicher verschlüsselt und vorverarbeitet werden müssen, werden in der Edge verarbeitet, betont Dr. Jens Struckmeier von Cloud & Heat Technologies. IT-DIRECTOR: Herr Struckmeier, nicht nur im Internet of Things (IoT) werden leistungsfähige Kapazitäten am Netzwerkrand benötigt. Inwieweit stößt man hierzulande bereits auf erfolgreiche Edge-Computing-Installationen?
J. Struckmeier:
Wir stehen noch am Anfang der größten industriellen Revolution der Menschheit. Edge Computing als überall verfügbarer sicherer, leistungsstarker Datenspeicher und ultraschnelle Verarbeitung steckt hierzulande noch in den Kinderschuhen. Um die großen Vorteile auszuspielen, ist der Ausbau einer geeigneten Infrastruktur (Glasfaser und/oder die nächste Mobilfunkgeneration 5G) notwendig. Dann wird es auch für jedermann möglich, Anwendungen (z. B. Augmented Reality, Echtzeitbilderkennung, Künstliche Intelligenz) auch für Tablets und Handys zu entwickeln bzw. anzubieten.

IT-DIRECTOR: In welchen Branchen und für welche Anwendungsfälle spielen Edge Computing und sogenannte „Edge Datacenter“ momentan eine bedeutende Rolle?
J. Struckmeier:
Schon länger bekannt, wenn auch zunächst anders benannt, sind kleine performante Rechenzentren etwa für das High-Speed-Trading von Banken. Diese müssen in unmittelbarer Nähe zu den Börsen stehen, um im kleinen einstelligen Millisekundenbereich über kaufen und verkaufen zu entscheiden. Ein anderes Feld sind Industrieanwendungen, die lokal hohe Datenmengen erzeugen. Ein Beispiel hierfür sind Automobilzulieferer, die Sensordaten für das Autonome Fahren sammeln, aggregieren und einen komprimierten, aggregierten Datensatz vor Ort zur Auswertung erstellen.

IT-DIRECTOR: Welche Daten werden dabei am Netzwerkrand verarbeitet und welche an „klassische“ Rechenzentren weitergeleitet?
J. Struckmeier:
Große Datenmengen, die zunächst aggregiert, sicher verschlüsselt und vorverarbeitet werden müssen, werden in der Edge verarbeitet. Hierzu zählen insbesondere alle wirklich latenz- und zeitkritischen Anwendungen, z. B. Maschinendaten in der Industrie, Sensordaten in Gebäudekomplexen und Videoaufzeichnungen in Stadien und Städten nebst Gesichtserkennung. Einen weiteren Trend sehen wir im Zusammenhang mit Datenschutz, Sicherheit und Vertrauen, dass Kunden die Daten lieber in ihrer (sicheren) Nähe haben, als nicht nachvollziehbar irgendwo in der Welt auf einem Cloud-Rechenzentrum.

IT-DIRECTOR: Worauf kommt es bei der Verbindung zwischen Netzwerkrand und den „klassischen“ Rechenzentren besonders an?
J. Struckmeier:
Als Physiker sehe ich nach wie vor die Übertragung mit Licht als die zukunftsträchtigste Technologie. Eine echte Glasfaseranbindung wird nicht nur heute, sondern auch in der ferneren Zukunft die beste (schnellste und zuverlässigste) Anbindung ermöglichen. Die Fortschritte im Mobilfunk werden lokal auch eine Anbindung per Funk möglich machen. Die Spezifikationen und ersten Teststellungen für 5G sind vielversprechend.

IT-DIRECTOR: Wie lassen sich Edge-Datacenter-Infrastrukturen besonders energieeffizient betreiben?
J. Struckmeier:
Am Netzwerkrand spielen Platz, Datendichte und Kühlung eine entscheidende Rolle. Hier wird es einen Paradigmenwechsel weg von den veralteten luftgekühlten Servern geben. Eine moderne Flüssigkeitskühlung ermöglicht es, die Wärme um den Faktor 4.000 besser weg zu transportieren. Damit kann eine zehn- bis 100-mal höhere Leistungsdichte erreicht werden und laute sowie stromfressende Ventilatoren entfallen. Ein leiser Rückkühler auf dem Dach ersetzt dann die klassische und energiefressende Klimatechnik.

Das es noch effizienter geht, zeigen wir in unseren Rechenzentren in Deutschland und Norwegen. Hier erwärmen die Server einen Wasserkreislauf nicht nur auf 60 Grad Celsius, sondern setzen die Abwärme zum Beheizen der umliegenden Häuser ein. So beheizen wir Wohnkomplexe mit 150 Wohnungen, Reihenhaussiedlungen und freistehende Niedrigenergie- oder Passivhäuser mit der Abwärme der Server in den Kellern der Gebäude oder in Heizzentralen. Die ersten Anlagen laufen sicher und zuverlässig seit 2012.

IT-DIRECTOR: Stichwort Ausfallsicherheit: Ein funktionierender Netzwerkrand wird für viele Unternehmen immer geschäftskritischer. Wie können Ausfallsicherheit und nahtlose Energieversorgung beim Edge Computing gewährleistet werden?
J. Struckmeier:
Smarte Kombinationen von lokalen Rechenzentren mit Stromerzeugern ermöglichen ganz neue dezentrale Ansätze. Wir kombinieren unsere Server mit Solaranlagen. Ein Stromspeicher kann nicht nur nachts den Strom erzeugen, sondern pfiffig konfiguriert auch gleich als Unterbrechungsfreie Stromversorgung (USV) dienen.

Auch eine Kombination mit einem umweltfreundlichen Gas-BHKW macht nicht nur ökologisch, sondern vielfach auch ökonomisch Sinn. Das „normale“ Rechenzentrum wird dabei quasi zu einem gasbetriebenen Rechenzentrum. Die Netzstabilität von Gas ist um ein Vielfaches höher als die des Stromnetzes. Den Stromanschluss hätte man dann noch als Redundanz.

Ein weiterer interessanter Aspekt ist die Software. Zunehmend werden Applikationen als Mikroanwendungen oder „containerisiert“ geschrieben, die sich leicht migrieren lassen. Damit kann ein hochverfügbarer Betrieb sichergestellt werden, in dem mehrere kleine Standorte gekoppelt werden und die Anwendung den jeweiligen Verarbeitungsort dynamisch aussucht. Damit können beispielsweise von drei lokalen und vernetzten Edge-Rechenzentren bis zu zwei ausfallen, ohne dass die unternehmenskritische Infrastruktur und Anwendungen offline gehen. Wir bieten dazu spezielle Private-Cloud-Lösungen, mit denen sich eine solche hochsichere Infrastruktur aufbauen lässt.

IT-DIRECTOR: Wie stellen sich etablierte RZ-Betreiber bzw. Colocation-Anbieter derzeit auf Edge-Technologien ein?
J. Struckmeier:
Etablierte RZ-Betreiber und Colocation-Anbieter haben ein etabliertes Geschäftsmodell und sehen nach wie vor großes Wachstum in diesem Bereich. Hier ist der Druck zum Wandel nicht sehr ausgeprägt. Wir sehen, dass es auf Kundenseite einen Paradigmenwechsel weg von den großen US-dominierten Anbietern geben wird. Neue Player erscheinen im Markt, die grünere und sicherere Lösungen im Quartier, on premise, national oder international anbieten können. Herausforderung für die Etablierten wird es sein, diesen Trend nicht zu verschlafen und den Wandel als weitere Chance zu sehen, schließlich wird sich der Rechenzentrumsmarkt und damit auch der Stromverbrauch dieser, laut diverser Studien, bis 2020 verdreifachen.

]]>
Ina Schlücker IT-Director Rechenzentrum / Server
news-22062 Fri, 15 Feb 2019 11:22:10 +0100 Die Netzwerke am Rande der Welt http://www.it-zoom.de/it-director/e/die-netzwerke-am-rande-der-welt-22062/ Mit der Verbreitung von Edge Computing geht der Wandel der weltweiten Infrastrukturen einher, wenn an immer mehr Endpunkten von Netzwerken leistungsfähige ­Rechenressourcen aufgebaut werden. Sprach man bislang über dezentrale Infrastrukturen, ging es meist darum, die IT von weltweit verteilten Standorten, Filialen und Produktionsstätten an das zentrale Rechenzentrum des jeweiligen Unternehmens anzubinden. Doch damit ist es heute nicht mehr getan. Denn im Zuge der Verbreitung des Internets der Dinge müssen immer mehr Endpunkte integriert werden. Um die Netze nicht über Gebühr mit unkritischem Datenverkehr zu belasten, soll sich am Netzwerk­rand künftig das sogenannte Edge Computing etablieren.

Dahinter verbirgt sich der Ansatz, die im Internet of Things (IoT) anfallenden Daten quasi in „Mini-Rechenzentren“ dezentral zu verarbeiten. Doch wie sehen die Orte des Geschehens aus? Wie lassen sich die hohen Datenmengen schnell und sicher verarbeiten? Und worauf sollte man beim Aufbau des benötigten Rechen- oder Speicherbedarfs besonders achten? An der Frage, inwieweit sich Edge Computing hierzulande bereits als Bestandteil von Infrastrukturen etabliert hat, scheiden sich derzeit die Geister. Es gibt Stimmen, die noch viel Potential für Edge-Installationen sehen, andere hingegen führen bereits erfolgreiche Beispiele ins Feld. „Wir stehen am Anfang der größten industriellen Revolution der Menschheit. Edge Computing als überall verfügbarer sicherer, leistungsstarker Datenspeicher und ultraschnelle Verarbeitung steckt hierzulande noch in den Kinderschuhen“, beleuchtet Dr. Jens Struckmeier, CTO von Cloud & Heat Technologies, die eine Seite. Um künftig alle Vorteile der Technologie ausspielen zu können, sei zunächst der Ausbau einer geeigneten Infrastruktur (Glasfaser und/oder die nächste Mobilfunkgeneration 5G) notwendig.

„Erst dann wird es für jedermann möglich sein, Anwendungen wie Augmented Reality, Echtzeitbilderkennung oder Künstliche Intelligenz flächendeckend zu entwickeln bzw. anzubieten“, so Struckmeier weiter. Demgegenüber verweist Klaas Mertens, Global Solutions Architect bei Equinix, auf konkrete Einsatzszenarien. Seiner Ansicht nach sind Edge Datacenter unabdingbar für alle Anwendungsfälle, in denen große Datenmengen flächendeckend verteilt werden müssen. Als Beispiel führt er Streaming-Dienste wie Netflix oder Amazon Video an, die Filme und Serien möglichst nah an den Nutzern speichern, um schnelle Übertragungen zu ermöglichen. Auch Smart-Home-Anwendungen wie Google Assistant oder Amazons Alexa sprechen für die heutige Verbreitung von Edge-Computing-Installationen in vielen Ländern.

Auch Andreas Keiger, Executive Vice President Global Business Unit IT bei Rittal, geht davon aus, dass ein dezentraler Ausbau der IT-Infrastruktur über Edge-Rechenzentren für viele Unternehmen schon Realität geworden ist. Fabriken etwa müssten mit vernetzten und automatisierten Fertigungsstraßen die anfallenden Datenströme in Echtzeit verarbeiten. In diesem Zusammenhang verweist Keiger auf den Rittal-Kunden Thyssenkrupp Steel: „Das Unternehmen installiert an seinen Produktionsstandorten neue Edge-Rechenzentren mit Cloud-Anbindung, um damit die Digitalisierung von produktionsnahen Prozessen voranzutreiben.“ Nicht zuletzt skizziert Jens Struckmeier ein weiteres Beispiel: Schon länger bekannt seien kleine performante Rechenzentren für das High-Speed-Trading von Banken. „Diese müssen in unmittelbarer Nähe zu den Börsen stehen, um im kleinen einstelligen Millisekundenbereich über kaufen und verkaufen zu entscheiden“, berichtet Struckmeier.

Der eingangs erwähnte Ausbau geeigneter Infrastrukturen könnte zudem bald dafür sorgen, dass sich weitere Edge-Anwendungen durchsetzen. Dann wird die Technologie im Smart Home und beim Autonomen Fahren eine Rolle spielen, ist sich Thomas Sting, Geschäftsführer bei der DC-Datacenter-Group, sicher. Denn immer dort, wo Caching und das (Vor-)Verarbeiten von Daten Geschwindigkeitsvorteile bringen und Latenzzeiten verringeren, spielt die Technologie ihre Stärken aus.

Physikalische Sicherheit spielt wichtige Rolle

Generell kommt Edge Computing an allen Standorten zum Zuge, an denen große Datenmengen vor Ort erfasst, gebündelt und anschließend weitergeleitet werden müssen. „Hierunter fällt beispielsweise hochspezialisierter Maschinenbau“, betont Oliver Fronk, Vertriebsleiter bei der Prior1 GmbH. Darüber hinaus würde in Zukunft sicherlich auch die automatisierte Landwirtschaft entsprechende Ressourcen benötigen, ergänzt Fronk.

Geht es um die Konzeption und Implementierung neuer Ressourcen am Netzwerkrand, bieten sich verschiedene Vorgehensweisen an. „Bei unseren Kunden spielt zunächst die physikalische Sicherheit eine wichtige Rolle. Denn oft stehen die Edge-Systeme in Lagerhallen oder sind in Stahlcontainern auf Freiflächen aufgebaut“, berichtet Andreas Keiger. Um Sabotage oder Datenmanipulationen zu vermeiden, seien entsprechend gesicherte IT-Racks und Einhausungen notwendig. Die derart gesicherten Rechenzentren sollte man schließlich über redundante Kabel- und Funkverbindungen mit dem Internet verbinden, sodass eine ausfallsichere Cloud-Anbindung realisiert werden kann.

Laut Marcel Kempe, Head of Governance and Standards bei Noris Network, sollte ein Netzwerk von Tausenden von Edge-Rechenzentren idealerweise ohne aktive Kühlung auskommen. Stattdessen brauche es für solche kleinen Einheiten robustere, temperaturunempfindlichere Compute- und Storage-Einheiten als die, die heute in klassischen Rechenzentren noch aktive Kühlsysteme erforderlich machen. Dies bestätigt Kempe: „Aktiv gekühlte Edge-Rechenzentren wären extrem unwirtschaftlich, schon weil die Kühlanlagen störungsanfällig und wartungsintensiv sind.“ Und Jens Struckmeier fügt hinzu, dass „am Netzwerkrand Platz, Datendichte und Kühlung eine entscheidende Rolle spielen. Hier wird es einen Paradigmenwechsel weg von den veralteten luftgekühlten Servern geben.“

Eine moderne Flüssigkeitskühlung ermögliche es hier, die Wärme um den Faktor 4.000 besser von der Hardware weg zu transportieren. Damit könne nicht nur eine zehn- bis 100-mal höhere Leistungsdichte erreicht werden, sondern gleichzeitig würden auch laute, stromfressende Ventilatoren entfallen. „Ein leiser Rückkühler auf dem Dach ersetzt dann die klassische und energiefressende Klimatechnik“, rät der RZ-Spezialist.

Neben der energieeffizienten Kühlung sollte die Ausfallsicherheit von Edge-Installationen im Vordergrund stehen. „Meist werden Edge-Rechenzentren genauso abgesichert wie große zentrale RZ-Standorte – nämlich mittels redundant aufgebauter Stromversorgung und Notstromdieseln“, sagt Klaas Mertens. Sollten hingegen deutlich kleinere Edge-Installationen ausfallen, wird der Ausfall hingenommen und die Leistung durch benachbarte Edge-Lokationen nahtlos übernommen. „Moderne Infrastrukturtechniken wie Containerized Applications und die Distribution und Replikation von Daten aus einer zentralen Lokation sorgen hier für permanente Verfügbarkeit“, so Mertens weiter. Dazu ergänzt Andreas Schürkamp, Bereichsleiter Consulting bei der DC-Datacenter-Group: „Der Trick ist, dass es beim Vorlagern von Rechenleistung zwar eben keine hohen Anforderungen mehr gibt. Dennoch sind hohe Bandbreiten, eine hohe Ausfallsicherheit und geringe Latenzzeiten von Vorteil.“ Wenn Edge Computing so aufgebaut sei, dass benachbarte Knoten einen Ausgefallenen „ersetzen“ können und Netzwerkkonnektivität als Mesh funktioniert, dann ist das Ziel erreicht.

Hinsichtlich der Stromversorgung hat Jens Struckmeier mehrere Alternativen in petto: „Spezielle Kombinationen von lokalen Rechenzentren mit Stromerzeugern ermöglichen neue dezentrale Ansätze. Wir kombinieren unsere Server etwa mit Solaranlagen. Ein Stromspeicher kann nicht nur nachts den Strom erzeugen, sondern pfiffig konfiguriert auch gleich als Unterbrechungsfreie Stromversorgung (USV) dienen.“ Auch die Kombination mit einem Gas-Blockheizkraftwerk (BHKW) mache nicht nur ökologisch, sondern vielfach auch ökonomisch Sinn. Das „normale“ Rechenzentrum wird laut Struckmeier dabei quasi zu einem gasbetriebenen Rechenzentrum. „Dabei ist die Netzstabilität von Gas um ein Vielfaches höher als die des Stromnetzes. Den Stromanschluss hätte man dann noch als Redundanz“, so Struckmeier weiter.

Extrem niedrige Latenzzeiten

Doch welche Daten sollten überhaupt am Netzwerk­rand verbleiben und welche an zentrale Rechenzentren weitergeleitet werden? Laut Oliver Fronk werden Prozess- und Steuerdaten sicherlich nicht Hunderte von Kilometern über das Netz transportiert, bei Konstruktions- oder Entwicklungsdaten hingegen sehe die Sache anders aus. Sie wandern in zentrale Rechenzentren, um dort langfristig gespeichert zu werden. Ähnliches berichtet Andreas Keiger. Seiner Ansicht nach werden am Netzwerkrand vor allem Echtzeitdaten verarbeitet, auf die Maschinen oder Systeme unmittelbar reagieren sollten. Dies können Sensordaten von einer Maschinensteuerung innerhalb von IoT-Umgebungen sein, Nutzungsdaten der Fahrzeuge eines Fuhrparks oder die Auslastung von Mobilfunknetzen. Die weitergehende Analyse dieser Daten erfolge dann in zentralen Rechenzentren oder Cloud-Systemen, beispielsweise für Machine-Learning- und Predictive-Maintenance-Lösungen.

An diesem Punkt ergänzt Reinhard Purzer, Vice President und Managing Director DACH bei Vertiv, dass große Datenmengen, die in Echtzeit verarbeitet werden müssen und ex­trem niedrige Latenzzeiten erlauben, oftmals schlichtweg zu groß und auch zu teuer für den schnellen Transport über große Distanzen in eine Cloud und zurück sind. Das würde auch Verbindungen mit extrem hoher Bandbreite erfordern, die meist einfach nicht zur Verfügung stehen oder sehr kostenaufwendig sind. Solche Daten würden immer häufiger direkt am Netzwerkrand verarbeitet. Weitere Beispielanwendungen sind neben den genannten Applikationen HD-Inhalte, medizinische Geräte oder auch der Aktienhandel. Für Autonomes Fahren wird Edge Computing sogar zur Voraussetzung. Denn laut Reinhard Purzer werden ohne 5G und ohne Rechenkapazitäten am Netzwerkrand die Autos nicht selbst fahren.

Dies ist ein Artikel aus unserer Print-Ausgabe 1-2/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Nicht zuletzt sollte die Übertragung der Daten vom Netzwerkrand in zentrale Rechenzentren entsprechend abgesichert sein. Dabei sind sämtliche Faktoren, die in Netzwerken generell eine Schlüsselrolle spielen, wichtig, darunter Verfügbarkeit, Kapazität oder Sicherheit. „Wer mit Diensten Geld verdienen will, muss die Servicequalität sichern. In kritischen Anwendungen schließt dies beispielsweise eine priorisierte Weiterleitung der benötigten Daten über die gesamte Kette vom Endgerät über die Edge Cloud bis hin zur klassischen Cloud mit ein“, erklärt Marcel Kempe. Und Andreas Schürkamp unterstreicht abschließend, dass man das Thema Sicherheit heutzutage generell nie außer Acht lassen sollte, denn auch Edge-Rechenzentren könnten als Einfallstore für Cyberattacken dienen.

Bildquelle: Thinkstock/iStock

]]>
Ina Schlücker IT-Director Startseite it-zoom Rechenzentrum / Server
news-22060 Fri, 15 Feb 2019 11:06:04 +0100 Darum digitalisiert Sausalitos den Einkauf http://www.it-zoom.de/it-director/e/darum-digitalisiert-sausalitos-den-einkauf-22060/ Alle rund 40 Betriebe der Restaurantkette Sausalitos haben ihren Einkauf mit dem E-Procurement-System Sourcify.net weitgehend digitalisiert. Die Restaurants konnten so ihren Einkauf vereinfachen und transparent machen. Innerhalb von drei Monaten wurde Sourcify.net in allen Sausalitos-Restaurants eingeführt. Knapp 100 Nutzer wurden dazu geschult. Die kurze Einführungszeit war möglich, da die Anwender die mehrsprachige Plattform intuitiv bedienen können.

Sourcify.net bildet jeden einzelnen Schritt von der Ausschreibung und Bestellung, über Wareneingangs- und Rechnungsprüfung bis hin zur Materialwirtschaft inklusive Inventuren, Rezepturen und Kassenanbindungen digital ab. Auch die Verwaltung von Verträgen und Katalogen sowie der Dienstleistungseinkauf sind integriert. Bereits 350 Betriebe der Hotellerie und Gastronomie nutzen die Lösung für ihren Einkauf, heißt es.

Standardartikel seien mit Preisen hinterlegt, welche bereits vom System vorverhandelt wurden. Mit einem Klick können alle gewonnen Daten aus den Einkaufsprozessen auf einen Blick abgerufen werden. So behalte die Einkaufsabteilung stets die volle Kontrolle über alle Vorgänge.

Michael Schneider, Area Manager der Sausalitos Holding GmbH, erklärt: „Unser Ziel ist es, den Einkauf unserer deutschlandweit verteilten Restaurants kosteneffizient und strukturiert zu steuern. Das Einkaufsteam ist dabei auf professionelle Tools angewiesen, um die Beschaffungsdaten transparent erfassen zu können.“ Mit dem neuen System habe man eine Lösung gefunden, mit welcher positive Effekte für Einkauf und Warenwirtschaft generieren werden.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom E-Commerce / Marketing
news-22056 Thu, 14 Feb 2019 17:02:31 +0100 Technologievorsprung: Wie gefährlich wird China? http://www.it-zoom.de/it-director/e/technologievorsprung-wie-gefaehrlich-wird-china-22056/ Die EU-Kommission befürchtet, dass China aufgrund seiner technologischen Vormachtstellung ein Sicherheitsrisiko für Europa werden könnte. Neunzig Prozent aller IT-Geräte würden in Asien hergestellt, China kontrolliere den Großteil der für die Fertigung von IT-Geräten notwendigen Rohstoffe, sagte EU-Sicherheitskommissar Julian King in München. China investiert nach Kings Worten zudem ein Vielfaches der in Europa ausgegebenen Summen in Künstliche Intelligenz. „Ein solches Niveau der Abhängigkeit schafft Risiken”, sagte der britische Politiker bei einer Cyberkonferenz im Vorfeld der Münchner Sicherheitskonferenz an diesem Wochenende.

Auch im Streit um eine Beteiligung des chinesischen IT-Ausrüsters Huawei am Aufbau der europäischen 5G-Netze schlug King skeptische Töne an. „Aus meiner Sicht ist es höchste Zeit für Europa, manche Entscheidungen zu treffen.” So müsse diskutiert werden, ob es sinnvoll sei, wenn einzelne europäische Länder den Aufbau des 5G-Netzes einzelnen Unternehmen überließen, sagte King. Der Sicherheitskommissar nannte Huawei in dieser Passage seiner Rede nicht namentlich, doch ist der chinesische Konzern Weltmarktführer bei der Netzwerkausrüstung. King forderte ganz generell engere europäische Zusammenarbeit in der Cybersicherheit: „Wir müssen weiter gehen als bisher und schneller sein”, sagte der Brite.

Die USA, Japan, Australien, Neuseeland und mehrere andere Länder haben Huawei wegen Sicherheitsbedenken mittlerweile ganz oder teilweise von sicherheitsrelevanten Telekom-Netzen ausgeschlossen. Der Anlass: Auf Basis des chinesischen Geheimdienstgesetzes können jeder Bürger und jede Organisation verpflichtet werden, Informationen preiszugeben. Der Bund hatte im vergangenen Sommer bereits den Einstieg des staatlichen chinesischen Stromnetzkonzerns SGCC in das deutsche Stromnetz blockiert.

BSI hält sich zurück

Die deutschen Cyberwächter wollen öffentlich keine Empfehlung für oder gegen den Ausschluss des chinesischen Mobilfunkausrüsters Huawei vom Aufbau des 5G-Netzes aussprechen. „Das ist eine politische Entscheidung, sagte Arne Schönbohm, Chef des Bundesamts für Sicherheit in der Informationstechnik (BSI) auf einer separaten Veranstaltung in München. Aufgabe des BSI sei es, eine sichere Netzwerkarchitektur zu gewährleisten.

Das BSI will bei den technischen Anforderungen für die 5G-Technologie sicherstellen, dass ein möglicher Angriff keinen Kollaps des Netzes zur Folge hätte: „Ich möchte, dass wir nicht einen Single Point of Failure einbauen”, sagte Schönbohm. Mit diesem Fachbegriff werden Systemkomponenten oder Systempfade bezeichnet, durch die im Fehlerfall das System nicht mehr betriebsbereit ist. BSI und Bundesnetzagentur seien dabei, den Anforderungskatalog zu überarbeiten, sagte Schönbohm. Er wolle eine einheitliche Sicherheitsarchitektur, „so dass Fremdsteuerung nach Möglichkeit ausgeschlossen werden kann.”

dpa/pf

]]>
IT-Director Startseite it-zoom Sicherheit
news-22055 Thu, 14 Feb 2019 15:46:39 +0100 Risiken der Open-Source-Lizenzierung http://www.it-zoom.de/it-director/e/risiken-der-open-source-lizenzierung-22055/ Eine Studie des Lizenzspezialisten Flexera zeigt: Während der Anteil von Open Source Software (OSS) zunimmt, sind Unternehmen oft nicht in der Lage die damit verbundenen Lizenz- und Compliance-Verpflichtungen zu erfüllen. Für den Report „State of Open Source License Compliance“ analysierte der Anbieter Daten aus insgesamt 134 Audits, bei denen der Umfang der Nutzung von Open-Source-Lösungen in Unternehmen bis auf Codeebene erfasst wurde. Die Audit-Teams prüften eigenen Angaben zufolge die identifizierten OSS-Komponenten sowohl auf bekannte Schwachstellen als auch auf die Einhaltung der Compliance-Vorgaben. Die Ergebnisse des Open-Source-Reports:

  • Pro Audit konnte Flexera durchschnittlich 367 kritische Fälle aufdecken. Die große Mehrheit (98 Prozent) war den Unternehmen vor Beginn des Audits nicht bekannt.
  • Rund 16 Prozent der Treffer wurden als kritische Compliance-Risiken (Prioritätsstufe 1) eingestuft und erforderten sofortige Gegenmaßnahmen. Dazu gehören u.a. schwere Verstöße gegen Copyleft-Lizenzen, die APGL und GPL betreffen. Weitere zehn Prozent der entdeckten OSS-Fälle fielen unter Prioritätsstufe 2 (z. B. sekundäre Probleme mit kommerziellen Lizenzen). 71 Prozent der Ergebnisse entsprachen der Prioritätsstufe 3, darunter risikoarme Probleme im Zusammenhang mit permissiven Lizenzen von BSD, Apache oder MIT.

Durchschnittlich stießen die Lizenzanalysten alle 32.873 Codezeilen auf ein Compliance-Risiko, eine Schwachstelle oder Ähnliches. Diese Trefferquote erscheint zwar auf den ersten Blick relativ klein. Berücksichtigt man jedoch die tatsächliche enorme Anzahl an Code, aus denen sich Software-Produkte zusammensetzen, verändert sich das Bild. So umfasst beispielsweise die Software in modernen Autos durchschnittlich 80 bis 100 Millionen Codezeilen pro Fahrzeug.

Im Zuge der Auswertung verglichen die Analysten die Ergebnisse von forensischen Audits im Rahmen von Übernahmen und Fusionen mit weniger tiefgreifenden Baseline-Audits. Das Ergebnis: Bei M&A-Audits konnten die Analysten 30 Prozent mehr OSS-kritische Fälle der Prioritätsstufe 1 identifizieren. Bei Vorfällen der Prioritätsstufe 2 und 3 waren es sogar 224 bzw. 245 Prozent mehr. Insgesamt lieferten Forensic Audits damit doppelt so viele Ergebnisse wie eine oberflächliche Überprüfung auf Open Source.

„Mit dem Trend zu immer agileren Entwicklungsprozessen, werden Compliance- und Sicherheitsfragen beim Einsatz von Open Source oft nicht ausreichend beleuchtet. Das trifft vor allem dann zu, wenn das Unternehmen keine klaren Richtlinien zur Nutzung und Erfassung von OSS vorgibt. Viele verlassen sich auf eine oberflächliche Analyse der verwendeten Komponenten. So bleiben Details wie z.B. Snippets, die über Copy und Paste in den Code gelangen, verborgen”, erklärt Nicole Segerer, Head of IoT DACH bei Flexera. „Zudem gilt es, den gesamten Software-Zyklus im Auge zu behalten. Open-Source-Code stammt in den meisten Fällen aus unterschiedlichen Quellen wie Containern, Build Dependencies oder Binärdateien. Es geht also nicht nur darum, den eigenen, intern entwickelten Code zu kennen, sondern auch zu wissen, was über externe Partner und Drittanbieter hinzufügt wurde.“

Um Compliance-Verpflichtungen einzuhalten und Sicherheitsrisiken von Software-Schwachstellen zu minimieren, sei den Verantwortlichen daher dringend geraten, klar definierte Richtlinien und Prozesse für die Dokumentation von Open Source einzuführen. Die Implementierung eines formalen Prozesses könne unter anderem folgende Punkte umfassen:

  • Interne Richtlinien zum Umgang von Open Source Software
  • Stakeholder-Trainingsmaßnahmen zur Schärfung des Sicherheitsbewusstseins
  • Automatisierte Software-Monitoring- und Scanning-Tools (z. B. Software Composition Analysis)
  • Aufbau eines Lieferantenprogramms zur besseren Verwaltung der Anforderungen Dritter
  • Gründung eines Open Source Review Board (OSRB)

Bildquelle: Thinkstock/iStock

]]>
IT-Director Asset- und Lizenzmanagement
news-22053 Thu, 14 Feb 2019 15:45:05 +0100 Hybrid Cloud für Continental http://www.it-zoom.de/it-director/e/hybrid-cloud-fuer-continental-22053/ Der Automobilzulieferer Continental erweitert seine Cloud-Infrakstruktur. Anwendungen sollen zukünftig über ein hybrides Modell bezogen werden. Auf Basis der künftigen hybriden Cloud-Architektur könne Continental dynamisch SAP- und Non-SAP-Services beziehen. Das gehe wahlweise aus der Public oder Private Cloud. „Wir haben gute Erfahrungen mit der Private Cloud gemacht“, sagt Christian Eigler, Corporate CIO bei Continental, „jetzt gehen wir den nächsten Schritt. Ich kann mir gut vorstellen, in wenigen Jahren einen großen Teil der SAP-Anwendungen aus der Public Cloud zu beziehen.“ Mit der ergänzenden Public Cloud soll Continental nicht nur kostenoptimiert arbeiten können, auch Innovationen ließen sich schneller testen und bei Bedarf in den laufenden Betrieb integrieren.

Die neuen Dienste aus der Hybrid Cloud werden weiterhin von T-Systems zur Verfügung gestellt. Beide Unternehmen haben jetzt einen Vertrag über die Umsetzung der neuen Strategie von Continental unterzeichnet. T-Systems betreut für Continental weltweit rund 500 SAP-Systeme, die etwa 60 Millionen Rechenschritte pro Stunde leisten sollen. Rund 75.000 Nutzer an 600 Standorten greifen auf die Systeme zu.

]]>
IT-Director Startseite it-zoom Infrastruktur
news-22054 Thu, 14 Feb 2019 15:43:46 +0100 Gespaltene Reaktionen auf EU-Urheberrecht http://www.it-zoom.de/it-director/e/gespaltene-reaktionen-auf-eu-urheberrecht-22054/ Kritiker befürchten eine Einschränkung der Meinungsfreiheit, Verlage feiern die Einigung als neue Chance – die Reaktionen auf die jüngsten Fortschritte beim EU-Urheberrecht fallen durchwachsen aus. Bessere Verdienstchancen für Verleger, Autoren und Musiker - neue Vorgaben für Internetplattformen wie Youtube und Co: EU-Unterhändler haben sich nach langem Streit auf neue Regeln für den Schutz von Urheberrechten geeinigt. Während sich Verleger hochzufrieden zeigten, kam von Verbraucherschützern und Internet-Aktivisten drastische Kritik. Zensur im Internet sei damit Tür und Tor geöffnet, beklagten sie.

Unterhändler der EU-Staaten und des Europaparlaments hatten am Mittwoch einen Kompromiss bei der Reform ausgehandelt, die bereits seit 2016 diskutiert wird. Enthalten sind zwei zentrale Neuerungen: Suchmaschinen sollen für das Anzeigen von Artikel-Ausschnitten etwa auf den Google-News-Seiten künftig Geld an die Verlage zahlen. Und Plattformen wie Youtube müssen alles ihnen Mögliche tun, um Urheberrechtsverletzungen zu verhindern.

EU-Kommissionsvizepräsident Andrus Ansip lobte die Pläne, die aber erst noch formal vom Rat der EU-Länder und vom Europaparlament gebilligt werden müssen. Die Reform mache das Urheberrecht nicht nur fit für das Internetzeitalter, es stärke auch die Rechte normaler Nutzer. „Sie können ohne Furcht vor Strafe hochladen”, sagte Ansip. Denn nicht die Nutzer, sondern die Plattformen müssten auf die Einhaltung von Urheberrechten achten.

Verleger, Autoren und Musiker bekämen mehr Verhandlungsmacht gegenüber Plattformen und Suchmaschinen, um für ihre Werke besser entlohnt zu werden, betonte Ansip. „Es geht um faire Bezahlung.” Qualitätsmedien würden damit gestärkt.

Verleger profitieren

Der Bundesverband Deutscher Zeitungsverleger und der Verband Deutscher Zeitschriftenverleger sehen dies ähnlich. Die Novelle sei eine große Chance für unabhängigen Journalismus in der digitalen Ära, erklärten sie in Berlin. Verlage bekämen erstmals die Chance, mit den großen Plattformen über die Nutzung ihrer Inhalte zu einem fairen Preis zu verhandeln. Die Vielfalt professioneller digitaler Medienangebote werde erhöht. „Dies ist ein guter Tag für die Meinungs- und Pressevielfalt in Europa und der Welt”, erklärten die Verbände.

Kritiker sehen dies vollkommen anders. Sie stoßen sich vor allem an der Vorgabe an große Internetplattformen, mögliche Verstöße gegen Urheberrechte zu verhindern. Geschützte Werke wie Filme oder Musik müssten demnach lizenziert werden, bevor sie auf den Plattformen landen - oder dürften nicht hochgeladen werden.

Die Folge seien „flächendeckende Upload-Filter”, kritisierte der Verbraucherzentrale Bundesverband und beklagte die Missachtung von Nutzerrechten. Upload-Filter sind Software, mit der Plattformen beim Hochladen überprüfen können, ob Bilder, Videos oder Musik urheberrechtlich geschützt sind. Kritiker befürchten, dass auch legale Inhalte, Parodien oder Zitate aussortiert werden könnten.

Die Linken-Europaabgeordnete Martina Michels sprach von „Zensurmaschinen”. Auch der FDP-Experte Jimmy Schulz beklagte: „Unternehmen werden faktisch dazu gezwungen, eine Zensurinfrastruktur aufzubauen.” Das wäre ein Schlag gegen freie Meinungsäußerung. Die Piraten-Europapolitikerin Julia Reda warnte: „Dieser Deal ist eine Gefahr für kleine Verlage, Autoren und Internetnutzer gleichermaßen.”

Zurückhaltung bei Google

Der Internetgigant Google hielt sich in seiner Stellungnahme zu der Einigung sehr zurück und erklärte lediglich: „Die Urheberrechtsreform muss allen zugute kommen - einschließlich der europäischen Kreativen und Verbraucher, kleiner Verleger und Plattformen.” Man werde den Text der Einigung nun analysieren und über die nächsten Schritte entscheiden.

Kritiker warnen auch, dass die großen Suchmaschinen - statt Verleger für Artikelausschnitte zu entlohnen - Inhalte aus ihren Ergebnislisten tilgen könnten. Nutzer würden in dem Fall weniger oder andere Ergebnisse gezeigt bekommen als heute.

Der zuständige Berichterstatter im Europaparlament, Axel Voss (CDU), zeigte für Kritik wenig Verständnis. „Digitaler Urheberrechtsschutz beendet endlich das Wildwest im Internet, bei dem die Rechteinhaber bisher oft untergebuttert werden”, sagte Voss. „Den neuen Realitäten und Geschäftsmodellen des digitalen Zeitalters können wir jetzt gerecht werden.”

dpa/pf

]]>
IT-Director Startseite it-zoom Unternehmen
news-22051 Thu, 14 Feb 2019 15:16:35 +0100 Neues Gesicht bei Backoffice Associates http://www.it-zoom.de/it-director/e/neues-gesicht-bei-backoffice-associates-22051/ Backoffice Associates, ein Anbieter von Lösungen zur Bewältigung komplexer Datentransformationen in Unternehmen, gab heute die Ernennung von Tilman Binder zum Geschäftsführer in der Region Deutschland, Österreich, Schweiz (DACH) bekannt. Binder kann auf eine bemerkenswerte Laufbahn zurückblicken. Über zehn Jahre lang war er Executive Director bei IBM Global Technology Services und arbeitete sowohl in Deutschland als auch in Japan. Zuvor hatte er zehn Jahre lang bei SAP in Walldorf und Tokio den Geschäftsbereich für die Markteinführungsstrategien in der Life-Sciences-Branche geleitet.

Backoffice Associates zog im Juli 2018 mit seinem DACH-Hauptquartier nach Stuttgart um. Dadurch baute das Unternehmen sein Engagement in der DACH-Region und seine Partnerschaft mit SAP weiter aus. Der Konzern vertreibt seit 2014 die Lösungen des Unternehmens für die Datenmigration und das Datenqualitätsmanagement als SAP Solution Extensions.

Bildquelle: Backoffice Associates

]]>
IT-Director Startseite it-zoom Leute
news-22044 Thu, 14 Feb 2019 07:04:44 +0100 Finale Einigung beim EU-Urheberrecht http://www.it-zoom.de/it-director/e/finale-einigung-beim-eu-urheberrecht-22044/ Das neue EU-Urheberrecht steht. Damit ist nun auch das Leistungsschutzrecht fest vorgesehen, von dem vor allem Verlage profitieren sollen. Der Bundesverband Deutscher Zeitungsverleger und der Verband Deutscher Zeitschriftenverleger sehen in der Einigung zum EU-Urheberrecht eine „große Chance für unabhängigen Journalismus in der digitalen Ära”.

Die neue Regelung biete Verlagen erstmals die Chance, mit den großen Tech-Plattformen über die Nutzung ihrer Inhalte zu einem fairen Preis zu verhandeln, heißt es in einer Mitteilung. „Dieses Recht wird digitale Innovationen fördern und die Vielfalt professioneller digitaler Medienangebote deutlich erhöhen.” Die beiden Verbände fuhren fort, die Urheberrechtsreform setze einen wichtigen globalen Standard für journalistische Vielfalt und unabhängige Berichterstattung: „Dies ist ein guter Tag für die Meinungs- und Pressevielfalt in Europa und der Welt.”

Unterhändler der EU-Staaten und des Europaparlaments hatten sich am Mittwoch in Straßburg vorläufig auf eine Reform des EU-Urheberrechts geeinigt. Demnach müssen Nachrichten-Suchmaschinen wie Google News für das Anzeigen von Artikel-Ausschnitten in ihren Suchergebnissen künftig Geld an die Verlage zahlen. Der Verhandlungsführer des Parlaments, Axel Voss (CDU), zeigte sich erleichtert. „Digitaler Urheberrechtsschutz beendet endlich das Wildwest im Internet, bei dem die Rechteinhaber bisher oft untergebuttert werden”, sagte Voss. „Den neuen Realitäten und Geschäftsmodellen des digitalen Zeitalters können wir jetzt gerecht werden.”

Die Piraten-Europapolitikerin Julia Reda warnte hingegen: „Dieser Deal ist eine Gefahr für kleine Verlage, Autoren und Internetnutzer gleichermaßen.” Und der Verband der Digitalwirtschaft, Eco, warnte, die Reform werde zum „Hemmnis für die Digitalisierung in Europa”. Die Einigung vom Mittwoch muss in den kommenden Wochen allerdings noch vom Parlament und den EU-Staaten bestätigt werden. In den allermeisten Fällen ist das eine Formalie - weil die Debatte jedoch so aufgeladen ist, könnte die Reform hier allerdings noch scheitern. Stimmen beide Seiten zu, haben die EU-Länder zwei Jahre Zeit, die neuen Regeln in nationales Recht umzuwandeln.

Neben der Einführung des Leistungsschutzrechts nimmt die Einigung vom Mittwoch in Artikel 13 auch Plattformen wie Youtube stärker in die Pflicht. Sie müssen künftig alles ihnen Mögliche tun, um Urheberrechtsverletzungen zu verhindern. Geschützte Werke müssten demnach lizenziert werden, bevor sie auf den Plattformen landen - oder dürften nicht hochgeladen werden.

dpa/pf

]]>
IT-Director Startseite it-zoom