IT-DIRECTOR https://www.it-zoom.de/it-director/news/ IT-DIRECTOR: Business-Magazin für IT-Manager und CIOs de ©2019 Alle Rechte bei MEDIENHAUS Verlag GmbH Fri, 23 Aug 2019 17:56:21 +0200 Fri, 23 Aug 2019 17:56:21 +0200 TYPO3 EXT:news news-23781 Fri, 23 Aug 2019 12:51:38 +0200 Anspruchsvolles Big-Data-Projekt http://www.it-zoom.de/it-director/e/anspruchsvolles-big-data-projekt-23781/ Apache Flink unterstützt Airbus bei der Realisierung eines sehr anspruchsvollen Echtzeit-Big-Data-Projekts. Angesichts neuer Anforderungen der Internationalen Zivilluftfahrt-Organisation (ICAO) und des wachsenden Luftverkehrsaufkommens benötigt die Luftfahrt zunehmend Echtzeitanalysen auf globaler Ebene, um Entscheidungen zu unterstützen. Airbus Defence and Space hat daher die Flugdatenanalyselösung Airbus Airsense entwickelt und Mitte 2018 auf den Markt gebracht.

Airbus muss seine Flugzeuge in der Luft halten, insgesamt 69 Millionen Flugstunden pro Jahr. Aus diesen Flugbewegungen stammen die riesigen Mengen an Daten, woraus einige Herausforderungen resultieren. So sendet ein Flugzeug sein Signal mindestens zweimal pro Sekunde. Insgesamt wird das gesamte Datenvolumen aus 10.000 bis 15.000 Flügen generiert, die zu einem bestimmten Zeitpunkt durchgeführt werden. Das gesamte weltweit verfügbare Nachrichtenvolumen beträgt also 24.000 Nachrichten pro Sekunde. Da immer mehr Flugzeuge eingesetzt werden, steigt die Zahl der Nachrichten kontinuierlich. 

Heiko Udluft, Data Scientist & Digital Product Development von Airsense, erklärt die Besonderheiten: „Wir mussten eine Datenpipeline aufbauen, über die Airsense rund zwei Milliarden Ereignisse pro Tag, mit einem Datenvolumen von 100 Gigabyte, in Echtzeit verarbeiten und analysieren kann. Das war eine immense Big-Data-Herausforderung. Wir benötigten die entsprechenden Tools und mussten über das nötige Engineering verfügen, um diese Datenmengen bewältigen zu können.“

Man nutze die Daten tatsächlich in Echtzeit. Hierzu werden Daten, die von Ereignis-Hubs kommen, in Echtzeit mit Flink verarbeitet. Diese Art der Verarbeitung sei wichtig, denn so könne man die erforderlichen Analysen durchführen. Echtzeitanalysen in großem Maßstab seien sehr anspruchsvoll, weil es auf Zustandsvollständigkeit und Echtzeit-Shuffle-Ausgänge ankomme.

Das Flink-Cluster wird bei Airbus mit dem Kubernetes-Dienst betrieben. Flink soll vor allem die Möglichkeit bieten, Ausfälle besser zu handhaben, ohne den gesamten Zustand wiederholen zu müssen. Udluft fügt hinzu: „Für die Stapelverarbeitung ist Apache Spark ein guter Weg, aber sobald die Dinge in Echtzeit erledigt werden müssen und echte Echtzeitanforderungen gestellt werden, denken wir, dass Flink ein besserer Weg ist. So ist die Latenzzeit für uns wirklich entscheidend und wichtig.“

Die fortschrittliche Analyselösung verarbeitet Multi-Source-Überwachungsdaten, die auf globalen ADS-B-Daten (Automatic Dependent Surveillance Broadcast) basieren. Airsense wird somit gespeist von verschiedenen Daten-Feeds für Flugzeugpositionen und bringt Daten aus mehreren Quellen in Echtzeit zusammen. Die Menge und Größe der Daten, mit denen es Airbus zu tun hat, die sehr hohe Anzahl der Nachrichten pro Sekunde und auch die daraus zu extrahierenden Analysen machen den Betrieb von Airsense überaus anspruchsvoll. Hier kommen Mustererkennung, maschinelles Lernen und viele Analyseapplikationen zum Einsatz.

Bildquelle: Getty Images/iStock/Getty Images Plus

]]>
IT-Director Business Intelligence / Big Data
news-23775 Thu, 22 Aug 2019 16:27:34 +0200 Schnelles Internet für 30 Millionen Haushalte http://www.it-zoom.de/it-director/e/schnelles-internet-fuer-30-millionen-haushalte-23775/ Die Telekom wird nach eigenen Angaben in Kürze 30 Millionen schnelle Internetanschlüsse in Betrieb nehmen. Das teilte Telekom-Chef Dirk Wössner mit. In diesen Haushalten könne die Telekom Spitzengeschwindigkeiten von 50 Megabit pro Sekunde bis 250 MBit/s anbieten. Davon seien 1,1 Millionen Haushalte mit Glasfaserkabel bis ins Haus an das Netz angeschlossen.

Möglich geworden sei der Fortschritt nur durch eine massive Investition in den Glasfaserausbau. „Es wird zwar immer noch viel von der alter Kupferleitung gesprochen, aber de facto investieren wir im Wesentlichen in den Ausbau von Glasfaser.“ Wössner bezieht sich mit dieser Bemerkung auf die häufig kritisierte Tatsache, dass die Mehrzahl der Telekomanschlüsse auf der „letzten Meile“ vom Schaltkasten am Straßenrand bis zur Wohnung noch die vorhandenen Telefonkabel nutzen. Die Übertragung auf den Kupferkabeln wird mit den technischen Verfahren des Vectoring und Supervectoring optimiert. Der Verteilerkasten am Straßenrand ist in der Regel mit Glasfaser ans Netz angeschlossen.

Hätte man das Geld allein in einen direkten Glasfaser-Anschluss der Haushalte (FTTH) gesteckt, hätte man nur zehn bis 20 Prozent der 30 Millionen Haushalte mit einem schnellen Internet versorgen können, betonte Wössner. Mit Supervectoring, das die Telekom vor einem Jahr gestartet habe, erreiche man Spitzengeschwindigkeiten von bis zu 250 MBit/s. „Aktuell können wir diese Geschwindigkeiten an rund 23 Millionen Haushalten realisieren.“ Ende dieses Jahres sollen es 27 bis 28 Millionen Haushalte sein.

Wössner räumte ein, dass es sich beim Supervectoring um eine Brückentechnologie handele. „Dort, wo wir neu bauen, verlegen wir Glasfaser bis in die Wohnung oder ans Gebäude.“ Um den Ausbau der Glasfaser-Verbindungen voranzutreiben, müssten sich allerdings Rahmenbedingungen ändern. So sollten die Leitungen nicht zwangsweise im klassischen Tiefbau verlegt werden, der sehr teuer sei, sondern auch oberirdisch. Im klassischen Tiefbau seien im bundesweiten Durchschnitt Kosten von rund 70.000 Euro pro Kilometer Glasfaser die Regel.

„Wir könnten vorhandene Masten nutzen. Also Masten, die bereits stehen, aufrüsten und ertüchtigen. Andere Länder machen dies konsequent“, sagte Wössner. Wenn man die Kabel unterirdisch verlege, könnten auch preiswertere Verfahren zum Einsatz kommen, wie das sogenannte Trenching. Dabei werden schmale Gräben oder Schlitze in den Boden oder Asphalt gefräst, die längst nicht so tief sind wie der klassische Tiefbau für Strom- oder Abwasserleitungen.

Verbesserungsbedarf sieht Wössner auch bei der Vernetzung der Wohnungen. Mit modernen Maschen-Netzwerken („Mesh“) könne die hohe Bandbreite auch wirklich in jedem Winkel der Wohnung ankommen.

dpa/pf

]]>
Startseite it-zoom IT-Director
news-23766 Thu, 22 Aug 2019 12:18:20 +0200 KI – eine Chance für die Energiewende? http://www.it-zoom.de/it-director/e/ki-eine-chance-fuer-die-energiewende-23766/ Die große Mehrheit der deutschen Energieunternehmen sieht erhebliche Chancen beim Einsatz von Künstlicher Intelligenz (KI). So gehen insgesamt 74 Prozent der Unternehmen davon aus, dass sich der Einsatz von KI-Technologie positiv auf die Energiewende auswirken wird. Das zeigt eine Umfrage der Deutschen Energie-Agentur (Dena) unter 250 Entscheidern in Unternehmen der Energiewirtschaft. Die Umfrage zeigt aber auch, dass die Branche noch am Anfang steht. Ein Haupthindernis ist mangelndes Wissen über KI-Technologien, mögliche Anwendungsfelder und Geschäftsmodelle.

„Künstliche Intelligenz ist eine Schlüsseltechnologie für die integrierte Energiewende und bietet enormes Innovationspotential für die Wirtschaft“, sagt Andreas Kuhlmann, Vorsitzender der Dena-Geschäftsführung. „Es lohnt sich, die weitere Entwicklung jetzt zügig voranzutreiben. Fortschritt braucht eine Richtung. Der Fokus bei der weiteren Debatte über die Nutzung von KI sollte daher auf konkreten Anwendungsfällen liegen. Wir brauchen eine Ausbildungsoffensive für IT-Fachkräfte im Energiesektor. Außerdem können Netzwerke und Partnerschaften zwischen etablierten Akteuren und Start-ups die Verbreitung von KI in der Energiebranche beschleunigen.“

Vor allem für die integrierte Energiewende, also das Zusammenwachsen der Energiesektoren Strom, Wärme und Verkehr, und die intelligente Optimierung des Energiesystems schreiben Unternehmen KI eine hohe Bedeutung zu. 82 Prozent sind überzeugt, dass KI in diesem Bereich eine wichtige Rolle spielen wird. Bei Erneuerbare-Energien-Anlagen sind beispielsweise durch die KI-gestützte Analyse von Wetter- und Sensordaten genauere Prognosen möglich, wodurch sich die Netzstabilität und Versorgungssicherheit erhöht. Auch für die Bereiche Smart City, Mobilität und Energieeffizienz sind KI-Anwendungen nach Ansicht der Befragten besonders vielversprechend.

Obwohl ein Großteil der Unternehmen die Potentiale von KI für den Energiebereich erkennt, verfügt aktuell nur etwa jedes achte (13 Prozent) über eine KI-Strategie. Nur ein Bruchteil hat bereits in KI investiert (7 Prozent) oder in naher Zukunft Investitionen geplant (6 Prozent). Mangelndes Wissen wird als wesentliche Hürde für den KI-Einsatz benannt. Lediglich 17 Prozent der Unternehmen fühlen sich gut zu KI-Themen informiert. Nur etwa ein Drittel (36 Prozent) informiert sich aktiv. Doch offenbar wollen viele Energieunternehmen das Thema in Zukunft verstärkt angehen. Gut ein Drittel (35 Prozent) von ihnen plant, KI in den nächsten fünf Jahren einzusetzen.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Studien
news-23765 Thu, 22 Aug 2019 11:57:27 +0200 Beeindruckt von der SAP-Expertise http://www.it-zoom.de/it-director/e/beeindruckt-von-der-sap-expertise-23765/ Brunata-Metrona Hürth hat die QSC AG mit dem Application Management sämtlicher SAP-Anwendungen beauftragt. Hierbei sollen moderne, cloud-basierte Application-Services zum Einsatz kommen. In einem ersten Schritt stellt der Dienstleister die benötigten SAP-Systeme aus seiner Enterprise Cloud (PEC) zur Verfügung. Die cloud-basierte Lösung erhöhe die Flexibilität und Effizienz bei der Nutzung, Administration und Pflege der SAP-Anwendungen. Zudem werde die Nutzung der In-Memory-Datenbanktechnologie Hana möglich.

Diese Beauftragung ist ein wichtiger Meilenstein in der Umsetzung der Gesamt-IT-Strategie des Hauses Brunata-Metrona. Das Unternehmen versteht sich als Experte und Partner der Immobilienwirtschaft für Mess-, Abrechnungs- und Service-Dienstleistungen sowie den intelligenten Betrieb und das nachhaltige Management von Immobilien.

Beratender Partner für das Ausschreibungsprojekt war die BCG Platinion. In einem mehrstufigen Auswahlverfahren konnte das Unternehmen QSC mit seinem Leistungsportfolio und kundenorientierten Auftreten überzeugen.

Der Dienstleister habe den Anwender mit seiner „SAP-Expertise insbesondere bei der Bereitstellung der SAP-Services aus der Cloud“ beeindruckt. Darüber hinaus eröffne das breite Leistungsportfolio im IoT-Umfeld interessante Perspektiven für die weitere Digitalisierung der eigenen Dienstleistungen, so Dirk Nonn, Prokurist und Leiter Finanz- und Rechnungswesen bei Brunata-Metrona.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Cloud
news-23763 Thu, 22 Aug 2019 09:46:31 +0200 Drei große Baustellen im Service-Management http://www.it-zoom.de/it-director/e/drei-grosse-baustellen-im-service-management-23763/ Aktuell beschäftigen sich die Verantwortlichen für das Service-Management zunehmend mit drei großen ­Baustellen – nämlich mit Prozessautomatisierungen, ­intelligenten Bots und dem Internet der Dinge. Wirft man einen genaueren Blick auf die Servicedesks und Callcenter großer Unternehmen, dann wird schnell klar, wohin die Reise geht: Bereits seit Jahren treiben die Verantwortlichen systematisch die Automatisierung von Vorgängen voran. Mittlerweile gibt es mit den Technologien rund um Künstliche Intelligenz (KI) – darunter (Chat-)Bots und Machine Learning – Hilfsmittel, die die Prozessautomatisierung sogar noch intelligenter und schneller machen und damit auf ein ganz neues Niveau heben.

In diesem Zusammenhang prognostizieren die Analysten von Gartner, dass Chatbots bis zum Jahr 2020 rund 85 Prozent aller Interaktionen mit dem Kundenservice unterstützen werden. „KI-Technologien halten in Form von automatisierten Bots, die Kundenanfragen mit der Wissensdatenbank im Unternehmen abgleichen und Lösungsvorschläge erarbeiten, vermehrt Einzug in das IT-Service-Management (ITSM)“, bringt Thomas Ilgenfritz, Geschäftsführer bei Fair Computer Systems (FCS), den aktuellen Stand auf den Punkt. Auf diese Weise würden der Kundenservice und das Support-Team von Routine-Anfragen entlastet. Denn maschinelles Lernen könne die Lösungsvorschläge für die Servicemitarbeiter noch präziser machen, indem es über die Verarbeitung von Feedback und dem Trial-and-Error-Prinzip seine Lernergebnisse so verbessert, dass sie deutlich über die bislang übliche indizierte Stichwortsuche hinausgehen.

So erobern Roboter den Servicedesk

Als Kontaktmittel erster Wahl kommen dabei bereits in vielen Unternehmen chat- oder sprachbasierte Bots zum Einsatz. Dabei ist es unerheblich, ob Nutzer ein IT-Problem übermitteln oder Endkunden die Qualität eines neu gekauften Produktes im Servicecenter reklamieren. Nach Ansicht von Sridhar Iyengar, Managing Director des Tool-Anbieters Zoho Europe, sind je nach Zielsetzung unterschiedliche Formen von Service-Bots denkbar. „Am populärsten sind naturgemäß Chatbots, die selbstständig Service-Anfragen beantworten“, so Sridhar Iyengar. Darüber hinaus gibt es jedoch weitere, eingeschränktere Konzepte. Beispielsweise könne Künstliche Intelligenz zu Beginn einer Konversation strukturierte Informationen wie E-Mail-Adresse oder Kundennummer abfragen, die für die weitere Kundenbetreuung notwendig sind. Eine andere Option ist es, Chatbots einzurichten, die im Zuge der Verarbeitung von Anfragen auch Vorschläge für die Servicemitarbeiter unterbreiten, die diese letztlich eigenständig bestätigen oder ablehnen können. Unabhängig davon, welche Vorgehensweise gewählt wird, gilt: Grundsätzlich tragen die Datenmenge und -qualität zur erfolgreichen Kommunikation zwischen Mensch und Maschine bei. „Je mehr ein Chatbot mit qualitativ hochwertigen Daten gefüttert wird, desto besser sind die Ergebnisse, die er liefert“, unterstreicht Sridhar Iyengar.

In der Praxis automatisieren beispielsweise die Kunden von Niilo Fredrikson, CEO von Efecte, intensiv ihre Prozesse, was vom On- und Offboarding neuer Mitarbeiter bis hin zum Asset-Management reichen kann. Daneben gibt es Standardanforderungen, die Organisationen sofort automatisieren wollen. Dazu gehören laut Fredrikson die Bestellung neuer Endgeräte, Passwort-Resets oder Wissensdatenbanken, mit deren Hilfe die Nutzer Lösungsvorschläge zu häufig gemeldeten Problemen erhalten.

Wo bleiben Empathie und Humor?

Allerdings können längst noch nicht alle Serviceprozesse per Bot automatisiert werden, wie Martin Edenhofer, Geschäftsführer beim Berliner Helpdesk-Spezialisten Zammad, einräumt. Er betont, dass die automatisierte Beantwortung oder Lösung der Anfragen mittels KI derzeit eher auf einfache Aufgaben beschränkt ist. Infolgedessen geht er davon aus, dass sich komplexe Probleme in absehbarer Zukunft nur durch menschliche Agenten lösen lassen. Eine weitere Hürde für die Automatisierung von Serviceprozessen sieht Martin Edenhofer in den fehlenden Standardschnittstellen: „Leider gibt es noch viele Hersteller, die sich an proprietären Schnittstellen und deren schlechte Dokumentationen klammern, um über diesen Weg schnelle Service-Umsätze zu generieren.“ Aus Edenhofers Sicht ist dies der falsche Weg. Vielmehr sollte man hier umdenken und eine Restrukturierung in die Jahre gekommener Infrastrukturen in Betracht ziehen.

Demnach klingt nicht alles gut in der Welt von Maschinen und Roboter. Über die genannten technologischen Hürden hinaus gibt es auch den einen oder anderen ethischen Einwand, der ihre Verbreitung beeinflussen könnte. „Denn durch den ausschließlichen Einsatz von Bots und KI gehen menschliche Eigenschaften wie Empathie und Humor verloren“, räumt Martin Edenhofer ein. Dies liege in der Natur der Dinge: Künstliche Service-Agenten können auf absehbare Zeit nur sehr eingeschränkt mit menschlichen Semantiken umgehen. „Ich denke, eine Mischung aus maschinellen und menschlichen Support-Agenten ist deshalb auch in Zukunft der bessere Weg – schließlich lassen sich mit einer kleinen Prise Humor viele Probleme sehr viel einfacher aus dem Wege schaffen“, betont Edenhofer den nach wie vor geforderten menschlichen Aspekt im Servicegeschäft. Auch Niilo Fredrikson glaubt nicht daran, dass Roboter zukünftig alle Servicebelange übernehmen. Seiner Meinung nach gibt es noch immer viele Kunden, die weiterhin das persönliche Gespräch oder den direkten Chat zu schätzen wissen.

So mischt das IoT die Prozesse auf

Beschäftigen sich die Verantwortlichen derzeit mit den Entwicklungen am Markt für Service-Management, dann sollten sie neben der KI auch das Internet der Dinge auf dem Schirm haben. Während bislang vorrangig IT-Nutzer und Endkunden entsprechende Service- und Ticketing-Prozesse angestoßen haben, könnte sich das Blatt bald wenden. Im Zuge der Verbreitung des Internets der Dinge könnten immer mehr Maschinen oder andere IoT-Devices selbstständig Probleme und Störungen durchgeben. Laut Martin Edenhofer bietet dies eine große Chance für den ITSM-Markt. „Das IoT offenbart Möglichkeiten, die noch vor wenigen Jahren nicht einmal im Ansatz vorstellbar waren. Maschinen oder Fahrzeuge könnten Störungen automatisiert melden, in Service-Management-Systeme einspeisen und die Bestellung von Ersatzteilen anstoßen – und damit ihre eigenen Ausfallzeiten minimieren“, beschreibt er eine denkbare Vorgehensweise.

Darüber hinaus wirft Thomas Ilgenfritz ein weiteres IoT-Szenario in den Ring. Er kann sich durchaus vorstellen, dass im Rahmen von Service Requests durch Maschinen Genehmigungen für unkritische Prozesse automatisch ablaufen könnten. Entweder erteilen dabei KI-gestützte Assistenten mögliche Genehmigungen oder lehnen sie ab.

Dies ist ein Artikel aus unserer Print-Ausgabe 7-8/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Nicht zuletzt sieht Niilo Fredrikson in den zunehmenden Machine-to-Machine-Szenarien (M2M) spannende Möglichkeiten für alle Beteiligten des ITSM-Marktes. „Bis diese jedoch gängige Praxis werden, ist noch viel Grundlagenarbeit nötig“, so Fredrikson. Denn Investitionen in die Entwicklung eines Ökosystems verschiedener M2M-Akteure sowie passende Schnittstellen (APIs) sind erfolgsentscheidend für alle, die von dieser Entwicklung profitieren möchten. Erst wenn sich die Hersteller von Maschinen, Produktionsanlagen und IoT-Geräten auf entsprechende Kooperationen und Standards geeinigt haben, wird das Internet der Dinge auch im Service-Management Einzug halten, glaubt Fredrikson.

 

So verändern Bots, KI und das IoT den Support

Zukünftig wird der First-Level-Support zunehmend von KI-fähigen Bots bearbeitet, wobei immer mehr Vorfälle von Maschinen anstatt von Menschen gemeldet werden. Gleichzeitig wird die Qualität des Second- und Third-Level-Support steigen, da menschliche Agenten a) in der Lage sein werden, mehr Zeit für komplexe Szenarien aufzuwenden, da die repetitiven einfachen Aufgaben automatisiert werden, und b) Hilfe von einem KI-Coach erhalten, der ihre Problemlösungsfähigkeiten verbessert und beschleunigt.

Quelle: Niilo Fredrikson, CEO von Efecte


Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
Ina Schlücker IT-Director Startseite it-zoom Servicemanagement und Helpdesk
news-23753 Wed, 21 Aug 2019 14:40:25 +0200 BSI entwickelt Mail-Verschlüsselung weiter http://www.it-zoom.de/it-director/e/bsi-entwickelt-mail-verschluesselung-weiter-23753/ Bereits gestern gab das Bundesamt für Sicherheit in der Informationstechnik (BSI) bekannt, eine sichere Mail-Verschlüsselung auf Basis der quelloffenen Browser-Erweiterung Mailvelope weiterzuentwickeln. Mit der quelloffenen Browser-Erweiterung Mailvelope sollen Nutzer unter Verwendung des Verschlüsselungsstandards OpenPGP auch ohne spezielles E-Mail-Programm verschlüsselte E-Mails austauschen können. Im Rahmen eines seit Januar 2018 laufenden Projekts hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) Mailvelope mit dem Ziel weiterentwickelt, die Installation, Konfiguration und Anwendung von Ende-zu-Ende-Verschlüsselung deutlich nutzerfreundlicher zu gestalten und damit eine größere Verbreitung von Verschlüsselung beim E-Mail- und Formular-Austausch zu erreichen. Zukünftig kann die Software auch genutzt werden, um vertrauliche Anfragen, zum Beispiel an Ärzte oder Banken, über Web-Formulare zu stellen.

Dazu erklärt Arne Schönbohm, Präsident des BSI: „Mehr Verschlüsselung bedeutet mehr Privatsphäre in der Kommunikation. Dies sollte ein absolutes Muss sein. Unser Ziel als Cybersicherheitsbehörde ist es deshalb, den Verbrauchern einfach anwendbare Lösungen an die Hand zu geben, mit denen sie ihre Privatsphäre besser schützen können. Deshalb haben wir Mailvelope erweitert. Jeder kann sich dieses Tool als Add-on für den Browser herunterladen und damit E-Mails und Online-Formulare weitgehend automatisiert verschlüsseln.“

Ein konkretes Beispiel: Ärzte bieten Online-Formulare als Alternative zu Anrufen an. In der Regel ist es dabei notwendig, auch persönliche und vertrauliche Informationen anzugeben und diese somit über das Internet zu versenden. Mit einem verschlüsselten Kontaktformular können die Patientendaten besser geschützt werden. Der für die Verschlüsselung notwendige Austausch von öffentlichen Schlüsseln läuft dabei automatisiert ohne Nutzerinteraktion ab. Dazu müssen Anbieter von Kontaktformularen, in diesem Fall also die Arztpraxis, das Formular entsprechend konfigurieren. Anwender müssen lediglich einmalig die Mailvelope-Anwendung installieren und konfigurieren. So wird Kommunikation laut BSI im digitalen Alltag sicherer.

Die Erweiterungen von Mailvelope im Einzelnen:

  • Web-Formularinhalte können unabhängig vom Betreiber der Webseite bis zum Empfänger der Formulardaten Ende-zu-Ende verschlüsselt übertragen werden,
  • die verwendete Kryptographie-Bibliothek OpenPGP.js ist durch das BSI-Projekt erweitert worden, um Kompatibilität mit dem OpenPGP-Standard herzustellen,
  • es kann eine lokale GnuPG-Installation eingebunden werden, sodass Nutzer auf Wunsch native Anwendungen (z.B. zur Schlüsselverwaltung) verwenden können und
  • für den Nutzer kann ein möglichst transparentes Schlüsselaustauschverfahren etabliert werden: Verteilung des öffentlichen Schlüssels durch Web Key Directory (WKD) über HTTPS-Abfrage.

Um das Vertrauen in die Entwicklungen zu stärken, hat das BSI darüber hinaus ein Audit der Sicherheitseigenschaften des Produkts Mailvelope in Auftrag gegeben. Neben der Umsetzung der kryptographischen Verfahren wurden dabei auch die Existenz von Routinen zur Nutzerüberwachung oder Kompromittierung privater Daten überprüft. Hierdurch konnte nicht nur ein hohes Maß an Qualität gewährleistet werden, sondern Probleme wurden direkt im Anschluss an die Entwicklung erkannt und vor der Freigabe im Rahmen des Koordinierten Schwachstellenmanagements mit den Entwicklern erfolgreich gelöst. Das vollständige Ergebnis des Audits ist hier verfügbar.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Sicherheit Startseite it-zoom
news-23752 Wed, 21 Aug 2019 13:59:24 +0200 So sind dezentrale Strukturen unproblematisch http://www.it-zoom.de/it-director/e/so-sind-dezentrale-strukturen-unproblematisch-23752/ Mit neuen Sicherheitslösungen überwacht die Gemeinde Markt Peiting nicht nur alle aktiven Netzwerkkomponenten. Vielmehr lassen sich auch einheitliche Richtlinien für die Informationssicherheit und den Datenschutz zentral steuern. Peiting ist eine Marktgemeinde im Pfaffenwinkel im oberbayerischen Landkreis Weilheim-Schongau. Die florierende Gemeinde bietet den rund 11.500 Einwohnern ein großes Portfolio an modernen öffentlichen Einrichtungen, darunter auch zwei Grundschulen und eine Mittelschule.

In der Vergangenheit hatten sich in Markt Peiting unterschiedliche IT-Systeme an unterschiedlichen Standorten etabliert. Die Verwaltungsgebäude, der Bauhof, das Wasser- und Klärwerk, die Bücherei, das Jugendzentrum und die drei Schulen beruhten auf keiner einheitlichen und zentralen IT. Insbesondere in den Grundschulen und der Mittelschule war die Zuverlässigkeit und Sicherheit der Internetanbindung nicht mehr zeitgemäß und ausreichend. Zudem mussten die IT-Administratoren der Marktgemeinde für jeden Eingriff in die verteilten IT-Systeme von Gebäude zu Gebäude wechseln, eine einheitliche und zentrale Administration war nicht existent.

Aus Sicht der Internettechnologie war Markt Peiting an das kommunale Behördennetzwerk (KomBN) des Landkreises angebunden. Das Regelwerk der KomBN lässt jedoch keine direkte Anbindung der Außenstellen und Schulen an eine zentrale IT der Gemeinde zu, wodurch die Einzelsysteme dieser Topologie kaum noch zu beherrschen waren. Vor allem im Hinblick auf das neu eingeführte Informationssicherheitsmanagement gemäß Isis12 und das Inkrafttreten der Datenschutzgrundverordnung (DSGVO) im Mai 2018 konnte dieser Zustand nicht gehalten werden.

Vor diesem Hintergrund starteten die Verantwortlichen bereits im Oktober 2016 die Suche nach einer Lösung, um die Gemeinde und alle Nebenstellen autark an das Internet anzubinden. Ziel war eine wesentliche Verbesserung der Administration, eine deutlich bessere Stabilität des Internetbetriebs und durch entsprechende Sicherheitslösungen eine Einhaltung des eigenen IT-Sicherheitsmanagements und der DSGVO sowie aller anderen Regeln, die öffentliche Einrichtungen berücksichtigen müssen.

Das Ziel: komplette und sichere Vernetzung

Die neue Infrastruktur hatte das Ziel, eine sichere und redundante Anbindung aller Außenstellen und Schulen an das Internet unabhängig vom kommunalen Behördennetz zu ermöglichen. Insbesondere sollte die IT-Sicherheit für die gesamte Infrastruktur zentral verwaltbar sein und den hohen Ansprüchen des öffentlichen Bereiches genügen. Ein zentrales IT-Sicherheitsmanagement aller Objekte und die Einhaltung der IT-Sicherheitsrichtlinien inklusive zentralem Virenschutz war mit einer möglichst einfachen Anbindung mobiler Nutzer mittels SSL-VPN gewünscht. Die Gemeinde nahm sich mit der Securelink Germany einen IT-Spezialisten an die Seite, der mit Umstellungen und Sicherheitskonzepten dieser Größenordnung viel Erfahrung hatte.

Gemeinsam mit Securelink arbeiteten die Verantwortlichen die IT-Strategie aus, wobei nach der Sondierung der möglichen Systemoptionen im Bereich Security die Wahl auf Sophos fiel. Im August 2017 wurden mehrere Sophos-Firewalls (UTM) und Remote Ethernet Devices (RED) geordert, um die gesamte Infrastruktur abzusichern. Die „SG Series Firewall Appliances“ des Herstellers bieten dabei die ideale Balance zwischen Performance und Sicherheit. Überdies ist das Modell SG 310 UTM sehr leistungsfähig, skalierbar und eignet sich insbesondere für Organisationen mit vielen verteilten Standorten, die Sicherheitsfunktionen der Enterprise-Klasse benötigen. Die Firewall basiert auf Intel-Technologie und bietet acht GbE-Kupferports, zwei GbE-SFP- und zwei 10 GbE SFP+- Glasfaserports sowie einem Flexi-Port-Steckplatz zur Konfiguration mit einem optionalen Modul. Das SG 310 Cluster dient in Markt Peiting als zentrale Einheit in der Verwaltung und damit auch zur zentralen Administration der gesamten Sicherheitsumgebung.

Die etwas kleineren SG 230 UTM kommen in den Grundschulen und in der Mittelschule zum Einsatz. Sie sind auf die Bedürfnisse von kleinen bis mittelgroßen Organisationen und Außenstellen abgestimmt. Die Firewalls sind mit sechs GbE-Kupferports, zwei GbE SFP-Ports sowie einem Flexi-Port-Steckplatz zur Konfiguration mit einem optionalen Modul ausgestattet. Damit liefern sie Flexibilität und hohe Durchsatzraten.

Datenverschlüsselung inklusive

Mit den Remote Ethernet Devices kann ein sicheres Netzwerk einfach auf andere Standorte ausgeweitet werden. Dafür ist kein technisches Fachwissen am Remote-Standort erforderlich; man gibt lediglich die ID der RED-Appliance in der Administrationsoberfläche der Firewall ein und schickt das Gerät an den Standort. Sobald das Gerät mit dem Internet verbunden ist, stellt es automatisch eine Verbindung zur Firewall her und baut einen sicheren Ethernet-Tunnel auf – inklusive Fernwartung und Datenverschlüsselung.

Neben der hohen Sicherheit und Kosten-Nutzen-Kalkulation lag der Vorteil der beschriebenen Lösungen für die IT-Verantwortlichen insbesondere darin, dass alle Anforderungen in einer zentralen Appliance über alle Außenstellen und Schulen hinweg erreicht wurden und dadurch eine zentrale Administration möglich ist. Zudem ist zu einem späteren Zeitpunkt ein Wechsel auf die Sophos-XG-Plattform möglich, die zusätzliche Security-Features, darunter Synchronized Security, d.h. die intelligente Vernetzung aller Sicherheitsinstanzen, bietet.

Nachdem die neuen Internetanbindungen standen, wurden Server, Netzwerk und Clients auf den neusten Stand gebracht. Gleichzeitig wurden die UTM-Appliances in redundanter Ausführung im zentralen Verwaltungsgebäude der Marktgemeinde in das Netzwerk eingebunden. Sie dienen als zentrales Gateway für alle Internetzugänge der Verwaltung und schützen diese bereits am Zugangspunkt. Speziell die multiplen Web-Proxy-Konfigurationsmöglichkeiten der Firewall ermöglichen einen stabilen und sicheren Internetzugang je nach eingesetztem Endgerät. Die Außenstellen wurden mit insgesamt sieben RED-Appliances angebunden.

Für die Firewalls bietet der Hersteller unterschiedliche Funktionspakete. Die Gemeinde entschied sich für die Full-Guard-Option mit großem Funktionsumfang inklusive Sicherheit für Netzwerk, Web, E-Mail, Wireless und Webserver. Dadurch konnten weitere Anforderungen erfüllt werden, darunter OTP (One Time Passwort), ein HTML5-Portal und ein Gastnetzwerk mittels eines Hotspot-Portals. Insbesondere für die Schulen wurde somit eine Situation geschaffen, die den heutigen Anforderungen an Zuverlässigkeit und Schutz entspricht. Kinder- und Jugendschutz für jegliche Art von Gerät hatten höchste Priorität und konnten gelöst werden.

„Gemeinden und öffentliche Organisationen müssen heute ihren Bürgerinnen und Bürgern moderne und digitale Lösungen bieten. Dabei hat der öffentliche Apparat besondere Sorgfaltspflicht in Bezug auf Datenschutz und Security. Diese muss meist mit einer relativ kleinen IT-Mannschaft bewerkstelligt werden. Effizienz bei höchstem Wirkungsgrad ist daher essenziell, insbesondere in der Security“, betont Florian Brandl, IT-Administrator bei der Marktgemeinde Peiting, abschließend.

Bildquellen: iStock/Getty Images Plus, Markt Peiting

]]>
IT-Director Sicherheit
news-23755 Wed, 21 Aug 2019 13:01:00 +0200 Deutlich höhere Budgets für Cybersicherheit http://www.it-zoom.de/it-director/e/deutlich-hoehere-budgets-fuer-cybersicherheit-23755/ Unternehmen investieren verstärkt in Cybersicherheit, so das Ergebnis einer aktuellen Studie. Demnach planen 2020 mehr als zwei Drittel Investitionen von mindestens fünf Prozent ihres IT-Gesamtbudgets. Laut Studie planen 68,5 Prozent der Unternehmen im Jahr 2020 mindestens fünf Prozent ihres IT-Gesamtbudgets für Cybersicherheit zu investieren – im Jahr 2019 waren das nur 56 Prozent. 30 Prozent wollen 2020 sogar mehr als zehn Prozent investieren (2019: 19 Prozent). Das geht aus einer weltweiten Untersuchung der Wirtschaftsprüfungs- und Beratungsgesellschaft PwC hervor. Ein wichtiger Grund für die gestiegene Bereitschaft: Die Cybersicherheitsteams werden sich in den nächsten Jahren verändern müssen. Davon sind 2.280 von 3.000 der im Rahmen der Studie weltweit befragten Unternehmensverantwortlichen (76 Prozent) überzeugt.

„Die erkennbaren Budgeterhöhungen unterstreichen die betriebswirtschaftliche Relevanz, die Unternehmen der IT-Sicherheit heute einräumen“, sagt Jörg Asma, Partner und Cyber Security Leader von PwC, und weiter: „War eine ausreichende Investition in Cybersicherheitskapazitäten und -personal vor einigen Jahren noch ein eher notwendiges Übel, ist sie heute strategischer Imperativ. Unsere Erfahrungen zeigen: Mit einer Investitionsquote von mehr als fünf Prozent sind die Chancen für Unternehmen immens viel besser, größere Gefahren frühzeitig erkennen und ihnen bei minimalem Schaden zu begegnen. Gleichzeitig haben die Unternehmen auch erkannt, dass eine qualitative Veränderung einsetzen muss, um die Sicherheit auch in der Zukunft aufrecht erhalten zu können.“

Signifikante Veränderungen

Gemäß der Umfrage sind 76 Prozent der Unternehmen der Ansicht, dass signifikante Veränderungen in den Cybersicherheitsteams notwendig sein werden, 20 Prozent halten dies sogar für ‚sehr‘ signifikant. Dabei sind die wichtigsten Gründe für eine Veränderung:

  • 72 Prozent haben als Anforderung an die Cybersicherheit eine deutliche stärkere Einbindung der dort tätigen Spezialisten in die Strategie und geschäftliche Prozesse benannt.
  • 64 Prozent sind der Ansicht, dass die Fähigkeit entwickelt werden muss, auch Dritte – wie Zulieferer oder Partner – hinsichtlich ihrer Cybergefahren zu analysieren.
  • 49 Prozent halten die Einführung von Automatisierung und Künstlicher Intelligenz (KI) für die wichtigste Veränderung, auf die sich Cyberteams künftig einstellen müssen. Es folgen eine engere Zusammenarbeit mit dem Risk Management (dies halten 37 Prozent für immens wichtig) sowie ein unmittelbares, regelmäßig Reporting an Vorstand und Aufsichtsrat (32 Prozent).

„Aufgrund der vielfältigen Bedrohungslage hätte man erwarten können, dass Cyberspezialisten vor allem vor neue technische Herausforderungen gestellt werden“, so Jörg Asma. „Dagegen werden vor allem Business- und so genannte Softskills die Kompetenzen sein, die für die Veränderung der Abteilungen benötigt werden. Ob es eine engere Einbindung in die Strategie, ein Reporting an den Vorstand oder eine bessere Zusammenarbeit mit dem Risk Management ist: IT-Sicherheitsexperten wird immer mehr klassische Managementkompetenz in Verbindung mit exzellenten kommunikativen Fähigkeiten abverlangt, da Cybersicherheit heute eine Schnittstellenfunktion ist.“

]]>
IT-Director Sicherheit Startseite it-zoom
news-23749 Wed, 21 Aug 2019 12:10:08 +0200 217 Shuttles sorgen für effiziente Kundenbelieferung http://www.it-zoom.de/it-director/e/217-shuttles-sorgen-fuer-effiziente-kundenbelieferung-23749/ Dematic automatisiert das neue Distributionszentrum des Hartmetallproduzenten Ceratizit in Kempten (Allgäu). Hierfür installiert der Intralogistikspezialist ein sieben-gassiges Multishuttle-System mit rund 90.000 Behälterstellplätzen, das eine platzsparende Lagerung ermöglichen soll. In dem Lagersystem greifen 217 Shuttles automatisch auf die Behälter zu und befördern diese direkt zu den Hochleistungskommissionierstationen. Dadurch erzielt das System eine Durchsatzrate von bis zu 570 Behältern pro Stunde und Arbeitsplatz, heißt es, sodass Ceratizit die Effizienz bei der Auftragszusammenstellung steigert. 26 Arbeitsstationen für das Verpacken der Ware sowie 24 für den Warenein- und -ausgang komplettieren die Anlage. Diese sind über insgesamt 1,7 Kilometer lange Förderstrecken an das Lagersystem angeschlossen.

Das Multishuttle-System passe aufgrund seines Automatisierungsgrads und seiner kompakten Bauweise optimal zu den Anforderungen von Ceratizit, so der Anbieter. Zudem stelle es bei hoher Durchsatzrate sowie fehlerloser Kommissionierung eine zuverlässige und effiziente Bestellabwicklung sicher. Etwa 3.000 Quadratmeter Grundfläche nimmt das System mitsamt den Arbeitsplätzen im neuen Distributionszentrum des Hartmetallproduzenten in Anspruch. Durch die direkte Anbindung der Regalgassen an die Kommissionierplätze und den Inter-Aisle-Transfer soll kein Fördertechnik-Loop in der Vorzone notwendig sein. Die Technologie sorge dafür, dass sich die Behälter innerhalb des Regals über alle Gassen hinweg bewegen lassen. Auf diese Weise können die Kommissionierstationen flexibel auf Waren aus allen Gassen zugreifen. Darüber hinaus werde die Ausfallsicherheit des Systems gesteigert.

Bildquelle: Dematic

]]>
IT-Director Lager und Logistik
news-23748 Wed, 21 Aug 2019 11:59:31 +0200 Bessere Integration und Kommunikation gewünscht http://www.it-zoom.de/it-director/e/bessere-integration-und-kommunikation-gewuenscht-23748/ In einer Marktstudie hat MobileX 112 Unternehmen aus den Branchen Maschinen- und Anlagenbau, Medizintechnik, Energieversorgung, Facility Management, IT- und Telekommunikation in der DACH-Region zum Thema „Subunternehmer-Integration“ befragt. Die Umfrage hat ergeben, dass fast alle Unternehmen mit externen Dienstleistern aus unterschiedlichen Gründen zusammenarbeiten. Die größte Herausforderung stellen dabei die Beauftragung und Rückmeldungen dar, da die meisten Unternehmen dafür noch keine dedizierten IT-Systeme nutzen. Das Optimierungspotential bei der Integration der Subunternehmen, wie die Vermeidung von Medienbrüchen und die Beschleunigung von Prozessen, ist deswegen besonders hoch.

Der Anteil der Aufträge, die an Subunternehmer vergeben werden, variiert je nach Unternehmen. Bei gut einem Drittel der befragten Unternehmen liegt der Anteil der extern vergebenen Aufträge unter zehn Prozent. Für 21,7 Prozent übernehmen externe Kräfte bis zu 20 Prozent der Aufträge. Bis zu 50 Prozent machen es bei 15,2 Prozent der Auftraggeber aus.

Auch die Anzahl der Subunternehmen, mit denen die Auftraggeber zusammenarbeiten, ist unter den Befragten sehr unterschiedlich. 26 Prozent vergeben ihre Aufträge an bis zu 20 verschiedene Nachunternehmer. 21 Prozent der Unternehmen arbeiten mit bis zu 50 Subunternehmen zusammen, bei 14 Prozent sind es jedoch nur bis zu fünf, zwölf Prozent nutzen sogar bis zu 100 Dienstleister.

Die Gründe für die Beauftragung von Subunternehmern sind dabei vielfältig. 37,8 Prozent nutzen externe Dienstleister wegen fehlender interner Kapazitäten. Für 21,4 Prozent decken sie bestimmte Regionen oder Länder ab. 11,2 Prozent der befragten Unternehmen setzten sie zur Abdeckung von bestimmten Service-Zeiten, wie z.B. am Wochenende ein. Und für 14,3 Prozent punkten Subunternehmer mit besonderen Qualifikationen, die den eigenen Mitarbeitern fehlen.

Eine besondere Herausforderung bei der Zusammenarbeit mit Subunternehmern stellt die Art und Weise der Beauftragung und Rückmeldung über die geleisteten Aufträge dar. Die meisten Unternehmen (40,5 Prozent) beauftragen ihre Subunternehmer per E-Mail, 22,8 Prozent per Telefon und nur 10,1 Prozent über eine Service-App. Auch für ihre Rückmeldungen nutzen die meisten Subunternehmer E-Mails (36,4 Prozent), ein Online-Portal (19,5 Prozent) oder die postalische Zusendung (18,2 Prozent). Nur 10,4 Prozent der Subunternehmer melden ihre Aufträge über eine Service-App zurück.

Einen Überblick über den aktuellen Bearbeitungsstatus der Aufträge erhalten die meisten Unternehmen gar nicht (32,4 Prozent) oder nur auf telefonische Nachfrage (38 Prozent). Nur knapp 20 Prozent der Auftraggeber wissen, wie es um den Status ihrer vergebenen Aufträge steht, da die Techniker diesen über ein Online-Portal oder über eine Service-App pflegen.

Knapp zwei Drittel der Befragten (68,5 Prozent) wünschen sich eine bessere Integration und Kommunikation mit ihren Subunternehmern über ein gemeinsam genutztes Portal. Den Nutzen einer IT-gestützten Integration in ihre Prozesse sehen Unternehmen in einer einfacheren und schnellere Delegation der Aufträge an die Subunternehmern (32,14 Prozent), mehr Transparenz und Auskunftsfähigkeit gegenüber dem Kunden über den Bearbeitungsstatus (31,25 Prozent) sowie in digitalen Rückmeldungen (27,68 Prozent).

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Studien
news-23746 Wed, 21 Aug 2019 11:22:44 +0200 Planungssicherheit für Scandienstleister http://www.it-zoom.de/it-director/e/planungssicherheit-fuer-scandienstleister-23746/ Beim Erkennen und Extrahieren von handschriftlich ausgefüllten Formularen sind Scanproduktionen auf die Arbeit mit Menschen angewiesen. Wie sie diese Arbeit organisieren und mit Blick auf die DSGVO rechtlich absichern, das macht den Unterschied im Wettbewerb. Mit Cloudservices und Crowdworkern können die Informationen in den Dokumenten schnell und günstig erschlossen und die Leistungen pünktlich an die Kunden geliefert werden. Bei der Verarbeitung von handschriftlich ausgefüllten Formularen nutzen viele Scandienstleister und Poststellen die Leistungen von Mitarbeiterinnen und Mitarbeitern, die Texte und Daten von den Dokumenten in die Datenbanken der nachfolgenden Systeme tippen. In vielen Unternehmen haben diese Mitarbeiter ihre Arbeitsplätze beim Dienstleister oder in der Poststelle. Andere Anbieter lassen ihre Formulare in Länder mit niedrigeren Löhnen als in Europa und den USA lesen und transkribieren: So sind beispielsweise Indien und Mexiko für Services rund um Dokumentenerkennung und Dokumentenmanagement bekannt.

Doch mit DSGVO haben sich die gesetzlichen Vorgaben bei der Formularverarbeitung gedreht; das Outsourcing dieser Leistungen ins Ausland wird praktisch verboten. Alle Beteiligten sollten sich darüber im Klaren sein, dass es rechtlich nicht mehr möglich ist, elektronische Dokumente mit Klarnamen und persönlichen Daten an eine dritte Partei aus dem Haus zu geben. Und der Einsatz von OCR-Software ist keine Alternative für die Arbeitskräfte an den Arbeitsplätzen der Scandienstleister oder der Servicepartner in Indien. Denn noch immer wird Handschrift von den OCR-Systemen nicht so gut und so zufriedenstellend erkannt, dass sie die Menschen an den Arbeitsplätze ersetzen könnte.

Als neuen Lösungsansatz bringen die Hersteller jetzt Cloudtechnologien und die Arbeit mit Crowdworkern in Spiel.

DSGVO verbietet das Verschicken von Dokumenten an Dienstleister

Das Konzept sieht vor, dass niemals ein vollständiges, digitales Dokument über die Netzwerke zur Schrifterkennung geschickt wird. Die Software nimmt stattdessen die gescannten Dokumente entgegen, erkennt die handschriftlich ausgefüllten Felder und schneidet Schnipsel aus ihnen heraus. Die Lösung markiert Schnipsel mit einem Code als eineindeutiges Kennzeichen und fasst gleichartige Schnipsel als jeweils einen Job zusammen.

Über die Onlineschnittstelle werden diese Jobs in die Cloud geladen. Von hier aus übernehmen die Crowdworker. Die sind über die ganze Erde verteilt und greifen über ihren Onlinezugang auf die Jobs zu. Sie lesen die Buchstaben und Zahlen und tippen sie in die Felder der Erkennungssoftware in der Cloud. Dann setzt die Software anhand der eineindeutigen Codierung die einzelnen Teile wieder zum Originaldokument zusammen.

Die Garantie des Herstellers: Keinem Crowdworker sind Rückschlüsse auf bestimmte Personen, Inhalte oder Dokumente möglich.

Sichere Auftragsabwicklung auch bei Peaks

Viele Leistungen von Scandienstleistern sind extrem saisonabhängig oder haben unerwartete Peaks. So gelten bei Banken und Versicherungen die letzten Monate eines Jahres als besonders aufwändig. Bei Marketingaktionen oder Produkteinführungen explodieren die Zahlen der Einsendungen – etwa von handschriftlich ausgefüllten Postkarten oder Gutscheinen – von einem Tag auf den anderen.

Doch auch unter extremen Bedingungen ist auf die Cloudlösung Verlass: Sie skaliert sich implizit; Produktionsleiter und IT-Administration müssen sich um nichts kümmern. Und je mehr Belege die Dienstleister zum Erkennen in die Cloud schicken, desto mehr Server werden sich dort automatisch verlinken. Die Anwender können darauf vertrauen, dass die Crowdworker immer wach sind. Rund um die Erde arbeitet immer jemand an ihren Formularen und so sind die erkannten Informationen typischerweise bereits innerhalb von wenigen Minuten als Datensätze zurück.

Aber entscheidend ist, dass die Anwender diese Mitarbeiter in der Cloud überhaupt nicht sehen: Die Systeme des Herstellers ibml legen etwa die digitalen Dokumente in das Modul „Crowdconnector“ und danach geschieht alles automatisch – am Ende schickt die Cloud alle Dokumente zusammen mit den erkannten und extrahierten Daten wieder zurück ins System.

Die Cloudanwendung verspricht den schnellen Return der Investitionen

Die Scandienstleister erhalten Planungssicherheit und ein stabiles Fundament bei der Angebotskalkulation. Sie können die pünktliche, vertragsgemäße und rechtlich einwandfreie Lieferung der erkannten Daten aus handschriftlich ausgefüllten Formularen garantieren. So stehen Sie im Wettbewerb mit anderen Anbieter in der ersten Reihe.

Aber die echten Kostenvorteile zeigen sich bei der Infrastruktur, die der Dienstleister nicht mehr benötigen wird. Sowohl Cloud wie auch die Crowdworker sind extrem skalierbar. Und in dem Moment in dem der Auftrag kommt, benötigt das Unternehmen keine zusätzlichen Arbeitsplätze, keine Software, keine Systemadministration und spart zudem die Personalkosten. Gleichgültig wie groß der Auftrag ist – die Jobs gehen in die Cloud und kommen schon nach wenigen Minuten zu nahezu einhundert Prozent erkannt, fertig und erledigt zurück ins System.

Bildquelle: Getty Images / Thinkstock

]]>
IT-Director Startseite it-zoom Cloud
news-23736 Tue, 20 Aug 2019 15:18:12 +0200 So tarnen sich Cyberkriminelle http://www.it-zoom.de/it-director/e/so-tarnen-sich-cyberkriminelle-23736/ Der aktuelle „Global Threat Landscape“-Report von Fortinet zeigt, dass Cyberkriminelle weiterhin nach immer neuen Schwachstellen auf der gesamten digitalen Angriffsfläche von Unternehmen suchen. Mit Ausweich- und Antianalyseverfahren werden ihre Ansätze dabei immer ausgefeilter. Moderne Malware verfügt oft bereits über Funktionen, um Antiviren oder andere Maßnahmen zur Bedrohungserkennung zu umgehen. Erst kürzlich zeigte eine großangelegte Spam-Kampagne, wie Angreifer diese Techniken einsetzen und optimieren. Dabei wurden Phishing-E-Mails versandt, die ein Excel-Dokument mit einem bösartigen Makro enthielten. Die Attribute des Makros waren darauf ausgelegt, Sicherheits-Tools zu deaktivieren, willkürlich Befehle auszuführen und Speicherprobleme zu verursachen. Zudem sollten sie sicherstellen, dass sich das Makro nur auf japanischen Systemen ausführen ließ. Eine Rolle spielte dabei auch eine xlDate-Variable, die bisher nicht vom Hersteller dokumentiert ist.

Ein weiteres Beispiel ist eine Variante des Dridex-Banking-Trojaners, der bei jeder Anmeldung des Opfers die Namen und Hashes von Dateien ändert. Das macht es schwierig, die Malware auf infizierten Host-Systemen zu erkennen. Der Einsatz von Anti-Analyse- und Ausweichtaktiken nimmt also zu. Eine vielschichtige Verteidigung und verhaltensbasierte Bedrohungserkennung sind daher unerlässlich.

Verschleierte Attacken

Die Malware Zegost ist das grundlegende Element einer Speer-Phishing-Kampagne. Wie bei anderen Infostealern ist das Hauptziel von Zegost, Geräteinformationen zu sammeln und zu exportieren. Im Vergleich zu anderer Malware enthält Zegost jedoch bislang einzigartige Konfigurationen, um nicht entdeckt zu werden. Beispielsweise gibt es eine Funktion zum Löschen von Ereignisprotokollen. Diese Art der Bereinigung ist bei typischer Malware nicht zu beobachten.

Eine weitere interessante Ausweichstrategie von Zegost ist ein Befehl, der den Infostealer bis zum 14. Februar 2019 in eine Art Ruheposition versetzte. Erst danach begann er seine Infektionsroutine. Die kriminellen Akteure hinter Zegost nutzen ein ganzes Arsenal an Exploits. Ihr Ziel ist es, eine Verbindung zum anvisierten Opfer herzustellen und aufrechtzuerhalten. Das macht sie im Vergleich zu anderen Angreifern zu einer langfristigen Bedrohung.

Zielgerichtete Angriffe

Vermehrte Angriffe auf Städte, Kommunalverwaltungen und Bildungseinrichtungen zeigen, dass Ransomware weiterhin eine ernsthafte Bedrohung für Organisationen darstellen. Der Trend geht zudem weg von Massenangriffen hin zu immer zielgerichteteren Attacken. Beliebte Opfer sind Unternehmen, die sowohl um sensible Daten fürchten müssen als auch finanziell in der Lage sind, Lösegeld zu zahlen. In einigen bekanntgewordenen Fällen haben Cyberkriminelle bereits im Vorfeld umfangreiche Recherchen durchgeführt. So konnten sie ihre Ransomware auf sorgfältig ausgewählten Systemen einsetzen und damit ihre Erfolgschancen maximieren. Ein Beispiel dafür ist die Robbinhood Ransomware. Sie wurde entwickelt, um die Netzwerkinfrastruktur eines Unternehmens anzugreifen. Die Malware kann Datenverschlüsselungen verhindern, indem sie Windows-Dienste deaktiviert und die Verbindung zu gemeinsam genutzten Laufwerken trennen.

Eine neue Ransomware namens Sodinokibi könnte eine weitere Bedrohung für Unternehmen werden. Funktionell unterscheidet sie sich zwar nicht sehr stark von anderen aktuellen Erpressungstrojanern, problematisch ist allerdings ihr Angriffsvektor. Dieser nutzt eine neuere Schwachstelle aus, die beliebige Code-Ausführungen ermöglicht. Dadurch ist auch keine Benutzerinteraktion nötig wie bei anderer Ransomware, die etwa durch Phishing-E-Mails zugestellt wird.

Unabhängig vom Angriffsvektor stellt Ransomware weiterhin eine ernsthafte Bedrohung für Unternehmen dar. Regelmäßige Patches sowie Aufklärung über Informationssicherheit sind daher elementar wichtig. Darüber hinaus zeigen Schwachstellen von Remote-Desktop-Protokollen (RDP) wie Bluekeep, dass Cyberkriminelle Remote Access Services als Angriffsvektoren nutzen können, um Ransomware zu verbreiten.

Fatale Folgen

Zwischen dem simplen heimischen Druckernetzwerk und den komplexen IT-Systemen in Unternehmen der kritischen Infrastrukturen (Kritis) gibt es auch immer mehr Kontrollsysteme für Privathaushalte und kleinere Unternehmen. Angreifer schenken diesen bisher wenig Beachtung – doch das könnte sich ändern. Seit kurzem werden erhöhte Aktivitäten auf Systemen wie Klimaanlagen, Überwachungskameras und Security-Anlagen festgestellt. In einem Prozent der Unternehmen zeigten Gebäude-Management-Lösungen ungewöhnliches Verhalten. Auf den ersten Blick scheint dies nicht viel zu sein, allerdings ist diese Rate höher als normalerweise bei ICS- oder Scada-Systemen.

Cyberkriminelle suchen nach neuen Möglichkeiten, um sich Zugriff auf Kontrollsysteme in Privathaushalten und kleineren Unternehmen zu verschaffen. Oftmals werden solche Geräte als unwichtig eingestuft oder unterliegen nicht der Kontrolle einer IT-Abteilung. Allerdings verdient die Sicherheit solcher intelligenten Systeme mehr Aufmerksamkeit. Denn: Zugang zu diesen kann fatale Folgen für die Sicherheit haben. Besonders im Hinblick auf den Trend zu Remote-Arbeitsplätzen ist ein sicherer Zugriff essenziell.

Umfassende Security-Architektur

Dynamische, proaktive und in Echtzeit verfügbare Bedrohungsinformationen können dabei helfen, Trends zu identifizieren und die Entwicklung von Angriffsmustern zu beobachten. So können Unternehmen Prioritäten in ihrer Security-Strategie setzen. Allerdings ist dies nur stark eingeschränkt möglich, wenn Bedrohungsinformationen nicht in Echtzeit auf jedem angebundenen Security-Tool verfügbar sind. Nur eine umfassende Security-Architektur, eine Security Fabric, die breit angelegt und integriert ist sowie automatisiert arbeitet, kann die gesamte Netzwerkumgebung – IoT, Edge, Netzwerkkern und Multi-Cloud – schützen und Skalierbarkeit sowie Geschwindigkeit bieten.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Studien
news-23725 Tue, 20 Aug 2019 15:05:00 +0200 Großes Datenleck bei Mastercard http://www.it-zoom.de/it-director/e/grosses-datenleck-bei-mastercard-23725/ In einem Online-Forum wurden die privaten Nutzerdaten von rund 90.000 Teilnehmern eines Mastercard-Bonusprogramms entdeckt. Mit „Priceless Specials” führte Mastercard im Januar 2018 sein eigenes Loyalitätsprogramm ein, bei dem Kunden für Transaktionen mit Bonuspunkten belohnt wurden, die dann wiederum gegen ausgewählte Prämien eingetauscht werden konnten. Einem Forum-Eintrag zufolge wurden nun die privaten Daten von rund 90.000 Teilnehmern dieses Programms öffentlich verbreitet. Dabei soll es sich um Informationen wie Name, E-Mail-Adresse, Anschrift, Telefonnummer und Teile der Kartennummer handeln, die in einer umfangreichen Tabelle aufgelistet werden.   

Der Link zu der Datei wurde in dem Forum der Shopping-Community Mydealz veröffentlicht und wurde dort von den Moderatoren umgehend gelöscht, um eine weitere Verbreitung der Daten zu unterbinden. Mastercard hat derweil bekannt gegeben, dass man über das Problem informiert sei und den Fall mit Hochdruck untersuche. Die Plattform für das Bonusprogramm wurde in der Zwischenzeit gesperrt, Betroffene sollen bisher aber nicht informiert worden sein.

Bildquelle: Thinkstock/iStock

]]>
Philip Fassing IT-Director Startseite it-zoom Sicherheit
news-23727 Tue, 20 Aug 2019 10:38:05 +0200 Der Schlüssel zu mehr Sicherheit http://www.it-zoom.de/it-director/e/der-schluessel-zu-mehr-sicherheit-23727/ Netapp, Spezialist für Daten in der Hybrid Cloud, und Bosch Building Technologies, Experte für Sicherheits- und Kommunikationslösungen, stellen gemeinsam eine Sicherheitslösung vor. Das „Bosch Video Management System“ (BVMS) nutze Echtzeitdaten und die Vernetzung durch IoT und KI für einen zusätzlichen Sicherheitsgewinn. Dies gelinge durch die Kombination von Netapp-Hybrid-Flash-Arrays mit dem Bosch Video Recording Manager (VRM) für ein Konzept der Speichervirtualisierung. Das Ergebnis: Videostreams und Speicherkapazität werden optimal ausbalanciert und so abgesichert, dass die Prozesse auch bei einem Festplattenausfall einfach weiterlaufen.

Daten und ihre Verfügbarkeit sind für Bosch Building Technologies und deren Kunden entscheidend. Das Produktportfolio umfasst u.a. Systeme für Videoüberwachung, Zutrittskontrolle, Einbruch- und Brandmeldung sowie Sprachalarmierungssysteme, die Kunden dabei unterstützen, ihr Umfeld sicherer zu gestalten. Damit eine Sicherheitslösung Personen und Objekte beweissicher abbilden und erfassen kann, braucht sie Topwerte bei Auflösung, Bildwiederholrate, Dynamik und Lichtempfindlichkeit. Ihre Daten müssen aber auch effizient zu handhaben sein. Bosch Building Technologies arbeitet daher seit 2011 mit Netapp zusammen.

Für den Einsatz an Flughäfen, Betriebsgeländen, Hotelanlagen und Stadien genügt es jedoch nicht, nur aufzuzeichnen. „Unsere Videosysteme verarbeiten Bilddaten in Echtzeit“, erläutert Bernhard Schuster, Executive VP, Bosch Building Technologies. „Der Austausch der Informationen mit Sicherheits- und anderen Unternehmenssystemen im Lager oder in der Produktion ist der Schlüssel, um die Sicherheit noch weiter zu erhöhen und zugleich die Kosten zu senken.“

Der Schlüssel zu mehr Sicherheit und Effizienz ist die nahtlose Weitergabe der Daten an übergeordnete Systeme. Durch das Addieren von IoT und KI machen intelligente Funktionen vom Sensor bis zur Connectivity die Kamera zum Smart Device, das in einer digitalen Infrastruktur wertvolle Daten liefert. Verdächtige Aktivitäten werden in Echtzeit vom Algorithmus des Gerätes erkannt. Das können u.a. das Aufspüren von Bestandsdiebstahl oder das Verfolgen von fehlenden Sendungen in großen Lagern sein, oder das Erkennen von Flammen und Rauch in Sekundenschnelle. Das wiederum soll Sicherheitsmitarbeiter in die Lage versetzen, schnell und effizient zu handeln.

Das Besondere an der gemeinsamen Lösung: die Integration von VRM und E-Series Hybrid Flash Arrays als Teil des BVMS. Das Netapp-Betriebssystem sei so angepasst, dass der Datenstrom direkt auf den Storage geschrieben werde. Mittels Virtualisierung ließen sich alle Festplatten einer Lösung als ein großer Speicher-Pool managen. Auf diese Weise könne der VRM automatisch Videostreams und Speicherkapazität optimal ausbalancieren und so absichern, dass die Prozesse auch bei einem Festplattenausfall weiterlaufen.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Sicherheit
news-23724 Tue, 20 Aug 2019 09:58:41 +0200 Digitalisierung: Kluge Köpfe sind gefragt http://www.it-zoom.de/it-director/e/digitalisierung-kluge-koepfe-sind-gefragt-23724/ Neben den technologischen Grundvoraussetzungen kommt es bei erfolgreichen Digitalprojekten vor allem auf die Kompetenz der involvierten Mitarbeiter an, die sich mittels Weiterbildung oder in firmeneigenen Digital­laboren ausbauen lässt. In Zeiten zunehmender Digitalisierung gilt einmal mehr, dass kaum ein Unternehmen vor dem Wandel gefeit ist. So ist gemäß einer Erhebung der Boston Consulting Group die durchschnittliche Lebensdauer eines Großunternehmens in den letzten 50 Jahren um 75 Prozent gesunken – von durchschnittlich 60 Jahren auf nur noch 15 Jahre. „Globalisierung, der rasche technologische Fortschritt und die ständig wechselnden Anforderungen der Endkunden sprechen eine deutliche Sprache: mitspielen in der digitalen Welt oder untergehen“, betont Doris Niederwieser, Customer Sales Director DACH bei Sum Total, in diesem Zusammenhang.

Gefragt sind Führungskräfte und Mitarbeiter, die sich für Digitalthemen begeistern können. Diese müssen jedoch keine bedingungslosen Digitalenthusiasten sein, die blindlings allen hippen Trends folgen. Denn der eine oder andere postulierte „Hype“ kann sich schnell als heiße Luft erweisen. Vielmehr gilt es, auf Basis von erprobten Infrastruktur- und Software-Technologien das Beste für das eigene Unternehmen herauszuholen.

Eine wichtige Grundlage für erfolgreiche Digitalprojekte ist demnach die Weitsicht von Führungskräften und Mitarbeitern. Unter Beweis stellen können sie diese jedoch nur, wenn auch die entsprechenden Kompetenzen vorhanden sind. Deshalb sollten die Unternehmen zum einen die Aus- und Weiterbildung fördern sowie zum anderen passende talentierte Fachkräfte einstellen.

Über die Art, wie man Digital-Know-how in den Unternehmen vermittelt, gibt es unterschiedliche Ansichten. Eine Befragung von Sopra Steria Consulting unter 354 Führungskräften kam kürzlich zu folgenden Ergebnissen: Mehr als die Hälfte der Entscheidungsträger (53 Prozent) halten es für notwendig, dass sich Mitarbeiter auch in der Freizeit zu Digitalthemen informieren und weiterbilden. Demgegenüber erwägen 44 Prozent eine Entlastung im Tagesgeschäft, damit Mitarbeiter Neues erlernen.

„Viele Unternehmen haben in der Vergangenheit vor allem in die Verbesserung ihrer IT-Ausstattung und in neue Technologien investiert. Das war auch kein Fehler“, betont Simon Oberle, Leiter Future Management Consulting von Sopra Steria Next. „Allerdings entwickeln Automatisierungslösungen und Datenanalyse-Tools allein keine digitalen Geschäftsmodelle, dafür braucht es geschulte Spezialisten“, fordert Oberle weiter.

Digitalisierung kennt keine Stechuhr

Dies haben in deutschen Firmen mittlerweile viele Verantwortliche erkannt: Mehr als jeder dritte Betrieb (37 Prozent) fördert beispielsweise gezielt das unternehmerische Engagement seiner Mitarbeiter, so lautet ein weiteres Ergebnis der Studie. Hierarchien werden abgebaut, Führungskräfte treten Entscheidungsmacht an ihre Teammitglieder ab. Ziel sei es, schneller zu Ergebnissen zu kommen als in starren Organisationen. Mit diesem Wandel in der Firmenkultur und den schnelleren Reaktionszeiten bei Veränderungen verknüpfen die Arbeitgeber jedoch auch die Erwartung, dass die Mitarbeiter mehr Verantwortung beim Aneignen notwendiger Fähigkeiten übernehmen.

Dazu zählt beispielsweise die Bereitschaft, sich über das vom Arbeitgeber angebotene Trainingsangebot hinaus fortzubilden – dosiert und je nach Jobprofil auch in der Freizeit. Das Lesen von Blogs, Newslettern und Online-Medien auf dem Weg zur oder von der Arbeit ist gemäß der Umfrage vielfach bereits Standard. Zudem treffen sich Arbeitnehmer nach Feierabend beruflich, weil sie sich ein Karrierenetzwerk aufbauen, und sie suchen sich für ihre persönlichen Ziele passende Online-Kurse heraus, die der Arbeitgeber nicht abdeckt.

„Zentral organisierte Schulungsprogramme können das enorme Veränderungstempo nicht mitgehen und den heute erforderlichen Blick über den Tellerrand nicht immer ermöglichen. Deswegen wird es sich nicht vermeiden lassen, dass intrinsisch motivierte Arbeitnehmer Wissenslücken auch außerhalb der Arbeitszeit schließen. Treffen mit relevanten Digitalköpfen lassen sich beispielsweise nicht zwingend in einen Acht-Stunden-Arbeitstag pressen“, sagt Simon Oberle. Unternehmen empfiehlt er, Angebote für Kernkompetenzen zu schaffen sowie Freiräume, Erlerntes in der Praxis zu testen. „Weiterbildung ohne praktische Anwendung ist eine vertane Investition“, so Oberle.

So sehen Erfolgsrezepte aus

Neben der klassischen Weiterbildung – sei diese von den Arbeitgebern gefördert oder den Mitarbeitern in Eigenregie übernommen – treiben in Deutschland viele Großunternehmen und Konzerne die Digitale Transformation mit eigens etablierten Innovations-Labs voran. Diese wurden kürzlich von der Strategieberatung Infront Consulting genauer unter die Lupe genommen, wobei der Fokus auf folgenden drei Entwicklungsphasen lag:

Innovation Discovery: Wo und wie entstehen die besten Ideen und Konzepte?
Innovation Development: Wie werden diese zu Prototypen entwickelt?
Innovation Scaling: Wie werden Innovationen zu wirtschaftlichen Erfolgen?

Unter den erfolgreichsten Innovations-Teams sind laut Analyse diejenigen, die sich bewusst auf wenige, strategisch ausgewählte Felder für digitale Innovationen konzentrieren. Desweiteren gehen die Innovations-Labs bei der Ideenauswahl mittlerweile konservativer vor: Ideen sollen nicht nur für sich genommen attraktiv und in sich stimmig sein, sie müssen auch die Stärken, Fähigkeiten und Ressourcen des Unternehmens berücksichtigen. Das heißt: Nicht nur die richtigen Themen sind für den Erfolg entscheidend, sondern vor allem auch die richtigen Teams und Köpfe hinter den Innovationen.

Geht es um die Entwicklung zunächst von Prototypen und anschließend um konkrete Produkte verspricht das „Ganz-oder-gar-nicht-Prinzip“ den größten Erfolg: Die besten Digital Labs haben mit einer kompromisslosen Geradlinigkeit überzeugt, auch bei der Personalbesetzung. Denn ein gutes Team ist essentiell für jedes Innovationsvorhaben. Dabei entwickeln erfolgreiche Teams wöchentlich neue – physische wie digitale – Prototypen, um schnell Kundenfeedback einholen zu können. Einen Wermutstropfen gibt es allerdings: Bei den untersuchten Labs ist der Weg bis zu ersten zahlenden Kunden in der Umsetzung meist länger, zäher und anstrengender als zuvor angenommen.

Dies ist ein Artikel aus unserer Print-Ausgabe 7-8/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Als beste „Digital Labs 2019“ wurden die Audi Denkwerkstatt, EnBW Innovation, Qiagen Digital Accelerator, ProSiebenSat.1 Accelerator, SAP Innovation Center Network und Viessmann Wattx gekürt. Mit etwa 230 „Digital Innovations Units“ in Deutschlands etablierten Unternehmen ist die Zahl im Vergleich zu 2018 um ein Drittel gewachsen, so die Analyse. Dabei beschäftige sich ein Großteil der Teams mit bekannten Themen wie Advanced Analytics, Künstliche Intelligenz, Internet of Things oder Plattformökonomie. Ein neues Trendthema stellt Nachhaltigkeit dar, was vor dem Hintergrund der zunehmenden Natur- und Umweltbelastungen ein wünschenswerter Aspekt ist.

 

Hier wird Digitalisierung vorangetrieben ...

In Hessen, Baden-Württemberg und Nordrhein-Westfalen läuft die Digitalpolitik rund, wie der Digitale Länderkompass des Eco-Verbands der Internetwirtschaft aufzeigt. Digitalpolitik ist längst nicht nur Sache der Bundesregierung. Auch die Länder brauchen Strategien für eine digitale Standortpolitik, die die Chancen der Digitalisierung für Kommunen und Städte optimal nutzt. Wie aber gehen die einzelnen Bundesländer mit dieser Herausforderung um? Wie stellen sie sich institutionell zum Thema Digitalisierung auf? Diese Fragen will die Untersuchung beantworten.

Das „Digitale Hessen“ führt den Länderkompass an. Das liegt vor allem daran, dass Hessen die umfassendste Digitalisierungsstrategie entwickelt und bereits viele konkrete Förderprojekte erarbeitet hat. Das unmittelbar dem Ministerpräsidenten zugeordnete und in der Staatskanzlei angesiedelte Ressort für Digitale Strategie und Entwicklung wurde im Januar 2019 gegründet und befasst sich vorrangig mit Fragen der Künstlichen Intelligenz, den Bedürfnissen hessischer Firmen in Fragen der Digitalisierung und gesellschaftlicher Akzeptanz. Auch die im Ranking folgenden Länder Baden-Württemberg und Nordrhein-Westfalen haben sehr gute und breit aufgestellte Digitalisierungsstrategien entwickelt und konnten insbesondere bei der Start-up-Förderung und bei der Digitalisierungsoptimierung bestehender kleiner- und mittelständischer Unternehmen punkten.


Bildquelle: Getty Images / DigitalVision

]]>
Ina Schlücker IT-Director Startseite it-zoom HR Personal
news-23710 Mon, 19 Aug 2019 10:24:22 +0200 So erobert KI den Service http://www.it-zoom.de/it-director/e/so-erobert-ki-den-service-23710/ Wie sich mithilfe Künstlicher Intelligenz die Servicequalität erhöhen lässt Wie autark sind die Personen die sich beim Servicedesk melden? Mit der sogenannten Shift-Left-Methode des Anbieters Topdesk können diese deutlich selbstständiger agieren. Die Methode orientiert sich an der Eskalationskurve eines klassischen Servicedesks. Diese steigt typischerweise von links unten nach rechts oben immer weiter an. Dabei kommt es gleichzeitig zu einer Steigerung der Kosten und des Zeitaufwands. Links unten wäre ein komplett selbstständiger Melder bzw. Kunde und rechts oben eine Eskalation an beispielsweise den 3rd-Level-Support zu sehen. Mit Shift-Left sollen verfügbares Wissen und Lösungen von rechts nach links verschoben werden. Ziel ist es dabei, die Anfragenden selbstständiger zu machen. Aber was ist, wenn die Kunden nicht den richtigen Suchbegriff eingeben und somit nicht die richtige Antwort finden? Oder sie nicht genau wissen, wonach sie suchen sollen? Solche Probleme kann Künstliche Intelligenz (KI) lösen.

Für die Verantwortlichen wäre es von Vorteil, wenn die Melder ihre Fragen selbst beantworten könnten. Zugute käme ihnen auch, wenn sie nicht mehr von den Öffnungszeiten und Kapazitäten des Servicedesks abhängig wären und ihre eigenen Probleme zu einem Zeitpunkt ihrer Wahl lösen könnten. Hier kann Shift-Left nicht nur das Service-Erlebnis, sondern auch den Servicedesk verbessern, indem die Methode die Anzahl der Anrufe aktiv reduziert und sich wiederholende Aufgaben eliminiert. Dies lässt mehr Zeit für anspruchsvollere Problemlösungen. Das Ergebnis? Zufriedenere Servicedesk-Mitarbeiter und Melder. Insbesondere mithilfe der Künstlichen Intelligenz lässt sich der Shift-Left-Ansatz nachweislich verbessern. Folgende Tipps zeigen, wie die KI den Servicedesk-Meldern helfen kann, unabhängiger zu werden.

1. KI hilft, Informationen leichter zu finden

Eine Schlüsselkomponente von Shift-Left ist der Knowledge Centered Service (KCS): Servicedesk-Mitarbeiter erstellen „Knowledge Items“ und die Anfragenden erhalten anschließend die benötigten Informationen aus der Wissensdatenbank. Soweit die Theorie. In der Praxis stellt der Servicedesk oft Informationen zur Verfügung, die der Melder jedoch nicht finden kann. Entweder weil dieser nicht genau weiß, welche Informationen er sucht, oder weil er nicht den gleichen Suchbegriff wie der IT-Spezialist verwendet, der den Wissensartikel geschrieben hat.

Dank der Komponente Natural Language Processing and Understanding (NLPU) der KI sind Computer in der Lage, die menschliche Sprache zu verstehen. Sie können das Thema und den Kontext einer Anfrage erkennen. Für den Servicedesk bedeutet dies, dass der Computer zwei Dinge besser versteht: die Anfrage des Melders und den Betreff des Knowledge Items. Der Nutzen? Die KI ermöglicht es der Maschine, eine viel bessere Übereinstimmung zwischen dem Melderwunsch und der maschinell generierten Lösung herzustellen, auch wenn der Wunsch unklar ist. Die KI erkennt und reportet auch, welche Fragen mithilfe eines Knowledge Items noch nicht beantwortet werden können. Auf diese Weise wissen die Verantwortlichen, welche Informationen sie hinzufügen müssen.

Ist das Unternehmen mehrsprachig aufgestellt, ist es wichtig, dass die Wissensinhalte in mehreren Sprachen verfügbar sind. Die meisten Servicedesks haben jedoch keine eigenen Übersetzer zur Hand. Die KI bietet eine Lösung: NLPU kann Wissensinhalte automatisch übersetzen und so sicherstellen, dass bei Anfragen neue Informationen überall sofort zur Verfügung stehen.

2. Chatbots und virtuelle Assistenten bieten 24/7-Service

Zunehmend findet der erste Kontakt eines Melders mit dem Servicedesk nicht mit einer Person, sondern mit Chatbots statt, die ständig verfügbar sind. Auch mitten in der Nacht und am Wochenende. Zudem haben Bots nichts dagegen, die gleichen Fragen immer und immer wieder zu beantworten. Davon profitieren sowohl die Kunden als auch die Servicedesk-Mitarbeiter. Chatbots helfen den Meldern, die gesuchten Informationen im Dialog zu finden. Für viele Menschen ist dies eine weitaus natürlichere Art, Informationen zu erhalten als eine Suchanfrage. Der Kunde beginnt mit einer allgemeinen Frage, anstatt sofort die richtigen Keywords anzugeben. Der Chatbot findet durch das Stellen zusätzlicher Fragen schnell heraus, was der Melder wissen möchte. Diese Abfrage verhindert, dass die Kunden am Ende des Suchprozesses frustriert sind. Findet der Chatbot nicht die richtigen Informationen, kann er selbstständig ein Ticket erstellen. Einige Chatbots können sogar Probleme selbstständig lösen, z.B. durch das Zurücksetzen von Passwörtern.

3. Maschinelles Lernen (ML) prognostiziert proaktiv Anfragen

In einigen Fällen entfällt durch Maschinelles Lernen – eine weitere KI-Komponente – die Notwendigkeit für die Kunden, nach Informationen zu suchen. Wie funktioniert das? ML ermöglicht es den Verantwortlichen, vorherzusagen, warum Melder das Portal besuchen werden. Diese Vorhersage basiert u. a. auf deren Jobbezeichnung, ihrer Abteilung und ihrem Standort sowie der Aktivität anderer Portalnutzer.

Dies ist ein Artikel aus unserer Print-Ausgabe 7-8/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Durch diese prädiktive Technologie ist das Portal in der Lage, proaktiv die Informationen aufzuzeigen, die Kunden wahrscheinlich suchen. Wie etwa einen Know-how-Artikel oder ein neues Computerbestellformular. Dies ist vergleichbar damit, wie Amazon Vorschläge für Bücher oder Netflix Vorschläge für Serien macht, die der betroffenen Person noch unbekannt sind, ihr aber sicherlich gefallen werden.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Servicemanagement und Helpdesk
news-23709 Mon, 19 Aug 2019 10:08:28 +0200 Doppelspitze für Fiducia & GAD http://www.it-zoom.de/it-director/e/doppelspitze-fuer-fiducia-gad-23709/ Der Vorstand der Fiducia & GAD stellt sich neu auf: Künftig sollen die langjährigen Vorstandsmitglieder Jens-Olaf Bartels und Martin Beyer im Unternehmen in einer Co-Spitze als zentrale Impulsgeber den Wandel im Unternehmen mit einer klaren Strategie vorantreiben. Nach intensiven Beratungen hat der Aufsichtsrat in einer Sitzung am vergangenen Freitag die Vorstandsbesetzung wie auch die künftige Ausrichtung des Unternehmens verabschiedet. Bereits im Frühjahr hatte Vorstandsvorsitzender Klaus-Peter Bruns bekannt gegeben, seinen zum Jahresende auslaufenden Vertrag nicht mehr verlängern zu wollen. Ferner wird der bisherige Ressortchef für Entwicklung und Integration, Carsten Pfläging, aus dem Unternehmen ausscheiden.

Mit der neuen Doppelspitze sendet das Unternehmen ein klares Signal in den Markt. Vertriebsvorstand Jens-Olaf Bartels wird die Kundenorientierung in den Fokus stellen, Martin Beyer wird den bereits eingeleiteten Kulturwandel im Unternehmen vorantreiben. Im Unternehmen ist ein neues Modell der Zusammenarbeit sowie der Führungskultur bereits eingeleitet. Beyer und Bartels werden als Co-Sprecher diese Veränderung in engem Schulterschluss mit ihren Vorstandskollegen Birgit Frohnhoff und Jörg Staff vorantreiben.

„Martin Beyer steht für einen offenen Führungsstil. Er wird die Unternehmensstrategie neu ausrichten sowie auf eine solide wirtschaftliche Entwicklung achten“, erklärt Jürgen Brinkmann, Vorsitzender des Aufsichtsrats der Fiducia & GAD. „Jens-Olaf Bartels wird die richtigen Impulse für attraktive Kundenlösungen setzen, er spricht als Vertriebsvorstand die Sprache der Banken.“

Klaus-Peter Bruns wird wie geplant seine Aufgaben übergeben und sich sukzessive aus dem Unternehmen zurückziehen. Mit Carsten Pfläging verlässt ein Kenner der genossenschaftlichen IT das Unternehmen. Im Zuge der Fusion 2015 hatte er die Zusammenführung der IT-Systeme sowie die Migration der Institute vorangetrieben. Darüber hinaus hatte er zuletzt als Entwicklungsvorstand die Digitalisierungsoffensive der genossenschaftlichen Finanzgruppe auf- und umgesetzt.

Bildquelle: Fiducia & GAD

]]>
IT-Director Startseite it-zoom Leute
news-23700 Mon, 19 Aug 2019 09:00:00 +0200 Bedenkenträger endlich überzeugen http://www.it-zoom.de/it-director/e/bedenkentraeger-endlich-ueberzeugen-23700/ Die Zahlen stimmen: Im Unternehmen freut man sich über langfristige Verträge, loyale Kunden und eine hochmotivierte Belegschaft. Also alles gut? Wäre da nicht die Sache mit der digitalen Transformation, die nicht so recht vorankommt und am internen Widerstand zu scheitern droht. Bei der Transformation werden eingefahrene Prozesse, Arbeitsweisen und Strukturen hinterfragt und modifiziert. Das verursacht – wie alle Veränderungen – nicht nur Freude. Doch welche Faktoren beschleunigen den digitalen Wandel und helfen bei der Argumentation, warum dieser Wandel unumgänglich ist? Die Treiber bilden grundsätzlich ein komplexes und hochsensibles Kontinuum. Das eigene Unternehmen befindet sich mittendrin, ist von vielen Faktoren abhängig und muss sich stetig anpassen, um ökonomisch erfolgreich zu bleiben.

Kunden in Markenbotschafter verwandeln

Einer der wichtigsten Triebfedern der Digitalisierung sind die Kunden, deren Ansprüche stetig wachsen. Sie wollen begeistert werden, nicht nur mit langweiligen Fakten, sondern auch mit emotionalen Argumenten. Das gilt schon länger für den B2C-Bereich, aber immer mehr auch für B2B-Kunden. Brillante Produktpräsentation, grandioser Service rund um die Uhr und eine schnelle, verlässliche Lieferung werden kaufentscheidend – also eine konsistente, digitale Kundenreise vom ersten Kontakt bis zum After-Sale.

Mithilfe digitaler Möglichkeiten lässt sich das realisieren. Dabei ist es völlig egal, ob ein Unternehmen Strümpfe, Schokolade oder Schiffsschrauben verkauft. Die Investition zahlt sich mehrfach aus. Begeisterte Kunden sind nicht nur treue Kunden. Sie strahlen als authentische Werbeträger nach außen und leisten unschätzbare Hilfe für Marke und Vertrieb.

Anbieterwechsel war nie einfacher

Der individuelle Stand der digitalen Transformation ist ein sehr wichtiges Wettbewerbskriterium. Wie gut kennt man den eigenen Wettbewerb? Vielleicht arbeitet die Konkurrenz hinter verschlossenen Türen längst an einer digitalen Strategie und ist sogar schon kurz vorm Ziel. Es ist essenziell, hier Schritt zu halten oder im besten Fall sogar einer der Ersten einer Branche zu sein, die eine exzellente User Experience anbieten.

Muss man im eigenen Unternehmen vor einer Bestellung noch per Fax fragen, ob ein Produkt in ausreichender Stückzahl im Lager liegt? Das vertreibt selbst loyalste Kunden und der Wechsel zur smarten Konkurrenz ist nur einen Klick entfernt.

Investoren folgen Profit

Möglichst viel zu verdienen, war schon immer das natürliche Mantra von Shareholdern. Seismographensensibel spüren sie feinste Störungen. Eine schwindende Kundenbasis oder eine sich verschlechternde Ausgangsposition im Vergleich zur Konkurrenz trüben die Profitaussichten. Das lässt bei Investoren alle Alarmglocken schrillen und macht auch sie zu Treibern der Digitalisierung.

Jetzt sollte man besser eine gute Strategie haben, um Kunden zurückzugewinnen und die Wettbewerbsposition wieder zu stärken. Dabei spielt die digitale Transformation eine überragende Rolle. Sind Shareholder von der Strategie nicht überzeugt, werden sie ihr Geld einfach in profitträchtigere Unternehmen investieren.

 

Netzwerk setzt auf IIoT-Standards

Zulieferer digitalisieren und vernetzen ihre Prozesse und beschleunigen damit die Transformation von ihrer Seite. Logistik funktioniert bereits heute vielerorts vollautomatisiert. KI-gestützte (Künstliche Intelligenz) Überwachungs-Tools identifizieren abnutzende Verschleißteile in Maschinen, bevor diese ausfallen (Predictive Maintenance). Hinter dem Sammelbegriff Industrial Internet of Things (IIoT) verbergen sich weitere Innovationen, etwa für Mobilität (Connected Mobility) oder Energieversorgung (Smart Grids). Diese Lösungen werden bald der Normalfall sein.

Wer sich in diesem neuen Umfeld nicht mitentwickelt, kämpft eine aussichtslose Schlacht. Als Folge findet sich das Unternehmen bald außerhalb des Partnernetzwerkes wieder.

Potential der Mitarbeiter nutzen

Auch die eigene Belegschaft treibt die Digitalisierung voran, denn der Lebensalltag wird immer mehr durch das Internet sowie digitale Anwendungen geprägt. Shoppen, Flirten, das Smart Home steuern, Sprachassistenzen nutzen, Banking, mobil sein und vieles mehr – zu jeder Zeit und dank Smartphone von jedem Ort.

Man muss schon ziemlich verrückt sein, das vorhandene Know-how der Mitarbeiter im Arbeitsumfeld nicht einzusetzen. Wer dieses Potential brachliegen lässt, verliert nicht nur innovationsoffene Kollegen. Er riskiert auch ein schlechtes Arbeitgeber-Image. Das macht im weltweit tobenden „War for Talents“ nahezu chancenlos.

In der heutigen Welt vernetzen sich immer mehr Lebensbereiche, vorangebracht von vielen Treibern. Es gilt, Informationen, Prozesse und Dinge smart zu kombinieren. Eine Erfolgsgarantie gibt es nicht. Aber es gibt Spezialisten wie etwa die Bitgrip GmbH, die Unternehmen sicher durch die digitale Transformation navigieren und damit helfen, diese auch zukünftig wettbewerbsfähig zu halten.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Organisation
news-23695 Fri, 16 Aug 2019 12:40:49 +0200 5G – wichtiges Puzzleteil für Digitalisierung http://www.it-zoom.de/it-director/e/5g-wichtiges-puzzleteil-fuer-digitalisierung-23695/ Im Juni ging die Versteigerung der 5G-Lizenzen in Deutschland zu Ende. Es wird allerdings noch eine Weile dauern, bis der neue Standard bei den Endnutzern ankommt. Zuvor muss die Infrastruktur aufgebaut werden. IT-Profis sollten diese Zeit nutzen, um sich sorgfältig darauf vorzubereiten. Denn 5G gilt als ein wichtiges Puzzleteil der Digitalen Transformation. Rund 6,5 Milliarden Euro hat die Versteigerung der 5G-Lizenzen in die Kassen des Bundes gespült. Die Deutsche Telekom, Vodafone, Telefónica und 1&1 Drillisch können nun mit dem Aufbau ihrer Netze beginnen. Im Vergleich zu 4G bringt die neue Technik weitere Vorteile mit sich – mit Datenraten von 10 Gbit/s, der Nutzung neuer Frequenzbereiche, mehr Frequenzkapazität und Datendurchsatz sowie Latenzzeiten von unter einer Millisekunde. Und was für die Industrie besonders wichtig ist: 5G ist kompatibel mit Maschinen und Geräten und damit ein Katalysator für die Industrie 4.0.

Allerdings ist das meiste davon noch Zukunftsmusik. Denn ohne den Ausbau der entsprechenden Infrastruktur fehlt es dem schnellen Standard an Reichweite. Zwar können Industriebetriebe bereits jetzt mit der Entwicklung ihrer eigenen Netze starten und bald mit Anwendungen loslegen. Der flächendeckende Ausbau für die Allgemeinheit durch die Telekommunikationsunternehmen aber wird erst in einigen Jahren so weit sein. Laut Ausbauauflagen für die Netzbetreiber sollen erst bis Ende 2022 98 Prozent der Haushalte, Autobahnen und viele Bahnstrecken mit schnellem Internet versorgt sein.

Das bedeutet für die IT allerdings nicht, dass sie bis dahin die Hand in den Schoß legen sollte. Im Gegenteil, jetzt gilt es, die Weichen zu stellen, um neue Lösungen einsetzen zu können, sobald 5G das Unternehmen auch tatsächlich erreicht. Die IT sollte diese Zeit nutzen, um sich darauf vorzubereiten. In diesem Zusammenhang gibt es drei wichtige Punkte:

  • Bereit machen: Es gibt bereits einige Anwendungsbeispiele aus der Praxis. Diese gilt es im Vorfeld zu studieren, um zu prüfen, was 5G für das eigene Unternehmen bringen kann. Auch sollten sich IT-Profis rundum informieren, zum Beispiel bei Integrationspartnern, aber auch in Videos oder Blogs. Sicher werden sich dabei auch Anwendungsfälle herauskristallisieren, die für das eigene Geschäft relevant sind. Schließlich wird auch 5G nicht um seiner selbst willen eingeführt, sondern soll die Digitalisierung mit Robotern, Internet of Things und Künstliche Intelligenz (KI) antreiben.
  • Die richtige Herangehensweise wählen: IT-Profis sollten sich einen Überblick über interessante Angebote verschaffen und diese wenn möglich, vergleichen und testen. Sie sollten sich eine gesunde Skepsis bei allen Angeboten bewahren, Alternativen in Betracht ziehen und die Anbieter fordern, ehe sie sich entscheiden. Gerade in der Frühphase der Verfügbarkeit neuer Technologien sind Hersteller gerne bereit, Geräte für eine Testphase zur Verfügung zu stellen, da diese damit weitere Erfahrungen aus dem tatsächlichen Produktivbetrieb sammeln können.
  • Aus frühen Erfahrungen lernen: Wie beim Übergang von 3G auf 4G, wird es auch bei der 5G-Einführung eine Zwischenzeit mit heterogenem Gefüge aus WLAN, 4G und 5G geben. Anwendungen werden daher anfangs nicht konstant hohe Leistungen liefern. Es wird Asymmetrien geben, deren Ursache es schnell zu erkennen und zu beseitigen gilt. So kann man aktuell noch nicht einschätzen, wie das „Network Slicing“ bei den Anbietern implementiert wird, und wie sich die Implementierung auf Anwenderunternehmen auswirkt. Diese frühen Erfahrungen in Sachen 5G sind enorm wichtig, um schnell aus ihnen zu lernen und Kinderkrankheiten zu überwinden. Hier kann Application Performance Monitoring (APM) essentiell sein, um auch in der Übergangsphase für möglichst unterbrechungsfreie Erfahrungen zu sorgen.

5G kommt, wenn auch noch nicht flächendeckend, und wird ein wichtiger Wegbereiter der Digitalen Transformation sein. Die Vorbereitung des eigenen Unternehmens auf die neuen Möglichkeiten sollten IT-Profis als Chance sehen, ihre Bedeutung für die Zukunft des Unternehmens zu untermauern. Denn bei den Zukunftsthemen, die mit 5G in einem Atemzug genannt werden – nämlich Cloud, Internet of Things (IoT), Automatisierung und Künstliche Intelligenz (KI) – ist ihre Gestaltungskraft gefragt.

Gerade diese Fähigkeit kommt aber im Tagesgeschäft vieler IT-Abteilungen oft zu kurz, wird nicht ausreichend gewürdigt oder mit angemessenem Budget hinterlegt. Dabei sehen IT-Profis gerade hier Potential. Das zeigt beispielsweise der IT-Trends-Report 2019 von Solarwinds unter 156 Technikexperten, Managern und Führungskräften in Deutschland. 76 Prozent der Befragten gaben dabei an, zukünftig nicht in der Lage zu sein, effektiv mit innovativen Entwicklungen Schritt zu halten, wenn sich Zeit- und Budgetbeschränkungen nicht verbessern.

Das hängt auch mit der Sicht auf die Rolle der IT im Unternehmen zusammen. Zwar werden IT-Profis für ihren unermüdlichen Einsatz bei den großen und kleinen Problemlösungen sehr geschätzt. Doch fehlt es Geschäftsführern und Mitarbeitern oft an Verständnis dafür, welche wichtige Rolle sie bei den großen Zukunftsfragen spielen sollten. Bei Themen wie 5G oder KI ist neben dem Blick für die Möglichkeiten auch nüchterner und praktischer Sachverstand von Technologieexperten gefragt, um reine Hypethemen zu entlarven.

* Der Autor Sascha Giese ist Head Geek bei Solarwinds.

]]>
IT-Director Netzwerk
news-23688 Thu, 15 Aug 2019 16:30:07 +0200 Neue Datennetze für Großkunden http://www.it-zoom.de/it-director/e/neue-datennetze-fuer-grosskunden-23688/ Kürzlich startete die Telekom eine neue Generation von Netzangeboten für Großkunden. Dabei geht der Anbieter technisch neue Wege und setzt auf die Software-Steuerung der neuen Verbindungen. Software-gesteuerte Netze sind derzeit ein Trend in der Branche. Grund für den Wechsel der Technik sind massiv gestiegene Anforderungen, denn Firmennetze binden immer mehr Maschinen und Gegenstände mit Sensoren ein. Zudem greifen immer mehr Mitarbeiter auf Analyseprogramme und Dienste aus der Cloud zu, was den Datenhunger weiter antreibt. Nicht zuletzt kommen in Echtzeit verfügbare Video-Anwendungen hinzu. Von daher brauchen künftige Netze neben höherer Bandbreite auch schnellere Reaktionszeiten.

Mehr Netzleistung per Mausklick

Bislang steuerten Unternehmen ihre Netzverbindungen mittels Hardware. Brauchten sie mehr Leistung, legte man Hand an die Geräte. Dieses Vorgehen ist jedoch eher unflexibel und teuer. Kein Administrator wird mit dieser Technik künftigen Datenströmen schnell genug hinterher kommen können. Aus diesem Grund soll in modernen Netzen nun Software viele Funktionen von Hardware ersetzen. Auf diese Weise können Administratoren per Mausklick Netzleistung dynamisch zur Verfügung stellen.

Für die neuen Netzangebote nutzt die Telekom Technologie der Partner Cisco, Riverbed, Silver Peak und Velo Cloud. Die Angebote setzen auf „Made in Germany“ und Sicherheit. Dabei werden die Netze aus der Open Telekom Cloud heraus betrieben, für die die strengen Regeln des deutschen Datenschutzes gelten.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Netzwerk
news-23687 Thu, 15 Aug 2019 14:20:54 +0200 So klappt die Personaldisposition bei Infra Fürth http://www.it-zoom.de/it-director/e/so-klappt-die-personaldisposition-bei-infra-fuerth-23687/ Im Zuge der Neuorganisation ihrer Verkehrssparte hat die Infra Fürth GmbH das PSI-Tochterunternehmen Moveo Software GmbH mit der Lieferung und Einrichtung des Personaldispositionssystems Moveo Profahr sowie eines Moduls für die Fahrerinformation inklusive Taxibestellung beauftragt. Der Produktivbetrieb ist für Ende 2019 geplant. Das neue System für die rund 200 Infra-Mitarbeiter soll zukünftig sämtliche Entscheidungen in der Personaldisposition unterstützen, Routinearbeiten reduzieren und für effiziente Arbeitsabläufe sorgen. Dazu zählen u.a. die kurzfristige Zuordnung noch nicht geplanter Dienste, das Lösen von Personalengpässen oder die Fahrzeugeinsatzplanung. Über das Kommunikationsmodul BIK (Betriebsinformation und Kommunikation) können insbesondere mobile Mitarbeiter wie der Fahrdienst, unabhängig vom genutzten Gerät und eingesetzten Betriebssystem, zeitnah über Dienstplanänderungen oder anstehende, interne Veranstaltungen informiert werden. Gleichzeitig erhalten sie die Möglichkeit, ihre persönlichen Anliegen zu kommunizieren.

Klaus Dieregsweiler-Grünsfelder, Geschäftsfeldleiter und Prokurist Verkehrsbetrieb bei Infra, resümiert: „Nachdem wir in Zusammenarbeit mit unserem bisherigen Betriebsführer VAG bereits gute Erfahrungen mit Profahr gemacht haben, fiel uns die Entscheidung leicht, die Kooperation mit Moveo fortzusetzten und das System in unsere neue Systemwelt zu integrieren.“ Perspektivisch prüft Infra auch die Einführung der individuellen Dienstplanung.

Infra Fürth ist als Versorgungs- und Netzdienstleister für das Stadtgebiet Fürth und einige Gemeinden im Umland tätig in den Geschäftsfeldern Versorgung, öffentliche Mobilität und Dienstleistungen. Die Sparte ÖPNV übernimmt die Tochtergesellschaft Infra Fürth Verkehr GmbH.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom HR Personal
news-23684 Thu, 15 Aug 2019 12:18:27 +0200 Pfeiler der Künstlichen Intelligenz http://www.it-zoom.de/it-director/e/pfeiler-der-kuenstlichen-intelligenz-23684/ BASF und die Technische Universität Berlin haben eine enge Zusammenarbeit im Bereich „Maschinelles Lernen“ vereinbart. Ziel des gemeinsamen „Berlin based Joint Lab for Machine Learning“ (Baslearn) ist es, für grundlegende chemische Fragestellungen z.B. aus der Prozess- oder Quantenchemie praktikable neue mathematische Modelle und Algorithmen zu entwickeln. Diesem Ziel wollen sich die beiden Partner in den kommenden Jahren gemeinsam widmen. Als ein wesentlicher Teil der Kooperation unterstützt die BASF in den kommenden fünf Jahren die Forschungsarbeiten von Prof. Dr. Klaus-Robert Müller, Professor für maschinelles Lernen und Sprecher des „Berlin Center for Machine Learning“ an der TU Berlin, mit insgesamt über 2,5 Millionen Euro.

Maschinelles Lernen gilt heute als ein wesentlicher Pfeiler der Künstlichen Intelligenz (KI). Ziel ist es, durch die Analyse von großen Datenmengen Muster und Gesetzmäßigkeiten zu erkennen und Modelle zur Vorhersage zu entwickeln, die sich anhand ihrer Ergebnisse selbstständig optimieren. Systeme zur Spracherkennung oder für autonomes Fahren sind Anwendungsbeispiele aus dem Alltag für solche maschinellen Lernverfahren. „Letztendlich ähneln die mathematischen Modelle dieser Alltagsbeispiele denen, die im digitalisierten Labor notwendig sind“, erklärt Dr. Hergen Schultze, bei BASF Leiter der Forschungsgruppe „Maschinelles Lernen und Künstliche Intelligenz“.

„Für Maschinelles Lernen gibt es keine fertige Software“, so Dr. Bruno Betoni, bei BASF verantwortlich für Baslearn. „Unser Ziel ist es, neue Grundlagen des Maschinellen Lernens für ganz konkrete Anwendungen in der Forschung zu entwickeln.“ Die Expertise auf diesem Gebiet sei an der TU Berlin sehr groß, so Betoni weiter. Er sei überzeugt, dass die Zusammenarbeit beide Partner einen wichtigen Schritt voranbringt. „Die Kooperation bringt uns enorme Vorteile“, sagt auch Müller: „Wir bekommen durch die Zusammenarbeit Zugriff auf eine große Menge realer, hochkomplexer Daten und können damit neuartige Algorithmen entwickeln. Die wissenschaftlichen Fragestellungen bei der BASF sind überaus interessant und vielschichtig. Solche Herausforderungen aus der Praxis ergeben neuartige grundsätzliche Forschungsfragen für das Maschinelle Lernen, die man sich als Theoretiker am grünen Tisch kaum ausdenken könnte.“

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Unternehmen
news-23678 Thu, 15 Aug 2019 10:01:40 +0200 Mit Machine Learning auf Nummer sicher gehen http://www.it-zoom.de/it-director/e/mit-machine-learning-auf-nummer-sicher-gehen-23678/ Warum IT-Sicherheitslösungen heutzutage Machine Learning (ML) brauchen Wenn Angestellte morgens um halb neun den Rechner starten, warten meist schon die ersten Mails im Posteingang. Darunter sind viele valide Anfragen, Rund-Mails von Kollegen – und immer wieder auch Schad-Software. Diese versteckt sich meist in den E-Mail-Anhängen, manchmal aber auch hinter einem trickreich ausgebrachten Link. Die Gefahr dahinter ist grundsätzlich bekannt – doch noch immer sind verseuchte E-Mails einer der größten Einfallsvektoren für Malware bei Unternehmen. Um diese Gefahr einzudämmen, spielen Machine-Learning-Technologien eine immer größere Rolle. Ein wichtiger Faktor, um Schad-Software wirkungsvoll zu bekämpfen, ist die Zeit. Denn die Kampagnen der Malware-Autoren werden immer schneller und kurzlebiger. Der deutsche Cyber-Defense-Spezialist G Data hat im vergangenen Jahr etwa pro Tag bis zu 300 neue Versionen der Trojaners Emotet entdeckt. Über das gesamte Jahr hinweg waren es durchschnittlich noch immer 80 neue Versionen pro Tag – also etwa alle 20 Minuten eine neue Version der Schad-Software. In so kurzen Zeiträumen kommen Antivirenlösungen, die nur auf von Analysten geschriebene Signaturen setzen, nicht mehr hinterher.

Eine Schad-Software-Welle ist also immer in dem Zeitraum besonders effektiv, in dem noch keine Signaturen für das jeweils neue Sample verfügbar sind. Zahlen aus der Telemetrie belegen, dass innerhalb der ersten Stunde die meisten Infektionen mit einer neuen Malware auftreten. Um diesen Zeitraum entscheidend zu verkürzen, bedarf es Machine Learning. Dessen Einsatz sowie der Einsatz anderer proaktiven Technologien wird in der Antivirenbranche meist als Next-Generation-Technologie bezeichnet. Dabei wird Malware ohne den Einsatz klassischer Signaturen erkannt.

Malware mit neuen Features

Anstatt Malware anhand einfach identifizierbarer Indikatoren wie etwa einem Hash-Wert, einer bestimmten Zeichenkombination oder anderer signifikanter Merkmale zu erkennen, bewerten diese Technologien entweder das Verhalten der Schad-Software oder versuchen, die zahlreichen Eigenschaften einer Datei mit einem großen Datensatz bekannter Schadcodes zu vergleichen. Denn vollkommen neu ist die Malware meist nicht. Das wäre für die kriminellen Netzwerke vom Entwicklungsaufwand her schlicht unprofitabel. Die eigentliche Software bleibt im Hintergrund also weitgehend identisch und bekommt nur alle paar Monate neue Features oder ändert grundlegende Dinge im Ablauf oder der Programmierung. Stattdessen werden die Malware-Kerne in regelmäßigen Abständen neu verpackt, sodass Antivirenlösungen sie nicht mehr einfach entdecken können – wenn diese ausschließlich mit alter Technik arbeiten.

Mittels ML-Technologien ist es hingegen möglich, Samples direkt auf dem Rechner der Kunden zu analysieren. Das bringt einerseits einen enormen Zeitvorteil: Die Dateien müssen nicht erst zur Analyse an den Sicherheitsanbieter übermittelt werden. Andererseits lassen sich so aus zahlreichen Indikatoren der Datei selbst Schlüsse ziehen, die bei der Enttarnung helfen. Das ist zunächst einmal die Information, ob eine Datei mit einem verdächtigen Packprogramm verschleiert wurde oder nicht. Insgesamt gibt es rund 150 solcher Faktoren, die sich aus dem langjährigen Wissen der Malware-Forschung speisen. Denn ohne Erfahrungswerte und die Expertise menschlicher Analysten kann kein Machine-Learning-Algorithmus vernünftig arbeiten. Im Fall der Deepray-Technologie von G Data analysiert ein sogenanntes Perceptron die vom Kunden ausgeführte Datei anhand dieser rund 150 Indikatoren. Stuft das Perseptron diese als verdächtig ein, startet ein spezieller Tiefenscan im Arbeitsspeicher, der das Verhalten der Malware analysiert.

Der Vorteil einer Analyse im Arbeitsspeicher: Die Malware kann sich nicht mehr verstecken oder ein gutartiges Verhalten simulieren. In weniger als einer Sekunde ist für die ML-Technologie ersichtlich, ob die ausgeführte Datei bösartig ist oder nicht. Ein weiterer Vorteil: Solche Lösungen dienen IT-Sicherheitsunternehmen als Frühwarnsystem. Denn um einen guten Schutz zu gewährleisten, sind Sicherheitsanbieter darauf angewiesen, frühzeitig schadhafte Dateien zu Gesicht zu bekommen. Dies geschieht auch durch Einreichungen von Kunden, den eigenen Erkennungsmechanismen – sogenannte Honeypots – oder durch einen Tausch zwischen den verschiedenen Sicherheitsunternehmen. Machine-Learning-Technologien fügen nun einen weiteren Weg hinzu. Denn sie tragen dazu bei, dass Bedrohungen auch dann erkannt werden, wenn zuvor noch keine Beispieldatei auf den Systemen des Herstellers analysiert wurde. Im Idealfall erkennt die Technologie ein solches Sample frühzeitig am Beginn einer Malware-Kampagne.

Danach wird die entsprechende Datei von klassischen Blacklisting-Werkzeugen oder einer Filecloud blockiert, ohne dass eine Analyse auf dem Kundensystem notwendig ist. Somit steht der durch die Technologie erreichte Schutz im Idealfall binnen weniger Minuten allen Nutzern zur Verfügung.

Dies ist ein Artikel aus unserer Print-Ausgabe 7-8/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Ein weiteres Plus: Die Suchparameter im Arbeitsspeicher des Computers sind deutlich langlebiger als klassische Signaturen. Denn wie beschrieben ändert die Malware ihr Verhalten nicht grundsätzlich, sondern passt meist nur die äußere Hülle an. So können die In-Memory-Signaturen über viele Monate hinweg verwendet werden – ganz anders als ihre traditionellen Gegenüber. Vor diesem Hintergrund setzt eine gute Sicherheitslösung heute auf eine Mischung aus neuen und altbewährten Technologien. Denn wenn sich eine Malware mit dem signaturbasierten Ansatz fangen lässt, dann ist das die einfachste und ressourcenschonendste Lösung. Parallel dazu hat aber auch Machine Learning längst einen festen Platz in der Cybersicherheit erobern können.

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom Sicherheit
news-23671 Wed, 14 Aug 2019 16:45:39 +0200 „Desca“ soll Datentransparenz schaffen http://www.it-zoom.de/it-director/e/desca-soll-datentransparenz-schaffen-23671/ Thyssenkrupp Materials Services setzt seine Digitalisierungsoffensive fort: Ab sofort unterstützt eine flexible IT-Infrastruktur den Werkstoffhändler dabei, sämtliche Prozesse entlang der Wertschöpfungskette intelligent und agil zu steuern. Materiallieferungen, Kundenbestellungen, Auftragsbearbeitungen, Transportlogistik – der digitale Beschleuniger „Desca“ kann Millionen von Datensätzen innerhalb von Sekunden verarbeiten und weiterleiten. Davon profitieren vor allem die Kunden, heißt es: Mit Desca verkürze Materials Services die Durchlaufzeiten von Aufträgen, optimiere die Lagerlogistik und ebne den Weg für neuartige Supply-Chain-Services. Damit macht das System seinem Namen wohl alle Ehre, denn Desca steht für „Digital Extended Supply Chain Accelerator“.

Er ist ein wichtiger Baustein in der strategischen Weiterentwicklung der Handelsparte. Mit dem Ansatz „Materials as a Service“ gewährleistet der Werkstoffhändler nicht nur den Zugang zu globalen Versorgungsmärkten, sondern gibt auch eigenes Prozesswissen in Form von maßgeschneiderten Supply-Chain-Lösungen an seine Kunden weiter. Damit setzt Materials Services neben dem Kerngeschäft des Werkstoffhandels konsequent auf den Ausbau des Dienstleistungsportfolios.

„Wir sehen großes Wachstumspotential in dem Bereich der Supply-Chain-Services“, so Klaus Keysberg, CEO von Materials Services. „Industrie-4.0-Umgebungen wie Desca ermöglichen uns, die Komplexität in globalen Produktionsverbünden zu reduzieren. Hier setzen wir an und unterstützen unsere Kunden dabei, sich ganz auf ihr Kerngeschäft zu fokussieren.“

Desca basiert auf SAP Hana. Im Vergleich zu herkömmlichen ERP-Systemen soll Desca eine flexible Integration von Daten aus verschiedenen internen und externen Quellen ermöglichen. So ließen sich beispielsweise Auftragsinformationen mit den Bearbeitungsdaten aus dem vernetzten Maschinenpark abgleichen und künftig auch in Echtzeit abrufen, sogar per App. Das sei insbesondere für Branchen mit hohen Anforderungen an eine flexible Supply Chain interessant, so z.B. für die Luftfahrtindustrie.

Die erste Praxisphase absolvierte Desca deswegen in ausgewählten Thyssenkrupp-Aerospace-Niederlassungen in Nordamerika. „Die smarte Vernetzung von Daten ist der Schlüssel zu mehr Effizienz und Kundenservice. Mithilfe unseres neuen ERP-Systems schaffen wir dafür die technologische Voraussetzung“, sagt Patrick Marous, CEO von Thyssenkrupp Aerospace. „Wir nehmen hier eine Vorreiterrolle ein und stellen als einer der ersten großen Anwender in der Luftfahrtindustrie auf die neueste SAP-Umgebung um. Die Phase hat gezeigt, dass wir damit unsere Kernkompetenz, das smarte Supply-Chain-Management, entscheidend stärken.“

Bildquelle: Getty Images / iStock / Getty Images Plus

]]>
IT-Director Startseite it-zoom ERP
news-23666 Wed, 14 Aug 2019 15:30:54 +0200 Finger weg von Billig-Audits http://www.it-zoom.de/it-director/e/finger-weg-von-billig-audits-23666/ Das Erstellen einer Lizenzbilanz sieht einfach aus, ist aber bei genauem Hinsehen eine schwierige Aufgabe. Diese ist umso ungeliebter je größer und komplexer die IT in einem Unternehmen ist – desto verlockender wirken vermeintlich günstige Audit-Angebote. Doch was nach einer schnellen und einfachen Lösung aussieht, kann nach hinten losgehen. Man stelle sich vor, bei mehreren Tausend Geräten sind – was durchaus vorkommt – 20 Prozent nicht richtig erfasst. In solchen Fällen kann die Nachlizenzierung in die Millionen gehen. Doch wodurch entstehen Lücken und Fehler in der Lizenzbilanz? Oder anders gefragt, wann ist eine Lizenzbilanz zuverlässig und weist die notwendige Qualität auf, um Strafzahlungen zu vermeiden und die richtigen Investitionsentscheidungen zu treffen? Und vereinfachen Cloud-Services eigentlich die Lizenzsituation?

Eine Excel-Liste ist keine Lizenzbilanz

Kurz gesagt kommt es bei Software Asset Management (SAM) auf die Vollständigkeit und Korrektheit der Daten an. Das heißt, bei allen PCs, Servern, Laptops, Smartphones etc. muss klar sein, was damit gemacht wird, welche Anwendungen sich darauf befinden und wie diese lizenziert sind. Diese Aspekte gilt es, aus kaufmännischer sowie technischer Sicht zu prüfen und dafür zu sorgen, dass die Informationen – wie Lizenznachweise, Verträge, Rechnungen und Zusatzvereinbarungen – in elektronisch lesbarer Form vorliegen und zentral abrufbar sind.

Es liegt auf der Hand, dass eine Excel-Liste dafür nicht ausreicht. Dennoch ist es in vielen Unternehmen Brauch, dass ein IT-Mitarbeiter versucht, die Assets auf diese Weise zu erfassen. Das ist gefährlich, denn Informationslücken entstehen schnell – insbesondere in Firmen mit mehreren Standorten. Schließlich müssen auch versteckte Netzwerke, Domains oder Clients erfasst werden. SAM-Auditoren, die eine schnelle Prüfung über das Netz versprechen, stellen in der Regel keine Fragen nach solchen Assets. Mit dem Ergebnis fühlen sich die IT-Abteilung und die Geschäftsführung zwar sicher, eigentlich ist dieses aber unbrauchbar.

Die Probleme fangen schon bei der Anzahl der Geräte und Lizenzen an. Nehmen wir an, ein Unternehmen hat beispielsweise 100 Geräte, kann davon aber nur 80 erfassen, und nimmt demnach an, dass 20 Lizenzen weniger ausreichend seien. Umgekehrt könnten etwa einige Geräte doppelt erfasst werden, sodass statt 100 Assets plötzlich 120 Assets in der Bilanz auftauchen – und das Unternehmen daraufhin nachlizenziert. In beiden Fällen stimmt am Ende die wirtschaftliche Bilanz nicht mehr und jede weitere Investitionsentscheidung basiert auf falschen Informationen.

Beim Gang in die Cloud ist SAM unabdingbar

Wer jetzt glaubt, dass SAM durch den Wechsel in die Cloud einfacher oder sogar obsolet wird, der irrt sich leider. Die IT-Abteilung muss insbesondere Cloud-Services verwalten und sicherstellen, dass die Lizenzen entsprechend den Herstellervorgaben eingesetzt werden. Es gilt zu klären, ob das Unternehmen vorhandene Lizenzen für Cloud-Dienste weiterhin nutzen oder als Basis für eine Subscription verwenden darf.

Auch wenn dieses Feld komplex ist, zahlt sich der Aufwand aus. Denn SAM liefert Daten zur eigenen IT-Infrastruktur, die bei der Migration in die Cloud hilfreich sind: Beispielsweise, ob die genutzte Hard- und Software die Mindestanforderungen für den Einsatz von Cloud-Services erfüllt. Oder, ob die Datenbasis als Entscheidungsgrundlage für die Frage dienen kann, welche Firmenbereiche für einen Proof-of-Concept der Migration zu einem Cloud-Dienst geeignet sind. Anwender können Überlizenzierung verhindern, wenn sie, noch bevor sie die Cloud-Dienste nutzen, eine Kosten-Nutzen-Rechnung durchführen – das heißt: alle SAM-Prozesse hinsichtlich der Beschaffung, Bereitstellung, Verwaltung und Ausmusterung von Software prüfen.

Für eine belastbare, lückenlose Lizenzbilanz ist Expertise, Sorgfalt und Zeit sowie eine enge Zusammenarbeit zwischen IT-Abteilung und SAM-Provider nötig. Die initiale Bilanz ist ein gemeinsames Projekt und Rückfragen des Dienstleisters sind ein Qualitätskriterium – keine Schikane. Spezialisten versuchen, wo immer möglich, die IT-Assets automatisiert zu erfassen und brauchen dafür die entsprechenden Zugänge. Sie schaffen Schnittstellen zum Active Directory (AD), der VMware-, Citrix- oder Microsoft-HyperV-Konsole für die Scanner. So fallen Ungereimtheiten im IT-Asset-Management (ITAM) bei einem Blick ins Dashboard schnell auf und können korrigiert werden. Geräte wiederum, die nicht automatisch erfasst werden können, muss der Dienstleister separat abfragen.

Strafzahlungen vermeiden ist Pflicht

Um aus der ersten Bilanz ein aktives Lizenzmanagement zu ermöglichen, sind weitere Informationen über die Geräte vonnöten. Dazu gehören zum Beispiel Prozessor, Festplattengröße sowie die installierte Software inklusive deren Einsatzzweck. Erst wenn jeder einzelne Datensatz sauber ist, kann man von einer validen Lizenzbilanz ausgehen. So lassen sich erfahrungsgemäß 20 bis 25 Prozent an Lizenzkosten sparen. Denn mit Know-how und Kreativität findet sich oft ein besseres Modell, beispielsweise wenn es für einen Client zwei unterschiedliche Lizenzarten eines Herstellers gibt. Weiterhin ist eine sinnvolle Planung des Budgets für Software nur mit absolutem Durchblick möglich. Es geht also nicht nur darum, Strafzahlungen abzuwenden.

Die Erstellung einer Lizenzbilanz ist nichts, das Unternehmen als Bringschuld des Providers nach dem Motto „schneller, höher, weiter“ sehen sollten. Vielmehr gilt es, durch einen engen Austausch eine hochwertige Datenbasis für strategische und geschäftliche Entscheidungen zu schaffen. Automatisierung erleichtert einen Teil der Arbeit und verbessert die Datenqualität von Grund auf. Spezialisten können dann am kreativen Part ansetzen, um die richtigen Lizenzmodelle zu finden. Insbesondere im Cloud-Umfeld ist hohes Expertenwissen gefragt, denn dabei entstehen oft hybride Lizenzsituationen, die sehr komplex werden können. Die Bilanzierung übers Knie zu brechen, wäre eine schlechte Wahl. Vielmehr sollten Unternehmen die Chance ergreifen, den Durchblick im Lizenz-Dschungel zu bekommen und darauf basierend eine moderne Software-Strategie entwickeln.

* Der Autor Mathias Sellnow ist Senior Consultant SAM und Teamleiter mit Schwerpunkt öffentliche Einrichtungen bei Axians IT Solutions.

Bildquelle: iStock/Getty Images Plus

]]>
IT-Director Startseite it-zoom Asset- und Lizenzmanagement