IT-ZOOM https://www.it-zoom.de/ IT-ZOOM - das Portal der erfolgreichen Magazine IT-DIRECTOR, IT-MITTELSTAND, MOBILE BUSINESS und DV-Dialog. de ©2016 Alle Rechte bei MEDIENHAUS Verlag GmbH Thu, 19 Jul 2018 13:11:46 +0200 Thu, 19 Jul 2018 13:11:46 +0200 TYPO3 EXT:news news-20238 Thu, 19 Jul 2018 12:26:31 +0200 Gamescom erwartet neue Besucherrekorde http://www.it-zoom.de/mobile-business/e/gamescom-erwartet-neue-besucherrekorde-20238/ Die Spielemesse Gamescom wird mit jedem Jahr größer und erwartet auch in ihrem zehnten Jahr neue Rekorde. Die Gamescom in Köln erwartet in ihrem Jubiläumsjahr weitere Rekordzahlen. Innerhalb von zehn Jahren in Köln sei die Messe für Computer- und Videospiele „enorm gewachsen”, sagte der Chef der Koelnmesse Gerald Böse in Berlin. Seit 2009 habe die Messe bei der Zahl der Aussteller um 100 Prozent zugelegt, bei den Besuchern um 45 Prozent und bei der bespielten Ausstellungsfläche um 68 Prozent. Bei den Ausstellern erwartet Böse, dass die Marke von 1000 Ausstellern in diesem Jahr geknackt werde. Im vergangenen Jahr stellten 919 Unternehmen bei der Gamescom aus.

Gamescom setzt auf großes Angebot

Die Vielfalt der Branche soll in diesem Jahr im Zentrum der Messe stehen. Ob Kultur, Bildung, Wirtschaft, Sport oder Unterhaltung - „Games bereichern mittlerweile jeden Lebensbereich”, sagte Felix Falk, Geschäftsführer des Branchenverbands game. „Spiele sind für viele Menschen der Schlüssel zur digitalen Welt.” Das gelte nicht nur für Jugendliche. Auch die über 50-Jährigen lernten über Spiele, digitale Geräte zu nutzen. „Das funktioniert über Games besonders gut.” Zum Start der Messe (21. bis 25. August) versprechen die Veranstalter mehrere Weltpremieren von Spieletiteln. Partnerland ist Spanien, der viertgrößte Spiele-Markt in Europa. Aus der Politik werden Digitalstaatsministerin Dorothee Bär (CSU) sowie NRW-Ministerpräsident Armin Laschet (CDU) erwartet.

Im vergangenen Jahr eröffnete erstmals Bundeskanzlerin Angela Merkel (CDU) die Messe, was in der Branche als „Ritterschlag” gefeiert wurde. Die Stadt Köln will die Messe, die wieder mit einem umfangreichen Rahmenprogramm stattfindet, mit Lichtinstallationen etwa auf der Deutzer, Hohenzollern- und Zoobrücke in Szene setzen.

dpa/pf

]]>
Mobile Business Startseite it-zoom Lifestyle
news-20237 Thu, 19 Jul 2018 12:19:20 +0200 Qualitätssicherung durch Dritte http://www.it-zoom.de/it-mittelstand/e/qualitaetssicherung-durch-dritte-20237/ Eine Software zu ersetzen, ist eine Mammutaufgabe. Sie gestaltet sich noch einmal schwerer, wenn man sich wie die Zahnärztliche Abrechnungs-gesellschaft als Nischenanbieter in einem kleinen Marktsegment bewegt. Nach langer Suche fand sich eine Lösung. Der Factoring-Markt ist in Bewegung. Dabei nimmt auch die Nutzung von Factoring-Lösungen im Mittelstand zu: Kleinere und mittlere Unternehmen machten 2016 knapp 60 Prozent des Factoring-Volumens aus. Das entspricht einem Plus von fast 15 Prozent gegenüber 2015, wie der Deutsche Factoring-Verband verkündete. „Ein ordentliches Ergebnis“, fasst Verbandssprecher Joachim Secker zusammen.

Zu den etablierten Factoring-Anbietern zählt auch die Zahnärztliche Abrechnungsgesellschaft Düsseldorf AG (ZA AG). Das Unternehmen bietet maßgeschneiderte Service- und Beratungsleistungen für Zahnärzte und Kieferorthopäden. Das Spektrum umfasst die komplette Rechnungs- und Zahlungsabwicklung mit Patienten. In dieser Rolle erhöht die ZA AG die Liquidität und senkt das Ausfallrisiko für die bundesweit rund 4.000 angeschlossenen Praxen.

Kürzlich stieß das Unternehmen allerdings an die Grenzen seiner Dienstleistungskapazitäten. Nicht etwa der in vielen Bereichen grassierende Personalmangel war schuld, eine unvorhergesehene wirtschaftliche Schieflage oder gar gesetzliche Veränderungen. Es war die IT-Infrastruktur, die nicht mehr anpassungsfähig genug war. „Die Wartbarkeit einzelner Module wurde immer langwieriger, die Dokumentation einzelner Arbeitsschritte immer aufwendiger“, sagt Wolfgang Hahn, Mitglied der Geschäftsleitung der ZA AG.

Aus diesen Gründen war die Implementierung eines neuen Systems notwendig geworden. Doch obwohl der deutsche Software-Markt aktuell einen nie da gewesenen Boom erlebt und seine Umsätze laut des Statistikportals Statista innerhalb der letzten zehn Jahre verdoppeln konnte, gestaltete sich die Suche nach einer neuen, passenden IT-Lösung unerwartet schwierig.

Ein 200 Seiten starkes Lastenheft

Der Grund: Die Zahnärztliche Abrechnungsgesellschaft (ZA AG) bewegt sich in einer zu kleinen Nische der ohnehin überschaubaren Factoring-Branche, als dass deren hoch individuelle Geschäftsabläufe „einfach so“ mit einer Software von der Stange abgedeckt werden könnten. „Wir hofften, auf eine SAP-Anwendung zurückgreifen und auf unsere Bedürfnisse anpassen zu können“, sagt Wolfgang Hahn. „Doch eine solche Adaption hätte mehr Aufwand mit sich gebracht als eine Neuentwicklung. Also holten wir Angebote für Individualentwicklungen ein.“

Auf Grundlage eines 200 Seiten starken Lastenhefts sollten die neuen IT-Anwendungen von einem Systemhaus entwickelt werden. Doch nicht alle Funktionen, die das neue System später beinhalten sollte, wurden in der notwendigen Ausführlichkeit beschrieben. Die Folge: Standards, die in dem Vorgängersystem selbstverständlich waren, fehlten.

Schwierigkeiten wie diese treten bei der Entwicklung einer neuen Software häufig auf, berichtet Dr. Andreas Kotulla, Geschäftsführer der Bitsea GmbH, einem auf die Analyse, Bewertung und Optimierung von Software-Entwicklungsprozessen und Software-Architektur spezialisierten Dienstleistungsunternehmen. „Häufig haben die Fachanwender Schwierigkeiten, eine Funktion so zu beschreiben, dass die Entwickler etwas damit anfangen können.“

Nicht allein, dass Wunsch und Ergebnis dann stark voneinander abweichen. Auch unbeabsichtigte Sicherheitsrisiken können unerkannt bleiben, wenn der Endabnehmer den gelieferten Code nicht überprüfen kann. Daher empfiehlt Kotulla bei einer Neuentwicklung die Qualitätssicherung durch eine unabhängige dritte Instanz.

Gefährliche Sicherheitslecks

Generell sind Gefahren, die etwa von Sicherheitslecks ausgehen, sind nicht zu unterschätzen. In den letzten zwei Jahren wurden laut einer Studie des IT-Branchenverbands Bitkom zwei Drittel der deutschen Unternehmen Opfer von Datenklau oder Wirtschaftsspionage. Dadurch entstand ein gesamtwirtschaftlicher Schaden von rund 55 Mrd. Euro pro Jahr. „Diese Angriffe kosten nicht nur Geld. Sie schaden auch dem Firmenimage und werden daher für Unternehmen jeder Größe zu einer zentralen Managementaufgabe“, betont Kotulla.

Das erkannte auch die ZA AG und holte Bitsea als Qualitätssicherungsinstanz ins Boot. Denn trotz aller Bemühungen schafften es die eigenen Fachanwender und die Entwickler des beauftragten Software-Entwicklers nicht, die gleiche Sprache zu sprechen. Bei dem darauffolgenden Qualitätscheck traten neben den bereits bekannten Problemen Mängel im Code zutage, die auf lange Sicht zu einer schlechten Wartbarkeit, höheren Kosten und einem erhöhten Sicherheitsrisiko geführt hätten.

Inzwischen ist das „Schnee von gestern“, wie Wolfgang Hahn sich ausdrückt. Alle Mängel konnten behoben werden und die neue Software verrichtet ihren Dienst. Mit dem neuen Tool konnte die Rechnungsübermittelung von Arztpraxen zur ZA AG stärker automatisiert werden. Der Dienstleister bezieht die Rechnungsdaten nun effizienter über Schnittstellen zu der in Praxen verwendeten Verwaltungs-Software. „Ein guter Schritt“, sagt Hahn und ist sich sicher: Weitere Upgrades werden folgen.

Bildquelle: Thinkstock/iStock

]]>
IT-Mittelstand Startseite it-zoom Software
news-20234 Thu, 19 Jul 2018 11:55:00 +0200 DMEXCO 2018: Zwei Tage für das Business von morgen http://www.it-zoom.de/mobile-business/e/dmexco-2018-zwei-tage-fuer-das-business-von-morgen-20234/ Alle wichtigen Entscheidungsträger aus digitaler Wirtschaft, Marketing und Innovation treffen sich am 12. und 13. September bei der DMEXCO 2018 in Köln. Mehr als 1.100 Unternehmen und über 550 Top-Speaker präsentieren bei der Leitveranstaltung der digitalen Wirtschaft zwei Tage lang aktuelle Entwicklungen und Trends. Expo und Conference bieten den Besuchern zahlreiche Gelegenheiten für Vernetzung und Dialog, Weiterbildung und Inspiration. Am Ende aber geht es vor allem darum, Lösungen und Antworten zu liefern – und aus Ideen konkretes Business zu generieren. Vor wenigen Tagen ist der Ticketverkauf für die Besucher der DMEXCO gestartet.

Zwei Tage lang bringt die DMEXCO Marketing- und Mediaprofis, Technologie- und Innovationstreiber zusammen, um die digitale Agenda für die kommenden Jahre zu definieren. „Auf keiner anderen Veranstaltung in Europa spürt man die Energie und den Spirit der Digitalisierung so stark wie hier”, attestiert Boris Bohn, CSO von Arithnea. Entscheidungsträger aus den Bereichen mobiles Marketing, Commerce und Business erhalten hier einen komprimierten Überblick über die für sie relevanten Trends und Lösungen.

„Die DMEXCO ist auch 2018 ein Muss, wenn es darum geht, die Weichen für das Mobile Business von morgen zu stellen. Nirgendwo sonst hat man die Möglichkeit, so gezielt mit Anbietern und Experten in Kontakt zu kommen. Das neue Konzept der DMEXCO macht es Entscheidern sehr leicht, hier schon im Vorfeld die passenden Kontakte zu identifizieren”, sagt Mark Wächter, Vorsitzender der Fokusgruppe Mobile im Bundesverband Digitale Wirtschaft (BVDW).

In der Tat bilden DMEXCO und DMEXCO.com die zentrale Plattform für businessrelevante mobile Anwendungen: Von Künstlicher Intelligenz oder datengetriebenem Marketing über die Automatisierung und Vernetzung von Kanälen, Plattformen und Assets bis zur Erschließung neuer Absatzmärkte und Technologien.

Auf der Expo finden sich Marktführer und Global Player im Bereich Mobile Business, darunter Google und Facebook. Hinzu kommen Spezialisten aus den Bereichen Mobile Marketing und Mobile Commerce sowie dezidierte Experten in der neu konzipierten World of Agencies. Hier präsentieren Kreativ-, Media-, Full-Service- und Spezial-Agenturen die neuesten Trends. Einen besonderen Fokus auf Virtual, Augmented und Mixed Reality Anwendungen samt der neuesten Generation mobiler Endgeräte verfolgen Anbieter und Experten in der World of Experience.

Best Cases und wertvolles Wissen aus dem Mobile Business gibt es zudem in Talks und Panels auf den verschiedenen Conference Bühnen. Hinzu kommen Seminarangebote, die sich unter anderem mit dem Thema „Conversational Design” von Voice Assistenten auf Smartphones befassen, sowie Master Classes, die in Zusammenarbeit mit der Mobile Marketing Association (MMA) konzipiert wurden. Abgerundet wird das Angebot durch die mehr als 20 Guided Tours des BVDW, bei denen mobile Schwerpunkte gezielt zu den passenden Anbietern auf der Expo führen - samt Erläuterung durch Experten.

Die neue DMEXCO versteht sich als Community mit dem Highlight, bestehend aus Expo und Conference, im September in Köln. Tickets sind ab sofort verfügbar.

Um sich im Vorfeld zu informieren und optimal vorzubereiten, bietet  DMEXCO.com fortan 365 Tage lang Vernetzung und Dialog, Weiterbildung und Inspiration. Das Content-Angebot befasst sich mit den aktuellen Herausforderungen, liefert umfassende Informationen, empfiehlt Lösungsansätze und verknüpft so ganzjährig Besucher und Aussteller. Auf diese Weise vernetzt die DMEXCO gezielt mit den richtigen Ansprechpartnern, Ausstellern und Experten und empfiehlt die passenden Konferenz- und Weiterbildungsangebote während der zwei Tage in Köln.

Willkommen zur DMEXCO 2018. Registriere dich am besten jetzt.

Bildquelle: DMEXCO

]]>
IT-Markt Mobile Business Startseite it-zoom
news-20233 Wed, 18 Jul 2018 16:20:11 +0200 Abkommen gegen tödliche KI-Waffen http://www.it-zoom.de/it-director/e/abkommen-gegen-toedliche-ki-waffen-20233/ Auf der „International Joint Conference on Artificial Intelligence“ (IJCAI) in Stockholm haben sich zahlreiche Größen aus der Tech-Branche darauf geeinigt, sich nicht an der Entwicklung von tödlichen KI-Waffen zu beteiligen. Die Rolle von Künstlicher Intelligenz (KI) nimmt in nahezu allen Lebensbereichen eine immer größere Rolle ein. Dass sich auch die militärische Forschung intensiv mit dem Thema auseinandersetzt, dürfte dementsprechend niemanden überraschen. Doch während der Einsatz von eigenständig denkenden Maschinen in Bereichen wie Fertigung oder Kundenservice (siehe Chatbots) nur wenige Fragen offen lässt, birgt die tödliche Anwendung in Kampfgebieten viele ethische Fallstricke.

Elon Musk, Deepmind-Gründer und viele mehr unterzeichnen Abkommen

Zu diesem Schluss sind auch viele Teilnehmer der „International Joint Conference on Artificial Intelligence“ gekommen, die nun ein Abkommen unterzeichnet haben, mit dem sich darauf geeinigt wurde, sich nicht an der Entwicklung solcher Waffensysteme zu beteiligen. Zu den Unterzeichnern gehören unter anderem Tesla-Chef Elon Musk, die Deepmind-Mitgründer Shane Legg, Mustafa Suleyman und Demis Hassabis, Skype-Erfinder Jaan Tallinn und viele andere namhafte Wissenschaftler aus dem Bereich der KI-Forschung.

Die Entscheidung, ein Menschenleben zu nehmen, dürfe niemals an eine Maschine delegiert werden, heißt es unter anderem in dem Abkommen. Darüber hinaus sei der Einsatz solcher Technik für jede Region extrem destabilisierend. Max Tegmark, Unterzeichner des Abkommens und Physik-Professor am MIT, verglich autonom tötende Angriffssysteme mit dem Einsatz von biologischen Massenvernichtungswaffen und riet dazu, diese auch genauso zu behandeln.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom Unternehmen Philip Fassing
news-20232 Wed, 18 Jul 2018 15:23:20 +0200 So könnte das neue iPhone X aussehen http://www.it-zoom.de/mobile-business/e/so-koennte-das-neue-iphone-x-aussehen-20232/ Die ersten Bauteile der kommenden iPhone-Generation sind aufgetaucht und erlauben konkrete Rückschlüsse auf Apples Pläne für den Herbst. Die Spekulationen um das kommende iPhone-Line-up laufen bereits seit einiger Zeit auf Hochtouren, nun bringt ein Leak aber erstmals ganz konkrete Details auf den Tisch. Nicht weniger als drei gläserne Frontpanels sind dem lettischen Designer und Brancheninsider Benjamin Geskin in die Hände gefallen, von denen sich zunächst einmal ganz klar die Display-Größen ableiten lassen.

Drei neue iPhone-Modelle im Herbst

So darf man bei der alljährlichen Keynote im Herbst mit großer Wahrscheinlichkeit die Vorstellung eines 5.8-, 6.1- und 6.5-Zoll-Ablegers des im vergangenen Jahr erstmals vorgestellten iPhone X rechnen. Der dickere Rand des mittelgroßen Modells soll darüber hinaus Gerüchte bestätigen, nach denen es sich bei diesem Exemplar um eine günstigere LCD-Variante handeln soll. Das iPhone X verfügt dagegen über ein Oled-Display und könnte dem 6.5-Zoll-Panel entsprechend diesmal in einer deutlich größeren Ausführung erscheinen. Geskin spricht dabei bereits vom iPhone X Plus.

Mit dem letzten Jahr ist die Smartphone-Produktpalette bei Apple deutlich gewachsen. Nach dem iPhone SE und dem iPhone 7 folgten im vergangenen Jahr das iPhone 8 und das iPhone X. Das iPhone 6 ist zudem auch noch im Umlauf. Durch die Plus-Modelle kann man als Neukäufer mittlerweile zwischen acht Varianten wählen. Ob die Familie in diesem Jahr noch weiter wachsen wird, dürfte sich im Herbst zeigen.

Bildquelle: Apple

]]>
Philip Fassing Mobile Business Startseite it-zoom
news-20231 Wed, 18 Jul 2018 15:04:27 +0200 Deutschland will als letzter an die Spitze http://www.it-zoom.de/mobile-business/e/deutschland-will-als-letzter-an-die-spitze-20231/ Endlich kommt die deutsche KI-Strategie, nachdem fast zwei Dutzend Staaten vorausgeprescht sind. Das Ziel: Weltmeister werden. Der weltweit führende Standort für Künstliche Intelligenz, das ist bestimmt nicht Deutschland, sondern die USA. Dafür spricht einiges, denn so sind etwa 40 Prozent aller KI-Startups in den USA angesiedelt und zumindest die spektakulären KI-Anwendungen kommen ebenfalls aus den USA. Das wurmt natürlich viele und so haben in den letzten Monaten fast zwei Dutzend Länder oder Regionen Strategien zur Förderung der KI aufgelegt, unter anderem China, Frankreich, Großbritannien, Indien, Japan, Singapur, Südkorea, die USA und die EU.

Wer sich für einen Überblick über die einzelnen Strategien und Pläne interessiert, sollte den Medium-Artikel des KI-Analysten Tim Dutton konsultieren. Er hat sich dankenswerterweise die Arbeit gemacht, die Eckpunkte der einzelnen Strategien zusammenzutragen und dabei auch auf die Originaldokumente zu verlinken. Eine eher etwas trockene, aber trotzdem recht interessante Lektüre. Auffällig ist in erster Linie die Tatsache, dass es überhaupt so viele KI-Strategien gibt. Ganz offensichtlich handelt es sich hier um ein Thema, bei dem niemand den Anschluss verlieren möchte.

Der weltweit führende Standort für Künstliche Intelligenz, das möchte Deutschland jetzt auch werden, aber ähnlich wie bei der Digitalisierung eher als Nachzügler. Zwar gilt Deutschland dank der guten Universitäts- und Forschungslandschaft als führend im wissenschaftlichen Umgang mit KI, doch bei der wirtschaftlichen Auswertung der Erkenntnisse gibt es Nachholbedarf. Und so hat das Bundeskabinett heute eine KI-Strategie verabschiedet, wie Wirtschaftsminister Peter Altmaier in einem Beitrag des ARD-Hauptstadtstudios sagt.

Vereinfachter Einsatz von Daten und Bürgerkonten

Ein wichtiger Punkt bei der KI-Förderung ist die Vereinfachung des Einsatzes von qualitativ hochwertigen (anonymisierten) Daten für die KI-Forschung. Im Wesentlichen geht es darum, die Auswertung von Daten zu erleichtern und dabei gleichzeitig die Datenschutz-Grundverordnung (DSGVO) der EU zu beachten. Auf den ersten Blick wirkt das wie die Quadratur des Zirkels, denn Datenschutz bedeutet ja, dass Daten nicht einfach so für beliebige Zwecke genutzt werden können.

Die Bundesregierung möchte dieses Problem durch eine Datenkooperation zwischen Staat und Wirtschaft umgehen, indem ein öffentlich-privater Datenpool geschaffen wird, in den Daten kontrolliert eingespeist werden sollen. Dabei geht es in erster Linie um bereits im Vorhinein anonyme oder nachträglich anonymisierte Massendaten, die beispielsweise in der Medizin, in der Forschung, der Verkehrsentwicklung oder der Stadtplanung eingesetzt werden sollen.

Darüber hinaus möchte die Bundesregierung ein Bürgerkonto einrichten, in dem jeder Bürger sehen kann, welche Daten von ihm im öffentlichen Raum gespeichert sind und wer auf sie zugreift. Eine solche Möglichkeit ist die logische Konsequenz aus den neuen Verbraucherrechten der DSGVO, aber letztlich nicht mit einem Federstrich des Gesetzgebers einzuführen und schon gar nicht kostenneutral. Es ist also unklar, was von der KI-Strategie auch tatsächlich verwirklicht wird. Eines ist zumindest sicher: Eine IT-Infrastruktur für 80 Millionen Nutzer ist keine Kleinigkeit.

Bildquelle: Thinkstock

]]>
Ingo Steinhaus Startseite it-zoom Mobile Business Industrie 4.0 / MES
news-20230 Wed, 18 Jul 2018 14:54:18 +0200 Neue App für die Abfallentsorgung http://www.it-zoom.de/mobile-business/e/neue-app-fuer-die-abfallentsorgung-20230/ Mit „Lena“ hat der Dorstener IT-Dienstleister Sector27 GmbH eine App entwickelt, die Arbeitsschritte in der Abfallentsorgung digitalisieren kann. Vor Ort dokumentieren Betriebshöfe und Abfallwirtschaftsbetriebe mit einer auf sie zugeschnittenen Version der App den Zustand von Müllbehältern und deren Standorten im Rahmen des Angebots „Standort Service Plus“ (SSP) für Wohnanlagen. Die Informationen werde automatisch an die Verwaltung übermittelt und zentral zur Verfügung gestellt, heißt es in einer Pressemeldung. Lena soll als digitaler Leistungsnachweis so die Arbeitswege verkürzen, Verwaltungsaufgaben verschlanken und Informationen transparent für alle betroffenen Abteilungen zur Verfügung stellen.

„In Kommunen gibt es viele Arbeitsbereiche und -prozesse, die durch Digitalisierungsmaßnahmen optimiert werden können. Dafür sind nicht immer tiefgreifende Veränderungen erforderlich. Oftmals reicht das richtige Werkzeug − so wie unsere App für die Standplatzkontrollen“, erklärt Harald Kiy, Geschäftsführer bei Sector27.

Ergebnisse in Echtzeit

Der Software-Anbieter entwickelte die App in enger Zusammenarbeit mit dem Zentralen Betriebshof Marl (ZBH). Dieser betreut unter der bundesweiten Dachmarke „SSP“ Behälterstandplätze einer Wohnungsgesellschaft mit über 3.200 Wohneinheiten an rund 200 Standorten. Mit der Desktop-Version der App kann er die dokumentierten Daten am Computer auswerten und Behälterstandorte entsprechend verbessern. Auch der Auftraggeber − sprich die Wohnungsgesellschaft − hat Zugriff auf ausgewählte Funktionen von Lena und sieht die Arbeitsergebnisse in Echtzeit. „Durch die digitale Lösung sparen wir Zeit und erledigen die Arbeit im Rahmen des SSP vollkommen papierlos“, sagt Peter Hofmann, Abfallberater des ZBH.

Zusätzlich hat der Anbieter auch eine Spielplatz-App entwickelt. Damit sollen Kommunen u. a. Schäden an Spielgeräten dokumentieren und die Bestellung von Ersatzteilen initiieren können. Dabei werden die Standorte anhand eines Prüfrasters abgearbeitet und die Daten an die Verwaltung übermittelt. Kiy: „Die Anwendungen bieten Kommunen viel Potential: Straßen, Bäume oder auch öffentliche Parkanlagen und Friedhöfe unterliegen ebenfalls regelmäßigen Kontrollen. Per App können sie diese dokumentieren und so Arbeitsprozesse vereinfachen.“

]]>
Mobile Business Smart City
news-20228 Wed, 18 Jul 2018 14:33:58 +0200 Technogroup auf Wachstumskurs http://www.it-zoom.de/it-director/e/technogroup-auf-wachstumskurs-20228/ Die auf die Drittwartung von Speicher- und Server-Hardware spezialisierte Technogroup liegt im ersten Halbjahr 2018 erneut auf Wachstumskurs. Zudem erweiterte der Anbieter die Geschäftsführung um Arnd Krämer und Alexander Bernecker. Nach den Erfolgen im letzten Jahr kann die Technogroup auch in der ersten Jahreshälfte 2018 auf zweistellige Wachstumsraten verweisen. „Die Wartung, Instandhaltung und zukunftssichere Ausrichtung von Rechenzentren ist kritisch für die Wettbewerbsfähigkeit der Wirtschaft. Als zentrale Anlaufstelle für unsere Kunden übernehmen wir alle entscheidenden Aufgaben, unabhängig vom jeweiligen Hersteller“, erklärt Dr. Ralf Dingeldein, Geschäftsführer der Technogroup. Neben dem klassischen Wartungsgeschäft wurden in der ersten Jahreshälfte zahlreiche Projekte erfolgreich umgesetzt, unter anderem im Gesundheitswesen. Für die zweite Jahreshälfte seien weitere erfolgsversprechende Projekte in Planung, berichtet Dingeldein weiter.

Unter der Führung von Dingeldein ordnet das 250 Mitarbeiter starke Unternehmen aus Hochheim am Main nun das Managementteam neu: Alfried Netzband ist seit 1990 im Unternehmen, ergänzt bereits seit 2012 die Geschäftsführung und ist für das komplette operative Geschäft als COO verantwortlich. Neben ihm übernehmen Arnd Krämer und Alexander Bernecker weitere Posten im Leitungsteam der Technogroup.

Mit Alexander Bernecker soll ein Sales-Experte das Team ergänzen. Nach der Leitung der internationalen Expansion bei Sixt übernahm er zunächst mehrere Führungsfunktionen bei Telefonica o2 und verantworte danach das Marketing bei E-Plus. Als Chief Commercial Officer war er bei der irischen Telefongesellschaft Eircom tätig, für Arthur D. Little übernahm er vor seinem Wechsel zur Technogroup Mandate als Interims-Manager und Berater.

Neben dem neuen Chief Sales Officer kommt Arnd Krämer als Chief Financial Officer in das Leitungsgremium des Spezialisten für Drittwartung. Der gebürtige Remscheider bekleidete vorher verschiedene Posten auf C-Level und verantwortete langjährig als Head of Group Controlling bei der OBI-Gruppe das Controlling der Gesellschaften und Heimwerkermärkte in zehn Ländern. Zu seinem Erfahrungsschatz zählen zahlreiche Auslandseinsätze, darunter in China, Russland und Italien.

Dilemma bei der Hardware-Wartung

78 Prozent aller Unternehmen, die Rechenzentren betreiben, nutzen Hardware unterschiedlicher Hersteller. Das ergab eine Studie der Technogroup, die im Rahmen der Cebit im Juni in Hannover durchgeführt wurde. Nur wer eigene große und damit kostenintensive IT-Abteilungen unterhält, kann hier den Überblick wahren. Eine Vielzahl von Unternehmen und Konzernen ist hingegen im Servicedilemma einzelner Wartungsverträge mit Herstellern gebunden. „Unser Arbeitsauftrag ist der 360-Grad-Blick auf das, was die Kunden aktuell nutzen, morgen benötigen werden und auf die Schritte, die dazwischen liegen. Und das setzen wir unabhängig mit laufender Beratung und Wartung um“, erklärt Ralf Dingeldein das Konzept. Dabei wachse der Markt für unabhängige Drittwartung beständig: So ermittelte das Analystenhaus Gartner, dass Einsparungen von bis zu 60 Prozent im Vergleich zu den Servicediensten der Originalhersteller realisiert werden können.

Technogroup bietet Service-, Dienstleistungs- und Beratungsangebote für verschiedene IT-Systeme in Rechenzentren. Die Servicepakete sollen den Kunden helfen, Hardware-Ausfälle zu vermeiden, zu beheben und die Nutzungsdauer von IT-Systemen kostengünstig zu verlängern. Zu den zusätzlichen Services gehören z. B. Administrationsdienste, Installation, Systemumzüge, Änderungen und Updates sowie Recycling von Altsystemen.

]]>
IT-Director Unternehmen
news-20227 Wed, 18 Jul 2018 14:22:38 +0200 Frisches SAP-Lizenzmodell: Eine neue Leichtigkeit? http://www.it-zoom.de/it-director/e/frisches-sap-lizenzmodell-eine-neue-leichtigkeit-20227/ Unlängst präsentierte SAP ein neues Lizenzmodell, das die direkte und indirekte Nutzung der Systeme der Walldorfer klar regeln soll. Doch inwiefern gestaltet sich das Lizenzmanagement dadurch wirklich leichter? Im April dieses Jahres stellte SAP ein neues Preismodell vor, das die Lizenzierung von direkter und indirekter Nutzung klar regeln soll. Bei der Entwicklung des Ansatzes machte man sich das Wissen verschiedener Partner, Analysten und Anwendergruppen – darunter auch von der Deutschsprachigen SAP Anwendergruppe (DSAG) – zunutze. Alles in allem soll der neue Ansatz dafür sorgen, dass Kunden ihre SAP-Lizenzen künftig leichter und transparenter nutzen können. Er unterscheidet zwischen direktem/menschlichem (Human Access) und indirektem/digitalem Anwenderzugriff (Digital Access) und schafft laut Anbieter klare Regeln bei den Themen Lizenzierung, Nutzung und Compliance.

Was verbirgt sich hinter einer direkten und indirekten Nutzung? Hier geben die Walldorfer selbst eine Definition: Der direkte Zugriff erfolgt, wenn Nutzer auf den digitalen Kern von SAP über eine Schnittstelle zugreifen, die mit oder als Teil der SAP-Software bereitgestellt wird. Ein indirekter Zugriff hingegen liegt vor, wenn Geräte, Bots oder automatisierte Systeme auf den digitalen Kern zugreifen. „Oder wenn Personen, Geräte oder Systeme den digitalen Kern indirekt über eine zwischengeschaltete Software eines anderen Anbieters nutzen – zum Beispiel ein Nicht-SAP-Frontend, eine eigenentwickelte Kundenlösung oder die Anwendung eines Drittanbieters“, heißt es seitens der Walldorfer. Das neue Modell greift sowohl für den digitalen Kern von S/4 Hana und S/4 Hana Cloud als auch für das klassische SAP ERP. Dabei können Bestandskunden wahlweise beim bisherigen Lizenzmodell bleiben oder auf das neue dokumentenbasierte Preismodell wechseln. Laut Anbieter soll es künftig Konversionsangebote geben, mit deren Hilfe die Kunden vom bestehenden auf das neue Preismodell wechseln können.

Eile tut nicht not


Wie sooft hört sich das Ganze in der Theorie einfacher an, als es bei der Umsetzung wohl tatsächlich sein wird. Von daher sind die Anwenderunternehmen gut beraten, intensiv zu prüfen, welches Lizenzmodell für ihre Zwecke am besten passt und sich im täglichen SAP-Betrieb als kostengünstig und praktikabel erweist. Dabei gilt hinsichtlich des Zeitrahmens Folgendes: SAP rollt das neue Vertriebsmodell seit April 2018 aus und stellt in den kommenden Monaten weiteres Schulungsmaterial und Tools zur Verfügung. Aufgrund dessen tut Eile erst einmal nicht not, denn kein Unternehmen muss von heute auf morgen seine bisherigen Lizenzvereinbarungen über Bord werfen. Dennoch gilt es, sich in nächster Zeit mit den neuen Lizenzbestimmungen auseinanderzusetzen und aufzuspüren, inwieweit im eigenen Betrieb etwa per angebundenem Online-Shop oder im Rahmen von vernetzten Maschinen indirekt auf SAP-Anwendungen zugegriffen wird. In diesem Zusammenhang plant SAP, künftig Messwerkzeuge zur Verfügung zu stellen, sodass Kunden in der Lage sind, ihren eigenen User- und Lizenzverbrauch jederzeit selbst zu überwachen. Weitere solcher Tools werden in nächster Zeit sicherlich auch verschiedene auf das SAP-Lizenzmanagement spezialisierte Drittanbieter auf den Markt bringen. Liegt eine umfangreiche indirekte SAP-Nutzung im Betrieb vor, ist das neue Lizenzmodell für Neukunden grundsätzlich interessant. Für Bestandskunden hingegen muss sich die Wirtschaftlichkeit erst noch beweisen. In dem Zusammenhang wäre etwa aus Sicht der DSAG wichtig, dass SAP, falls notwendig, individuelle Gespräche mit einzelnen Kunden sucht, um zeitnah eine tragfähige und faire Lösung für die indirekte Nutzung unter Berücksichtigung der Altverträge und der Historie zu finden. „Diese Vereinbarungen müssen legal verbindlich, für beide Seiten nachhaltig und wirtschaftlich sinnvoll sein und einen Schlussstrich unter dieses Thema ziehen. Die Wahlmöglichkeit zwischen ‚Alles bleibt, wie es ist‘ und dem neuen Lizenzmodell ist nicht in jedem Fall ausreichend“, betont DSAG-Vorstand Andreas Oczko.

Neben dem Preismodell hat SAP im April auch Neuigkeiten rund um Lizenzvertrieb, Audits und Compliance vorgestellt. Eingeführt wurden u. a. neue Regeln bei Organisation und Governance, die eine strikte Trennung zwischen Vertriebsorganisation und -prozessen und der Auditorganisation sowie deren Prozessen vorsehen sollen. Ausschlaggebend für diesen Schritt seien häufige Differenzen zwischen Kunden und SAP, wie ältere Vertragswerke hinsichtlich der neuen digitalen Anforderungen zu interpretieren sind. Da sich solche Auseinandersetzungen teilweise negativ auf parallel verlaufende Gespräche zur Neuanschaffung von Software auswirken, sollen die organisatorischen Änderungen auf SAP-Seite nun die Trennung dieser Sachverhalte erlauben und dadurch den Kunden und SAP-Vertriebsmitarbeitern die Zusammenarbeit erleichtern.

Reaktionen auf die SAP-Bekanntgabe gab es unterschiedliche. Während die Anwendergruppen, die an der Ausgestaltung beteiligt waren, sich größtenteils positiv äußersten, gab es auch Kritik: Ob das neue Preismodell für die indirekte Nutzung fair, transparent und zum Vorteil der SAP-Kunden gereicht, stellt etwa Dr. Jan Hachenberger, Lizenzexperte bei Consalt infrage: „SAP setzt nach unserer Einschätzung mittelfristig primär auf ein transaktionales Lizenzsystem – und das ist in dieser Konsequenz im ERP-Markt ein Novum“, räumt Hachenberger zunächst ein. „Solange der SAP-Kunde immer mehr SAP-Lizenzen benötigt, da z.B. die Anzahl der Bestellungen nach oben geht, lassen sich die Zusatzkosten für Softwarelizenzen für die indirekte Nutzung zuzüglich der damit verbundenen Pflegegebühren noch verschmerzen“, so der Experte. Kritisch werde es spätestens dann, wenn aufgrund ausbleibender Bestellungen oder mit Einführung eines neuen Bestellprozesses die Anzahl der mit SAP verwalteten Bestellungen von 1.000.000 auf 500.000 zurückgeht. „Die zuvor gezahlten Lizenzkosten erstattet SAP selbstverständlich nicht zurück – egal, wie schlecht es beim Kunden läuft. Die Lizenzbedarfe für Named User waren und sind hingegen wesentlich stabiler“, glaubt Hachenberger. Seiner Ansicht nach funktioniere das „transaktionale“ Lizenzmodell nämlich nur in eine Richtung – und zwar in Richtung Umsatzzuwachs für SAP. Geringere Lizenzbedarfe hingegen seien das Problem der Kunden.

Dies ist ein Artikel aus unserer Print-Ausgabe 06/2018. Bestellen Sie ein kostenfreies Probe-Abo.

„Was bleibt, ist die kontinuierliche Optimierung der Lizenzen, um nicht Gefahr zu laufen, die falschen oder zu viele Lizenzen zu kaufen und am Ende mit Pflegegebühren über Jahre hinweg für diese Fehlentscheidungen ‚bestraft‘ zu werden.“


Neues SAP-Lizenzmodell

Bisher orientierte sich das Lizenzmodell für SAP ERP an der Zahl der Nutzer (User). Inzwischen finden aber immer mehr Zugriffe von außen auf SAP-Lösungen statt. Zukünftig unterscheidet SAP daher zwischen:

  • Human Access, der nach User-Anzahl berechnet wird
  • Digital Access, d.h. Zugriff über Dritte, Internet of Things (IoT), Bots und/oder andere digitale Zugänge, die auf Basis der vom System selbst verarbeiteten Transaktionen/Dokumente lizenziert werden können.


Bildquelle: Thinkstock/Photodisc

]]>
Ina Schlücker IT-Director Startseite it-zoom Asset- und Lizenzmanagement
news-20226 Wed, 18 Jul 2018 12:12:52 +0200 Mehr Zeit fürs Wesentliche? http://www.it-zoom.de/it-mittelstand/e/mehr-zeit-fuers-wesentliche-20226/ Nachdem auch dem Letzten klar geworden sein dürfte, wie wichtig der verantwortungsvolle Umgang mit Daten ist, wollen wir vor diesem Hintergrund auch die Rolle der Künstlichen Intelligenz (KI) beleuchten und befragten Andreas Kulpa, Vorstandsvorsitzender des Unternehmens mit dem vieldeutigen Namen Datalovers. ITM: Welche Möglichkeiten und Errungenschaften im Bereich der Künstlichen Intelligenz (KI) faszinieren Sie grundsätzlich?
Andreas Kulpa: Schon lange vorhandenes, dokumentiertes, aber weit verteiltes Wissen für die Menschheit nützlich zu machen. Große Datenmengen verarbeiten zu können und Nutzen daraus zu stiften. Unabhängige Algorithmen, die selbstständig lernen, lassen kreative, neue Entscheidungen, Rückschlüsse und Entdeckungen entstehen. Dies zu sehen, fasziniert mich immer wieder aufs Neue.

ITM: Welche positiven Aspekte und Verbesserungen sehen Sie in KI?
Kulpa: Zunächst einmal kann sie zahlreiche Routinetätigkeiten abnehmen, was dem Menschen Zeit für komplexere Aufgaben verschafft. Mit Künstlicher Intelligenz kann dezentrales Wissen und Erfahrung zentral genutzt werden. Zum Beispiel im Straßenverkehr: Wenn drei Autos durch eine bestimmte Handlungsweise erfolgreich einen Unfall verhindern konnten und drei andere mit einem anderen Problemlösungsszenario einen Unfall verursacht haben, können sich fortan alle mit dem gleichen Algorithmus ausgestatteten Fahrzeuge richtig und damit unfallvermeidend verhalten, egal ob sie schon einmal in der entsprechenden Situation waren oder nicht.

Und im Geschäftsleben: Wenn ein Vertriebsleiter mithilfe Künstlicher Intelligenz mögliche Zielkunden gut erkennt, dann können mit diesem Algorithmus fortan auch nicht so erfahrende oder intuitive Vertriebler genauso erfolgreich in der Selektion sein.


ITM: Gibt es für Sie Grenzen in dieser Entwicklung? Wo „hört der Spaß auf“?
Kulpa: Zwar sind Daten jeglicher Art die Grundlage für Künstliche Intelligenz, aber zugleich auch ihr begrenzender Faktor. Ohne Daten und Erfahrung bzw. Simulationen können keine cleveren Entscheidungen getroffen werden. Wir werden den Spaß nicht begrenzen können, wenngleich der Spaß aufhört, wo Algorithmen über lebensbedrohliche Situationen jenseits vorhandener Gefahren (Beispiel Straßenverkehr) entscheiden. Aber auch ohne Künstliche Intelligenz müssen im Straßenverkehr weitgreifende Entscheidungen getroffen werden. Solange jedoch weniger Menschen oder Tiere zu Schaden kommen als ohne Algorithmen, ist das wahrscheinlich noch akzeptabel.

In einem anderen, theoretischen Szenario könnte die stetige Weiterentwicklung der Künstlichen Intelligenz aber auch extreme Folgen haben, die zu bedenken sind: Wenn irgendwann ein Algorithmus aus der Berechnung heraus entscheiden und handeln könnte, dass es für das Überleben der Welt besser wäre, die Weltbevölkerung um ein Drittel zu reduzieren, dann ist das sicher kein Spaß mehr. Dafür sind alle Vorkehrungen zu treffen, die Menschen treffen können. Ob wir jedoch Maschinen davon abhalten werden können – in sehr ferner Zukunft –, wirklich nicht so zu entscheiden und zu handeln, halte ich für fraglich. Der rote Knopf für Künstliche Intelligenz wird zwar oft gefordert, aber wenn die Intelligenz so clever ist, dann wird sie – bildlich gesprochen – auch das Verbindungskabel vom Knopf zum Ausschaltmechanismus unterbrechen können.

ITM: Daten sind überall. Jeder Schritt im Netz wird gespeichert, analysiert, weiterverwendet. Wir alle sind „gläserne“ Menschen – was meinen Sie: gut oder schlecht?
Kulpa: Zuerst einmal sind wir Menschen erst durch unsere eigenen Einwilligungen gläsern geworden. Ich nenne das den Preis des Kostenlosen. Natürlich ist eine kostenlose Facebook-Nutzung toll. Doch kein Unternehmen der Welt arbeitet wirklich kostenlos, höchstens frei von monetären Entgelten, aber einen Preis hat es in jedem Fall. In diesem Fall sind der Preis unsere Daten, in deren Nutzung wir ja auch mit der Akzeptanz der AGB einwilligen.

Oft höre ich dann: „Wir werden ja von den großen Unternehmen dazu gezwungen.“ Keinesfalls zwingt mich jedoch jemand, meine Kontakte bei Facebook zu speichern, bei Amazon einzukaufen oder Google als Suchmaschine zu verwenden. Es ist praktisch, ich spare Zeit und Geld, deswegen mache ich es. Wenn ich also bereit bin, für all das Praktische und zurzeit Kostenlose künftig Geld zu bezahlen, dann kann ich damit auch meine „Gläsernheit“ verringern.

Kurz gesagt: Ich finde es gut, dass wir alle die Wahl haben. Aber ich finde es schlecht, dass die überwiegende Anzahl der Menschen so unbedarft und unbewusst damit umgeht. Es ist gut, weil es Möglichkeiten schafft, die früher nicht gegeben waren. Wenn ich z. B. mit meinem Auto verunglücke und im Graben liege, kann eine Handy-Ortung sehr praktisch sein. Ein außergewöhnlich günstiges Angebot für eine Reise, die ich gerade plane, kann sehr willkommen sein. Der Hinweis, heute wegen des Verkehrsaufkommens früher loszufahren, da ich sonst nicht rechtzeitig zum Geschäftstermin komme, kann sehr praktisch sein.

ITM: Gewissermaßen hat man aber keine Chance, das alles abzuwählen, wenn man diese Entwicklung erschreckend findet, oder?
Kulpa: Will man nicht in einer Blockhütte ohne Strom und Heizung leben oder einer dunklen Höhle, dann ja.

ITM: Die einzige Alternative wäre der komplette Verzicht aufs Internet – für kaum jemanden eine ernst zu nehmende Option.
Kulpa: Richtig. Hier muss man sich entscheiden, was man will, was einem wichtig und hilfreich erscheint – und welchen Preis man bereit ist, dafür zu zahlen.

ITM: Was meinen Sie: Schafft Künstliche Intelligenz Arbeitsplätze oder schafft sie diese eher ab?
Kulpa: Weder noch. Es wird einen Wechsel in den Tätigkeiten und Anforderungen an den Menschen geben. Dies wiederum bringt neue Anforderungen an Ausbildung und Bildung mit sich. Alles in allem aber sind dies Entwicklungen, die die Menschheit bereits mehrfach in den vergangenen Jahrtausenden erfolgreich bewältigt hat. Evolution als Weiterentwicklung der Menschheit hat immer stattgefunden und hat auch immer einen Platz für den Menschen gefunden. Vielleicht haben wir tatsächlich in 30 Jahren „weniger“ Arbeit, die erledigt werden muss. Aber es könnte auch einfach bedeuten, dass die gleiche Anzahl an Menschen einfach weniger Stunden arbeitet. Was diese Entwicklung bringt, wird die Zukunft zeigen.

Der Acht-Stunden-Tag, wie wir ihn heute kennen, ist beispielsweise wahrscheinlich eine „Erfindung“ aus dem 19. Jahrhundert. Er war eine der ältesten Forderungen der Arbeiterbewegung und erstmals von Robert Owen (1771–1858), dem walisischen Unternehmer und Sozialreformer, als Forderung formuliert worden. Owen prägte den Slogan „Acht Stunden arbeiten, acht Stunden schlafen und acht Stunden Freizeit und Erholung“. Und das war eine wirkliche Verbesserung der damaligen Arbeitsverhältnisse. Wer weiß, welchen positiven Umbruch die Künstliche Intelligenz für das uns heute vertraute Arbeitsleben bereithält?

ITM: Nehmen wir einmal die Pflegeroboter. Nehmen wir an, sie verrichteten ihre Arbeit gut und zuverlässig. Was aber ist mit Mitgefühl, mit Menschlichkeit? Kann man Empathie tatsächlich digitalisieren?

Kulpa: Ja und nein. Empathie bedeutet zunächst einmal – und hier zitiere ich Wikipedia – „die Fähigkeit und Bereitschaft, die Empfindungen, Gedanken, Emotionen, Motive und Persönlichkeitsmerkmale einer anderen Person zu erkennen und zu verstehen“. Das können Maschinen durchaus bewerkstelligen. Ob wir ihre Handlungen dann als angemessene Reaktionen auf die Gefühle anderer Menschen empfinden, hängt aus meiner Sicht davon ab, ob wir mehr Nutzen als Verlust durch diese Handlungen erfahren.

Wenn ich also pünktlich, regelmäßig und zuverlässig meine Medikamente erhalte, meine Vitalwerte gemessen und mein Essen bekomme, dann ist es mir vielleicht nicht mehr so wichtig, ob zu 100 Prozent „angemessen“ auf meine schlechte oder besonders gute Laune an diesem Tag reagiert wird. Und sicherlich wird auch ein menschliches Gegenüber je nach Tagesform nicht immer empathisch wirken und handeln.

Wichtiger ist es doch, dass die Menschen, die dann noch die tatsächliche Pflege verrichten, mehr Zeit haben und entlastet sind von solchen Routinetätigkeiten. Lieber mit Freundlichkeit und Verständnis beim Duschen geholfen bekommen, als unsanftes Blutdruckmessen oder Essen, das aus Zeitnot kalt vorbeigebracht wird.

ITM: Wo sehen Sie ethische Probleme der Künstlichen Intelligenz, beispielsweise bei der Kriegsführung mit autonomen Waffen, wo die Hemmschwelle deutlich geringer ist im Vergleich zu „menschlichen“ Schützen?
Kulpa: Ich glaube nicht, dass die Hemmschwelle niedriger ist. Die niedrigsten Hemmschwellen legt doch der Mensch selbst an den Tag. Beispiel: Der erste Atombombentest fand am 16. Juli 1945 nur wenige Tage vor dem ersten Atombombenabwurf auf Hiroshima statt. Wenn da mal der Menschen selbst nicht eine sehr niedrige Hemmschwelle gezeigt hat ...

Sowohl Maschinen als auch Menschen sind zum Glück klüger geworden und werden es täglich. Die sinnlose Vernichtung menschlichen Lebens kann nicht im Interesse von Maschinen oder Menschen sein. Dies wirft die Frage auf: Gibt es eine sinnvolle Vernichtung von Menschen? Nein! Aber auch hier zeigen die Kriegsgeschehen weltweit, dass wir Menschen uns nicht sonderlich mit Ruhm bekleckern, was das angeht. Zusammengefasst: Ich glaube nicht, dass es mit Künstlicher Intelligenz eine friedlichere Welt wird, in der wir leben, aber es wird auch keine kriegerischere, als sie es jetzt ist.

ITM: Was bedeutet Künstliche Intelligenz für unsere Demokratie, für den Willen des Volks und des Einzelnen, wenn – wie in den USA vermutet wird – Wahlen durch Künstliche Intelligenz nachhaltig beeinflusst werden können?
Kulpa: Wenn „wie vermutet“ Einfluss auf die Wahl genommen wurde, dann waren es immer noch die Menschen, die schlussendlich gewählt haben. Sie haben sich also eventuell beeinflussen lassen. Dem ist nur durch Bildung und Aufklärung zu begegnen. Wer noch nie von einer „Filterblase“ gehört hat, der wird auch nichts Ungewöhnliches daran sehen, dass die Welt nur noch aus Hass und Kriminalität besteht – egal ob diese Meldungen nun richtig oder falsch sind. Wüsste er aber, dass es so etwas gibt und wie es wirkt, würde er wieder mehr hinterfragen und wäre kritischer.

Diese Form von Beeinflussung wurde früher „Propaganda“ und noch früher „Marktschreierei“ genannt. Und immer hat es für eine gewisse Zeit funktioniert. Dann haben die Menschen die Mechanismen verstanden und sich entsprechend anders verhalten. Diese Entwicklung wird auch bei dem Phänomen der Bots und Filterblasen einsetzen. Noch ist es neu und hat auch sicherlich einen Effekt, aber genauso viral wie eine News kann auch das Wissen über die Mechanismen verteilt werden. Das wiederum ist das Positive an dieser Form von direkter Kommunikation.

ITM: KI-Systeme werden immer lernfähiger. Ist der Mensch der Maschine noch überlegen oder bereits auf Augenhöhe mit ihr?
Kulpa: Noch sind wir absolut überlegen, einfach durch unsere vielfachen Begabungen und Handlungsfelder. In einem einzelnen abgegrenzten Feld kann uns die Maschine „schlagen“, sagen wir beim Brettspiel Go. Die Komplexität aber liegt in der Kombination von vielen sehr unterschiedlichen Feldern eines menschlichen Tages, das schafft keine Maschine. Aber auch das wird kommen. Die Wissenschaft nennt dies den „Zeitpunkt der Singularität“ und sagt gleichzeitig dafür einen Zeitpunkt zwischen den Jahren 2040 und 2065 voraus. Persönlich halte ich mich hier mit Prognosen zurück. Das überlasse ich anderen.

ITM: Ganz ehrlich: Gibt es Entwicklungen im Bereich Künstliche Intelligenz, die Ihnen ein wenig Bauchschmerzen bereiten?
Kulpa: Autonome, selbstentscheidende und nicht mehr an einem Ort zu verortende Systeme „könnten“ natürlich besorgniserregende Dinge berechnen und vielleicht irgendwann auch tun. Hungersnöte, Kriege, Kinderarmut und tödliche Krankheiten bereiten mir jedoch auch Bauchschmerzen – ehrlich gesagt aktuell die Größeren. Und ein paar davon könnten mit Künstlicher Intelligenz vielleicht sogar gelöst werden.

Bildquelle: Thinkstock/iStock

]]>
IT-Mittelstand Startseite it-zoom Business Intelligence / Big Data
news-20225 Wed, 18 Jul 2018 12:04:03 +0200 Neue Technologien in den Kundenservice integrieren http://www.it-zoom.de/it-mittelstand/e/neue-technologien-in-den-kundenservice-integrieren-20225/ Im Interview macht Heinrich Welter, Vice President und General Manager, DACH Region, bei Genesys, deutlich: „Wer heute in eine Contact-Center-Lösung mit offenen Programmierschnittstellen investiert, kann sich als Vorreiter positionieren und neue Technologien wie Chatbots nahtlos in den Kundenservice integrieren.“ ITM: Herr Welter, welchen Stellenwert besitzt anno 2018 der telefonische Kundenservice via Callcenter – Stichwort „echte Gespräche“?
Heinrich Welter:
Trotz intelligenter Chatbots und qualifizierter Expertensysteme kommt die automatisierte Kundenberatung immer noch an ihre Grenzen. Insbesondere, wenn die Fragen komplexer werden oder wenn Emotionen ins Spiel kommen, ist der menschliche Kontakt nach wie vor wichtig und trägt dazu bei, die Markenbindung zu stärken.

ITM: In welchen Branchen im Mittelstand sind Callcenter sinnvoll und warum?
Welter:
Contact-Center machen branchenübergreifend immer dann Sinn, wenn der direkte und persönliche Kontakt zu Kunden oder zu Interessenten wichtig ist. Schließlich geht es darum, ein neues Produkt oder eine Dienstleistung anzubieten sowie einen schnell verfügbaren Kundenservice oder in Notfällen einen direkten Ansprechpartner für den Kunden anzubieten. Solche Szenarien finden sich im B2C- und B2B-Bereich gleichermaßen.

ITM: Welche infrastrukturellen und technischen Anforderungen muss ein Unternehmen erfüllen, um ein Callcenter in Betrieb nehmen zu können?
Welter:
Mit den vielfältigen über die Cloud verfügbaren IT-Services haben sich die Anforderungen an die eigene Infrastruktur dramatisch verringert. Heute ist es möglich, sehr viele Ressourcen für ein Contact-Center aus der Cloud zu beziehen: von den Arbeitsplätzen, den Telefonanlagen bis hin zu Datenbanken und CRM-Lösungen sind alle benötigten Komponenten „as a Service“-fähig. Auch Unternehmen mit wenig eigenem IT-Know-how können somit heute eine leistungsfähige Omnichannel-Lösung für einen verbesserten Kundenservice betreiben.

ITM: Worauf legen Kunden Wert, wenn sie im Callcenter eines Unternehmens anrufen?
Welter:
Kunden lieben es, wenn sie mit einem kompetenten Ansprechpartner im Contact-Center kommunizieren können, der ihnen einen personalisierten Service bietet. Wenn Mitarbeiter die Kundenhistorie, inklusive bisher getätigter Käufe und Reklamationen, sowie die aktuellen Falldaten verwenden, die den letzten Kundenkontakt mit der Marke zeigen, sparen Kunden Zeit, da sie dem Mitarbeiter diese Details nicht erklären müssen. Gleichzeitig hilft es auch dem Mitarbeiter, weil er die Frage des Kunden schneller beantworten kann, indem er den Kontext nutzt, den er bereits hat. Letztendlich führt dies zu einer viel besseren Kunden- und Mitarbeitererfahrung.

ITM: Was verärgert die Kunden hingegen am meisten?
Welter:
Die klassischen Fälle für einen verärgerten Kunden sind zu lange Wartezeiten am Telefon, das Weiterleiten an mehrere Ansprechpartner und eine wiederkehrende Abfrage von persönlichen Daten oder Falldaten bei einer Reklamation. Ebenfalls ärgerlich ist es, wenn der Kunde nicht über seinen bevorzugten Kanal kommunizieren kann und beispielsweise einen Brief schreiben muss, anstatt eine E-Mail zu versenden. Kunden erwarten von Contact-Centern ständige Verfügbarkeit und haben kein Verständnis für IT-Ausfälle. Besonders wichtig ist die Sicherstellung der Verfügbarkeit bei Cloud-Anwendungen – auch bei unterbrochener Internetverbindung. Dies gelingt beispielsweise über lokale Komponenten im Unternehmensnetzwerk, welche Basisanwendungen wie Automatische Anrufverteilung (ACD), eine PBX-Telefonanlage, Interactive Voice Response (IVR) und weitere Funktionalitäten auch ohne Internet-Verbindung aufrechterhalten.

ITM: Welchen Stellenwert besitzen jene Kundenerfahrungen für ein Unternehmen? Welchen Einfluss können sie ausüben?
Welter:
Jeder Kundenkontakt mit einer Marke führt dazu, dass das Wissen über den einzelnen Kunden, aber auch über Absatzmärkte und die eigenen Produkte, steigt. Da sollten sämtliche Interaktionen analysiert und dazu genutzt werden, die CX weiter zu optimieren.

ITM: Welche Eigenschaften sollte eine moderne Callcenter-Lösung mit sich bringen, um nicht nur bei den Kunden einen einwandfreien Eindruck zu hinterlassen, sondern auch, um bei den Mitarbeitern zu punkten?
Welter:
Für einen optimalen Kundenkontakt im Service ist es beispielsweise wichtig, dass der Service-Mitarbeiter stets aktuelle Informationen zu dem Kunden vorliegen hat. Außerdem sollte die Contact-Center-Lösung den jeweils bevorzugten Kommunikationskanal des Kunden unterstützen und es auch dem Mitarbeiter erlauben, diese Kanäle übergangslos zu verwenden – Stichwort Omnichannel. Darüber hinaus ist die Anbindung an Expertensysteme wichtig, damit Fragen zu Produkten oder Reklamationen immer und qualifiziert beantwortet werden können. Werden Chatbots mit Künstlicher Intelligenz (KI) eingesetzt, wird es wichtig, einen nahtlosen Übergang der Kundenkommunikation zwischen KI und menschlichen Mitarbeitern zu realisieren. Wir bei Genesys glauben, dass Automatisierung und KI am besten funktionieren, wenn sie mit den Stärken des Menschen kombiniert werden. Wir nennen diesen Ansatz „Blended“ AI. Auch durch eine cloud-basierte Lösung kann ein Callcenter sowohl bei Kunden als auch bei Mitarbeitern punkten. Dabei bietet sich eine Aufteilung der Cloud-Lösung in Microservices, die unabhängig voneinander arbeiten, an. Während ein Microservice beispielsweise eingehende Anrufe verteilt, kann ein anderer Voicemail-Nachrichten bearbeiten. Außerdem können Microservices unabhängig voneinander skaliert werden. Mit einer solchen Architektur können Cloud-Lösungen kontinuierlich aktualisiert, Bugs schnell entfernt und neue Features rasch eingespielt werden, ohne dass dies Auswirkungen auf andere Systemmodule oder Mandanten hat. Alle Anwender können die gesamte Plattform weiterhin aktiv nutzen. Ein weiterer Vorteil der Cloud-Lösung ist die einfache und schnelle Konfiguration, da alle Funktionen über das Internet verfügbar sind und keine kostspielige Multiprotocol-Label-Switching-Anbindung (MPLS) oder lokale Installationen im Unternehmensnetzwerk erforderlich sind.

ITM: Wie gestaltet sich i.d.R. die Kopplung einer Callcenter-Lösung mit dem vorhandenen Customer-Relationship-Management-System (CRM)? Worin besteht die Herausforderung? Inwieweit gibt es hierfür Standardschnittstellen?
Welter:
Auf technologischer Ebene erfolgt die Integration über standardisierte Programmierschnittstellen, sogenannte APIs (Application Programming Interface). Damit erfolgt ein kontinuierlicher Datenaustausch zwischen den im Unternehmen genutzten Applikationen inklusive einem ausgelagerten Contact-Center. Diese Integration funktioniert auch über cloud-basierte CRM- und Contact-Center-Lösungen. Optional können spezielle Anwendungen für die Datenintegration genutzt werden, um größere Datenmengen in ein CRM-System zu importieren oder Daten in einen zentralen Data Lake zu exportieren. Anbieter wie Talend, Informatica und weitere bieten dafür Applikationen an.

ITM: Stichwort „IVR-Systeme“: Welche Möglichkeiten bieten Sprachdialogsysteme, die zum Einsatz kommen, bis ein Callcenter-Mitarbeiter für Kundengespräche frei ist? Wo liegen die Grenzen jener Systeme?
Welter:
Sprachdialogsysteme werden primär für eine Vorqualifikation des Anrufers genutzt. Damit ist ein Routing des Gesprächs an die jeweils geeigneten Teams effizient möglich. Weitergehende Beratungsleistungen sind zwar theoretisch möglich, werden von vielen Kunden jedoch als unnötig langwierig empfunden.

ITM: Worin bestehen die Herausforderungen bei „Virtuellen Callcentern“,deren Mitarbeiter nicht an einen Standort und feste Arbeitszeiten gebunden sind, sondern z.B. im Home Office arbeiten?
Welter:
Die Herausforderungen bei verteilten Contact-Centern liegen darin, die jeweils verfügbaren Mitarbeiter in das System zu integrieren und die Verfügbarkeit bekannt zu machen. Dafür haben moderne Contact-Center-Lösungen entsprechende Funktionen für die Workforce-Planung. Gleichzeitig müssen die Remote-Arbeitsplätze mit den notwendigen Daten und Applikationen versorgt werden, was idealerweise über Cloud-Services erfolgt. Daher ist es auf dieser Seite eher eine Frage der Internet-Anbindung, weniger der technischen Ausstattung des Remote-Workers.

ITM: Welche Technologien und Innovationen werden Callcentern bzw. „echten Mitarbeiter-Kunden-Gesprächen“ zukünftig Konkurrenz machen und warum? Welche Rolle spielen an dieser Stelle z.B. Chatbots (Stichwort „Künstliche Intelligenz“)?
Welter:
KI-Systeme und Chatbots werden künftig in der Lage sein, viele Standardanfragen eigenständig zu beantworten. Je besser diese Systeme mit dem Konsumenten interagieren und auch auf spezialisiertes Fachwissen von Mitarbeitern zurückgreifen können, falls nötig, desto besser ist das Endergebnis für Kunden. Es wird spannend sein zu erleben, wie Künstliche Intelligenzen künftig Seite an Seite mit dem Menschen arbeiten. Denn im Grunde sind diese Systeme den Menschen manchmal gar nicht so unähnlich. So wie unterschiedliche Mitarbeiter verschiedenen Hard- und Soft-Skills besitzen, so haben auch verschiedene KIs unterschiedliche Fähigkeiten. Skill-basiertes Routing eignet sich also nicht nur für die Weiterleitung an den richtigen Contact-Center-Mitarbeiter, sondern auch für die Wahl des richtigen Chatbots. Lernfähige Systeme sowie Feedback von Kunden und Mitarbeitern helfen dabei, die Interaktionen mit den Chatbots zu bewerten. Über intelligente Analysen kann anschließend das Routing im Contact-Center noch verfeinert werden, indem die Skills der KI optimiert werden. Die Optimierung der Chatbots berücksichtigt dann auch, dass verschiedene Formen von KI zwar inhaltlich das Gleiche leisten, also beispielsweise eine Finanzberatung, aber eben für einen unterschiedlichen Kundenkreis je nach Einkommen ausgelegt sind. Eines der entscheidenden Elemente für Chatbots wird sein, wie empathisch sie auf komplexe emotionale Situationen reagieren können. Über diese Eigenschaften werden sich Chatbots auch untereinander abgrenzen. Empathie ist hierbei nicht absolut zu sehen, sondern immer relativ zur Person, mit der gechattet wird. Unsere Erfahrung ist, dass sich die Integration von Chatbots für Contact-Center aller Größen und Branchen lohnt. Wer heute in eine Contact-Center-Lösung mit offenen Programmierschnittstellen investiert, kann sich als Vorreiter positionieren und neue Technologien wie Chatbots nahtlos in den Kundenservice integrieren.

Bildquelle: Genesys

]]>
Lea Sommerhäuser IT-Mittelstand Startseite it-zoom CRM
news-20224 Wed, 18 Jul 2018 12:01:31 +0200 Musik-Streaming überholt CD-Absätze http://www.it-zoom.de/mobile-business/e/musik-streaming-ueberholt-cd-absaetze-20224/ Wie der Bundesverband Musikindustrie mitteilt, wurde durch Streamingdienste erstmals mehr Geld eingenommen als durch den Verkauf von CDs. In ihren besten Jahren bereitete die CD dem deutschen Musikmarkt ein Milliardengeschäft, jetzt werden die kleinen Silberscheiben endgültig von Spotify und Co. verdrängt. Denn erstmals wurde mit Streaming mehr Geld eingenommen als durch den Verkauf von CDs, wie der Bundesverband Musikindustrie (BVMI) mitteilte. Überraschend kommt diese Wende nicht. Vielmehr verwundert es, wie sich die CD im Internet-Zeitalter überhaupt so lange halten konnte.

Wie die aktuellen Zahlen zeigen, verbuchten Dienste wie Spotify, Apple Music oder Tidal im ersten Halbjahr 2018 einen Zuwachs von 35,2 Prozent auf 348 Millionen Euro Umsatz. Das Streaming kam damit auf einen Marktanteil von 47,8 Prozent. Gleichzeitig brach das Geschäft mit CDs um 24,5 Prozent auf 250 Millionen Euro ein. Ihr Anteil am Gesamtmarkt macht nur noch 34,4 Prozent aus. Im Vorjahreszeitraum waren es noch 44,6 Prozent.

Ihre Anfänge nahm die CD übrigens zum Teil auch in Deutschland. Erfunden von Philips und Sony, wurde sie 1981 auf der Berliner Funkausstellung vorgestellt. Im August 1982 wurden die weltweit ersten für den Verkauf bestimmten Silberscheiben in Langenhagen bei Hannover produziert - dabei soll es sich um das Album „The Visitors” von ABBA gehandelt haben.

Die neue Technik bescherte der Musikindustrie in den 1980er und 90er Jahren goldene Zeiten. Nicht nur Chartstürmer wie Michael Jackson oder Madonna füllten ihre Kassen. Ob Beatles oder Bee Gees, die Kunden kauften sich auch millionenfach Musik, die sie schon besaßen, noch einmal auf CD. 1997 erreicht die CD dann den Höchstumsatz von umgerechnet 2,3 Milliarden Euro.

Streaming in anderen Ländern bereits weitaus populärer

Doch das Glück währte nicht lange. Mit dem Internet und der Digitalisierung kamen erst neue Formate wie MP3, dann Tauschbörsen wie Napster und schließlich die Streamingplattformen. Die Industrie versuchte noch, mit einer besseren Soundqualität in den Disc-Formaten Super-Audio-CD und DVD-Audio dagegenzuhalten - doch die breite Masse der Käufer war nicht interessiert. Eine letzte Bastion der CD ist Japan, wo die Silberscheiben im vergangenen Jahr noch über 60 Prozent der Erlöse im Audio-Geschäft ausmachten.

In Schweden, der Heimat des Marktführers Spotify, ist das Streaming bereits seit 2012 umsatzstärkster Bereich, in Nordamerika seit 2015. „Die Deutschen sind traditionell etwas zögerlicher, was digitale Trends betrifft. Somit ist es spannend, dass wir jetzt das erleben, was in andern Ländern schon seit einigen Jahren stattfindet”, sagte der BVMI-Vorstandsvorsitzende Florian Drücke.

Insgesamt setzte der deutsche Musikmarkt in den ersten sechs Monaten des Jahres 727 Millionen Euro um, das ist - im Vergleich zum ersten Halbjahr 2017 - ein Rückgang von zwei Prozent.

Wie will sich die Branche also weiter behaupten? Dazu sollen Plattformen wie YouTube stärker in die Pflicht genommen werden, die sich - so der Vorwurf des BVMI - Lizenzzahlungen entziehen. Obwohl der „de facto größte Musikstreaming-Dienst der Welt” mit Werbung jede Menge Geld verdiene, zahle er nur einen Bruchteil dessen, was durch Spotify und andere Dienste eingenommen werde, so Drücke.

]]>
Mobile Business Startseite it-zoom
news-20223 Wed, 18 Jul 2018 10:05:15 +0200 Lidl kippt Warenwirtschaftssystem von SAP http://www.it-zoom.de/it-director/e/lidl-kippt-warenwirtschaftssystem-von-sap-20223/ Wie die Regionalzeitung Heilbronner Stimme berichtet, hat Lidl das vor sieben Jahren gemeinsam mit SAP eingeführte Warenwirtschaftssystem Elwis eingestellt. Mit dem Projekt „elektronisches Lidl Warenwirtschaftsinformationssystem” (Elwis) wollte man bei Lidl im Jahr 2011 eine neue Ära anbrechen. Die über viele Jahre aufwendig implementierte Lösung von SAP sollte die selbst entwickelte Software Wawi ablösen und als Meilenstein für die digitale Transformation des Unternehmens zum Vorzeigeprojekt werden. Laut einer internen Mitteilung, aus der die Regionalzeitung Heilbronner Stimme zitiert, sollen die mit dem System einhergegangenen strategischen Ziele aber nicht mehr mit vertretbarem Aufwand erreichbar gewesen sein. Nun spreche alles dafür, das selbst entwickelte System anzupassen und zukunftsfähig zu machen. Kurz: Elwis wird abgeschafft.

SAP und Lidl wollen auch weiterhin zusammenarbeiten

Der Discounter aus Neckarsulm ist mit tausenden Filialen europaweit in so gut wie jedem Land vertreten, seit dem vergangenen Jahr gibt es sogar Niederlassungen in den USA. Dabei hat die Kette im Gegensatz zur Konkurrenz vor allem mit ihren E-Commerce-Ambitionen die Nase vorne. Das Warenwirtschaftssystem von SAP wurde bereits in vier Ländern eingeführt und sollte sukzessive auf weitere Landesgesellschaften angewendet werden. Rund 500 Millionen Euro soll das Projekt seit der Einführung im Jahr 2011 bereits gekostet haben. In den Zentralen der Konzerne gibt man sich derweil diplomatisch: Man werde die Zusammenarbeit in anderen Bereichen wie gehabt fortführen, das Ende des Projekts sei keine Absage an den Partner.

Bildquelle: Thinkstock/iStock

]]>
Philip Fassing IT-Director Startseite it-zoom Unternehmen
news-20222 Tue, 17 Jul 2018 22:32:38 +0200 Probleme bei Google legen Onlinedienste lahm http://www.it-zoom.de/mobile-business/e/probleme-bei-google-legen-onlinedienste-lahm-20222/ Eine Störung in Googles Cloud-Infrastruktur hat am Dienstag für technische Probleme bei vielen Onlinedienste gesorgt. Mehrere Komponenten von Googles Cloud-Plattform sind am Dienstagabend nach europäischer Zeit ausgefallen, wie der Internet-Konzern auf der entsprechenden Status-Webseite bestätigte. Von Störungen betroffen waren neben dem Musikdienst Spotify und der Fotoplattform Snapchat unter anderem auch der Kommunikations-Service Discord und das Onlinespiel „Pokemon Go”.

Viele Onlinedienste verlassen sich für ihren Betrieb auf Cloud-Infrastruktur von Google oder Amazon – deswegen bekommen auch kurzfristige Ausfälle bei den großen technischen Plattformen schnell viele Nutzer zu spüren.

dpa/pf

]]>
Mobile Business Apps
news-20221 Tue, 17 Jul 2018 16:40:33 +0200 Das sind die beliebtesten Emojis http://www.it-zoom.de/mobile-business/e/das-sind-die-beliebtesten-emojis-20221/ Die Suchmaschine Emojipedia hat pünktlich zum Welt-Emoji-Tag viele Zahlen und Fakten zu den populären Chat-Symbolen enthüllt. Sie werden heutzutage fast schon beiläufig eingesetzt und können dennoch entscheidend den Subtext einer Nachricht beeinflussen: Emojis gehören in der digitalen Kommunikation längst zum Alltag und sind gerade für jüngere Menschen kaum noch wegzudenken. Die Archivseite und Suchmaschine Emojipedia hat aus diesem Anlass am 17. Juli den Welt-Emoji-Tag ins Leben gerufen und verrät nun interessante Statistiken rund um die Nutzung der bunten Piktogramme. Der dazugehörige Hashtag #WorldEmojiDay befindet sich auf Twitter derweil ganz oben in den Trends; beteiligt sind viele Unternehmen und Prominente.

Neue Emojis noch in diesem Jahr

Apple hat den Tag indes zum Anlass genommen, um eine Reihe von neuen Emojis zu zeigen. Die insgesamt mehr als 70 neuen Symbole, darunter etwa ein Papagei, ein Känguru und ein Hummer, wurden bereits Anfang des Jahres angekündigt und sind auf der Webseite von Apple nun auch zu sehen. Die neuen Designs, die auf den anerkannten Zeichen in Unicode 11.0 basieren, sollen noch mehr Optionen beinhalten, um Menschen mit roten, grauen und lockigen Haaren oder auch mit Glatze darzustellen, wie Apple mitteilt. Nutzen kann man die neuen Emojis mit der Einführung von iOS 12 im Herbst. Auf Android ist das neue Set mit dem Update auf Android P erhältlich, das sich aktuell noch in der Betaphase befindet.

Bildquelle: Thinkstock/iStock

]]>
Philip Fassing Mobile Business Startseite it-zoom Lifestyle
news-20220 Tue, 17 Jul 2018 13:47:42 +0200 Pinterest gibt Instapaper wieder ab http://www.it-zoom.de/mobile-business/e/pinterest-gibt-instapaper-wieder-ab-20220/ Pinterest hat den Artikelspeicherdienst Instapaper an sein urprüngliches Entwicklerteam zurückgegeben. Der aktuelle Eigentümer, die Fotosuchmaschine Pinterest, übergab Instapaper zurück an das bisherige Entwicklerteam. Pinterest hatte Instapaper vor knapp zwei Jahren gekauft, seitdem wurde allerdings keine engere Verzahnung der beiden Dienste sichtbar. Gründe für die Abspaltung wurden in einem Blogeintag am späten Montag nicht gemacht.

Auch gab es keine Angaben dazu, wann europäische Nutzer wieder auf Instapaper zugreifen könnten. Der Dienst war Ende Mai unter Hinweis auf die EU-Datenschutz-Grundverordnung (DSGVO) für europäische Nutzer ausgesetzt worden. Seitdem werden sie auf eine Webseite umgeleitet, auf der es heißt, man wolle den Betrieb so schnell wie möglich wieder aufnehmen. Wo genau die Probleme von Instapaper mit der DSGVO liegen, wurde bisher nicht bekannt.

dpa/pf

]]>
Mobile Business Apps
news-20218 Tue, 17 Jul 2018 12:24:06 +0200 Barmenia digitalisiert seinen Vertrieb http://www.it-zoom.de/it-director/e/barmenia-digitalisiert-seinen-vertrieb-20218/ Die digitale Transformation ist für viele Krankenversicherungen aktuell eine der wichtigsten Herausforderungen. Mit zahlreichen Innovationsprojekten gilt die Barmenia hier als Vorzeigeunternehmen – gerade auch was die Digitalisierung des Vertriebes und das Management von Standortdaten und anderen Unternehmensinformationen im Netz anbelangt. Um in diesem Bereich in Zukunft noch stärker aufgestellt zu sein, arbeitet die Barmenia nun mit Yext zusammen. „Wir haben von Anfang drei Ziele verfolgt: Mehr Leads durch eine optimierte digitale Präsenz und bessere Sichtbarkeit im generischen Bereich, eine höhere Kundenzufriedenheit dank einer besseren Datenkonsistenz und letztlich auch zufriedenere Vermittler, denen wir mit digitalen Technologien die Arbeit erleichtern können”, erklärt Martin Ingignoli, Digital Marketing Manager bei der Barmenia. „Für Yext haben wir uns letztlich aus zwei Gründen entschieden. Insbesondere die detaillierte Messbarkeit der Aktivitäten mit Yext Analytics war für uns attraktiv, da wir nun Einsicht in den Outcome des digitalen Marketings bekommen.“ Zudem wollte man einen Partner, „der uns in diesem wichtigen Teilbereich der Digitalisierung auch strategischen Input geben kann.“

Mehr Effizienz und volle Transparenz


Die Barmenia kann jetzt mit „Listings“ alle Informationen zu 38 Geschäftsstellen und 1.100 Versicherungsvermittlern über eine zentrale Plattform effizienter managen. Über die „Knowledge Engine“ werden die Informationen anschließend mit allen wichtigen digitalen Kanälen synchronisiert. Besonders wichtig sind für das Unternehmen jedoch die Funktionen, die „Analytics“ bietet. Über das Tool können alle Beteiligten nachvollziehen, wie sich digitale Marketing-Maßnahmen auf das Geschäft auswirken. Vertriebsmitarbeiter erhalten die jeweils für sie relevanten Informationen – Bereichsleiter sehen die Daten für ihren gesamten Bereich, einzelnen Vermittlern hingegen werden nur die eigenen Klicks, Anrufe und Leads angezeigt.

Im Wettbewerb um Kunden


Für Versicherungskunden ergeben sich durch die Zusammenarbeit zwei Vorteile. Zum einen können sie sich in Zukunft darauf verlassen, dass alle von der Barmenia angebotenen Daten immer korrekt und vollständig sind – egal, auf welchen Kanälen. Zum anderen bietet das verbesserte digitale Angebot eine höherwertige Nutzererfahrung. Versicherungen konkurrieren jedoch nicht nur um Kunden, sondern auch um die besten Vermittler. Auch sie legen Wert darauf, dass ihr Anbieter digital gut aufgestellt ist. Denn letztlich hilft ihnen eine starke Präsenz dabei, selbst mehr zu verkaufen.

60 Prozent der Vermittler sagen deshalb in einer aktuellen Umfrage von Ernst & Young, dass die Verfügbarkeit besserer digitaler Tools ihre Präferenz für eine Versicherung beeinflusst. 35 Prozent sehen darin sogar einen wesentlichen Grund für einen Anbieterwechsel.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom Business Intelligence / Big Data
news-20216 Tue, 17 Jul 2018 11:19:51 +0200 Docuware Forms erweitert http://www.it-zoom.de/dv-dialog/e/docuware-forms-erweitert-20216/ Docuware Forms, die 2015 lancierte Lösung zur vereinfachten Datenerfassung über Web-Formulare ohne Programmierkenntnisse, erweitert in der neuen Version ab sofort die Funktionalität der Eingabefelder, um Daten strukturierter zu erfassen und Fehler zu vermeiden. Neu ist z.B. das Einblenden oder Ändern von Feldern abhängig von den Eingaben des Benutzers oder die Formatierung von Texten zur besseren Lesbarkeit. Beispielsweise wird bei Auswahl von „Sonstiges“ in einer Liste von Optionen ein freies Textfeld angezeigt, in dem Anmerkungen eingegeben werden können.

Außerdem gibt es bei Docuware Forms jetzt „Eingabemasken“ zur korrekten Darstellung der Informationen. Dies ist hilfreich bei strukturierten Datenfeldern wie E-Mail-Adresse oder Telefonnummer. Ein Validierungsservice überprüft die Eingaben in einem Feld automatisch auf Richtigkeit und gleicht sie zusätzlich mit externen Datenquellen ab.

Formatierung von Texten

Die Formatierung von Texten verbessert die Lesbarkeit. So sind jetzt auch Unterstreichungen, Kursiv-/Breitschrift, variable Schriftgrößen, Farben sowie Justierung möglich.

Links zu weiterführenden Informationen, etwa zum Datenschutz oder zu den Allgemeinen Geschäftsbedingungen, lassen sich bei Bedarf einbinden.

Solche Web-Formulare können von jedem Docuware-Anwender über eine intuitive Drag & Drop-Oberfläche mit flexiblen Layout-Optionen erstellt werden. Eigene Programmierkenntnisse sind dazu nicht erforderlich. Nach ihrer Archivierung stehen die Formulare allen Berechtigten zur Verfügung – mit allen notwendigen Feldern und Optionen.

Integration in digitale Workflows

Die über Docuware Forms gesammelten Informationen können zur Initiierung oder Vervollständigung digitaler Workflows genutzt werden und dadurch in verschiedensten Anwendungsfällen zum Einsatz kommen. Beispiele:

  • Ein Versicherungsunternehmen konvertiert Papieranwendungen in mobiltaugliche Web-Formulare – diese zeigen nur Fragen zu diesem Makler und der Art der Deckung auf.
  • Eine große Fluggesellschaft erfasst alle Pilotenanmeldungen über ein einziges Formular, einschließlich der Anmeldung und des Hochladens von Schulungs- und Zertifizierungsdokumenten. Die Informationen und Dokumente werden dann durch einen Review- und Interviewplanungsprozess geleitet.
  • Ein Hotel sammelt über ein Web-Formular zusätzliche Informationen über jeden Vertrag und verknüpft diese Informationen mit dem Vertragsdokument in jedem Schritt des Überprüfungs- und Genehmigungsworkflows.
  • Ein Softwareanbieter verwendet ein einziges globales Web-Formular zur Erfassung aller Bestellanforderungen und verwendet diese Informationen, um nachgeschaltete Rechnungszahlungen einzuleiten.

Docuware Forms, ein kostenloser Bestandteil jeder Cloud-Lizenz sowie als Zusatzmodul zu lokalen Lizenzen erhältlich, ist ein wesentlicher Bestandteil der neuen „Kinetic Solutions“ des Softwarehauses aus Germering. Dabei handelt es sich um vorkonfigurierte Workflows, die momentan für die Rechnungsverarbeitung und das Personalmanagement verfügbar sind.

Bildquelle: Docuware

]]>
DV-Dialog Dokumentenmanagement und ECM
news-20219 Tue, 17 Jul 2018 11:03:37 +0200 Smartphone-Spiele boomen weiterhin http://www.it-zoom.de/mobile-business/e/smartphone-spiele-boomen-weiterhin-20219/ Eine neue Umfrage beschäftigt sich mit den bevorzugten Spielgewohnheiten der Bevökerung. Demnach hat das Smartphone erstmals den PC überholt und ist auf den ersten Platz gerutscht. Wie der Branchenverband Game mitteilt, ist das Smartphone in Deutschland das populärste Endgerät für Videospiele. Erhebungen der Gesellschaft für Konsumforschung (GfK) zufolge spielten 18,2 Millionen Menschen 2017 auf ihren Smartphones, ein Plus von 5 Prozent im Vergleich zum Vorjahr. Der PC war demnach für 17,3 Millionen Nutzer die bevorzugte „Daddel”-Plattform, gefolgt von der Konsole (16 Millionen) und dem Tablet (11,5 Millionen).

Zugänglichkeit machen Smartphone-Spiele populär

Das Smartphone erreiche vor allem durch seine weite Verbreitung und die geringen Einstiegshürden viele Menschen, die zuvor wenig oder gar nicht gespielt haben, sagte Felix Falk, Geschäftsführer des Game. Dem Verband zufolge spielen hierzulande insgesamt 34,3 Millionen Menschen, also knapp jeder zweite Bewohner. Inzwischen stellen die über 50-Jährigen die größte Gruppe der Gamer. 2017 wuchs der Markt für Computer- und Videospiele sowie entsprechende Hardware im Vergleich zum Vorjahr um 15 Prozent auf über 3,3 Milliarden Euro Umsatz.

dpa/pf

]]>
Mobile Business Startseite it-zoom
news-20215 Tue, 17 Jul 2018 10:18:30 +0200 Backup: Die Gefahr lauert im Kleingedruckten http://www.it-zoom.de/it-director/e/backup-die-gefahr-lauert-im-kleingedruckten-20215/ Sicheres Backup und Hochverfügbarkeit: Aufgrund neuer Technologien und gesetzlicher Vorgaben sollten die IT-Verantwortlichen bisherige Infrastrukturen genauer unter die Lupe nehmen, um nicht geradewegs in ein Datendesaster zu laufen. Anwendungsbereiche wie Cloud Computing, Advanced Analytics, Künstliche Intelligenz (KI) oder das Internet of Things (IoT) verändern aktuell grundlegend die IT-Strukturen und IT-Konzepte vieler Unternehmen. Gesetzliche Vorgaben wie die neue EU-Datenschutz-Grundverordnung (DSGVO) fordern zusätzlich strengste Sorgfalt im Umgang mit digitalen Informationen. Höchste Zeit, um traditionelle Backup- und Hochverfügbarkeitsstrategien auf den Prüfstand zu stellen.

Glaubt man den Marketing-Kampagnen der IT-Technologieanbieter, so sind die Möglichkeiten, die neue innovative Applikationen den Unternehmen eröffnen, grenzenlos: Cloud-Lösungen übernehmen die Datenspeicherung, Künstliche Intelligenz steuert die Kundenkommunikation, leistungsstarke Analysesysteme optimieren in Sekundenschnelle Geschäftsprozesse und dank IoT und einer fortschreitenden Automatisierung werden Produktionsstätten bald menschenleer sein. „Was von den Anbietern bei der Beschreibung und Vermarktung derartiger Zukunftsszenarien gerne vergessen wird, ist die Datensicherung. Während die Datensicherheit, also der Schutz der Daten gegen Missbrauch, Diebstahl, Veränderung etc. durchaus auf dem Radar der Technologiefirmen ist, scheinen die Datensicherung und damit der Schutz gegen den Verlust durch technische oder menschliche Fehler keine Rolle zu spielen“, kritisiert Holm Landrock, Berater beim Marktforschungs- und Beratungsunternehmen ISG.

Als charakteristisches Beispiel nennt Landrock verschiedene Cloud-Nutzungsmodelle wie Infrastructure as a Service (IaaS) oder Platform as a Services (PaaS). Wie er in der Praxis ­immer wieder feststellt, sind Backup und Hochverfügbarkeit typischerweise nicht Gegenstand der Verträge. Selbst für sorgfältig ausgearbeitete Fachverfahren fehlen in Pflichtenheften teilweise grundlegende Anforderungen hinsichtlich der Hochverfügbarkeit und Datensicherung. Mitunter stehen die Punkte in den Unterlagen, jedoch ohne Spezifikationen. Bei einigen Big-Data-Lösungen kann es sehr schnell schwierig werden, überhaupt die Bandbreite für ein Backup oder eine Duplizierung bereitzustellen. So bleibt es in der Verantwortung der Anwender, wie in klassischen IT-Umgebungen auch bei IT-Service-Providern und Cloud-Konzepten an die Datensicherung und die Hochverfügbarkeit zu denken.

„Wollte man die Hochverfügbarkeit sicherstellen, wäre die Cloud-Umgebung also zu duplizieren. Dabei müsste sich aus Katastrophenschutzgründen das Spiegelrechenzentrum, also die physischen Server der virtuellen Welt, an einem anderen Standort des Providers befinden. Hat man also einen Cloud-Provider gefunden, dessen Rechenzentrum den Anforderungen hinsichtlich des Datenschutzes entspricht, wird für die Hochverfügbarkeit im Katastrophenfall ein zweites Rechenzentrum benötigt. Das können bisher nur wenige Anbieter liefern, wenn man zudem gesetzliche Datenschutzvorgaben – Stichwort: RZ in Deutschland – berücksichtigt“, so Holm Landrock.

Nach Einschätzung von Thomas Sandner von Veeam Software ist die Datensicherung in vielen Unternehmen durch die DSGVO wieder in den Fokus gerückt. „Eine Chance, denn zahlreiche Firmen haben ihre Backup- und Disaster-Recovery-Verfahren länger nicht überprüft“, stellt Sandner immer wieder fest. Hybride Infrastrukturen sind nach seinen Worten auf dem Vormarsch und nicht nur IoT lässt Datenvolumen explodieren. Trotzdem müssen Firmen jederzeit den Überblick behalten, wo sich insbesondere personenbezogene Daten befinden, das gilt auch auf Backups. „Nur so können sie das ‚Recht auf Vergessen’ zuverlässig umsetzen und sicherstellen, dass Sicherungskopien nicht etwa in andere Länder oder zu Dienstleistern wandern, die DSGVO-Auflagen nicht erfüllen“, warnt Thomas Sandner.

Wollen Unternehmen ihre Daten wertschöpfend einsetzen, müssen sie laut Sandner nicht nur jederzeit im Zugriff, sondern auch sicher sein. Das erfordert eine neue Form von integriertem Datenmanagement über alle Plattformen hinweg. „Die Zukunft gehört einem Ansatz, in dem Daten sich ‚ereignisgesteuert’ selbst managen können, um so jederzeit wichtige Erkenntnisse zum Geschäftsbetrieb zu liefern. Das heißt, Künstliche Intelligenz und maschinelles Lernen werden Einzug in das Datenmanagement halten. Backups haben deshalb nicht ausgedient, im Gegenteil. Sie sind das Fundament für alle Schutzmaßnahmen“, so Sandner.

Einen konstruktiven Lösungsansatz sieht Veeam in seiner kürzlich vorgestellten Hyper-Availability Platform. Sie basiert auf einem flexiblen Baukasten inte-grierter „Plug-and-play“-Lösungen und bietet nach Herstellerangaben ein Spektrum bestehend aus Integra­tion, Transparenz, Orchestrierung, Intelligenz und Automatisierung. „Nur so können die enormen und permanenten Datenströme in verteilten Multi-Cloud-Umgebungen optimal gesteuert werden“, glaubt Thomas Sandner. Auch Dirk Barfuß, Director Enterprise Sales Data Protection Solutions bei Dell EMC, sieht dringenden Veränderungsbedarf bei Backup- und Hochverfügbarkeitsstrategien. „Eines der Kernziele ist es heute, die Anzahl der eingesetzten Tools zu minimieren, um damit Schnittstellen-, Management- und Orchestrierungsprobleme zu vermeiden. Damit rückt die ganzheitliche Verantwortung des Data-Protection-Konzepts für Applikationen, Datenbanken, virtuelle Landschaften, File-Systeme, Clouds, Clients und mobile Endgeräte verstärkt in den Fokus“, meint Barfuß. Die Cloud hilft seiner Ansicht nach zusätzlich bei der Optimierung der Sicherungsstrategie, indem sie für Disaster Recovery und Archivierungsaufgaben oder für Cloud-to-Cloud-Konzepte zum Einsatz kommt.

Zeitgemäße Backup- und Hochverfügbarkeitslösungen müssen nach seinen Worten über umfassende Integrationsmöglichkeiten verfügen, angefangen bei den Kernapplikationen bis hin zum Hypervisor. „Neben dem Standard-Backup muss der Data-Protection-Stack sich näher an der Applikation befinden sowie tiefer in die New Workloads, breiter in die Cloud und automatisierter in den IT-Betrieb eingebunden werden. Weitere Kriterien sind Self-Service-Portale mit Richtlinien und Leitplanken, um grundsätzlichen Compliance-Regeln wie etwa der DSGVO gerecht zu werden“, so Dirk Barfuß weiter.

Vorbereitet auf die Stunde X


Falls sich Unternehmen für Nutzungsmodelle wie IaaS oder PaaS entscheiden, gilt es laut Barfuß zunächst, die Umsetzung der notwendigen Compliance- und Cybersecurity-Anforderungen sicherzustellen. Auch sollten der komplette As-a-Service-Ansatz betrachtet sowie eine durchwegs software-definierte Datensicherungsstrategie aufgebaut werden. „Hinzu kommt die Klärung folgender Fragen: Welchen Einfluss haben IaaS und PaaS auf den internen IT-Betrieb? Welche SLAs bezüglich Backup und Recovery werden benötigt? Welche Abrechnungsmodelle stehen zur Verfügung?“, empfiehlt Barfuß.

Einhergehend mit der digitalen Transformation steigt das Bedürfnis nach Geschwindigkeit und Leistung an. Zudem wächst die Erwartung, dass es weder Ausfallzeiten noch Datenverlust oder Unterbrechungen geben darf. Traditionelle Technologien und Konzepte zur Datensicherung erfüllen diese Erwartungen in vielen Fällen nicht mehr. Moderne Unternehmen können es sich nicht leisten, Daten zu verlieren. Was auch immer die Ursache für einen Systemausfall sein mag – Naturkatastrophen, menschliches Versagen oder Cyber-Angriffe –, Datenverluste sind kostspielig und für das Weiterbestehen eines Unternehmens äußerst kritisch.
Eine sogenannte „IT-Resilienz“ basierend auf einem ausgefeilten Business-Continuity-Plan und die regelmäßige Überprüfung, ob dieser greift, werden deshalb zur Pflicht. Sie stellen Betrieb, Datensicherung und Produktivität der IT-Systeme sicher und sollen zentraler Bestandteil der Digitalstrategie im Unternehmen sein. Denn in einem Punkt sind sich IT-Experten einig: Die Frage ist nicht, ob es zu einem Daten-Crash kommt, sondern vielmehr wann er passiert und ob das Unternehmen in diesem Moment darauf vorbereitet ist.


IT-Resilienz: Hochverfügbarkeit zu Ende gedacht

Ziel des Unternehmens muss es sein, eine IT-Infrastruktur aufzubauen, die Änderungen, Unterbrechungen oder ein Desaster effizient abfangen kann, um einen unterbrechungsfreien Geschäftsbetrieb zu gewährleisten.

IT-Resilienz oder auch IT-Widerstandsfähigkeit ist ein proaktiver Business-Continuity-Ansatz, der die kontinuierliche Verfügbarkeit von geschäftskritischen Daten in den Mittelpunkt stellt, statt sich nur auf die Wiederherstellbarkeit von Systemen nach einem Störfall zu verlassen. Zentrale Bestandteile einer effektiven IT-Resilienz sind automatisierte und vereinfachte Replikations- und Wiederherstellungsabläufe, die sicherstellen, dass die Applikationen und Daten eines Unternehmens jederzeit verfügbar bleiben.

Dies ist ein Artikel aus unserer Print-Ausgabe 06/2018. Bestellen Sie ein kostenfreies Probe-Abo.

Typische IT-Unterbrechungen werden heutzutage weniger durch Brände, Überflutungen und Stürme verursacht. Die häufigsten Auslöser sind vielmehr Stromausfälle, Viren (wie Ransomware) oder Updates und Upgrades. Um eine IT wirklich resilient zu machen, muss ein Unternehmen über herkömmliche Backup- und Disaster-Recovery-Lösungen hinausdenken – und auf eine Komplettlösung hinarbeiten, die möglichst hardware-, hypervisor- oder cloud-unabhängig ist. Eine solche Lösung muss schnell auf geplante und ungeplante Unterbrechungen reagieren können.

Quelle: Zerto


Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom Backup
news-20214 Tue, 17 Jul 2018 09:34:45 +0200 Wacken: Deutschlands digitalster Acker? http://www.it-zoom.de/it-director/e/wacken-deutschlands-digitalster-acker-20214/ Vom 2. bis 4. August 2018 wird in Schleswig-Holstein zum 29. Mal das Wacken Open Air stattfinden. Zur Einstimmung auf das Metalfestival fand Ende Juni ein besonderes Konzert statt: Die deutsche Band Mantar platzierte ihre Verstärker mitten in einer Wiese nahe des Festivalgeländes und übertrug ihre Performance online per Video-Livestream. Der „digitale Acker“ machte es möglich. W:O:A-Gründer Thomas Jensen freut sich: „Wir begleiten die Band schon länger, insofern war es schön, in der Lage zu sein, so etwas umsetzen zu können. Es ist top gelaufen, in hoher Auflösung.“ Möglich wurde die Aktion u.a. durch die vorbildliche Digitalanbindung des norddeutschen Ackers.

Während die Netzabdeckung in anderen ländlichen Regionen Deutschlands nach wie vor deutliche qualitative Einbußen oder gar Lücken aufweist, herrscht in Wacken ein Datendurchsatz vergleichbar mit einer mittleren Kleinstadt. 2010 begannen die Festivalveranstalter mit dem Glasfaserausbau, mittlerweile sind über acht Kilometer entsprechender Leitungen fest auf dem Gelände installiert. 576 Fasern ziehen sich durch den Boden, je 144 pro Kabel. Seit 2017 eine neue Bierpipeline verlegt wurde, hängen selbst die Bartresen im Infield fest am Netz.

Aktuell ermöglicht die Technik dem W:O:A einen 1,5-Gigabit-Internetanschluss. Zum Vergleich: Ein gängiger Telekom-VDSL-Anschluss bietet einen Datendurchsatz von 50 Mbit pro Sekunde. Wo die Kabel nicht hinreichen, etwa zu abgelegenen Zonen auf dem Camping-Areal, arbeitet das Festival mit Richtfunk, um Breitband sicherzustellen.

Hohe digitale Kraft unabdingbar


Für reibungslosen Ab- und Vorlauf des W:O:A ist die hohe digitale Kraft unabdingbar. „Für uns war es ein logischer Schritt, sofort mitzumachen“, erklärt Jensen. „Wacken ist einerseits sehr lokal – das kleine Dorf. Und andererseits haben wir die Welt bei uns zu Gast. Wir brauchen diese gute Anbindung, um mit unseren Partnern Livestreams zu organisieren. Auch wenn der Vorverkauf gleich nach dem Festival wieder anfängt, ist diese hohe Datenkapazität nötig und die Anforderungen an das Netz werden im Jubiläumsjahr 2019, in dem unser Open Air zum 30. Mal stattfinden wird, eher noch steigen.“

Die umliegenden Gemeinden profitieren von der Modernisierung. Das ICS Team arbeitete beim Bau des Netzes eng mit ihnen zusammen, dort verlegte Telekommunikationsanbieter Wilhelm.tel ebenfalls Glasfaserleitungen. „Wir sehen das Festival als Katalysator für die gesamte Region“, erklärt der Veranstalter. „In anderen Gemeinden ist es wahrscheinlich viel schwieriger auf die benötigten Anschlusszahlen zu kommen. Bei uns war die Bereitschaft dafür riesig.“

Die Technik sollte in erster Linie den Leuten helfen und nicht zum Selbstzweck installiert werden, betont Jensen. Kommunikation ist für ihn ein Grundbedürfnis. „Gute Kommunikation führt zu mehr Verständnis und dafür braucht es eben funktionierende Technik.“

Bildquellen: Malzahn, Jasper Arendt

]]>
IT-Director Startseite it-zoom Infrastruktur
news-20213 Tue, 17 Jul 2018 09:01:31 +0200 In 10 Schritten zur digitalen Automatisierung http://www.it-zoom.de/it-mittelstand/e/in-10-schritten-zur-digitalen-automatisierung-20213/ Kaum ein Schlagwort verfolgt mittelständische Fertigungsunternehmen so beharrlich, wie Industrie 4.0. Diese Merkmale braucht eine vollautomatische und vernetzte Produktion, um dem Begriff tatsächlich auch gerecht zu werden. Für die intelligente Fabrik ist die Verschmelzung aller IT-Module von der Datenerfassung von Prozess- und Qualitätsdaten an der Maschine bis zur Online-Anbindung der Kunden unabdingbar. Durch ein Höchstmaß an Integration von ERP- und Manufacturing-Execution-System-Software-Modulen wie Maschinendaten-, Betriebsdaten- und Personalzeiterfassung, Computer-Aided-Quality-Management sowie Produktionsplanungs- und Steuerungssystem und die Verschmelzung von Prozess- und Qualitätsdaten wird Industrie 4.0 auch für mittelständische Präzisionsteilehersteller realisierbar.

Puristen unterscheiden vielleicht gerne zwischen herkömmlicher Automatisierung und Industrie-4.0-Prozessen. Das ergibt insofern keinen Sinn, als dass die Übergänge fließend sind. Man kann immer nur mit dem bereits erreichten Digitalisierungsstand eines Unternehmens beginnen, um dann in Richtung des Idealbildes, nämlich einer vollautomatischen, sich selbst steuernden und vernetzten Produktion, zu gehen.

Begleitende Kalkulation in Echtzeit

Zu Industrie 4.0 gehört vor allem das Wissen um den geografischen Ort und den aktuellen Fertigungszustand des Produktes. Das Containermanagement verknüpft die gefertigten Losgrößen eines Fertigungsauftrages mit dem Behälter. Fertigung, Montage und Logistik sind dabei eng miteinander verbunden. Liefereinteilungen und -abrufe werden täglich online vom Kunden direkt in das Netzwerk übertragen und an den Fertigungsprozess weitergeleitet.

Während der Produktion werden sämtliche betriebswirtschaftlichen Parameter wie Prozesslaufzeit sowie Werkzeug- und Materialverbrauch nach jedem Teil berechnet und mit den Sollwertvorgaben aus der Kalkulation abgeglichen. Bei Abweichungen werden entsprechende Maßnahmen ausgelöst, die in einem Workflow festgelegt sind. So kann beispielsweise automatisch eine E-Mail oder eine SMS an den Abteilungsleiter versandt werden.

Prozesssteuerung durch Prozessampel

Auf einen Blick zu wissen, was in der Produktion gerade vor sich geht oder was gerade nicht wie geplant läuft, ermöglicht der Industrie-PC IC901 in Verbindung mit einer Prozessampel und entsprechender Software. Die Prozessampel signalisiert auf Basis relevanter Kennzahlen den aktuellen Zustand von Werkzeugmaschinen.

Die Maschinendatenerfassung (MDE) misst indes Prozessparameter wie Druck und Temperatur (Prozessdatensammler). Werden bei einem Merkmal die Eingriffsgrenzen verletzt, so sind sofort (je nach Prozess innerhalb von Sekunden oder Minuten) entsprechende Maßnahmen einzuleiten, um den Prozess wieder unter Kontrolle zu bekommen. Die Prozessparameter werden durch einen Leitstandrechner nach oben beschriebenem Verfahren vollautomatisch über die standardisierte Schnittstelle EUROMAP 63 oder OPC korrigiert.

Zwangshalt, Wartung und vorbeugende Instandhaltung

Ein Paradebeispiel für die Verknüpfung von Produktionsabläufen ist das Zusammenspiel von Qualitätsmanagement und Produktionssteuerung. Das MDE-Terminal stoppt die Maschine, wenn eine Qualitätskennzahl außerhalb vorgegebener Grenzen liegt.

Funktionssicherheit und Zuverlässigkeit komplexer Anlagen und Fertigungsressourcen und damit deren Verfügbarkeit können mit einem konsequenten vorbeugenden Instandhaltungskonzept auf einem gleichmäßig hohen Produktivitätsniveau gehalten werden. In Verbindung mit der BDE/MDE-Software werden auf die Werkzeuge die Stückzahlen (Schüsse) gebucht. Bei Erreichen der max. Stückzahl (Schusszahl) zeigt die Prozessampel am MDE-Terminal an, dass das Werkzeug gewartet bzw. ausgetauscht werden muss.

Vom Auftragswechsel bis zur Werkezugausgabe

Bei Fertigmeldung des letzten Arbeitsganges eines Fertigungsauftrages wird automatisch der neue Auftrag angestempelt, der vom Planer mit der grafisch interaktiven Kapazitätsplanung auf die Maschine gelegt wurde. Wenn der Materialvorrat an der Maschine erschöpft ist, kann der Werker zudem über einen Tastendruck eine Materialanforderung an den Lageristen versenden. Über einen frei definierbaren Workflow lassen sich beliebige Maßnahmen definieren, die eine automatische Materialbereitstellung einleiten.

Über die Fertigungsauftragsnummer werden dem Werker automatisch die richtigen Werkzeuge angeboten. Für die Erfassung des Werkzeugverbrauches werden die Werkzeuge automatisch auf den zugehörigen Fertigungsauftrag gebucht.

Umbuchung mehrerer Aufträge via Tablet

Durch die automatisierte Buchung mehrerer Aufträge ohne einzelne Ummeldung per Hand können derweil hunderte Arbeitsstunden im Jahr eingespart werden. Eingesetzt wird dazu in der Praxis etwa ein Android-Tablet, das per App alle QR-Codes der Laufkarten auf einem Foto identifizieren kann und den Buchungsvorgang automatisch vornimmt. Die App wurde in diesem Fall vom Software-Anbieter Gewatec selbst entwickelt, da es auf dem Markt keine gab, die in der Lage gewesen wäre, mehrere QR-Codes auf einem Foto zu identifizieren. Der Foto-Ansatz mit dem Tablet wird auch in anderen Bereichen eingesetzt, unter anderem bei der Lieferscheinerstellung für die Fertigungsprozesse bei Subunternehmen.

Zu guter Letzt spielt das Energiemanagement eine wesentliche Rolle. Das BDE/MDE-System kennt über einen Sensor den genauen Zustand (Stückzahl, steht/läuft) sämtlicher Maschinen in der Produktion. Viele Maschinen produzieren in die Nachtschicht hinein, bis kein Material mehr zur Verfügung steht. Mit einem Actor des BDE/MDE-Energiemanagements ist es möglich, Kompressoren, Beleuchtungen, Klimaanlagen und sonstige Verbraucher ein- und auszuschalten, sobald diverse Maschinen- bzw. Maschinengruppen nicht mehr produzieren. Neben dem Schalten von Verbrauchern können auch beliebige und frei programmierbare Nachrichten über E-Mail oder SMS versendet werden.

Bildquellen: August Weckermann, Gewatec

]]>
IT-Mittelstand Industrie 4.0 / MES
news-20212 Tue, 17 Jul 2018 08:37:00 +0200 Die Rolle von virtuellen Callcentern http://www.it-zoom.de/it-mittelstand/e/die-rolle-von-virtuellen-callcentern-20212/ Im Interview betont Andre Weideck, Head of Sales DACH & Eastern Europe bei Freshworks: „Globale Aktivitäten und stetige Personalveränderungen sorgen dafür, dass der Einsatz virtueller Callcenter selbst für verhältnismäßig kleine, aber erfolgreiche Unternehmen mittlerweile unerlässlich ist.“ ITM: Herr Weideck, welchen Stellenwert besitzt anno 2018 der telefonische Kundenservice via Callcenter – Stichwort „echte Gespräche“?
Andre Weideck:
Telefongespräche haben sich im Laufe der Zeit weiterentwickelt. Früher erfolgte bei Support-Anfragen im Unternehmen zuallererst der Griff zum Telefon. Dabei wurden die unterschiedlichsten Angelegenheiten telefonisch geklärt. Mit der zunehmenden Nutzung von E-Mails, sozialen Medien, Plattformen, Chats und Knowledge Bases wird der telefonische Support heute häufig nur noch für dringende Anfragen und komplizierte Probleme, die per E-Mail oder Chat nicht erklärt werden können, oder finanzielle Transaktionen genutzt. Er ist damit die letzte Hoffnung für Kunden, denen über andere Support-Kanäle nicht geholfen werden konnte. Telefonischer Support ist also auch heute noch äußerst wichtig.

ITM: In welchen Branchen im Mittelstand sind Callcenter sinnvoll und warum?
Weideck:
Mittelständische Firmen in den folgenden vertikalen Märkten – Einzelhandel/E-Commerce, B2B, Logistik/Transpor, Software/IT, Freizeit/Gastgewerbe sowie Lebensmittel/Getränke – können vom Callcenter-Support im Unternehmen profitieren. Diese vertikalen Märkte bedienen in der Regel sehr vielfältige Zielgruppen. Die Support-Kanäle der Unternehmen sollten deshalb ebenso vielfältig und für jeden Kunden zugänglich sein. Der komfortabelste und integrativste Support-Kanal ist und bleibt in dieser Hinsicht das Telefon.

ITM: Welche infrastrukturellen und technischen Anforderungen muss ein Unternehmen erfüllen, um ein Callcenter in Betrieb nehmen zu können?
Weideck:
Für Unternehmen, die Callcenter-Support einführen möchten, empfiehlt sich der Einstieg mit einer cloud-basierten Callcenter-Software. Auf diese Weise muss keine telefonische Hardware angeschafft werden. Auch eine Wartung des Systems ist nicht erforderlich. Unternehmen, die altmodische Telefonanlagen einsetzen, müssen zunächst Telefone und Server für die lokale Rufumleitung erwerben und Verträge mit Netzbetreibern abschließen, um ihr Callcenter zu betreiben. Unabhängig vom gewählten Telefonsystem benötigen sie für anregende Gespräche ein kompetentes Callcenter-Team. Mithilfe von Erlangrechnern können sie die optimale Anzahl von Agenten während und außerhalb der Spitzenzeiten bestimmen.

ITM: Worauf legen Kunden Wert, wenn sie im Callcenter eines Unternehmens anrufen?
Weideck:
Kunden, die beim Callcenter einer Firma anrufen, möchten vor allen Dingen mit einem Menschen sprechen. Ihr Problem konnte weder mithilfe ihrer Knowledge Base noch über E-Mails, soziale Medien oder in Chatgesprächen gelöst werden. Es ist also besonders wichtig, dass wir uns der Dringlichkeit und Ernsthaftigkeit des Anrufs bewusst sind und dem Kunden offen und ehrlich begegnen. Wenn der Kunde merkt, dass Sie sich am Telefon authentisch verhalten, bleibt er Ihnen lange Zeit treu.

ITM: Was verärgert die Kunden hingegen am meisten?
Weideck:
Wenn Kunden wiederholt in der Warteschleife hängen und dort lange (über vier Minuten) auf einen verfügbaren Mitarbeiter warten oder immer wieder Informationen bereitstellen müssen, die sie bereits über das IVR-System oder einem anderen Agenten zur Verfügung gestellt haben, werden sie sicher irgendwann die Geduld verlieren.

ITM: Welchen Stellenwert besitzen jene Kundenerfahrungen für ein Unternehmen? Welchen Einfluss können sie ausüben?
Weideck:
Drei von vier Anrufern sind der Meinung, dass es zu lange dauert, bis sie einen Gesprächspartner erreichen. Wie eingangs erwähnt, sind Telefongespräche heutzutage meist die letzte Instanz zur Problemlösung. Sollten Kunden hier also eine schlechte Erfahrung machen, werden sie sich zweifellos nach aufmerksameren Mitbewerbern umsehen. Verfassen Sie maßgeschneiderte Willkommensnachrichten für eine offene und freundliche Begrüßung. Vermeiden Sie Warteschlangen von über fünf Minuten, ohne dem Kunden die Möglichkeit für ein persönliches Gespräch mit einem Agenten zu geben. Nach dieser Wartezeit über eine Voicemail, um einen Rückruf zu bitten, ist für den Kunden nicht sehr erfreulich. Ihre Kunden rufen schließlich nicht an, weil sie gerade nichts Besseres zu tun haben. Sie rufen an, weil sie dringend Hilfe benötigen. Wenn Sie Ihren Kunden zeigen, dass Sie die Dringlichkeit ihres Problems verstehen, können Sie ihre Erfahrung positiv beeinflussen.

ITM: Welche Eigenschaften sollte eine moderne Callcenter-Lösung mit sich bringen, um nicht nur bei den Kunden einen einwandfreien Eindruck zu hinterlassen, sondern auch, um bei den Mitarbeitern zu punkten?
Weideck:
Die Callcenter-Lösung von heute sollte ein umfassendes System zur Bearbeitung eingehender Anrufe bieten. Immer mehr Unternehmen meiden aggressive Werbung durch unaufgeforderte Telefonanrufe und setzen stattdessen auf eine Pull-Strategie, um bei potentiellen Kunden Nachfrage nach ihren Produkten und Dienstleistungen zu schaffen. Eine Callcenter-Software benötigt also Funktionen wie IVR, geschäftszeitbasierte Rufumleitung, Anrufwarteschlangen mit intelligenten Eskalationsregeln, Individualisierung von Voicemail und Begrüßungen sowie ein einfaches aber effizientes virtuelles Telefonsystem.

ITM: Wie gestaltet sich i.d.R. die Kopplung einer Callcenter-Lösung mit dem vorhandenen Customer-Relationship-Management-System (CRM)? Worin besteht die Herausforderung?
Weideck:
Callcenter-Lösungen können situationsbedingt eine oder beide der folgenden Ansätze verfolgen:
- eine integrierte, mithilfe des Marketplace für CRM-Software entwickelte Lösung
- eine Telefonlösung, die ganz einfach in jede Software integriert werden kann (wie der in die meisten Webseiten eingebettete Live-Chat-Code).

ITM: Stichwort „IVR-Systeme“: Welche Möglichkeiten bieten Sprachdialogsysteme, die zum Einsatz kommen, bis ein Callcenter-Mitarbeiter für Kundengespräche frei ist? Wo liegen die Grenzen jener Systeme?
Weideck:
Von Kundenseite wurde vorgeschlagen, in der Warteschleife lokale Nachrichten, Neuigkeiten zum Unternehmen oder aktuelle Angebote abzuspielen. Damit wird allerdings nicht das Problem gelöst, dass die Anrufer so schnell wie möglich mit jemandem sprechen wollen. Kunden sollten deshalb die Möglichkeit erhalten, eine Voicemail zu hinterlassen und zurückgerufen zu werden, sobald der Callcenter-Mitarbeiter verfügbar ist.

ITM: Worin bestehen die Herausforderungen bei „Virtuellen Callcentern“, deren Mitarbeiter nicht an einen Standort und feste Arbeitszeiten gebunden sind, sondern z.B. im Home-Office arbeiten?
Weideck:
Globale Aktivitäten und stetige Personalveränderungen sorgen dafür, dass der Einsatz virtueller Callcenter selbst für verhältnismäßig kleine, aber erfolgreiche Unternehmen mittlerweile unerlässlich ist. Virtuelle Telefonanlagen müssen deshalb Funktionen aufweisen, die sowohl Agenten als auch ihren Vorgesetzten ermöglichen, effektiv zu arbeiten. Beispielsweise dürfen Gespräche nicht nur über physische Telefone funktionieren, wenn Callcenter-Mitarbeiter von zu Hause aus arbeiten möchten. Vorgesetzte sollten zur Überwachung der Mitarbeiterleistung außerdem in der Lage sein, Anrufe in Echtzeit mitzuhören. Virtuelle Callcenter werden für Unternehmen interessanter, wenn sie eine strikte Überwachung und ein eventuelles Eingreifen im Problemfall ermöglichen.

ITM: Welche Technologien und Innovationen werden Callcentern bzw. „echten Mitarbeiter-Kunden-Gesprächen“ künftig Konkurrenz machen und warum?
Weideck:
Gespräche haben sich bezüglich Format, Typ, Tonfall und Medium verändert, sind aber durchaus nicht seltener geworden. Im Gegenteil: Heutzutage sprechen Menschen noch viel häufiger miteinander, wenn auch nicht auf traditionelle Weise. Callcenter-Lösungen sollten deshalb in Zukunft jegliche Form der Sprechkommunikation in ihre Roadmap einschließen. So wird es sicher einen Anstieg von VR- und AR-Lösungen geben, die Kunden basierend auf Knowledge-Base-Einträgen umsetzbare Lösungsvorschläge liefern. Intelligente Knowledge Bases bieten schon im Vorfeld wichtige Antworten und stellen damit sicher, dass nur unvermeidliche Anrufe im Callcenter eingehen.

ITM: Welche Rolle spielen an dieser Stelle z.B. Chatbots (Stichwort „Künstliche Intelligenz“)?
Weideck:
Chatbots werden immer intelligenter und können schon bald vollständige Gespräche mit potentiellen und bestehenden Kunden führen. Der Erfolg von Chatbots hängt jedoch in hohem Maße davon ab, in welchen vertikalen Märkten und für welche Zielgruppe sie eingesetzt werden. Chats werden häufig als eine äußerst unpersönliche Art der Kommunikation wahrgenommen. Chatbots können aber in jedem Fall dafür sorgen, dass einfache Anfragen nicht per E-Mail geklärt werden müssen.

Bildquelle: Freshworks

]]>
Lea Sommerhäuser IT-Mittelstand CRM Startseite it-zoom
news-20211 Tue, 17 Jul 2018 08:23:00 +0200 Skalierbare Speicherlösung im JSC http://www.it-zoom.de/it-director/e/skalierbare-speicherloesung-im-jsc-20211/ Um wissenschaftliche Spitzenforschung aktuell und in Zukunft bestmöglich unter­stützen zu können, setzt das Jülich Supercomputing Centre (JSC) eine Distributed-Storage-Lösung ein. Die leistungsfähige, skalierbare Speicherlösung soll einen ­schnelleren Datenzugriff ermöglichen und so Forschungsprojekte beschleunigen. Wie funktioniert das menschliche Gehirn? Wie gestalten wir eine nachhaltige Energieversorgung? Wie beurteilen wir präzise die Gesundheits- und Umweltrisiken neuer Chemikalien? Mit einem leistungsfähigen Speichersystem zur bestmöglichen Nutzung seiner Supercomputer-Ressourcen unterstützt das Jülich Supercomputing Center (JSC) Wissenschaftler dabei, Antworten auf solche Fragestellungen zu finden.

Stephan Graf, Leiter des Teams Large Scale Storage Systems am JSC, erklärt: „Wissenschaftler führen heute immer komplexere Forschungsprojekte durch. Deshalb werden bei uns auch immer größere Datenmengen verarbeitet. Um den Ansprüchen auch zukünftig gerecht zu werden, haben wir uns entschlossen, das zentrale Datenspeichersystem unserer Umgebung für das High Performance Computing, kurz HPC, zu erweitern und zu erneuern.“

Gemeinsam mit Lenovo Professional Services und dem lokalen Technologiepartner Pro-com Datensysteme GmbH hat das JSC die neue Speicherlösung auf Basis der Software IBM Spectrum Scale designet und aufgebaut. Mit dieser Lösung lassen sich große Datenmengen speichern, es kann schnell darauf zugegriffen werden und sie können zuverlässig gesichert werden.

Verbesserte Flexibilität


Das JSC implementierte 21 Distributed Storage Solutions für IBM-Spectrum-Scale-DSS-G240-Speichersysteme, die auf Thinksystem-SR650-Servern mit den neuesten Intel-Xeon-Scalable-Systems-Prozessoren und Storage-D3284-High-Density-Speichergehäusen basieren. Jedes der Speichersysteme vom Typ DSS-G240 hat eine Kapazität von rund 3,3 PB. Zusätzlich wird ein Speichersystem vom Typ DSS-G260 mit einer Kapazität von 5 PB verwendet. Damit soll die Kapazität des neuen Gesamtspeichersystems am JSC auf 75 PB mit einem theoretischen Maximum von 570 GB/s Lese- und 460 GB/s Schreibleistung ansteigen.

Das Speichersystem stellt mehrere separate, für verschiedene Verwendungszwecke optimierte Dateisysteme bereit und ist über 100 Netzwerkkarten mit dem zentralen Ethernet-Netzwerk der Supercomputing Facility des JSC verbunden. Diese Konfiguration soll den angeschlossenen Rechnern einen schnellen Zugriff auf die Daten ermöglichen. Dadurch werde auch die Verschiebung von Daten zwischen unterschiedlichen Dateisystem-Pools einfach, was die Flexibilität verbessert. Darüber hinaus installierte Lenovo Professional Services zehn Thinksystem-SR650-Server als Teil der Storage-Lösung: fünf als Cluster-Management-Server, zwei für die Provisionierung mit dem Werkzeug xCAT, einen für das Monitoring und zwei für Cluster Export Services (CES). Alle Server sind mit Xeon-Scalable-Systems-Prozessoren ausgestattet und werden mit Red Hat Enterprise Linux betrieben. Das IT-Team des JSC nutzt diese zusätzlichen Management- und Service-Knoten, um das Speichersystem flexibel zu verwalten und kontinuierlich mit höchster Leistung betreiben zu können.

Die Lösung vereinfacht die Bereitstellung hoher Speicherkapazität und ermöglicht Datenzugriffe mit minimalen Latenzzeiten. Die Software Spectrum Scale RAID macht externe Speicher-Controller überflüssig und ermöglicht eine schnelle Wiederherstellung – bis zu acht Mal schneller als mit den bisherigen, hardware-basierten RAID-Controllern. Letztlich hat die DSS-G-Lösung die Gesamtperformance gesteigert und den Datendurchsatz beschleunigt. Die Bandbreite hat sich laut Anwender mehr als verdoppelt, sodass jetzt auf bis zu 500 GB an Daten pro Sekunde mit gleichbleibend schneller Performance zugegriffen werden kann.

Dies ist ein Artikel aus unserer Print-Ausgabe 06/2018. Bestellen Sie ein kostenfreies Probe-Abo.

Das JSC nutzt die Plattform, um wichtige Datenbestände aus allen wesentlichen Forschungsprojekten zu speichern. Dazu gehört auch das europäische Human Brain Project, bei dem Wissenschaftler verschiedener Partnerinstitutionen eine integrierte Infrastruktur für die Neurowissenschaften aufbauen – mit dem Ziel, langfristig die Funktionalität des menschlichen Gehirns im gesunden und kranken Zustand zu verstehen. Hierzu werden Experimente, Simulations- sowie Big-Data-Analysemethoden in einer Plattform zusammengeführt. Darüber hinaus nutzt das JSC die DSS-G-Lösung auch, um von anderen Forschungseinrichtungen gesammelte Informationen zu speichern.


Das Jülich Supercomputing Centre (JSC) ...

... ist Teil der öffentlich geförderten Forschungszentrum Jülich GmbH, des größten Forschungszentrums Deutschlands. Mit rund 5.800 Mitarbeitern gehört es zudem zu den größten Forschungseinrichtungen Europas. Seit 1987 betreibt das JSC das erste deutsche Höchstleistungsrechenzentrum. Seitdem stellt es den Forschern in Deutschland und Europa über ein unabhängiges Peer-Review-Verfahren Rechenzeit der höchsten Leistungsebene zur Verfügung. Zurzeit betreibt es mit Juqueen einen der leistungsstärksten Rechner in Europa. Im JSC arbeiten rund 200 Experten und Ansprechpartner für alle Aspekte rund um Supercomputing und Simulationswissenschaften. Als Mitglied des Gauss Centre for Supercomputing koordiniert das JSC seit Anfang 2008 den Aufbau der europäischen Forschungsinfrastruktur „Prace – Partnership for Advanced Computing in Europe“. Das JSC unterstützt ein breites Spektrum von Forschungsgebieten mit der Bereitstellung der Rechenleistung sowie des nötigen technischen Fachwissens für die schnelle und effektive Durchführung umfassender Simulationen auf Basis großer Datenmengen. Wissenschaftler aus den Neurowissenschaften, der Physik, den Biowissenschaften sowie Forscher in den Bereichen Klimawandel und Energie profitieren von den Leistungen des JSC.


Bildquelle: Lenovo

]]>
IT-Director Startseite it-zoom Backup
news-20210 Mon, 16 Jul 2018 20:40:59 +0200 IBM i und DS-GVO http://www.it-zoom.de/dv-dialog/e/ibm-i-und-ds-gvo-20210/ Zur Anbindung gewachsener Anwendungssysteme, wie etwa auf der AS/400 bzw. Power i, an aktuelle Online-Shops oder CRM-Systeme ist oft ein Anwendungsprogramm-Interface (API) vonnöten. Das gilt auch für Datenmigrationen, z.B. nach einer Firmenübernahme, oder für die Umsetzung der aktuellen Vorgaben durch die Datenschutz-Grundverordnung (DS-GVO). Das will die tschechische Firma Intelligent Studios s.r.o mit ihrer Digitalisierungsplattform Xeelo durch eine No-API-Anbindung an bestehende oder Alt-Systemeändern. Xeelo ist ein Workflow- und Dokumentenmanagement-Tool zur Automatisierung von Geschäftsprozessen, das sich in die bereits bestehende IT-Infrastrukturen einfügt und eine neue, benutzerfreundliche Plattform für die Interaktion mit Geschäftsanwendern bereitstellt.

Xeelo ist Cloud-basiert und bietet eine No-API-Anbindung an bestehende oder Alt-Systeme, die als Software für „Business Process Management“ (BPM) auf eine No-Coding-Architektur setzt. Durch durch Software-Roboter gesteuerte Prozessautomatisierung können DSGVO-Vorgaben wie das „Privacy-by-Design“-Prinzip auch AS/400 Alt-Systeme erfüllt werden, ohne diese verändern zu müssen. Ein Ende 2017 veröffentlichtes DSGVO-Modul der Xeelo-Plattform wurde mit Hilfe von Auditoren und Datenschutzbeauftragten speziell für die schnelle und unkomplizierte Erfüllung der DSGVO-Vorgaben geschaffen.

„Durch Übernahmen kommt es oft vor, dass größere Unternehmen Gesellschaften kaufen, die ein eigenes, älteres System besitzen“, weiß Sven Lurz, Channel Manager für Deutschland, Österreich, Schweiz bei Xeelo. Die Automatisierung durch Xeelo unterstütze Unternehmen dabei, die Daten kleinerer oder älterer Systeme in größere Datenbanken, ERP-Systeme oder Cloud-Plattformen zu übertragen.

Anbindung über Robotix-Schnittstelle

Die Anbindung an die Xeelo-Plattform erfolgt,indem ein Agent (Software-Roboter) die Daten aus dem Alt-System unter Verwendung einer optischen Texterkennung (OCR) ausliest und diese auf den „Data Exchange“-Server der Xeelo-Plattform überträgt. Bei der Text-Erkennung setzt Xeelo auf zwei Systeme:

- System 1: Scannt ein Dokument, es wird zu einem Bild mit lesbarem Text

- System 2: Visuelle Optical-Character-Recognition auf der Benutzeroberfläche (GUI) via RPA. Dadurch besteht keine Notwendigkeit zur manuellen Eingabe von Daten.

„Unsere Robotic-Integration ist einzigartig, da hier der Roboter die eigentliche Arbeit macht und die Daten dann an unsere Software weiterleitet“, erklärt Martin Jaros, CEO und Gründer von Xeelo. „Die Entwicklung ist noch nicht abgeschlossen. Wir arbeiten kontinuierlich an einer verbesserten Kompatibilität. Denn wir wollen sicherstellen, dass die Integration mit jedem System zuverlässig arbeitet.“

Zentrales Cloud-Element Data-Exchange-Server

Der Xeelo Data-Exchange-Server stellt eine zentrale Komponente der Cloud-Architektur von Xeelo dar. Vom Data-Exchange-Server aus können digitale Informationen aus bestehenden ERP-, CRM-, EMS-Systemen sowie aus Azure, der Cloud-Computing-Plattform von Microsoft, eingelesen und DSGVO-konform verarbeitet werden.

Da Xeelo Gold-zertifizierter Microsoft-Partner ist, und neuerdings auch in den Microsoft Business Sales Circle (MSBC) aufgenommen wurde, wird eine vollständige Kompatibilität zu bestehenden Microsoft-(Cloud)-Plattformen versprochen.

Privacy-by-Design auch für Alt-Systeme

Die Xeelo-Plattform bietet ein einfaches Stammdaten-Management, da es eine einzige Quelle der Wahrheit („Golden Record“) liefert. Indem die Alt-Systeme über den Data-Exchange-Server an das Stammdaten-Management der Xeelo-Plattform, ebenfalls unter Verwendung eines SQL-Anonymizers, angebunden sind, findet automatisch ein Datenaustausch statt, wodurch sich die DS-GVO-Tauglichkeit, auch von Alt-Systemen, erhöht. Jeder Such- und Verarbeitungs-Vorgang in den Stammdaten wird digital aufgezeichnet und nachvollziehbar gemacht.

„Privacy-by-Design“ stellt eine der wesentlichen Rechtsgrundlagen in der im Mai in Kraft getretenen DS-GVO dar. Das in Artikel 25 verankerte Prinzip bedeutet in etwa so viel wie „Datenschutz durch technische Gestaltung“ – und greift den Grundgedanken auf, dass sich die Datenschutz-Vorgaben am besten erfüllen lassen, wenn sie bereits bei Erarbeitung eines Datenverarbeitungsvorgangs technisch integriert sind.

Die Xeelo-Plattform sowie das DS-GVO-Modul sind ab sofort erhältlich und können entweder direkt über Xeelo oder über einen der Xeelo-Vertriebspartner (in Deutschland: Prianto) bezogen werden. Der Hersteller Intelligent Studios mit Zentrale in Prag ist als Strategie- und IT-Prozess-Beratungsunternehmen tätig und hat sich auf Software-Integration spezialisiert. Seit 2015 verfügt Intelligent Studios über ein eigenes Entwicklungszentrum.

Bildquelle: Thinkstock/iStock, Xeelo

]]>
DV-Dialog Tools für das System i