IT-ZOOM https://www.it-zoom.de/ IT-ZOOM - das Portal der erfolgreichen Magazine IT-DIRECTOR, IT-MITTELSTAND, MOBILE BUSINESS und DV-Dialog. de ©2016 Alle Rechte bei MEDIENHAUS Verlag GmbH Sat, 21 Apr 2018 19:01:09 +0200 Sat, 21 Apr 2018 19:01:09 +0200 TYPO3 EXT:news news-19631 Sat, 21 Apr 2018 15:52:29 +0200 HR im Zeitalter der Digitalisierung http://www.it-zoom.de/dv-dialog/e/hr-im-zeitalter-der-digitalisierung-19631/ Der demografische Wandel stellt Unternehmer vor große Herausforderungen, wenn es darum geht, qualifizierte Mitarbeiter zu finden. Allein schon deswegen, weil die jungen Schul- und Hochschulabgänger als „Digital Natives“ das althergebrachte Prozedere nicht mehr goutieren – mit per Post eingereichten schriftlichen Bewerbungs­unterlagen und Feedback Wochen später in Form einer Einladung zum Bewerbungsgespräch oder einer freundlichen Absage. Das ist viel zu langatmig. Bedingt durch den sich weiter verschärfenden Fachkräftemangel bestimmen schon lange nicht mehr die Arbeitgeber mit ihrer Nachfrage das Geschehen im Arbeitsmarkt. Heute geben die Bewerber den Takt vor – und allein schon ein altmodisches Bewerberportal und das ausbleibende prompte Feedback auf Anfragen kann ein Unternehmen in den Augen eines potentiellen Bewerbers als attraktiven Arbeitgeber disqualifizieren. Erst recht, wenn es sich um einen relativ unbekannten Mittelständler und nicht um einen prominenten „Global Player“ oder eine große Behörde handelt.

Erschwerend kommt ein weiterer Wandel des Jobmarktes hinzu. „Der Arbeitsplatz auf Lebenszeit gehört der Vergangenheit an“, erklärt Lothar Steyns, Geschäftsführer der Summit IT Consult GmbH aus Eschweiler im Interview mit DV-Dialog. Deshalb sei es umso wichtiger, die vorhandenen Talente an das Unternehmen zu binden. Das könne nicht nur durch attraktive Karriere-Optionen geschehen, sondern auch durch flexible Arbeitszeitmodelle für eine ausgewogene Work-Life-Balance oder durch Weiterbildungs- bzw. Schulungsmaßnahmen.

Weil im Mittelstand oft die Ressourcen knapp sind, kommt es mehr denn je auf gute Software-Unterstützung im HR-Bereich an. Zumal sich in den letzten Jahren durch die zunehmende Digitalisierung der Geschäfts- und Arbeitswelt auch die Aufgaben, Verantwortlichkeiten und Rollen aller HR-­Verantwortlichen dramatisch verändern.

Bei der Bewältigung dieser Herausforderungen kann dem Mittelstand ein datengestütztes Personalmanagement helfen, wie auch die Fachmesse Zukunft Personal Süd vom 24. bis 25. April in Stuttgart verdeutlicht. Im Mai folgt dann die Zukunft Personal Nord in Hamburg; sie widmet sich dem Thema „Disruptive Leadership - Führung im digitalen Zeitalter“.

Die oft geführte Diskussion über die Vor- und Nachteile der analogen und der digitalen Welt ist wenig zielführend, glaubt Steyns. Stattdessen sollte beides zusammen gedacht und je nach Kontext angewendet werden, wie es am meisten Sinn macht – um sowohl die Digital Natives als auch konservativere Zielgruppen zu erreichen. Moderne HR-Software schafft die Voraussetzungen für diese Flexibilität – und hilft auch, das Unternehmen im Arbeitsmarkt gut zu positionieren.

Herr Steyns, einer der großen HR-Trends ist die Integration der IT-Unterstützung - vom Recruiting über das Talent-Management bis zum Entgelt. Worauf kommt es bei dieser Integration an?
Lothar Steyns: Zurzeit erleben wir eine rasante Veränderung in den Märkten. Die Digitalisierungsbewegung ist unaufhaltsam auf dem Vormarsch. Um für die neuen Anforderungen gewappnet zu sein, sind Fachkräfte erforderlich, die der Markt aber nicht in ausreichender Form bietet. Erschwerend hinzu kommen die demografische Entwicklung und das geänderte Werteverhalten der jungen Mitarbeiter.
Der einzige Weg aus diesem Dilemma ist die Implementierung einer leistungsstarken HR-Lösung, die das Unternehmen in die Lage versetzt, seine bereits vorhandenen Ressourcen optimal, d.h. wertschöpfend, einzusetzen. Allein der Wegfall von doppelter Datenpflege schafft schon viel des benötigten Freiraums.

Was ist dabei zu beachten?
Steyns
: Es gibt dabei sogar sehr viele Kriterien, die eine Rolle spielen. Ein technisches Merkmal, auf das unbedingt zu achten ist, ist zum Beispiel, dass es sich bei der Software um eine moderne Webanwendung mit prozess- bzw. rollen­basierten Lösungskonzepten handeln sollte. Diese helfen nicht nur enorm bei der täglichen Arbeit, sondern reduzieren durch vorgefertigte, leicht anpassbare Prozessvorlagen auch den Einführungsaufwand erheblich.
Weitere Kriterien, die es zu beachten gilt, sind in den gestiegenen Mobilitätsanforderungen begründet, ausgehend von der Zeitbuchung über die Reisekostenabwicklung bis hin zum Urlaubsantrag oder der Beantragung eines Seminars via Workflow. Dies sind nur einige Beispiele für Anforderungen, die in einer gesamtheitlichen Lösung keinesfalls fehlen dürfen.

Schon eine alte Management-Weisheit besagt: „Divide et impera“. Wo sind Sollbruchstellen bzw. Insellösungen im Personalwesen sinnvoll?
Steyns
: Jede Sollbruchstelle bedeutet im Normalfall einen hohen manuellen Pflegeaufwand und zusätzliche Wartungskosten. Dies muss nicht sein! Es gibt heute im deutschen Markt zwar wenige leistungsstarke Anbieter, die eine bezahlbare gesamtheitliche HR-Lösung anbieten, aber es gibt sie! Zu beachten ist ebenfalls, dass man nicht mit „Kanonen auf Spatzen“ schießt. Gute Lösungen liefern bereits im Basisumfang ein gutes Leistungsangebot, sind modular erweiterbar und in den Einführungskosten überschaubar.
Wir bieten unseren Kunden eine gesamtheitliche Lösung sowohl im Outsourcing – zurzeit bei uns in über 90 Prozent der Fälle gewünscht – als auch als Inhouse-Lösung mit „Schnellstartgarantie“ an. Als HR-Spezialanbieter wissen wir um den Zeitdruck und den erhöhten Servicebedarf der Personaler, z.B. in Abrechnungszeiten. Auf diese typischen Anforderungen haben wir unseren Hotline- und Wartungsservice von Beginn an ausgerichtet.

Heißt die Alternative alles oder gar nichts integrieren? Oder gibt es einen goldenen Mittelweg?
Steyns
: Die Integration aller in der Praxis benötigten Softwarelösungen wie Recruitment, Entgelt, HR-Manager und Zeitwirtschaft ist das Gebot der Stunde. Die noch vor Jahren favorisierte Integration in ein ERP-System bringt meistens nicht den gewünschten Erfolg. Zu speziell und zu zeitkritisch sind die Anforderungen der HR-Fachleute. Dies haben allein im letzten Jahr mehrere bekannte Großkunden zum Anlass genommen, die Herausnahme des HR-Bereichs aus der ERP-Software zu beschließen und zu uns als Spezialanbieter zu wechseln.
Moderne, webbasierte und flexibel anpassbare HR-Lösungen, die ohne großen Dienstleistungsaufwand eingerichtet, parametriert und später sogar kundenseitig selbst auf die geänderten Marktbedingungen angepasst werden können, helfen den Unternehmen schnell, kostengünstig und effizient zu arbeiten.

Inwieweit ist eine Integration von HR in andere kaufmännische Anwendungen notwendig - und wann wird eine solche Integration hinderlich?
Steyns
: Moderne Lösungen haben heute, wie auch unsere Lösung, fertige Schnittstellen zu fast jedem ERP-Anbieter. Wir liefern z.B. Finanzbuchhaltungs- und Kostenrechnungsdaten aus dem HR-Entgelt über Standardschnittstellen an viele bekannte ERP-Anbieter, egal ob SAP, Comarch, Oxaion, Navision, Microsoft Dynamics und viele andere. Dies ist heute aufgrund der modernen Technik kein Problem mehr – und definitiv kein Grund, nicht zu einer integrierten HR-Lösung zu wechseln.

Oft steckt der Teufel im Detail: Nehmen wir das Beispiel Organigramm. Worauf kommt es an, damit die Organigramme mit Leben gefüllt werden und die Unternehmenswirklichkeit widerspiegeln?
Steyns
: Am Beispiel eines Organigramms lassen sich sehr einfach die vielen Vorzüge einer integrierten Lösung erklären. Bereits im Entgelt ist jeder Mitarbeiter einer Kostenstelle zugeordnet. Auf Knopfdruck übernehmen wir diese Daten in den Organigramm-Bereich des HR-Managers. Dies bedeutet für den Kunden, dass er bereits hier ein fertiges Ergebnis tagesaktuell – sowohl als Orgtree als auch als Organigramm – zur Verfügung hat.
Natürlich reicht dies nicht aus. Im HR-Manager können wir unterschiedliche Organigrammstrukturen abbilden. Ein Beispiel hierfür ist neben der bereits aufgeführten Struktur die sogenannte disziplinarische Darstellung; damit wird z.B. deutlich, welcher Vorgesetzte für welche Mitarbeiter weisungsbefugt ist.
Natürlich bieten wir auch hier eine Simulationsfunktion an, um Alternativen bei einer Umstellung oder Umgruppierung einfach auszuprobieren. Mit wenigen Mausklicks werden dabei allgemeine Informationen zum Mitarbeiter, sein/ihr Foto, Headcounts oder auch Stelleninformationen angezeigt. Hierzu ist keine Programmierung erforderlich, da die gewünschten Felder via drag & drop aus dem Datenpool in den Anzeigebereich verschoben werden.

Welche Rolle spielen die Themen Zeiterfassung und Mobilität - und wie sollte man diese Themen zukunftsorientiert und wirtschaftlich bzw. effizient regeln?
Steyns
: Personalzeiterfassung bzw. Personaleinsatzplanung sind typischerweise Bestandteil einer integrierten HR-Lösung. Aber auch die ERP-Software benötigt aus ihr diverse Daten, wie „Kommt/Geht“-Zeiten oder verschiedene Fehlzeitstände, um diese, z.B. bei der Personaleinsatzplanung oder am Leitstand, zu nutzen.
Wir stellen die Mitarbeiter-Buchung, die z. B. aus einer Kommt/Geht-Buchung am Terminal kommt, auch in einer zusätzlichen „Output-Schnittstelle“ bereit, aus der sich der ERP-Anbieter seine erforderlichen Daten (genau wie bei einer „Mitarbeiter Buchung“ am Terminal) auslesen kann.
Der Benefit einer solchen Lösung liegt für die HR-Abteilung bzw. das gesamte Unternehmen in der Zeitersparnis und der Flexibilität. Beginnen wir mit der mobilen Zeiterfassung, z.B. für die Servicetechniker. Diese können online Zeiten buchen, über Workflows Urlaube und Dienstreisen beantragen oder auch ihre Urlaubs- bzw. Gleitzeitstunden auf Knopfdruck abfragen.
Nach dem Durchlaufen des Genehmigungs­prozesses, z.B. bei einem Urlaubsantrag, steht der genehmigte Urlaub sofort im Zeitwirtschaftskalender zur Verfügung. Der Vorgesetzte erhält also nicht nur den Urlaubsantrag sofort, sondern auch einen aktuellen, präzisen Überblick, sei es abteilungs-, kostenstellen- oder auch firmenbezogen. Er weiß also auch, welchen anderen Mitarbeitern er wann außerdem noch Urlaub genehmigen kann.

Wie und vor allem wo verändert die Digitalisierung heute das Personalwesen? Welche Entwicklung erwarten Sie?
Steyns
: Es gibt keinen HR-Bereich, der von der Digitalisierung nicht betroffen ist. Beginnen wir im Recruitment. Die gute alte Bewerbung hat längst ausgedient. Ebenso die Aufforderung auf der Homepage: „Schicken Sie Ihre Bewerbungsunterlagen an Herrn/Frau xy, Personalleiter der Firma xy“. Für viele junge, innovative Bewerber/innen wäre dies schon ein erster Anlass, sich hier gar nicht erst zu bewerben.
Ein moderner ansprechender Prozess, z.B. auf der Homepage, vermittelt von Anfang an den positiven Eindruck, dass es sich um ein modernes und innovatives Unternehmen handelt. Ausgereifte Download-Funktionen sind ebenso wichtig, wie z.B. eine sofortige Eingangs­bestätigung. Laut einer Forsa-Umfrage aus dem Frühjahr 2017 im Auftrag einer Jobbörse nervt 62 Prozent der Bewerber fehlendes Feedback, z.B. nach einem Bewerbungsgespräch. Diese Wünsche und Anforderungen sollten dank durchgängiger Prozesse von einer zeitgemäßen HR-Lösung bereits im Standard erfüllt werden.
 
Wie muss man sich einen solchen durchgängigen Prozess vom Bewerber zum Mitarbeiter vorstellen?
Steyns
: Diese Frage bekomme ich sehr oft gestellt – und ich versuche den Prozess aufzuzeigen. Der Prozess beginnt nicht erst bei der Bewerbung, sondern schon sehr viel früher. Die Führungskraft kennt ihren Bereich und den benötigten Personalbedarf. Sie plant diesen frühzeitig mit dem HR-Verantwortlichen und trägt den Bedarf in das Organigramm ein. Beispielsweise liegen dann bereits vor einer Neubesetzung die benötigten Skills für die Stelle vor.
Aus der vakanten Stelle wird eine Stellenanforderung mit voraussichtlicher Kostenschätzung generiert. Diese wird dem Fachentscheider bzw. Vorgesetztem (natürlich via elektronischem Prozess) zur Genehmigung vorgelegt.
Nach Freigabe wird diese Stelle nach Art, Umfang und „Aussehen“ konzipiert. Dies geschieht bei unserer HR-Lösung durch den Personaler selbst, da bereits im Vorfeld „CI“ und „Optik“ der Stellenanzeige mit der Marketingabteilung abgestimmt worden ist.
Der „Link“ (und nicht das Dokument mit der 1:1-Darstellung der Stellenausschreibung) geht dann nochmals (falls gewünscht) an den Vorgesetzten zur Freigabe. Danach wird die Stellen­ausschreibung mit wenigen Mausklicks publiziert, sei es auf der eigenen Homepage, vorab im Intranet oder bei diversen Plattformen wie Linkedin, Xing & Co. Nach dem Eingang ihrer Bewerbungen erhalten die Bewerberinnen und Bewerber natürlich sofort elektronisch eine Empfangsbestätigung. Die vom Bewerber mitgeteilten Daten können direkt ausgewertet werden. Im nächsten Schritt werden sie vom Personaler, zwecks weiterer Prüfung, an den zuständigen Vorgesetzten weitergeleitet.

Und dann?
Steyns
: Der Personaler hat auf seinem „Dashboard“ einen aktuellen Überblick über die Anzahl an Bewerbungen, über deren Status und über noch ausstehende Rückantworten. Individuell parametrierbare Prozesse in der Software regeln von der Einladung bzw. Absage über die Einladung zum persönlichen Gespräch und Termin­findung bis hin zur Vertragsgestaltung alle erforderlichen Arbeiten.
Im Falle der Einstellung erfolgt die automatische Übergabe an den HR-Manager, der z.B. den Onboarding-Prozess abwickelt. Ebenso erfolgt die Übergabe der ­Mitarbeiter-Stammdaten an HR-Entgelt für die Abrechnungsvorbereitung sowie an HR-Zeit zur Eingliederung des neuen Mit­arbeiters in den Arbeitsplan.
Alle Bewerber- und ­Mitarbeiter-Unterlagen werden dann auf Wunsch automatisch in die digitale Personalakte abgelegt. Der Vorgesetzte bucht, falls nicht schon beim Onboarding-Prozess geschehen, für den neuen Mitarbeiter, seiner Stelle entsprechend, die erforderlichen Einführungs- bzw. Sicherheitsseminare. Und der Personaler nimmt ihn außerdem in die Standardprozesse auf, wie z.B. die jährlichen Mitarbeitergespräche.

Manche Experten reden auch vom Mitarbeiter 4.0 oder vom eMitarbeiter, den die Unternehmen in Zukunft brauchen. Welche Qualifizierungsmaßnahmen empfehlen Sie, damit die Mitarbeiter dem neuen Anspruch gerecht werden können?
Steyns
: Die Arbeitslandschaft hat sich in den letzten Jahren sehr stark verändert. Internationalisierung, erhöhter Wettbewerb und permanente Veränderung im Arbeitsalltag – all dies verlangt von den Unternehmen und ihren Mitarbeitern ein umfassendes Umdenken.
Der Arbeitsplatz auf Lebenszeit, wie früher sehr häufig vorzufinden, gehört der Vergangenheit an. Flexibilität, lebenslange Lernbereitschaft und die erhöhten Leistungsforderungen auf der einen Seite, das Werteempfinden der Mitarbeiter auf der anderen Seite: All diese Punkte gilt es in Einklang zu bringen.
In der Praxis bedeutet dies, den Mitarbeitern durch ein umfangreiches Veranstaltungs- bzw. Seminarangebot bei ihrer Qualifizierung und Weiterbildung zu helfen. Wird dies kombiniert mit einer flexiblen Arbeitszeitregelung und einem attraktiven Arbeitsplatz, kann auch ein Mittelständler durchaus seine Talente im Unternehmen halten und seinen Ruf als attraktiver Arbeitgeber festigen.
Der Mitarbeiter als „Langzeitarbeitskraft“ gehört aber leider der Vergangenheit an. Nur wenn die Unternehmen es schaffen, dass sich die Mitarbeiter in ihrem Unternehmen wohlfühlen, werden sie auf Dauer bleiben und die geforderte Arbeitsleistung bringen.

Was können die Anbieter von HR-Lösungen und HR-Services tun, um ihre Kunden auf diese Reise mitzunehmen?
Steyns
: Die Entwicklungen im Arbeitsmarkt und die damit verbundenen Auswirkungen in den Unternehmen sind ja alles andere als neu. Innovative Unternehmen haben dies schon vor Jahren erkannt und krempeln ihre HR-Struktur und -Landschaft komplett um. Über allem steht die Frage: Was ist ein wertschöpfender Prozess für das Unternehmen? Und was kann z.B. ausgelagert werden?
Dieses Prozedere ist alles andere als neu, wird es doch in innovativen Betrieben seit Jahren umgesetzt. Auch wenn dies massives Umdenken der HR-Verantwortlichen erfordert, kompetente Anbieter sind nicht unvorbereitet. Sie hatten genügend Zeit, praktische Lösungen zu kreieren, selbst für firmensspezifische Anforderungen.
Eine klar erkennbare Entwicklung ist die Ab­lösung von Inhouse-Software durch Outsourcing-Lösungen. Zu beachten sind hier wichtige Sicherheitskriterien, wie z.B. der Standort des Rechenzentrums, der selbstverständlich innerhalb Deutschlands liegen sollte. Favorisieren sollten HR-Leiter einen Anbieter mit einem eigenen RZ, da meist nur solche Anbieter die notwendige Flexibilität bieten können.
Eine Komplettlösung umfasst Recruitment, HR-Management, Entgelt und Zeitwirtschaft sowie Reisekostenabrechnung, wobei hier die jeweils genutzte Servicetiefe im Outsourcing ASP / BSP / FSP – also Application-, Business- oder Full-Service-Providing – durchaus unterschiedlich sein kann. Wertschöpfende Tätigkeiten wie Personalmanagement oder Re­cruiting werden dann von den Personalabteilungen sehr häufig in Eigenregie durchgeführt. Der Entgeltbereich dagegen wird immer häufiger ausgelagert, da er keinen direkten wertschöpfenden Charakter hat, aber auch, weil es immer schwieriger wird, gute Entgeltabrechner zu finden.
Die Frage der Finanzierung neuer HR-Lösungen beschäftigt nicht nur die HR-Leiter, sondern auch die Firmenchefs. Hier kann ich eine klare Abkehr vom Kauf einer Software, hin zur flexiblen Miete, feststellen. Zirka 90 Prozent all unserer Neukunden nutzen heute die „ASP-Variante“; d.h. sie bezahlen eine monatliche ASP-Gebühr für die Nutzung der Software, das Hosting, die Durchführung von Wartungs- bzw. Release-Arbeiten sowie für die Hotline. Dahinter stehen bei uns praxiserfahrene Abrechner, die ohne Call-Center Vorschaltung direkt telefonisch, per Ticketsystem oder per Mail erreichbar sind. Das ist ein Service, den unsere Kunden in der immer anonymer werdenden Welt sehr zu schätzen wissen.

Worauf kommt es in erster Linie an, wenn man die digitale Transformation im Personalwesen meistern will?
Steyns
: Es gibt für jedes Unternehmen den „HR-Maßanzug“. Das heißt für die Verantwortlichen: Suchen Sie sich einen Partner, der über praktische Erfahrung in Ihrer Branche verfügt. Beachten Sie, dass große Namen nicht unbedingt gleichzusetzen sind mit großer Leistung. Besuchen Sie Unternehmen, die mit diesem Anbieter den Weg bereits erfolgreich gegangen sind.
Der HR-Bereich wird in Zukunft als Zünglein an der Waage entscheidend sein für den Erfolg und die Marktpositionierung des Unternehmens im immer härteren Wettbewerb. Ich wünsche allen IT- und HR-Chefs ein glückliches Händchen bei der Auswahl, denn es ist Zeit zu handeln!

Herr Steyns, vielen Dank für das Interview!

]]>
Berthold Wesseler DV-Dialog HR Personal
news-19630 Sat, 21 Apr 2018 15:21:50 +0200 Neuer CEO für Tech Data http://www.it-zoom.de/dv-dialog/e/neuer-ceo-fuer-tech-data-19630/ Gut ein Jahr nach dem erfolgreichen Abschluss der Übernahme des Rivalen Avnet Technology Solutions kündigte Robert Dutkowsky seinen Rücktritt als CEO des IT-Großhändlers Tech Data an. Am 6. Juni soll COO Richard Hume den langjährigen CEO an der Firmenspitze ablösen. Dutkowsky, seit 2. Oktober 2006 CEO und seit dem 7. Juni 2017 außerdem auch noch Chairman bei Tech Data, steigerte in seiner fast zwölfjährigen Amtszeit den Umsatz – auch durch etliche Übernahmen – von 21 auf 36 Mrd. Dollar. In seiner neuen Rolle als „Executive Chairman“ kann er ab Juni weiterhin aktiv ins Tagesgeschäft eingreifen, ähnlich wie beispielsweise sein Amtskollege Larry Ellison bei Oracle. Offiziell heißt es in der Presseinformation, er werde seinem Nachfolger Hume als „strategischer Berater“ zur Seite stehen.

Rich Hume stieß im Mai 2016, kurz vor Bekanntwerden der geplanten Übernahme von Avnet TS, nach über 30 Jahren IBM als COO zu Tech Data. Auf der Chefetage der IBM leitete er als „General Manager“ zuletzt das Outsourcing-Geschäft mit den „Global Technology Services“, davor von Januar 2012 bis Januar 2015 das Europa-Geschäft und seit Mai 2008 die Partner-Organisation. Davor hatte Hume diverse Führungspositionen im PC-Geschäft der IBM inne.

Auch Dutkowsky blickt auf 20 Jahre Führungserfahrung bei IBM zurück, war danach aber auch im Topmanagement von EMC und CEO des in der AS/400-Welt verwurzelten ERP-Hauses J.D. Edwards (heute Oracle). Zur künftigen Zusammenarbeit mit Dutkowsky sagte Hume: „Bob has provided tremendous leadership during his tenure as CEO and has been an incredible mentor and friend since I joined Tech Data. I look forward to continuing to work closely with Bob in his role as executive chairman and know I will continue to benefit greatly from his deep knowledge of the company and the industry.”

Bildquelle: Tech Data

]]>
Berthold Wesseler DV-Dialog Leute
news-19627 Sat, 21 Apr 2018 11:40:00 +0200 Wann lohnt die Auslagerung in die Cloud? http://www.it-zoom.de/it-mittelstand/e/wann-lohnt-die-auslagerung-in-die-cloud-19627/ Wie lässt sich das Daten-Backup sicher und datenschutzkonform organisieren? Was bringt die Auslagerung des Backups in die Cloud? Inwieweit können Managed-Service-Provider dabei garantieren, dass die Daten auf deutschem Boden vorgehalten werden? Antworten auf diese und andere Fragen gibt Udo Böhm, Leiter Business Development bei der SHD System-Haus-Dresden GmbH. ITM: Herr Böhm, wie können mittelständische Kunden ihr Backup bestmöglich organisieren?
Udo Böhm:
Gemäß der gängigen Backup-Faustregel „3-2-1“ sollten mindestens drei Kopien der Datensicherung vorgehalten werden. Diese wiederum sollten auf mindestens zwei verschiedenen Datenträgern lagern. Dies bedeutet, dass außer auf der Festplatte des Sicherungssystems die Daten auch auf externen Festplatten, Tapes oder optischen Speichermedien liegen sollten. Mindestens eine dieser Kopien sollte man darüber hinaus außerhalb des Firmengebäudes lagern.

Eine Alternative zu physischen Speichermedien stellt dabei das Cloud-Backup dar, wobei auf Basis der 3-2-1-Regel vielfältige Sicherungsszenarien möglich sind. Dabei lässt sich grundsätzlich zwischen „Self-Service-Backup“ und „Managed Backup“ unterscheiden: Beim cloud-basierten Self-Service-Backup verwalten die Kunden ihre „Backup to Disk“-Umgebung weiterhin selbst und ersetzen etwa ihre Tape-Lösungen durch Cloud-Services. Dabei können sie auf Public-Cloud-Speicher beispielsweise von Amazon Web Services setzen oder ihre Daten in die Private Cloud eines Managed-Service-Providers übergeben.

ITM: Welche Aufgaben übernehmen Managed-Service-Provider in der Regel?
Böhm:
Sie können nicht nur verschiedene Backup-Szenarien realisieren, sondern auch die Übernahme des Backups und die Verantwortung für die Wiederherstellung der Daten gemäß definierter Service Level Agreements (SLAs) realisieren. Externe Dienstleister liefern fachliche Beratung und weitergehende Infrastrukturservices. Nicht zuletzt bieten sie ein kontinuierliches Monitoring der Backup-Ströme und regelmäßige Reporting-Berichte.

ITM: Wie sollte man den Umstieg auf ein Cloud-Backup am besten angehen?
Böhm:
Im Rahmen unserer Projekte starten wir stets mit einer umfangreichen Beratung, in deren Rahmen wir den Ist-Zustand bewerten. Gemeinsam mit den Kunden klären wir dabei u.a. folgende Fragen:
› Inwieweit ist das aktuelle Backup- und Restore-Konzept dokumentiert?
› Was kosten die bisherige Backup-Lösung und ihr Betrieb inklusive der Weiterbildung der Mitarbeiter sowie einer ausreichenden Personaldecke für den Krankheits- oder Urlaubsfall?
› Wie schnell können Daten wiederhergestellt werden? Welche Service-Level gelten an dieser Stelle?
› Wie sicher ist man, dass die Wiederherstellung von Daten technisch funktioniert und die Recovery Time Objective (RTO) genügt? Wurden in der Vergangenheit regelmäßige Restore-Tests durchgeführt?
› Inwieweit deckt das Backup-/Restore-Konzept auch die IT-Notfallplanung des Unternehmens ab?


Im nächsten Schritt definieren wir gemeinsam mit den Kunden die Anforderungen an ihre Backup-Lösung. Wir klären, ob man nur Backup-Services nutzen oder überdies auch eine Notfallplanung einbeziehen sollte.

ITM: Was passiert beim Umstieg in die Cloud mit den bislang auf traditionellen Backup-Medien wie Disk oder Tape gespeicherten Daten?
Böhm:
Es gibt Unternehmen, die die Verwaltung ihrer Firmendaten komplett ausgelagert haben. Das bedeutet, dass keine historischen Daten auf den Server-Systemen im Unternehmen vorliegen. Lokales Backup to Disk ist heute quasi ein Standard für die schnelle Wiederherstellung von Daten. Nur wenn der Speicher nicht groß genug ist, werden zumeist die Monats- und Jahres-Backups auf Tapes ausgelagert. Möchte man auf diese auch zukünftig zugreifen und in eine Cloud spielen, ist zunächst ein Import der Daten zurück ins Unternehmen notwendig. Dafür müssen dort entsprechende Speichersysteme vorhanden sein, die die bislang eingesetzten Backup-Technologien unterstützen können.

ITM: Wer ist in mittelständischen Unternehmen für das Backup zuständig?
Böhm:
Zumeist betrifft dies die Systemadministratoren, wobei Backup-Prozesse meist automatisiert im Hintergrund ablaufen. Allerdings müssen die Admins kontinuierlich überprüfen, ob die Backups tatsächlich auch fehlerfrei abgelaufen sind.

ITM: Wie lassen sich Backup-Daten vor aktuellen Bedrohungen wie Ransomware schützen?
Böhm:
Die Verantwortlichen sollten bereits auf Client-Seite alles dafür tun, dass sich Ransomware erst gar nicht im Unternehmen ausbreitet. Somit kann sich Ransomware auch nicht unter die Backup-Daten schummeln. Sollten dennoch Backup-Daten aufgrund einer Infizierung mit Ransomware verschlüsselt werden, ist nach der Beseitigung der Ursache eine Wiederherstellung der betroffenen Daten oft die bessere Alternative als die Zahlung von Lösegeldern.

ITM: Welche Rolle spielen Backup-Konzepte im Rahmen der ab Mai 2018 gültigen EU-Datenschutz-Grundverordnung (EU-DSGVO)?
Böhm:
Prinzipiell spielt das Daten-Backup im Rahmen der EU-DSGVO eine eher untergeordnete Rolle. Wichtig ist jedoch, dass die Daten verschlüsselt an den Provider oder in die Cloud übertragen und dort auch verschlüsselt vorgehalten werden. Für Anwenderfirmen ist es sehr wichtig, ein Konzept für die Umsetzung der EU-DSGVO zu haben. Denn generell sind alle im Unternehmen vorhandenen personenbezogenen Daten davon betroffen. Das Problem dabei: Die Verwaltung personenbezogener Daten gestaltet sich recht komplex. In diesem Zusammenhang sollten vorgegebene Richtlinien verhindern, dass Daten kopiert oder missbraucht werden können.

Ab neun Mitarbeitern, die mit personenbezogenen Daten arbeiten, müssen die Unternehmen zudem einen Datenschutzverantwortlichen bestellen. Dabei können sie sich ihren Datenschutzverantwortlichen auch von externen IT-Dienstleistern „ausleihen“.

ITM: SHD selbst bietet verschiedene Infrastruktur-Services an, darunter auch sogenannte Cloud-Storage-Target-Lösungen. Was steckt dahinter?
Böhm:
Im Allgemeinen versteht man unter „Cloud Storage“ skalierbare und im Internet vorgehaltene Speicherinfrastrukturen. Diese sind via Self-Service-Portal erreichbar und in verschiedenen Preisklassen erhältlich. Klassischer Cloud-Objekt-Storage wird über besondere Schnittstellen von vielen Archiv- und Backup-Anbietern bereits im Standard bedient.

Wir bieten neben Objektspeicher auch individuelle Storage-Umgebungen in unserer privaten SHD-Cloud an. Hier können die Kunden eigene virtuelle Maschinen betreiben oder auch Archivspeicher beziehen. Dabei setzen unseren Lösungen u.a. auf Objektspeicher vom Hersteller Cloudian inklusive der Anbindung an die Amazon-S3-Schnittstelle oder auch auf Enterprise-professionelle Storage-Lösungen der Firma Netapp auf.

ITM: Im Mittelstand herrschen mitunter noch immer Vorbehalte gegenüber Cloud-Lösungen. Wie wollen Sie Skeptiker von Ihren Cloud-Lösungen überzeugen?
Böhm:
Mittelständische Unternehmen bevorzugen Partner auf Augenhöhe, die sich als „Dienstleister“ der Kunden verstehen. Sprich: Diese müssen erreichbar sein und auch dann weiterhelfen, wenn etwas nicht explizit im Vertrag festgeschrieben wurde.

Funktionieren Backup-Prozesse bei weltweiten Public-Cloud-Anbietern nicht, müssen die Nutzer meist auf Englisch mit Mitarbeitern in Callcentern telefonieren. Wir hingegen sind zwar als lokaler Service-Provider zunächst hochpreisiger unterwegs als die Public-Cloud-Anbieter, bieten unseren Kunden jedoch direkten Support mit bekannten Mitarbeitern. Generell gestaltet sich der Bezug von IT-Services im Mittelstand stets als Vertrauensthema – und dafür zahlen die Kunden gerne etwas mehr.

Bildquelle: SHD/Thinkstock/iStock

]]>
Ina Schlücker Rechenzentrum / Server IT-Mittelstand Startseite it-zoom
news-19605 Sat, 21 Apr 2018 10:03:00 +0200 IT-Systemhäuser bieten ganzheitliche Beratung http://www.it-zoom.de/it-mittelstand/e/it-systemhaeuser-bieten-ganzheitliche-beratung-19605/ Die Rolle der Systemhäuser hat sich in den vergangenen Jahren stark gewandelt. Ging es in den Anfangszeiten meist um den Verkauf von Hardware sowie den Aufbau und den Betrieb von IT-Infrastrukturen, rückt heute immer mehr die Prozessberatung in den Vordergrund. Verschwimmen damit auch die Grenzen zu den generalistischen Consulting-Fabriken à la Accenture, Boston oder McKinsey? – Für den Mittelstand kaum denkbar. „Systemhäuser haben sich von bloßen Hardware- und Software-Lieferanten zu ganzheitlichen Beratern entwickelt, die als Partner IT-Gesamtlösungen implementieren“, konstatiert Axel Feldhoff, Bereichsvorstand West bei Bechtle. Insgesamt hätten sowohl Service-Orientierung als auch Consulting-Kompetenz deutlich an Bedeutung gewonnen. Als Beispiel für diese Entwicklung führt er die sogenannten „IT-Business-Architekten“ an, die die Kunden seines Hauses dabei unterstützen sollen, Geschäftsanforderungen in technologische Konzepte zu übersetzen.

Technologische Kompetenz und das Wissen um die Umsetzbarkeit strategischer Denkansätze ist folglich weiterhin mehr als gefragt. „Themen, die die digitale Transformation mit sich bringt und die über Plattformen abgebildet werden, wie etwa Machine Learning oder IoT-Szenarien, werden nicht schlüsselfertig ausgeliefert, sondern müssen gemeinsam mit den Kunden entwickelt werden“, betont denn auch Christian Hopfner, der bei All for One Steeb das Business Development verantwortet. Es reiche nicht, nur die Prozesse zu verstehen, vielmehr müsse man die Anwender auch technologisch mit Blick auf ihre komplexen Systemlandschaften beraten. Dafür braucht es Know-how dahingehend, welche Prozesse in welchen Systemen abgebildet werden und wie sie miteinander interagieren.

Die großen Unternehmensberatungen mögen konzeptionell stark sein, implementieren jedoch nie oder nur selten im Detail. Provokant könnte man sagen, dass sich die (vermeintlichen) Prozessverbesserer just aus dem Staub machen, wenn es um die konkrete Realisierung ihrer Thesenpamphlete geht. Vielleicht wissen sie nur zu gut, dass vieles, was auf dem Papier gut aussieht, für die Praxis nicht taugt. Nicht zuletzt bleiben sie durch ihren vorzeitigen Abgang auch vom Unmut der Fachabteilungen bei Nichtgelingen verschont.

Deutlicher Unterschied zu klassischen Unternehmensberatungen

Diesem Unmut wollen sich die IT-Systemhäuser naturgemäß gar nicht erst aussetzen. Man kann es durchaus als Spitze werten, wenn der CEO der Arvato Group, Matthias Moeller, feststellt, sich von den klassischen Unternehmensberatungen sehr deutlich zu unterscheiden. „Wir verstehen uns als operativen Business-Partner, der tragfähige Konzepte entwickelt, die er später selbst umsetzt, wenn es der Kunde wünscht. Das heißt: Die Umsetzbarkeit von Konzepten steht für uns immer an erster Stelle. Dementsprechend orientiert sich eine von uns entwickelte IT-Strategie stets an bewährten Best Practices und tragfähigen Innovationen.“ Dazu ist zum einen Erfahrung und Branchenkenntnis vonnöten, zum anderen das Bekenntnis zu langfristiger Zusammenarbeit.

Vielleicht verstehen die großen Consulting-Häuser aber auch gerade, dass die von ihnen praktizierte Zweiteilung der Arbeitslast – Beratung immer gerne, Umsetzung nicht so gerne – im Mittelstand nicht zielführend sein kann. So glaubt etwa An-dreas Pauls vom SAP-Systemhaus itelligence, einen Wandel in der Ausrichtung der Strategieberatungshäuser ausmachen zu können. Einige von ihnen erwögen wohl, so Pauls, ihre Engagements um Realisierungs- und Implementierungskomponenten erweitern zu wollen, Komponenten, die die IT-Systemhäuser aufgrund ihrer Erfahrung nur zu gut kennen.

Weitgehende Einigkeit herrscht bei den Vertretern der IT-Systemhäuser also dahingehend, dass Strategievorschläge besser von denen umgesetzt werden sollten, die sie in den Raum gestellt haben. Doch sei umgekehrt die Frage erlaubt, ob die IT-Berater denn den strategischen Bereich in seiner Gesamtheit abdecken können. Eher nicht, denn sonst verfolgten sie ja ebenfalls einen generalistischen Ansatz, den sie bei den großen Unternehmensberatungen zu Recht kritisieren.

Je kleiner ein Systemhaus, desto wichtiger wird seine Spezialisierung. Axel Feldhoff spricht in diesem Zusammenhang von „Skill-Boutiquen“, die je nach Nische auch eine gewisse Größe erlangen können. Doch letztlich könnten nur große Häuser wie Bechtle versuchen, das gesamte Spektrum anzubieten. Die Spezialisierung müsse dann intern erfolgen. Ähnlich argumentiert Sebastian Paul, Business Developer bei MTI Technology: „Größere Häuser können spezialisierte Teams aufstellen und somit den Kunden sehr umfassend betreuen. Kleinere Dienstleister sind hingegen eher gezwungen, sich auf einige Themen zu spezialisieren.“ Beides habe Zukunft, solange sich das jeweilige Systemhaus kontinuierlich mit neuen Trends und den Marktanforderungen beschäftige. Das Credo: Die Systemhäuser müssten ihre Kernthemen klar herausarbeiten und in den Kontext der neuen Technologien bringen.

Spezialisierung erforderlich

Dabei gibt es prinzipiell zwei Möglichkeiten: Einige Systemhäuser konzentrieren sich auf bestimmte Technologiefelder, andere auf ausgewählte Branchen. Das Ziel beider Ansätze sollte es natürlich sein, den Anwendern „branchenspezifische Lösungen und Services zu liefern, die einerseits auf marktführenden Technologien basieren und andererseits individuelle Geschäftsmodelle unterstützen“, wie Matthias Moeller es formuliert.

Trotz dieser Spezialisierung und Konzentration auf entweder Themen oder Branchen bevorzugen viele Anwender nach wie vor eine Generalunternehmerschaft der Systemhäuser, um die Aktivitäten in einer Hand zu bündeln. „Diese Vertragsform ist weiterhin eine von den Anwendern präferierte Variante“, bestätigt itelligence-Experte Andreas Pauls. Für Axel Feldhoff bildet die Generalunternehmerschaft die „Vertrauensklammer“ für die Kunden. Ob Bechtle dann allerdings alle Leistungen selbst erbringt oder in Teilen an spezialisierte Partner vergibt, hängt vom Einzelfall ab. „Der Wunsch an große IT-Systemhäuser, als Generalunternehmer zu agieren, wird sogar noch an Bedeutung gewinnen“, glaubt Feldhoff, fügt jedoch einschränkend hinzu, dass jede Anfrage individuell auf ihre betriebswirtschaftliche Sinnhaftigkeit für sein Unternehmen abgeklopft werden müsse.

Ein Generalunternehmer hat laut Christian Hopfner von All for One Steeb noch nie alles selbst geleistet, sondern suchte sich schon immer Partner, deren Kernkompetenzen die Themen abdecken, die das Systemhaus selbst nicht abdecken kann oder will. Dieser Aspekt werde künftig immer wichtiger. Im Grundsatz ähnlich sieht es Sebastian Paul. Alle Aspekte als Generalunternehmer abzudecken, hält der MTI-Vertreter für nicht mehr möglich. Vielmehr komme es auf ein agiles Netzwerk von Partnern an, die in ihren Gebieten hochspezialisiert sind und sich tief in der jeweiligen Materie auskennen. Die Kunden stünden dem sehr aufgeschlossen gegenüber.

Feste Ansprechpartner oder wechselnde Projektteams?

Dennoch werden es die meisten Anwender bevorzugen, einen Ansprechpartner zu haben, der alle Aktivitäten koordiniert. „Ein gut aufgestelltes Systemhaus kann in Zusammenarbeit mit Partnern  eine Generalunternehmerschaft auch heute noch abbilden“, bekräftigt Matthias Moeller. Als IT-Dienstleister begrüße man es bei Arvato andersherum, wenn sich Unternehmen dazu entscheiden, ihre komplette IT aus einer Hand managen zu lassen.

Insbesondere wenn es darum gehe, verschiedene Infrastrukturen, Clouds und Applikationen zu verwalten, zu pflegen und zu aktualisieren, empfiehlt sich die Zusammenarbeit mit einem (großen) Systemhaus. „Ebenso machbar sind aber auch Modelle, in denen Unternehmen mit verschiedenen Partnern zusammenarbeiten. Auch dass sie ihre IT zum Teil selbst managen, kann für gewisse Unternehmen funktionieren“, schließt Moeller.

Spezialisierung und Erfahrung sind jedoch nicht nur Auswahlkriterien bei der Wahl des Systemhauses und seiner Partner, sondern spielen auch in die Zusammenstellung der betreuenden Projektteams hinein. Immer feste Ansprechpartner oder je nach Aufgabengebiet wechselnde Experten? – So lautet die generelle Frage. Bei MTI setzt man durchgängig auf feste Ansprechpartner, weil dadurch eine langfristige Bindung und entsprechendes Vertrauen aufgebaut werden können. Gleichzeitig werde sichergestellt, dass bei einem Ausfall des festen Ansprechpartners immer fester Ersatz bereitsteht.

Demgegenüber deckt All for One Steeb beide Szenarien ab, je nach Kundenanforderung und benötigtem Know-how. Und auch bei Bechtle argumentiert man so: Sei ein Kunde zufrieden mit einem Projekt, wolle er im Normalfall auch das nächste Projekt mit denselben Leuten bestreiten. Solange es die Zeit zulasse und das Projekt in den Kompetenzbereich des jeweiligen Mitarbeiters falle, spricht laut Axel Feldhoff auch nichts dagegen.

In Projekten, die tiefgreifendes fachliches Know-how erfordern, stellt Arvato seinen Kunden einen spezialisierten Ansprechpartner bereit, der sie über die komplette Projektdauer hinweg betreut. „Daneben kann es aber sinnvoll sein“, so Matthias Moeller, „für spezielle Aufgaben, z. B. im Rahmen eines agilen Vorgehens, weitere Mitarbeiter mit ergänzenden Fähigkeiten ins Boot zu holen“, die aus dieser Position heraus kreative Ansätze entwickelten. Je nachdem, was Kunden bevorzugen, erhalten sie feste Ansprechpartner, die für die nötige Stabilität sorgen, oder personell veränderliche Teams mit Experten für die jeweiligen Aufgaben. Selbstverständlich seien wiederum auch Mischformen möglich.

IT-Systemhäuser müssen heute eine breite Spanne an IT-, Technologie-, Strategie- und Beratungswissen mitbringen. Denn viele Mittelständler sind heutzutage einfach auf externes, zusätzliches Know-how angewiesen, wenn sie ihre angestammten und vielleicht auch neue Geschäftsfelder erfolgreich betreiben wollen. Natürlich kommt es immer auf die Mit- und Vorarbeit in den Anwenderunternehmen an. Für Firmenverantwortliche, die sich lediglich berieseln lassen oder einige generelle Denkanstöße aus solch einer Beratung ziehen wollen, mögen die großen Generalisten opportun erscheinen. Für alle anderen empfehlen sich die IT-Systemhäuser: Weil sie ihre Strategie- und Technologieempfehlungen umsetzen müssen und es nicht bei schicken Powerpoints belassen können.

Bildquelle:Thinkstock/iStock/MTI Technology/Bechtle

]]>
Guido Piech IT-Mittelstand Startseite it-zoom Organisation
news-19628 Fri, 20 Apr 2018 14:47:00 +0200 Lufthansa setzt auf Visual Analytics http://www.it-zoom.de/it-director/e/lufthansa-setzt-auf-visual-analytics-19628/ Sponsored Post: Mit Tableau Software spart Lufthansa 30% Datenaufbereitungszeit, gewinnt Autonomie in Fachbereichen und etabliert eine faktenbasierte Entscheidungskultur. Obwohl Lufthansa schon seit langer Zeit ein sehr analytisches und datengetriebenes Unternehmen ist, gab es im Jahr 2016 kein einheitliches Konzernreporting. Heiko Merten, Head of BI Applications in Sales bei Lufthansa, erinnert sich: „Jede Abteilung hatte ihr eigenes Reporting und es gab keine einheitlichen Standards. Die Entwicklung jeder neuen Analyse musste formal in der IT-Abteilung beantragt werden und ließ häufig lange auf sich warten, weil dort wegen der hohen Arbeitsbelastung ein ständig wachsender Rückstau entstanden war.“ Außerdem war der individuelle Aufwand bei der Datenaufbereitung sehr hoch, sodass vergleichsweise wenig Zeit für die wirkliche Informationsanalyse blieb: „Das ursprüngliche Verhältnis zwischen Datenaufbereitung und Analyse/Interpretation der Ergebnisse betrug etwa 80:20“, erklärt Heiko Merten.

Konzernübergreifende Reportinglösung

Auf Betreiben der Vertriebsabteilung begann Lufthansa mit der Suche nach einer neuen, konzernübergreifenden Reportinglösung. Der Zeitpunkt war günstig, weil damals auch die Swiss und Austrian Airlines mit der Lufthansa-Dachmarke unter einheitlichen Berichtstandards zu verknüpfen waren. Die neue Lösung sollte die Fachabteilungen unabhängiger von der IT-Abteilung machen und ein weit gehendes Self-Service Reporting ermöglichen. Fabian Schmick, Senior Manager Corporate Strategy bei Lufthansa, erläutert: „Unser Hauptaugenmerk bei der Auswahl der Lösung lag auf dem Benutzerkomfort.“ Außerdem sollten die typischen Datenquellen des Unternehmens problemlos anschließbar sein. „Lufthansa befindet sich in einer komfortablen Position, weil wir über viele nützliche Datenquellen in unterschiedlichen Technologie-Infrastrukturen verfügen“, erklärt Fabian Schmick. „Wir haben Teradata, wir haben SAS, wir haben Oracle-Datenbanken, die wir auswerten, aber auch einfache Excel-Tabellen und manchmal – von Zeit zu Zeit – nehmen wir auch externe Informationen hinzu wie zum Beispiel aus den sozialen Medien oder von Flightradar24.“

Analysen mit Tableau

Reporting war bei Lufthansa früher überwiegend papierbasiert. Berichte wurden im PDF-Format verteilt und konsumiert. Sobald sich aus einer Analyse neue Fragestellungen ergaben, war es erforderlich, einen neuen Report zu entwickeln. Das kostete viel Zeit und bedeutete wegen der damit üblicherweise verbundenen neuen Datenaufbereitung einen hohen Aufwand. „Mit Tableau ist es viel einfacher, verschiedene Datenquellen zu konsolidieren – schnell und interaktiv“, erklärt Christian Novosel, Head of Strategic BI Initiative bei Lufthansa. „Wir können datenbasierte Entscheidungen jetzt auch live in einem Meeting treffen. Die Akzeptanz geht bis hinauf in die Vorstandsebene zu unserem CFO, der unsere Initiative unterstützt.“ Auch die Zeitersparnis ist enorm. „Durch die Nutzung von Tableau konnten wir die Prozesse erheblich beschleunigen“, erklärt Christian Novosel. „Damit automatisieren und standardisieren wir einen Großteil des Standardreportings. Ich würde sagen, wir haben jetzt etwa 30 % mehr Zeit, um tiefer zu graben und spezifischere Analysen zu erstellen. So hilft uns Tableau dabei, die exponentiell anwachsenden Datenmengen auszuwerten und mit den Veränderungen in unserer Branche Schritt zu halten.“ Und Heiko Merten ergänzt: „Vom früheren 80:20-Aufwandsverhältnis zwischen Datenaufbereitung und Datenanalyse haben wir inzwischen eine 60:40-Relation erreicht. Wir sind auf einem guten Weg. Aber mein Ziel ist es definitiv, eines Tages das Ursprungsverhältnis komplett umzudrehen.“ Hinzu kommt, dass mit Tableau konzernweit einheitliche Standards und Leistungskennzahlen eingeführt wurden. Heiko Merten berichtet: „Nun weiß jeder, dass wir über dieselbe Sache und dieselben Zahlen reden, die auf derselben ‚Single Source of Truth‘ basieren. Das hat unsere Zusammenarbeit über verschiedene Abteilungen und Konzernunternehmen hinweg erheblich verbessert.“ „Selbstbedienung bedeutet für uns, dass wir im Tagesgeschäft leistungsfähiger werden“, erklärt Fabian Schmick, „und unsere Daten sehen und verstehen, ohne erst beispielsweise die IT-Abteilung einschalten zu müssen. Wir wollen selbst in der Lage sein, daraus Informationen und interessante Einsichten abzuleiten, die wir vorher nicht erkennen konnten, um so neue Ideen für unser Geschäft zu entwickeln.“

Nach dem Proof-of-Concept wurde Tableau im Unternehmen sehr schnell eingeführt – zunächst in der Vertriebsabteilung und anschließend auch in vielen anderen Abteilungen. Innerhalb von zwölf Monaten entwickelte sich die Nutzerzahl bei Lufthansa von einer Handvoll Anwender hin zu 60 bis 80 Tableau-Desktop-Nutzern. Heute konsumieren rund 500 Personen Tableau-Berichte und Analysen über Tableau Server.

Schnellere Ergebnisse in den Fachabteilungen

Lufthansa profitiert von der neuen Lösung in Form von mehr Unabhängigkeit und schnelleren Ergebnissen vor allem in den Fachabteilungen. Heiko Merten erklärt: „Jetzt sind wir viel stärker als bisher in der Lage, unsere eigenen Analysen selbstständig zu erstellen und zu gestalten. Das kommt in der Fachabteilung sehr gut an. Und ich denke, dass beide Seiten – IT- und Fachabteilung – davon profitieren. Eine ganze Menge Leute haben inzwischen die zentrale Bedeutung der Daten für den Erfolg eines Unternehmens wie Lufthansa verstanden.“ Christian Novosel ist davon überzeugt, dass die beschleunigte Entscheidungsfindung Lufthansa einen Vorsprung gegenüber dem Wettbewerb verschafft: „Ich glaube ganz fest daran, dass das ein entscheidender Wettbewerbsvorteil für jedes Unternehmen ist, der die erfolgreichen Unternehmen von den übrigen unterscheidet. Und die Bereitstellung dieser Möglichkeiten bis hinauf in die Vorstandsebene macht den Topentscheidern die richtigen Informationen zur richtigen Zeit im gesamten Tagesgeschäft verfügbar und bringt so entscheidende Vorteile.“ Fabian Schmick hat auch ganz persönlich von der neuen Lösung profitiert: „Tableau unterstützt mich dabei, meine Botschaften besser zu kommunizieren. Denn mithilfe dieser interaktiven Plattform, bin ich in der Lage, im Gespräch mit der Führungsebene mehr Fragen als früher direkt zu beantworten. Das ist ein großer Vorteil von Tableau für meine tägliche Arbeit in der Strategieabteilung.“

Bildquelle: Lufthansa

]]>
IT-Director Business Intelligence / Big Data
news-19626 Fri, 20 Apr 2018 10:40:00 +0200 Apple-Roboter „Daisy“ zerlegt 200 iPhones pro Stunde http://www.it-zoom.de/mobile-business/e/apple-roboter-daisy-zerlegt-200-iphones-pro-stunde-19626/ Apple hat sein Robotersystem für das Recycling ausgemusterter iPhones in zweiter Generation modernisiert. Das neue Modell „Daisy“ kann bis zu 200 iPhones pro Stunde zerlegen, wie Apple mitteilte. Damit kommt die Recycling-Anlage auf eine theoretische jährliche Kapazität von gut 1,75 Millionen iPhones verschiedener Modellreihen – die Vorgängerversion „Liam“ war für 1,2 Millionen Geräte ausgelegt und konnte nur das iPhone 6 zerlegen.

Apple installierte 2016 eine Liam-Anlage in Kalifornien und eine in den Niederlanden. Das System aus 29 Robotern könne viel mehr verschiedene Stoffe aus den Geräten herausbekommen als in herkömmlichen Recycling-Verfahren, in denen z.B. Kobalt, Nickel oder Zink meist verloren gingen, betonte Apple damals.

Daisy könne auch seltene Mineralien wie Wolfram in den Recycling-Kreislauf zurückbringen. Die Anlage verwende Teile von Liam. Auf ein erstes System in Texas solle ein weiteres in Europa folgen.

Die Apple-Zahlen geben auch einen Eindruck von der Verwendung verschiedener Materialien in den Geräten. So könne Daisy pro 100.000 zerlegte iPhones 1,9 Tonnen Aluminium, 770 Kilogramm Kobalt, 710 Kilogramm Kupfer, 42 Kilo Zinn, knapp 1 Kilo Gold und 100 Gramm Palladium wiedergewinnen.

dpa/ls

]]>
Mobile Business Startseite it-zoom Smartphones
news-19623 Fri, 20 Apr 2018 10:20:00 +0200 Einsatz von Werbeblockern im Internet sind erlaubt http://www.it-zoom.de/mobile-business/e/einsatz-von-werbeblockern-im-internet-sind-erlaubt-19623/ Im Streit um Werbeblocker im Internet ist das Medienunternehmen Axel Springer vor dem Bundesgerichtshof (BGH) gescheitert. Der I. Senat sieht in dem Angebot des Werbeblockers Adblock Plus des Anbieters Eyeo keinen unlauteren Wettbewerb und auch keine rechtswidrige aggressive Geschäftspraxis.

Die Entscheidung über den Einsatz des Werbeblockers liege beim Nutzer der Internetseiten und nicht bei dem beklagten Unternehmen, sagte der Vorsitzende Richter bei der Urteilsverkündung. Axel Springer werde jetzt Verfassungsbeschwerde wegen Eingriffs in das Grundrecht auf Pressefreiheit einreichen, kündigte der Anwalt des Verlags an. (I ZR 154/16)

Der Senat sprach von einer Abwägung der einzelnen Interessen. „Dabei hat eine ausschlaggebende Rolle gespielt, dass der Kläger in der Lage ist, sich gegen Werbeblocker zu wehren“, sagte der Vorsitzende Richter. So könne er Nutzern eines Werbeblockers den Zugriff auf seine Angebote sperren.

Der Verlag hatte argumentiert, sein Geschäftsmodell sei durch das Unterdrücken von Werbung auf seinen Internetseiten gefährdet. Nur wenige journalistische Angebote im Internet könnten Geld über Bezahlschranken einnehmen, Werbung sei daher existenziell. Eine Eyeo-Anwältin hielt entgegen, der Verlag steigere seine Erlöse im digitalen Bereich trotz der Verbreitung von Adblockern jährlich im zweistelligen Prozentbereich.

Vor dem Oberlandesgericht (OLG) Köln hatte Axel Springer noch einen Teilerfolg erzielt. Das OLG hatte keine Einwände gegen das sogenannte Blacklisting, mit dem Werbung blockiert wird, befand aber das sogenannte Whitelisting für rechtswidrig. Beim Whitelisting müssen Unternehmen dafür zahlen, dass Werbung durchgelassen wird, die den Eyeo-Richtlinien für akzeptable Werbung entsprechen.

dpa/ls

]]>
Mobile Business Startseite it-zoom Marketing
news-19625 Fri, 20 Apr 2018 10:00:00 +0200 Facebook verlegt Nutzerdaten http://www.it-zoom.de/it-director/e/facebook-verlegt-nutzerdaten-19625/ Facebook verlegt die Daten von gut 1,5 Milliarden nicht-europäischer Nutzer raus aus dem Geltungsbereich der neuen EU-Datenschutzverordnung. Bisher war ein Facebook-Ableger in Irland für das gesamte Geschäft außerhalb der USA zuständig. Jetzt sollen nur noch die zuletzt 370 Millionen Nutzer in Europa dort vertraglich angesiedelt sein, wie Facebook bestätigte. Die Daten der restlichen internationalen Nutzer werden künftig in den USA gespeichert.

Facebook betont, der Schritt ändere nichts daran, dass die gemäß EU-Regeln eingeführten neuen Datenschutzwerkzeuge weltweit verfügbar sein werden. Das Online-Netzwerk hatte zugleich schon zuvor erklärt, dass diese Neuerungen außerhalb Europas nicht in den hauseigenen Nutzungsbedingungen festgeschrieben werden.

Facebook erklärt das u.a. damit, dass die EU-Grundverordnung zum Teil sehr spezifisch auf Europäer zugeschnittene Regelungen vorsehe. Außerdem wolle Facebook künftig auch flexibler auf lokale Datenschutzregeln in einzelnen Ländern reagieren – und eine globale Verpflichtung auf EU-Vorschriften könne dies erschweren.

dpa/ls

]]>
IT-Director Startseite it-zoom Sicherheit
news-19622 Fri, 20 Apr 2018 09:00:00 +0200 Robotik: Ein Königreich der Technologie? http://www.it-zoom.de/it-director/e/robotik-ein-koenigreich-der-technologie-19622/ Roboter nehmen bereits einen sehr hohen Stellenwert in der deutschen Industrie ein, allerdings ist ihr Einsatz auch kritisch zu betrachten. Schließlich birgt die umfängliche Vernetzung der intelligenten Maschinen ein gewisses Risiko und es stellt sich die Frage, welche Rolle der Mensch in der zukünftigen „Smart Factory“ spielen wird. Die Automation der Industrien läuft auf Hochtouren. Aus dem „World Robotics Report 2017“ der International Federation of Robotics (IFR) geht hervor, dass Deutschland innerhalb Europas das am stärksten automatisierte Land ist: Hier liegt die Roboterdichte bei 309 Einheiten pro 10.000 Beschäftigte, womit Deutschland im weltweiten Vergleich auf Platz 3 hinter Südkorea und Singapur landet. Und zwischen 2018 und 2020 soll der jährliche Absatz hierzulande aufgrund der steigenden Nachfrage nach Robotern in der allgemeinen Industrie und in der Automobilindustrie weiterhin um durchschnittlich mindestens fünf Prozent pro Jahr wachsen. „Die Wichtigkeit dieser Maschinen für die heimische Industrie kann kaum überschätzt werden“, pflichtet Volker Spanier, Leiter Robotics Solutions von Epson in EMEAR, bei. „Nicht umsonst ist der Begriff ‚Industrie 4.0’ eine deutsche Schöpfung, die sich erst später auch international etabliert hat.“

An sich ist die Fabrikautomatisierung durch Roboter natürlich nichts Neues. In den 50er-Jahren kamen z.B. erste NC-Maschinen (Numerical Control) auf den Markt und 1954 meldete der Erfinder George Devol in den USA ein Patent für einen programmierbaren Manipulator an. Dieses Datum gilt als Geburtsstunde für die Entwicklung von Industrierobotern. In Deutschland wird die Robotertechnik seit Anfang der 70er-Jahre produktiv eingesetzt. Doch was hat sich heute im Vergleich zu früher geändert? „Die neuen Industrieroboter sind kollaborativ, d.h. sie arbeiten nicht mehr unbedingt getrennt vom Menschen, sondern teilen sich denselben Arbeitsbereich“, erläutert Dr.-Ing. José de Gea Fernández, Wissenschaftler und Leiter des Teams „Roboterregelung“ am Robotics Innovation Center der DFKI GmbH. „Dadurch sind sie nicht mehr isoliert, sondern vernetzt.“ Hierfür verfügen sie u.a. über zahlreiche Sensoren und sind mit anderen IT-Systemen verbunden, mit denen sie via Cloud kommunizieren können.

Ein ganzes Bündel an Maßnahmen


Diese digitale Vernetzung sowie der Austausch zwischen allen Akteuren in einer Fabrik bilden das Rückgrat der Industrie 4.0. Die Zahl hinter „Industrie“ verweist dabei grundsätzlich auf die jeweilige „industrielle Revolution“, die mit Einführung der entsprechenden Produktionsart umgesetzt wurde. „Industrie 1.0 beschreibt den Wandel in der Produktion, als überhaupt Maschinen eingeführt wurden und die erste Massenproduktion begann“, erklärt Volker Spanier. „Industrie 2.0 definiert den Zeitpunkt, als neue Produktionsformen wie Fließbänder oder auch Akkordarbeit in Kraft traten. Industrie 3.0 ist der Zeitpunkt, als Computer in die Produktionsprozesse eingebunden wurden“ und Industrie 4.0 – dem Punkt, an dem wir heute stehen – bezeichne schließlich ein ganzes Bündel an Maßnahmen: angefangen bei der Vernetzung einzelner Maschinen bis hin zu ganzen Produktionszweigen, über die Einführung von Sensoren zur Überwachung der verschiedensten Parameter bis hin zu Assistenzsystemen und schließlich der Autonomie der Maschinen. „Industrie 4.0 ist ein deutlich komplexerer und umfassenderer Vorgang als seine Vorgänger, wobei die einzelnen Stufen aufeinander aufbauen“, so Spanier.

Stolpersteine bei dieser Vernetzung der Systeme sieht Thomas Flaig in der Software-Entwicklung, „die in der Automatisierungstechnik noch sehr schwerfällig daherkommt“, so der Senior Account Manager „Digital Factory Solutions“ von Cenit. Hierarchische Steuerungsarchitekturen in Produktionsanlagen, kombiniert mit althergebrachter Steuerungs-Software, seien nur schlecht den Anforderungen einer intelligenten Vernetzung im Sinne von Industrie 4.0 gewachsen. Daher plädiert Andreas Schunkert, Head of Technical Support Western Europe bei der Universal Robots (Germany) GmbH, für eine Standardisierung der Software-Schnittstellen: „Denn eine Vernetzung kann nur dann funktionieren, wenn der Datenaustausch zwischen Anwendungen selbst unterschiedlichster Hersteller reibungslos möglich ist.“

Im Bereich der Robotik versucht man hier zurzeit den sogenannten OPC-UA-Standard zu implementieren. Er soll eine herstellerunabhängige Kommunikation der Systeme garantieren. „Ein Stolperstein ist allerdings“, so Schunkert weiter, „dass dieser Standard noch nicht genormt ist.“ Sprich: Jeder kann den OPC so verwenden, wie er es für richtig hält. Ein Gremium soll jedoch aktuell daran arbeiten, dies zu ändern.

Zudem gewinne der Begriff „Datensicherheit“ erheblich an Relevanz, meint Volker Spanier, „denn Daten von Sensoren, die beispielsweise von einer Produktionsstraße stammen und in der Cloud gespeichert werden, müssen vor unberechtigtem Zugriff geschützt werden“. Außerdem seien noch viele rechtliche Fragen zu klären, die sich z.B. auf Rechte bei der Handhabung und/oder Veränderung solcher Daten beziehen. Alles das müsse auf internationaler Ebene diskutiert und geklärt werden.

Aufrüstung älterer Roboter


Grundsätzlich sollen sich alle Maschinen in der Industrie 4.0 einsetzen lassen, wenngleich nicht unbedingt für alle Zwecke. So kann ein traditioneller Produktionsroboter, der keine Sicherungen besitzt, um beispielsweise in einer kollaborativen Umgebung zu arbeiten, natürlich auch in einer Industrie-4.0-Umgebung in der Produktion eingesetzt werden. „Wird für eine Linie hingegen eine kollaborative Maschine benötigt, muss die Entscheidung getroffen werden, ob sich eine Aufrüstung dieser alten Maschine lohnt“, bemerkt Volker Spanier.

Laut Andreas Schunkert gibt es verschiedene Szenarien, um einen Roboter der „älteren Generation“ fit für die Zukunft zu machen. Zum Beispiel ließen sich Möglichkeiten zur Vernetzung auch im Nachgang durch Software-Updates schaffen. „So ist es etwa bei unserer Software 3.3 passiert. Mit dem Update erweiterten wird die Kompatibilität der Robotersysteme mit einer Profinet-Schnittstelle.“ Ferner ist ein Aufrüsten bzw. Nachrüsten durch neue (externe) Sensorik möglich, die das Umfeld erfasst, sowie „durch neue Steuerungsgeräte, welche die aktuellen Steuerungsrechner um mehr kognitive Fähigkeiten – z.B. das Analysieren und Verstehen der Umgebung/Lage, das Treffen von Entscheidungen, das Anpassen an neue Situationen und das Lernen aus Erfahrungen – ergänzen“, weiß José de Gea Fernández. Die zusätzliche Sensorik würde „ältere“ Roboter sicherer machen und die Wahrnehmung der Umgebung erlauben, wodurch sich etwa Schutzgitter abschaffen ließen.

Zu den grundlegenden Ansätzen im Rahmen der Industrie 4.0 gehören übrigens auch die Selbstoptimierung der Roboter in einer Smart Factory sowie eine weitgehende Kognition, eigenständiger in der Entscheidungsfindung zu werden und so bei zunehmend komplexen Aufgaben besser einsetzbar zu sein. Hier jedoch eine Abschätzung zu treffen, inwieweit eine Selbstkonfiguration gehen kann, soll kaum möglich sein. „Selbstoptimierung hat sehr viel mit Autonomie zu tun und benötigt Maschinenintelligenz“, erläutert Thomas Flaig. „Selbstoptimierende oder gar autonome Robotersysteme benötigen weit mehr Rechenleistung und intelligentere Algorithmen, als sie in heutigen Steuerungen verfügbar sind.“

Letztlich sei jedes System immer nur so schlau wie sein Anwender. Was Andreas Schunkert damit sagen will: „Natürlich verfügen die Roboter von uns über die ‚Kompetenz’, sich selbst zu optimieren, allerdings nur dann, wenn ihr Bediener sie dafür programmiert hat. Nehmen wir an, der Roboter kommt in Kombination mit einem Kraft-Momenten-Sensor zum Einsatz. Beim Ausführen einer Bewegung erkennt er damit eigenständig, dass er mit einem Objekt ungewollt kollidiert. Er nimmt also einen leichten Widerstand über den Sensor zur Kenntnis. Beim nächsten Mal, wenn der Roboter die Bewegung ausführt, könnte er seine Position daraufhin anpassen.“ Diesen Vorgang zur Optimierung müsse der Anwender so allerdings zuvor programmieren.

Science Fiction oder bald Realität?


Ob Maschinen wohl dennoch irgendwann schlauer als die Menschheit sein werden? Nun, besser Schach spielen können Maschinen bereits, das ist Fakt. Allerdings: „Wenn es darum geht, dass eine Maschine einen besseren Roman als ein Mensch schreibt, müssen wir“, so glaubt Volker Spanier, „noch sehr lange darauf warten.“ Natürlich könne eine Maschine dank ihrer Algorithmen gewisse Aufgaben schneller und fehlerfreier als ein Mensch bearbeiten, also auch Schach „erlernen“ –, „aber von einer universellen Intelligenz oder Entscheidungsfindung basierend auf menschlichen oder empathischen Kriterien sind wir noch weit entfernt“. Ähnlich sieht es José de Gea Fernández: „Dass Roboter eine allgemeine Intelligenz – ähnlich der unseren – besitzen oder zukünftig erlangen, ist immer noch Science Fiction und reine Spekulation.“

Thomas Flaig scheint da allerdings zuversichtlicher zu sein, schließlich soll das sogenannte „Moore’sche Gesetz“ besagen, dass sich die Rechenleistung alle 18 Monate verdoppelt. Selbst wenn die eine Technologie an die Grenzen stoße, werde sie durch eine andere abgelöst. „Dieser Prozess läuft nun schon viele Jahrzehnte und scheint kein Ende zu finden“, gibt Flaig zu bedenken. „Aktuell rechnet man im Jahre 2030 mit Rechenleistungen, die der Leistungsfähigkeit des menschlichen Gehirns entsprechen.“ Es sei nur eine Frage der Algorithmen, die Intelligenz, Kreativität und kognitiven Fähigkeiten eines Menschen in Maschinen abzubilden. Bei einer weiteren Verdopplung alle 18 Monate hätten wir dann im Jahr 2050 die 8.000-fache Leistungsfähigkeit eines menschlichen Gehirns. „Es ist kaum vorstellbar, was dies konkret bedeutet.“

Doch will die Menschheit überhaupt solch eine Entwicklung? Wird sie diese zulassen? Nach Ansicht von Helmut Schmid, Geschäftsführer der Universal Robots (Germany) GmbH, sei das Ganze „kein erstrebenswertes Ziel“. Er ist davon überzeugt, dass der Bedarf an den einzigartigen Fähigkeiten eines Menschen eher größer als kleiner werde. Das heißt, der Mensch wird auch in Zukunft eine wichtige Rolle in der Smart Factory spielen, in der Roboter fortschrittliches Prozess-Know-how vorweisen: „Die Automatisierung von standardisierten Aufgaben bedeutet gleichzeitig eine Aufwertung des menschlichen Könnens, dem dadurch mehr Platz zur Entfaltung eingeräumt wird“, so Schmid.

„Ich denke, es werden sich zunächst und für längere Zeit vor allem hybride Teams bestehend aus Menschen und Robotern durchsetzen“, betont de Gea Fernández. „Roboter und Menschen werden sich ergänzen. Einerseits kann dann der Mensch von der Genauigkeit, Verfügbarkeit und Geschwindigkeit des Roboters profitieren, andererseits hat der Mensch aufgrund seiner kognitiven Fähigkeiten, Erfahrungen und seines flexiblen Umgangs mit Störungen Vorteile gegenüber dem Roboter.“ Wichtig für die Akzeptanz dieser Kollaboration gerade bei der Belegschaft ist laut Volker Spanier, „dass der Mensch in der Industrie 4.0 selbst den Arbeitstakt entscheidet und nicht von einem Roboter gegängelt wird“.

Ein zweischneidiges Schwert


Ein recht ähnliches, bisweilen erschreckendes Zukunftsbild liefert übrigens Buchautor Dan Brown in seinem aktuellen Thriller „Origin“. In diesem widmet sich der Zukunftsforscher Edmond Kirsch den Fragen „Wo kommen wir her?“ und „Wo gehen wir hin?“ – und kommt zu dem Ergebnis: „Wir erleben einen Schub an Innovationen, der schneller verläuft, als wir es mit dem Verstand begreifen können. Und wir selbst sind die Schöpfer dieses neuen Reiches – des Techniums.“ Er sei zwar nicht der Erste, der ein Königreich der Technologie vorhergesagt habe, „aber ich konnte es in Modellrechnungen bestätigen und zeigen, was es mit uns anstellt“, so Dan Browns Roman-Figur. Und was ist es, was dieses „Königreich der Technologie“ mit uns macht? Es wird die Menschheit absorbieren, steht im Roman geschrieben.

Wer nicht glaubt, dass Mensch und Technologie verschmelzen werden, braucht sich eigentlich nur umzuschauen: Menschen umklammern in der Bahn ihre Smartphones oder haben Bluetooth-Kopfhörer in den Ohren, Jogger haben sich MP3-Player an den Arm geschnallt, Gamer zocken daheim mit VR-Brillen am Computer, auf dem Esstisch steht ein „Smartspeaker... „Das sind lediglich die primitiven Anfänge dieser Symbiose“, meint Kirsch im Thriller. „Wir fangen gerade erst damit an, winzige cholesterinfressende Nanobots in unseren Blutkreislauf zu injizieren, Computerchips ins menschliche Gehirn zu implantieren, synthetische Gliedmaßen zu konstruieren, die von unseren Gedanken kontrolliert werden (...)“ Laut Browns Roman-Figur werden die gleichen Werkzeuge, die heute noch außerhalb unseres Körpers existieren – Smartphones, Hörhilfen, Brillen, die meisten Medikamente – in fünfzig Jahren in solchem Ausmaß im menschlichen Körper integriert sein, „dass wir uns nicht länger als Homo sapiens betrachten können“. Ein interessanter Gedanke.

Doch zurück zu den reellen Experten: Wie schätzen sie die Lage ein? Inwieweit werden moderne Technologien – darunter die Industrieroboter – das (Arbeits-)leben beeinflussen? „Natürlich kann durch die Automatisierung einer Tätigkeit ein Arbeitsplatz wegfallen“, blickt Helmut Schmid der Tatsache ins Gesicht. Gleichzeitig habe jede industrielle Revolution bisher zu mehr Wachstum, mehr Wohlstand und damit letztlich auch zu mehr Jobs geführt, meint der Geschäftsführer von Universal Robots Germany. Und Thomas Flaig knüpft an: „Industrie 4.0 ist ein zweischneidiges Schwert – zum einen wird von den Mitarbeitern einer Smart Factory mehr Kompetenz und Verantwortung gefordert, zum anderen werden wenig qualifizierte Tätigkeiten von intelligenten Maschinenassistenten übernommen.“ Qualifikation sei der entscheidende Faktor – Qualifikation der eigenen Mitarbeiter, aber auch der zukünftigen Generationen.

Dies ist ein Artikel aus unserer Print-Ausgabe 04/2018. Bestellen Sie ein kostenfreies Probe-Abo.

„Und daher ist es umso wichtiger, dass hier parallel das Bildungsangebot sowie die Ausbildung selbst in Schulen sowie die Weiterbildung in Unternehmen im Bereich der Digitalisierung und auch der Wissenschaft und Technologie deutlich verbessert werden“, betont José de Gea Fernández abschließend.

Bildquelle: Thinkstock/iStock

]]>
Lea Sommerhäuser IT-Director Startseite it-zoom Industrie 4.0 / MES
news-19621 Fri, 20 Apr 2018 08:47:00 +0200 Ulrich Brehmer wird Geschäftsführer bei HS http://www.it-zoom.de/it-mittelstand/e/ulrich-brehmer-wird-geschaeftsfuehrer-bei-hs-19621/ Der ERP-Software-Hersteller HS – Hamburger Software hat Ulrich Brehmer, den bisherigen stellvertretenden Hauptgeschäftsführer der Handelskammer Hamburg, als weiteren Geschäftsführer berufen. Ab dem 1. Juni 2018 wird Brehmer gemeinsam mit den geschäftsführenden Gesellschaftern Dr. Thomas M. Schünemann und Walter Ullmer sowie mit Geschäftsführer Markus Fröhlich das Führungsquartett des Mittelständlers bilden. Mit der Berufung von Ulrich Brehmer verteilt HS die Aufgaben in der Unternehmensleitung neu, um die Schlagkraft weiter zu erhöhen: Der neue Geschäftsführer soll sich künftig schwerpunktmäßig um die Aufgabenfelder mit Außenwirkung kümmern. So wird Brehmer u.a. Marketing, Vertrieb, Produktmanagement und Support sowie die Bereiche Partnerschaften und Kooperationen verantworten.

Markus Fröhlich, der das operative Geschäft des Herstellers seit 2015 leitet, soll hingegen als Geschäftsführer zukunftswichtige Themen wie Digitalisierung, Entwicklung und Innovation im Unternehmen vorantreiben. Für die grundlegende strategische Ausrichtung bleiben die Unternehmensgründer Dr. Thomas M. Schünemann und Walter Ullmer hauptverantwortlich.

Ulrich Brehmer leitet mit seinem Wechsel zu HS einen neuen Karriereschritt ein. Seit 1997 ist der Diplom-Betriebswirt in verschiedenen Funktionen für die Hamburger Handelskammer tätig. Zuletzt war er als stellvertretender Hauptgeschäftsführer für die wirtschaftliche Leitung der Organisation verantwortlich. Bereits im März dieses Jahres hatte Brehmer angekündigt, die Handelskammer Ende Mai 2018 verlassen zu wollen, um beruflich etwas Neues zu beginnen. „Es war für mich einfach Zeit für eine neue Herausforderung. Nun freue ich mich auf meine kommenden Aufgaben als Geschäftsführer von HS“, sagt der 49-Jährige.

Bildquelle: HS

]]>
IT-Mittelstand Leute Startseite it-zoom
news-19620 Thu, 19 Apr 2018 15:07:42 +0200 Hard- und Software-Upgrade für GLS-Dental http://www.it-zoom.de/it-mittelstand/e/hard-und-software-upgrade-fuer-gls-dental-19620/ Kommen Server und Massenspeichersysteme ins Alter, steigen speziell die Wartungskosten, wie auch das Ausfallrisiko stark an. GLS-Dental aus Kassel ließ daher ihr in die Jahre gekommenes Hochverfügbarkeits-Cluster von der Software-Manufaktur Dr. Thomas + Partner (TUP) prüfen und an einem Wochenende komplett austauschen. Die Anforderungen an das neue System waren hoch. Zum einen sollte genügend Speicherplatz zur Archivierung der Datensätze aus dem Lagerverwaltungssystem zur Verfügung stehen, zum anderen mussten genügend Reserven für die Migration der 32-Bit-Laufzeitumgebung auf eine 64-Bit-Java-Umgebung bereitgestellt werden. Hinzu kamen der Wechsel des alten Solaris-10-Cluster auf die neue Betriebssystemversion Solaris 11.3 sowie das Upgrade der Oracle-Datenbank auf das Release 12c. Dabei handelt es sich um ein System, welches umfangreiche und komplexe Datenmengen organisieren kann.

Die Herausforderung soll die reibungslose und ausfallsichere Migration auf die neue Hardware gewesen sein. Das schließe den kundenspezifischen DNS- und DHCP-Server, die Datenbank, die TUP-Anwendung und die Anbindung der heterogenen Thin-Client-Infrastruktur mit ein. Die Migration der Daten und der TUP-Anwendungen vom alten auf das neue System konnten die Hard- und Software-Spezialisten des Dienstleisters aber ausreichend testen, sodass die Montage und Migration beim Kunden störungsfrei ablief – für die Migration der WMS- und MFR- sowie der zugehörigen Archivdaten benötige man beispielsweise zwei Stunden.

1,7 Millionen Teile auf 3.800 Quadratmeter Fläche


Maßgeblich zum Erfolg beigetragen hat dabei auch die gute Zusammenarbeit mit den GLS-Dental-Verantwortlichen. Man vertraue dem Dienstleister seit Jahren und nutze bereits das Warehouse-Management-System und die Materialflusssteuerung aus dem Hause TUP, so Klaus Holtmann, Leitung IT- und Logistikplanung. „Warum dann nicht auch die Hard- und Software-Migration? Jongliert man alleine nur mit den Pick-ins und Pick-outs, müssen wir täglich bis zu 32.000 Artikel verwalten, alles insgesamt auf 33 verschiedene Lagertypen und zudem auf unterschiedliche Kommissionierverfahren verteilt – da müssen Hard- und Software nicht nur auf dem neusten Stand sein; auch das Zusammenspiel zwischen Fördertechnik und Logistik-Software muss hundertprozentig aufeinander abgestimmt sein. Schließlich haben unsere Kunden den Anspruch, störungsfrei beliefert zu werden.“ Nach eigenen Angaben ist das GLS-Projekt an sich schon ein logistisches Wunder: So werden über 1,7 Millionen Teile im Logistikzentrum eingelagert – auf gerade einmal 3.800 Quadratmeter Fläche.

Bildquelle: TUP

]]>
IT-Mittelstand Startseite it-zoom Lager und Logistik
news-19619 Thu, 19 Apr 2018 14:50:31 +0200 Roboter im Schuhlager http://www.it-zoom.de/it-mittelstand/e/roboter-im-schuhlager-19619/ Der Osnabrücker Fashionlogistikspezialist Meyer & Meyer setzt erstmals zwei moderne Kommissionierroboter für die Kartonabwicklung in seinen Hallen ein. Technikpartner für das Projekt ist der Münchner Robotikhersteller Magazino. Die Roboter sind Bestandteil der kontinuierlichen Innovations- und Automatisierungsbestrebungen des Unternehmens. Seit April 2018 unterstützt die moderne neue Technik die reibungslose und fehlerfreie Ein- und Auslagerung von Schuhkartons für den Kunden zLabels am Standort Peine. Technikpartner für das Projekt ist der Münchner Robotikhersteller Magazino. Das Unternehmen entwickelt und baut wahrnehmungsgesteuerte, mobile Roboter für die Intralogistik. Die eingesetzte Technologie ermöglicht den stückgenauen Zugriff auf einzelne Objekte und damit ein automatisiertes Handling von Schuhkartons. „Unser Ziel ist die stetige Optimierung all unserer Supply-Chain-Leistungen für unsere Kunden. Dabei ist uns der Einsatz innovativer Technik sehr wichtig“, sagt Marcus Reibetanz, Director Logistics Planning & Development. „Wir sind froh, dass wir mit Magazino einen langfristigen Partner gefunden haben, der uns den Einsatz modernster Robotiktechnologie in unterschiedlichen Anwendungsszenarien ermöglicht.“

Erstmals Pick-by-Robot


Die Kommissionierroboter mit dem Namen Toru gehören zu den ersten wahrnehmungsgesteuerten Robotern am Markt, welche nicht nur den autonomen Transport beherrschen, sondern auch den Griff ins Regal. Damit wird das Kommissionierprinzip Pick-by-Robot möglich. Über zahlreiche 3D-Kameras, Sensoren und Laserscanner können die Roboter ihre Umgebung wahrnehmen, interpretieren und dadurch selbständig agieren und Entscheidungen fällen. Mit seiner 3D-Kamera schaut Toru beispielsweise immer erst ins Regal, um die genaue Lage sowie die Dimensionen eines Schuhkartons zu erfassen – basierend darauf wird dann in Sekundenbruchteilen der Greifprozess geplant und anschließend ausgeführt. Seine Arbeitsaufträge bekommt Toru über eine WLAN-Verbindung zum Warenwirtschaftssystem. Zusätzlich können sich die Roboter darüber vernetzen, Erfahrungen mit komplexen Situationen austauschen und somit voneinander lernen.

Meyer & Meyer verspricht sich von der Nutzung der Roboter vielfältige Vorteile. Dazu gehören z.B. zusätzliche Off-Hour-Aktivitäten wie das Vorkommissionieren über Nacht oder Unterstützung bei Inventuren. Weitere Vorteile entstehen durch die hohe Flexibilität der ortsungebundenen Roboter und die Unterstützung bei ergonomisch besonders herausfordernden Kommissioniervorgängen, beispielsweise das Picken aus der obersten oder untersten Ebene eines Fachbodenregals. Ab September 2018 plant Meyer & Meyer den Einsatz eines zusätzlichen Roboters vom Typ Soto für Kartons bis zu 60 x 40 x 40 cm und einem Höchstgewicht von 15 kg. „Wir halten Robotiklösungen für einen wesentlichen Bestandteil zukunftsfähiger Intralogistik- und Fulfillment-Lösungen“, so Marcus Reibetanz.

Bildquelle: Meyer & Meyer

]]>
IT-Mittelstand Startseite it-zoom Industrie 4.0 / MES Logistik
news-19618 Thu, 19 Apr 2018 14:32:44 +0200 So überwacht der Flughafen München seinen Energieverbrauch http://www.it-zoom.de/it-director/e/so-ueberwacht-der-flughafen-muenchen-seinen-energieverbrauch-19618/ Um seine Energieeffizienz weiter zu steigern, stattet der Flughafen München derzeit in einem Testprojekt herkömmliche Strom- und Gaszähler mit den Energycams von Q-loud, einer Tochtergesellschaft der QSC AG, aus. Die Energycams digitalisieren analoge Energiezähler, indem sie die Zählerstände per Kamera und Texterkennung (OCR) auslesen und dann sicher in kurzen Zeitintervallen an die IoT-Plattform Oceanconnect von Huawei übertragen. Der Flughafen München nutzt die Informationen, um einen genaueren Überblick über die verschiedenen Energieverbräuche zu haben und Optimierungspotentiale aufzudecken.

Für die Datenübertragung kommt dabei der neue Übertragungsstandard Narrow-Band-IoT (NB) zum Einsatz. Die Technologie ermögliche die Datenübertragung im Niedrigfrequenzbereich, heißt es seitens des Dienstleisters. Die größten Vorteile dabei: Die übertragenden Geräte verbrauchen wenig Energie und können die Daten auch von schwer zugänglichen Orten aus übermitteln, wie es bei Mess- und Industrieanlagen oftmals der Fall ist. Zudem baue die Technologie auf dem bestehenden LTE-Standard auf, sodass keine zusätzliche Infrastruktur errichtet werden müsse. Der Anbieter hat dazu seine Energycams um die NB-IoT-Funktionalität erweitert und die Oceanconnect-Plattform für die Aufnahme der Daten konfiguriert. Extra für das Pilotprojekt hat Telefónica Deutschland in seinem LTE-Netz am Flughafen München den NB-IoT-Standard implementiert.

Die Vernetzung von IoT-Geräten am Flughafen stellt eine besondere Herausforderung dar: So müssen die Geräte u.a. über eine weit verteilte Fläche hinweg und in unterschiedlichen Gebäudestrukturen funktionieren, die hohen Sicherheitsanforderungen müssen eingehalten und die verschiedenen, bereits eingesetzten Frequenzbändern, dürfen nicht gestört werden. Der erstmalige Live-Einsatz von Narrow-Band-IoT-Geräten in Deutschland zeige, so der Dienstleister, dass sich die Technologie bereits jetzt bewährt und bereit für den Einsatz in breiter Fläche sei. NB-IoT werde Geräte vernetzen, die bisher nicht technisch oder wirtschaftlich sinnvoll vernetzbar waren. Die Anzahl von IoT-Anwendungen werde dadurch zunehmen.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom Industrie 4.0 / MES
news-19617 Thu, 19 Apr 2018 11:28:28 +0200 5G: Mobilfunk-Star mit schneller Reaktionsfähigkeit http://www.it-zoom.de/it-director/e/5g-mobilfunk-star-mit-schneller-reaktionsfaehigkeit-19617/ Wer auf dem Mobile World Congress Ende Februar 2018 in Barcelona durch die Hallen schlenderte, kam an 5G und Internet-of-Things-Szenarien nicht vorbei. Der kommende Mobilfunkstandard soll großes Potential bieten – etwa im Verkehr oder in der Logistik. Doch es gibt noch viel zu tun. Natürlich ging es in Barcelona auch um Smart­phones und Tablets wie zum Beispiel das neuen Galaxy S9 von Samsung. Doch der wahre Star war kein Mobilgerät mit Touchscreen. Vielmehr drehte sich auf dem Mobile World Congress alles um 5G – den kommenden Mobilfunkstandard. Das Besondere: Bei 5G handelt es sich nicht um eine einzige Technik, sondern quasi um ein ganzes Bündel von Technologien. Dazu zählt die zellulare Mobilfunkgeneration ebenso wie WLAN und weitere Technologien.

Das grundlegende Konzept ist das Network Slicing: Dabei wird das Netz in sogenannte Scheiben aufgeteilt, die jeweils unterschiedliche Eigenschaften zur Verfügung stellen. Das Netzwerk kann dann zu jedem Zeitpunkt intelligent entscheiden, welche Technik für welchen Teilnehmer und für welche Anwendung die geeignete ist. Zu den besonderen Eigenschaften, die 5G bietet, zählen große Bandbreiten, hohe Geschwindigkeiten und eine extrem geringe Latenz, d. h. Reaktionszeit. Diese soll bei 5G bis zu unter einer Millisekunde liegen.

Erste Testläufe für 5G-Netze


Damit eignet sich 5G besonders für Anwendungen im Internet der Dinge, dem zweiten großen Thema in Barcelona. Kurze Reaktionszeiten sind etwa bei der Car-to-Car-Kommunikation wichtig, wenn sich Fahrzeuge im fließenden Verkehr gegenseitig vor Hindernissen warnen. Sekundenbruchteile können dabei schon entscheidend sein. Eine andere Anwendung zeigte die Telekom, bei der 5G ebenfalls im Mittelpunkt des Auftritts in Barcelona stand. Der Telekommunikationsanbieter testet gerade im Hamburger Hafen ein 5G-Netz. Zusammen mit Nokia und dem Hafenbetreiber HPA wird u. a. daran gearbeitet, Ampelanlagen mithilfe von 5G zu steuern sowie Messdaten aus der Umwelt zu sammeln und auszuwerten.

„5G wird auf jeden Fall eine disruptive Kraft besitzen“, betonte Alpna Doshi, Chief Information Officer bei Philips, auf einer Podiumsdiskussion während der Mobile World. Doch ihrer Meinung nach muss die kommende Mobilfunkgeneration dafür bestimmte Anforderungen erfüllen. Dazu zählten Zuverlässigkeit, die Qualität der Services und Sicherheit. Diese Aspekte – neben offenen Schnittstellen – werden wichtige Rollen in der Entwicklung von 5G spielen müssen. Und diese ist noch lange nicht abgeschlossen, auch das wurde in Barcelona deutlich. „Bisher sind noch nicht alle Technologien bekannt, die 5G umfasst“, sagte etwa Scott Rice, Chief Information Officer beim Mobilfunkanbieter Sprint. Es seien etwa noch viele Investitionen der Service-Provider notwendig, um die Entwicklung voranzutreiben. 5G sei ein „evolutionäres Abenteuer“.

Nach Meinung von Martin Klapdor wird durch 5G das Thema Netzwerk-Monitoring eine noch größere Bedeutung gewinnen. „Neben der Bandbreite sind höhere Geschwindigkeiten und eine sehr geringe Latenz die großen Vorteile, die 5G bringen soll“, so Klapdor, Senior Solutions Architect bei Netscout Deutschland, einem Anbieter von Lösungen für das Netzwerk-Performance-Management. „In diesem Zusammenhang wird eine Netzüberwachung besonders wichtig, um zu prüfen, ob diese Versprechungen tatsächlich eingehalten werden.“

Großes Potential im Transportwesen


„5G wird eine großartige Zukunft ermöglichen, in der alles miteinander vernetzt ist“, glaubt Peter Zhou, Chief Marketing Officer bei Huawei. Aber: Viele der zurzeit diskutierten Einsatzszenarien für 5G könnten schon mit 4G realisiert werden. Eine ähnliche Meinung vertritt Nils Herzberg, Senior Vice President für IoT bei SAP. Sein Unternehmen zeigte auf der Mobile World eine ganze Reihe von Internet-o-Things-Anwendungen. Dazu zählt eine gemeinsame Lösung mit der Telekom für die Logistik in Unternehmen. Echtzeitdaten von den entsprechenden Fahrzeugen werden dabei mithilfe der Cloud-Plattform von SAP und IoT-Technologien aus dem Walldorfer Leonardo-Portfolio gesammelt und analysiert. Im Transportwesen sieht Herzberg großes Potential für 5G. Doch die neue Mobilfunkgeneration sei kein Allheilmittel. „IoT wird in vielen Bereichen auch ohne 5G zurechtkommen“, glaubt  Nils Herzberg. Er denkt dabei vor allem an das indu-strielle Internet der Dinge. „Die Fabrik ist ja schon ein gut vernetztes Umfeld.“ In diesem Bereich würde 5G nur in solchen Fällen Vorteile bringen, in denen keine etablierten Local Area Networks (LAN) verfügbar seien.

Dies ist ein Artikel aus unserer Print-Ausgabe 04/2018. Bestellen Sie ein kostenfreies Probe-Abo.

Es gibt allerdings auch andere Stimmen. Verbände wie der ZVEI und der VDE fordern eigene 5G-Netze für die Industrie, weil der Mobilfunkstandard ihrer Meinung nach eine wichtige Voraussetzung für die smarte Fertigung darstellt. „Wir müssen die Reaktionsgeschwindigkeit des gesamten Netzwerks in einer
Fabrik deutlich steigern“, berichtet etwa VDE-Präsident Gunther Kegel. Mit den aktuellen Netzwerktopologien ließe sich der nächste Schritt in der Digitalisierung der Produktion nicht machen.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Startseite it-zoom IT-Markt
news-19616 Thu, 19 Apr 2018 11:07:01 +0200 Treibstoff für die Digitalisierung http://www.it-zoom.de/it-director/e/treibstoff-fuer-die-digitalisierung-19616/ Moderne Rechenzentren mit ihren IT-Ressourcen sind laut Florian Sippel von Noris Network der Treibstoff, ohne den eine digitalisierte Wirtschaft nicht laufen kann. IT-DIRECTOR: Herr Sippel, welche Rolle spielen Rechenzentren im Rahmen der digitalen Transformation? Was macht sie zum „Treiber“ der Digitalisierung?
F. Sippel:
Moderne Rechenzentren mit ihren IT-Ressourcen sind der Treibstoff, ohne den eine digitalisierte Wirtschaft nicht laufen kann. Mit Servern, Speichern und Anbindungen stellen Rechenzentren die für die Digitalisierung von Kommunikation und Produktionsprozessen erforderliche Infrastruktur.

IT-DIRECTOR: Welche neuen Anforderungen ergeben sich im Zuge der zunehmenden Digitalisierung für die Infrastrukturen in Rechenzentren?
F. Sippel:
Neben wachsenden Kapazitäten stellt die Digitalisierung dramatisch wachsende Anforderungen an die IT-Sicherheit und das Rechtemanagement. Künftig liegen in den Datenbanken ja nicht ein paar aggregierte Wirtschaftsdaten, sondern die Digitalen Zwillinge von Produkten und Prozessen – und diese unternehmenskritischen Daten sind über das Internet vernetzt. Neben dem Schutz von personengebundenen Daten wächst der Bedarf, die Unternehmen vor Wirtschaftsspionage zu schützen. Das zweite große Thema ist die Flexibilität bei der Skalierung von Infrastrukturen und bei der Vernetzung von Systemen und Daten.

IT-DIRECTOR: Wie sehen Sie die Datacenter hierzulande aufgestellt? Inwieweit kann die Digitalisierung mit den vorhandenen RZ-Ressourcen abgefedert werden?
F. Sippel:
In Deutschland herrscht kein Überfluss an IT-Flächen, aber insgesamt sehen wir eine gesunde Struktur und ausreichend Kapazitäten, auch weil hier alle großen internationalen Anbieter und einige lokale Spezialisten Rechenzentrumsflächen auf hohem Niveau anbieten. Wichtig in meinen Augen: Die Sensibilität in Deutschland in puncto Qualität und Datenschutz wird sich langfristig als Standortvorteil erweisen, wenn immer mehr kritische Prozess- und Produktdaten ins Netz wandern. Hier wird vielfach schon gelebt, was in anderen Ländern erst noch etabliert werden muss.

IT-DIRECTOR: Apropos Ressourcen: Sollten im Zuge der Digitalisierung immer mehr Rechenzentren entstehen, wird gleichzeitig mehr Energie für deren Betrieb benötigt. Hinzu kommen neue, recht energieintensive Technologien wie die Blockchain oder E-Mobility. Wie kann für Rechenzentren in Deutschland dennoch eine ausreichende Energieversorgung gewährleistet werden?
F. Sippel:
Engpässe sehe ich nicht. Anders als viele Laien glauben, sind Rechenzentren recht angenehme Verbraucher, die die Energiewende und den Trend zur dezentralen Energieerzeugung eher unterstützen. Grundsätzlich ist der Energieverbrauch in einem modernen Rechenzentrum recht stabil. Kurzfristig können Rechenzentren aber auch positive oder negative Regelenergie erzeugen – beispielsweise können kurze Lastspitzen im Stromnetz über den Batterie- oder Notstromdieselbetrieb gepuffert werden oder überschüssiger Strom kann über eine verstärkte Abkühlung der IT-Fläche abgeführt werden. Das ließe sich in Kooperation mit den Energieversorgern auch ausbauen. Zudem ließen sich Preisanreize setzen, um IT-Ressourcen verstärkt zu Zeiten mit hohem Stromangebot zu nutzen. Viele IT-Prozesse lassen sich ja zeitlich gut verteilen.

IT-DIRECTOR: An welchen Stellschrauben sollten die RZ-Verantwortlichen aktuell drehen, um ihre Rechenzentren kostengünstig und zukunftssicher zu gestalten?
F. Sippel:
Die Stellschraube Datensicherheit und Zertifizierungen hatte ich bereits erwähnt. Die zweite Stellschraube ist sicherlich die Konsolidierung der IT, um Effizienzsteigerungen zu erreichen. Schon in den letzten Jahren haben große Unternehmen das Thema Industrialisierung der IT vorangetrieben. Sie setzen verstärkt auf wenige, größere Rechenzentren, in denen immer stärker automatisierte Prozesse auf virtualisierten Systeme und standardisierten Komponenten und Anwendungen laufen. Oder sie machen Anwendungen cloud-ready – wo dies technisch und wirtschaftlich möglich ist. Dieser Trend wird sich fortsetzen und auch kleinere Unternehmen erfassen.

]]>
Ina Schlücker IT-Director Rechenzentrum / Server
news-19615 Thu, 19 Apr 2018 10:47:44 +0200 Mit Business-Apps papierlos arbeiten http://www.it-zoom.de/mobile-business/e/mit-business-apps-papierlos-arbeiten-19615/ Unternehmen kommen heute um die Themen Digitalisierung und Mobility nicht mehr herum und die Nachfrage nach integrierten Lösungen im B2B-Bereich ist weiterhin ungebrochen. Voraussetzung für die Einführung solcher Technologien ist aber das Vorhandensein einer echten, herstellerneutralen Integration. Denn die daraus resultierenden positiven Effekte ergeben sich nur durch eine vollständige Anbindung von bestehenden IT-Systemen wie Enterprise Resource Planning (ERP), Customer Relationship Management (CRM) oder SAP an mobile Anwendungen. Nur so können komplexe Unternehmensprozesse automatisiert und nahtlos auf höchstem Niveau gewährleistet werden.

Die Einsatzgebiete mobiler Apps sind nahezu endlos – und zwar branchenübergreifend: ob automatische Steuerung einer Maschine, Management der Lieferkette oder mobile Vereinfachung stationärer Business-Prozesse. Insbesondere die Nachfrage nach Business-Apps steigt rasant weiter. Schwierig sind hierbei nach wie vor die Anbindung an ein System oder eine Datenbank sowie der mobile Zugriff auf die jeweiligen Daten und Informationen.

Lückenlose Rückverfolgbarkeit

Ein integrierter Software-Ansatz ist für die Business-Apps dabei entscheidend, denn nur eine integrierte Lösung auf Basis einer modularen Software-Architektur ermöglicht eine lückenlose Rückverfolgbarkeit sowie hundertprozentige Transaktionssicherheit ins führende System. Zudem sollte sich die Lösung durch Skalierbarkeit, Stabilität und Performance auszeichnen. Die Echtzeitfähigkeit gewährleistet, immer den tatsächlichen Stand verfügbar zu machen. Der Hybridmodus (On- und Offline-Betrieb) ermöglicht ein unterbrechungsfreies Arbeiten. So kann ein zuverlässiges und kontinuierliches Arbeiten bei schlechter oder sogar ohne Internetverbindung (mobile Daten, WLAN) garantiert werden. Letztlich ermöglicht die Verwendung von Standardkomponenten ein Go-live innerhalb weniger Tage und macht somit eine teure IT-Projektberatung überflüssig.

ERP als steuernde 
Instanz

Bei mobilen Business-Apps müssen sämtliche Daten zeitnah aus einem führenden ERP-System einer Anwendung zur Verfügung stehen. Viele Anbieter setzen dabei auf Punkt-zu-Punkt-Ansätze, wie auch SAP mit Fiori, geraten aber damit schnell an ihre technologischen und budgettechnischen Grenzen. Benötigt wird deshalb eine Kommunikationsplattform, die Daten aus sämtlichen Backends auf die Smartphones bringt und umgekehrt. Hierbei ist es völlig unerheblich, woher die Daten kommen und wohin sie gehen (Android, iOS, Windows etc.). Die modulare Software-Architektur der Membrain GmbH bietet diese Art von Datendrehscheibe, da eine problemlose und integrierte Anbindung von Drittsystemen wie Web Services, Exchange oder auch Steuerungen bereits vorhanden ist. Der Kommunikations-Server ist plattformunabhängig und verfügt über eine zertifizierte SAP-Schnittstelle. Daten werden bidirektional vom führenden ERP-System verwaltet und beliebigen Frontends, wie mobilen Geräten, Terminals oder Maschinen, zur Verfügung gestellt. Das ERP-System wird hierbei als steuernde Instanz verwendet.

Blick in die Praxis

Auch das Thema „Cloud“ spielt bei Business-Apps ein wichtige Rolle. Verfügbare Cloud-Konnektoren ermöglichen eine schnelle Anbindung an den Kommunikations-Server – z.B. an die SAP Cloud Platform, eine eigene Cloud oder lokal im eigenen Rechenzentrum. Das sorgt für Flexibilität und Performance sowie eine sichere Anbindung mobiler Geräte in die IT-Landschaft des Unternehmens.
Getrieben von der Echtzeitfähigkeit sowie der medienbruchfreien Dokumentation von Prozessen gewinnt der Bereich „Business-Apps“ zunehmend an Bedeutung. Oberstes Ziel sind hier die Effizienzsteigerung, Verbesserung und Automatisierung bestehender Prozesse sowie ein papierloses Arbeiten. Speziell dort, wo man auf manuelle und nicht IT-gesteuerte Prozesse trifft, bietet das Arbeiten mit Apps Verbesserungspotential. So sieht man beispielsweise im Bereich „Lead-Verwaltung/Lead-Management“ heute immer noch größtenteils auf Messen und Events die Dokumentation per „Stift und Zettel“ inklusive eines anschließenden händischen Eingabeprocedere. Dies ist nicht nur zeitaufwendig und erfolgt häufig mit einer zeitlichen Verzögerung, sondern ist aufgrund von möglichen Tippfehlern oder Unlesbarkeit auch noch besonders fehleranfällig. Dieser Medienbruch kann durch eine mobile App eliminiert werden. Kontaktdaten werden in Echtzeit automatisch erfasst und ins ERP-System inklusive Datenbankabgleich übernommen.

Auch im Helpdesk-Bereich können Apps bei der kompletten Abwicklung eines Tickets und automatischen Dokumentation im ERP helfen. Eingehende Tickets werden dabei automatisch nach Datum und Priorität sortiert und abgearbeitet – transparent und nachverfolgbar. Ein weiteres Beispiel kommt aus dem Bereich Sales und der Angebotserstellung. Mithilfe einer Sales-App lässt sich direkt in einem Verkaufsgespräch ein individuelles Angebot erstellen und mit wenigen Klicks direkt an den Kunden versenden.

Geschäftsalltag für das mobile Büro

Der Erfolg von Apps im B2C-Bereich wird auch im Business-Bereich Einzug halten. Wichtige Anforderung an die Lösung sind dabei Transaktionssicherheit ins ERP-System, unterbrechungsfreies Arbeiten, Rückverfolgbarkeit und Fehlervermeidung sowie das Sicherstellen von Workflows. Es bedarf einer flexiblen Software-Architektur, einer modularen Plattform, Echtzeitfähigkeit, Skalierbarkeit sowie eines integrierten Ansatzes. Den Einsatzbereichen sind dabei keine Grenzen gesetzt – Buchungen von Geschäftsreisen, Erfassung von Arbeitszeiten oder Leads, automatisch generierte Angebote, Meldungen von Urlaubsanträgen oder Krankschreibungen etc. – Business-Apps decken den gesamten Geschäftsalltag für das mobile Büro der Zukunft ab.

Bildquelle: Thinkstock/iStock

]]>
Mobile Business Apps
news-19604 Thu, 19 Apr 2018 10:14:00 +0200 Massendaten bereitstellen und intelligent nutzen http://www.it-zoom.de/it-mittelstand/e/massendaten-bereitstellen-und-intelligent-nutzen-19604/ Marit Hansen, Landesbeauftragte für Datenschutz in Schleswig-Holstein, und Dr. Nils Macke, Leiter Application Center Production & Quality bei der ZF Friedrichshafen AG, erklären im Interview, wie der Umgang mit Daten verantwortungsvoll und sicher ist. Im Zeitalter von „Industrie 4.0“, „Smart City“ und „Artificial Intelligence“ (AI) werden Unmengen von Daten erzeugt – und auch gebraucht. All diese Konzepte funktionieren nur dann, wenn alle Beteiligten Daten bereitstellen und intelligent nutzen. Weil diese Daten alles und jeden beschreiben können und weil immer bessere und kostengünstigere Technologien verfügbar werden, um diese Daten überall und jederzeit lückenlos zu erfassen, zu speichern, intelligent zu verarbeiten und zu korrelieren, werden sie heute bereits an Börsen gehandelt.

Beispielsweise werden mit solchen Massendaten Industrieanlagen kalibriert oder „Künstliche Intelligenzen“ angelernt. Auch wenn diese Daten nicht direkt personenbezogen sind, ist auf jeden Fall ein verantwortlicher Umgang mit ihnen unbedingt notwendig. Denn aus diesen Daten lassen sich unter Umständen – in Verbindung mit anderen Datenquellen – nicht nur personenbezogene Informationen rekonstruieren, sie können auch Betriebsgeheimnisse bergen, etwa zur Performance einer Maschine oder zur Qualität eines Fertigungsprozesses. Vor diesem Hintergrund befragte IT-MITTELSTAND zwei Experten: Marit Hansen ist Landesbeauftragte für Datenschutz in Schleswig-Holstein, Dr. Nils Macke leitet das Application Center Production & Quality beim Technologiekonzern ZF Friedrichshafen.

ITM: Wer ist verantwortlich für die Daten in Szenarien wie Industrie 4.0, Big Data oder Machine Learning – der Hersteller der Maschine, die z.B. über Sensoren diese Daten liefert, der Hersteller dieser Sensoren, der Hersteller der Datenbank-, ERP- oder AI-Software, die diese Daten sammelt, verwaltet und/oder verarbeitet, oder das Unternehmen, das diese Software bzw. die Maschine nutzt? Oder kommen noch andere Verantwortliche in Betracht, etwa in der Logistik der Hersteller des verwendeten Transportmittels?
Dr. Nils Macke:
Eine Datenverantwortung muss in jedem Anwendungsfall im Vorfeld eindeutig definiert und mit dem Dateneigentümer verhandelt werden. Der Maschinenhersteller ist in diesem Modell ein Datenerzeuger. Der Betreiber der Maschine wiederum ist der Eigentümer dieser Daten. Besitzer ist der Betreiber der Datenbank – aber auch alle anderen Verwender dieser Daten. Aus dieser Kette lassen sich konkrete Verantwortlichkeiten ableiten. So ist der Maschinenhersteller beispielsweise für die Kalibrierung eines Sensors verantwortlich, damit dieser qualitativ hochwertige Daten liefert, keinesfalls aber für die Interpretation in einer Datenanalyse. Das ist Sache des Betreibers.

Marit Hansen: Vorausgeschickt: Als Landesbeauftragte für Datenschutz denke ich sofort an Verantwortliche im Sinne des Datenschutzrechts. Dies gilt immer dann, wenn es um personenbezogene Daten geht, d.h. Daten, die einer identifizierten oder identifizierbaren natürlichen Person zugeordnet werden können. Davon unabhängig gibt es natürlich auch eine Verantwortung dafür, dass die Kommunikation zwischen verschiedenen Maschinen integer ist und keine Schäden, z.B. durch fehlerhafte Parameter, verursacht werden.

In Szenarien wie Industrie 4.0, Big Data oder Machine Learning ist es oft möglich, direkt oder indirekt mithilfe zusätzlicher Informationen eine Zuordnung zu einer natürlichen Person vorzunehmen. Es ist diejenige Organisation – z.B. ein Unternehmen – für den Datenschutz verantwortlich, die auch für die Verarbeitung verantwortlich ist und über die Wahl der Mittel entscheidet.

Auch wer als Auftragsverarbeiter für einen Verantwortlichen Daten verarbeitet, muss ab dem 25. Mai 2018 – ab dann gilt die europäische Datenschutz-Grundverordnung (DSGVO) – viele Regeln des Datenschutzrechts einhalten. Die Hersteller, die nicht selbst personenbezogene Daten verarbeiten, sind von der DSGVO ausgenommen, aber für sie sind dennoch einige Pflichten zur Risikoeindämmung vorgesehen, z.B. in der kommenden ePrivacy-Verordnung.
Handelt es sich nur um Maschinendaten, die mit Menschen gar nichts zu tun haben, greift das Datenschutzrecht nicht.

ITM: Welche Rechte und welche Pflichten leiten sich aus dieser Verantwortlichkeit für die Daten ab?
Hansen:
Dies ergibt sich hauptsächlich aus der Datenschutz-Grundverordnung. Für Daten mit Personenbezug muss der Verantwortliche zunächst klären, ob er sie überhaupt verarbeiten darf: Nur die für den jeweiligen Zweck erforderlichen Daten dürfen erhoben und verwendet werden, und dies ist nur dann rechtmäßig, wenn es auf einer Rechtsgrundlage (z.B. einem Gesetz oder Vertrag) beruht oder wenn eine informierte und freiwillige Einwilligung der betroffenen Personen vorliegt. Achtung: Einwilligungen können mit Wirkung für die Zukunft widerrufen werden und eignen sich daher oft nicht als Fundament der Datenverarbeitung.

Es ist stets wichtig, dass man die betroffenen Personen ausreichend über die Verarbeitung und etwaige Risiken informiert. Die Daten müssen korrekt und aktuell gehalten und gegen unberechtigte Zugriffe geschützt werden. Wenn die Daten nicht mehr erforderlich sind, müssen sie gelöscht werden. Betroffene Personen können außerdem bestimmte Rechte wahrnehmen, z.B. Auskunft zu ihren sämtlichen Daten oder Berichtigung – dann muss der Verantwortliche zeitnah reagieren.

Im AI-Bereich kommen immer mehr Algorithmen zum Einsatz, auf deren Basis Entscheidungen gefällt werden. Das ist nur in einem engen rechtlichen Rahmen erlaubt. Auf keinen Fall darf man Entscheidungen über Menschen allein auf Basis von undurchsichtigen und vielleicht sogar unkontrollierbaren Computerberechnungen fällen.

Auch wenn man Auftragsverarbeiter einschaltet, bleibt man für den Datenschutz verantwortlich. Je mehr Datenschutz man in die Systeme eingebaut ist, desto weniger Probleme hat man.

Macke: Auch hier ist die Frage der Definition zu stellen. Verantwortlichkeit kann sich sowohl auf die Datenqualität beziehen, aber auch auf die Quantität – also die kontinuierliche Datenlieferung. Das sind für mich die Pflichtfelder.
Rechte an Daten wiederum lassen sich nicht so einfach beschreiben. Sie sind international unterschiedlich definiert. So lässt sich in Deutschland beispielsweise das Dateneigentum niemals vollständig veräußern, wohl aber lassen sich Nutzungsrechte einräumen. Hier ist der Interpretationsspielraum sehr breit gefächert. Eindeutigere Regelungen für den Handel mit Daten sind wünschenswert, um internationale Rechtstreitigkeiten zu vermeiden.

ITM: Unter welchen Bedingungen sollten solche Massendaten von dem Verantwortlichen für die Allgemeinheit oder für bestimmte Interessenten bereitgestellt werden, damit ihre Wiederverwendung, Nachnutzung und Verbindung mit anderen Datensätzen einerseits einfach und andererseits schadlos möglich ist?
Macke:
Was uns fehlt, ist eine Lösung zur vertrauensvollen Verwaltung unserer Daten. Für unser konventionelles Wertgut, Geld, existiert seit Langem ein funktionierendes Bankwesen. Der Bank in ihrer treuhänderischen Funktion vertrauen wir relativ arglos, dass sie den Zugang zu unserem Bankkonto nur den dazu Berechtigten einräumt  – z. B. durch Lastschrift, Überweisung oder gar Vollmacht. Warum gelingt es uns aber nicht, eine Datenbank zu etablieren, die dasselbe mit den von uns erzeugten Daten macht? Die Technologien dazu sind jedenfalls vorhanden. Es fehlt aber an einem Datentreuhänder, der zum einen die gesetzlichen Regelungen befolgt und zum anderen einen einfachen Zugang zum Handel mit Daten gewährleistet.

Hansen: Datenschätze verleihen Macht. Hier gilt es, die Risiken im Blick zu haben und mit dem möglichen Nutzen abzuwägen. Eine gute Möglichkeit aus Datenschutzsicht ist die Nutzung anonymisierter Daten: Dann sind die Identitätsinformationen der betroffenen Personen durch Umwandlung der Daten geschützt und man kann trotzdem statistische Werte analysieren. Für bestimmte gesellschaftliche relevante und politisch gewollte Auswertungen gibt es spezielle Gesetze, z.B. bei Krebsregistern, in denen die Regeln zur Erhebung, zur Verarbeitung und zum Schutz vorgegeben sind. Nutzungen von Massendaten müssen gut geplant sein, nicht nur aus Datenschutzsicht oder für den berechtigten Schutz von Geschäftsgeheimnissen. Es muss auch gewährleistet sein, dass die Datenbasis verlässlich ist und keine Verzerrungen beinhaltet. Auch muss man unfaire Diskriminierungen vermeiden. Wir setzen auf Risikovermeidung, Transparenz und Einflussnahme statt blindes Vertrauen in scheinbar intelligente Systeme.

Bildquelle: ZF Friedrichshafen AG/Thinkstock/iStock/Land Schleswig-Holstein

]]>
Berthold Wesseler IT-Mittelstand Business Intelligence / Big Data
news-19614 Thu, 19 Apr 2018 07:53:11 +0200 BGH verhandelt über Streit um Werbeblocker im Internet http://www.it-zoom.de/mobile-business/e/bgh-verhandelt-ueber-streit-um-werbeblocker-im-internet-19614/ Wenn Werbung im Internet nervt, greifen etliche Anwender zu einem Werbeblocker. Da aber viele Unternehmen ihr Angebot durch Werbung finanzieren, entstehen Konflikte. So erlaubt das Medienunternehmen Axel Springer den Zugriff nur bei ausgeschaltetem Werbeblocker. Außerdem führt es einen Prozess gegen den Anbieter des populären Filters Adblock Plus, das Kölner Unternehmen Eyeo. Jetzt ist der Bundesgerichtshof in diesem Fall gefragt.

Was sind Werbeblocker und wie arbeiten sie?

Ein Werbeblocker oder Adblocker ist ein Programm, das die Einblendung von Werbung verhindert oder nur bestimmte Werbung durchlässt. Die Anzeigen werden zum Beispiel anhand der Internetadresse der Server erkannt, die die Werbung ausspielen. Adblock Plus arbeitet mit zwei Listen: Wer auf der schwarzen Liste, der Blacklist, steht, wird blockiert, wer auf der weißen Liste, der Whitelist, steht, darf passieren. Die Listen werden ständig angepasst.

Warum wehrt sich Springer gegen Werbeblocker?

Für Medienhäuser wie Axel Springer steht wirtschaftlich viel auf dem Spiel. Werbung macht einen beträchtlichen Teil der Einnahmen aus. Wenn jeder Nutzer Werbung blockiert, gibt es keine Werbeerlöse. „Dass digitaler Journalismus dann nicht mehr refinanzierbar ist und die Medienvielfalt im Internet gefährdet wird, liegt auf der Hand“, sagt der Leiter Medienrecht bei Axel Springer, Claas-Hendrik Soehring.

Das Unternehmen hält das Blockieren von Werbung über eine sogenannte Blacklist für rechtswidrig und ist nicht bereit, Eyeo Geld dafür zu bezahlen, um auf die weiße Liste zu kommen. Die Whitelist enthält Internetseiten, auf denen Werbung nach bestimmten Regeln zu sehen ist. Solche als akzeptabel eingestufte Werbung lässt Adblock Plus passieren. Soehring kritisiert das als „erpressungsähnlichen Vorgang: erst jemanden wegblocken und dann gegen Zwangsprovision wieder freischalten“.

Was sagt der Hersteller?

Auch Eyeo ist nach Angaben von Unternehmenssprecherin Laura Sophie Dornheim der Überzeugung, dass journalistische Inhalte finanziert werden müssen. Es gebe aber weitere Möglichkeiten neben der Werbung. „Wir sind der Meinung, dass es Werbung in einem akzeptablen Rahmen geben soll“, sagt Dornheim. Das sei der Grund für das Whitelisting. Ihr Unternehmen respektiere die Linie von Springer, bei Benutzung eines Adblockers den Zugang zu den Angeboten zu sperren.

Eyeo trete aber für einen Kompromiss ein, nämlich weniger und nicht aggressive Werbung zuzulassen. Solche Werbung laufe auch bei Adblock-Plus-Nutzern. Weil das mit Aufwand verbunden sei, verlange der Hersteller der Software eine Vergütung.

Was halten die Adblocker für angemessene Werbung?

„Sie darf nicht nerven“, sagt Dornheim. Kriterien seien etwa, dass Werbung höchstens 15 Prozent der Startseite einnimmt und nicht in der Mitte von Texten steht. Außerdem dürfen Video oder Sound nicht automatisch starten und keine Pop-ups verwendet werden. Dornheim betont, dass Eyeo nur in Deutschland rechtliche Auseinandersetzungen wegen Adblocker führen müsse.

Um welche Rechtsfragen geht es vor dem BGH?

Der Rechtsstreit dreht sich um die Paragrafen 4 und 4a des Gesetzes gegen den unlauteren Wettbewerb (UWG). Springer wirft Eyeo wettbewerbswidriges Handeln vor. Nach Paragraf 4 UWG handelt unlauter, wer Mitbewerber gezielt behindert. In Paragraf 4a UWG geht es um aggressive geschäftliche Handlungen, die Verbraucher oder andere Marktteilnehmer zu einer Entscheidung veranlassen, die sie sonst nicht getroffen hätten.

Was haben die Vorinstanzen entschieden?

Axel Springer unterlag vor dem Landgericht und erzielte vor dem Oberlandesgericht (OLG) einen Teilerfolg. Laut OLG-Urteil erfüllt Eyeo mit AdBlock Plus nicht den Tatbestand der gezielten Behinderung nach Paragraf 4 UWG, jedoch den der aggressiven geschäftlichen Handlung nach Paragraf 4a UWG. Eyeo veranlasse Unternehmen, die Blockade der Werbung durch Aufnahme in die Whitelist zu beseitigen. Damit müssten sie eine Dienstleistung in Anspruch nehmen, die sie ohne die Blockade nicht benötigt hätten.

Welche Folgen könnte die BGH-Entscheidung haben?

Wenn der BGH Blacklisting für rechmäßig erklärt, müssten Anbieter von Inhalten ihr Erlösmodell überdenken. Nach Springer-Angaben sind nur wenige Medien im Internet in der Lage, Erlöse über eine Bezahlschranke zu erzielen. Solle das vom OLG ausgesprochene Verbot des Whitelistings Bestand haben, könnten die Anbieter von Werbeblockern nicht mehr dafür kassieren, dass sie bestimmte Werbung durchlassen.

Für die Nutzer von Werbeblockern würde ein generelles Verbot bedeuten, dass sie wieder verstärkt Werbung auf ihren Bildschirm zu sehen bekämen. Allerings wäre ein Verbot gegenüber Wettbewerbern von Eyeo, die im Ausland sitzen, schwer durchzusetzen.

Für Anbieter von Webseiten gibt es noch einen weiteren Weg, gegen Werbeblocker vorzugehen. Es wäre zu klären, ob Internetseiten in ihrer Gesamtdarstellung vom Urheberrecht (Paragraf 69c Urheberrechtsgesetz) geschützt sind und der mögliche Eingriffgriff durch einen Werbeblocker in den Programmiercode unzulässig ist.

Sönke Möhl, dpa/si

]]>
Mobile Business Startseite it-zoom CRM
news-19612 Wed, 18 Apr 2018 19:15:51 +0200 Standards für die datengetriebene „Industrie 4.0“ http://www.it-zoom.de/dv-dialog/e/standards-fuer-die-datengetriebene-industrie-40-19612/ Assystem hat die Erarbeitung einer neuen DIN SPEC für ein „Referenzmodell für die industrielle Cloud Federation“ initiiert. Kick-off des Projektes war am 9. März; der Standard soll bereits Ende 2018 fertiggestellt werden. Die Innovationen bei Dienstleistungen und zunehmend datengetriebene Geschäftsmodelle im Umfeld der „Industrie 4.0“ erzeugen neue technische Anforderungen an die Kommunikation zwischen Maschinen und IT-Infrastruktur. Um die notwendige Interoperabilität und Kommunikation sicherzustellen, hat Assystem die Standardisierung eines entsprechenden „Referenzmodells für die industrielle Cloud Federation“ initiiert.

Partner aus Industrie und Forschung, neben Assystem u. a., Cedalo, DKE, die Fraunhofer-Gesellschaft, GE, Hitachi, IBM, Kuka, Microsoft, Phoenix Contact, Robert Bosch, Schaeffler, der Branchenverbände Bitkom und VDMA erarbeiten unter der Projektleitung des Deutschen Instituts für Normung e.V. (DIN) die SPEC 92222.

Wirtschaftlicher Erfolg ist zunehmend abhängig davon, wie die IT-Infrastruktur der Firma die Integration von Informationen und Daten externer Systeme oder Maschinen meistert. Diese Herausforderung hat Assystem gemeinsam mit Kunden und Partnern erkannt und die Erarbeitung einer neuen DIN SPEC initiiert.

Kommunikation von Maschinen

Betrachtet wird hierbei die Kommunikation von Maschinen (bzw. sogenannter Edge-Komponenten) in die Cloud eines fertigenden Unternehmens sowie unternehmensübergreifend zu weiteren Cloud-Systemen. Der Standard soll die Interoperabilität und Kommunikation zwischen beteiligten IT-Teilsystemen sowie physikalischen Geräten sichern; er richtet sich insbesondere an Betreiber und Hersteller von Maschinen und Anlagen, die Cloud-basierte Dienste und Systeme anbieten und nutzen, sowie an Anbieter von Remote-Services.

Konkrete Use-Cases stellen die Ausgangsbasis dar, um Lösungsmuster zu definieren. Diese werden in Form von Tests mit realer Hardware exemplarisch umgesetzt, so dass die Ergebnisse und Erfahrungen direkt in das Standardisierungsprojekt einfließen können. In Zusammenarbeit mit dem Cloud2Cloud-Testbed des Labs Network Industrie 4.0 (LNI 4.0) werden an Hand konkreter Fragestellungen des Mittelstands Inhalte des Standards zusätzlich praxisnah validiert.

Aus DIN SPECs können  Normen werden

Für den Erfolg einer Idee ist häufig entscheidend, wie schnell sie im Markt verbreitet wird. Die DIN SPEC ist der kürzeste Weg von der Idee zum Produkt. Keine Konsenspflicht und kleinere agile Arbeitsgruppen ermöglichen es, eine DIN SPEC innerhalb weniger Monate zu erarbeiten. Die DIN SPEC ist ein hochwirksames Marketinginstrument, das dank der anerkannten Marke DIN für eine große Akzeptanz bei Kunden und Partnern sorgt. DIN sorgt dafür, dass die DIN SPEC nicht mit bestehenden Normen kollidiert, und veröffentlicht die Standards auch international. Eine DIN SPEC kann die Basis für eine DIN-Norm sein.

Assystem Technologies, ein weltweit agierender Anbieter für Engineering-Dienstleistungen, Qualitätssicherung und Beratung mit rund 14.000 Mitarbeitern in 25 Ländern, verfügt über technische Know-how und Expertise bei komplexen und kritischen Systemen, erwirtschaftete 2017 rund 1 Mrd. Euro Umsatz. Die Tochter Assystem Germany bietet mit 1.100 Mitarbeitern an 13 Standorten in Deutschland Engineering- und Produktlösungen für die Branchen Automotive, Aerospace, Industry und Transportation.

Das Deutsche Institut für Normung e. V. (DIN) ist die unabhängige Plattform für Normung und Standardisierung in Deutschland und weltweit. Als Partner von Wirtschaft, Forschung und Gesellschaft trägt DIN wesentlich dazu bei, Innovationen zur Marktreife zu entwickeln und Zukunftsfelder wie Industrie 4.0 und Smart Cities zu erschließen. Rund 33.500 Experten aus Wirtschaft und Forschung, von Verbraucherseite und der öffentlichen Hand bringen ihr Fachwissen in den Normungsprozess ein, den DIN als privatwirtschaftlich organisierter Projektmanager steuert.

Bildquelle: Assystem / Power best / Shutterstock.com

]]>
DV-Dialog Industrie 4.0 / MES
news-19613 Wed, 18 Apr 2018 15:57:34 +0200 Moskau geht gegen Chatdienst Telegram vor http://www.it-zoom.de/mobile-business/e/moskau-geht-gegen-chatdienst-telegram-vor-19613/ Trotz der Sperrung von Millionen IP-Adressen können russische Behörden das Verbot des Chatdienstes Telegram im Land bislang nicht durchsetzen. Telegram ist in Russland weiter verfügbar, einige Nutzer der verschlüsselten Kommunikation sind nach Medienberichten auf unkontrollierbare Verbindungen ins Internet mit VPN-Tunneln oder dem Anonymisierungsdienst TOR ausgewichen.

Telegram selbst wechselte auf Server im Ausland. Um das zu unterbinden, ließ die Aufsichtsbehörde Roskomnadsor bis Mittwoch etwa 16 Millionen IP-Adressen blockieren, von denen 13 Millionen den US-Großanbietern Google und Amazon gehören. Die flächendeckenden Sperren legten aus Versehen aber andere Chatdienste wie Viber sowie Internethändler und einen Kurierdienst in Russland zeitweise lahm.

Das Vorgehen gegen Telegram und dessen Gründer Pawel Durow gilt als bislang massivster Versuch, den russischen Teil des Internets unter staatliche Kontrolle zu bringen. Die Sperrversuche stoßen zugleich auf den stärksten Widerstand. „Macht uns das Internet nicht kaputt“, forderte die Zeitung Moskowski Komsomolez. Die Wirtschaftszeitung Wemodosti kritisierte das „Flächenbombardement“ der Behörden.

„Ich danke euch russischen Telegram-Nutzern für eure Unterstützung und Treue“, sagte Durow, der sich im Ausland aufhält. Er dankte den Konzernen Apple, Google, Amazon und Microsoft dafür, dass sie sich nicht an der «politischen Zensur» beteiligt hätten. Durows Telegram-Dienst hat in Russland etwa 15 Millionen Nutzer. International sind es um die 200 Millionen Nutzer, und Durow will Telegram auch zu einem weltweiten Zahlungsdienst ausbauen.

Wegen der Verschlüsselung ist Telegram bei Oppositionellen in vielen Ländern beliebt. Der russische Inlandsgeheimdienst FSB vermutet, dass auch Terroristen die Kommunikation nutzen. Weil Durow sich weigert, die Verschlüsselung aufzuheben, hatte ein Moskauer Gericht vergangene Woche die Schließung verfügt.

Gleichzeitig zählen in Russland viele Politiker und Journalisten zu den Nutzern. Was denn mit den zwei offiziellen Kanälen des russischen Außenministeriums auf Telegram geschehen solle, fragte Sprecherin Maria Sacharowa. „Ich bin gegen eine Schließung“, sagte sie dem TV-Sender Doschd. Vor dem FSB-Gebäude in Moskau ließen Demonstranten Papierflieger steigen in Anspielung an das Telegram-Logo. Die Pussy-Riot-Aktivistin Maria Aljochina wurde deshalb am Mittwoch zu 100 Stunden gemeinnütziger Arbeit verurteilt.

Es fehle Durow an „Gesetzestreue und Verantwortung“, sagte der Leiter von Roskomnadsor, Alexander Scharow, der Zeitung Iswestija. Er gehe davon aus, dass Amazon und Google sich bald den Moskauer Forderungen beugen würden, um ihr Geschäft in Russland nicht zu gefährden. „Telegram sollte aus App Store und Google Play verschwinden“, sagte Scharow. Russische Terroristen sollten keinen Zugang mehr dazu haben.

Bedenken gegen Telegram gibt es allerdings auch in anderen Ländern. IT-Sicherheitsexperten kritisieren zudem, dass der hausgemachte Krypto-Algorithmus der Firma für Attacken anfällig sein könnte. Mit Telegram kann man wie bei Whatsapp oder dem Facebook Messenger chatten, Fotos und Videos austauschen oder telefonieren. Die App ermöglicht auch, bestimmte Kanäle zu abonnieren.

dpa/si

]]>
Mobile Business Sicherheit
news-19610 Wed, 18 Apr 2018 15:49:41 +0200 So funktionieren Chatbots im Kundenservice http://www.it-zoom.de/it-director/e/so-funktionieren-chatbots-im-kundenservice-19610/ „Die Antworten eines Chatbots hat sich irgendwann einmal ein Mensch ausgedacht. Deshalb sollten sie verbindlich und natürlich gesetzeskonform sein“, betont Matthias Mehner, Vice President Strategy and Innovation bei Whatsbroadcast. IT-DIRECTOR: Herr Mehner, ein Blick in die Praxis: Für welche Zwecke nutzen Unternehmen im Kundenservice heutzutage bereits Chatbots? Können Sie uns das eine oder andere konkrete Beispiel nennen?
M. Mehner:
Kundenservice ist ein recht weit gefasster Begriff. Er reicht von allgemeinen Neuanfragen bis hin zu „Aftersales“, also konkreten Beratungsanfragen rund um Produkte, Dienstleistungen und Services. „Klarmobil“ bietet mit dem Chatbock bei Facebook z.B. einen Rundum-Service für Kunden. Der Chatbot von „Wetteronline“ hingegen schickt jeden Morgen das Wetter meiner Stadt per Whatsapp – aber man kann ihn auch zur Wetterlage in anderen Städten befragen.

Klassischer Kundenservice sind aber auch die Rezept-Chatbots von „Lecker“ oder „Maggi“. Beide kann man nach Rezepten oder Zutaten fragen und bekommt jederzeit passende Vorschläge. Während „Lecker“ dazu noch jeden Tag Inspirationen rund um das Kochen liefert, bietet Maggi direkt zu jedem Rezept beispielsweise die Bestellmöglichkeit auf Rewe.de.

IT-DIRECTOR: Welche positiven Auswirkungen bringt die Chatbot-Nutzung im Kundenservice mit sich? Welche Nachteile sind damit verbunden?
M. Mehner:
Viele Menschen sind eher skeptisch, was Bots angeht. Zu diesem schlechten Image haben nicht zuletzt Hollywood-Science-Fiction-Filme wie „Terminator“ oder „Total Recall“ beigetragen. Dabei helfen uns bereits jetzt Bots schnell und zu jeder Zeit, unsere Bedürfnisse zu befriedigen – ähnlich wie ein persönlicher Butler. Nehmen wir Bankautomaten als Beispiel: Hier kann ich von 00.00 bis 24.00 Uhr Geld abhaben oder meinen Kontostand verwalten. Insofern ist die Automatisierung wichtiger Dienst- und Kommunikationsleistungen bereits heute fester Bestandteil unseres Wirtschaftslebens.

Grundsätzliche Nachteile sehe ich in diesen Entwicklung kaum: Sicher sind die heutigen „Chatbots“ noch lange nicht perfekt und enden oft in Sackgassen … Aber das ist eher ein Problem der durchdachten Konzeption als des Systems.

IT-DIRECTOR: Welche inhaltliche Limitierung gibt es Ihrer Ansicht nach derzeit für die Nutzung von Chatbots im Kundenservice?
M. Mehner:
Für Chatbots, die über „geführte Dialoge“ funktionieren – also etwa dem Nutzer Fragen stellen und auf dieser Basis zu einem Ergebnis kommen, gibt es eigentlich keine Limitierung. Auch hier ist es natürlich eine Sache der Konzeption: Haben sich die Entwickler alle gängigen Dialogszenarien vorgestellt?

An Grenzen stoßen Chatbots bei freier Eingabe – d.h. wenn ein Kunde seine Frage frei formulieren will. Hier muss der Chatbot den Text erst übersetzen und dann erkennen, was der entsprechende Kunde mit seiner Frage eigentlich will. Lernende Datenbanken und Eingrenzung der Themen können hier bereits jetzt helfen. Die weitere Entwicklung von Künstlicher Intelligenz – sei es in Chatbots oder bei der Spracherkennung – wird in absehbarer Zeit zum Massenphänomen.

IT-DIRECTOR: Inwieweit ist die rechtliche Lage geregelt? Können Chatbots überhaupt verbindliche Aussagen treffen?
M. Mehner:
Auch, wenn man bei rechtlichen Fragen üblicherweise auf einen Anwalt verweist – in diesem Fall ist die Antwort eindeutig: Die Antworten eines Chatbots hat sich irgendwann einmal ein Mensch ausgedacht. Deshalb sollten sie verbindlich und natürlich gesetzeskonform sein.

Unternehmen sind ohnehin gut beraten, zumindest am Anfang, einen hybriden Chatbot anzubieten – also im First-Level-Support, oder an Stellen, an denen der Chatbot die Antworten vorschlägt und ein Mensch prüft. Damit ist man auf der sicheren Seite und der Chatbot lernt, welche Antwort auf welche Frage im Zweifel die richtige ist. „Künstliche“ Intelligenz spielt in diesem Kontext kurz- bis mittelfristig nur eine untergeordnete Rolle.

IT-DIRECTOR: Worauf sollten die Verantwortlichen achten, die Chatbots für den weltweiten Kundenservice nutzen wollen? Welche ethischen, kulturellen oder sprachlichen Gepflogenheiten sollte man auf jeden Fall berücksichtigen?
M. Mehner:
Man sollte alle ethischen, kulturellen oder sprachlichen Gepflogenheiten berücksichtigen, wenn man seine Kunden zufrieden machen will. Das ist ansatzweise vergleichbar mit heutigen Call- oder Servicezentren.

]]>
Ina Schlücker IT-Director CRM
news-19609 Wed, 18 Apr 2018 15:25:37 +0200 Vom Flat Design zur Dialog-Gestaltung http://www.it-zoom.de/mobile-business/e/vom-flat-design-zur-dialog-gestaltung-19609/ Interface Design ist mehr als nur Icons. Einige Trends sterben nie aus, etwa der Farbverlauf. Aber es gibt auch Neues: Dialoge zum Beispiel. Ästhetik wird überbewertet. Diese Aussage wird den meisten UI/UX-Designern nicht gefallen, doch sie enthält mehr als ein Korn Wahrheit. Denn die erfolgreichsten Websites der Welt sind hässlich, wie der portugiesische Produktdesigner Dizparada sagt. Er nennt als Beispiele Craigslist, Reddit und Facebook. Trotzdem erfüllen sie ihren Zweck. Die Nutzer suchen dort ganz bestimmte Information, etwa Kleinanzeigen oder Diskussionen über alle möglichen Themen.

Der Sinn dieser populären Websites liegt eben nicht darin, den Anwendern eine ästhetische Erfahrung zu bieten. Die formale Präsentation der Informationen tritt hinter ihrem Nutzwert weit zurück. Dies betrifft alle Arten von Benutzeroberflächen: Bei UI/UX-Design geht es in erster Linie um möglichst einfache und unkomplizierte Darbietung von Infos. Ergänzt wird dies durch gestalterische Effekte, die den Blick des Nutzers auf Schlüsselelemente in der Benutzeroberfläche lenken. Die sollen eher auffallen als schön sein, das klassische Beispiel ist der Farbverlauf. Er wird im Moment wieder oft genutzt, weil er auffällig ist und Informationen hervorhebt.

Der Farbverlauf kommt zurück

Die Trends bei der Gestaltung von Benutzeroberflächen an Computern und Smartphones wechseln recht schnell. Vor ein paar Jahren kamen die „Flat Designs“ auf. Sie haben den Skeuomorphismus abgelöst, also die realitätsgetreue Nachbildung von Objekten. Das typische Beispiel ist eine Notizbuch-App, die wie ein Notizbuch aussieht. Im Flat Design sind dagegen klare Randbegrenzungen ohne Schlagschatten und dreidimensionale Effekte sowie flächige Vollfarben ein wichtiges Merkmal. Farbverläufe waren in Skeuomorphic Designs wichtig, in Flat Designs dagegen verpönt.

Doch inzwischen sind Farbverläufe wieder in. Einer der Vorreiter war Spotify, die einen Duoton-Farbverlauf zur Corporate Identity erwählten. Dass so etwas inzwischen wieder hip ist, zeigt sich nicht zuletzt daran, dass ein Prototyping-Tool wie Framer eine aufwändige Gradient-Toolbox besitzt. Gewöhnungsbedürftig dagegen war die Entscheidung von Facebook, Beiträge optional mit Farbverläufen als Hintergrund auszustatten. Die meisten Nutzer posten damit nachdenkliche Sprüche im Stile der bekannten Memes in Vong-Sprache: I bims, der Farblauf.

Überall kartenbasierte Designs

Ein zweiter Designtrend, der nicht mehr ganz neu ist, sich aber sehr stark verbreitet, sind Card Designs. Dabei werden zusammengehörige Inhalte in rechteckigen Bereichen präsentiert, die entfernt an Karteikarten erinnern. Ein typischer Anwendungsbereich sind Apps, in denen Informationsschnipsel gezeigt werden. Bekanntester Vertreter ist das Bildertausch-Netzwerk Pinterest.

Diese Form des Designs ist recht schnell populär geworden, da die Adaption einer Website an mobile Browser damit deutlich einfacher ist als bei anderen Design-Konzepten. Bei der Gestaltung der Benutzeroberfläche kann eine Karte gleichgesetzt werden mit dem Bildschirmbereich auf dem Smartphone. Für einen Desktop-Browser müssen nun einfach zwei, drei oder mehr Karten nebeneinander abgebildet werden - schon ist das Design PC-kompatibel.

Interface-Design für Alexa & Co.

Ein weiterer Designtrend hat nichts mit grafischen Benutzeroberflächen zu tun, im Gegenteil. Sprachassistenten haben für eine vollkommen neue Unterdisziplin im UI/UX-Design gesorgt, nämlich der Einsatz von natürlicher Sprache für das Bedienen von Apps. Obwohl solche Schnittstellen noch am Anfang sind, ist ein Problem bereits deutlich geworden: Bisherige Sprachassistenten müssen in einer formalen, an Befehlston erinnernden Diktion bedient werden - ohne Sätze wie „Alexa spiel Musik von Amanda Palmer“ läuft da gar nichts.

Deshalb kommen in Zukunft auf Interface-Designer vollkommen neue Aufgaben zu. Sie werden sich mit der Komposition eines Dialogverlaufs beschäftigen, der sinnvoll ist und menschlichen Nutzern einleuchtet. Diese Aufgabe ist etwa bei der aktuellen Version von Amazon Alexa eher mit Entwicklung zu vergleichen als mit Gestaltung, doch mit zunehmender Reife der Sprachassistenten wird es sicher einfachere Möglichkeiten geben.

Gemischte Realitäten gestalten

Ein letzter Trend lässt sich durch das Stichwort Augmented oder Mixed Reality (AR/MR) abstecken. Die Möglichkeiten von AR-Brillen sind begrenzt, doch sie werden in vielen Kontexten bereits eingesetzt - auch außerhalb der Gamer-Szene. So nutzen einige Unternehmen diese Datenbrillen bereits zur Unterstützung von Wartungstechnikern. Sie bekommen Informationen und Hilfen für die Reparatur von Maschinen ins Sichtfeld eingeblendet.

Hier entsteht ein neues Aufgabenfeld für UI/UX-Designer. Denn Standards und Faustregeln für die Gestaltung von virtuellen 3D-Objekten gibt es bisher nur wenige. So ist es möglich, die Position von Bauteilen an der richtigen Stelle in das Sichtfeld einzublenden und daneben eine Reparaturanleitung in Druckschrift. Diese unterschiedlichen, real und künstlich wirkenden Objekte erfordern eine neue Designsprache. Sie muss dafür sorgen, dass die Nutzer dieser Brillen nicht verwirrt werden, auch wenn sie in komplexen Umgebungen damit arbeiten.

VR-Anwendungen wie Tilt Brush zeigen zudem, dass Benutzerschnittstellen aus einer Kombination bewährter Elemente und neuer 3D-Objekte bestehen können. So sind die in der VR-App genutzten Werkzeugpaletten wie von Grafikprogrammen gewohnt einfach flache, zweidimensionale Bereiche. Doch sie sind in 3D-Form angeordnet, sodass der Nutzer schneller zwischen ihnen wechseln kann. Darüber hinaus können einzelne Werkzeuge von diesen Paletten entfernt und irgendwo in der VR-Umgebung angeheftet werden.

Bildquelle: Thinkstock

]]>
Ingo Steinhaus Mobile Business Startseite it-zoom IT-Markt
news-19608 Wed, 18 Apr 2018 15:08:40 +0200 Wie Künstliche Intelligenz bei der Diagnose hilft http://www.it-zoom.de/mobile-business/e/wie-kuenstliche-intelligenz-bei-der-diagnose-hilft-19608/ Ein wichtiger Bereich in der Medizin ist derzeit die Nutzung von Künstlicher Intelligenz (KI). Doch warum ist das Interesse daran so groß? Inga Bergen, Geschäftsführerin bei der Magnosco GmbH in Berlin, gibt Antworten darauf. Der Einsatz von Künstlicher Intelligenz (KI) in der Medizin birgt für Arzt und Patient gleichermaßen enormes Potential. Denn KI ermöglicht es, große Datenmengen in kurzer Zeit auszuwerten und zu analysieren. So werden beispielsweise frühzeitigere Diagnosen möglich und damit verbunden auch die schnellere Behandlung von Krankheiten.

In diesem Zusammenhang hat das Berliner Unternehmen Magnosco hat ein patentiertes Verfahren (Dermatofluoroskopie) zur Früherkennung von schwarzem Hautkrebs herausgebracht. Im Vergleich zum bisherigen Ansatz müsse der verdächtige Hautpartikel dabei nicht rausgeschnitten und eingeschickt werden. „Stattdessen kommt Infrarotlaserlicht zum Einsatz. Es regt das Hautpigment Melanin zum ‚Leuchten’ an, wodurch eine äußerlich bislang nicht sichtbare molekulare Struktur von Hautkrebs frühzeitig erkennbar wird“, erläutert Inga Bergen.

Frau Bergen, warum ist Künstliche Intelligenz gerade für die Krebserkennung interessant?
Inga Bergen:
Der KI-Einsatz kann helfen, Krebs schneller zu diagnostizieren. Für alle Krebsarten gilt: Je früher sie erkannt werden, desto besser sind die Heilungschancen. Bei der Diagnose von Krebs werden mitunter Verfahren eingesetzt, die durch den KI-Einsatz beschleunigt werden können. Ein Beispiel ist der Einsatz bildgebender Verfahren, wie MRT- und CT-Aufnahmen, anhand derer Radiologen ihre Diagnose stellen. KI, die sich optimal zur Bilderkennung und Bildanalyse eignet, kann hier bei der Auswertung helfen.

Ein anderes Anwendungsgebiet von KI liegt im Bereich Genomics, der Analyse von Erbinformation und Liquid-Biopsy-Diagnostik. Beides sind vielversprechende Diagnosemethoden, die bei der Früherkennung von Tumoren eingesetzt werden. Unter einer Liquid-Biopsy-Diagnostik versteht man die molekulare Analyse von Körperflüssigkeiten, insbesondere von Blut. Neben der physikalischen Blutanalyse wird für die Auswertung der DANN-Sequenzen bei beiden Verfahren ebenfalls auf KI zurückgegriffen. Zum einen, um in der DNA die veränderten Sequenzen zu entdecken, die auf Krebszellen hindeuten. Zum anderen, um damit Krebstherapien besser steuern zu können und Medikamente und Behandlungen spezifischer je Patient einzusetzen.

Wie funktioniert das? Wie weiß die Künstliche Intelligenz was Krebs ist und was nicht?
Bergen:
KI baut auf riesigen Datenmengen auf. Das richtige Anlernen und Setzen korrekter Bedingungen ist entscheidend für den Erfolg bei der Arbeit mit der KI. Zu Beginn wird die Künstliche Intelligenz trainiert, indem der Programmierer mit ihr Bilder und Proben analysiert, bei denen die Diagnose bekannt ist: das sogenannte überwachte Lernen. Damit wird der Ausgangsalgorithmus geschaffen und die Bedingung gesetzt, nach der die KI zunächst entscheidet und auf deren Basis sie weiter dazulernt.

Wie weit ist der Einsatz von KI bei der Krebserkennung aktuell?
Bergen:
Zum größten Teil befinden sich KI-Programme noch im Forschungsstadium. Es gibt aber auch bereits vereinzelt Unternehmen, die KI bei der Krebsdiagnostik anwenden.

Dazu zählt beispielsweise das chinesische Start-up Infervision. Das Unternehmen arbeitet mit mehreren chinesischen Klinken daran, Lungenkrebs mittels KI-Einsatz schneller zu diagnostizieren. Lungenkrebs ist in China aufgrund der hohen Luftverschmutzung eine der Haupttodesursachen. Gleichzeitig gibt es zu wenig Fachärzte und Radiologen, weshalb ein unterstützendes Verfahren bei der Krebserkennung hier sehr helfen kann. Infervision verwendet bei seiner Methode Deep Learning. Dabei lernt der Algorithmus mit jedem zu analysierenden CT-Bild oder Röntgenbild dazu und verbessert seine Fähigkeiten bei der Erkennung von Krebszellen im Lungengewebe. Ziel des Start-ups ist es, den Arzt zu unterstützen, indem die KI die gesunden Bilder aussortiert und der Arzt mehr Zeit für die Befundung der Bilder hat.

Inwieweit arbeiten Sie in der Krebserkennung?
Bergen:
Unser Fokus liegt auf der Früherkennung von schwarzem Hautkrebs. Das von uns entwickelte Medizingerät, das Magnosco DermaFC regt durch einen Infrarotlaser Melanin in der Haut an, das fluoresziert. Diese Fluoreszenzsignale zeigen eine Rotverschiebung, wenn es sich um ein Melanom handelt. Als Form der KI werden hier neuronale Netze eingesetzt. Diese analysieren die Fluoreszenzsignale des Lasers, bewerten sie und sprechen daraufhin diagnostische Empfehlungen für oder gegen die Entfernung der Läsion aus.

Werden Künstliche Intelligenzen unsere neuen Ärzte?
Bergen:
Nein. Der Einsatz von KI in der Medizin hat eine unterstuützende Funktion. Sie soll Ärzte und medizinisches Fachpersonal bei Analysen und Auswertungen entlasten. Die intelligenten Programme können Analyseaufgaben schneller bei gleicher oder sogar besserer Qualität und Genauigkeit schneller erledigen. Abläufe werden dadurch beschleunigt und komplexe Recherchen in Sekunden erledigt. Ein klarer Vorteil ist neben der Zeitersparnis, dass die KI neben der Erstdiagnose eine Zweimeinung für den Arzt liefert. Das kann bei Brust- und Hautkrebs beispielsweise helfen, unnötige Eingriffe zu vermeiden. Ich bin daher sicher, dass in den kommenden Jahren KI die medizinische Diagnostik durchdringen und die Krebsdiagnostik grundlegend verändern wird.

Bildquellen: Thinkstock/iStock, Magnosco

]]>
Mobile Business Startseite it-zoom Work-Life-Balance / Health
news-19607 Wed, 18 Apr 2018 14:56:52 +0200 Self-Service für Debitoren http://www.it-zoom.de/dv-dialog/e/self-service-fuer-debitoren-19607/ Trek Bicycle, das größte Fahrradunternehmen in den USA, automatisiert seinen weltweiten Forderungseinzug ab sofort mit der cloud-basierten Termsync-Technologie von Esker. Das Projekt mit dem Anbieter von Software für automatisierte Dokumentenprozesse begann im März 2017 und wird derzeit auf Trek-Kunden in Europa ausgeweitet. Trek, ein langjähriger Anwender des ERP-Systems JD Edwards auf der Plattform IBM i, verkauft rund um den Globus über 16 internationale Vertriebszentren und 5.000 unabhängige Händler, wobei 60 Prozent des Geschäfts aus dem Ausland kommen. Dank Esker verfügt der Fahrradhersteller nun über eine Management-Software für den Forderungseinzug, die von 32 Mitarbeitern in 18 Niederlassungen weltweit genutzt wird – für Debitorenaktivitäten wie Zahlungserinnerungen, Kontenabfragen, Anrufprotokollierungen, Kundenportalzahlungen, Inkassoprognosen, Ursachenanalysen und die Zusammenarbeit bei der Aufgabenverwaltung.

Standardisiertes Tool für den Forderungseinzug

Bisher gab es kein standardisiertes Tool für den Forderungseinzug. „Alltägliche Aufgaben wie das Versenden von Zahlungserinnerungen wurden manuell erledigt“, erinnert sich Andrew St. Clair, Global Director of Financial Services bei Trek Bicycle. „Das hat zwar funktioniert, aber es gab keine wirkliche Konsistenz in unserem Prozess. Wir brauchten eine globale Lösung, und die anderen Lösungsanbieter verfügten einfach nicht über die internationale Expertise von Esker.“

Esker arbeitete eng mit Trek zusammen, um die Benutzeroberfläche in 14 verschiedene Sprachen zu übersetzen – und half sogar bei der Erstellung einer Erklärung, die an die Kunden versendet wurde. „Die weltweite Einführung war eine große Sache, und Esker hat uns auf Schritt und Tritt begleitet“, sagt St. Clair. Durch die Automation habe man zahlreiche Vorteile erzielt, darunter:

  1. Reduzierung der Überfälligkeit um 4 Prozent
  2. Kürzere Forderungsumschlagsdauer
  3. Verbesserte Zusammenarbeit: Benutzer können sich in der Software anmelden, eine Rechnung auswählen und Aufgaben anderen Abteilungen zuweisen.
  4. Höhere Transparenz: Anpassbare monatliche Managementberichte können direkt über das Dashboard aufgerufen werden.
  5. Kunden haben jetzt Zugang zu einem Self-Service-Portal, um Zahlungen zu tätigen, Einstellungen zu verwalten usw.

Über Trek Bicycle

Trek Bicycle entwickelt Fahrräder, fahrradbezogene Produkten und Zubehör. Von Tour-de-France-tauglichen Rennrädern bis hin zu Dreirädern, die die nächste Generation von Radfahrern an die Möglichkeiten der Pedalkraft heranführen sollen, hat Trek unterschiedlichste Produkte im Programm. Trek glaubt, dass das Fahrrad eine einfache Lösung für viele komplexe Probleme wie Übergewicht, Verkehrsstaus und Klimawandel sein kann, und setzt sich dafür ein, Fahrräder häufiger für Alltag und Freizeit zu nutzen.

Bildquelle: Trek Bicycle

]]>
DV-Dialog FIBU REWE Controlling
news-19606 Wed, 18 Apr 2018 14:51:18 +0200 Die Lücke zwischen PLM, Analytik und KI schließen http://www.it-zoom.de/it-director/e/die-luecke-zwischen-plm-analytik-und-ki-schliessen-19606/ Durch die Verzahnung ihrer Expertise wollen die PLM-Experten Cenit AG und Delta Management Beratung einen Vorsprung rund um die Themen Digitaler Zwilling sowie Echtzeitdatenintegration aufbauen und damit die digitale Transformation von Unternehmen im Bereich Fertigung und Industrie 4.0 vorantreiben. Mit der Partnerschaft geht Cenit auch eine Kapitalbeteiligung an Delta ein. Für beide Partner ist es eigenen Angaben zufolge eine wegweisende Kooperation: Cenit habe sich als „Partner für die Digitale Transformation“ etabliert. Delta Management Beratung liefert Lösungen rund um den Digitalen Zwilling. Beide Unternehmen verfügen über Kompetenzen in den Feldern Product Lifecycle Management (PLM), Digitale Fabrik und Software-Entwicklung. Durch die Bündelung ihres Know-hows wollen die Partner ein Portfolio erschaffen, das die Themen PLM, Digitaler Zwilling und digitale Kontinuität auf ein neues Level heben kann. Profitieren sollen insbesondere Kunden in den Bereichen Fertigung und Produktion – ob Automotive, Maschinenbau oder Aerospace, Mittelständler oder Großunternehmen.

Einer der Schwerpunkte, den Delta in die Kooperation einbringt, ist ein cloud-basierter Lösungsansatz, der in Echtzeit arbeitet. Auf Basis eines speziellen fachlichen Modells können damit Planungs- und Fertigungsdaten mit Logik und Kontext angereichert werden. Dies soll die durchgehende Digitalisierung von Fertigungstechnik, Produktion, Logistik und prozessbegleitendem Qualitätsmanagement ermöglichen. In dieses Portfolio gehören unter anderem der Aufbau semantischer Echtzeitnetzwerke zur Abbildung von Geschäfts- und Fertigungssteuerung sowie digitale Lebenszyklusakten, die z.B. kontextbasierte Big Data Analytics und KI-Anwendungen (Künstliche Intelligenz) in der Fertigungssteuerung ermöglichen.

Die Ergebnisse, die Kunden damit realisieren können, heißt es, bringen ein Plus in Richtung Effizienz, digitaler Durchgängigkeit und Flexibilität in Fertigungsplanung und Produktion: Als Beispiele dienen die Vereinfachung der Shopfloor-IT, die dauerhafte Speicherung von Signalen und Informationen über Zustandsveränderungen im Bereich der Qualitätssicherung sowie ein leistungsfähiges Interface für Analysen, Simulationen und Reportings.

Bildquelle: Thinkstock/iStock

]]>
IT-Director Industrie 4.0 / MES