Taktgenaue Supply-Chain

Heutige Produktionsprozesse bestehen aus dem Ineinandergreifen vieler komplexer Arbeitsschritte. Der Ausfall einer einzigen sensib­len Komponente kann sehr hohe Kosten verursachen. Spezialisierte Dienst­leister reduzieren dieses Ri­siko: die Hochverfügbarkeits-Logistiker.

GO! zählt zu den führenden Anbietern von Dienstleistungen im Bereich der Hochverfügbarkeits-Logistik. Vor allem Unternehmen aus den Bereichen Medizin, Pharma oder IT nutzen diesen Service zunehmend. „Bei vielen Kunden sind wir direkt in die Service-Kette eingebunden,“ erläutert Ulrich Nolte, Geschäftsführer von GO! Express & Logistics (Deutschland) GmbH. „Das bedeutet, wir sind so gut in die Abläufe des Kunden integriert, dass wir Ersatzteile in unseren Stationen vorhalten und sofort reagieren können. Wir liefern rund um die Uhr in einem vorher festgelegten Zeitfenster an den Verwendungsort und fügen uns in die erforderlichen Betriebsabläufe ein.“ Durch die europaweit über 100 GO!-Stationen sind Reaktionszeiten von 30 bis 120 Minuten möglich.

„Bei vielen Kunden sind wir direkt in die Service-Kette eingebunden,“ erläutert Ulrich Nolte.

Doch das Dienstleistungsportfolio entwickelt sich immer weiter und endet schon längst nicht mehr mit der Ablieferung der Ware. Speziell geschulte Technische Kuriere übernehmen bereits den Austausch defekter Komponenten vor Ort. Dieser hohe Grad der Einbindung in die Supply-Chain-Prozesse macht eine IT- und Schnittstellenkompetenz zwi­ngend erforderlich, um den heutigen Anforderungen an Express- und Logistikleistungen entsprechen zu können.
Dennoch ist der persönliche Kontakt ein ebenso wichtiger Faktor. „Mitarbeiter und Kunden erreichen jederzeit einen fachkundigen Mitarbeiter in der jeweiligen Station, um Antworten oder Hilfestellung zu erhalten,“ erläutert Nolte. „So fühlt sich jeder nicht nur gut aufgehoben, es spart unter dem Strich auch jede Menge Zeit.“

Weitere Informationen unter:
www.general-overnight.com

Abwasser wird zur neuen Ressource

Wassermanagement in der Industrie ist ein Thema, das mitunter viel Expertise benötigt. Daher kann es sinnvoll sein, diese Aufgabe im Rahmen einer Betriebsführung an ein spezialisiertes Unternehmen zu übergeben.

Ein solches ist die EnviroChemie. Deren Spektrum an Dienstleistungen reicht von der einfachen Betriebsführung bis zum Contracting. Zugleich ist der Dienstleister auch in der Forschung aktiv. Zum Beispiel entwickelte EnviroChemie ein Verfahren zur Entfernung von Aluminium aus stark alkalischen Waschlaugen.

Das Geschäftsmodell des Contracting basiert darauf, dass der Dienstleister eine Anlage baut und finanziert, um sie anschließend zu betreiben. Der Kunde bezahlt – wie auch bei der Betriebsführung – einen Grund- und Men­­genpreis und gewinnt dadurch Planungssicherheit. Für einen lebensmittelverarbeitenden Betrieb habe man die Abwasserbehandlungsanlage im Rahmen einer Betriebsfüh­rung umfas­send optimiert. „Durch die optimierte Prozessführung konnte das Unternehmen den Strom­verbrauch um mehr als 55 Prozent und die zu entsorgende Schlammmenge um die Hälfte reduzieren“, so Claudia Müller, Projektmanagerin Geschäftsentwicklung bei EnviroChemie.

Wassermanagement muss an verschiedenen Stellen ansetzen.

Wassermanagement muss an verschiedenen Stellen ansetzen.

Denn aus den Abwas­serinhaltsstoffen wird Biogas erzeugt, das im Unternehmen an Stelle von fos­silem Erdgas zur Dampferzeugung ein­gesetzt wird. Kernstück der Optimierung ist der Biomar ASBx-Anaerobreaktor, über den Biogas aus Abwasser gewonnen werden kann. Im Jahr 2015 konnten so ca. 310 000 Nm³ Biogas aus Abwasser gewonnen und im Unternehmen statt fossilem Erdgas zur Dampferzeugung eingesetzt werden. „Grund­sätzlich sind Prozessoptimierungen im Bereich der industriellen Wasser- und Abwasserbehandlung in jeglichen Branchen mit entsprechendem produktionsbedingten Wasserbedarf möglich. In der Regel gibt es jedoch keine Lösung von der Stange. Je nach Branche, Standort sowie vorhandener Infrastruktur und Randbedingungen werden individuelle Konzepte erarbeitet“, erläutert Müller.

Notwendig sei die Beschäftigung mit dem Thema vor dem Hintergrund der neuen Regelungen zum Energiemanagement in jedem Fall. „Größere Unternehmen werden jedes Jahr Potenziale zum Energiesparen aufzuzeigen haben. Dies kann ebenfalls eine Motivation sein, in ein nachhaltiges industrielles Wassermanagement zu investieren. In vielen Fällen kann über Wärmerückgewinnung aus Abwasser ein entsprechendes Einsparpotenzial aufgezeigt werden“, stellt Müller dar. Neben den wirtschaftlichen Überlegungen zählt für die Auftraggeber oft auch noch ein anderes Argument: Ein externer Dienstleister kennt sich auch in allen rechtlichen Belangen aus, achtet auf die Einhaltung der relevanten Vorschriften und übernimmt alle behördlich notwendigen Prüfungen und Dokumentationen. Die Unternehmen minimieren damit ihr Haftungsrisiko.

Weitere Informationen unter:
www.envirochemie.de

 

Bildquelle / Lizenz: EnviroChemie

Open Source trifft Erfahrung

Individualität geht vor Technik: Michael Heuer, Country Manager Central Europe (DACH) bei Acquia in München, erläuterte im Gespräch mit der TREND-REPORT-Redaktion auf der diesjährigen dmexco, wie „Open Source“ Unternehmen bereichert.

Mehr denn je stellt Open Source eine Alternative im Enterprise-Segment dar. Dabei ist Open-Source-Software aber nicht automatisch gleichzusetzen mit „umsonst“. Vielmehr hat sie den Vorteil, dass man sich nicht von einem Dienstleister oder Softwareanbieter abhängig macht. Zudem ermöglicht sie, Technologien schneller zu nutzen und damit Innovation und Transformation voranzutreiben. Wie bei jeder Software kommt es hier darauf an, einen erfahrenen Partner an der Hand zu haben, der mitdenkt und hilft, die richtigen Weichen zu stellen.

Michael Heuer: Wichtig sind tragende Konzepte für eine optimale Individualisierung.

Michael Heuer: Wichtig sind tragende Konzepte für eine optimale Individualisierung.

„Die Bandbreite für Open Source ist sehr groß. Beispielsweise existiert Drupal als Web-Content-Management-System seit 15 Jahren. Über 30.000 Entwickler arbeiten permanent daran – das sind mehr, als jeder andere Softwareproduzent besitzt“, erklärt Michael Heuer. So hat Hubert Burda Media jüngst etwa das auf Drupal 8 basierende CMS fürs Publishing weiterentwickelt. Dieses Potenzial gilt es erst einmal richtig einzuschätzen und dann zu nutzen. „Unser Ansatz sieht folgendermaßen aus: Wir nehmen das Web-Content-Management-System Drupal und veredeln dieses als sichere Plattform-as-a-Service-Umgebung für unsere Kunden,“ so Heuer weiter. Der Beweis, dass dieser Ansatz funktioniert, zeigt sich in Kunden wie Pfizer, Syngenta oder Burda. Dabei geht es nicht darum, ein Produkt auszutauschen: „Wir ersetzen kein SAP-System oder den E-Commerce-Shop. Unser Ansatz ist es, diese Lösungen so zu verknüpfen, dass letztlich digitale ‚Experiences’ entstehen, die einen tatsächlichen Einfluss auf das Geschäft haben.“ Technik ist dabei nicht mehr das Limit, vielmehr die Frage: Wie will ich an den Markt? Was ist die beste Customer Experience? „Im Fokus“, so Heuer, „muss die Individualität stehen – und nicht mehr Konzepte wie B2B oder B2C.“ Customer Experience ist für ihn dann erreicht, „wenn die Individualität erlebbar wird. Wir skalieren das dann ins Enterprise.“

Weitere Informationen unter:
www.acquia.com

Bildquelle / Lizenz Portrait: Acquia GmbH

Indoor-Navigation

Im Interview schildert Gründer und Geschäftsführer Giorgios Karachos Kundennutzen und sinnvolle Einsatzgebiete von Indoor-Navigation

Herr Karachos, für welche Anwendungsszenarien im Einzelhandel eignet sich Indoor-Lokalisierung?

Grundsätzlich eignet es sich für die Nutzung in einem Shoppingcenter, besonders wenn es eine gewisse Größe hat. Daneben aber auch in Filialketten. In einem Shopping Center gibt es vielfältige Anwendungen, dazu zählt primär die Navigation des Kunden zu diversen Zielen, wie z.B. Shops, Stellplatz des eigenen Autos im Parkhaus, Service-Points. Im nächsten Schritt können die Kunden dann ebenfalls in den Shops zu bestimmten Bereichen geleitet werden.

Damit ist das Center in der Lage dem Kunden ein neues Erlebnis, nämlich die durchgehende Führung vom Betreten des Shoppingcenters bis zum Produkt zu ermöglichen. Der Kunde wird damit in die Lage versetzt, seinen Center Besuch z.B. zu Hause am PC vorzuplanen und sich über sein Smartphone anhand dieser Route bis zum Produkt durch das Center navigieren zu lassen.

Daneben ist auch die Navigation der Facility Management und Maintenance-Mitarbeitern zu bestimmten Wartungspunkten ein wichtiges Anwendungsszenario, da so auch Externe schnell und eindeutig zu Ihren Arbeitsstellen geführt werden können ohne komplizierte Pläne oder Personal des Centers nutzen zu müssen.

Diese Dienste können in angepasster Form auch von Filialketten angeboten werden. So können auch innerhalb der Shops Marketingflächen definiert werden und diese für gezielte Produkt-Werbung verwendet werden. Ganze Einkaufsstraßen können sich auch zusammenschließen und dem Kunden ein Shopping-Center ähnlichen Service anbieten

Neben diesen Dienstleistungen, die dem Kunden angeboten werden um seine Zufriedenheit zu erhöhen bieten sich unseren Kunden, hier stellvertretend dem Center, die Möglichkeit durch moderne Analyseverfahren das Kundenverhalten und die Kundenbewegungen zu verstehen und damit zu optimieren.

 

Wie könnten stationäre Einzelhändler dies in ihre Wertschöpfungskette integrieren, um bestmögliche Kundenbindung zu erzeugen?

Der Betreiber des Shopping Centers sowie die jeweiligen Einzelhändler können anhand genauer Analysen der Kundenbewegungen eine vergleichsweise sichere Aussage über die Vorlieben und Verhaltensmuster des Kunden im Shoppingcenter treffen. Dies hilft, das Angebot besser auf den Kunden einzustellen, Stärken und insbesondere Schwachstellen zu identifizieren und die Effizienz von Marketingmaßnahmen einzuschätzen.

In Verbindung mit diversen Daten aus der geografischen und geschäftsspezifischen Umgebung des Objektes lässt sich deren Einfluss auf das Kaufverhalten, die Verweildauer des Kunden und die Umsätze der Retailer feststellen.

 

img_0143-2

Indoor-Navigation versetzt Center in die Lage Ihren Kunden ein neues Erlebnis, nämlich die durchgehende Führung vom Betreten des Shoppingcenters bis zum Produkt zu ermöglichen“.

Aus der Betrachtung mehrerer diesbezüglicher Zyklen lässt sich hier eine nützliche Prognose ableiten, die Mittel- und langfristig eine Optimierung der Prozesse und Logistik des Retailers erlaubt.

Darüber hinaus lässt sich in Verbindung mit einer entsprechenden Applikation auf mobilen Endgeräten die Kundenbindung erhöhen, wenn im Austausch mit dem Vorteil der Navigation eine Bereitschaft des Kunden, seine Präferenzen und etwaige persönliche Daten mitzuteilen, eingetauscht werden kann. Auf diese Weise können Produkte und Dienstleistungen gezielt beworben werden.

Dies insbesondere, wenn ein Shoppingcenter mittels der Lokalisierung in Marketingflächen eingeteilt werden kann auf denen Kunden mit personalisierter Werbung angesprochen werden.

Ein zusätzlicher, nicht zu vernachlässigender Nebeneffekt für den Shoppingcenter-Betreiber ist hier die Möglichkeit, diese Marketingflächen an interne und externe Retailer und Dienstleister zu vermieten und somit die Investitionen in das System refinanzieren zu können.

Was für einen konkreten Nutzen hat der Endkunde von den Anwendungen – wie hilft ihm die Lösung?

Der Endkunde kann zunächst auf einfache Art und Weise seine bevorzugten Shops und gewünschte Servicepoints im Shoppingcenter finden. Ganz besonders positiv wird der Kunde diese Funktionalität insbesondere in größeren und unübersichtlichen Shopping-Centern empfinden.  Der spielerische Effekt dürfte dabei besonders die männlichen oder Technik-interessierten Kunden ansprechen.

Desweiteren ist die Möglichkeit gegeben, in Parkhäuser, die größtenteils nur noch schwer zu unterscheidende Bereiche aufweisen, sein Auto schnell und unkompliziert wiederzufinden. Ein Vorteil, den jeder Kunde insbesondere nach der ersten Erfahrung einer längeren Suche nach seinem Fahrzeug in einem großen Parkhaus zu schätzen wissen wird.

Darüber hinaus können die Kunden oder der Kunde in Verbindung mit einer entsprechenden Applikation auf seinem Smartphone oder Tablet ganz gezielt auswählen, welche Werbung und welche Benachrichtigungen über etwaige Sonderaktionen sie oder er erhalten möchte und wo im Center das geschehen soll.

Wie verläuft die konkrete Implementierung vor Ort?

Im ersten Schritt nehmen wir die Anforderungen des Kunden auf und spezifizieren gemeinsam das komplette System. Unter Umständen sind dabei auch Anpassungen an bereits vorhandene IT-Systeme des Kunden notwendig. Danach planen wir die Infrastruktur für die Lokalisierung mit Funkplanungs-Software basierend auf den Genauigkeits-Anforderungen. Schließlich erfolgt die Installation der benötigten Infrastruktur. Parallel zu diesen Schritten wird eine eigene mobile App für den Kunden erstellt oder eine bereits bestehende erweitert.

Nach einer Qualitäts-Überprüfung des kompletten Systems und natürlich auch der Genauigkeit kann der Kunde das System übernehmen. Zusätzlich bieten wir die vollständige Wartung oder auch den Betrieb des Systems an.

Die virtuelle Plastikkarte

Sie gilt gemeinhin als Statussymbol: die individualisierte Kreditkarte, vor­zugsweise in Gold- oder Platin-Ausführung. Doch Firmen wie Mastercard stellen angesichts Online-Shoppings und mobilem Bezahlens die Weichen längst Richtung Zukunft. Mit David Klemm, Head of Acceptance Development Germany bei Mastercard, sprach die TREND-REPORT-Redaktion darüber, wohin die Reise im Bezahlen vor dem Hintergrund der digitalen Transformation geht.

Kreditkarten der nächsten Generation werden vor allem digitale Versionen in Smart Devices sein. Dessen ist sich David Klemm sicher: „Momentan zeich­nen sich zwei Szenarien ab“, erklärt er. „Der Kunde bezahlt über die App eines der Giganten Google, Apple & Co. Oder er setzt mobile Apps seiner Bank bzw. seines Kartenemittenten ein. Mas­tercard-Lösungen unterstützen beide Varianten.“

Das Technologieunternehmen ermög­licht Unternehmen, mehr digitale Services anzubieten und die Digitalisierung aktiv und attraktiv zu gestalten. Verbraucher fragten verstärkt digitale Lösungen nach, beobachtet Klemm; ihnen will Mastercard dabei helfen, dass diese einfach zu nutzen sind und dabei ein Höchstmaß an Sicherheit ge­währleisten. Die Zukunft des Bezahlens sei demnach auch nicht mehr zu trennen von der Zukunft des Einkaufserlebnisses. Die Automatisierung z. B. täglicher Versorgungseinkäufe werde zu einem neuen Bezahlverhalten führen – für das der Technologieführer die geeigneten Methoden bereitstellt.

David Klemm berichtet über die Kreditkarten der nächsten Ge­neration und die Vorteile beim Bezahlen per Selfie.

Mastercard sitzt im Zentrum der Abwicklung von Online-Transaktionen im Han­del. Als solches treibt das Unternehmen die Forschung voran, um einerseits die Akzeptanz von Kartenzah­lungen zu erhöhen und andererseits den angeschlossenen Händlern neue Geschäftsmodelle zu ermöglichen. In eigens geschaffenen weltweiten „Mas­tercard-Labs“ werden für regional diver­gierende Gebräuche und Vorlieben beim Bezahlen unterschiedliche Methoden und Technologien entwickelt. Chief In­novation Officer Garry Lyons hat im ge­samten Unternehmen einen wahren Innovationsschub etabliert und macht Mastercard damit zu einem Vorreiter der digitalen Transformation. Die Qkr-Plattform ist eine solche neu entwickelte Möglichkeit des mobilen Bezahlens. Mit ihr kann der Kunde etwa im Fußballstadion seine Bratwurst bequem auf der Tribüne bestellen, anstatt sich in der kurzen Pause in eine lange Schlange einzureihen. Das System ist häufig in der Systemgastronomie anzutreffen, in Europa besonders in England, wo der Kunde am Tisch selbststän­dig seine Bestellung über eine App tätigen und auch gleich bezahlen kann.

Bequemlichkeit und Sicherheit

Das Thema Sicherheit steht im Kontext mobiler Anwendungen und Zahlungs­verfahren ganz oben auf der Agen­da. Hier haben diese Verfahren gegenüber der Karte mit Unterschrift oder Geheim­zahl sogar noch einen Vorteil, denn es kann dabei umfänglich Biometrie zum Einsatz kommen. Geschieht die Authen­tifizierung per Selfie oder Fingerabdruck, ist dies zum einen einfacher und auch der Sicherheitsgrad ist höher. Innerhalb von Millisekunden werden Hun­derte einzigartiger Variablen ab­ge­glichen. Hierzu hat Mastercard erst An­fang Oktober sein Angebot einer App für biometrische Bezahlverfahren ohne Passworteingabe beim Online-Shopping vorgestellt, die die Banken ihren Karteninhabern anbieten können, um eine sichere, einfachere und bequemere Alternative zu Passwörtern zu haben, die man entweder ständig vergisst oder die unsicher sind, weil zu häufig die gleichen benutzt werden.

Weitere Informationen unter:
www.mastercard.de

 

lesen Sie mehr: Das ausführliche Interview mit Herrn David Klemm

Testen Sie sich!

Der Industrie-4.0-Check -up des Fraunhofer IFF hat einen branchenunabhängigen
Test auf Basis eines digitalen Reifegradmodells entwickelt, der Verantwortlichen hilft ihre individuelle Situation zu prüfen und Digitalisierung exakt zu planen.

 

INDUSTRIE 4.0 CHECK-UP

Dipl.-Ing. Holger Seidel

 

1 Einleitung

Mittels Cyber-Physischer Systeme (CPS) soll es in Zukunft möglich sein, die Individualisierung der Produktion voran­zutreiben, um mit den bisherigen Effizienzmaximen kun­den- und auftragsflexibel zu agieren. Planungs- und Steuerungsinformationen sollen fortan nicht mehr nur über unternehmensinterne Netzwerke kommuniziert werden, sondern zusammen mit Betriebs- und Kundendaten die interne Effektivität weiter erhöhen und neue Geschäfts­modelle ermöglichen. Die eigentlichen Produkte, deren Werkstücke und Bauteile, Maschinen, Anlagen und Infrastruktureinheiten tauschen relevante und situationsge­rechte Informationen aus und nehmen somit direkten Einfluss auf ihre Produktions- und Logistikprozesse. Intel­ligente – auf Massendaten und Mustererkennung basie­rende – Prognosesysteme sollen vorausschauend Probleme und Chancen identifizieren und Unternehmensprozesse in Summe schneller, sicherer und effizienter ablaufen lassen. Teilautonome Arbeitssysteme synchronisieren sich eigen­ständig. Die Arbeitswelt, so wie der Mitarbeiter sie derzeitig kennt, wird sich wandeln. Automatisierung und intelligente Assistenzsysteme erhalten Einzug und unterstützen den Mitarbeiter in den direkten aber auch in den indirekten Unternehmensbereichen [1].

Im Ergebnis könnten kundenindividuelle Produkte bedeu­tend günstiger produziert werden, als es heute der Fall ist. Denn Unternehmen erhalten ein Mehr an Flexibilität, wenn beispielsweise instandhaltungsbedingte Ausfälle besser und vernetzt prognostizierbar sind oder sich an­dernorts z. B. Lieferantenausfälle abzeichnen. Der Funkti­onsumfang einer Maschine wird sich mehr und mehr durch das steuerungstechnische Know-how auszeichnen. Redundanzen werden sich weitreichend erübrigen, sodass sich die Produktivität weiter steigern lässt. Durch die Etablierung von stark vernetzten, dezentralen und selbst­organisierenden Regelkreisen werden langfristig zentrale Steuer- und Planungssysteme abgelöst [2].

Die wesentliche technologische Hürde liegt in der durch­gängigen Verknüpfung der verschiedenen Prozessebenen und der dadurch erforderlichen Synchronisation aller wesentlichen Prozessdaten. Da zukünftig auch der kun­denindividuelle Entwicklungsprozess am Anfang eines Produktlebenszyklus zunimmt und ressourcenschonende Konzepte zur Wiederverwertung und Verwendung am Lebenszyklusende an Bedeutung gewinnen, muss diese Datenintegration über den eigentlichen Herstellungspro­zess hinausgehen. Doch bereits hier scheitert heute die breite Mehrheit in der Industrie, wenn es darum geht, die Informationskette, beginnend bei der Verarbeitung der Auftragseingänge, über das gesamte Ressourcenma­nagement der eigenen Produktion und der erforderlichen Zulieferprozesse, bis hin zur Auslieferung des fertigen Endprodukts durchgängig abzubilden und aussagekräftig als Steuerungs- und Optimierungsbasis zu nutzen. Hard- und softwareseitige Schnittstellenprobleme und fehlende Kommunikationsstandards machen den Unternehmen genauso zu schaffen wie die nachhaltige Problemfindung, Analyse und Ableitung essentieller Ursache-Wirkungs­Beziehungen zur Konzeption und Implementierung ge­kapselter, selbststeuernder Regelkreise. Doch die durch­gängige IT-unterstützte Abbildung dieser Regelkreise gilt als Erfolgskriterium für die Industrie 4.0. Da auch voran­gegangene Bestrebungen wie der Supply Chain Ma­nagement-Ansatz aus den 2000er Jahren mithilfe der damals verfügbaren SCOR-Modelle (Supply-Chain­Operations-Reference) nicht im Stande war, derart kom­plexe Abläufe hinreichend onlinefähig und in Echtzeit abzubilden, sind noch viele Forschungsfragen unbeant­wortet [3]. Der Schwerpunkt der maßgeblichen acatech­Studie obliegt der Standardisierung auf ‚Shopfloor’- Ebene. Im Fokus stehen sichere Informationskanäle, die die Anforderungen an den Quality of Service, d. h. La­tenzzeiten, Bandbreiten, aber auch entsprechender Neut­ralisierungs- und Verschlüsselungstechnologien und Stan­dards erfüllen und neben der Handhabung auch das Vertrauen für eine unternehmensübergreifende Zusam­menarbeit und Integration bilden. Bis dato fehlt es an einem dem USB-Konzept (Universal Serial Bus) vergleich­baren, etablierten Standard, wenngleich die Ansätze des IIC (Industrial Internet Consortium) mit der MTConnect­Standardisierung in die richtige Richtung zeigen.

Doch wie kommt ein Unternehmen mit der Zielstellung ‚Industrie 4.0‘ nun zur ‚Fabrik der Zukunft‘? Ist es in sei‑

ner Branche, mit seinem Produkt und seinen Fabrikstruk­turen überhaupt für diese visionären Konzepte geeignet oder sind die Potenziale z. B. durch Massenproduktion, kontinuierliche oder hochautomatisierte Prozesse eher gering? Selbst die Kenntnis über die prinzipielle Eignung ist für Unternehmer wenig zielführend, da die Implemen­tierung eines ‚weiteren IT-Systems von der Stange‘ per se ebenso wenig zur erhofften Revolution führt, wie der Kauf multisensorischer Automatisierungslösungen als ‚Pseudo-CPS‘.

2 Evolution statt Revolution

Statt der beschworenen Revolution in Form eines abrup­ten und grundlegenden Strukturwandels des Unterneh­menssystems wird es eine Evolution sein, die eine für alle Beteiligte nachvollziehbare, allmähliche Systemverände­rung ermöglicht. Der Weg zur ‚Fabrik der Zukunft‘ kann im Brownfield-Umfeld gewachsener Strukturen nur schrittweise in Form eines Stufenmodells erfolgen. Doch auf welcher Stufe von Industrie 4.0 befindet sich ein Unternehmen? Womit sollte begonnen werden? Welche Auswirkungen zieht Maßnahme X auf Funktion oder Bereich Y nach sich? Mit dem durch das Fraunhofer IFF Magdeburg entwickelten »Industrie 4.0-CheckUp« kön­nen diese Fragen schnell beantwortet werden. Die Analy­sen des Instituts untersuchen dabei grundlegend zwei thematische Schwerpunkte. Auf Unternehmens- und Bereichsebene sind technologische und organisatorische Fragestellungen vordergründig, während auf Arbeitsplat­zebene die ergonomischen Rahmenbedingungen der Mitarbeiter im Mittelpunkt stehen.

Wichtig ist zunächst die Schaffung der entsprechenden Daten- und Informationsbasis. Mittels verschiedener Vor­Ort-Analysen und persönlich geführter Interviews erfolgt im Rahmen des »Industrie 4.0 CheckUp’s« die strukturier­te Herangehensweise und Lösungsentwicklung. Die Do­kumentation und Integration des Prozess-Know-hows der langjährig tätigen Meister und Werker ist genauso rele­vant wie das planerische Wissen und die technologischen Einschätzungen der Ingenieure. Als top-down-initiiertes Management-Konzept zur Etablierung neuer Strukturen und Technologien (Business Process Reengineering) ver­spricht ein darin bottom-up-seitig integrierter kontinuierli­cher Verbesserungsprozess (KVP) eine hohe Umsetzungs­chance, da Lösungen durch die breite Belegschaft mit­entwickelt und akzeptiert werden. Angepasst an das jeweilige Unternehmen wird die Begriffswelt Industrie 4.0 mit den Spezifika des Unternehmens logisch verknüpft, anschaulich dargestellt und dadurch als Thema für die Mitarbeiter greifbar.

Auf Basis der entwickelten Potenzialanalyse zur Einfüh­rung und Umsetzung von Technologien für eine vernetzte Produktion, werden z. B. folgende Bereiche betrachtet:

– Produktion, Logistik, Information und Kommunikation

– Arbeitsplatzgestaltung und Ergonomie

– IT-Management, -Service und -Sicherheit

– Energie- und Ressourcenmanagement

3  Schritt für Schritt zur Industrie 4.0

 

check-up

Abbildung 1: Integrationsstufen zur Fabrik der Zukunft. © Fraunhofer IFF

Mittels der Basisanalysen erfolgt die Einordnung des betrachteten Unternehmens in die Integrationsstufen von Industrie 4.0. Diese Unternehmenseinstufung gibt genaue Auskunft, wo das Unternehmen hinsichtlich der Anforde­rungen von Industrie 4.0 steht. Durchgeführte Industrie 4.0-CheckUp’s in Unternehmen haben gezeigt, dass es Unternehmensbereiche gibt, in denen intuitiv und iterativ mehr Aktivitäten und Projekte durchgeführt wurden als in anderen Bereichen. Das kann dazu führen, dass innerhalb eines Unternehmens verschiedene Integrationsstufen von Industrie 4.0 existieren. Medienbrüche und Schnittstellen­probleme unterschiedlicher Technologiegenerationen äußern sich als Verbesserungshemmnis. Diesen Konstruk­ten aus Inseloptima fehlen dann zumeist die interdiszipli­nären und prozessorientierten Gesamtkonzepte. Die Aufgabe besteht nun darin, auf dieser erarbeiteten Grundlage Innovationstreiber zu identifizieren und zu priorisieren, konkrete Maßnahmen je Bereich abzuleiten und in den Gesamtfokus zu stellen, verschiedene Handlungsalternativen inkl. Erfolgsprogno­sen zu betrachten, Reifegradermittlungen und Aufwand-Nutzen­Abschätzungen durchzuführen und Entscheidungsunterstützungen bei möglichen Investiti­onsvorhaben zu geben, um alle Bereiche auf die gleiche Integrationsstufe anzuheben.

Hierbei gehören Sensibilisierungs- und Qualifizierungs­maßnahmen der Mitarbeiter und darauf aufbauend die Erörterung der Lösungskonzepte in den Detailfragen gleichermaßen dazu wie Prozess- und Technologieände­rungen bzw. -anpassungen, um aus der Vision Industrie 4.0 Schritt für Schritt Wirklichkeit werden zu lassen.

4 Überschaubar im Aufwand – bewährt in der Anwendung

Die Bearbeitung des »Industrie 4.0-CheckUp’s« muss durch ein erfahrenes Team aus Technologie- und Prozess­gestaltern unter Einbeziehung der Unternehmensmitar­beiter durchgeführt werden. Bewährte Methoden, angepasst an die Anforderungen und Belange von Industrie 4.0, wie z. B. Technologie-Scouting, Aufwand-/Nutzen­Analysen, SWOT-Analysen, Szenario-Technik und daten­bankbasierte Toolsets kommen zum Einsatz. Je nach Größe und Komplexität des Unternehmens erfordern die Untersuchungen ca. ein bis drei Monate zeitlichen Auf­wand. Eine gewerke- und querschnittsorientierte Analyse gewährt dabei eine aussagekräftige Einschätzung zum Reifegrad des Unternehmens.

Mit dem »Industrie 4.0-CheckUp« lassen sich die ersten Hürden auf dem Weg zu Industrie 4.0 unkompliziert überwinden. Darüber hinaus lassen sich weiterführende potenzielle Effizienzsteigerungen und Kostenreduzierun­gen identifizieren, die der Wahrung der Innovationskraft als Wettbewerbsvorteil dienen.

Die industrielle Revolution hat Fabriken und Fabrikinfra­strukturen zum Inbegriff und Mittelpunkt industriellen Wirtschaftens gemacht. Die fortschreitende Globalisie­rung und die zunehmende Ressourcenverknappung ha­ben im 20. Jahrhundert zu einem enormen Wettbewerb aus Kosten- und Innovationsdruck geführt. Doch die bisherigen konventionellen Wertschöpfungsparadigmen, mit der vorrangigen Erzielung von Skaleneffekten zur Kostenminimierung, widerstreben den hohen Anforde­rungen zunehmend urbanisierter Gesellschaften. Neben dezentralen Produktionsstrukturen, bedarf es deshalb wandlungsfähiger, vernetzter und ressourceneffizienter Fabriken. Der Mensch im Spannungsfeld zwischen demo­grafischem Wandel, wechselnden Qualifizierungsanforde­rungen und dynamischen Migrationsentwicklungen benö­tigt eine sowohl erfüllende als auch nutzbringende Rolle im Gesamtkonstrukt, ohne dabei aber weiteren Produkti­vitätssteigerungen im Weg zu stehen. Wie sich diese Rolle in Anbetracht der Vision ‚Industrie 4.0‘ verändert und welche Erfordernisse dieser Wandlungsprozess für Mensch und Maschine im vernetzten und geteilten Ar­beitsraum mit sich bringt, sollen die Forschungen in Mag­deburg zeigen. Denn die Vielfalt produktions- und infor­mationstechnischer Realisierungsmöglichkeiten auf der einen Seite und die differenziert zu betrachtenden Wer­kerprofile im Rahmen komplexer werdender Arbeitsplätze auf der anderen Seite lassen keine pauschalisierte Emp­fehlung oder Tendenz zu. Der »Industrie 4.0-CheckUp« soll hier unternehmensindividuell Aufschluss bringen und die nächsten nötigen Schritte entscheiderfreundlich auf­zeigen.

Es bedarf letztlich anwendungserprobte, situative und mitarbeiterindividuelle Konzepte, die dem Menschen dort intelligent und smart assistieren, wo dessen Tätigkeit in der Produktion von morgen wertschöpfend und gefähr­dungsfrei sinnvoll ist. Zu solchen Konzepten zählen virtu­elle Assistenz- und Steuerungssysteme durch Virtual- und Augmented-Reality-Anwendungen (VR/AR) zur Beherrschung komplexer, sich schnell wandelnder Arbeitsabläu­fe gleichermaßen wie die physische Unterstützung durch Roboter.

5  Der Mensch im Mittelpunkt des CheckUp`s

Der Mensch derzeitiger Produktion ist permanent ge­stresst, körperlich beansprucht, oft unfallgefährdet und unkonzentriert. Daher liegt ein Forschungsbestreben des Fraunhofer IFF Magdeburg darin, den Menschen so in die Produktion zu integrieren, dass eine gesunderhaltende und wertschöpfende Arbeit in allen Phasen des Berufsle­bens unter der fortschreitenden Automatisierung im Rahmen von ‚Industrie 4.0’ möglich ist. Einsatzfelder für Assistenzsysteme in der Produktion bietet die Mensch­Roboter-Kollaboration im geteilten Arbeitsraum, die eine Überschneidung der Arbeitsräume von Robotern und Werkern nicht mehr durch Schutzzäune ausschließt, sondern gar erfordert. Denn die gleichzeitige Bewegung des Roboters und des Werkers und ein damit verbunde­ner Kontakt sind als physische Assistenz konsequenter­weise erwünscht. Konzepte wie das «Robot Farming« [4] ermöglichen zunehmend enttaktete Fertigungen, wohin­gegen Roboter andernorts dem Werker beispielsweise komplizierte Handhabungen und Montagevorgänge schwerer Teile erleichtern. Physische und visuelle/optische Assistenz manueller Tätigkeiten kann damit einen direk­ten Beitrag zur Verbesserung der Ergonomie und Sicher­heit leisten. Fehlervermeidende, zeitoptimierte und folg­lich produktivitätssteigernde Abläufe erhöhen darüber hinaus das Qualitätsniveau. So wird der Investitionsbedarf für ein intelligentes Arbeitssystem nicht allein durch die erzielte Unfallverhütung und Vermeidung von Langzeit­schädigungen begründet, sondern betriebswirtschaftlich durch Effektivitäts- und Effizienzsteigerungen gerechtfer­tigt.

6   Ausblick

Das Fraunhofer IFF Magdeburg bietet mit dem Ebenen­übergreifenden CheckUp ein gesamtheitliches Werkzeug- und Methodenset, das eine schrittweise Integration zur Umsetzung von Industrie 4.0 ableitet. Ob in der überge­ordneten Fabriksicht, in den Teilbereichen und Quer­schnittsfunktionen oder aber auf Ebene der Arbeitsplatz­gestaltung des Werkers in einer zunehmend stattfinden­den Mensch-Maschine-Kollaboration: Die Zielstellung der Analysen liegt stets in der fundierten und bewertbaren Empfehlung konkreter Handlungsalternativen. Doch um Schritt zu halten, ergänzt und vertieft das For­scherteam den CheckUp stetig. Neue Fertigungstechno­logien in Verbindung mit neuen (Verbund-)Werkstoffen, wie etwa Carbon, verändern kontinuierlich die Rahmen­bedingungen, die dann wieder adäquat in den Entschei­dungsprozess involviert werden müssen. Fabriken und ihre Infrastrukturen, Arbeitsplätze und ihre Qualifizierungsanforderungen werden sich abhängig und im Einklang mit der Weiterentwicklung der IT-unterstützten Logistik- und Steuerungsprozesse auch in Zukunft wan­deln. Mit dem Fortschreiten von Industrie 4.0 aller Vo­raussicht nach noch schneller und vielfältiger. Die Kon­zepte zur räumlichen Anordnung ganzer Maschinenfol­gen und Produktionslinien, inkl. dessen Ver- und Entsor­gungsprozessen, stehen im Vordergrund verstärkter Flexi­bilitätsanalysen. Denn ist ein Produktionssystem in Bezug auf Qualität, Durchlaufzeit und Kostenbilanz stimmig, ergeben sich vielerlei Potenziale einer volatilen Produkti­on. Diese kann nachfrage- und gewinnorientiert an den Zukunftsmärkten für produzierte Endprodukte agieren, gleichzeitig aber auch Ressourcen und Energie schonen und weiterführende Dienstleistungen generieren.

7          Literatur

  • Bundesministerium für Bildung und Forschung: Neue Technologien, Informationsgesellschaft, IKT2020, Industrie 4.0; Zukunftsbild «Industrie 4.0«.
  • Schenk, M. : Instandhaltung technischer Systeme. Methoden und Werkzeuge zur Gewährleistung eines sicheren und wirtschaftlichen Anlagenbetriebs. Berlin Heidelberg 2010.
  • Holweg, M.; Pil, F. K.: The Second Century – Recon­necting Customer and Value Chain through Build-to­ Cambridge 2004.
  • Daimler AG – Mercedes-Benz Cars: Pressemitteilung zum Produktionskonzept Robot Farming, Online: http://media.daimler.com/dcmedia/0-921-656186-49- 1708460-1-0-0-0-0-0-0-0-0-1-0-0-0-0-0.html. Zugriff: 03.2016.

 

Quelle: http://www.iff.fraunhofer.de/content/dam/iff/de/dokumente/publikationen/iff-wissenschaftstage-2015-digital-engineering-tagungsband-fraunhofer-iff.pdf#page=15

 

Lizenz Aufmacherbild: Fraunhofer IFF

InsurTech

Laut einer McKinsey-Studie könnte in den nächsten zehn Jahren jeder vierte Arbeitsplatz in der westeuropäischen Versicheungsbranche verloren gehen.

Die zunehmende Automatisierung in der Branche wird einige Stellen in Zukunft schlicht weg überflüssig machen. Besonders hart trifft es dabei die Verwaltung, wo fast die Hälfte der Vollzeitjobs ersetzt oder zusammengelegt werden könnten. Die Profiteure der Automatisierung sind die InsurTechs, die für immer mehr Wirbel in der Assekuranz sorgen. Sie setzten von vornherein auf hochautomatisierte Lösungen und verzichten auf Geschäftsstellen. Die Folge: Sie können oft sowohl effizienter als auch kostengünstiger arbeiten als klassische Versicherer und bieten häufig innovative Zusatzlösungen an. Zu den populärsten Innovationen zählen, die Spotversicherungen – Kurzzeitversicherungen für ein bestimmtes Ereignis, wie eine Probefahrt oder ein Stadionbesuch – und die Peer-to-Peer-Versicherungen. Hierbei schließen die Kunden über eine Plattform eine Versicherung ab und bilden mit anderen Kunden ein kleines Netzwerk. Innerhalb dieses Netzwerks unterstützt man sich bei kleineren Schäden finanziell und nur bei größeren Schäden wird tatsächlich die Versicherung eingeschaltet. Das spart den Versicherungen Geld, wodurch die Versicherten im Schadensfreifall am Ende des Jahres einen Teil der Beiträge zurückerhalten.

Unter besonderer Kritik stehen Vermittlerportale bei denen häufig auch per App der günstigste Tarif abgeschlossen werden kann. Hier wird vor allem die Transparenz beklagt, da das auf Provisionen beruhende Geschäftsmodell für den Kunden oft nicht erkennbar ist. Zusätzlich findet der Vergleich oft nicht über die Qualität des Produkts und den tatsächlichen Bedarf des Kunden statt, sondern ausschließlich über den Preis.

Lizenz Aufmacherbild:

Kollegen sind wichtiger als Geld

Ein Beitrag von Ute Riester, Field Product Manager Client Solutions bei Dell in Frankfurt am Main, zur Future Workforce Study über die Beschäftigten in einer sich verändernden Arbeitswelt.

Die Digitale Transformation verändert auch die Arbeitswelt massiv. In der Studie „Future Workforce“ haben Dell und Intel die Stellung der Mitarbeiter zu ihrer Arbeit erneut untersucht. Die Beschäftigten sind zwar alles andere als „technikfeindlich“, aber sie ziehen in ihrer Arbeit herkömmliche Formen der Kommunikation doch vor.

Die Digitale Transformation verändert nicht nur Geschäftsprozesse und Geschäftsmodelle, sondern auch die Arbeitswelt grundlegend. Dabei unterscheiden sich die aktuellen Veränderungen von denen früherer Dekaden, etwa der 80er-Jahre im Zuge der Einführung der PC-Technologie. Der nun durch die Digitalisierung initiierte Wandel ist umfassender, denn er betrifft alle Branchen und alle Berufsgruppen: Banken und Versicherungen, den Handel, die Industrie, die Medien oder das Gesundheitswesen. Anders als früher sind jetzt auch alle Ebenen der Arbeitsprozesse betroffen. Intelligente Tools, vernetzte, selbstlernende Systeme oder „künstliche Intelligenz“ können Prozesse auf breiter Front automatisieren und effizienter organisieren. Und es werden nicht mehr nur wie bisher Routi-netätigkeiten automatisiert, sondern auch qualitativ hochwertigere Aufgaben von Wissensarbeitern, beispielsweise von Lehrern, Journalisten, Bibliothekaren, Anwälten oder Ärzten. Ihre Tätigkeiten können von intelligenten Systemen unterstützt oder in Teilbereichen sogar übernommen werden.

Dadurch entstehen neue Modelle des Arbeitens. Traditionelle Arbeitsstrukturen lösen sich in vielen Sektoren langsam auf oder werden zurückgedrängt. So arbeiten die Beschäftigten immer öfter in virtuellen Teams, die unabhängig von festen Orten für Projekte aus wechselnden Mitgliedern zusammengestellt werden. Andere Mitarbeiter arbeiten flexibel im Homeoffice, wieder andere als Freelancer mal für dieses, mal für jenes Unternehmen.
Die Strategen der Digitalisierung berücksichtigen solche Entwicklungen meist nur am Rande. Dabei müssen alle Veränderungen der Digitalen Transformation letzten Endes von den Beschäftigten umgesetzt werden: Die Arbeit wird sich zwar verändern, aber sie wird nicht verschwinden. Ob und wie weit die Mitarbeiter für die Digitalisierung tatsächlich bereit sind, bleibt in der Regel außerhalb der Betrachtung. Dabei besteht darin eine ganz wesentliche Voraussetzung für einen erfolgreichen Transformationsprozess.

Ute Riester: „Flexible Arbeits- und Lebenszeitmodelle müssen ebenso entwickelt werden wie neue Formen der Zusammenarbeit.“

Ute Riester: „Flexible Arbeits- und Lebenszeitmodelle müssen ebenso entwickelt werden wie neue Formen der Zusammenarbeit.“

Future Workforce Study

In der Studie „Future Workforce“ haben Dell und Intel die Stellung der Mitarbeiter zu ihrer Arbeit vor dem Hintergrund der dafür eingesetzten Technologien, aber auch auf Basis psychologischer Aspekte wie der generellen Einstellung zur Arbeit untersucht. Für die Studie wurden im Mai 2016 rund 3.800 Beschäftigte in den USA, in Großbritannien, Frankreich, Brasilien, Indien, China, Japan, Südafrika und Kanada befragt; in Deutschland umfasste die Untersuchung 400 Beschäftigte über 18 Jahre aus unterschiedlichen Branchen, die mindesten 35 Stunden pro Woche arbeiten.

Einstellung zur Arbeit

Für die Zufriedenheit mit dem aktuellen Job ergaben sich in der Studie sehr hohe Werte: 89% sind zufrieden, 36% davon sogar sehr. Bei den Beschäftigten, die nicht im Unternehmen arbeiten (remote employees), lag der Wert mit 94% sogar noch höher. Man kann also davon ausgehen, dass die Mitarbeiter im Allgemeinen sehr motiviert sind.
Wichtig sind den Befragten in erster Linie der Kontakt mit den Kollegen, den 33% als für die Zufriedenheit als besonders wichtig einstufen, der Arbeitsinhalt (26%) und die Work-Life-Balance (22%). Überraschend weit zurück liegt hier das Einkommen mit 15%.
Trotz einer großen Zufriedenheit bei der Arbeit legen die Beschäftigten in Deutschland großen Wert auf ihr Privatleben: 65% geben an, dass die Arbeit Bestandteil der eigenen Identität sei, aber nur 31% stimmen der Aussage „Work is life“ zu. 69% meinen, dass das Leben nach der Arbeit beginnt, und 54% sind außerdem der Auffassung, dass ihr soziales Leben ein von der Arbeit getrennter Bereich sei.

Die Mehrheit favorisiert die traditionelle Face-to-Face-Kommuni¬kation gegenüber Telefon oder Video

Die Mehrheit favorisiert die traditionelle Face-to-Face-Kommunikation gegenüber Telefon oder Video

Zusammenarbeit und Kommunikation

Der hohe Stellenwert, den die Befragten dem Kontakt mit den Kollegen einräumen, schlägt sich auch in den bevorzugten Kommunikationsformen nieder. Dabei favorisieren 72% die traditionelle Face-to-Face-Kommunikation gegenüber Telefon oder Video; weltweit sind es nur 57%. 88% sehen die persönlichen Beziehungen als unverzichtbar für eine produktive Arbeit. Dementsprechend meinen nur 32%, dass die zunehmende Rolle von Remote-Teams und bessere Kommunikationstechniken die Face-to-Face-Kommunikation obsolet machen werden – weltweit dagegen 51%.

Organisation und Technologie

Die Studie lässt erkennen, dass bei den Beschäftigten die im Zuge der Digitalisierung anstehende Neuorganisation der Arbeitswelt noch nicht durchgängig angekommen ist. Auf die Frage, wo sie am besten arbeiten können, nennen 53% das traditionelle Büro, jedoch nur 14% das Homeoffice. Ebenfalls 14% geteilte Arbeitsräume (Shared Office Space) und immerhin 8% „outdoor“. In der flexiblen Wahl des Arbeitsorts – auch das ist ein wesentlich Punkt der digitalen Arbeitswelt – sehen die Befragten vor allem folgende Vorteile: man kann sich besser konzentrieren (37%), es erlaubt eine bessere Work-Life-Balance (32%) und es erspart das Pendeln zum Arbeitsplatz (27%).

 

Deutsche Arbeitnehmer sind mit überwältigender Mehrheit zufrieden mit ihrem Job

Deutsche Arbeitnehmer sind mit überwältigender Mehrheit zufrieden mit ihrem Job

Generell ist die Zufriedenheit mit der technischen Ausstattung am Arbeitsplatz aber hoch: 83% sind zufrieden, darunter 28% sogar sehr zufrieden. In der digitalen Ära ein Unternehmen zu verlassen, wenn sie mit veralteten Technologien arbeiten müssten, ziehen aber immerhin 20% der Mitarbeiter in Betracht.
Die technische Ausstattung, die die Befragten zu Hause haben, ist besser als die in den Betrieben; ein Ergebnis, das im Zuge des schon seit Jahren zu beobachtenden Trends zur „Consumerisation“ eigentlich nicht mehr überraschen kann: 50% verfügen zu Hause über bessere IT- und Kommunikationstechnik, bei 28% ist sie gleich und nur bei 19% schlechter. Bemerkenswert ist, dass sowohl im Unternehmen als auch zu Hause die eher traditionellen Technologien wie Festnetztelefon oder E-Mail dominieren.
55% der in Deutschland Befragten halten es für nicht wahrscheinlich, dass in ihrem Umfeld in den nächsten fünf Jahren das Konzept des intelligenten Arbeitsplatzes („Smart Office“) realisiert wird, lediglich ein Drittel (36%) halten das für wahrscheinlich oder für sehr wahrscheinlich, weltweit sind das 57%.

Von einer ablehnenden Haltung gegenüber neuen Technologien kann bei den Beschäftigten in Deutschland keine Rede sein: eine deutliche Mehrheit erwartet sich davon mehr Produktivität, allerdings in der Regel nur, soweit es sich um sehr konkrete Vorhaben handelt. So erreichen schnelleres Internet (63%), moderne Geräte (63%) und besseres Messaging (51%) hohe Zustimmung, während die Möglichkeiten der Produktivitätssteigerung durch künstliche Intelligenz (38%) oder durch Augmented Reality (32%) noch nicht ganz so Wert geschätzt werden. Dennoch nennen immer noch knapp ein Drittel der Befragten auch diese Technologien.

Wichtig ist den Befragten in erster Linie der Kontakt mit den Kollegen

Wichtig ist den Befragten in erster Linie der Kontakt mit den Kollegen

Die Studie zeigt, dass für die Beschäftigten in Deutschland die „weichen Faktoren“ eine zentrale Rolle spielen: Kontakt und direkter Austausch mit Kollegen sind sehr wichtig. Nicht zuletzt davon hängen die hohen Werte für die Zufriedenheit mit dem aktuellen Job ab, die wiederum eine Voraussetzung für hohe Produktivität ist. Es wird in der Digitalen Transformation wesentlich darauf ankommen, dieses Zufriedenheitsniveau auch über die anstehenden Veränderungen hinweg zu erhalten. Nur im Rahmen einer expliziten „Mission Mitarbeiter“ können Unternehmen den Wettbewerb um die besten Köpfe gewinnen.

Weitere Informationen unter:
http://futurereadyworkforce.dell.com/

Bildquelle / Lizenz Aufmacher: 110529-O-ZZ999-010 U.S. Navy photo by Kristopher Radder/Released

Bildquellen Portrait und Grafik: Dell, Frankfurt am Main

Kulturwandel setzt auch IT-Dienstleister unter Druck

Gastautor: Henning von Kielpinski*

Von immer aggressiveren Cyber-Attacken über IoT bis hin zur Digitalen Transformation: so viele Veränderungen gab es für die IT wohl noch nie.
Viele Unternehmen sind dadurch überfordert. Sie brauchen zuverlässige IT-Partner, die sie durch das Dickicht führen. Aber auch sie müssen umdenken.

 

Egal, was eine Firma auf der Welt tut, egal, wie groß sie ist oder in welchen Märkten sie agiert: ohne IT ist sie vollkommen hilflos. Sie kann nicht mehr entwickeln, nicht mehr kommunizieren, nicht mehr verkaufen, sie kann sich nicht mehr gegen den Wettbewerb wehren. Die IT hat sich vom Unterstützungs-Werkzeug zum strategischen und unverzichtbaren business enabler entwickelt. Die Geschäftswelt hängt am Datentropf.

Und genau das ist das Problem, denn in der Unternehmens-IT gibt es so viele Veränderungen wie noch nie. Von außen und von innen prasseln Herausforderungen aller Couleur massiv auf sie nieder, und viele Unternehmen sind allein durch deren schiere Menge völlig überfordert.

Änderungen, wo man hinsieht

Eine der größten Herausforderungen ist die erschreckend schnelle Zunahme von Cyber-Bedrohungen. In Mode gekommen ist gerade Ransomware, die Anzahl von DDoS-Attacken explodiert geradezu, die klassischen Viren- und Firewall-Angriffe sind sowieso an der Tagesordnung, und sogenannte fortschrittliche Threats sind immer schwerer aufzuhalten. Hacker geben die Taktrate vor, und Unternehmen hinken hinterher. Auf dem Spiel steht nicht nur der Klau von Daten, sondern auch der Stillstand der IT, mit all den möglichen negativen Folgen wie Imageschaden oder Umsatzeinbruch.

Aus einem ganz anderen Bereich kommt die nächste große Herausforderung: das veränderte Verhalten von Kunden. Zwei Drittel der deutschen Internetsurfer nutzen mittlerweile Smartphones, so das Ergebnis der aktuellen ARD-ZDF-Onlinestudie 2016 (1) – und der Anteil steigt, zu Lasten der klassischen Notebooks und Desktops, weiter an. Surfer, also Kunden, geben sich nicht mehr zufrieden mit mittelmäßigen Apps, einer komplizierten Navigation oder zu langen Wartezeiten, sondern wollen eine intuitive und reibungslose customer experience. Für die IT bedeutet diese neue Anspruchshaltung die nächste Herkulesaufgabe, nämlich die komplette Überarbeitung des Internetauftritts und Neugestaltung aller Apps.

Dabei ist höchste Konzentration gefragt, denn gerade mit der zunehmenden Nutzung von mobilen Devices sind so gut wie alle Märkte international geworden: Der Wettbewerb kommt heute nicht mehr nur aus Augsburg oder Bielefeld, sondern aus Shanghai, San Francisco oder Mumbai. Dort entwerfen clevere Start-ups Apps und Angebote, die klassischen Unternehmen das Wasser abgraben und sie massiv unter Druck setzen – der am Ende auch an die IT weitergegeben wird.

Immer schnellere Innovation, die Verfügbarkeit immer neuer Technologien und die Angebote immer neuer Anbieter, Produkte oder Dienstleistungen ist das nächste große Beschäftigungsfeld für die IT: Welche Lösungen von welchen Anbietern sind für das eigene Unternehmen sinnvoll? Diese Frage ist nicht mehr so einfach zu beantworten und setzt einen mittlerweile gigantischen Rechercheaufwand voraus.

Altbewährtes bremst die Unternehmen aus

Und dann gibt es noch die internen Herausforderungen. Jahrelang sind etwa Datensilos „historisch gewachsen“, wie es immer wieder heißt. Das ist eine freundliche Umschreibung für die Tatsache, dass die IT die Entstehung solcher Silos einfach zugelassen hat. Dieses Laissez faire rächt sich jetzt, denn Unternehmen sind, in einer schnelleren und globaleren Welt, immer mehr darauf angewiesen, präzise Entscheidungen auf der Grundlage umfassender Datenanalysen zu treffen. Mit isolierten Datenbeständen ist das alles andere als einfach: Die Auflösung der Silos steht an.

Damit ist mit der Silo-Thematik aber noch nicht Schluss, denn auch Sicherheits-Silos bestimmen den IT-Alltag (2). Auch sie sind im Laufe der Jahre entstanden, nicht zuletzt wegen des proprietären Aufbaus vieler Softwarelösungen. Es ist kein Geheimnis, dass etwa SAP und die allgemeine IT-Sicherheit zwei völlig getrennte Welten sind. So entsteht eine Ineffizienz, die angesichts der immer moderneren Sicherheitsbedrohungen ein großes Hindernis darstellt und deshalb mit allerhöchster Priorität behoben werden muss. Möglicherweise der wichtigste Punkt auf der Herausforderungsagenda der IT.

Neue Herausforderungen

Dann gibt es auch noch zahlreiche andere Themen, die die IT beschäftigen, angefangen von Big Data über BYOD und Schatten-IT bis hin zum aufkeimenden Internet der Dinge, das schon in der nahen Zukunft eine fundamentale Rolle nicht nur für Produktionsbetriebe spielen wird: auch Banken und Versicherungen setzen sich intensiv damit auseinander, etwa um den Zustand von Immobilien oder zu versichernden Maschinen zu bestimmen.

Fast wird, angesichts dieser zahlreichen Herausforderungen, der operative Betrieb vergessen: Klingt nach wenig Aufwand, aber mit der Sicherstellung der Systemverfügbarkeit, der notwendigen Softwarepflege, unzähligen Administrationsaufgaben und dem Helpdesk verbringt die IT den mit Abstand größten Teil ihrer Zeit.

Und dann steht auch noch die Digitale Transformation an, dieses Monstrum, mit dem sich jeder beschäftigt, das aber kaum zu fassen ist. Es gibt nicht einmal eine richtige Definition dafür, aber alle sind sich darüber einig, dass sie notwendig ist. Einhergehend damit müssen sich Unternehmen auch noch mit dem berüchtigten cultural change auseinandersetzen: Grenzen zwischen den Abteilungen kappen, die Organisation anpassen, interdisziplinär vorgehen und umdenken – was auch immer das heißen soll.

Unternehmen sind überfordert

Druck von außen und innen, ein Workload, der kaum noch zu bewältigen ist, eine IT der (mindestens) zwei Geschwindigkeiten, dazu knappe Budgets und fehlende Ressourcen: Wie soll das gehen? Kein Wunder, dass viele Unternehmen überfordert sind. Alleine werden sie die Herausforderungen kaum meistern können, sie sind auf externe Partner angewiesen, die sie zuverlässig durch dieses Dickicht führen.

Klassische IT-Dienstleister stehen ihnen mit Rat und Tat zur Seite. Aber auch sie stoßen mit ihrem bisherigen Wissen schnell an Grenzen: Wenn der Markt sich verändert, verändern sich auch Unternehmen, und am Ende müssen auch IT-Dienstleister diesen Prozess durchmachen.

Das ist gar nicht so einfach, denn es geht nicht mehr nur darum, weiteres Wissen über Produkte, Lösungen oder Verfahren zu akquirieren. Dienstleister müssen fortan tief in die Prozesse ihrer Kunden eintauchen und ihr Geschäft verstehen lernen. Sie müssen Zusammenhänge erkennen und einschätzen können, um mit ihrer IT-Expertise die technologisch zielführenden Lösungen und Strategien anzubieten.

Dafür reicht das Gespräch allein mit der IT-Abteilung nicht mehr aus, weil ein interdisziplinäres Vorgehen, das alle Abteilungen umfasst, notwendig ist. IT-Dienstleister spielen damit eine weitere Rolle: die des Moderators, der zwischen den unterschiedlichsten Bereichen eines Unternehmens vermittelt. Damit ist der cultural change endgültig auch bei ihnen angekommen.

 

IT-Dienstleister spielen auch die Rolle des Moderators, der zwischen den unterschiedlichsten Bereichen eines Unternehmens vermittelt. Damit ist der cultural change endgültig auch bei ihnen angekommen.

IT-Dienstleister spielen auch die Rolle des Moderators, der zwischen den unterschiedlichsten Bereichen eines Unternehmens vermittelt. Damit ist der cultural change endgültig auch bei ihnen angekommen.

Wie IT-Dienstleister nun am besten vorgehen

Einige Empfehlungen für IT-Dienstleister:

  • Ziele festlegen.
    Angesichts aller neuen IT-Herausforderungen müssen IT-Dienstleister zunächst einmal in sich gehen:

    • Welche Art von Dienstleistung wollen sie in welchem Umfang anbieten?
      Sollen Unternehmen tatsächlich ganzheitlich beraten werden?
    • Was bedeutet die Tragweite, wenn ein solcher Schritt festgelegt wird: Gibt die Substanz des Unternehmens es her?
    • Muss investiert werden?
      Am Ende sollte eine detaillierte Roadmap mit Zielen, Inhalten und Aufwand festgeschrieben werden.
  • Status quo ermitteln
    Was sind die bisherigen Stärken des Unternehmens:

    • Klassische IT-Beratung, Technologieberatung, IT-Implementierung oder Softwareentwicklung?
      Welche Bereiche werden abgedeckt:
    • Sicherheit, ERP, Big Data oder Business Intelligence? Wo gibt es, basierend auf der Festschreibung der Ziele, Nachholbedarf?
  • Organisation anpassen
    Je nach Ziel muss die Organisation des IT-Dienstleisters angepasst werden: Aufteilung nach Bereichen oder Technologie, möglicherweise Schaffung von virtuellen Teams aus mehreren Bereichen, die den Kunden interdisziplinär begleiten können.
  • Know-how aufbauen
    Sollen Prozesse bei Kunden optimiert oder sogar die Grundlagen von neuen Geschäftsideen mitentwickelt werden, ist zusätzliches Know-how notwendig. Sinnvoll sind dabei intensive und regelmäßige Produkt-, Technologie- oder Business-Schulungen.
  • Moderieren lernen
    Zur Moderation gehört nicht nur technisches oder formales Wissen, sondern auch die Fähigkeit, eine heterogene Gruppe zu leiten, die Gruppendynamik zu steuern, kreative Ideen freisetzen oder gegensätzliche Interessen zu vereinen.
    Moderieren heißt allerdings nicht unbedingt, selbst detaillierte Antworten auf Prozess-orientierte oder Business-Fragen der Kunden zu geben: das bessere Know-how darüber haben immer noch deren Mitarbeiter.
    Im Vordergrund steht vielmehr die Formalisierung des Ablaufs. Gegebenenfalls kann entsprechendes Coaching von Moderationsspezialisten eingekauft werden.
  • Personal-Skills aufbauen
    Ein externer IT-Dienstleister kann Unternehmen auch dabei unterstützen, ihre Organisation anzupassen: etwa die Position eines CDOs neben dem CIO zu definieren und den richtigen Mitarbeiter dafür zu finden, oder Treiber für die Digitale Transformation in den unterschiedlichen Abteilungen zu identifizieren.
    Ein gutes Gespür ist dafür Voraussetzung.

Fazit:

Angesichts aller Herausforderungen, mit denen Unternehmen und ihre IT konfrontiert werden, ist das Business-Potenzial für IT-Dienstleister heute gigantisch. Und es wird in den nächsten Jahren weiterwachsen. Voraussetzung dafür ist, dass IT-Dienstleister, neben ihrer eigenen Veränderung, ihre Kunden proaktiv begleiten.

 

Über den Autor:

*Henning von Kielpinski ist Leiter Business Development bei der Consol Software GmbH in München

consol_henning_von_kielpinski_jpg

Henning von Kielpinski Bildquelle: Consol

 

 

 

 

 

 

 

 

 

 

 

weitere Informationen: ConSol Consulting & Solutions Software GmbH

(1) www.ard-zdf-onlinestudie.de

(2) http://www.dell.com/learn/de/de/decorp1/press-releases/2016-01-21-safety-study-of-dell

Aufmacherbild / Quelle:

Dienstleister müssen fortan tief in die Prozesse ihrer Kunden eintauchen und ihr Geschäft verstehen lernen.

Quelle: Fotolia

QVC Zukunftsstudie Handel 2036: „Wie kauft Deutschland übermorgen ein?“

QVC Zukunftsstudie Handel 2036 –
Zwischen Dash-Button und Robo-Shopping: So wandelt sich unser Konsum

Wie werden wir in zwanzig Jahren einkaufen? Welchen Einfluss haben Digitalisierung, Ressourcen-knappheit und gesellschaftlicher Wandel auf unser Kaufverhalten?

 

In der Zukunftsstudie Handel 2036 „Wie kauft Deutschland übermorgen ein?“
im Auftrag des digitalen Handelsunternehmens QVC Deutschland wagen zehn renommierte Experten[1] aus Handel, IT und Wissenschaft einen Ausblick.
Trendbüro Hamburg und TNS Infratest befragten[2] zudem Konsumenten aus der Generation X, Y und Z[3] zu ihren Wünschen und Ideen für eine Shopping-Welt der Zukunft.

Das wichtigste Ergebnis:

wippermann-klein-150520-prosiebensat1-0378

Trendforscher und Studienleiter Prof. Peter Wippermann

Egal, wie sich Technologien entwickeln – der Mensch bleibt das Gegenüber des Handels. „Shopping wird zukünftig geprägt sein von spielerischen Elementen und digitalen Assistenten, die heute bereits beginnen unseren Alltag zu erobern“, sagt der Hamburger Trendforscher und Studienleiter Prof. Peter Wippermann.

„Je stärker wir in virtuelle Welten eintauchen, desto wichtiger wird menschliche Nähe.“

Beratung durch Roboter: Jeder Vierte will sie nutzen – wenn der Service stimmt

In einer unübersichtlichen Welt suchen die Menschen nach Zugehörigkeit. Für mehr als jeden dritten Deutschen ist das gemeinsame Erlebnis (35 Prozent) schon jetzt ein (sehr) wichtiges Element beim Shoppen. Der Handel wird die Lust am Sozialen in Zukunft noch stärker bedienen. Dank neuer technischer Möglichkeiten müssen Freunde und Familie 2036 jedoch nicht mehr zwangsläufig live dabei sein. Jeder fünfte Deutsche (19 Prozent) kann sich (sehr) gut vorstellen, künftig „gemeinsam im Online-Chat oder in der virtuellen Realität shoppen zu gehen“. Auch die Rolle des Verkäufers wandelt sich. Rund jeder Vierte hätte nichts dagegen einzuwenden, in Zukunft Beratung durch Computer, Avatare, Holografien oder Roboter zu nutzen.

 

Virtuelles Shopping wächst – und mit ihm der Hunger nach realen Erlebnissen

Ob „etwas online oder in der realen Welt passiert, macht in der Zukunft kaum noch einen Unterschied“, urteilen 43 Prozent der Deutschen. Bei den 16- bis 30-Jährigen aus der Generation Y sagt dies sogar jeder Zweite und in der Generation X stimmen immerhin 33 Prozent zu. Parallel zur Technologisierung und Robotisierung wächst aber auch der Wunsch nach echten Erfahrungen. Über alle Generationen hinweg sagt die Mehrheit (77 Prozent):

„Gerade weil so viel in Zukunft virtuell abläuft, werden Erlebnisse in der realen Welt umso wertvoller.“ Stationäre Händler und Shopping-Center, die das Verzaubern der Realität beherrschen, könnten davon profitieren.

 

Mathias Bork, CEO von QVC Deutschland

Mathias Bork, CEO von QVC Deutschland

„Beim Shopping 2036 sind Erlebniswelten gefragt, die den Konsumenten sinnliche Erfahrungen bieten“, erklärt Mathias Bork, CEO von QVC Deutschland. „Jüngere Konsumenten sehen das Einkaufen als Pflichtprogramm. Shopping hingegen soll die Seele berühren. Beides trennt sich immer stärker.“

 

Neugier auf personalisierte Produkte und VR-Brillen

„Die echte Welt wird immer besser sein als digitale Erlebnisse“, sagt mehr als jeder zweite Befragte der Zukunftsstudie. Auf junge Konsumenten übt Virtual Reality dennoch einen großen Reiz aus: Jeder vierte Vertreter der Generation Y kann sich (sehr) gut vorstellen, „virtuelle Einkaufswelten, die mittels Brille betreten werden“ zu nutzen. Auch personalisierte Produkte rücken ins Blickfeld. Drei Viertel aller Befragten wünschen sich Produkte, die genau ihren Bedürfnissen entsprechen. Dass diese zukünftig direkt im Laden speziell produziert werden, können sich 31 Prozent der Deutschen (sehr) gut vorstellen. Die passenden 3D-Drucker gibt es bereits.

 

Wenn Preis und Produkt überzeugen, fällt die Datenspende leichter

Statussymbole werden vielen Konsumenten in Zukunft indes weniger wichtig sein, prognostizieren die Experten der Zukunftsstudie. 2036 bedeutet Erleben mehr als Besitz. 63 Prozent der Befragten stimmen der Aussage zu, dass „zukünftig der als cool gilt, der nicht alles haben muss“. Qualität statt Quantität ist gefragt, Produkte mit Langlebigkeit werden überzeugen. Sharing und Leasing nehmen zu und senken die Kosten. Wer zudem bei Standardprodukten Geld sparen will, entscheidet sich künftig für Flatrates und Abo-Modelle – im Tausch für persönliche Informationen. 38 Prozent der Deutschen sind bereit, ihre Daten herauszugeben, wenn sie im Gegenzug „billigere Angebote für oft genutzte Produkte und Dienste“ erhalten. Männer zeigen sich dabei mit 46 Prozent „freigiebiger“ als Frauen (30 Prozent Zustimmung). Auch Aufgaben zu übernehmen, die früher der Handel erledigt hat, wird zur Normalität. Für 59 Prozent der Deutschen ist völlig klar, dass der Gang zur Self-Scanning Kasse belohnt wird:
„In Zukunft kaufe ich billiger, wenn ich ‚mithelfe’“.

 

Der Schrank bestellt Nachschub per Sprachkommando

 

Zeit wird auch qvc-zukunftsstudie-handel-2036_motiv-kleider-avatar-683x1024in 20 Jahren ein knappes Gut sein. Während man sie beim Shopping bewusst ausgibt, wird sie beim alltäglichen Einkauf lieber eingespart. Die Deutschen erwarten für die Zukunft mehr Effizienz durch neue Technologien: Jeder Dritte kann sich (sehr) gut vorstellen, „automatische Bestellungen zu nutzen, wenn ein Produkt zu Hause ausgeht“. 42 Prozent schwebt für die Zukunft „ein digitaler Assistent vor, der automatisch die günstigsten Angebote zusammenstellt“. Und für 41 Prozent verschmilzt Shopping 2036 organisch mit dem Tagesablauf: „In Zukunft passiert Shopping nebenher im Alltag, zum Beispiel beim Blick in den Schrank per Sprachkommando.“

 

 

Weitere Ergebnisse unter: www.QVC-Zukunftsstudie.de

 

 

Pressekontakt:

Beate NaberTel.: 0211-3007-5258
E-Mail: Beate_Naber@QVC.com

Susanne MuellerTel.: 0211-3007-5129
E-Mail: Susanne_Mueller@QVC.com

 

[1] Teilnehmende Experten: Prof. Dr. Norbert Bolz (Medienphilosoph), Mathias Bork (CEO QVC Deutschland), Dr. David Bosshart (CEO des Gottlieb Duttweiler Instituts in Zürich), Dr. Kirsten Brodde (Blog-Gründerin und Autorin), Robert Heinemann (Senior Director Center Management der ECE Projektmanagement), Jürgen Müller (Gründer der Personalberatung SUITS für Spitzenkräfte im Mode- und Lifestyle-Business), Michael Schuster (Partner und Gründer von SpeedInvest, einem Venture Capital-Fonds für Start Ups), Anne M. Schüller (Keynote-Speaker, Managementdenkerin, Business-Coach und Bestsellerautorin), Prof. Peter Wippermann (Trendforscher, Berater, Autor und Keynote-Speaker für Zukunftsthemen), Dr. Gerd Wolfram (Gründer von IoT Innovation & Consult, ein Unternehmen für innovative Technologielösungen), Alexander Taro Zerdick (Director Sales Google Hamburg)

[2] In zwei Konsumentenworkshops sowie im Rahmen einer Online-Befragung; n=1.007; repräsentativ für Deutschland. Vergleichsdaten wurden jeweils für Männer und Frauen sowie für die Generation Y (16-30 Jahre) und Generation X (31-45 Jahre) erhoben, Befragungszeitraum: August 2016. TNS Infratest/Trendbüro Hamburg

[3] Die Mitglieder der Generation X sind heute in der Regel zwischen Mitte 30 und Ende 40 Jahre alt. Die Vertreter der Generation Y wurden von etwa 1985 bis 2000 geboren. Die Generation Z folgte darauf.

 

Aufmacherbild/Lizenz/Quelle
QVC Deutschland

Personenfotos:
CEO Mathias Bork, Copyright, QVC Deutschland

Bildquelle/Frau /Spiegel:

„obs/QVC Deutschland Inc. & Co. KG/Coneyl Jay“

Internationale Studie zum Thema EU-Datenschutz-Grundverordnung

Die internationale Studie zum Thema EU-Datenschutz-Grundverordnung (GDPR), die von Dell vorgestellt wurde, verdeutlicht einen immer noch großen Handlungsbedarf.

Die wichtigsten Ergebnisse: Kleinen, mittleren und großen Unternehmen fehlt das Verständnis dafür, wie man sich auf die Anforderungen der GDPR vorbereitet und welche Strafen bei Nichteinhaltung drohen.

Der Marktforscher Dimensional Research hat die Umfrage im Auftrag von Dell durchgeführt und insgesamt 821 IT- und Business-Professionals befragt, die für den Datenschutz in Unternehmen mit europäischen Kunden zuständig sind. Die Fragen drehten sich darum, wie gut Unternehmen die EU-Datenschutz-Grundverordnung kennen, wie sie sie einschätzen, wie sie darauf vorbereitet sind und wie sie die Auswirkungen bei einer Nichteinhaltung beurteilen. Die Umfrage hat der Marktforscher in Australien, Belgien, Deutschland, Frankreich, Großbritannien, Hongkong, Indien, Italien, Kanada, den Niederlanden, Polen, Schweden, Singapur, Spanien und den Vereinigten Staaten durchgeführt.

Die EU-Datenschutz-Grundverordnung soll den Schutz personenbezogener Daten für alle EU-Bürger stärken. Sie tritt im Mai 2018 in Kraft und betrifft Unternehmen aller Größen und Branchen weltweit. Organisationen, die nicht alle Vorgaben erfüllen, riskieren hohe Bußgelder, potentielle Datenschutzverstöße und werden die Fälle publik, auch erhebliche Image-Verluste.

Deutlicher Handlungsbedarf

Die Umfrageergebnisse zeigen, dass weltweit 82% der Sicherheitsexperten in kleinen, mittleren und großen Unternehmen von der EU-Datenschutz-Grundverordnung betroffen sind, sich aber noch nicht richtig damit auseinandergesetzt haben:

 

  • mehr als 80% der Befragten gaben an, dass sie nur wenige bis keine Details darüber kennen;
  • weniger als 30% der Unternehmen fühlten sich bereits heute auf die Anforderungen der GDPR vorbereitet;
  • fast 70% sagten, dass sie den Anforderungen nicht gerecht werden oder nicht wissen, ob sie ihnen gerecht werden. Nur 3% hatten bereits einen Plan, wie sie Konformität herstellen wollen;
  • von den Befragten aus Deutschland fühlten sich 44% sehr gut auf die GDPR vorbereitet. 26% der Befragten aus den Benelux-Staaten (Belgien, Luxemburg, Niederlande) hingegen fühlten sich am wenigsten vorbereitet;
  • mehr als 75% der Befragten außerhalb Europas erklärten, dass sie den Anforderungen nicht gerecht werden oder nicht wissen, ob sie ihnen gerecht werden;
  • fast alle Unternehmen (97%) haben keinen Plan für den Zeitpunkt, wenn die GDPR in Kraft tritt.

Unwissenheit schützt vor Strafe nicht

Die Ergebnisse zeigen auch: Organisationen wissen zwar, dass sich die Nichteinhaltung auf die Datensicherheit und die Geschäftsergebnisse auswirkt, aber über das Ausmaß der nötigen Veränderungen sowie über die Schwere der Strafen sind sie sich nicht im Klaren:

  • von den 21% der Befragten, die angaben, mit einer Strafe zu rechnen, wenn die GDPR bereits jetzt gelte, dachten 36%, es würde nur einfacher Nachbesserungen bedürfen oder kannten die Höhe der Strafe nicht;
  • knapp 50% glaubten, dass sie mit einer moderaten Geldstrafe oder überschaubaren Nachbesserungsarbeiten davon kommen würden;
  • fast 25% erwarteten bedeutende Veränderungen bei den aktuellen Datenschutzpraktiken und -technologien.

Es gibt noch viel zu tun!

Weitere Erkenntnisse zeigen, dass sich die meisten Organisationen auf die Anforderungen der GDPR nicht gut vorbereitet fühlen:

  • weniger als die Hälfte der Befragten fühlten sich weitgehend auf jede der Sicherheits-Anforderungen der GDPR vorbereitet;
  • nur 21% fühlten sich weitgehend vorbereitet für die Access-Governance, die eine wichtige Anforderung der GDPR ist;
  • mehr als 60% der befragten Unternehmen in Europa waren noch nicht auf die Anforderungen vorbereitet oder wussten nicht, ob sie vorbereitet sind. Bei kleinen und mittleren Unternehmen waren es fast 70%;
  • mehr als 90% der Befragten gaben an, dass ihre Unternehmens-Richtlinien den Anforderungen der GDPR nicht genügen;
  • mehr als 80% erklärten, sie seien in Sachen E-Mail-Sicherheit weitgehend oder zum Teil auf die GDPR vorbereitet;
  • fast 60% urteilten, sie seien in Sachen Access-Governance weitgehend oder zum Teil auf die GDPR vorbereitet;
  • mehr als 80% behaupteten, sie seien im Bereich Zugriffsmanagement weitgehend oder zum Teil auf die GDPR vorbereitet;
  • 65% gaben an, sie seien bei Next Generation Firewalls weitgehend oder zum Teil auf die GDPR vorbereitet.

Tipps und Strategien

Best Practices, die helfen, die Anforderungen der GDPR zu erfüllen

Dell hat Tipps und Strategien zusammengestellt, die Organisationen dabei unterstützen, die Anforderungen der EU-Datenschutz-Grundverordnung einzuhalten. Dadurch schützen sie die persönlichen Daten ihrer Kunden und verhindern Datenlecks, hohe Geldstrafen sowie Image-Verlust:

  • Einen Datenschutzbeauftragten einstellen: Der Datenschutzbeauftragte ist eine Voraussetzung in der GDPR. Die Position kann mit einem Vollzeitbeschäftigten oder einem Mitarbeiter besetzt werden, der noch andere Aufgaben hat. Es ist auch möglich, die Aufgabe an externe Dienstleister wie Systemintegratoren oder Reseller auszulagern, wenn sie einen solchen Service anbieten;
  • Eine Access-Governance-Lösung implementieren: Die Möglichkeit, den Zugriff auf Anwendungen zu steuern, die Zugriff auf persönliche Daten von EU-Bürgern – insbesondere die unstrukturierten Daten – haben, ist ein wichtiger Punkt bei der Datensicherheit und den Anforderungen der GDPR. Access-Governance erfordert eine regelmäßige Überprüfung der Zugriffsrechte von Abteilungsleitern. Hier muss bescheinigt werden, dass ihre Berechtigungen mit ihren Job-Beschreibungen übereinstimmen und nicht die Datensicherheit gefährden. Lösungen wie die One-Identity-Familie, die Produkte für Identity- und Access-Management enthält, bieten dieses Maß an Transparenz und Kontrolle;
  • Die Zugriffsverwaltung steuern: Zu den Anforderungen der GDPR gehört auch, Mitarbeiter und Vertragspartner nur die Zugriffsberechtigungen zu gewähren, die sie für ihre Arbeit benötigen. Die richtigen Identitäts- und Zugriffsmanagement-Technologien, die dieses Maß an Steuerung zulassen, sind Multi-Faktor-Authentifizierung, sicherer Remote-Zugriff, risikobasierte, adaptive Sicherheit, granulares Passwort-Management und die volle Kontrolle über privilegierte Benutzer-Credentials und deren Aktivität;
  • Die Unternehmensgrenzen schützen: Next Generation Firewalls (NGFWs) schützen das Netzwerk vor Cyber-Bedrohungen. Sie senken das Risiko von Datenlecks, die zu einer Datenschutzverletzung führen und laut GDPR harte Strafen nach sich ziehen. NGFWs liefern umfassende forensische Kenntnisse, die die Einhaltung der Compliance bestätigen und helfen, die Nachbesserungen bei einer Verletzung durchzuführen. Next Generation Firewalls wie Dell SonicWALL schützen vor neuen Bedrohungen, verfügen über Deep Packet Inspection, Echtzeit-Entschlüsselung und Prüfung von SSL-Sitzungen sowie adaptives Multi-Engine-Sandboxing und gestatten die volle Kontrolle von Anwendungen;
  • Den sicheren, mobilen Zugriff erleichtern: Mitarbeiter benötigen sicheren Zugang, wenn sie auf Unternehmensanwendungen und Daten zugreifen, egal, mit welchem Gerät oder auf welche Weise sie dies tun. Die Datensicherheit lässt sich verbessern, wenn Identitäten mit Gerätevariablen und zeitlichen Faktoren (Zeit, Ort et cetera) kombiniert werden. Dieser adaptive, risikobasierte Ansatz gewährleistet zu jeder Zeit den sicheren Zugriff und verbessert gleichzeitig den Datenschutz und die Compliance mit der GDPR;
  • DieE-Mail-Sicherheit garantieren: Die GDPR fordert die volle Kontrolle und Transparenz über alle E-Mail-Aktivitäten, um die Gefahr durch Phishing und E-Mail-Attacken auf geschützte Daten abzumildern, aber gleichzeitig den sicheren und konformen Austausch von sensiblen und vertraulichen Daten zu ermöglichen.

 

weiterführende Informationen:

 

Pressekontakt

Michael Rufer
Dell
+49 69 9792 3271
michael.rufer@dell.com

Anna von Krockow
PR-COM
+49 89 59997 701
anna.krockow@pr-com.de

Aufmacherbild / Lizenz / Quelle:

atelier-data-privacy“ (CC BY-SA 2.0) by DJANDYW.COM & DJANDYW.TV AKA ANDREW WILLARD

Whitepaper: Rugged Devices

Rugged Devices: Whitepaper mit Marktübersicht zu industrietauglichen Tablets und Smartphones

Ohne industrietaugliche Hardware, die sich im harten Arbeitsalltag bewährt, nützt auch die tollste Industrie 4.0-Anwendung nur wenig. Besonders rau geht es in der Logistik zu: Vibrationen, Schläge gegen das Gehäuse und Stürze gehören zum Alltag auf dem Rangierbahnhof, im Terminal für den Kombinierten Verkehr oder bei der Containerverladung im Hafen.

Auch das iPhone 7 ist nicht industrietauglich

Robustheit ist deshalb bei der Wahl eines Tablet oder Smartphone für den Logistik 4.0-Einsatz oberstes Gebot. Denn mobile Endgeräte aus dem Consumer-Bereich quittieren hier in der Regel schnell den Dienst. Für extreme Bedingungen mit schlechtem Wetter, hohen oder niedrigen Temperaturen, öligen Fingern oder staubiger Luft sind sie einfach nicht konstruiert worden. Und wenn ein solches Mobilgerät auf den Betonboden einer Fertigungshalle oder auf ein stählernes Bahngleis fällt, geht das meist anders aus, als bei einer unsanften Landung auf dem Büroteppich.

Selbst wenn jetzt das neue iPhone 7 jetzt mit dem Zertifikat IP67 ausgestattet und damit vor Staub und Spritzwasser geschützt ist, einen 30-minütigen Tauchgang einen Meter unter Wasser überlebt und mit etwas Glück auch einen Sturz aus drei Meter Höhe aufs Display aushält, ist es – abgesehen vom Preis – noch kein optimales Mobilgerät für die Outdoor-Verwendung während der Arbeit.

Ein ausdrücklich industrietaugliches Endgerät – auch „Rugged Device“ genannt – ist dagegen in der Lage, auch härteren Umgebungseinflüssen standzuhalten. Versiegelte Tastaturen und Öffnungen schützen das Smartphone oder Tablet vor Sand, Staub und Flüssigkeiten, ein spezielles Display reduziert Spiegelungen und hat einen besonders guten Kontrastausgleich, so dass die Anzeige auch bei starker Sonnenlichteinstrahlung gut lesbar bleibt.

Zahlreiche Anforderungen an ein Rugged Device

Besonders schwer muss ein solches Rugged Device dabei nicht sein, denn die meisten Anbieter versehen ihre Geräte aus einem leichten und formstabilen Magnesium-Aluminium-Gehäuse mit zusätzlichen Silikonformteilen. Eine weitere wichtige Anforderung ist die Energieversorgung: Professionelle Tablets und Smartphones sollen möglichst einen ganzen Arbeitstag in Betrieb bleiben. Die Rugged Devices glänzen deshalb meist mit einem besonders starken Akku oder kommen gar mit zwei Energiespeichern daher, die sich im „Hot-Swap-Modus“ auch bei laufendem Betrieb wechseln lassen.

Schließlich entscheidet auch das Interface-Angebot der Geräte, wie industrietauglich sie wirklich sind. So sollten beispielsweise mobile Kommunikationsschnittstellen wie WLAN und Bluetooth 2.0 bei jedem Gerät genauso zum Standard gehören wie Mobilfunkschnittstellen für alle gängigen Netze inklusive LTE. Ebenso wichtig sind aber auch physikalische Schnittstellen, etwa zum Anschluss von Peripherie wie Lesegeräten, Webcams und externen Festplatten. Die USB-Unterstützung sollte daher immer vorhanden sein.

Der Dortmunder Logistiksoftware-Anbieter und Portalbetreiber catkin beschreibt in einem aktuellen Whitepaper noch weitere Kriterien für das optimale Rugged Device. Außerdem wurden für eine Marktübersicht 21 solcher Geräte mit ihren Spezifikationen zusammengestellt. Das Start-Up-Unternehmen räumt allerdings selbst ein, dass „unsere Übersicht nicht vollständig ist“. Und sie sei auch nicht als Ranking zu verstehen, in dem die „Testsieger“ aufgelistet sind. Denn dazu gebe es selbst in den einzelnen Bereichen der Logistik zu unterschiedliche Anwendungsszenarien.

Kostenlose Marktübersicht hilft bei der Auswahl

Aber immerhin wurde bei den meisten der in der Liste genannten Android-Geräte einige Grundfunktionen überprüft: Ist auf dem Display auch bei Sonneneinstrahlung noch etwas zu erkennen? Laufen die Apps darauf flüssig? Ist eine Bedienung mit Handschuhen und bei leichtem Regen möglich?

Die kostenlose Auflistung kann also einen guten Anhaltspunkt bieten, wenn man selbst auf der Suche nach geeigneten mobilen Endgeräten ist. Denn vor dem Hintergrund, dass industrietaugliche Tablets oder Smartphones einen zwei- bis dreifach so langen Lebenszyklus wie die Consumer-Geräte haben und auch deutlich teurer sind, will eine solche Investition wohl überlegt sein.

 

Weitere interessante Artikel und Hintergrundberichte findet Ihr auf catkin´s unternehmenseigenem Blog.

catkin-blog

Autor: Geert-Jan Gorter

Aufmacherbild / Lizenz / Quelle

Searching for a new smart phone“ (CC BY-ND 2.0) by Tekke

Bezahlen mit Fingerabdruck und Selfie

Bezahlen mit Fingerabdruck und Selfie ist seit heute möglich.

Das Technologieunternehmen Mastercard bietet ab sofort eine App für biometrische Bezahlverfahren an. Damit entfallen Passworteingaben beim Online-Shopping. Diese neue Zahlungstechnologie nutzt für die Verifizierung der Identität von Karteninhaber biometrische Verfahren, wie Fingerabdruck- oder Gesichtserkennung.

Ab heute ist Identity Check Mobile in Europa verfügbar. Diese neue Zahlungstechnologie nutzt für die Verifizierung der Identität der Karteninhaber biometrische Verfahren, einzigartige Merkmale wie Fingerabdruck- oder Gesichtserkennung, und vereinfacht damit das Online-Shopping. Nach erfolgreich durchgeführten Tests in den Niederlanden, den USA und Kanada, startet Mastercard diese Technologie nun in diesen zwölf Ländern: Deutschland, Österreich, Belgien, Niederlande, Großbritannien, Spanien, Tschechien, Ungarn, Dänemark, Norwegen, Schweden und Finnland. Der weltweite Rollout ist in mehreren Phasen für das Jahr 2017 vorgesehen.

Mit Mastercard Identity Check Mobile ist keine Passworteingabe mehr erforderlich. Stattdessen profitieren Karteninhaber von deutlich schnelleren digitalen Einkaufserlebnissen und gleichzeitig mehr Sicherheit, da sie zum Identitätsnachweis mit Hilfe der jeweils einzigartigen Biometrie lediglich ihren Finger auf den Scanner ihres Smartphones legen müssen oder die Gesichtserkennung per Selfie nutzen können.

 

Ajay Bhalla MasterCard Photograph by Sam Frost - ©2016 -www.samfrostphotos.com

Ajay Bhalla
MasterCard
Photograph by Sam Frost – ©2016 -www.samfrostphotos.com

„Unsere Ziel ist es, Karteninhabern und Händlern möglichst reibungslose Online-Zahlungserlebnisse zu ermöglichen, ohne dabei irgendwelche Kompromisse bei der Sicherheit einzugehen“, so Ajay Bhalla, President von Enterprise Risk & Security bei Mastercard. „Dieses neue Zahlungsverfahren stellt einen bedeutenden Meilenstein dar. Das Einkaufserlebnis in Ladengeschäften hat sich schon durch unsere Innovationen, wie kontaktlosfähigen Karten und die Bezahlung über Mobilgeräte oder Wearables, grundlegend verändert. Als nächster Meilenstein ist Identity Check Mobile für Online-Shopping in Europa und bald auch weltweit verfügbar.“

 

Die Einführung der Technologie erfolgt im Anschluss an Tests und Studien, die gezeigt haben, dass die Verbraucher in Europa im Vergleich zu den derzeit verwendeten passwortbasierten Systemen mittlerweile biometrische Zahlungsverfahren bevorzugen.

Die Mastercard Identity Check Mobile App markiert einen weiteren Schritt im Bestreben von Mastercard Online-Zahlungslösungen permanent zu verbessern.

 

Unter folgenden Links finden Sie Videos, die den Mastercard Identity Check anschaulich erläutern:

https://www.youtube.com/watch?v=DfLarAas-U0

https://www.youtube.com/watch?v=m4qi3t1HP3g

https://www.youtube.com/watch?v=xGMlz-0gvjs

 

Pressekontakt:

 

Juliane Wolff

Head of Communications

Germany and Switzerland, Mastercard

Tel: +49 172 1880720

E-Mail: juliane.wolff@mastercard.com

follow us on twitter @MasterCardDE

 

Aufmacherbild/ Lizenz/ Quelle:

App Sign, ”Get the App”, Sears, pic by M“ (CC BY 2.0) by JeepersMedia

Die wachsende Bedeutung von Managed Print Services

Seit nunmehr fünf Jahren untersucht IDC die Weiterentwicklung von Managed Print Services für Unternehmen. Ähnlich wie Outsourcing beinhalten Managed Print Services alle Maßnahmen und Produkte, mit denen die Drucker, Kopierer, Multifunktionsgeräte und Scanner im Unternehmen voll einsatzbereit gehalten werden. Eines der Ziele ist natürlich, die Kosten für den Betrieb, die Verwaltung und die Pflege so gering wie möglich zu halten. Die Parallele zum Outsourcing besteht nun darin, das Unternehmen von Nebenaufgaben wie dem Beschaffen von Verbrauchsmaterialien und der Pflege von Druckern, entlastet werden.

IDC nutzt für seine Untersuchungen das Analyse-Modell MarketScape. Dies gliedert den Informations- und Telekommunikationstechnologie-Markt in verschiedene Segmente auf und zeichnet sich durch ein strenges Bewertungsverfahren aus. Dieses fußt auf qualitativen und quantitativen Merkmalen und verortet die verschiedenen Anbietern in einer konsolidierten Grafik. Lexmark International, Inc. wurde nun von IDC in seinem „IDC MarketScape: Worldwide Document Workflow Services Hardcopy 2016 Vendor Assessment Report“ erneut als Marktführer im Bereich Managed Print and Document Services (MPDS) eingestuft. IDC untersucht dabei die Weiterentwicklung zu Document Workflow Services und das Leistungsangebot von Unternehmen in diesem Bereich. Hierbei werden die Strategien und aktuellen Leistungen der Anbieter von Document Workflow Services analysiert.

„Lexmark hat eine breite Palette von anwendungs- und kundenspezifischen Lösungen entwickelt und verfügt unter allen Anbietern, die wir beurteilt haben, über das umfassendste Portfolio an branchenspezifischen Softwarelösungen. Außerdem basiert das Produkt- und Serviceangebot von Lexmark auf fundierten, über viele Jahre hinweg entwickelten Branchenkenntnissen“, schreibt IDC in seinem Jahresreport. „Die Angebotsstrategie und die wichtigsten Differenzierungsmerkmale von Lexmark bestehen in seinem breit aufgestellten Produkt- und Leistungsportfolio, dem Fokus auf Front-Office-Lösungen, der Fähigkeit zur dynamischen Anpassung an die sich rasch wandelnden Marktanforderungen, dem branchenspezifischen Know-how sowie der Kompatibilität und globalen Konsistenz der Lösungen.“

„Dank unserer Branchen-Expertise, des breiten Portfolios sowie unserer Innovationskraft und Agilität ist Lexmark in der Lage, Lösungen für die zentralen, geschäftskritischen Anforderungen unserer Kunden anzubieten“, so Marty Canning, Lexmark Executive Vice President und President of Imaging Solutions and Services. „Die erneute Einstufung durch den IDC MarketScape-Report als Marktführer für Document Workflow Services ist für uns Ansporn, unser Engagement für unsere Kunden konsequent weiterzuführen und auszubauen.“

Weitere Informationen unter:
www.lexmark.com

Bildquelle / Lizenz:

Der Siegeszug der Roboter – aus der Netzwerkperspektive

Kürzlich beschrieb ein Artikel in der MIT Technology Review das Wachstum bei Robotik, Automatisierung und Künstlicher Intelligenz, das 2016 unweigerlich kommt, nachdem das vergangene Jahr Fortschritte im smarten Lernen gebracht hatte, die es Robotern nun ermöglichen, sich an ungewohnte Situationen und Aufgaben anzupassen. Ingo Schneider, Director Business Development Data Network Infrastructure bei Alcatel-Lucent Enterprise erläutert die Auswirkungen, die dieser breite Einsatz von Robotern und automatisierten Einheiten auf wichtige Branchen wie Gesundheit, Bildung und Hotellerie und deren Netzwerke haben wird.

Moderne Roboter und andere intelligente Maschinen werden Teil des schnell wachsenden Internet of Things, an das bis 2020 voraussichtlich 25 Milliarden Endgeräte angeschlossen sein werden. In der Fertigung, in der sie filigrane und präzise Aufgaben erfolgreicher ausführen als Menschen, werden Roboter bereits seit mehr als einem Jahrzehnt mit großem Nutzen eingesetzt. Neuerungen wie „Deep Learning“, Drohnen für die Auslieferung und der allgegenwärtige Informationsaustausch zwischen Maschinen unterstützen die schnelle Verbreitung der Robotik.

Auch im Gesundheitswesen werden Robotik-Services bereits praktisch genutzt, zum Beispiel für die automatisierte Medikamentenverteilung oder als Roboter-Karren, die über einen WLAN-Sensor den Fahrstuhl rufen und sich damit sogar auf mehreren Etagen bewegen können. Im Hotel- und Gastgewerbe ist man ebenfalls sehr daran interessiert, Tätigkeiten an Roboter zu delegieren. Und im Bildungssektor sind Roboter erfolgreich als Tutoren, Werkzeuge oder “Kollegen” beim Lernen behilflich, insbesondere bei Sprachen, Naturwissenschaften und Technik.

Nutzen und Risiken abwägen

Bei der breiten Einführung von Robotern und smarten Geräten, die von Maschine zu Maschine kommunizieren, ist aber auch Vorsicht geboten. Wenn immer mehr Roboter solche wichtigen Services liefern, wird es einen enormen Bedarf an hoher Bandbreite und bedarfsabhängig priorisierter Konnektivität geben. Werden die bestehenden IT-Systeme in der Lage sein, diese Anforderungen abzudecken? Ohne ein starkes, leistungsfähiges Netzwerk als Backbone werden intelligente Endgeräte am Arbeitsplatz sich nicht durchsetzen, weil sie zu schnell an Kapazitätsgrenzen stoßen würden.

Wie können nun aber Unternehmen, die herkömmliche IT-Umgebungen betreiben, diese moderne Automatisierung erfolgreich nutzen und integrieren? Können ihre Netzwerke jemals die reibungslose Interoperabilität, große Bandbreite und permanente Verfügbarkeit sicherstellen, die für die Bewältigung konstanter Datenströme erforderlich sind? Die Antwort heißt ja – denn neue Entwicklungen der Netzwerktechnologie versetzen Unternehmen in die Lage, eine geeignete Infrastruktur aufzubauen, die den Einsatz von Robotern unterstützt.

Manchmal ist ein Switch mehr als nur ein Switch

Eine ausreichende Bandbreite muss verfügbar sein, damit zeitkritische Aufgaben mit geringer Fehlertoleranz nicht unterbrochen werden. Hier zeigt das Netzwerk, was in ihm steckt. Application Fluent Networks, die aus robusten Switches basieren und auch großen Anforderungen an Bandbreite und Konnektivität gerecht werden, sind am besten geeignet, die Automatisierung optimal zu unterstützen.

Die jüngste Generation von SDN-fähigen Switches für Application Fluent Networks bieten Funktionen wie integrierte Netzwerkanalysen und Deep Packet Inspection. Diese Switches erkennen die Applikationen und Endgeräte im Netzwerk und ermöglichen es durch entsprechende Datenpriorisierung den smarten Maschinen und Robotern, ungehindert von Flaschenhälsen zu funktionieren.

Es gibt Switches für den industriellen Einsatz, die rund um die Uhr an der Peripherie des Netzwerks betrieben werden können. Sie funktionieren auch unter schwierigen Umgebungsbedingungen, wie hohen Temperaturen, Staub und Luftfeuchtigkeit, und werden in vielen Arbeitsumgebungen gebraucht, in denen Roboter zum Einsatz kommen sollen, beispielsweise in Offshore-Windparks oder in Tunnel-Infrastrukturen. Wenn ein Switch hier nicht robust genug ist und deshalb oft ausfällt oder gar kaputtgeht, wird womöglich Automatisierungstechnik im Wert von Millionen Euro nutzlos.

Es gibt aber nicht nur physische Herausforderungen, sondern auch digitale. Durch den Einsatz der Intelligent-Fabric-Technologie können sich Unternehmensnetzwerke dynamisch an die Anforderungen virtualisierter Workloads anpassen und das Netzwerkmanagement durch umfassende Automatisierung vereinfachen. Die Strategie der Application Fluent Networks, auf der Netzwerke mit Intelligent Fabric basieren, bietet die Flexibilität, die unbedingt notwendig ist, um Roboter in ein Netzwerk beliebiger Größe zu integrieren und Daten und Applikationen rund um die Uhr so zu priorisieren, dass jederzeit der richtige Service zur richtigen Zeit am richtigen Ort bereitgestellt wird.

Künftig alles in der Cloud?

Neue Entwicklungen im Cloud-Computing, wie die cloudbasierte Verarbeitung von komplexen Daten bei der Sprach- und Gesichtserkennung, zeigen in Tests bereits vielversprechende Ergebnisse  und werden künftig dazu beitragen, die Vorteile von konvergenten Infrastrukturen auch für die Robotik zu nutzen. Voraussetzung für die praktische Nutzung dieser modernen Technologien sind jedoch Netzwerke mit hohen Datenübertragungsraten und besserer Interoperabilität. Im Rahmen des cloudbasierten, bedarfsorientierten Computings können Roboter schrittweise und damit kosteneffizient eingeführt werden.

Im Laufe des Jahres 2016 sollten wir aufmerksam beobachten, wie sich die Netzwerk- und Cloud-Technologien und die Robotik weiterentwickeln. Smarte Maschinen werden nicht optimal funktionieren, wenn sie auf „dumme“ Netzwerke angewiesen sind. Unternehmen brauchen eine intelligente, automatisierte Netzwerkpriorisierung auf allen Ebenen, damit die richtigen Daten ohne Unterbrechung zum richtigen Ort weitergeleitet werden.

Weitere Informationen unter:
http://enterprise.alcatel-lucent.de

Bildquelle / Lizenz:
http://de.freeimages.com/photo/network-1506597; veröffentlicht unter: http://de.freeimages.com/license

#NeueGeldquellen

Dank der Digitalisierung stehen Unternehmen neue Finanzierungsmöglichkeiten zur Verfügung.

Die Digitalisierung ist in den Unternehmen angekommen. Messbar ist dies auch am neuen Rollenverständnis des CFO, wie eine aktuelle Studie von Deloitte zeigt. Nicht nur sein eigener Bereich ist von der Digitalisierung betroffen, er sieht sich auch immer häufiger als proaktiver Gestalter der Digitalisierungsstrategie für das Gesamtunternehmen. Kreativität und Flexibilität sind gefragt, wenn der CFO dem CEO Finanzierungsmöglichkeiten hierfür vorschlagen will: Das völlig neue Zinsumfeld auf der einen und hemmende regulative Bestimmungen (Eigenkapitalvorschriften von Basel III) auf der anderen Seite erschwe­ren traditionelle Finanzierungswege über Banken wie die Beschaffung von Eigen- und Fremdkapital. Als Treiber erweisen sich dabei die zahlreichen Initiativen der Wirtschaft unter dem Stichwort Industrie 4.0, die in Deutschland für Aufsehen und Phantasie sorgt.

Vor allem junge Tech-Unternehmen benötigen während der „digitalen Revolution“ auf deren Bedürfnisse zugeschnittene Start-up-Finanzierungen. Zahl­reiche Kapitalgeber wie Acton und Finlab haben sich gerade auf diese jungen und innovativen Märkte  spezialisiert. Finlab-Vorstandschef Kai Panitzki erörterte im Rahmen einer Veranstaltung auf dem Warren-Buffet-Flughafen in Egelsbach bei Frankfurt die Aktivitäten seines Unternehmens. „FinTech-Start-ups werden die Finanz­wirtschaft revolutionieren“, hieß es im Rahmen dieser Veranstaltung von mehreren Seiten. Zum Portfolio von Finlab gehören Gesellschaften wie Heliad, die FintechGroup und auch die Crowdlending-Plattform kapilendo.

Das Marketing für die Unternehmen spielt bei dieser Plattform eine entscheidende Rolle. „Bei der Präsentation der Kreditprojekte steht kapilendo den Unternehmen beratend zur Seite. Mit einem kostenlos gedrehten Unternehmensfilm werden alle Unternehmen und deren Geschäftsmodelle professionell auf der Plattform dargestellt. Neben der Finanzierung bekommt der Unternehmer über kapilendo so also für sein Kreditprojekt Öffentlichkeit. So können nicht nur Kunden zu Anlegern, sondern auch Anleger zu Kunden gemacht werden“, erläutert kapilendo-Chef Christopher Grätz. „Au­ßerdem begleiten wir den Unternehmer über die gesamte Laufzeit und verbreiten beispielsweise Interviews über die Fortschritte im Unternehmen, bewerben Produkte oder teilen Gutscheine an die Anleger aus.“ Das Risiko für den Unternehmer ist dabei extra klein gehalten. Zum einen fallen nur dann Kosten an, wenn das Projekt tatsächlich finanziert ist, zum anderen ist die Vermarktungs- und Verwaltungsgebühr von 0,75 Prozent pro Jahr extra auf die Laufzeit verteilt, um nicht liquiditätsbelastend zu sein. Bleibt noch eine einmalige Vermitt­lungsgebühr die mit der Auszahlung der Kreditsumme anfällt. Diese ist laufzeitabhängig und reicht von 1,9 Prozent bei einem Jahr bis 4,9 Prozent bei vier Jahren. „Bereits ab 100 Euro können Anleger in Kreditprojekte auf der kapilendo-Plattform investieren und selbst entscheiden, wem und wofür das Geld zur Verfügung gestellt wird. Der Privat­anleger erhält so eine ganz neue Möglichkeit der Geldanlage“, sagt kapilendo-Chef Christopher Grätz.

Auch der einst mit großen Erwartungen gestartete Markt für Mittelstandsanleihen ist ins Straucheln geraten. Selbst gute Unternehmen mit vernünftiger Bonität haben derzeit kaum Chancen, sich hier Fremdkapital zu beschaffen. Jetzt stößt die neu gegründete Deutsche Private Placement Plattform (DPPP) in diese Lücke vor, um den hiesigen Mittelstand auf professionelle Art und Weise mit Kapital versorgen zu können. „Wir sind nach wie vor überzeugt, dass der Mittelstand neben seiner Bankenfinanzierung eine Fremd­finanzierung über den Kapitalmarkt benötigt. Aber in einem anderen Format als bisher“, so Wolf Waschkuhn von One Square Advisors, den Gründern der Plattform. „Wir haben ein Netzwerk institutioneller Investoren etabliert, die ein nachhaltiges Interesse haben, den deutschen Mittelstand mit maßgeschneiderten Finanzierungen zu begleiten“, ergänzt der geschäftsführende Gesellschafter Frank Günther. Diese Mittelstandsanleihe 2.0 orientiert sich an den High-Yield-Markt-Standards, unter deutschem Recht, mit entsprechenden Covenants, Anlegertransparenz, vernünftigen Sicherheiten und einer standardisierten Dokumentation. Dabei ist die DPPP in der Lage, Finanzierungen bis zu 100 Mio. Euro und im Einzelfall auch da­rüber hinaus bei ihren Mitgliedern unterzubringen. Auch eine Investition in nicht börsennotierte Produkte wie Schuldscheindarlehen oder Private-Debt-Instrumente ist möglich.

Crowdlending & Co.Beim Crowdlending finanzieren viele einzelne Kapitalgeber mit unterschiedlichen Beiträgen die Kreditsumme und bestimmen selbst, wem und wofür sie das Geld zur Verfügung stellen.
Eine ausführliche Erklärung dazu und zu anderen Begriffen aus dem FinTech-Bereich finden Sie auf:
https://trendreport.de/fintech

Kapitalbeschaffung durch Private Equity und Mezzanine-Capital ist ein weiterer Weg, der seit Jahren über die Emission von Finanzierungsinstrumenten wie Aktien, Anleihen, Genussrechten sowie Wandel- oder Optionsanleihen beschritten wird. Auch der IPO („Initial Public Offering“) bleibt wichtig um sich Wachsumskapital an den Kapitalmärkten zu beschaffen. Gelder von staatlichen Förderbanken stellen einen weiteren Finan­zierungsweg dar, ebenso wie direkte Mitarbeiter-Beteiligungen, bei denen allerdings die steuerliche Komponente starke Beachtung finden muss. Die Möglichkeit, die Mitarbeiter über Beteiligungen zu motivieren, spielt hier allerdings in der Regel eine übergeordnete Rolle. Im finanzpolitisch veränderten Umfeld positionieren sich auch die Finanzierungsformen Leasing und Factoring immer stärker. Dies auch, weil sie sich gegenseitig auf interessante Art und Weise ergänzen. Ein weiterer Vorteil im Kontext der Unternehmensfinanzierung ist die geplante Kapitalmarktunion der Europäischen Union. „Generell ist die Kapitalmarktunion mit dem Ziel, KMUs weitere Finanzierungsmöglichkeiten zu eröffnen, ein Schritt in die richtige Richtung“, so Falk Raudies, Vorstand FCR-Immobilien AG. Raudies weiter: „2016 wird ein wichtiges Jahr, um entscheidende Hürden auf europäischer Ebene zu nehmen und die Voraussetzungen für die in 2019 avisierte Kapitalmarktunion zu schaffen.“ Noch haben diese Finan­zie­rungs-Al­ternativen ihr Potenzial nicht voll erschlossen. Dies auch, weil die Herausforderungen von digitaler Trans­for­mation und Industrie 4.0 auf der Finanzierungsseite als enorm gelten. Grundlage aller Innovation ist Liqui­dität. Mit Leasing und Factoring gelingt es Unternehmen der Wirtschaft – vor allem des Mittelstandes –, die für das Wachstum notwendige Liquidität zu schonen. Factoring garantiert auf der einen Seite den laufenden Cashflow und sichert auf der anderen Seite den möglichen Ausfall von Forderungen ab.

Speziell für Unternehmen der IT-Branche gibt es durch Leasing gezielte Finanzierungsangebote. Gerade Finanzdienstleister aus der IT-Branche bieten dieses sowie eine Vielzahl weiterer interessanter Finanzierungsinstrumente an. Der Vorteil: Sie können sich als Hightech-Unternehmen und IT-Experten sehr gut in die Gedankenwelt ihrer Kunden einloggen und individuelle Lösungen erarbeiten. Eine Hilfe, die der CFO bei seiner Digitalisierungs­strategie gut gebrauchen kann.

von Udo Rettberg
u.rettberg@trendreport.de

Auf dem Prüfstand: Dividendenhistorien der DAX-Konzerne

Zwölf DAX-Unternehmen weisen durchschnittliche Dividendenrenditen von über 3 Prozent auf. Allerdings sind nicht alle Konzerne zuverlässige Dividendenzahler. Zu diesem Ergebnis kommt Bastian Galuschka, Stellvertretender Chefredakteur des Finanzportals GodmodeTrader. In der dreiteiligen Studie „Der große DAX Dividenden Report“ hat er die Dividendenhistorien der 30 DAX-Konzerne über die Jahre 2006 bis 2016 untersucht.

„Die anhaltende Nullzinspolitik und immer wieder aufkommende Diskussionen zum Thema Dividende habe ich zum Anlass genommen, die DAX-Konzerne bezüglich ihrer Dividendenentwicklung auf Herz und Nieren zu testen“, erklärt Bastian Galuschka.

Durchschnittlich ansehnliche Dividendenrenditen

Zwölf Unternehmen weisen durchschnittliche Dividendenrenditen von über 3 Prozent auf, bei sechs Konzernen (Allianz, Deutsche Telekom, E.ON, Munich Re, ProSiebenSat.1 und RWE) liegt sie sogar über 4 Prozent. Doch zeigen gerade die Beispiele E.ON und RWE, dass die Dividendenrendite nur eines von zahlreichen Kriterien für ein solides Dividendeninvestment sein kann. „E.ON und RWE mussten über die Jahre die Dividende massiv senken. Sie sind im Zuge der Untersuchungen daher schnell aus dem Raster überzeugender Dividendeninvestments gefallen“, so Bastian Galuschka weiter.

Teilweise entfallen 100 Prozent der Gesamtrendite auf Dividenden

Beim Thema Dividendenkontinuität glänzen dagegen Fresenius und Fresenius Medical Care. Beide Konzerne haben in jedem der untersuchten Jahre die Dividende erhöht. Fresenius könnte im kommenden Jahr sogar als erster deutscher Konzern überhaupt in die Riege der Dividendenaristokraten aufsteigen. Dazu zählen Werte, die mindestens 25 Jahre in Folge die Dividende erhöht haben. „Am interessantesten fand ich die Auswertung des Anteils der Dividende an der gesamten Rendite für den Anleger im Zeitraum 2006 bis 2016“, kommentiert Bastian Galuschka. „Bei der Allianz oder der Deutschen Telekom hat sich kurstechnisch seit 2006 unterm Strich nichts getan. Berücksichtigt man aber die Dividendenzahlungen, haben die Aktien zumindest 40 bzw. gut 50 Prozent an Wert gewonnen. Der komplette Wertzuwachs für den Anleger entfiel also auf die Dividendenzahlungen.“

Wichtig ist, dass bei Dividenden der langfristige Aspekt im Vordergrund stehen sollte. In allen untersuchten Disziplinen (Dividendenkontinuität, Dividendenrendite, Ausschüttungsquote) überzeugte hier vor allen Dingen der Rückversicherer Munich Re. Analysten erwarten im kommenden Jahr eine Rekordausschüttung bei den Münchnern von 8,50 EUR je Aktie. Das entspricht einer ansehnlichen Dividendenrendite von 5,2 Prozent.

Die Ergebnisse des großen DAX Dividenden Reports können Interessierte unter www.godmode-trader.de nachlesen.

Bildquelle / Lizenz:

Neue Version: „Open Content – Ein Praxisleitfaden zu Creative-Commons-Lizenzen“

Was Open-Content-Lizenzen sind, wie sie funktionieren und was die Rechte und Pflichten von Urhebern und Nutzern dabei sind, erläutert die Broschüre „Open Content – Ein Praxisleitfaden zur Nutzung von Creative-Commons-Lizenzen“.

Open-Content-Lizenzen wie Creative Commons erlauben es Urhebern, ihre Inhalte unter bestimmten Bedingungen zur Nutzung freizugeben. Dabei verzichten sie nicht komplett auf ihre Rechte, sondern bestimmen frei, wer was unter welchen Bedingungen mit ihren Werken tun kann. Für Nutzer haben freie Inhalte den Vorteil, dass sie innerhalb der Bedingungen, die die Urheber vorgegeben haben, Bilder, Texte, Musik und Filme nutzen können, ohne sich in urheberrechtliche Schwierigkeiten zu bringen.

Die von Till Kreutzer verfasste Broschüre „Open Content – Ein Praxisleitfaden zur Nutzung von Creative-Commons-Lizenzen“ ist jetzt auf Deutsch in neuer und überarbeiteter Version erschienen. Herausgeber sind neben der deutschen UNESCO-Kommission das Hochschulbibliotheks­zentrum Nordrhein-Westfalen und Wikimedia Deutschland. Die neue und erweiterte Fassung stellt auch die Public-Domain-Werkzeuge von Creative Commons sowie die Version 4.0 der Lizenzen vor und zeigt einige besonders gute Fotos aus dem freien Bildarchiv Wikimedia Commons.

Wikimedia hat zudem eine Online-Fassung der Broschüre erstellt. Wie bisher ist die Broschüre auch auf Englisch erhältlich. Daneben gibt es eine indonesische Übersetzung unter dem Titel „Konten Terbuka – Pedoman Praktis Penggunaan Lisensi Creative Commons“, die Wikimedia Indonesien veröffentlicht hat. Die Broschüre kann gemäß den Bedingungen der Lizenz CC BY übersetzt, bearbeitet und weiterverbreitet werden.

Die Printfassungen der deutschen und englischen Ausgabe sind bei der deutschen UNESCO-Kommission bestellbar.

 

 

Lizenz Aufmacherbild: Benh Lieu Song,“A hot air balloon being inflated before air trip over Cappadocia, central Turkey, as seen from inside.CC BY-SA

 

 

Unabhängiges Zertifikat für Social Media Manager

Social Media Manager können unabhängiges Zertifikat des Bundesverbandes Community Management erhalten

 

Teilnehmer der Weiterbildung zum Social Media Manager der
Leipzig School of Media (LSoM) können sich ihre erworbenen Fachkenntnisse ab sofort vom Bundesverband Community Management e.V. für digitale Kommunikation & Social Media (BVCM) zertifizieren lassen.
Das unabhängige Qualitätssiegel bekommen die Kursteilnehmer nach erfolgreichem Abschluss einer freiwilligen externen Prüfung.

 

Vivian Pein, 2. Vorstandsmitglied des BVCM e.V.

Vivien Pein, 2. Vorstandsmitglied des BVCM e.V.

„Arbeitgeber können bei einem Zertifikat des BVCM sicher sein, die Besten der Branche vor sich zu haben. Wir stehen als Berufsverband für die Professionalisierung dieser noch jungen Branche“, sagte Vivien Pein, Vorstandsmitglied des BVCM, zum Start des Angebots.

 

 

Bislang konnten die an der LSoM ausgebildeten Social Media Manager ein Zertifikat der Prüfungs- und Zertifizierungsorganisation der Kommunikations-wirtschaft (PZOK) erwerben. Die PZOK beendete jedoch vor kurzem ihre Prüfungstätigkeit.
Der BVCM schließt nun diese Lücke.

 

Claudio Marinow, LSoM -Referent für Kurse und Seminare

Claudio Marinow, LSoM
-Referent für Kurse und Seminare

„Wir sind froh, dass wir eine neue externe Branchenprüfung anbieten können, denn sehr viele unserer Kursteilnehmer haben davon Gebrauch gemacht“, sagte Claudio Marinow, LSoM-Referent für Kurse und Seminare.
„Die Prüfung durch einen unabhängigen Anbieter hat bei Arbeitgebern nun einmal einen besonderen Stellenwert. Außerdem macht ein solches Angebot die Abschlüsse in diesem noch recht jungen Berufsfeld vergleichbar.“

 

Die ersten Prüfungen finden bereits Anfang Oktober in Leipzig statt.
In Berl in und weiteren deutschen Großstädten sollen ebenfalls Termine angeboten werden.

 

Keine Änderungen im Prüfungsaufbau

 

Am Aufbau der Zertifikatsprüfung mit Multiple-Choice-Fragen, Konzeptionsaufgabe und Fachgespräch ändert sich nach dem Wechsel von PZOK zu BVCM zunächst nichts. Die BVCM-Prüfer wollen das Angebot mit ihrem Fach- und Praxiswissen aber stetig aktualisieren und an neue Erfordernisse anpassen. Zu diesem Zweck führt der BVCM ab 2017 auch eine zweite Zertifikatsprüfung für angehende Community Manager ein.
Die LSoM konzipiert derzeit eine entsprechende neue Kursreihe.

 

Franziska Fiedler, Referentin für Kurse und Semin are, LSoM

Franziska Fiedler, Referentin für Kurse und Semin
are, LSoM

„Wir stehen schon seit längerem in Kontakt mit den Fachleuten des BVCM, um einen Zertifikatskurs zum Community Manager in unser Programm aufzunehmen“, erklärte Franziska Fiedler, ebenfalls Referentin für Kurse und Seminare an der LSoM.

 

Die LSoM folgt damit der Einschätzung des Verbandes, wonach sich die Aufgaben im Bereich Social Media immer weiter ausdifferenzieren.
Fiedler: „Es ist unmöglich geworden, alle Kenntnisse und Fähigkeiten, die in dem Berufsfeld benötigt werden, in einer einzelnen kompakten Kursreihe zu vermitteln. Das Interagieren mit Nutzern oder das Moderieren von Diskussionen im Social Web unterscheidet sich zum Beispiel sehr stark von der Entwicklung einer übergreifenden Social-Media-Strategie oder
Kampagnenplanung. Diesen wachsenden Anforderungen müssen wir auch in der Weiterbildung Rechnung tragen.“

 

Die LSoM bietet die Ausbildung zum Social Media Manager bereits seit Sommer 2012 an. Die Nachfrage nach fundierter Weiterbildung in diesem Bereich hat seit dem fortlaufend zugenommen.
Zuletzt war die Nachfrage so groß, dass für Herbst 2016 kurzfristig ein Zusatztermin ins Programm genommen wurde. Bislang haben mehr als 80 Medienschaffende erfolgreich an der LSoM-Kursreihe teilgenommen.

 

Weitere Informationen zum Zertifikatskurz finden Interessierte hier:
Zertifikatskurs zum Social Media Manager der LSoM

 

Informationen zur neuen Zertifikatsprüfung des BVCM sowie zu den Berufsbildern des Social Media Mangers und des Community Managers finden Interessierte hier: BVCM

 

Ansprechpartner für Rückfragen zum Zertifikatskurs:
Claudio Marinow, Referent für Kurse und Seminare
Tel. +49 341 56296-702

 

Ansprechpartnerin für die Medien:
Kathrin Schmidt
Referentin Marketing und Kommunikation
Tel. +49 341 56296-701

 
Aufmacherbild / Lizenz / Quelle

Social Media Class“ (CC BY 2.0) by mkhmarketing

Intelligente Fertigungsbetriebe dank Track-and-Trace

David Stain, Senior Vertical Marketing Manager Fertigung und Einzelhandel, Zebra Technologies schreibt auf trendreport.de, wie Intelligenz und Transparenz in Fertigungsbetrieben zum Endkundenbindungsinstrument werden.

Obwohl unsere Kunden aus den unterschiedlichsten Industrien stammen, ähneln sich ihre Probleme: Wettbewerbs- und Kostendruck, komplexe Regulierungen, steigende Rohstoffpreise sowie die Notwendigkeit einer immer schnelleren Fertigung. Und die Verbraucher? Erwarten Maßanfertigungen statt Produkte von der Stange.

Das „Mehr“-Zeitalter

Zusammenfassen lassen sich diese Entwicklungen in einem Wort: „mehr“. Um wettbewerbsfähig zu bleiben, müssen Unternehmen immer mehr mit immer höherer Geschwindigkeit produzieren, um mehr Zeit und damit Kosten zu sparen. Gleichzeitig müssen sie immer mehr Gesetzesvorgaben und Richtlinien beachten. Durch Barcodes und Smart-Sensoren miteinander vernetzte Objekte können untereinander ebenso Daten austauschen wie mit dem Backoffice. Das ist wichtig für die Produktion, insbesondere in den einzelnen Abschnitten und an den Toren eines Werks.

Abschnitte und Tore: erhöhte Transparenz

In Fertigungsbetrieben besteht immer die Gefahr, dass Bereiche isoliert arbeiten. Werktore haben jedoch einen verbindenden Charakter. Sie bilden den Übergang zwischen verschiedenen Werksabschnitten und spiegeln so einige der Grundprinzipien von Industrie 4.0 wider, etwa Vernetzung und Transparenz.

 

Intelligente Transparenz

Gartner schätzt, dass bis 2025 25 Mrd. vernetzte Objekte in Betrieb sein werden. Das Internet der Dinge verspricht Transparenz in den Fertigungsstraßen – dank intelligenter Sensoren, Labels und Tags.

Gartner, http://www.gartner.com/newsroom/id/2905717

Ein Tor ist dabei auch ein Kontrollpunkt: Beim Wareneingang wird am Tor beispielsweise der Lieferschein mit den eintreffenden Materialien abgeglichen. Mit der Anzahl der Tore steigt daher die Transparenz eines Betriebs. Die Datenverarbeitung an den Toren kann mithilfe von Barcode- und RFID-Etiketten sowie -Anhängern automatisiert werden. Handscanner und automatisierte Systeme können die gespeicherten Daten erfassen, stationäre RFID-Lesegeräte verfolgen dabei die Position von Objekten in der Anlage. Durch die Übermittlung dieser Daten über WLAN an Backoffice- und Steuerungssysteme sowie an die Mobilgeräte des Teams ist der Produktionsstand jederzeit ersichtlich.

Standardverfahren verbessern

Papierbasierte SOPs (Standard Operating Procedures, Standardverfahren) sind unflexibel und oft komplex. Die Nutzung digitaler Technologie erweitert die SOPs durch neue Möglichkeiten wie Sprachausgabe und Video- Anleitungen. Schon bald kann auch der Einsatz von Augmented Reality (AR) die Prozesse weiter verbessern: Datenbrillen etwa können Text, Videos und Bilder in das Blickfeld eines Mitarbeiters projizieren.

Bildquelle Grafik: Zebra Technologies

Bildquelle Grafik: Zebra Technologies

Anhand dreier Beispiele möchte ich zeigen, wie die Nutzung digitaler Track-and-Trace-Technologie die Effizienz in der Fertigung steigern kann.

  • Wareneingang: Typische Probleme sind langwierige Einbuchungen, umständliche Suchen nach fehlenden Paletten und ausschließlich gedruckte Anweisungen für die Einlagerung. Verzögerungen können hier Blockaden oder sogar Produktionsausfälle verursachen. Durch manuelles sowie automatisiertes Scannen der Waren bei ihrem Eingang können solche Probleme vermieden werden.
  • Teile an der Fertigungsstraße: Viele Unternehmen stehen der Umstellung auf Just-in-Time-Produktion (JIT) skeptisch gegenüber. Um sicherzustellen, dass die Ware erst bei Bedarf geliefert wird, benötigen Unternehmen einen vollständigen Überblick über die Lieferkette – und diese Transparenz fehlt häufig. Werden die Waren aber an jeder Station vom Versand bis zur Verwendung gescannt, ergibt sich ein Gesamtbild. Das beschleunigt und optimiert die Prozesse, spart aufgrund reduzierter Lagerbestände Platz und senkt so die Produktionskosten.
  • Montage: Artikel können bis zur Montage nachverfolgt werden. Dort können Mitarbeiter darüber hinaus Mobilcomputer und Handscanner nutzen und diese mit Etikettendruckern verbinden. So können sie Teile etikettieren, um jederzeit deren Status und Qualität zu überprüfen.

Transparenz für Leistungsfähigkeit

Eine Fertigungslinie ist ein komplexes Gefüge von Materialien, Menschen, Maschinen und Prozessen. Bei wachsendem Konkurrenzdruck sowie der Umstellung auf flexiblere Betriebsabläufe ermöglicht die richtige Technologie einem Hersteller, angemessen zu reagieren. Die Kombination intelligenter Sensoren mit automatischen Datenerfassungssystemen liefert fortlaufend Leistungsdaten für Abschnitte oder Tore und erzeugt so Transparenz im gesamten Fertigungsprozess, vom Wareneingang bis zur Auslieferung. Zusätzlich wird Augmented Reality Mitarbeiter von Fertigungsbetrieben bald bei der Umstellung auf neue Prozesse zur Produktivitätssteigerung unterstützen. So entsteht „vernetzte Transparenz“ – in der intelligenten Fabrik der Zukunft.

Bildquelle / Lizenz Grafik: Zebra Technologies

Bildquelle / Lizenz Aufmacher: Zebra Technologies