ERP-Systeme verwandeln IoT-Daten in optimierte Prozesse

von Stefan Issing und Peter Schulz

Um die Möglichkeiten von Industrie 4.0 voll auszuschöpfen, müssen die aus Sensorendaten gewonnenen Erkenntnisse operationalisiert und in effizientere Prozesse umgesetzt werden. Das ist die zentrale Rolle von ERP-Systemen in Indus­trie-4.0-Umgebungen.

Das Internet of Things (IoT) kann Industrieunternehmen heute Millionen an Sensorendaten liefern, aus deren Analyse sich wertvolle Erkenntnisse gewinnen lassen. Diese Informationen nur zu sammeln und auszuwerten reicht aber nicht aus. Um von diesen Big Data wirklich zu profitieren, müssen die Erkenntnisse auch zu Aktionen führen, die die Geschäftsabläufe verbessern, seien es optimierte Wartungspläne, verbesserte Service-Levels, optimierte Logistik, bessere Produkte oder die Entwicklung neuer Geschäftsmodelle.

Die IoT-Daten müssen also operationalisiert werden – und das ist die zentrale Aufgabe von ERP-Systemen in Industrie-4.0-Umgebungen. Zum einen steuern sie als Herzstück der Unternehmens-IT die Kernprozesse der Indus­trieunternehmen und sind damit naturgemäß auch für deren Optimierung durch neue Erkenntnisse zuständig; zum anderen agieren ihre Anbieter teilweise schon Jahrzehnte am Markt und verfügen deshalb über ein umfassendes Know-how dafür, welche Daten ein Unternehmen genau benötigt, um durch optimierte Geschäftsprozesse für effizientere Abläufe oder höhere Qualität zu sorgen.

Industrie 4.0 entwickelt in den allermeisten Fällen das vorhandene Geschäft weiter, anstatt es grundlegend zu verändern.

ERP-Systeme in IoT-Plattformen aus der Cloud integrieren

Ein Beispiel für die Operationalisierung von IoT-Daten im ERP-System sind optimierte Wartungsprozesse. Wenn etwa Sensoren Daten über zu hohe Temperaturen eines bestimmten Teils sammeln, sollten diese nicht nur gesammelt und registriert werden, um dann manuell darauf zu reagieren; das volle Potenzial zeigt sich erst dann, wenn auf Basis dieser Daten ein Prozess angestoßen wird, der automatisch Servicepersonal mit dem Austausch des betroffenen Teils beauftragt und damit seinen Ausfall verhindert. Operationalisieren und Automatisieren – erst durch diese Kombination kann Industrie 4.0 ihre ganze Kraft entfalten und signifikante Umsatzsteigerungen bewirken.

Stefan Issing

Im ERP-System werden dazu aber nicht sämtliche Daten benötigt, die Industrie 4.0 generiert. Deshalb muss es in eine IT-Architektur eingebunden werden, die die Erfassung, Speicherung und Filterung der Daten ermöglicht. Eine sehr gute Möglichkeit dazu bietet die Integration in IoT-Plattformen in der Cloud.
Mit diesen Plattformen lassen sich die riesigen Datenmengen, die unter anderem von den Sensoren geliefert werden, empfangen, verarbeiten, filtern und an das ERP-System weiterreichen, ohne dafür selbst ein Rechenzentrum aufbauen zu müssen, das Millionen von Transaktionen stemmen kann. Im Sinne einer ganzheitlichen IT-Landschaft wird mittelfristig auch das ERP-System selbst zunehmend in die Cloud wandern; allerdings wird sich dabei hierzulande vor allem das Private-Cloud-Modell durchsetzen. In Deutschland, aber auch in Österreich und der Schweiz sind die Unternehmen – ganz im Gegensatz etwa zu den USA – sehr zurückhaltend, wenn es darum geht, geschäftskritische Daten in die öffentliche Cloud auszulagern.

Das Geschäft nicht auf den Kopf stellen, sondern Schritt für Schritt verbessern

Peter Schulz

Beim Stichwort Internet of Things kommen vielen Menschen automatisch Unternehmen mit disruptiven Geschäftsmodellen wie der Online-Fahrdienst-Vermittler Uber oder der Video-Streaming-Dienst Netflix in den Sinn, die komplette Branchen auf den Kopf gestellt haben. Industrie 4.0 entwickelt aber in den allermeisten Fällen das vorhandene Geschäft weiter, anstatt es grundlegend zu verändern. Beim Blick auf Unternehmen, die bereits erfolgreich Industrie-4.0-Anwendungen nutzen, zeigt sich, dass die allermeisten von ihnen mit einem inkrementellen Ansatz gestartet sind. Das kann zunächst auch nur die Anbindung einer einzigen Maschine sein.

Erzielt man dadurch ein bisschen mehr Umsatz, kann das die Inspiration für einen größeren Schritt sein – beispielsweise die Integra­tion mit weiteren Datenstreams wie Wettervorhersagen oder Temperaturänderungen, die es erlauben, die Leistung einer Maschine weiter zu optimieren.
So wird durch zunehmende Vernetzung Schritt für Schritt die Fabrik von morgen entstehen, in der ERP-Lösungen mithilfe Künstlicher Intelligenz und Algorithmen sich selbst planende und steuernde Systeme unterstützen. Szenarien wie das folgende sind dann an der Tagesordnung: Zahlreiche Komponenten in einem Auto sammeln kontinuierlich Daten über ihren Zustand und können auf Basis dieser Informationen mitteilen, wann sie unter Umständen ausgetauscht werden müssen, noch bevor es zu einem möglichen Ausfall kommt.

Checkliste ERP-System in Industrie-4.0-Umgebungen

Das muss ein ERP-System für Industrie 4.0 mitbringen:
– Es lässt sich durch Konfiguration statt Modifikation flexibel an die veränderten Rahmenbedingungen anpassen.
– Es kann unterschiedlichste Datentypen verarbeiten, die von Sensoren und Geräten erzeugt werden.
– Zur Kommunikation mit den Ressourcen in der Fertigung kann es über offene Plug-and-Play-Schnittstellen unterschiedliche Produktionsleitsysteme anbinden.
– Leistungsfähige Multi- und Inter-Site-Funktionalitäten sorgen für die Steuerung des erweiterten Informationsflusses über sämtliche, auch internationale Standorte hinweg.
– Zur schnellen Anbindung neuer Partner bietet es offene und leicht konfigurierbare EDI-Schnittstellen sowie spezielle B2B-Portale.
– Um sich selbst organisierende Produktionseinheiten zu ermöglichen, unterstützt es durch Methoden wie Kanban eine hohe Automatisierung.
– Zur Echtzeit-Überwachung von Industrie-4.0-Prozessen führt es Daten und Prozesse aus mehreren Quellen in einem Enterprise-Operational-Intelligence-System zusammen.

Dazu sendet die betroffene Komponente selbstständig eine Mitteilung an den Hersteller, dass Ersatz gefertigt werden muss. In der Fabrik, in der dieser Auftrag bearbeitet wird, konfigurieren sich die Maschinen selbst so, dass das passende Teil gefertigt wird, und schicken es anschließend an den richtigen Zielort. Der Termin in der Werkstatt ist dann bereits vereinbart – denn auch darum hat sich das Auto bereits selbstständig gekümmert.

Kernaussagen

  • Um von den Big Data des Internet of Things wirklich profitieren zu können, reicht es nicht, die Daten nur zu sammeln und auszuwerten. Die Erkenntnisse müssen auch zu Aktionen führen, die die Geschäftsprozesse verbessern.
  • Diese Operationalisierung der IoT-Daten ist die Aufgabe von ERP-Systemen – denn sie steuern als Herzstück der Unternehmens-IT die Kernprozesse von Industrieunternehmen und sind damit auch für deren Optimierung zuständig.
  • Dazu sollte sich das ERP an IoT-Plattformen in der Cloud anbinden lassen. Sie bieten eine sehr gute Möglichkeit, die riesigen Datenmengen zu empfangen, zu filtern und an das ERP weiterzureichen, ohne dafür ein eigenes Rechenzentrum zu benötigen.

 

Beitrag veröffentlicht im Dez. 2016 im Handbuch Digitalisierung

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

Business-Design für den digitalen Wandel

Fachbeitrag

von Elmar Nathe

Die digitale Transformation erfordert vom Topmanagement eines Unternehmens das grundlegende Überdenken des etablier­ten Geschäftsmodells und die Neuausrichtung der Geschäftsorganisation. Neue Geschäfts­chancen, die durch die Digitalisierung erst ermöglicht werden, müssen erst verstanden und auf ihre Relevanz zur Erneuerung des Geschäftsmodells geprüft werden. Digitalisierung verzahnt Business und IT unmittelbar. Jede Neuaus­rich­tung löst sofort eine entsprechende Änderung in der IT aus. Auch wenn IT-Trends wie z. B. „Internet of Things“ sicher die Weichensteller der digitalen Geschäftsmodelle sind, sollten Unternehmen beim Entwurf ihrer digitalen Strategie an den Nutzen für ihre Kunden denken. Startpunkt sind also die – wahrscheinlich schon – bekannten Probleme der Kunden. Ein tieferes Verständnis zu entwickeln, worin der Kern des Problems eigentlich besteht und welche Ansätze diese lösen können. Mögliche Fragestellungen sind:

  • Was sind die aktuellen Herausforderungen unserer Kunden in ihren Märkten?
  • Wie können digitale Technologien unsere Produkte bzw. Services verbessern?
  • Wie können unsere Kunden enger an uns gebunden werden?

Doch wie kann effektiv eine digitale Strategie entwickelt und umgesetzt werden? Das wird am Beispiel eines Maschinenbauers dargestellt. Dieser möchte sein herkömmliches, auf der Konstruktion, Produktion und Lieferung von Spezialmaschinen beruhendes Geschäftsmodell erweitern. Hierfür sollen Technologien aus der Industrie 4.0 wie z. B. Sensoren, RFID und Big Data genutzt werden.

Zur digitalen Strategie mit vier Management-Werkzeugen

Die pragmatische, lösungsorientierte Kopplung von Business und IT ist im Rahmen der digitalen Transformation wichtig. Hierfür bietet es sich als Unternehmen an, folgende Elemente auszuarbeiten:

  • Customer-Journey-Mapping
  • Geschäftsfähigkeiten-Landkarte
  • Value-Proposition
  • Lean Start-up.

Potenziale aus der Kundensicht entdecken

Elmar Nathe

Customer-Journeys stellen die Reise des Kunden bei der Interaktion mit dem Unternehmen dar. Dadurch lassen sich Potenziale und Ansatzpunkte aus Kundensicht entdecken. Hierbei ist es entscheidend, sich auf die Darstellung der Herausforderungen und der Erwartungshaltung der Kunden zu konzentrieren. Die IT kommt erst ins Spiel, wenn es darum geht, wie die identifizierten Probleme gelöst werden können. Als Best Practice hat es sich herausgestellt, dass aus den Customer-Journeys Geschäftsfähigkeiten abgeleitet werden, die das Unternehmen aufbauen muss, um die Kundenbedürfnisse besser bedienen zu können.
Bei dem Maschinenbauer beginnt die Customer-Journey des Kunden bei der Planung der neuen Maschinen und bildet anschließend den Kauf, Betrieb und die Instandhaltung der Anlage bis zur Ersetzung dieser ab. Bzgl. der Instandhaltung könnte erkannt werden, dass es strategisch entscheidend ist, über Geschäftsfähigkeiten zu verfügen, die dem Kunden helfen, die Maschinenlaufzeiten und die -auslastung zu erhöhen.

Nutzen für den Stakeholder herausarbeiten

Ob eine solche Geschäftsfähigkeit das Potenzial hat, ein neues Geschäftsmodell zu tragen, kann über einen „Business Model Canvas“ (BMC) pragmatisch beschrieben werden. Zentral für den BMC ist das Konzept der Value-Proposition (dt.: Leistungsversprechen). Auf dieser Ebene werden noch nicht die konkreten digitalen Services beschrieben, sondern welcher Wert bzw. Nutzen für den Stakeholder erzeugt werden soll.
Im Kontext einer digitalen Strategie sind Customer-Journeys und die abgeleiteten Geschäftsfähigkeiten ein guter Ausgangspunkt, um eine griffige Value-Proposition für eine Gesamtstrategie zu bilden. So ergibt sich insgesamt ein verständliches Zielbild der digitalen Transformation des Unternehmens. Der Maschinenbauer könnte sich für die Zukunft entscheiden, sich mithilfe von Nutzungsdaten aus der IT und von neu entworfenen Serviceprozessen vom reinen Maschinenlieferanten hin zum Managed-Service-Provider zu entwickeln, der dem Kunden hilft, die Maschinenlaufzeiten und -auslastung zu optimieren.

Kernfunktionalitäten werden im MVP abgebildet

Nach Customer-Journey, Geschäftsfähigkeiten und definierten Value-Propositions kommt die Feinarbeit! Jetzt gilt es, konkret die einzelnen, neuen Geschäftsfähigkeiten zu detaillieren und in IT-Produkte umzusetzen. Business und IT arbeiten hier Hand in Hand zusammen, um iterativ und möglichst schnell das Produkt auf den Markt zu bringen. Nach dem Lean-Start­up-Ansatz wird zuerst ein „Minimum Viable Product“ (MVP) entwickelt. Das MVP enthält nur die Kernfunktionalitäten, die den primären Nutzen für den Kunden generieren sollen. Das MVP wird schnellstmöglich auf den „Markt“ gebracht, um zu evaluieren, wie die neue Produktidee basierend auf der Value-Proposition tatsächlich bei den Kunden ankommt.

Der Maschinenbauer könnte in ersten Workshops gemeinsam mit ausgewählten Pilotkunden die Hauptursachen für Maschinenausfälle ermitteln und sich in einem MVP auf diese fokussieren. Hierfür wird ein erster Prozess entworfen, mit dem die Betriebsdaten der Maschinen analysiert und Muster erkannt werden können, die auf ein technisches Problem hindeuten. In einem iterativen Prozess können dann mit den Kunden Serviceprozesse und die zugrunde liegenden IT-Systeme weiterentwickelt und verfeinert werden, bis das neue Geschäftsmodell Managed-Service-Provider tragfähig und profitabel ist.
Werden die Schritte systematisch durchgeführt, wird so eine zukunftsträchtige digitale Strategie für das Unternehmen entwickelt. Kreative, innovationsfördernde Methoden und iterative, auf schnellem Kundenfeedback beruhende Ansätze für das Business-Development lassen auch in etablierten Unternehmen die notwendige Start-up-Mentalität einziehen.

Kernaussagen

Die Digitalisierung eröffnet neue Geschäftschancen. Diese müssen ergebnisoffen in interdisziplinären Teams diskutiert und ausgearbeitet werden.
Bei der anschließenden Ausarbeitung der digitalen Strategie wird der Kunde in den Mittelpunkt gestellt.
Vier Management-Werkzeuge erleichtern die Ausarbeitung der digitalen Strategie:

  • Customer-Journey-Mapping
  • Geschäftsfähigkeiten-Landkarte
  • Value-Proposition
  • Lean-Start-up.

 

Veröffentlicht im Dez. 2016 im Handbuch Digitalisierung

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

Optimierte Infrastruktur treibt die digitale Transformation an

Unternehmen aller Größen müssen eine Antwort darauf finden, wie sie die digitale Transformation umsetzen, um zukunftsfähig zu werden. TREND REPORT sprach dazu mit Jürgen Metko, Regional Vice President Web Sales & Managing Director Central Europe bei Akamai, und Sven Klindworth, bei BT für das IT-Lösungsgeschäft in Deutschland und Österreich verantwortlich.

Die digitale Transformation ist ein schillernder Begriff. Was verstehen Sie darunter?

Jürgen Metko

Jürgen Metko: Die digitale Transformation ist ein zentraler Faktor für die Differenzierung und Wettbewerbsfähigkeit der Unternehmen. Sie hat Auswirkungen auf das Geschäftsmodell, die Prozess- und die gesamte Wertschöpfungskette. Im Kern geht es um die Entwicklung einer digitalen Unternehmensstrategie. Geschäftsmodell und Prozesse beschreiben die digitale Transformation, bei der die Wertschöpfung ausschließlich im Internet stattfindet. Das lässt sich am Beispiel der sogenannten Cloud-born-Unternehmen wie Airbnb und Uber illustrieren. Sie haben ihre gesamte Wertschöpfungskette im Internet aufgebaut. Aber auch bei den traditionellen Unternehmen zeigt sich ein klarer Trend, dass immer mehr Geschäftsprozesse – und das gilt insbesondere für die Services mit Kunden, Lieferanten und Geschäftspartnern – über das Internet erfolgen.
Sven Klindworth: Ich möchte das um zwei Aspekte ergänzen. Vor allem im B2C-Markt haben es die etablierten Unternehmen mit neuen Wettbewerbern zu tun. Die Cloud-born-Anbieter drängen sich zwischen die Hersteller von Produkten und den Endkunden. Sie brechen die bisherigen Beziehungen zwischen Herstellern und Kunden auf und schaffen Plattformen, auf denen dann der gesamte Mehrwert entsteht, etwa im Buchhandel, in der Musik- und Filmbranche oder im Reisegeschäft. Im B2B-Markt haben auch etablierte Anbieter die Initiative ergriffen. Unternehmen aus dem produzierenden Gewerbe statten ihre Produkte mit Funkchips aus und verkaufen keine Produkte mehr, sondern Services wie Predictive Maintenance oder Echtzeit-Support. Der Hersteller einer Schlagbohrmaschine verkauft keine Ersatzteile mehr, sondern Löcher; und Anlagen, die früher auf eine fünfjährige Nutzungsdauer ausgelegt waren, können per Online-Softwareupdate neue Funktionen erhalten, die vielleicht zehn oder mehr Jahre Investitionsschutz bieten.

Welche Rolle spielt die Cloud bei der digitalen Transformation?
Jürgen Metko: Die digitale Transformation beschreibt den fundamentalen Wandel von Unternehmen hin zu einer mit Kunden, Lieferanten und Geschäftspartnern vollständig vernetzten Organisation. Sowohl im B2C- als auch im B2B-Umfeld sind Anwendungen und Services über das Web zugänglich. Cloud-Technologien bilden daher das Herzstück der digitalen Transformation.
Sven Klindworth: Die digitale Transformation ist ohne die Cloud nicht möglich; vor allem auch deshalb, weil die digitale Transformation nicht auf einen Ort oder einen lokalen Markt beschränkt ist. Wenn Unternehmen neue Marktsegmente und Regionen erschließen wollen, stellt die Cloud die dafür benötigte Daten- und Kommunikationsinfrastruktur bereit. Die GPS-Daten, die die Laufschuhe des Privatkunden, oder die Daten des Reifendrucks, die die Lkws der Logistikunternehmen senden, können nur in der Cloud orts- und zeitnah verarbeitet und ausgewertet werden.

Sven Klindworth

Wie können Sie Unternehmen bei der digitalen Transformation unterstützen?
Jürgen Metko: Unternehmen müssen ihre IT – und das betrifft sowohl das eigene Rechenzentrum als auch die Integration und Nutzung von Cloud-Services – so aufstellen, dass sie zu einem reibungslosen „Enabler“ der digitalen Transformation wird. Durch die Einbeziehung von Cloud-Architekturen zur Bereitstellung von Applikationen, Daten und Services auf beliebigen Endgeräten, und oft weltweit, stellen sich für Unternehmen neue Herausforderungen bezüglich Performance, Verfügbarkeit und Sicherheit. Diese können sie allein meist nicht bewältigen. Wer Webapplikationen oder Cloud-Services für Kunden und Lieferanten anbietet, sollte über die Nutzung eines weltweit verteilten „Content Delivery Networks“ (CDN), wie der Akamai Intelligent Platform, sicherstellen, dass die benötigten Kapazitäten auch in Spitzenzeiten flexibel und zuverlässig bereitstehen.
Sven Klindworth: Zuerst einmal bieten wir unseren Kunden im Regelfall dringend benötigte Beratung bei der Entwicklung und Implementierung ihrer Digital-Transformation- und Cloud-Strategie. Darüber hinaus verfügt BT in Deutschland wie auch weltweit über eine eigene Netzinfrastruktur und Rechenzentren, aus denen IT-Services für Unternehmen erbracht werden. Über ein weltweites IP-Netzwerk erhalten Kunden in über 190 Ländern Zugriff auf Data-Center-Services und IT-Lösungen aus einer Hand. In Gemeinschaftsprojekten ergänzen wir uns mit Akamai. Unsere Kunden bringen ihr fachliches und Branchen-Know-how in Digitalisierungsprojekte ein. BT berät und stellt die Rechenzentren, Cloud-Services und Netzwerkkapazitäten bereit und Akamai sorgt mit seinen Web-Performance- und Security-Lösungen für die verlässliche Auslieferung von Daten und Services über das Internet. Zusammen mit Akamai bieten wir Komplettlösungen, die es Unternehmen ermöglichen, ihre Geschäftsmodelle im Internet erfolgreich umzusetzen.

Kernaussagen

  • Digitale Transformation ist ein entscheidender Faktor zur Stärkung der Wettbewerbsfähigkeit. Bei der Umsetzung neuer Geschäftsmodelle und -prozesse stellt die Cloud die benötigte Kommunikationsinfrastruktur bereit. Cloud-Technologien bilden so das Herz­stück der digitalen Transformation.
  • Mit einem verlässlichen Partner an der Seite sollten Unternehmen jetzt einen Proof of Concept starten, erste Erfahrungen sammeln und das Wissen möglichst rasch in weiteren Projekten umsetzen.
  • In vielen Branchen gibt es bereits einen Chief Digital Officer, der die digitale Transformation vorantreibt. Er sollte über ein fundiertes technisches und betriebswirtschaftliches Know-how verfügen sowie ein Gespür für innovative Ideen mitbringen.

Welche Herausforderungen gibt es für Unternehmen bei der digitalen Transformation?
Sven Klindworth: Bei der Umsetzung der digitalen Transformation lassen sich drei Gruppen unterscheiden: Erstens die allgemein bekannten Cloud-born-Vorbilder und zweitens die Vorreiter unter den etablierten Unternehmen wie Bosch. Der Automobilzulieferer betreibt eine eigene Cloud für internetbasierte Services und stellt dort Anwendungen aus den Bereichen vernetzte Mobilität, vernetzte Industrie und vernetzte Gebäude bereit. Die dritte Gruppe, sehr viele andere Unternehmen, warten ab und wissen nicht, wie sie anfangen sollen. Das betrifft vor allem die Hidden Champions unter den mittelständischen Unternehmen. Sie sind ingenieursmäßig hervorragend aufgestellt, erkennen aber nicht die Chancen, die sich für ihr Unternehmen aus der digitalen Transformation ergeben. Auch sind Ingenieure im Maschinenbau im Regelfall keine Softwareentwickler.
Jürgen Metko: Wir haben in Deutschland eine bedeutende Fertigungsindustrie mit sehr viel Know-how. Eine der Herausforderungen besteht darin, Schritt zu halten mit der Geschwindigkeit, mit der sich Businessmodelle und Geschäftsprozesse ändern. Hier tun sich viele schwer. Andere Branchen, vor allem aus dem B2C-Bereich, haben einen „Chief Digital Officer“ (CDO) ernannt, der die Digitalisierung vorantreiben soll.

Brauchen Unternehmen einen CDO oder kann die IT den digitalen Wandel alleine vorantreiben?
Jürgen Metko: Die meisten Unternehmen haben erkannt, dass sie sich mit der digitalen Transformation befassen müssen, aber es mangelt an einem Plan, wie sie die weitere Digitalisierung anpacken sollen. Der CDO sollte ein Gespür für innovative Geschäftsideen mitbringen, aber auch über ein fundiertes technisches und betriebswirtschaftliches Know-how verfügen.
Sven Klindworth: Dem kann ich mich nur anschließen. Die digitale Transformation ist nicht allein die Sache eines CIO, auch wenn sich dessen Rolle hin zu einer viel stärkeren proaktiven Unterstützung der Fachbereiche entwickelt. Er ist mit Datacentern, Applikationen und Netzen oft schon ausgelastet. Stärkeres unternehmerisches Denken und Querdenken, um beispielsweise das Potenzial von Industrie 4.0 und dem Internet of Things zu erkennen und mit branchenspezifischem Know-how zu kombinieren, erfordert die zusätzliche Rolle des CDO. Diesem kommt zusätzlich der Aufbau einer Partnerlandschaft zu, die man gegebenenfalls braucht, um eine Plattform für Kunden, Lieferanten und Geschäftspartner aufzubauen.

Definition „Content Delivery Network“

Ein „Content Delivery Network“ (CDN) ist ein geografisch verteiltes, aus einer Vielzahl spezieller Server bestehendes Netzwerk. Unternehmen nutzen es für eine schnelle, zuverlässige und sichere Auslieferung von Websites, Web-Applikationen und Unterhaltungsangeboten für Privat- und Geschäftskunden. Akamai betreibt das weltweit größte CDN mit mehr als 220 000 Servern in über 120 Ländern. Um Webinhalte möglichst zügig an die Endbenutzer ausliefern zu können, nutzt das CDN das Edge-Caching. In einem Zwischenspeicher werden auf den Edge-Servern Kopien von Texten, Bildern, Audio­dateien und Videos vorgehalten. Nutzeranfragen können so von einem nahe gelegenen Edge-Server anstatt von einem geografisch entfernten Ursprungs-Server beantwortet werden. Zur schnellen Bereitstellung von Inhalten kommen darüber hinaus Techniken wie Routenoptimierung und TCP-Verbindungsoptimierung zum Einsatz.

Welche Handlungsempfehlungen können Sie Unternehmen geben?
Sven Klindworth: Nach einer Phase der Information und Diskussion ist es jetzt Zeit zu handeln. Unternehmen sollten mit einem verlässlichen Partner an ihrer Seite einen Proof of Concept starten und Erfahrungen sammeln. Sie werden sicherlich im ersten Anlauf nicht alles richtig machen, aber wertvolle Erkenntnisse erwerben, um dann die nächsten Stufen zu starten. Unternehmen eröffnen sich damit Möglichkeiten, ihre Geschäftsmodelle und Services in Richtung Kunden weit attraktiver und damit profitabler zu gestalten und können agiler auf neue Anforderungen in ihren Märkten reagieren. Wer hingegen jetzt zögert, könnte in wenigen Jahren vom Markt verschwunden sein.
Jürgen Metko: Unternehmen sollten durch einen effizienten Einsatz der Cloud die notwendigen Rahmenbedingungen schaffen. Dazu gehört, dass die Applikationen und Services stets performant und ohne Unterbrechungen zur Verfügung stehen – unabhängig vom Standort und dem verwendeten Endgerät. Möglichst viele Daten und Services sollten daher auf den Servern eines verteilten CDNs dezentral und regional bereitstehen, um von dort an Unternehmens- und Privatkunden ausgeliefert zu werden. Zudem sollten die „digitalen Assets“ wie Webseiten, Applikationen und Infrastrukturen vor Ausfallzeiten und Datendiebstahl geschützt werden. Eine mehrstufige Sicherheitsstrategie bietet dabei einen hohen Schutz. Sie reicht vom eigenen Rechenzentrum oder dem eines IT-Dienstleisters bis in die Cloud. Eine cloudbasierte Lösung wirkt dort, wo die Angriffe entstehen, und wehrt beispielsweise DDoS-Angriffe ab, bevor sie die IT-Infrastruktur und die darauf laufenden Applikationen und Services aus dem Bereich der digitalen Transformation erreichen.

Informationen zu Sven Klindworth

Informationen zu Jürgen Metko

Zu BT.com/de

Zu akamai.de

 

Beitrag wurde veröffentlicht im Dez. 2016 im Handbuch Digitalisierung

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen: https://creativecommons.org/licenses/by-sa/3.0/de/

Druckfrisch: „Handbuch Digitalisierung“

Heute ist unser „Handbuch Digitalisierung“ am deutschen Markt erschienen.

 

Vor Ihnen liegt das erste gemein­freie Open-Content-Werk zum
Thema „Digitalisierung“.

 

cover

Auf über 260 Seiten haben wir in Form von Gastbeiträgen, Interviews und Fall­beispielen die Digitalisierung und ihre Aus­wirkungen auf Unternehmen und Wirtschaft
beschrie­ben.

Gleichzeitig haben wir wichtige und aktuelle „Quer­schnittsthemen“ von Big Data bis Cloud-Computing dazu mit Querverweisen ins Verhältnis gesetzt.
Wichtig war unserer Redaktion da­bei, neue Geschäftsmodelle, die durch die Digitalisierung für Unternehmen entstehen, hervorzuheben.
Die The­menkonvergenz der Digitali­sierung hat uns dabei am meisten beschäftigt.

 

 

Das Buch wird regelmäßig aktualisiert auf unserer digitalen Plattform im Internet.
Un­ter http://www.handbuch-digitalisierung.de
halten wir alle Inhalte des Buches für Sie zum kostenfreien Download vor.

Wer darüber hinaus ein Printexemplar bestel­len und gemütlich lesen möchte, kann dies über den Buchhandel oder im Internet online bei Amazon realisieren.
Print-ISBN: 978-3-9818482-0-5

 

Multiplikatoren wie Journalis­ten und Blogger dürfen unse­re Inhalte jederzeit auch unter kommerziellen Aspekten bei Nennung der Quelle und des Autors kopieren und ändern.

Die Änderungen müssen her­vorgehoben werden und das entstandene neue Werk muss unter derselben Textlizenz wie­der gemeinfrei zur Verfügung gestellt werden.

So können wir und der Themenumfang ge­meinsam wachsen.

In diesem Kontext soll durch die eingesetzte Freie Textlizenz (CC BY SA 3.0 DE) allen Au­toren und allen Lesern die Möglichkeit gege­ben werden, ihre Inhalte online zu ändern und damit stets aktuell zu halten.
Da wir mit dem jetzigen Umfang des Werkes nur einen Bruchteil der wichtigsten Digitalisierungs­strategien vorstellen konnten, machen wir online weiter.

Wenn Sie im Handbuch für Sie wichtige Bei­träge und Artikel finden, können Sie diese über unser E-Paper und über unsere Webseite jederzeit mit Bekannten und Freunden teilen. Unsere Inhalte mit der gewählten gemeinfrei­en Creative-Commons-Textlizenz sind prä­destiniert, um in den Sozialen Netzwerken geshared zu werden.

Sollte die Startauflage von 2 000 Printexem­plaren vergriffen sein, müssen Sie trotzdem nicht auf die „Papierausgabe“ verzichten. Wir drucken dann extra ein Exemplar für Sie mit der Printing-on-Demand-Technologie. Da unsere Inhalte ja gemeinfrei sind (Open Con­tent), zahlen Sie nur für die Verarbeitung und das Papier.

Für Anregungen, Feedback und Kritik kön­nen Sie unsere Autoren gerne über das On­line-Formular unter http://www.handbuch-digitalisierung.de erreichen.

Wir möchten mit unserem Werk kleine und mittlere Unternehmen sowie den deutschen Mittelstand ansprechen und sie für die Digi­talisierung sensibilisieren.

Das Handbuch-Digitalisierung geht auch Hand in Hand mit
unserer Printausgabe TREND REPORT. Die Wirtschaftszeitung be­gleitet regelmäßig das Handelsblatt als Supple­ment (Fremdbeilage). Mit TREND REPORT haben wir die erste Wirtschaftszeitung ge­schaffen, die „Freie Inhalte“ generiert, veröf­fentlicht und im Web viral verbreitet.

Die gesammelten The­men und Reportagen aus TREND REPORT haben wir jeweils in Form des Expertenpanels mit den Themen im Buch verknüpft.

Wir haben die Reportagen und Gastbeiträge nur kurz thematisch umrissen. Die kompletten Beiträge können Sie hier lesen.

Bedanken möchten wir uns bei der freien Enzyklopädie Wikipedia und bei winfwiki, der Wissensdatenbank rund um Themen der Wirtschaftsinformatik. Die Open-Content- Seiten haben uns sehr geholfen, die Themen­matrix zu erstellen und thematische Erklärun­gen für unser Werk zu generieren.

 

Wir wünschen Ihnen einen schönen Jahresausklang und viel Spaß beim Lesen!

 

 

Ihre Redaktion

 

 

PS.: Coming soon…
Zusätzlich veröffentlichen wir das gleichnami­ge E-Book unter dem E-Pub-2.0-Format. Wir sind dann damit auf allen gängigen E-Book-Rea­dern lesbar und an die bekanntesten Appsto­res angebunden.

HYBRID RETAIL

Die Verbindung realer und digitaler Welten im stationären Handel.

 

Kunden wollen ein Einkaufserlebnis. Daraus macht das innovative Software und Technologie Unternehmen AMERIA sein Erfolgsrezept und verändert das Gesicht des stationären Handels: Vom Point of Sale zum Point of Experience.
Das Unternehmen eröffnet dem Point of Sale neue Möglichkeiten an der Schnittstelle zwischen digitaler und realer Welt.

 

Hybrid Retail

Digitale Erlebnisse und menschliche Interaktion sind entscheidende Erfolgsfaktoren für den Einzelhandel. Die Vorteile des stationären Handels werden ausgeschöpft und mit digitalen Technologien erweitert. Genau darum geht es, wenn das Unternehmen von Hybrid Retail spricht.

 

Der stationäre Handel, den das Unternehmen mit seinen innovativen Produkten revolutioniert, ist entgegen der verbreiteten Meinung, nach wie vor Spitzenreiter in Sachen Kaufkraft. Auch „Pure Player“ möchten auf die Vorteile, die der stationäre Handel bietet, nicht mehr verzichten. Sie eröffnen zunehmend stationäre Ladengeschäfte um ein reales Einkaufserlebnis für den Konsumenten zu schaffen.

 

AMERIA nimmt sich dem bestehenden Einzelhandel an und entwickelt interaktive und individuelle Lösungen, die die Digitale Transformation in diesem Feld vorantreiben und Shopping zu einem nachhaltigen Erlebnis machen.

Optimale Ergänzung

Kunden wollen eine zeitnahe und reale Auseinandersetzung mit den Produkten und eine persönliche sowie kompetente Beratung. Serendipität, das Entdecken des vorher nicht Bekannten, spielt im stationären Handel eine entscheidende Rolle.
In Onlineshops wird ausschließlich auf den Nutzer maßgeschneiderte Werbung ausgespielt: angepasst auf bisherige Käufe und Interessen.

Im stationären Geschäft wird das Interesse auch gegenüber neuen Dingen geweckt. Eben diese Serendipität sowie der soziale Austausch im realen Geschäft machen Einkaufen zu einem wirklichen Erlebnis.

Die Vorteile des Onlinehandels können die Mehrwerte des stationären Handels optimal ergänzen. Produktbeschreibungen und Erklärungen des Herstellers sowie Bewertungen und Impulse anderer Käufer spielen hier eine wichtige Rolle. Ein weiterer Pluspunkt des Onlinehandels gegenüber dem Einzelhandel ist die rasche Erhebung von Kundendaten. Die Daten werden segmentiert und Informationen werden ohne große Streuverluste weitergeleitet. Kundenwünsche werden dadurch in direkte und individuelle Angebote umgewandelt.

Doch im Mittelpunkt steht der Kunde: dieser möchten kanalübergreifend agieren, um sich umfassend über Produkte und Marken zu informieren.

Die Lösungen von AMERIA kombinieren die Vorteile des stationären Handels mit den Möglichkeiten der Digitalisierung sowie des E-Commerce und schaffen dadurch ein unvergleichliches Einkaufserlebnis. Durch ein sinnvolles Zusammenspiel der Kanäle profitiert der stationäre Handel von digitalen Möglichkeiten.

 

Konkrete Lösungen für den stationären Handel….lesen Sie mehr

Die Top 5 Technologie-Trends für 2017

Vor 20 Jahren gelang es dem Schachcomputer Deep Blue von IBM, den Weltmeister Garri Kasparow in einem Wettkampf zu besiegen. Im gleichen Jahr registrierte ein junges Startup aus Kalifornien die Domain google.com und Barnes & Noble verklagte Amazon, weil der Onlinedienst frecherweise behauptet hatte, der weltgrößte Buchhändler zu sein. Vor zehn Jahren kam das iPhone auf den Markt und Microsoft kaufte 1,6 Prozent der Aktien eines vielversprechenden Unternehmens namens Facebook. Werden wir 2017 die Geburt weiterer Technikriesen erleben? Welche Technologien werden zum Erfolg gelangen, die jetzt vielleicht noch niemand auf dem Schirm hat? Ralf Reich, Head of Continental Europe und Anshuman Singh, Head of Digital Business Group bei Mindtree stellen fünf von ihnen vor:

1. Context Brokering

Vielleicht kennen Sie Google Now. Ein intelligentes System, das genau darüber Bescheid weiß, wann wir zu Hause aufbrechen müssen, um rechtzeitig einzuchecken und unseren Flug zu erwischen. Um uns diese Information liefern zu können, liest Google die Buchungsbestätigung, die die Airline per Email geschickt hat und prüft die Verkehrslage auf den Straßen und Verspätungen im öffentlichen Nahverkehr. Google Now versteht den Kontext unserer alltäglichen Herausforderungen, führt Datenquellen zusammen, gewinnt Einsichten und sendet uns eine Push-Mitteilung auf unser Smartphone. Der Zugriff auf unterschiedlichste Datenquellen ist hierbei entscheidend, ebenso die Fähigkeit, diese intelligent miteinander zu verknüpfen. Für 2017 ist zu erwarten, dass diese Technologie uns noch mehr Aufgaben abnehmen und somit noch größere Bedeutung gewinnen wird.

2. 2D-, 3D- und 4D-Druck

Personalisierte M&Ms mit dem aufgedruckten Foto des Brautpaars – was bis vor einiger Zeit als spektakuläres Hochzeitsgeschenk durchgegangen wäre, lockt heute keinen Hund mehr hinter dem Ofen hervor. Der Druck, eine jahrhundertealte Technologie, hat in den letzten beiden Jahrzehnten immense Fortschritte gemacht. Heute kommen sogar künstliche Organe aus dem 3D-Drucker – perfekt an den Körper des Empfängers angepasst. Besonders spannend ist der sogenannte 4D-Druck, mit der Zeit als vierter Dimension. 4D-Objekte können ihre Form verändern oder sich sogar selbst wieder zusammenbauen, wenn sie beschädigt wurden.

3. Smart Homes

Die Zeiten des vernetzten Mülleimers sind vorbei. Smart Homes bestanden früher aus Technologien, die fast ausschließlich für Techniknerds interessant waren. Der Massenmarkt zog den Nutzen von ferngesteuerten Toastern oder „intelligenten“ Eieruhren stets in Zweifel. Mittlerweile wird das Smart Home aber von Anwendungen dominiert, die ganz reale Vorteile mit sich bringen: Rauchmelder etwa, die Push-Mitteilungen auf das Smartphone senden, falls der Hausbesitzer gerade nicht da ist. Umweltfreundliche Thermostate, die Heizungen je nach Bedarf automatisiert regulieren und so Energie sparen. Oder Überwachungskameras, die den Besitzer warnen und die Polizei verständigen, wenn Einbrecher im Haus sind.

4. Virtual Reality und Augmented Reality

Virtual Reality (VR) und Augmented Reality (AR) bergen ein immenses Potenzial. In immer mehr Branchen werden Angestellte mit dieser Technologie ausgestattet – etwa Ingenieure, die ihre Kreationen heute lebensecht vor sich sehen, während sie sie am Computer entwerfen. Auch im Consumer-Bereich könnte die virtuelle Realität 2017 seinen endgültigen Durchbruch erleben. Die gefeierte AR-Funktion von Pokémon Go war nur ein müder Vorgeschmack auf das, was uns noch erwartet.

5. Maschinelles Lernen

Seit Kasparows Niederlage gegen Deep Blue hat sich viel getan. Auch wenn noch keine Künstliche Intelligenz den berühmten Turing-Test bestanden hat: Das Denken von Computern nähert sich schrittweise dem des Menschen an. Mustererkennung und Deep Learning helfen dabei, immer komplexere Probleme zu lösen. Das Spektrum möglicher Anwendungen könnte breiter nicht sein: Gmails Smart Reply etwa analysiert unseren Email-Verkehr, um Antworten auf zukünftige Emails vorzuformulieren – so dass wir nur noch auf Senden drücken müssen. Gleichzeitig unterstützen selbstlernende Algorithmen Mediziner dabei, Tumore in ihren Patienten aufzuspüren. Und auch in so gut wie allen Bereichen der Wirtschaft haben Unternehmen angefangen, in Maschinelles Lernen zu investieren.

***

Über Mindtree

Mindtree bietet digitale Transformations- und Technologie-Dienste – von der Ideensammlung bis zur Ausführung. So können sich die Global 2000-Kunden einen Wettbewerbsvorteil verschaffen. Mindtree wurde „digital geboren“ und verfolgt einen agilen, gemeinschaftlichen Ansatz, wenn es darum geht, kundenspezifische Lösungen für die digitale Wertschöpfungskette zu entwickeln. Gleichzeitig sorgt die umfassende Expertise von Mindtree im Infrastruktur- und Anwendungsmanagement dafür, dass die IT zu einem strategischen Asset wird. So unterstützt Mindtree Unternehmen, egal, ob diese sich abheben, Geschäftsfunktionen neu definieren oder das Umsatzwachstum beschleunigen wollen. Besuchen Sie uns und erfahren Sie mehr. http://www.mindtree.com/

Pressekontakte

Mindtree Europa
Neha Kathuria
+44 7553 410341
Neha.Kathuria@mindtree.com

Hotwire PR
Jennifer Karl
+4969 25 66 93 – 68
jennifer.karl@hotwirepr.com

 

Mit dem IoT die Logistik vernetzen

Das Internet of Things (IoT) ist zwar mittlerweile ein Thema in Herstellung und Lieferkette, doch bei der Umsetzung entsprechender Projekte hakt es noch.

 

Laut der aktuellen Trendstudie „IoT in Produktion und Logistik“ des Marktanalyse- und Beratungsunternehmens PAC im Auftrag der Deutschen Telekom und ihrer Großkundentochter T-Systems, für die 150 IT- und Business-Entscheider aus der Fertigungs- und Logistikbranche befragt wurden, haben bisher nur vier Prozent der Betriebe „eine vollkommen vernetze Umgebung geschaffen“.

 

Logistiker sind besser vernetzt als Produktionsunternehmen

 

Doch Effizienzdruck (77 Prozent), die notwendige Steigerung der Wettbewerbsfähigkeit (73 Prozent) sowie die Erhöhung der Agilität und Flexibilität (71 Prozent) sind derzeit wichtige Motivationsfaktoren, weshalb Unternehmen verstärkt in IoT-Projekte investieren. Wie die Studie zeigt, sind die Logistiker heute bereits deutlich besser vernetzt als Unternehmen aus der Produktion.

 

Zum einen haben sie besonderes Interesse daran, Logistikprozesse mit Mitteln der IoT-Technologien transparenter und effizienter zu gestalten. Zum anderen streben sie hinsichtlich des Innovationsdrucks durch den Online-Handel neue Lieferkonzepte an. Allgemein zeigt sich laut der Studie, dass viele Unternehmen zwar mit der Vernetzung ihrer Produktions- und Logistikumgebung begonnen haben. Aber für eine durchgehende IoT-Funktionalität reicht die aktuelle Installation in der Supply Chain noch nicht aus.

 

Auch nach Einschätzung der befragten Entscheider muss der Grad der Vernetzung in Zukunft noch deutlich steigen: 82 Prozent der Befragten streben bis in vier Jahren eine Umgebung an, die zu mehr als der Hälfte vernetzt ist. Davon versprechen sie sich vor allem eine fortwährende Optimierung der Produktion und Logistik (88 Prozent), 87 Prozent zielen auf mehr Transparenz ab und 83 Prozent würden durch IoT-Projekte gern ungeplante Standzeiten vermeiden.

 

Güterbahnen testen das Internet der Dinge

 

Erste konkrete IoT-Anwendungen in der Transportlogistik gibt es bereits. So testet die Schweizer Güterbahn SBB Cargo gemeinsam mit Bosch Engineering ein Asset Intelligence-System für den Schienengüterverkehr. Dazu wurden die Waggons mit Sensoren ausgestattet. Diese sammeln metergenaue Informationen über die aktuelle Position sowie den Zustand von Ladung und Wagen, wie beispielsweise Temperatur und Luftfeuchtigkeit. Eine Vernetzungs-Hardware sendet die Daten per Mobilfunk an einen Server und stellt sie dem Bahnbetreiber online zur Verfügung.

 

Damit kann dieser jederzeit nachvollziehen, wo sich Waggons und Güter befinden und seine Kunden immer auf dem Laufenden halten. Da es beim Rangieren und Verladen häufig zu Erschütterungen kommt, die im schlimmsten Fall Güterwagen und Ware beschädigen können, misst ein dreiachsiger Beschleunigungssensor in der Vernetzungs-Hardware die Stärke, Häufigkeit und genaue Position dieser Stöße und wertet die entsprechenden Daten aus. Der gesamte Transport lässt sich so lückenlos dokumentieren.

 

Auf dem Internet of Things Solutions World Congress (IoTSWC) in Barcelona gab es kürzlich etliche weitere solcher Logistik 4.0-Anwendungen zu sehen. So präsentierte SAP gemeinsam mit der italienischen Eisenbahn Trenitalia, wie das Unternehmen durch intelligente Geräte und das Internet der Dinge effizientere betriebliche Abläufe bei der Wartung von Equipment erreicht und so die Kosten in diesem Bereich um 10 % senken konnte.

 

Das vorgestellte dynamische Wartungsmanagement verbindet riesige Mengen an operativen Echtzeitdaten von Motoren, Batterien und Bremsen, die aus Sensoren und intelligenten Anlagen ausgelesen werden, mit Prognosemodellen für maschinelles Lernen. So lassen sich aus Lebenszyklen und der wahrscheinlichen Abnutzung der Teile vorausschauende Instandhaltungen planen und plötzliche Ausfälle deutlich reduzieren.

 

Beindruckend ist auch der „Superbrain“-Plattformlösung für Smart Trains, eine Zusammenarbeit von GE Transportation und Intel Corp. IoT bedeutet jedoch nicht nur Daten auszulesen, sondern auch die autonome Kommunikation zwischen Geräten. Aufgrund immer aktueller Kontextinformationen kann ein Steuergerät dann z.B. eigenständig Entscheidungen treffen.

 

Die IoT-Plattformen um intelligente Prozesse erweitern

 

In Barcelona zeigten alle großen Anbieter wie zum Beispiel PTC, IBM, Microsoft, Bosch, Deutsche Telekom, Atos, Vodafone, Samsung oder SAP – um nur einige zu nennen – ihre standardisierten Cloud-Plattformen für das Internet der Dinge. Doch noch hapert es an übergreifenden Standards. Deshalb ist vor allem das Engagement der AIOTI (Alliance for IOT Innovation) für eine Standardisierung sehr begrüßenswert. Die Komplexität der IoT-Infrastruktur, die Kommunikation mit den Devices, wird dadurch in einem einheitlichem Ecosystem „versteckt“.

 

Die Top Level Prozess-Plattform catkin ist in diesem Zusammenhang komplementär zu sehen und bringt auch den Geräte- und Cloudanbietern schnell konkrete Use Cases durch den Einsatz in einer echten Supply Chain. Voraussetzung ist die Digitalisierung der Prozesse über die catkin-Plattform. Basierend auf den konfigurierten Strukturen kann in den nachfolgenden Schritten an den „Endpunkten“ – an denen noch manuelle Tätigkeiten erforderlich sind, aber bereits alle Informationen zu den Prozessen vorliegen – immer weiter automatisiert werden.

 

Ein catkin-Auftrag kann dabei folgende Endpunkte haben:

  • Mobiles Personal vor Ort im Terminal oder am Gleis (direkt per mobile App)
  • Organisierendes Personal im Backoffice (per Web-Schnittstelle oder angeschlossenes ERP System)
  • IT-Systeme bei allen Beteiligten an der Lieferkette (über catkin-Konnektoren)
  • Sensoren, Geräte oder andere „Things” (über den direkt am Auftrag angeschlossenen Webservice)
  • oder „intelligente Dinge” über eine IOT-Plattform.

Die Devices können dabei über eine IoT-Cloud angeschlossen werden, so dass die „Dinge“ einen Auftragskontext erhalten und die Prozesse dadurch intelligenter werden. Etwa wenn ein Container im Kombinierten Verkehr sich selbsttätig um den weiteren Transport mit Schiff, Güterbahn oder Lastwagen kümmert.

 

Autor: Geert-Jan Gorter

Service Locator: Die richtige Leistung zu jeder Zeit

Ein Gastbeitrag von Pascal Reddig, Geschäftsführer TWT Business Solutions GmbH

Location Based Services erleichtern den Alltag des Nutzers. Mit dem Smartphone als ständigem Begleiter ist es für den Verbraucher von großer Bedeutung, relevante Serviceleistungen und Informationen in dem Moment mobil abrufen zu können, in dem sie diese benötigen. Der Service Locator der TWT Business Solutions GmbH berücksichtigt beim Auffinden von Standorten Öffnungszeiten und angebotene Leis-tungen und vereinfacht damit die User Experience des Kunden.

Unterwegs in einer unbekannten Stadt und auf der Suche nach einem Geldautomaten – Ein Szenario, das jeder schon einmal erlebt hat. Mit Hilfe des Service Locators zeigen Unternehmen dem Kunden nicht nur den Standort und die Route zur nächsten Filiale an. Beachtet wird auch, ob die Geschäftsstelle spezifische Kundenwünsche erfüllen kann, wann die voraussichtliche Ankunftszeit sein wird und ob der Standort zum Zeitpunkt der Ankunft geöffnet ist.

Einfache Navigation zum Geldautomaten

60 Prozent der 18 bis 34-Jährigen heben mehrmals in der Woche Geld an einem Geldautomaten ab. Damit sind sie die Altersgruppe, die am häufigsten Geld über diesen Weg bezieht. Statistiken zeigen, dass auch sie die Gruppe sind, die am häufigsten ein Smartphone benutzt. Die Suche nach dem nächsten Geldautomaten erfolgt über mobile Endgeräte.

Durch die Anwendung des TWT Service Locators reagieren Banken auf diesen Trend und zeigen der Zielgruppe nicht nur den Standort des nächstgelegenen Automaten an, sondern auch die Öffnungszeiten, Parkmöglichkeiten und ermöglichen die direkte Navigation dorthin. Je mehr Informationen der Kunde auf einen Blick erhält, desto wertvoller ist die Anwendung für ihn. Dieses Prinzip lässt sich auf viele weiteren Szenarien anwenden: Der Kunde kann die Verfügbarkeit eines Produktes in seinem lokalen Baumarkt prüfen oder filtern in welchem Sportgeschäft er eine Laufanalyse machen kann.

Usability und technische Funktionalität muss gewährleistet sein

Viele der aktuellen Filialfinder benötigen eine Eingabe des Benutzers, bevor sie entsprechende Standorte anzeigen. Der TWT Service Locator ortet die Benutzer automatisch im Hintergrund über die IP Adresse, mit Hilfe des Google Geolocation Service, und erreicht damit eine Genauigkeit von 95 Prozent. So können dem Benutzer bereits beim ersten Aufruf des Service Locators die relevanten Standorte in seiner Umgebung angezeigt werden, ohne dass eine Interaktion benötigt wird. Falls diese Genauigkeit nicht ausreichend ist oder der Nutzer an einem anderen Standort nach einem Service sucht, kann er zusätzlich eine Adresse eingeben. Hierbei profitiert er von der Adress Autocomplete Funktion von Google Maps. Der Benutzer kann den Ort, die Postleitzahl oder die Straße angeben, und das mit einer sehr hohen Fehlertoleranz bei der Eingabe.
Durch die automatische Standortlokalisierung werden Adressen aus der Umgebung bevorzugt. Dadurch erhält man Ergebnisse von Relevanz, wie man sie von Google gewohnt ist. Ein Benutzer aus Düsseldorf bekommt bei der Eingabe von “Mart” die “Martinstraße, Düsseldorf” vorgeschlagen und nicht die “Martinstraße, Hamburg”. Dies vereinfacht die Adresseingabe und verhindert somit die Abbruchrate.
Eine synchronisierte Darstellung der Ergebnis-Liste und der Darstellung der Standorte auf der Karte ist essentiell wichtig, doch wird in vielen Filialfindern grundsätzlich vernachlässigt. Der TWT Service Locator stellt sicher, dass ein Treffer aus der Liste stets auch in der Karte hervorgehoben wird, sowie umgekehrt. So können dem Standort jederzeit zusätzliche Informationen, wie den Öffnungszeiten, Leistungen oder der Produktverfügbarkeit zugeordnet werden.

twt_geolocator_beitragsbild

Zeitersparnis durch optimale Suchergebnisse

Bei der Suche nach einem Service-Standort erhält der Nutzer Informationen zu den Öffnungszeiten einzelner Filialen, die einen expliziten Service anbie-ten. Geschäftsstellen, die zum Zeitpunkt der Suchanfrage bereits geschlos-sen sind, werden in der Ergebnisliste nicht mehr hervorgehoben, sondern werden lediglich grau hinterlegt. In die Routenplanung, zu dem ausgewählten Standort, werden auf Basis der Daten von Google Maps die aktuellen Verkehrsinformationen mit einbezogen. Sollten alle Filialen zum Zeitpunkt der Abfrage oder der Ankunft bereits geschlossen sein, erhält der Benutzer einen Hinweis auf die Service-Hotline.
Hat der Benutzer einen Standort gewählt, so werden ihm Routinginformatio-nen und Parkmöglichkeiten in der Nähe angezeigt.

Von den Anfragen der Nutzer lernen

Über die Art der Benutzerabfrage, ergeben sich wertvolle Informationen für das Unternehmen. Es lässt sich ermitteln, von wo der Nutzer sucht, welche Standorte am häufigsten ausgewählt werden, welche Anfragen getätigt wer-den oder zu welcher Uhrzeit gesucht wird. Durch die Analyse wird die Ser-vice-Leistung stetig zu optimiert und den Kundenwünschen angepasst. Filia-len, die ein geringes Kundenaufkommen vorweisen können möglicherweise geschlossen werden, während an beliebten Standorten zusätzliches Personal beschäftigt werden kann. Unternehmensstrategien können auf diese Weise angepasst und nachhaltig verändert werden.

Unternehmen stehen vor der Herausforderung den Kunden eine Vielzahl von Diensten zur Verfügung zu stellen, die eine tatsächlichen Nutzwert für sie haben. Der Service Locator ermöglicht es Unternehmen, eine schnelle und intuitive Leistung zu bieten, die von den Kunden ohne Vorwissen nutzbar ist.

Weitere Informationen unter:
https://www.twt-business-solutions.de/

 

Über TWT Business Solutions GmbH

twt_pascal_reddigDie TWT Business Solutions GmbH ist ein Geschäftsbereich der Full-Service-Internetagenturgruppe TWT Interactive. TWT Interactive, gegründet 1995, hat ihren Hauptsitz in Düsseldorf. Die TWT Business Solutions ist spezialisiert auf das Geschäftsfeld Enterprise Search. Durch ihre Expertise setzt die Solution ihren Fokus auf Informationsbeschaffungs-Prozesse via Mindbreeze Inspire und Google Search Appliance.
Zu den Kunden zählen u.a. Deutsche Telekom, Deutsche Bahn, Robert Bosch, Evonik, Barmenia Versicherung, Hella und TÜV Rheinland. Die TWT Business Solutions GmbH ist Teil der TWT Digital Group.

 

Quelle Portrait Pascal Reddig: TWT Interactive

Quelle Aufmacher:

Offene Messsysteme

Im Gespräch mit der TREND-REPORT-Redaktion erläutert Dieter Berndt (li.) von Qundis, wie die Digitalisierung die Heizkostenabrechnung effizienter und transparenter macht.

Herr Berndt, was macht Ihr Unternehmen und wie Sie Ihre Vision aus?
QUNDIS entwickelt, produziert und vertreibt  Messgeräte und -Systeme für die Verbrauchserfassung und -abrechnung von Wasser und Wärme. Dabei sind wir Marktführer für funkbasierte Erfassungssysteme. Uns geht es vor allem um die Energiewende und die Digitalisierung. Wir machen in Deutschland zwar seit Generationen im Prinzip Heizkostenabrechnungen, aber wir haben noch weit über zwanzig Millionen Verdunster im Bundesgebiet − diese Zähler mit den Röhrchen. Die zeigen aber nur grob den  Verbrauch des letzten Jahres an. Ich glaube es ist ein entscheidender Punkt, dass wir die ganze Systemlandschaft sukzessive auf eine neue Plattform heben, damit wir in der Lage sind, den Verbrauch transparent zu machen.

Warum die Transparenz?
Die Heizkostenabrechnung, die ich irgendwann im Dezember 2016 bekomme, nützt mir nur wenig. Sie zeigt zwar den Jahresverbrauch von 2015 an, aber ich weiß nicht, was ich im Januar gemacht habe. Unsere Messsysteme sind heute schon so weit, das Sie sehen können: Ich habe gestern das Fenster im Badezimmer offen gelassen und habe heute einen Fünfer mehr auf dem Zähler.

Wie können solche Mess-Systeme flächendeckend eingesetzt werden? Wer kann das finanzieren?
Dieses Thema haben wir bereits mit dem Wirtschaftsministerium (BMWi) diskutiert. Zuletzt hatten wir Besuch von der Staatssekretärin Iris Gleicke, die als Aufsichtsrat Chefin der Deutschen Energie-Agentur (dena) ständig mit der Frage zwischen Effizienz und Kosten konfrontiert ist und einen Weg finden will, wie solche Systeme effizient arbeiten und sich rechnen.

Haben Sie beim Messen von Wasser- und Wärme auch einen größeren Kontext im Blick?
Der richtige Ansatz ist, das Gebäude im Gesamten zu betrachten. Es geht nicht nur um den Wärme- und Wasserverbrauch. Unsere Lösungen machen den Verbrauch transparent und Mieter können zu jeder Zeit darüber informiert werden. Viel wichtiger ist aber: Mit diesen Informationen wird ein Bewusstsein bei den Bewohnern geschaffen. Über dieses Bewusstsein fangen die Leute an, Energie zu sparen. Studien der EU-Kommission, an denen wir uns auch beteiligt haben, sagen, Verbraucher können so bis zu 30 Prozent Energie einsparen. Wir haben in Summe mehr als 6 Millionen Wohnungen mit unseren Messgeräten ausgestattet − und davon mehr als  1,5 Millionen Wohnungen mit unseren Funksystemen. Heißt also: Allein durch unsere Technik werden 4,5 Millionen Tonnen CO2-Emissionen pro Jahr vermieden − die Menge, die bei einer Stadt mit 500.000 Einwohnern jährlich anfallen.

Wie funktionieren Ihre Systeme? Welche Funkstandards nutzen Sie? Gibt es die Möglichkeit, sich direkt auf einem Mobiltelefon informieren zu lassen, was ich falsch mache?
Unsere Systeme sind offen. Das unterscheidet uns von den großen Wettbewerbern. Wir orientieren uns am Open Metering Standard (OMS), mit dem intelligente Zähler für z.B. Strom, Wasser, Wärme und Gas herstellerübergreifend miteinander kommunizieren können. Wir haben den ersten Heizkostenverteiler entwickelt, der nach OMS zertifiziert ist. Wir bieten eine Möglichkeit, über Funksysteme und Netzwerkstrukturen − also Netzwerke, Knoten, Datensammler und Gateways − Verbrauchsdaten zu erfassen. Wir bieten das gesamte Hardware- und Kommunikationspaket an. Das heißt, der Kunde muss sich nicht mit der Dateninfrastruktur beschäftigen. Diese bieten wir im Komplettpaket. Wir verbauen die SIM-Karten, haben einen Roaming-Partner und mit Plug & Play funktioniert das System in wenigen Sekunden.

Und damit kann man alles auslesen im Gebäude?
Der Kunde kann alle Werte auslesen und kann sich die Daten verschlüsselt via E-Mail in sein Büro senden lassen. Er kann von dort aus seine eigenen Netzwerke konfigurieren. Er sieht seine Geräte und alle Betriebsinformationen dazu. Er kann die Daten einlesen und ein Monitoring sowie Analysen durchführen. Wir bieten die Plattform und der Kunde kann mit den Daten weiter arbeiten und zusätzliche Services anbieten − wie z.B. seine Mieter über ihren Verbrauch informieren.

Deshalb sind Sie in diesem Jahr auch auf der dmexco gewesen?
Wir schauen hier, wo der Trend hingeht und das auch aus der Verbrauchersicht heraus. Wir fragen uns, was braucht der Verbraucher eigentlich und was ist überhaupt sinnvoll? Es gibt heute sehr viele Firmen, die Optimierung anbieten und das in  Apps darstellen. Das funktioniert, aber halt nur punktuell. Sie müssen es Gesamtheitlich betrachten. Die Gesamtheit ist für uns, und deshalb arbeiten wir gerade mit der Deutschen Energie-Agentur (dena) zusammen, ein Projekt aufzusetzen wo Sie vom Heizungskeller bis zu jedem Raum das Haus als System betrachten.

Können Sie das konkretisieren?
Wir arbeiten daran, im Rahmen der Digitalisierung der Energiewende, ein Multi-Utility-Gateway auf den Weg zu bringen, das alle Verbrauchsmedien verbindet. Heute gibt es Strom, Gas, Wärme und Wasser: In der Regel haben Sie dann mehrere Anbieter im Haus. Und so versucht jeder im Haus sich im Kleinen zu optimieren. Wir haben eine Struktur geschaffen, die in der Lage ist sämtliche Medien zu verbinden und gemeinsam zu betrachten. Die QUNDIS Smart Metering Plattform (Q SMP) ist von Beginn an dafür ausgelegt, all diese Daten mitzunehmen. Und damit sind wir in der Lage, ein umfassendes Informationsmanagement im Gebäude anzubieten.

Und dadurch haben die anderen dann wahrscheinlich die Möglichkeit auf dem offenen Standard ihre Regelungen und Systeme zu implementieren.
Ja, Sie können bei unserer Systemlösung im Prinzip die gesamte Gebäudetechnik umfassend integrieren. Davon profitiert das Facility Management der Zukunft.

Wie begegnen Sie möglichen Sicherheitsbedenken?
Ich glaube, es ist wichtig, dass es ein BSI Schutzprofil in der Datenkommunikation bei Strom und Gas gibt. Wasser und Wärme unterliegen dem grundsätzlich nicht. Trotzdem gehen wir die Themen Datensicherheit und Datenschutz schon jetzt an. Wir haben zwei Strukturen, also zwei Übertragungswege. Zum einen haben wir ein bidirektionales GPRS-Funksystem mit verschlüsselter VPN-Verbindung im IPSec-Verfahren über privaten APN in die Cloud. Und zum anderen ruft der Kunde die Daten über eine SSL- und Passwort-geschützte Verbindung ab.

Und die Lokalisierung der Messgeräte funktioniert auf etwa zwei bis drei Meter?
Genau. Es kommt aber nicht auf das einzelne Messgerät an. Mit einem Heizkostenverteiler alleine können Sie nichts anfangen. Erst in Verbindung aller Heizkostenverteiler und in der Verbindung mit Umlageanteilen erhalten Sie Abrechnungsdaten. Dazu brauchen Sie ein Liegenschaftssystem, sozusagen die Abrechnungssoftware. Diese stellen wir inzwischen auch bereit. Der entscheidende Punkt ist aber, wir können über Gateways auf die Netzwerkknoten zugreifen, um sie zu steuern. Aber wir können die Endgeräte nicht ansteuern − aus Sicherheitsgründen − das unterscheidet uns von anderen Anbietern. Es kann also niemand z.B. den Heizkostenverteiler manipulieren, weil der nur unidirektional sendet. Erst in der übergelagerten Instanz, wenn wir dann bidirektionale Systeme haben, werden die Daten mitgenommen.

Aber steuern kann man den Heizkörper schon noch? Also wenn ich mal 14 Tage nicht da bin?
Das können Sie natürlich machen. Wir bieten ja keine Heizkörperregelung an. Wir haben nur die Messgeräte.

Was sagen Sie zum Grünbuch von Herrn Gabriel und dem BMWI?
Wir beschäftigen uns vielfältig damit. Wir bringen uns beim Erneuerbare-Energien-Gesetz zu den Themen Heizkosten und Digitalisierung über den Bundesverband mittelständische Wirtschaft (BVMW) mit ein. Wir sind dort Mitglied in der Energiekommission.

Was muss ganz konkret getan werden momentan?
Ich glaube, man muss erstmal festlegen, für wen ist eigentlich das Gesetz zur Digitalisierung der Energiewende geschrieben. Ist es eine Steilvorlage für die großen Versorger oder ist es für die Verbraucher gedacht − also dazu den Verbraucherschutz und die Verbraucherakzeptanz zu stärken. Und da ist das Gesetz aus unserer Sicht noch nicht ganz rund. Da werden noch einige Diskussionen entstehen und ich bin mir fast sicher, dass der ein oder andere mittelständische Messdienst das auch nochmal höchst richterlich geklärt haben will. Die mangelnde Investitionssicherheit könnte ein Problem werden.

Das heißt, da ist keine Investitionssicherheit mehr da durch das Gesetz?
Man möchte eigentlich von den langen Laufzeiten weg kommen. Das Bundeskartellamt möchte mehr Wettbewerb. Man möchte kürzere Laufzeiten und eine höhere Flexibilität haben. Alles was den Verbrauchern etwas bringt. Aber: Da ist der Verbraucherschutz auf der einen Seite und der Investitionsschutz für Unternehmen auf der anderen Seite. Und es soll auch etwas passieren zwischen den Konzernen und dem Mittelstand. Denn der Mittelstand ist nicht in der Lage, Investitionen in der Form zu tätigen. Und wenn man sich das Gesetz heute anschaut, ist es eine Steilvorlage für die Konzerne. Aber ich glaube, wir haben sehr gute Möglichkeiten mit unseren Systemen, den Grundgedanken des Gesetzes darzustellen und dann auch den Verbrauchern und unseren Kunden das entsprechend so aufzubereiten.

img_1212

Dieter Berndt (li.) von Qundis erläutert TREND-REPORT-Redakteur Bernhard Haselbauer, wie die Digitalisierung mit offenen Messsystemen die Heizkosten­abrechnung transparenter macht.

Ein direkter Mitbewerber von Ihnen ist wahrscheinlich Ista, nehme ich an?
Wir bieten selbst im Moment keine Abrechnungsdienstleistungen an, so wie Ista. Wir haben in Deutschland das Modell, dass wir entweder an die Wohnungswirtschaft direkt verkaufen und diese auf den Weg der Selbstabrechnung im Sinne des Insourcing bringen oder eben an die kleinen, mittelständischen, unabhängigen Messdienste, weil wir offene Systeme anbieten. Ista ist somit ein mittelbarer Konkurrent von uns, weil sie eben geschlossene Systeme inklusive der Dienstleistung anbieten.

Haben Sie mit Ihrer Geschäftsgrundlagedurch das offene System eventuell in Zukunft bessere Chancen am Markt?
Wir sind überzeugt davon, dass wir bessere Chancen haben. Und wenn Sie sich mal in Europa, in z.B. in der Schweiz umsehen, sieht es so aus: Da gibt es eine komplette Entkopplung mit unterschiedlichen Parteien, die Verträge abschließen. In Deutschland haben wir die Verträge A zu B und A zu B. In der Schweiz ist das anders. Da schließt der Immobilien-Eigentümer einen Hardware-Vertrag ab, aber die Dienstleistung (Ablesung und Abrechnung) läuft über ein anderes Unternehmen. Hier sind wir bereit und wollen das alles aufbrechen. In dem Kontext sind wir sehr gut vorbereitet. Wir studieren sehr aufmerksam, was Digitalisierung eigentlich bedeutet. Was macht jemand wie Google? Dann kommen auch solche Schlagworte wie Big Date ins Spiel. Wir sammeln die Daten über unsere Geräte, die entsprechend dann die Kunden verarbeiten, das ist sicherlich klar. Aber auf der anderen Seite kommen wir eher weniger von der Verbraucherseite wie Google, die Daten sammeln, um Daten zu haben. Wir kommen mehr aus der unternehmerischen, aus der wirtschaftlichen Seite heraus und gehen von der Eigentümer-Seite heran. Wir haben einen anderen Ansatz dabei.

Wo geht der Weg für Sie in Zukunft hin?
Gute Hardware kann heute fast jeder. Das entscheidende dabei ist, das man immer den Schritt nach vorne denkt. Was kommt eigentlich mit der Digitalisierung? Wo gehen eigentlich zukünftig die Bewirtschaftungsmodelle für Immobilien hin? Wir beschäftigen uns mit verschiedenen Kooperationen sowie Universitäten und überlegen, wie sieht eigentlich die Bewirtschaftung von Immobilien in 30 oder 40 Jahren aus. Welche Themen brauchen wir da eigentlich und wie können wir das jetzt aufbauen für die nächste oder die übernächste Generation. So versuchen wir uns da ein bisschen anzunähern. Und ich glaube, wir haben da in Sachen Innovation die Nase vorn.

Sollte man in Zukunft also konsequent auf intelligente Systeme setzen, um die Bewirtschaftung der Immobilien energieeffizient zu gestalten?
Wir sind überzeugt, dass die Energieeffizient in Gebäuden von der Aufbereitung der Daten, zum Verfügungstellen der Daten, von der Analyse und damit ableitend von verschiedenen Steuerungsmöglichkeiten ein unheimliches Potenzial bietet.

Also kann man sagen, das Internet of Things, das Internet allgemein ist für Sie auch wichtig, um in Zukunft Services so anzupassen, dass sie nachhaltig sind, Energieeffizienz steigern, effektiv und automatisiert sind?
Wir sind natürlich immer daran interessiert, die Wirtschaftlichkeit der neuen Technologien in der Praxis umzusetzen. Das Internet of Things wird definitiv auch in der Immobilienwirtschaft ein Thema werden, wenn es für die Messgeräte und Heizkostenverteiler geht. Wenn man einen neuen Standard etablieren kann wie z.B. Near-by LTE und das wirtschaftlich darstellen kann für Millionen von Geräten, dann glaube ich, kommen wir in eine ganz andere Kategorie der Digitalisierung auch hinsichtlich der Möglichkeiten Effizienz zu beeinflussen im positiven Sinn.

 

Sehr geehrter Herr Berndt, vielen Dank für das Interview!

 

 

Weitere Informationen unter:
www.qundis.de

Per Shuttle in die Zukunft der Lagerlogistik

Mit mehr als 55 000 Mitarbeitern in über 160 Ländern produziert die adidas-Gruppe jährlich eine Vielzahl unterschiedlichster Artikel. In Spitzenzeiten verlassen täglich mehr als 350 000 Produkte das weltweit größte Distributionszentrum des Konzerns.

Neben den riesigen Ausliefermengen, die es zu bewältigen gilt, und dem stän­dig wechselnden Sortiment steht bei der adidas-Gruppe vor allem der Kundenservice im Fokus. Um auch in Zukunft kurze Durchlaufzeiten beim stark wachsenden E-Commerce-Geschäft gewährleisten zu können, sind Innovation und Flexibilität gefragt.

Die Technologie von Knapp rund um das OSR Shuttle entspricht genau diesen Anforderungen. „Die flexible OSR Shuttle-Lösung erlaubt jederzeit Zugriff auf alle Artikel und macht die adidas-Gruppe unabhängig von zukünftigen Geschäftsentwicklungen. Die gesamte Lösung ist modular aufgebaut und einfach erweiterbar“, erläutert Gerald Hofer, CEO der Knapp AG, den Automatisierungsprozess. Kom­missioniert wird dabei im Ware-zur-Person-Verfahren arbeitnehmerfreundlich an sogenannten Pick-it-Easy-Shop-Arbeitsplätzen, die eine intuitive und fehlerfreie Bedienung ermöglichen. Behälter und Kartons mit unterschiedlichen Höhen können dort bearbeitet werden und die Ziel- und Quellbehälter werden dem Personal immer in ergonomischer Höhe bereitgestellt.

„Dieses Projekt entspricht unserer Philosophie ‚Making Complexity Simple‘“, gibt Hofer das Firmencredo wieder. In diesem Sinn investiert die Knapp- Gruppe jedes Jahr rund 30 Millionen Euro in Forschung und Entwicklung, um den neuen Marktanforderungen mit innovativen Lösungen begegnen zu können. So setzt das System auf die modernsten energiesparenden Techno­logien und erreicht dadurch in Summe den niedrigsten Energieverbrauch unter vergleichbaren Systemen am Markt. Zur Steuerung dient die Lagerlogistik-Software KiSoft, die eine effiziente Abwicklung für jeden aktiven Artikel im Online-Shop sicherstellt. So optimiert diese auch alle Ein- und Auslagerbewegungen und die Transportwege, um unnötige Fahrbewegungen zu vermeiden. Zusätzlich übernimmt die Software auch Überwachungstätigkeiten und weist frühzeitig auf Wartungsbedarf oder Optimierungspotenzial hin.

„Wir freuen uns auf die Zusammenarbeit mit der adidas-Gruppe und eine erfolgreiche Realisierung dieses All-in-Shuttle-Projekts“, blickt Hofer in die Zukunft. Die neue Anlage soll 2018 in Rieste bei Osnabrück ihren Betrieb aufnehmen.

Weitere Informationen unter:
www.knapp.com

Bildquelle / Lizenz: Knapp AG

Der Roboter – besser als jeder Honorarberater?

Ein Gastbeitrag von Salome Preiswerk

 

Digitale Geldanlage: Sind Robo-Advisor die wahren unabhängigen Finanzberater?

Honorarberater – eigentlich sollten sie die Heilsbringer für Anleger und Sparer werden. Denn spätestens im Zuge der letzten Finanz- und Bankenkrise wurde vielen klar: Bankberater verkaufen mehr als dass sie beraten. Banker bieten ihren Kunden Finanzprodukte vor allem deswegen an, weil sie Provisionen für den Abschluss dieser Geschäfte bekommen. „Verkauft und verraten“ titelten seinerzeit die Medien.

Ein Heilsbringer wurde ausgemacht: Der Honorarberater – unabhängig von Produktanbietern und deren Provisionen, ausschließlich im Dienst des Kunden. Aber abgesehen von vereinzelten Verbraucherschützern, wer spricht heute noch von Honorarberatern? Offenbar sind nicht viele bereit, für die unabhängige Finanzberatung einen Stundensatz von 150 Euro oder mehr zu bezahlen.

Das Angebot- und Nachfrageprinzip

Allein am Honorar liegt es nicht. Welche Gründe gibt es noch? Da wäre einerseits die Nachfrageseite. Zwar bekommt der Berater keine Kickbacks von Produktanbieter oder Bank. Doch Unabhängigkeit alleine macht noch keine gute Beratung aus. Oft sind die Honorarberater genau wie ihre provisionsgetriebenen Kollegen reine Vermittler von Einzelprodukten. Mit einer umfassenden Dienstleistung im Sinne einer Vermögensverwaltung hat das nichts zu tun. In einem „Portfolio“ ist es zudem die Zusammensetzung der Anlageklassen, die je nach Studie für bis zu über 90% des Anlageerfolgs zuständig ist. Kann der Honorarberater ein – noch dazu idealerweise globales – Portfolio mit System zusammenstellen? In der Regel nicht. Kommt hinzu, dass für den Ottonormalanleger schwer zu erkennen ist, welche Kompetenzen der Honorarberater tatsächlich hat. Kennt er sich mit Assetallokation aus? Welche Erfahrung hat er mit Finanzprodukten oder Risikomanagement? Zu guter Letzt muss sich der Kunde des Honorarberaters selbst um die Umsetzung seines Investments kümmern – ein Schritt, der Zeit und etwas Wissen erfordert.

Andererseits besteht ein Defizit auf der Angebotsseite. So viele Honorarberater gibt es nämlich gar nicht. Das ist kaum verwunderlich – lässt sich doch mit Provisionen deutlich mehr Geld verdienen. Es bleibt dabei: Der Honorarberater kommt hierzulande nicht an.

Die Geldroboter kommen

Statt Honorarberater erobern heute Robo-Advisor die Welt der Privatanleger. In den vergangenen Jahren kamen finanzaffine Start-ups – sogenannte FinTechs – auf die Idee, der breiten Anlegerschaft professionelle Anlagemodelle digital zugänglich zu machen.

Man könnte die Robo-Advisor gar als die neuen Honorarberater bezeichnen – nur eben digitalisiert. Fast alle sind unabhängig und kassieren keine Kickbacks. Außerdem sind sie kostengünstiger und einfach zu bedienen. Aber Computer können doch die persönliche Anlageberatung eines leibhaftigen Menschen nicht ersetzen! So lautet jedenfalls häufig das Gegenargument. Eines vorab: Menschen komplett durch Maschinen zu ersetzen wird (hoffentlich) ein Traum bleiben. Dennoch gilt auch – oder gerade – bei Menschen die Weisheit: Trau, schau, wem! Und eigentlich muss es auch nicht bei einem „entweder – oder“ bleiben.

Auch hinter den digitalen Anbietern stecken immer noch Menschen. Doch sind nahezu alle Modelle so aufgesetzt, gerade das „menschliche“ Element aus der Geldanlage zu verbannen. Denn die Psyche des Anlegers – auch der Profis – ist in der Regel die größte Gefahr für einen nachhaltigen Anlageerfolg. Ebenfalls scheint das Argument, der Robo-Advisor könne nicht auf permanent ändernde Lebensumstände der Kunden eingehen, fadenscheinig. Denn: Der Honorarberater muss – genau wie sein digitaler Kollege – über die Lebenssituation des Kunden unterrichtet werden. Ob dies nun in einem persönlichen Gespräch stattfindet oder über die digitale Kommunikation spielt keine entscheidende Rolle. Der Robo-Advisor kann Änderungen genauso verarbeiten wie der Honorarberater aus Fleisch und Blut.

Genau hinschauen

Sind Robo-Advisor also die besseren Anlageberater? Ganz so einfach ist es leider nicht. Wer sich für die digitale Geldanlage interessiert, sollte genauer hinschauen. Der große Teil der Robo-Anbieter unterliegt lediglich der Gewerbeaufsicht – und nicht der Bundesanstalt für Finanzdienstleistungsaufsicht (Bafin). Das Thema Haftung und Anlegerschutz nehmen einige nicht sehr ernst.

Zudem bekommt man bei den meisten lediglich ein starres Portfolio – mit etwa einer festen Quote von 50% Aktien und 50% Anleihen – ganz ohne Risikomanagement. Eigentlich derart, wie man es auch bereits umsonst bei Wirtschaftsmedien oder Finanzplattformen beziehen kann.

Online-Vermögensverwalter mit Bafin-Lizenz hingegen verwalten das Kapital im wörtlichen Sinne. Sie stellen sicher, dass sie Anlage geeignet ist und übernehmen die Haftung. Darüber hinaus bieten sie ein hochqualitatives Portfolio- und Risikomanagement. Letzteres ist eigentlich das wichtigste Element beim Thema Geldanlage. Angesichts dessen, dass alle Robo-Advisor ungefähr gleich teuer, bzw. günstig, sind, kann man getrost sagen, dass man bei den Vermögensverwaltern mit BaFin-Lizenz mehr fürs gleiche Geld bekommt.

Fazit: Der bankenunabhängige Bafin-lizensierte Robo-Advisor ist die Weiterentwicklung des seriösen Honorarberaters. Er trumpft auf mit geringen Kosten, einfachem Handling und nicht zuletzt einem hochwertigen Portfolio- und Risikomanagement.

 

 

Salome Preiswerk hat ihr gesamtes Berufsleben in der Finanzdienstleistungsindustrie verbracht. Sie ist Mitgründerin von Whitebox, dem ersten bankunabhängigen Online-Vermögensverwalter mit BaFin-Lizenz. Bei Whitebox geht es jedoch nicht nur um Fairness und Transparenz, sondern v.a. um Qualität. Den Anlageansatz hat Whitebox gemeinsam mit dem für seine proprietäre Forschung mehrfach ausgezeichneten Partner Morningstar Investment Management / Ibbotson entwickelt. Der Ansatz verbindet das Beste aus zwei Welten: Aktiv wo nötig – passiv wo möglich. Dabei zielt ein ausgeklügeltes, bewertungsorientiertes Risikomanagement auf die Erreichung besserer risikoadjustierter Renditen ab. Kunden erhalten bei Whitebox Zugang zu einer hochwertigen Vermögensverwaltung, die bislang nur institutionellen Investoren oder wenigen ganz Reichen vorbehalten war.

Weitere Informatiotionen: Whitebox

Twitter: www.twitter.com/WhiteboxDE und www.twitter.com/SalomePreiswerk

Facebook: www.facebook.com/WhiteboxDE

 

Bildlizenzen: Whitebox

Vom Papierstau auf die digitale Überholspur

SGKV-Terminaltag: Vom Papierstau auf die digitale Überholspur

Zur Vorbereitung des 2. Terminaltages der Studiengesellschaft für den Kombinierten Verkehr am 10. November in Berlin kann ein Fünf-Fragen-Katalog beantwortet werden. Die Ergebnisse fließen direkt in die Diskussion zwischen Unternehmen, Politik und Forschung ein.

 

Am 10. November richtet die Studiengesellschaft für den Kombinierten Verkehr (SGKV) in Berlin ihren zweiten Terminaltag in Berlin (Turbinenhalle HKW Moabit) aus. Ziel ist es, relevante Akteure aus der Branche zusammenzubringen und gemeinsam über aktuelle Fragen und Erfahrungen zu diskutieren.
Neben Informationen über neue Entwicklungen, Technologien und Prozesse sollen in Workshops und Diskussionsrunden aktuelle Themen der Terminals des Kombinierten Verkehrs (KV) behandelt und gemeinsam Lösungen erarbeitet werden.

Unter anderem diskutieren Vertreter der Verkehrsministerien aus Deutschland und der Schweiz zusammen mit Politikern und KV-Experten von Siemens, DHL und Bayernhafen über „Verkehrspolitische Ziele und ihre Umsetzung“.

Zum Thema „Vom Papierstau auf die digitale Überholspur“ gibt Ingo Winkler, Leiter Rail Segment bei IBM Global Business Services zunächst einen Impuls. Dann folgt nach der Mittagspause eine interaktive Vortragssession mit Best Practice-Beispielen.

catkin stellt vor: Logistik 4.0 bei DB Cargo BTT

Neben Vertretern von HHLA, dbh Logistics, BASF oder Port of Rotterdam wird dort auch Christian Krüger von catkin zusammen mit Kai Burkhardt, Teamleiter Produktmanagement & Operations Center Multimodal Solutions bei DB Cargo BTT über die „digitale Transformation“ des Güterverkehrsunternehmens berichten.

Die Tochter der Deutschen Bahn ist auf den Transport von Chemie-, Mineralöl- und Düngemitteltransporten im Kombinierten Verkehr und im Wagenladungsverkehr spezialisiert und organisiert den Hauptlauf auf der Schiene, den Umschlag im Terminal und den Vor- und Nachlauf auf der Straße für alle europäischen Relationen.

Im Abschluss-Workshop geht es unter der Überschrift „Spielräume – Entwickeln, Begreifen, Umsetzen“ dann um das konkrete Anpacken von Digitalisierungsinitiativen, wie sie z.B. mit catkin recht einfach zu bewerkstelligen sind.

 

Das komplette Programm gibt es hier zum Download:
Programm für den SGKV-Terminalstag

 

Jetzt an Online-Umfrage teilnehmen

Erstmals bietet die SGKV Interessierten die Möglichkeit, im Vorfeld auf die Inhalte der Veranstaltung Einfluss zu nehmen. Die Gesellschaft hat dazu einen Fünf-Fragen-Katalog erarbeitet, der online beantwortet werden kann. Die Ergebnisse fließen direkt in die Diskussion zwischen Unternehmen, Politik und Forschung ein. Die Fragen:

  • Was sind ihrer Meinung nach die größten Herausforderungen im KV?
  • Logistik digital: Wo stehen wir?
  • Macht die digitale Transformation physische Logistik (Fernverkehr) weitgehend überflüssig?
  • Digitalisierung im Kombinierten Verkehr – na sicher?
  • Wie gut sind Ihre Mitarbeiter auf mögliche Veränderungen durch die Digitalisierung vorbereitet?

Hier geht es zur Online-Umfrage: www.sgkv.de/de/portfolio/umfragen

 

 

 

weitere Informationen:

SGKV

catkin

DB Cargo BTT GmbH

 

Aufmacherbild / Lizenz / Quelle

CC0 Public Domain

Cloudbasierte Datensicherung: Komfort und Sicherheit vereint

Cloudbasierte Datensicherung: Komfort und Sicherheit vereint

Vor wenigen Jahren waren die Dinge noch ganz einfach gelagert: Digitale Daten waren auf der Festplatte des PCs gespeichert, wo sie auch erstellt und bearbeitet wurde. Heute wird – neben Desktop-Rechner, Laptop oder beidem auch noch ein Smartphone oder Tablet genutzt. Sollen die Dateien nicht manuell übertragen werden, was insgesamt kaum praktikabel wäre, ist eine zentrale Speicherung die beste Variante. Durch die Cloud ist eine solche Datensicherung einfach und unkompliziert möglich. Worauf sollte bei der Wahl des Cloud-Anbieters geachtet werden?

Cloudspeicher schützt Daten

Ein Foto wird mit dem Smartphone aufgenommen, mithilfe des PCs bearbeitet und auf dem Tablet betrachtet – jedes Endgerät hat dabei seine individuellen Stärken und Schwächen. Dabei durch den automatischen Upload muss der Nutzer selbst nicht aktiv werden, um das Bild zu übertragen. Doch damit enden die Vorteile noch nicht: Wird das Smartphone einmal gestohlen oder geht verloren, sind die Daten nicht verschwunden. Nach der Anschaffung eines neuen Gerätes kann einfach die Synchronisation gestartet werden, und alle Dateien lassen sich wieder herstellen. Kontakte, Telefonnummern und sogar Einstellungen im Betriebssystem – alles lässt sich heute in der Cloud sichern. Zudem ist es nicht mehr notwendig, die Daten lokal auf dem Endgerät zu sichern. Dadurch wird es leichter, auch mit geringem internem Speicherplatz auszukommen. Im Unternehmen wird es einfacher, Projektarbeiten zu organisieren. Jeder kann an einem Dokument mitarbeiten – selbst wenn er gar nicht vor Ort ist. Durch einen gemeinsamen Ordner sind immer alle Teammitglieder auf einem Stand, doppelte Arbeit und lange Absprachen werden vermieden.

Die Cloud als sichere „Datenwolke“?

Doch wenn von der Cloud oder einer „Datenwolke“ die Rede ist, dann versuchen die Marketingabteilungen der Cloudanbieter lediglich, die Datensicherung zu verbildlichen, um ein einfaches Verständnis zu schaffen. Tatsächlich handelt es sich um die Synchronisation mit einem Server. Weil dieser immer aktiv ist, kann der Nutzer ständig auf die Dateien zugreifen. Natürlich bedeutet die Datensicherung auch, dass die Dateien in fremde Hände gegeben werden. Der Kunde muss dem Cloud-Unternehmen also vertrauen können. Im Zweifel sollten die AGBs studiert werden – was in einigen Fällen offenbart, dass Datenschutz in vielen Unternehmen ganz offensichtlich keinen hohen Stellenwert genießt. Branchenprimus Dropbox speichert die Dateien auf Servern in den USA. Damit gilt nicht nur deutscher Datenschutz nicht, es wurde in der Vergangenheit amerikanischen Behörden auch bereitwillig Zugang verschafft. Einige Datenlecks sorgten zudem dafür, dass das Image gelitten hat. Andere Anbieter, insbesondere im Business-Bereich, haben sehr wohl verstanden, dass das Vertrauen der Kunden eine zunehmend wichtigere Währung wird. Mit entsprechenden Zertifizierungen und deutschen Rechenzentren möchte beispielsweise Microsoft Vertrauen schaffen.

Mobile App Voraussetzung für komfortable Nutzung

Weiterhin sollte auch auf die Nutzbarkeit geachtet werden: Der Cloud-Dienst sollte über eine App für das jeweilige Betriebssystem verfügen – sonst ist die mobile Verwendung mit großem Aufwand verbunden. Einige Angebote sind kostenlos, für umfangreichere Datenmengen muss aber gezahlt werden, was einen Vergleich der Cloudanbieter ebenso sinnvoll macht. Es zeigt sich also: Die Cloud bietet viele Vorteile, sollte aber kritisch ausgewählt werden, wenn nur die positiven Seiten der Technik zum Tragen kommen sollen.

 

 

Aufmacherbild / Lizenz / Quelle

Circuit – Computer Chip – Cloud Security“ (CC BY-SA 2.0) by perspec_photo88

Digital Finance – Finanzwelt im Wandel

Die FinTech-(R)Evolution setzt gestandene Bankhäuser unter Druck. Neue Technologien wie die Blockchain verdeutlichen das disruptive Potenzial.

Neun von zehn Unternehmen aus 40 Ländern stufen die Digitalisierung nach Umfragen von Simon-Kucher & Partners als relevant für ihr Geschäft ein. Das gilt gerade auch für die Finanzbranche. Die technologischen Entwicklungen seit der eine „Unmenge Kapital“ verschlingenden Fi­nanzkrise sind nicht nur vielfältig, sondern auch tiefgreifend und weisen zudem ein enormes Innovationstempo auf.Besonders disruptives Potenzial wird dabei der Blockchain-Technologie zugesprochen. Sie bildet die Grundlage der Kryptowährung Bitcoin, die ohne Oberaufseher, komplizierte Verifizierungsverfahren oder Gebühren den weltweiten Austausch von Werten ermöglicht und so nebenbei das Kerngeschäft vieler Banken unterwandert. Das entspricht ganz der zugrunde liegenden Philosophie, schließlich entstand die Währung 2008 nach der Finanzkrise, um ein bankenunabhängiges Zahlungsmittel anzubieten. Die Blockchain hält dabei fest, wer Eigentümer eines bestimmten Werts ist und das dezentral auf den Rechnern aller Beteiligten. Dadurch kennt jeder Rechner sämtliche Transaktionen und es ist unmöglich, Geld doppelt auszugeben. Stark schwankende Kurse sowie negative Schlagzeilen von bankrotten Bitcoin-Börsen schmälern jedoch das Vertrauen in die Währung. Zuletzt brach der Kurs im August stark ein, nachdem es Hackern gelungen war, an der Hongkonger Bitcoin-Börse Bitfinex 120 000 Bitcoins, also etwa 58 Millionen Euro, zu stehlen und der Handel kurzzeitig ausgesetzt wurde. „Blockchain könnte für den Finanzsektor das sein, was das Internet für die Kommunikation war“, lässt die UBS verlauten und verdeutlicht damit, dass Banken mittlerweile das Potenzial der Technologie erkannt haben. Sie stehen nun vor dem klassischen Disruptionsdilemma: Entweder man wird mit der Zeit von der Technik überflüssig gemacht oder man nutzt selbst die Technologie und kannibalisiert das eigene bisherige Geschäftsmodell. Für Letzteres hat sich mittlerweile ein Konsortium von Banken entschlossen. „Mit der Blockchain schaffen wir es, Codezeilen Wert zu geben“, sagt Alex Batlin, Leiter des UBS-Blockchain-Labors. Das Schwei­zer Geldhaus stieß im März 2015 das Projekt „Utility Settlement Coin“ (USC) an, in welches mittlerweile weitere Groß­banken, wie die Deutsche Bank oder Santander, involviert sind. Anders als der Bitcoin ist der USC keine real existierende Währung, sondern lediglich ein Abwicklungsinstrument.

Smart Contracts

Smart Contracts sind Computerprotokolle, die eine schrift­liche Fixierung von Verträgen überflüssig machen sollen. Dabei agiert jeder Knoten eines Peer-to-Peer-Netzwerks als Asset-Register und Treuhänder, der Eigentümerwechsel durchführt und automatisch überprüfbare Regeln über diese Transaktionen abbildet. Alle Trans­aktionen werden stets an alle anderen Knoten repliziert. Krypto­wäh­rungen sind Spezialfälle solcher Register mit digitalem Geld als Asset.
trendreport.de/smart-contracts

Die Idee dahinter: Transaktionen an der Börse erleichtern. Diese lassen sich zwar sekundenschnell abschließen, doch dazwischengeschaltete Clearinggesellschaften lassen oft Tage vergehen, bis Geld und Wertpapier tatsächlich den Besitzer wechseln. Die Aufgabe der Clearinghäuser, nämlich zu gewährleisten, dass beide Parteien ihren Verpflichtungen nachkommen, soll dann der USC übernehmen. Bis 2018 sollen Clearinggesellschaften so obsolet werden. So wird in diesem Kontext heute an die Weisheiten von Charles Darwin erinnert, wonach weder die stärkste noch die intelligenteste Spezies überleben wird, sondern die, welche Veränderungen am schnellsten adaptiert und nutzt. Mustafa Cavus von Sopra Steria sagt, dass künftig wohl vor allem jene Banken eine große Chance haben, weiterhin Teil der künftigen Finanzszene zu sein, die sich früh mit dem strukturellen Wandel und neuen Technologien befassen.

Robo-Advisor & kognitive Systeme

Nicht alles, was heute unter dem Begriff „FinTech“ als Innovation angepriesen wird, ist indes wirklich „brandneu“. Sogenannte kognitive – also wissensbasierte Anlagesysteme und daten­ba­sier­te Strategien – existieren z. B. in den USA bereits seit fast 70 Jahren. Die vor allem auf Algorithmen und mathematischen Formeln basierende Hedge-Fund-Strategie CTA/Managed Futures wurde als Vorläufer von Robo-Investments bereits im Jahr 1949 entwickelt. In den kommenden Jahren werden solche Systeme durch die Digitalisierung und die Möglichkeiten von „Big Data“ jedoch gigantische Fortschritte machen. Durch das sogenannte Robo-Advisory / Robo-Investment hat sich eine stärkere Demokratisierung des Kapitalanlagegeschäfts entwickelt. Vorbei scheinen jene Zeiten zu sein, in denen technologisch gut aufgestellte Großinvestoren wie z. B. Hedge-Funds ihren durch Einsatz moderner Software und Computerisierung erlangten Wissensvorsprung für sich selbst nutzen konnten. Der Digitalisierungsprozess in der Finanzbranche laufe letztlich auch auf eine Demokratisierung des Anlagegeschäfts hinaus, sagt Salome Preiswerk, Gründerin von Whitebox. Das Ziel dieser Entwicklung liege darin, dem sogenannten „kleineren Mann“ Zugang zu solchen Anlageformen zu bieten, die ihm bislang verwehrt geblieben sind. Und all das sei zu einem in der Regel günstigeren Preis möglich.
Doch die Entwicklung von Robo-Advisory und kognitiven Systemen steht erst am Anfang. Die Fachleute von Sopra Steria gehen davon aus, dass sich der „synthetische Berater“ durch Nutzung von künstlicher Intelligenz zu einem Superberater entwickeln wird, der – proaktiv gesteuert – letztlich auch individuelle Finanzdienstleistungen für den Anwender erarbeiten wird.

Mobile Banking

FinTech macht sich als dynamischer Prozess also überall in der Bankenwelt breit – und zwar auf allen Ebenen, Plattformen und Anwendungsebenen. Nicht nur der sogenannte Multibanken-Ansatz (Verwaltung mehrerer Bank­konten auf einer Plattform) wird zukünftig neue Dynamik erfahren, auch die Nutzung mobiler digitaler Telekommunikationssysteme wird den Alltag der Menschen – also der Bankkunden – bestimmen. Banken erarbeiten immer neue Applikationen. So zum Beispiel auch die Volksbank, die mit dem „Geldboten“ ihren Kunden die Möglichkeit bietet will, über mobile Systeme völlig sicher Geld zu senden und anzufordern. Darüber hinaus haben Banken bereits heute die Möglichkeit, ihre Dienstleistungen in einer „Mobil-Banking-App“ zu implementieren. Das gilt zum Beispiel für das durch Werbespots bekannte Abfotografieren von Rechnungen und die dann in der Folge automatisch erfolgende Überweisung des Rechnungsbetrags. „Der Kunde benutzt ganz einfach sein Smartphone als einen Hochleistungs­scanner“, beschreibt Mer­ten Slominsky vom Software-Unternehmen Kofax das Verfahren. Damit kann er eine Rechnung, einen Kreditantrag oder ein nachzureichendes Dokument für die Baufinanzierung fotografieren. „Unsere Maschine wandelt das Ganze in maschinenlesbare Daten um und liefert ein kleines schnelles Datenpaket an die Bank, wo es entsprechend automatisiert in die Prozesse eingebunden werden kann.“

Digitalisierung der Banken

Das Schlagwort „FinTech“ und die damit einhergehende Digitalisierung in der Finanzbranche stellen traditionelle Banken vor Herausforderungen. Dabei geht es nicht nur um die in den Medien breit getretene, weil von einigen Fachleuten geforderte Abschaffung von Bargeld, sondern vor allem auch um die Modernisierung und stärkere Technologisierung der gesamten Dienstleistungskette in der Finanzindustrie.

InsurTech

Neben Blockchain vielleicht das Schlagwort des Jahres in der FinTech-Branche. Neue disruptive Geschäftsmodelle im Versicherungswesen set­zen die tradierten Unternehmen unter Druck. Dabei verzichten die Start-ups auf Geschäftsstellen und können mit digitalisierten Prozessen meist effizienter arbeiten. Laut einer McKinsey-Studie könnte in den nächsten zehn Jahren jeder vierte Arbeitsplatz in der westeuropäischen Versicherungsbranche verloren gehen.
https://trendreport.de/insurtech

Zusätzlich erschwert wird der Prozess durch verschärfte Regulierungen der Banken und neue BIZ-Eigenkapitalvorschriften – in der Bankenlandschaft wird derzeit in diesem Zusammenhang von einer „Compliance-Lawine“ gesprochen. So machen sich FinTechs oft Neuerungen zu Nutze, die ursprünglich von Banken angestoßen und mitentwickelt wurden, dort aber wegen der angesprochenen Probleme ins Stocken gerieten. Allerdings könnten in der öffentlichen Diskussion jene das Nachsehen haben, die heute bereits in einen Abgesang auf die traditionellen Banken einstimmen. Banken sind zum einen stark eingebunden in das Wirtschaftsgefüge und verfügen zum anderen trotz der aktuellen Probleme noch immer über eine erhebliche Kapitalkraft.

Die Experten der Fiducia & GAD AG zählen weitere Pluspunkte der traditionellen Banken auf. Zu deren größten Vorteilen gehören zweifellos deren lang­jährige – von Vertrauen geprägten – Kundenbeziehungen. Hinzu kommen die Existenz der Filialnetze und eine Portfoliobreite, die im Gegensatz zu FinTechs eine ganzheitliche Betreuung mit einem umfassenden Allfinanz-Angebot ermöglicht. Fachleute betonen indes gleichzeitig, dass sich niemand auf diesen Vorteilen ausruhen dürfe, weil der digitale Lebensstil tiefgreifende Veränderungen mit sich bringe. In den Führungsetagen der Banken ist allerhöchste Aufmerksamkeit gefragt. Es gilt für traditionelle Banken, mit Blick auf den fortschreitenden technologischen Wandel und die Digitalisierung der Weltwirtschaft, die Effektivität der IT-Systeme zu erhöhen und neue innovative Geschäftsideen anzustoßen.

Neue Geschäftsmodelle

Die riesigen Aufgaben der Banken werden allerdings dadurch erschwert, dass die Branche gleichzeitig die Kosten senken muss. Von Bedeutung ist, dass Banken und FinTech-Unternehmen heute bereits immer enger zusammenarbeiten. Einer der Vorreiter und Initiatoren dabei ist die SWK Bank, die im Rahmen ihres sogenannten „White-Label-Bankings“ ihre Systeme und modularen Prozesse solchen Unternehmen zur Verfügung stellt, die rasch ins Kredit- und Einlagengeschäft vorstoßen wollen. „Die SWK-Plattform ist eine Art digitaler Baukasten, der auch innovative Dienstleistungen, wie Video-Legitimation, ermöglicht“, erklärt SWK-Geschäftsführer Ulf Meyer. Die Bank von morgen spielt sich für Kunden immer weniger in den großen Empfangshallen oder den schicken kunstbestückten Büros und auch immer weniger in den Filialen ab, sondern dank des Siegeszugs der Digitalisierung viel stärker in der Cloud. Und das kontinuierlich zunehmend auf den mobilen Endgeräten.

Wer heute mit den Leitern des Bereichs Human Resources bei Banken Kontakt aufnimmt, wird erfahren, dass man auch hier längst die „Revolution im Banking“ mit Blick auf die personellen Anforderungen erkannt hat. Beste Chancen haben heute Bewerber, die auf der einen Seite geistige Fitness mit Blick auf die technologische Revolution mitbringen und die andererseits aber auch das ABC des Bankings und der Finanzwelt beherrschen.

von Udo Rettberg
u.rettberg@trendreport.de

Bildquelle / Lizenz Aufmacher: CC0

Mit Technik zum Big-Data-Erfolg

Die Technik entscheidet: Mit Big Data erfolgreich sein

 

Die Einstellung zu riesigen Datenmengen hat sich in den vergangenen Jahren stark verändert. Früher wurde Big Data als nerviges „Buzzword“ verpönt. Mittlerweile sind Daten und ihre Technologien ein wichtiger Faktor für den Erfolg eines Unternehmens. Dennoch schaffen es längst noch nicht alle, ihr volles Potenzial auszuschöpfen. Lediglich 35 Prozent der deutschen Unternehmen haben laut einer Umfrage derzeit Big-Data-Lösungen im Einsatz. Der Hauptgrund für die geringe Nutzung ist oft die technische Komplexität.

 

Datenmengen, die zu groß, zu schnelllebig, zu komplex oder zu unstrukturiert sind, um sie mit traditionellen Methoden auszuwerten, fallen unter den Begriff Big Data. In Unternehmen sammeln sich tagtäglich Quadrilliarden Bytes an Daten an. Wenn Firmen sie nicht in leistungsfähige Systeme überspielen, gehen sie alle verloren – und mit ihnen wertvolle Informationen. Für eine gewinnbringende Datenverarbeitung müssen Unternehmen Datenseen anlegen, intelligente Algorithmen entwickeln und effektive Analysen durchführen – alles Herausforderungen, denen sich viele Unternehmen nicht gewachsen fühlen.

 

Auf das richtige Werkzeug kommt es an

 

Um sie bewältigen zu können, brauchen Firmen sehr viel Know-how, das Big-Data-Experten mitbringen. Ohne das richtige Werkzeug kommen aber auch Fachleute nicht viel weiter. Unternehmen sollten deshalb – auch um möglichst kosteneffizient zu sein – auf integrierte Systeme setzen, die Datenseen, Algorithmen und Analysen in sich vereinen. Mindtrees Plattform Decision Moments macht einen einfachen und schnellen Einstieg in Big Data möglich. Sie greift auf Erkenntnisse der Kognitionswissenschaft zurück und deckt alle Arbeitsschritte einer effektiven, modernen Datenverarbeitung ab.

 

Das System funktioniert im Grunde genommen wie ein Stufenmodell aus fünf Ebenen. Die Schwierigkeit zu Beginn einer Big-Data-Auswertung besteht darin, Daten aus verschiedenen Quellen und in verschiedenen Formaten flexibel verarbeiten und validieren zu können. Auf der untersten Ebene der Plattform läuft deshalb der ETL-Prozess (Extract, Transform, Load) ab. Er extrahiert Daten aus unterschiedlichen Quellen, wandelt sie entsprechend des Schemas und Formats der Zieldatenbank um und überträgt sie schließlich dorthin.

 

Die zweite Ebene stellt ein weitläufiges Gewässer dar, den sogenannten Datensee. In ihm laufen die einzelnen Informationsflüsse zusammen. Er beinhaltet somit strukturierte, semi-strukturierte und unstrukturierte Daten. NoSQL-Engines (Non Structured Query Language) sorgen dabei für einen reibungslosen Vorgang und unterstützen Lese- sowie Schreibvorgänge in Echtzeit. Das bringt einen großen Vorteil hinsichtlich der Geschwindigkeit der Datenverarbeitung mit sich, die insbesondere für zeitkritische Anwendungen von entscheidender Bedeutung ist.

 

Auf der dritten Ebene liegt eine der großen Stärken von Decision Moments: Mithilfe von 20 branchenspezifischen Algorithmen ist das System in der Lage, teilautonom und vollautonom zu lernen. Logistische Regression, Clustering, kollaboratives Filtern, Random-Decision-Forests oder neuronale Netze sind Verfahren, die alle Arten von Anwendungen unterstützen. So kommen Unternehmen schließlich zu Einsichten aus den gesammelten Daten.

 

Die vierte Ebene ist für die Verarbeitung der Daten zuständig. Um Big-Data-Workloads stemmen zu können, eignen sich etablierte Datenarchitekturmodelle wie Lambda, Kappa und Zeta. OLAP, Hierarchie-Builder und vorgefertigte Templates dienen dazu, die Daten zu visualisieren. Darüber hinaus kommen hier Dienste für den Datenimport und für die Ausgabe von Dateneinsichten zum Einsatz. Andere Tools kontrollieren den Datenverlauf, archivieren die Daten automatisch und erstellen Backups. Die Nutzung dieser wiederverwertbaren Komponenten begünstigt sowohl eine schnellere Entwicklung neuer Big-Data-Anwendungen als auch eine Teilautomatisierung ihres Deployments.

 

Die letzte Ebene ist die wichtigste Ebene. Auf ihr befinden sich Schnittstellen, an die Unternehmen alle erdenklichen Anwendungen an die Big-Data-Plattform anschließen können. Dazu gehören beispielsweise Omnichannel-Apps. Das System weist dabei eine hohe Skalierbarkeit und Flexibilität auf, damit möglichst viele Apps kompatibel sind (API-First-Prinzip).

 

Voraussetzung: Ein funktionierendes Geschäftsmodell

 

Neben den technischen Möglichkeiten, der richtigen Plattform, brauchen Unternehmen auch das richtige Geschäftsmodell. Dieses muss zumindest beschreiben können, was sie mit der neuen Technik erreichen wollen. Fehlt diese betriebswirtschaftliche Komponente, sind Unternehmen nicht in der Lage, von Big Data zu profitieren. Es gibt drei mögliche Einsatzbereiche, die besonders beliebt sind:

 

• Personalisierung und Omnichannel:

Zunächst können Unternehmen Big Data dazu einsetzen, ihre Dienstleistungen und Produkte über all ihre Verkaufs- und Kommunikationskanäle zu vernetzen und zu personalisieren. Diese zwei Trends herrschen zurzeit im Handel vor und wären ohne Big Data gar nicht erst möglich. Entsprechende Systeme stärken die Kundenbindung, fördern Cross- sowie Upselling und ermöglichen einen höheren Customer-Lifetime-Value.

 

• Marketing und Vertrieb:

Mithilfe von Big Data können Unternehmen auch die Produktentwicklung sowie Messungen und Prognosen verbessern. Die Auswertung von großen Datenmengen ermöglicht ihnen, den Umsatz genauer vorherzusagen, die Performance von Kampagnen zu messen und von Kunden nachgefragte Produkte zu entwickeln.

 

• Unternehmenseffizienz:

Big Data stärkt darüber hinaus die Wirtschaftlichkeit eines Unternehmens. Viele Maßnahmen zur Effizienzsteigerung basieren auf Big Data: Von Preventive-Maintenance über Betrugserkennung bis hin zur Optimierung der Lieferkette.

 

All diese Anwendungsbereiche können Unternehmen mit Mindtrees Plattform Decision Moments abdecken: Das API-First-Prinzip stellt eine größtmögliche Offenheit sicher. Die Anwendungsentwicklung erleichtern 35 vorgefertigte Technologie-Komponenten und ein Sandbox-Modus. 25 fertige Business-Apps lassen sich flexibel in den Bereichen Handel, Konsumgüter, Touristik, Finanzen und Versicherungen einsetzen.

 

Das Erfolgsrezept

 

Im digitalen Zeitalter, in dem wir heute leben, steht eins fest: Wer Daten nicht nutzt, bleibt hintendran. Denn sie bieten wichtige Einblicke, von denen alle Bereiche eines Unternehmens profitieren. Außerdem ermöglichen sie viele neue Geschäftsmodelle. Der Erfolg von Google, Facebook und Amazon basiert auf Big Data. Doch wie sollen Unternehmen mit ihren Datenmassen umgehen? Was können sie tun, um die technische Komplexität zu überwinden?

 

Integrierte Datenplattformen wie Decision Moments von Mindtree vereinfachen die Analyse riesiger Datenmengen. Durch ihre leistungsstarke API und ihren fertigen Komponenten und Algorithmen ist sie in der Lage, die wesentlichen Aufgaben der Datenverarbeitung zu übernehmen und darüber hinaus die Entwicklung neuer Apps zu beschleunigen. Der größte Vorteil ist jedoch ihre skalierbare und flexible Infrastruktur. Alle Arten von Anwendungen – vom branchenspezifischen Analysetool bis hin zur Software für personalisiertes Marketing – lassen sich problemlos mit Decision Moments kombinieren.

 

 

Autor:
Manoj Karanth, General Manager and Head, Cloud Computing,
Digital Business bei Mindtree

manoj-karanth_mindtree

Manoj Karanth, Bildquelle Mindtree

Manoj Karanth leitet als General Manager and Head of Cloud Computing and Digital Business das Cloud- und DevOps-Geschäft bei Mindtree. In dieser Position hat er hat den Aufbau der MindtreesDevOps-Plattform sowie der kognitiven Big-Data-Plattform Decision Moments verantwortet.

 

 

Zuvor hat er wesentlich zur Entwicklung und zum Rollout großer, erfolgreicher Produktinitiativen im Luftfahrtbereich beigetragen.

 

weitere Informationen: Mindtree

 

Aufmacherbild / Lizenz / Quelle

big-data_conew1“ (CC BY-SA 2.0) by luckey_sun

Professionelle Cyberabwehr mit MSS

Im Interview verdeutlicht Kai Grunwitz, Senior Vice President Central Europe von NTT Security, die Vorteile von Managed Security Services für mittelständische Unternehmen.

Herr Grunwitz, wie beurteilen Sie die Bedrohungslandschaft in Bezug auf Cyberangriffe für mittelständische Unternehmen in Deutschland und Europa?

Die Lage ist wirklich ernst: Es vergeht ja kein Tag, an dem nicht über neue spektakuläre Cyberangriffe berichtet wird. Angriffsziele sind nicht nur Konzerne oder große Media- und Internetunternehmen. Gerade in Deutschland verfügen viele mittelständische Unternehmen über wertvolles geistiges Eigentum, das es umfassend zu schützen gilt. Wir stellen auf der einen Seite fest, dass die Angriffsmethoden immer ausgeklügelter werden und sich die Spur meist in Ländern verliert, in denen die strafrechtliche Verfolgung von Deutschland oder Europa aus nur schwer möglich ist. Auf der anderen Seite gibt es bei vielen mittelständischen Unternehmen in der Cyberabwehr noch große Schwachstellen, die dann auch gezielt ausgenutzt werden. Die NTT-Gruppe führt regelmäßig Studien über die Anzahl und Art der Cyberangriffe und über den Stand der Cyberabwehr durch, und wir sehen dabei, dass immer noch zu wenige Unternehmen über ein umfassendes Cyber-Defense-Konzeptverfügen, das nicht nur Prävention und Erkennung umfasst, sondern auch die schnelle und richtige Reaktion auf Angriffe. Etwa drei Viertel der Unternehmen haben noch nicht einmal einen Notfallplan. Es gibt also noch viel Nachholbedarf.

cyberattacks-21382575392_6a05bbec23_k

Die Karte zeigt ein Cyber-Attacke in Echtzeit.

 

Welche grundsätzlichen Vorkehrungen in diesem Kontext können/müssen Unternehmen treffen, um auf diese kritischen Entwicklungen zu reagieren?
Unsere dringende Empfehlung ist, zunächst eine grundlegende Risikoanalyse und Bestandsaufnahme durch ein erfahrenes Beratungshaus für Informationssicherheit und Risikomanagement durchführen zu lassen. Auf dieser Basis empfehlen wir außerdem die Einführung eines ganzheitlichen Konzepts für Cyber-Defense, das Prävention, Erkennung beziehungsweise Forensik und Abwehr sowie die schnelle und richtige Reaktion auf Angriffe umfasst. Wir sehen hier auch keine unterschiedlichen Bedrohungslagen für mittelständische Unternehmen und Großunternehmen. Mit ihren ausgefeilten Methoden nehmen Cyber-Kriminelle heutzutage sogar Zahnarztpraxen oder Kliniken ins Visier.

 

 

Wie können gerade mittelständische Unternehmen den Spagat zwischen ­effektiven Schutzmaßnahmen und verträglichen Kosten bewerkstelligen? Gibt es Lösungen?
Ja, es gibt Lösungen für mittelständische Unternehmen, Lösungen, die auch den Spagat zwischen effektiven Schutzmaßnahmen und verträglichen Kosten hinbekommen.

Grundsätzlich muss sich das Unternehmen entscheiden, ob es eigene Security-Experten beschäftigen möchte, die alle Security-Aspekte jederzeit im Blick haben und die eingeführten Lösungen warten und technisch weiterentwickeln. Für viele Unternehmen ist die Implementierung notwendiger Sicherheitsmaßnahmen aber allein schon aus Ressourcen- und Kostengründen eine große Herausforderung.

Wir empfehlen Managed Security Services als Lösung, um moderne und zeitgemäße Technologien zu nutzen. Die Kunden können sich darauf verlassen, dass alle technischen Lösungen optimal aufeinander abgestimmt sind und eine nahtlose Sicherheit bieten.

 

 

Was sind Managed Security Services?
Bei Managed Security Services (MSS) werden die Sicherheitsservices nicht intern, sondern von einem Provider zur Verfügung gestellt. Auf diese Weise erhält der Anwender ein ganzheitliches Lösungskonzept, das den gesamten End-to-End-Sicherheitsservice abdeckt. Das betrifft zunächst das Infrastruktur-Management, das Teilbereiche wie Device Management, Change Management, Asset Management oder Device Health Monitoring umfasst. Darüber hinaus beinhaltet ein End-to-End-Ansatz die Sicherheitsanalyse, das proaktive Monitoring und das Reporting. Bei MSS-Projekten stellen das Infrastruktur- und Technologie-Management oftmals lediglich die Basis für höherwertige Services dar.

Konkret muss das MSS-Leistungsspektrum Bereiche wie Network und Endpoint Security, Application und Content Security, Identity und Access Management, Vulnerability und Threat Management sowie Security Information und Event Management abdecken.

Im Hinblick auf Datenschutz und Datensicherheit ist es außerdem essenziell, dass ein Provider neben der globalen Plattform und Expertise redundante Rechenzentren auf lokaler Ebene betreibt, sei es in Deutschland, Österreich oder der Schweiz.

 

binary-lock-28124176324_c35d546bed_k

 

Für welche Unternehmensgröße sind die von Ihnen angebotenen Managed Security Services empfehlenswert?
Die Unternehmensgröße spielt dabei nach unserer Auffassung eine nachgelagerte Rolle. Zunächst stellt sich die Frage, welche Art von Security Services ein Unternehmen wirklich benötigt. Es sollte eine Standortbestimmung vorgenommen werden, um etwaige Schwachstellen zu ermitteln. NTT Security bietet Beratungsleistungen, mit denen wir für Unternehmen ein individuelles Risikoprofil erstellen. Daraus abgeleitet ergeben sich entweder Projektleistungen, um das Sicherheitsniveau durch Sicherheitslösungen zu optimieren, um prozessuale Optimierungen zu übernehmen, oder eben auch die Einführung von Managed Security Services.

NTT Security stellt gerade im Mittelstand eine wachsende Nachfrage nach MSS und Lösungen zur Früherkennung von Bedrohungen fest. Die Services sind in jedem Fall geeignet, auch dort zum Einsatz zu kommen.

 

 

Mit welchem Aufwand oder wie einfach lassen sich externe Security Services in die On-Premise-IT integrieren?
Grundsätzlich stellt eine solche Integration kein Problem dar. Allerdings muss geklärt werden, welche Integrationstiefe vom Kunden gewünscht und sinnvoll ist. Sollen lediglich Angriffe identifiziert werden oder das lokale Security-Betriebsteam des Kunden informiert werden, welches über den eigenen Notfallplan darauf reagiert? Oder soll der gesamte End-to-End-Prozess durch einen externen Security-Anbieter übernommen werden, inklusive Erkennung, Abwehr, Forensik und auditierbarer Dokumentation?

Zudem stellt sich die Frage, ob es um eine rein technische Perimeterebene geht oder auch komplexe Applikationen wie SAP abgedeckt werden sollen. Grundsätzlich ist eine MSS-Lösung, die eine echte Cyber-Defense bietet, deutlich schneller implementiert als eine On-Premise-Lösung. Dadurch erreicht ein Unternehmen auch eine schnellere Absicherung seiner Infrastruktur und einen deutlich besseren Return-on-Invest.

 

 

Warum sollte ein Unternehmen NTT Security als Managed-Security-Services-Dienstleister auswählen? Welche Wettbewerbsvorteile gewinnen Ihre Kunden?
Die NTT Security als Teil der globalen NTT Gruppe bietet ihren Kunden viele Vorteile; um hier nur einige hervorzuheben:

Wir sind ein Anbieter, der sich ausschließlich auf Cyber Security spezialisiert hat, der seit 20 Jahren in diesem Markt ist und der mit einem ganzheitlichen Ansatz den gesamten Security-Lifecycle– von der Beratung über Projektleistungen bis hin zu Managed Services – abdeckt.

Wir kombinieren dabei globale einheitliche Services mit lokaler Expertise, die mit langjähriger Erfahrung unserer Security-Experten einhergeht. Das Security-Business beruht auf einem Vertrauensverhältnis, und dabei ist es wichtig, dass die Ansprechpartner bekannt sind und nicht ständig wechseln. Allein in der DACH Region sind mehr als 250 Security Experten tätig – das kombiniert mit den globalen Teams bedeutet ein gewaltiges Wissenspotenzial für unsere Kunden.

Und schließlich verfügt NTT über zehn eigene Security Operation Center und eine eigene hochentwickelte Analyseplattform, die NTT Security zur Früherkennung von Bedrohungennutzt. Des Weiterenlaufen rund 40 Prozent des globalen Internet-Verkehrs über Leitungen der NTT-Gruppe. Dies wird auch genutzt, um eine spezielle Real-Time-Threat-Intelligence zu entwickeln und repräsentative Analysen und Studien zu erstellen. Das kann kein anderes Unternehmen bieten.

 

 

Was bedeutet es, dass die NTT Security als Security-Spezialist am 01.08.2016 neu gegründet wurde?
NTT Security ist ein auf IT-Security spezialisiertes Unternehmen, bei dem die Security-Kompetenz der globalen NTT-Gruppe gebündelt wird. Die angebotenen Beratungs- und Servicedienstleistungen von NTT Security basieren auf den fortschrittlichen Analysetechnologien von NTT sowie der ThreatIntelligence und der Sicherheitsexpertise von NTT Com Security, Solutionary, Dimension Data, NTT Innovation Institute und NTT Communications.

Für Kunden aller NTT-Unternehmen wird NTT Investitionen in die Entwicklung von marktführenden Sicherheitslösungen, die den gesamten Sicherheits-Lifecycle unterstützen, weiter erhöhen. Durch die Bündelung seiner Investitionen wird NTT so seine Sicherheitsangebote weiter ausbauen. Damit können Kunden von einer integrierten Herangehensweise an Sicherheitslösungen profitieren, die Teil eines noch breiteren Technologie-Dienstleistungs­angebots sind.

 

Weiterführenden Informationen: NTT Security

 

Aufmacherbild / Lizenz / Quelle

Cyber attacks“ (CC BY-SA 2.0) by christiaan_008

Beitragsbild

IT Security Schloss binary monochrom“ (CC BY-SA 2.0) by Christoph Scholz

Personenfoto: Kai Grunwitz, Senior VicePresident Central Europe bei NTT Security Bildquelle: CIO Guide

Beflügeln Drohnen den E-Commerce?

Dorothe Eickholt, Geschäftsführerin von Asendia Germany, dem Joint Venture von La Poste und Swiss Post, sagt im Gespräch mit der Redaktion wie Unternehmensgründer im E-Commerce mit intelligenten Logistiklösungen neue, internationale Märkte für sich erschließen können.

 

 

Frau Eickholt, der E-Commerce ist im Höhenflug. Sind Drohnen im Tiefflug das Non-Plus-Ultra für die letzte Meile bei der Zustellung von Paketen?

So lange sie nicht abstürzen sind Drohnen bestenfalls in ländlichen Regionen eine alternative Transportmöglichkeit – oder, um eingeschneite Orte im Winter mit dem Nötigsten zu versorgen. Einen Fortschritt bei der klassischen Zustellung erwarte ich von den Quadro-, Hexa- und Octocoptern aber nicht. Ebenso wenig wie von selbstfahrenden kleinen Robotern, die eher für Staus auf dem Bürgersteig sorgen.

 

Die spannenden Diskussionen um die letzte Meile bei der Paketzustellung zeigen allerdings, wie wichtig es ist, hierfür eine Lösung zu finden. Insbesondere im internationalen E-Commerce gefährdet jeder Tag, den die Sendung länger als geplant unterwegs ist, die Kundenzufriedenheit. Der Trend geht dahin, dass sich alle Kunden am liebsten eine Same-Day-Lieferung wünschen. Aber davon sind wir bei grenzüberschreitenden Sendungen noch weit entfernt.

 

Wird es künftig eine schnellere Zustellung zum Nulltarif ins Ausland geben?

Schnelleren Lieferzeiten über die Grenzen hinweg sind enge Grenzen gesetzt. Hier arbeiten mehrere Partner mit teilweise sehr unterschiedlichen Systemen und Kulturen zusammen. Das kostet Zeit. Hinzu kommen die Entfernungen, die zu überbrücken sind. Im Vergleich zu den Kurier- und Expressdiensten, die bei Bedarf jede Sendung exklusiv befördern können, müssen wir als Postdienstleister für den E-Commerce kostengünstige Distributionskanäle erschließen. So befördern wir Sendungen in die Nachbarländer Deutschlands meistens per Lkw statt per Flugzeug.

 

Am Markt werden für internationale Sendungen die verschiedensten Tarife und Services angeboten. Insbesondere Newcomer sollten sich deshalb umfassend und persönlich von einem im internationalen Geschäft erfahrenen Dienstleister beraten lassen.

 

Werden sich die Zustellzeiten durch Industrie 4.0 bzw. Robotics ändern?

Die Veränderungen betreffen in erster Linie die Optimierung des Workflows in unseren Logistikzentren. Meiner Meinung nach werden Robotics, bzw. Industrie 4.0, die Prozesse hier künftig stark verändern. Die intelligenten Systeme werden dazu beitragen Kosten einzusparen, Bearbeitungszeiten zu verringern und Fehlerraten zu reduzieren und zwar schon in den nächsten Jahren.

 

Ein Grund dafür ist, dass die bestehende IT weitergenutzt werden kann, da die intelligenten Automatisierungslösungen über die üblichen Schnittstellen auf die Systeme zugreifen können. Die Systeme lernen so ständig hinzu und verarbeiten auch unstrukturierte Daten. Sie erfassen zum Beispiel Auftragsdokumente selbständig, unabhängig davon, ob sie per Excel-File oder E-Mail mit angehängter PDF eingehen. Dabei lernen sie unentwegt hinzu. Wenn ein hoher Reifegrad erreicht ist, wird es künftig möglich sein, die Daten direkt in die Verarbeitungsmaschinen einzuspeisen und weitere Prozesse zu automatisieren.

robot-delivery-28935810275_8b6cb45937_o

Wie profitiert der E-Commerce-Unternehmer von den neuen Robotics-Lösungen?

Auch bei der letzten Meile, der Zustellung der Pakete an den Empfänger, werden Industrie 4.0-Lösungen künftig eine bedeutende Rolle spielen, davon bin ich überzeugt. Der Online-Shop profitiert dabei von einer höheren Zuverlässigkeit bei der Zustellung und steigert so die Kundenbindung. Denn die selbstlernenden Softwarelösungen werden in der Lage sein, ihre eigenen Schlüsse zu ziehen und Wahrscheinlichkeiten zu berechnen wann der Empfänger zu Hause ist, um große und schwere Sendungen persönlich entgegenzunehmen. In Kombination mit Tracking-Funktionen, die heute schon Zeitfenster von einer Stunde für die geplante Zustellzeit anzeigen, und automatischer Routenberechnungen gehört ein zweiter oder gar dritter Zustellversuch dann der Vergangenheit an.

 

Welche Möglichkeiten nutzen Sie jetzt schon, um die Zustellung zu verbessern?

Wir arbeiten bereits seit Jahren an internationalen Lösungen, um die Zustellquote bereits beim 1. Versuch zu erhöhen. So können Pakete bis zu zwei Kilogramm jetzt in mehr als 40 Ländern vom Zusteller direkt in den Briefkasten eingeworfen werden, wenn der Empfänger nicht zu Hause ist. Das freut nicht nur die Empfänger, die ihre Sendung schneller erhalten, sondern auch die Shop-Betreiber. Denn der Kunde ist zufriedener, je eher ihn die Bestellung erreicht. Eine Unterschrift des Empfängers ist nicht mehr erforderlich.

 

Wenn die Sendung zu groß für den Briefkasten ist, wird sie persönlich zugestellt oder in der nächstgelegenen Poststelle oder Pick-up-Point zur Abholung hinterlegt. Der Empfänger wird darüber per Karte benachrichtigt. Nach wie vor gibt es aber auch die Möglichkeit, die Sendungen persönlich nur gegen Unterschrift zustellen zu lassen.

 

Welchen Service bieten Sie für den Rückkanal, die Retouren?

Wenn das bestellte Kleid oder die Schuhe nicht passen, kann der E-Commerce-Shopper die Waren nach Deutschland zurück senden. Dafür entwickeln wir bedarfsgerechte Lösungen. So kann der Absender seinen Sendungen direkt ein Retourenlabel beilegen mit dem E-Commerce-Kunden die erhaltene Waren kostenlos zurückschicken können. Das ist nicht nur für den Kunden eine komfortable Lösung, sondern sie hilft auch dem Shop-Betreiber, der damit dem Wettbewerb einen Schritt voraus ist. Denn in vielen Ländern werden kostenlose Retouren, so wie wir das aus Deutschland kennen, gar nicht oder nur sehr selten angeboten.

 

Für Rücksendungen aus Frankreich haben wir gerade eine besonders intelligente Lösung vorgestellt. Dort holt die Post zurückgeschickte Pakete bis zu 30 Kilogramm direkt aus dem eigenen Briefkasten von zu Hause ab. Retouren, die bis acht Uhr morgens in dem Kasten hinterlegt werden, nimmt der Paketbote am gleichen Tag mit. Von dem neuen Service profitieren vor allem deutsche Online-Shops, die ihren französischen Kunden eine bequeme und einfache Rücksendemöglichkeit anbieten möchten.

 

Möglich wird dieser Service in Frankreich erst dadurch, dass über 70 Prozent der Einwohner einen standardisierten Briefkasten haben, den die Paketboten öffnen können und der für die meisten Pakete groß genug ist. Der Absender meldet die Retoure einfach per Internet an und klebt das ausgedruckte Rücksendeetikett auf das Paket.

 

Welche Trends erwarten Sie im internationalen E-Commerce?

Der Trend zur Internationalisierung hält weiter an. Es setzen sich immer mehr umfassende Internationalisierungsstrategien durch. Während beispielsweise E-Commerce-Anbieter in den vergangenen Jahren einen Markt nach dem anderen erschlossen, sind sie heute parallel in mehreren neuen Absatzmärkten aktiv. Selbst Newcomer erstellen ihre Sites gleich in mehreren Sprachen, um für jedes Land ein optimales Angebot zu haben. Denn E-Commerce ermöglicht heute internationales Wachstum schneller und bei geringem Risiko. Zudem gibt es heute Outsourcinglösungen von international erfahrenen Unternehmen mit denen sich neue Märkte testen lassen, ohne in die eigene Infrastruktur investieren zu müssen.

e-commerce-words-2711232954_1cb0765098_o

Während dafür bis vor einigen Jahren noch ein erheblicher Aufwand betrieben werden musste, übernehmen Full-Service-Anbieter wie Asendia, von der Bewerbung und dem Multichannel-Marketing über die Logistik bis hin zum Responsemanagement alle Services aus einer Hand. Der eigene Aufwand reduziert sich dadurch auf ein Minimum.Wir entwickeln ständig neue Lösungen, um den Einstieg ins internationale E-Commerce so einfach wie möglich zu machen. Damit wollen wir insbesondere jungen Unternehmen helfen, neue Märkte im Ausland zu erobern.

 

Sehr geehrte Frau Eickholt, vielen Dank für das Interview!

 

weitere Informationen: Asendia Germany

 

Aufmacherbild / Copyright / Asendia Germany

Beitragsbild / Lizenz / Quellen

Future home EV charging points“ (CC BY-SA 2.0) by JCT600

9 e-commerce“ (CC BY-SA 2.0) by royblumenthal

Cyber Security – Eine komplexe Herausforderung !

Kai Grunwitz, Senior VicePresident Central Europe bei NTT Security im Gespräch mit der TREND REPORT Redaktion über Cyber-Security – Herausforderungen, Defense-Strategien und Lösungen.

 

 

Herr Grunwitz, welchen Unternehmen raten Sie heute zu Penetrationstests?

Penetrationstest und sogenannte Cyber-Attack-Simulationen sind ein elementares Element jedes Sicherheitskonzepts. Darauf zu verzichten, wäre für jedes Unternehmen grob fahrlässig.

Neue IT-Systeme und Anwendungen sollten unter Abwägung des jeweiligen Gefahrenpotentials, bevor sie in den produktiven Betrieb gehen, einem Penetrationstest unterzogen werden. Aus dem Internet erreichbare Systeme sollten grundsätzlich überprüft werden. Empfohlen sind auch regelmäßige Penetrationstests bereits vorhandener IT-Landschaften und Systeme.

Seitens NTT Security empfehlen wir zudem ganzheitliche Cyber-Attack-Simulationen, die technische Angriffe und gezieltes Social Engineering kombinieren. Dadurch kann den Mitarbeitern deutlich vorgeführt werden, welche Bedrohungen bestehen.

 

Inwieweit geht von Hardware (GSM-Modulen) Gefahr für Industrieanlagen aus?

Ein GSM-Modul exponiert eine Anlage direkt im Internet. Der einzige Schutz vor Angriffen sind somit die Sicherheitsmechanismen der Anlage selbst. Die Erfahrung zeigt jedoch, dass diese meist nicht State-of-the-Art sind und zudem oft gar nicht aktiviert werden. Die Anlage steht dann weitgehend schutzlos im Internet.

Moderne Industrieanlagen müssen zu Wartungszwecken aus der Ferne erreichbar sein. Um das dadurch vorhandene Risiko zu beherrschen, muss in einem einheitlichenFernwartungskonzept eine zentrale Überwachung der Zugriffe sichergestellt sein. Gibt es eine Vielzahl unterschiedlicher Zugriffswege, die auch einen direkten Server-Zugriff zulassen, beispielsweise GSM-Module, so ist dies ohne ein ganzheitliches Konzept nahezu unbeherrschbar. Die Anzahl möglicher Sicherheitslücken steigt mit der Anzahl unterschiedlicher Systeme, und eine zentrale Überwachung ist hier nur schwer möglich.

Es ist deshalb unverzichtbar, diese Module zu deaktivieren und die Fernwartung über eine vom Unternehmen kontrollierte spezielle Fernwartungsinfrastruktur zu realisieren.

 

 

Wie müssen die Switches der Zukunft beschaffen sein, um Industrie 4.0 sicher zu realisieren?

Primäres Beschaffungskriterium für Switches im Umfeldvon Industrie 4.0 ist heute sehr oft die mechanische Robustheit. Künftig müssen aber sicherheitsrelevante Kriterien wie Network Access Control Funktionalitäten ebenfalls betrachtet werden. Switches und Komponenten für Industrie 4.0 müssen über Möglichkeiten zur Zugriffskontrolle, Stichworte NAC und 802.1x, verfügen. Vermehrt wird auch Software Defined Networking zum Einsatz kommen.

 

 

Braucht das IoT eine neue Sicherheitskultur?

Definitiv ja! Bei IoT muss die Sicherheit von Anfang an in das Gerät und die gesamte notwendige Infrastruktur mit eingebaut werden. Ein nachträgliches Einbauen oder Upgrade ist selten möglich oder sehr teuer. Leider kann heute niemand garantieren, dass trotz bester Planung die getroffenen Maßnahmen auch langfristig schützen.

Gerade im dynamischem IoT-Umfeld hat Sicherheit oft nicht den höchsten Stellenwert; es steht stattdessen die Funktionalität im Vordergrund. Anerkannte und etablierte IT-Sicherheitsstandards für IoT existieren noch nicht beziehungsweiseIoT-Hardwareverfügt noch nicht über die notwendigen Leistungsreserven für ausreichende Sicherheitsfunktionen.Traditionelle Embedded-Systeme waren in einem vom Internet getrennten Umfeld tätig. Somit war die Bedrohungslage nicht in gleichem Maß gegeben. Dies ändert sich nun dramatisch mit IoT.

cioguide_i_2016_interview_kai_grunitz

Kai Grunwitz, Senior VicePresident Central Europe bei NTT Security Bildquelle: CIO Guide

Die gute Nachricht lautet jedoch: IT-Security muss nicht vollständig neu erfunden werden. Der Umgang mit risikobehafteten IoT-Geräten ist eine Herausforderung, für die bereits viele Sicherheitsmaßnahmen existieren. Denn Endgeräte, wie PCs, Server und mobile Endgeräte, werden auch in der herkömmlichen IT-Security als potenziell unsicher eingestuft.

Klassische, zentrale Schutzmaßnahmen lassen sich auch im BereichIoT anwenden.Segmentierung durch Firewalls, Intrusion-Prevention-Systeme, Authentifizierung und SIEM-Systeme können dasSicherheitslevel für IoT deutlich erhöhen.Viele IoT-Ge­räte verfügen auch über eigene, wenn auch teils eingeschränkte Schutzfunktionen, zum Beispiel zur Verschlüsselung, die natürlich genutzt werden sollten.
Abhilfe könnte hier zudem je nach Anwendungsszenario eine modulare Bauweise für zentrale Sicherheitskomponenten der Geräte schaffen. Dies wird bei preisgünstigen Geräten nicht gehen, da hier eher das Gerät ausgetauscht wird. Bei allen anderen läge der größte Vorteil darin, dass die im IoT vernetzten Geräte auch dauerhaft auf einem hohen Sicherheitsstandard bleiben.

 

 

Kryptomalware-Angriff: Wie gestaltet sich hier die aktuelle Bedrohungslage für Unternehmen? Mit welchen Entwicklungen rechnen Sie noch?

Ransomware bietet den Cyber-Kriminellen die Möglichkeit, ohne Umwege und im großen Stil über Lösegeldforderungen an Geld zu kommen. Dies ist eine sehr kritische Situation, da anders als bei traditionellen unspezifischen Angriffen mit Ransomware zielgerichtet gegen Unternehmen vorgegangen wird.Daher muss sich jedes Unternehmen auf diese Bedrohung einstellen. Leider sind technische Maßnahmen, um sich dagegen zu schützen, bei Unternehmen und Behörden im Einsatz noch nicht flächendeckend.

Viele Unternehmen überarbeiten diesbezüglich aber ihre Sicherheitsstrategie und sind dabei, Lösungen, aber auch sogenannte Awareness-Programme für ihre Mitarbeiter einzuführen. Dies ist auch dringend nötig, da zum Beispiel E-Mails mit Ransomware an Unternehmen, die beispielsweise als Bewerbungen getarnt sind, kaum noch von legitimen E-Mails zu unterscheidensind. Ransomware wird immer professioneller, einfacher zu erstellen und auch mehr und mehr auf den deutschen Markt angepasst.

Ein wichtiger Punkt ist hier, dass es heutemöglich ist, Zahlungen nahezu anonymisiert zu erhalten. Während sich früher Erpresser noch Geld aus fahrenden Zügen zuwerfen ließen, können Cyber-Kriminelle nun beispielsweise über Zahlungen per Bitcoins bequem und mit recht geringem Risiko an das Geld ihrer Opfer kommen. Solange das Geschäftsmodell der Cyber-Kriminellen funktioniert, gehen wir davon aus, dass sich der Trend hier fortsetzen wird und keine Entspannung eintritt. Umso entscheidender ist die Anpassung der Sicherheitsstrategien an diese Bedrohungslage.

Die bei Unternehmen typischen Schutzmaßnahmen wie Firewalls, SPAM- oder Virenschutz sind nicht in der Lage, mit den Cyber-Kriminellen mitzuhalten. Aus Sicht von NTT Security ist es neben kontinuierlichemAwareness-Training für die Mitarbeiter unabdingbar, zusätzliche technische Mechanismen in Form von Sicherheitsgateways auf den Endgeräten einzuführen. So kann unbekannter Schadcode beispielsweise über Sandboxing- oder Code-Analyse-Verfahren erkannt werden – Endgeräte können etwa durch Mikrovirtualisierung geschützt werden.

 

perspecsys-photos-flickr

Trotz der Bedeutung von Time-to-Market und modernster Funktionalität ; Sicherheit muss von Tag eins einer Programmierung auf der Agenda stehen.

 

Welche Gefahren bringen heute Software-Programme mit sich im Kontext von Schwachstellen in der Programmierung?

Wir leben in einem hochdynamischen Markt. Unternehmen müssen schnell auf Marktanforderungen reagieren und Services oder Lösungen bereitstellen, die eine Differenzierung im Markt ermöglichen. Da rückt dann die Funktionalität in den Vordergrund und der Sicherheitsaspekt bleibt oft auf der Strecke.

Gerade bei der Eigenentwicklung von Anwendungen und insbesondere bei Web-Anwendungen lauert ein signifikantes Risiko, wenn nicht von Beginn an Sicherheitsaspekte parallel zur Funktionalität berücksichtigt werden.Die Einhaltung und Prüfung von notwendigen Sicherheitstechniken werden im Rahmen von zeitkritischen Projekten gerne vergessen oder als notwendiges Übel so lange als möglich verschoben. Es ist daher unabdingbar, dass für die Entwicklung Cyber-Security-Richtlinien, die dem individuellen Risikoprofil des Unternehmens Rechnung tragen, konsequent im Entwicklungsprozess umgesetzt werden.

Für NTT Security ist die Anwendungs- aber auch Datenbank-Sicherheit ein entscheidender Schlüssel, um kritische Anwendungslandschaften effizient und sicher zu entwickeln, egal ob es sich um eigene (Web-)Anwendungen oder um Anpassungen rund um Standardprodukte, zum Beispiel in einer SAP-Umgebung handelt. Ein Fehler, der am Anfang eines Entwicklungszyklus passiert, lässt sich später nur mit großem Aufwand wieder korrigieren. Schwachstellen und Sicherheitslücken müssen permanent identifiziert und dann durch Patches und Softwarekorrekturen nachträglich abgedichtet werden. Das ist ein immenser Aufwand und exponiert das Unternehmen, da es immer nur zeitlich verzögert reagieren kann. Daher ein klarer Appell: Trotz der Bedeutung von Time-to-Market und modernster Funktionalität muss die Sicherheit von Tag eins einer Programmierung auf der Agenda stehen.

 

>>> Schutz von öffentlichen Einrichtung, lesen Sie weiter auf der nächsten Seite!

Roboter halten Einzug im Backoffice

 

Unternehmensprozesse von morgen: Roboter halten Einzug im Backoffice

Roboter verändern die Art und Weise, wie wir leben und arbeiten. Von menschenähnlichen Exemplaren bis hin zur Automatisierungssoftware – längst werden Roboter in den  Unternehmen weltweit eingesetzt,und es werden immer mehr. Unternehmen haben erkannt, dass der Einsatz von Robotern immer dann ideal ist, wenn es, darum geht, den Ertrag ohne eine Erhöhung der Mitarbeiterzahl zu steigern. Jetzt haben die Roboter auch ihren Weg in das Backoffice angetreten.

 

Die Herausforderung

Trotz des technischen Fortschritts und trotz der damit verbundenen hohen Kosten setzen die meisten Unternehmen immer noch darauf, dass ihre Mitarbeiter Informationen manuell verarbeiten. Vor dem Hintergrund der ständig wachsenden Informationsflut und den steigenden Lohnkosten entwickelt sich das Thema Datenerfassung damit für viele Unternehmen zu einem Problem.

 

paperstacks-9693554418_aea0a6c74e_k

Immer noch setzen die meisten Unternehmen darauf, dass ihre Mitarbeiter Informationen manuell verarbeiten.

Dazu kommt: Heute arbeiten wir in einer wesentlich komplexeren Geschäftsumgebung, in der zunehmend mobile Geräte und Kanäle für die Kommunikation mit Kunden und Partnern eingesetzt werden. Die zunehmenden Möglichkeiten, wie wir Kontakte pflegen und Geschäfte abwickeln können, führen dazu, dass Unternehmen heute mehr Systeme – moderne und veraltete – einsetzen und auf mehr Datenquellen als je zuvor zugreifen.Die Organisationen stehen heute vor der Herausforderung, diese Systeme so zu verknüpfen, dass ein reibungsloser unternehmensweiter Informationsfluss gewährleistet ist.

 

Nehmen wir beispielsweise ein großes Produktionsunternehmen mit einer ebenso großen Anzahl von internen und externen Portalen. Das Unternehmen ist darauf angewiesen, zahlreiche verschiedene Kontaktpunkte miteinander zu verknüpfen, aber in Wirklichkeit sind alle diese internen Systeme viel zu komplex, um wirklich vollständig miteinander verbunden zu sein.
Daher müssen Mitarbeiter die Lücken füllen und hierzu wiederholt Aufgaben wie die Erfassung von Daten und das Abfragen von Kundeninformationen von Hand erledigen.

papierknaeuel-notes-514998_1920

Die Folge sind zahlreiche ineffiziente Abläufe sowie Fehler, die wiederum die Qualität der Kundenbetreuung beeinträchtigen und letztendlich das Wachstum des Unternehmens bremsen können.

 

Auch für die Mitarbeiter sind solche Arbeitsprozesse  nicht gerade befriedigend.

 

Eine Studie von PMG IT hat gezeigt, dass 98 Prozent der Unternehmen die Automatisierung von Geschäftsabläufen als entscheidend für den geschäftlichen Erfolg ansehen. Gemäß dem Whitepaper Cognizant Center for the Future of Work automatisieren bislang aber lediglich 25 bis 40 Prozent der Unternehmen ihren Workflow.
In den meisten Unternehmen müssen die Mitarbeiter immer noch die Daten zwischen verschiedenen Systemen kopieren und übertragen, und diese Daten müssen anschließend auf Richtigkeit geprüft werden. Eine Vielzahl an Unternehmen steht heute mithin vor der Aufgabe, eine effizientere, exaktere und wirtschaftlichere Lösung zu finden. Und hier kommen die Roboter ins Spiel.

 

Was ist Robotic Process Automation?

Robotic Process Automation (RPA) ist ein Verfahren zur Automatisierung repetitiver geschäftlicher Transaktionen. Mit RPA-Software können Unternehmen einen „Roboter“ so konfigurieren, dass er Daten erfasst und prüft, Transaktionen bearbeitet und Informationen in verschiedene IT-Systeme des Unternehmens weiterleitet.
Hierzu gehören Desktop-Applikationen wie Microsoft Excel, Legacy-Systeme sowie Web-Portale und Websites. Der Roboter stellt die Verbindungen und die Kommunikation mit diesen Systemen her. Und zwar genau so wie dies ein Benutzer tun würde, um datenzentrierte, regelbasierte Aufgaben in großem Umfang zu automatisieren.

 

Nachdem ein Unternehmen festgelegt hat, welche Abläufe automatisiert werden sollen, können Roboter wesentlich schneller eingesetzt werden, als es für Entwickler dauert, um den Code für jeden Ablauf zu schreiben. Dieser schnelle Einsatz verbessert die Agilität eines Unternehmens, da es seine Prozesse schnell an sich ändernde Anforderungen anpassen kann.

 

Roboter verursachen typischerweise auch nur ein Neuntel der Kosten eines Vollzeit-Mitarbeiters eines Onshore-Standorts wie z. B. Großbritannien. Außerdem können die Unternehmen durch die Automatisierung von Abläufen durch RPA auch den Erfolg eines Prozesses besser einschätzen und messen. Und im Gegensatz zu menschlichen Arbeitskräften, die ständige Investitionen in Schulung benötigen, können Roboter einen Prozess einmal erlernen und dann rund um die Uhr weiterarbeiten. Dies macht RPA zur effektivsten Methode, um das Backoffice effizienter zu machen.

Vorteile von RPA

Die Vorteile von RPA gehen weit über Kosteneinsparungen hinaus. Weitere Vorteile sind geringere Fehlerraten, reduziertes Risiko und höhere Produktivität. RPA kann auch die Motivation des Personals verbessern, da sich die  Mitarbeiter nun stattdessen auf qualifiziertere Aufgaben konzentrieren können. Und damit lassen sich Abläufe so stark beschleunigen, dass Aufgaben wie z. B. die Bearbeitung des Online-Kreditantrags eines Kunden statt mehrere Tage nur noch Minuten oder sogar Sekunden dauern.
In einer von den Kunden bestimmten Branche kann die Geschwindigkeit der Transaktionen den Unterschied zwischen dem Halten und dem Verlieren eines Kunden ausmachen. Auf diese Weise verbessert RPA die Customer Experience erheblich und ermöglicht den Unternehmen, ihr Business ohne Aufstockung der Mitarbeiteranzahl  zu erweitern.

 

Angesichts der Fülle der Kundendaten ist RPA besonders in Branchen wie Bankwesen, Versicherungen, Produktion und Logistik nützlich. Gemäß einem Branchenexperten können Banken ihre Produktivität bei Tausenden von Prozessen um 25-50 Prozent verbessern. Alle Abläufe, von der Aufstellung eines Tilgungsplanes für eine Hypothek bis hin zur Rechnungslegung an Kunden, umfassen Daten, die verarbeitet werden müssen.

 

robotics-backoffice-10756882583_1af0d579fe_h

Eine große Bank in den USA setzt bereits 50 Roboter ein, um verschiedene Aufgaben zu automatisieren, beispielsweise das Zusammenstellen von Kreditunterlagen für Prüfungen. Ebenso wie ein menschlicher Mitarbeiter kann auch der Roboter eventuelle Unstimmigkeiten korrigieren, die zwischen dem Enterprise Content Management-System und dem eigentlichen Kreditbearbeitungssystem bestehen. Seit der Übertragung der Aufgaben an die Roboter muss die Verbraucherkreditabteilung der Bank weniger Zeit für Prüfungen und Qualitätskontrollen aufwenden. Dies spart der Bank nicht nur Kosten, sondern verbessert auch das Vertrauen der Prüfer in die Korrektheit der Buchungen.

 

Was kommt als Nächstes?

 

RPA hat eine brillante Zukunft. Vom Kreditsachbearbeiter bis hin zum Leiter der Debitorenbuchhaltung gibt es ein enormes Potenzial für RPA zur Beschleunigung verschiedener Prozesse, zur Lösung geschäftlicher Herausforderungen und zur Realisierung von Kapitalrenditen.
Als nichtinvasive Technologie kann RPA auch die Flexibilität betrieblicher Abläufe verbessern, da die Unternehmen ihre Unternehmensprozesse nicht neu gestalten müssen. Roboter lassen sich auch ohne Programmierung einfach realisieren, so dass sie von einer kleinen Gruppe von IT-Fachleuten eingesetzt und gepflegt werden können, ohne dass hierzu ein ganzes Entwicklerteam benötigt wird.

Best Practices für die Einführung von RPA stellen sicher, dass das Unternehmen die Software selbst handhaben und die Roboter entwickeln, einsetzen und pflegen kann. So können Unternehmen beispielsweise mit Kofax Kapow schnell automatisierte Softwareroboter einrichten, um repetitive, datenorientierte Aufgaben unter Verwendung beliebiger Datenquellen zu erledigen. Alles vom Kopieren von Daten von einem System in ein anderes bis zur Bearbeitung ankommender E-Mail-Anfragen lässt sich automatisieren.
Auf diese Weise kann eine Aufgabe, für die früher mehrere hundert Mitarbeiter erforderlich waren, von Robotern übernommen und in die bestehenden Geschäftsprozesse eines Unternehmens integriert werden.

robot-hand-1571842_1920

Die Einführung von RPA dient nicht nur zur Reduzierung der Kosten, sondern ermöglicht durch Digitalisierung von Geschäftsprozessen weitere wirtschaftliche Vorteile, so etwa in Bezug auf die Verbesserung der Produktivität und die Reaktionsgeschwindigkeit. Mit RPA können Unternehmen manuelle Abläufe abschaffen und ihre Mitarbeiter für wertvollere Funktionen einsetzen, wo sie dank ihrer Qualifikation Aufgaben bearbeiten, die von der Technologie nicht gelöst werden können.
Wie die mechanischen Roboter in der Fertigungstechnik, die viele der früher von Menschen durchgeführten repetitiven Arbeiten ausführen, hat RPA das Potenzial, die Konzeption und die Verwaltung von Geschäftsprozessen zu revolutionieren.

 

weiterführende Informationen: Kofax

 

 

 

 

Aufmacherbild / Lizenz / Quelle

CC0 Public Domain

 

Beitragsbild / Lizenz / Quelle

2013_11_060021d – (t1)“ (CC BY 2.0) by Gwydion M. Williams

Bureaucracy / Bürokratie I“ (CC BY 2.0) by manoftaste.de

Digitale Energieeffizienz

Smart Services und Contracting werden die Energiewirtschaft und den Energieverbrauch nachhaltig verändern. Der Zeitpunkt für Investitionen ist dank „Nullzins-Politik“ so günstig wie nie.

Bis vor Kurzem noch galt eine solche Entwick­lung als unvorstellbar: Inzwischen verlangen erste Banken von Geschäftskunden ein „Verwahr-Entgelt“ für große Geldbeträge. Für die betroffenen Unternehmen ist das natürlich bitter – andererseits machen die negativen Zinsen zugleich Investitionen in die Energieeffizienz noch attraktiver als zuvor. Denn warum sollte man sein Geld gegen Gebühr auf der Bank liegen lassen, wenn es stattdessen – richtig investiert – im Unternehmen helfen kann, Ausgaben zu reduzieren? Zumal die Einsparung von Energie und Rohstoffen unternehmerisch oft die sicherste Art ist, die Profitabilität des Unternehmens zu steigern.

Das weiß man natürlich auch im Wirtschaftsministerium, das im Sommer das „Grünbuch Energieeffizienz“ vorstellte. Durch die Senkung des Energieverbrauchs, heißt es darin, könnten alle gewinnen, die Unternehmen wie auch die privaten Verbraucher. Minister Sigmar Gabriel weiß: „Energieeffizienz ist ganz entscheidend für das Gelingen der Energiewende und die Umsetzung der Ergebnisse der jüngsten Klimakonferenz in Paris.“

Claudia Müller von EnviroChemie optimiert mit Energie­effizienz­dienst­­leistungen die Betriebskosten.

Claudia Müller von EnviroChemie optimiert mit Energie­effizienz­dienst­­leistungen die Betriebskosten.

Dennoch wird das Effizienzpotenzial in Deutschland heute noch nicht in dem Maße erschlossen, wie es ökonomisch sinnvoll wäre. Dafür gibt es natürlich zahlreiche Gründe. Einer ist mangelndes Wissen über die Verbräuche; hier könnte in Zukunft die Digitalisierung helfen. Ein anderes wesentliches Hemm­nis bilden in diesem Kontext sind man­gelnde Kenntnisse der Unternehmen zum Thema Energie­versorgung. Den Fir­men kann man das nicht vorwerfen, denn schließlich sind sie in der Regel ausreichend damit beschäftigt, in ihrem eigentlichen Geschäftsfeld auf dem neuesten Stand zu bleiben. Wer zum Beispiel Experte für hochwertige Sensortechnik ist, der will seine Kapazitäten nicht darauf verwenden, zusätzlich noch Experte in Energie­fragen zu werden.

trendreport.de

Innovation Labs
Ohne Energieeffizienz sind die Klimaschutzziele nicht zu erreichen und ohne Digitalisierung wird es keine duchgängige Energieeffizienz geben. Wie aber will die Politik die Wirtschaft und Gesellschaft mitnehmen? Dr. Michael Kuhndt plädiert im Gespräch mit der TREND-REPORT-Redaktion für Innovation-Labs, die alle Beteiligten zusammenbringen. https://trendreport.de/energie-mit-effizienz

Offene Messsysteme
Im Gespräch mit der TREND-REPORT-Redaktion erläutert Dieter Berndt von Qundis, wie die Digitalisierung die Heizkostenabrechnung effizienter und transparenter macht. https://trendreport.de/energieverbrauch

Aber auch für dieses Problem gibt es eine elegante Lösung, und die heißt Contracting: Man vergibt die Energie- oder auch Medienversorgung (also alles, was in Rohren fließen kann, Gase, Flüssigkeiten oder auch Druckluft) an ein externes Unternehmen. Und da dieses seine Kernkompetenz in exakt diesem Bereich hat, kennt es alle Kniffe der Effizienz. Das Contracting gibt es in verschiedenen Ausprägungen. Während das Energieliefer-Contracting sich schon ein Stück weit durchgesetzt hat, steht das Energieeinspar-Contracting noch am Anfang. Bei diesem geht es darum, dass ein externer Investor Verbräuche senkt, sei es an Strom, Wärme oder anderem, was Geld kostet. Er refinanziert seine Investitionen aus den erzielten Einsparungen.

Energieeffizienz durch Digitalisierung birgt „viel Potenzial für neue Geschäftsmodelle“, erläutert Michael Kuhndt.

Energieeffizienz durch Digitalisierung birgt „viel Potenzial für neue Geschäftsmodelle“, erläutert Michael Kuhndt.

Erst 1,6 Prozent aller kleinen und mittelgroßen Unternehmen (als KMU bezeichnet) hätten bisher ein umfassendes Energieeinspar-Contracting in Anspruch genommen, heißt es im Grünbuch. Die Bereitschaft von Immobilien- und Anlagenbesitzern, ihre Vermögensgegenstände an langfristige Verträge zu binden, sei „nach wie vor begrenzt“. An­bieter sind aber längst am Markt aktiv. Michael Kuhndt vom Collaborating Centre on Sustainable Consumption and Production gGmbH nennt als Beispiel die Firma Philips: „Die sagen, wir stellen nicht mehr die Lampe her, sondern wir verkaufen Licht, wir verkaufen Helligkeit.“ Sie liefern also die Dienstleistung „ausgeleuchtete Arbeitsplätze“. Die Kunden, sagt Kuhndt, wollten oft gar nicht das Produkt kaufen, sie wollten nur den Nutzen, in diesem Fall eben das Licht. Andere Beispiele für Contracting benennt die Firma EnviroChemie, die in diesem Metier tätig ist.

Claudia Müller, Projektmanagerin Geschäftsentwicklung bei EnviroChemie: „Als Partner für die industrielle Wasser- und Abwasserbehand­lung bieten wir nachhaltige Lösungen für alle Aufgaben, die bei der Wasseraufbereitung und Behandlung anfa­l­len. Neben Planung und Bau entwickelt EnviroChemie im eigenen Anwen­dungs­­labor kundenspezifische Lösungen.“ In Zukunft dürften solche Lösungen auch durch die Gesetzgebung verstärkt zum Zuge kommen. „Um sämtliche Marktpotenziale zu nut­zen, muss der Rahmen für den Markt für Energieeffizienz­dienstleistungen weit­erentwickelt wer­den“, heißt es im Grünbuch, wenn­gleich auch noch recht unkonkret. Dabei muss über sämtliche Ressourcen im Unternehmen nachgedacht werden. Müller weiter: „Im Rahmen der Betriebskostenoptimierung ist der Energieverbrauch, der unter anderem durch die Wasser- und Abwasserbehandlung entsteht, oftmals eine wichtige Stellschraube. In manchen Fällen kann Energie in Form von Biogas aus dem Abwasser gewonnen und anstelle fossiler Energieträger genutzt werden.“

Die EU unterdessen macht für alle Unternehmen, die nicht unter die europäische KMU-Definition fallen, Energieaudits zur Pflicht. Mindestens alle vier Jahre müssen die Betriebe diesen Prozess durchlaufen, der herstellerneutral von einer unabhängigen Person betreut werden muss. Freigestellt von der Pflicht sind lediglich Unternehmen, die bereits ein Energiemanagementsystem nach DIN EN ISO 50001 oder ein Umweltmanagementsystem nach EMAS eingerichtet haben. Das Energieaudit muss mindestens 90 Prozent des Gesamtenergieverbrauchs des Unternehmens erfassen. Es basiert auf aktuellen, gemessenen, belegbaren Energieverbrauchsdaten und Lastprofilen und schließt eine eingehende Prüfung des Energieverbrauchsprofils von Gebäuden, Anlagen, Betriebsabläufen und des Ver­kehrs ein. Die Audits ermitteln detaillierte Verbesserungsmöglichkeiten mit klaren Informationen zur Einsparung, idealerweise mitsamt einer Lebenszyklus-Kostenanalyse. Und diese Analyse ist schon der erste Schritt für die Optimierung der Prozesse.

Sparen durch flexible Produktion

Darüber hinaus dürfte in Zukunft ein Konzept an Bedeutung gewinnen, das sich Demand-Response nennt, oder auch Demand-Side-Management. Damit ge­meint ist ein automatisiertes Regelungs­verfahren, das den Stromverbrauch eines Unternehmens je nach Situation der Stromerzeugung verändert. Im engeren Sinne ist es lediglich ein Lastmanagement, etwa indem energieintensive Pro­zesse so weit wie möglich in jene Zeiten verlagert werden, in denen Strom in großen Mengen (etwa tagsüber durch Photovoltaik) vorhanden ist. Im weiteren Sinne kann eine intelligente Steuerung neben Lasten auch Speicher und Erzeuger in ihrer Betriebsweise optimieren. Man spricht dann auch von einem „Virtuellen Kraftwerk“ oder einem „Virtuellen Energiesystem“.

Für die Unternehmen kann das lukrativ sein, weil in Zeiten hohen Stromangebots im Netz die Preise am Spotmarkt niedriger sind. Größere Stromverbraucher können aber auch in anderen Segmenten des Strommarktes – etwa im Regelenergiemarkt – agieren, und damit Zusatzeinnahmen erzielen. Weil aber auch das wiederum Kompetenzen sind, die viele produzierende Unternehmen nicht selbst aufbauen wollen, bieten heute Dienstleister diesen Service an.
Oft kann auch die Stromeigenerzeugung mit erneuerbaren Energien den Einstieg in solche Konzepte liefern, zumal Solarstrom vom eigenen Firmendach heute schon günstiger sein kann als der Strom aus dem Netz. Damit bietet es sich an, die Eigenverbrauchsquote durch Lastmanagement zu erhöhen. Und wer Strom nach dem Erneuerbare-Energien-Gesetz erzeugt und direktvermarktet, hat ohnehin meistens bereits einen entsprechenden Dienstleister an der Hand. Der Weg zu einem allumfassenden Energiemanagement ist dann nicht mehr weit.

Dieter Berndt von Qundis erläutert TREND-REPORT-Redakteur Bernhard Haselbauer, wie die Digitalisierung mit offenen Messsystemen die Heizkosten­abrechnung transparenter macht.

Dieter Berndt von Qundis erläutert TREND-REPORT-Redakteur Bernhard Haselbauer, wie die Digitalisierung mit offenen Messsystemen die Heizkosten­abrechnung transparenter macht.

Dabei hilft die Digitalisierung sehr. „Sie schafft neue Potenziale zur Steigerung der Energieeffizienz“, heißt es im Grünbuch. Denn durch die kontinuierliche Verbrauchs­erfassung ergäben sich neue Möglichkeiten der Analyse und der Nutzerinformation, und es ließen sich darauf basierend Mehrwertdienste und (Finanzierungs- und Beratungs-)Dienstleistungen für Energieeffizienz entwickeln, die in dieser Form zuvor technisch-organisatorisch unmöglich oder zu teuer waren. Das könnte sogar im Wohnhaus Vorteile bringen. Heute kommt die Heizkostenabrechnung für das zurückliegende Jahr in der Regel so spät, dass kein Mieter es mehr nachvollziehen kann, wenn sie vom Vorjahr erheblich abweicht. „Heute kann man den Verbrauch transparent machen und dem Mieter einmal die Woche oder jeden Tag oder in welchem Zeitraum auch immer eine Abrechnung zukommen lassen“, sagt Dieter Berndt von der Firma Qundis, die Messsysteme für die Verbrauchserfassung und -abrechnung von Wasser und Wärme anbietet. „Über dieses Bewusstsein fangen die Leute an, Energie zu sparen“, erklärt der Geschäftsführer der Firma.

Studien der EU-Kommission, an denen auch Qundis beteiligt war, hätten ergeben, dass Verbraucher so bis zu 30 Prozent Energie einsparen können. Und in Zukunft könne sogar die Wettervorhersage in die Steuerung einfließen – und so zum Beispiel die Heizungsanlage bereits drosseln, wenn absehbar ist, dass gleich die Sonne herauskommt.

von Bernward Janzing
b.janzing@trendreport.de