Multi-Cloud erfordert ein Umdenken bei der Planung von IT-Budgets

Von Markus Schäfer, Product Manager Cloud & Mobile bei Matrix42

Der Multi-Cloud-Ansatz setzt sich zunehmend durch. Der Weg in die Multi-Cloud muss jedoch begleitet werden von einem Umdenken bei der Planung von IT-Budgets. Andernfalls können die Vorteile der Multi-Cloud nicht optimal ausgeschöpft werden.

Bis 2019 wird der Anteil der Unternehmen, die einen Multi-Cloud-Ansatz verfolgen, auf 70 Prozent steigen – prognostiziert die Gartner Studie „Market Trends: Multi-Cloud Usage Will Drive Cloud Management Platform Growth“. Hauptgrund für diese Entwicklung ist die höhere Flexibilität, die die Multi-Cloud bietet. Sie eröffnet Unternehmen die Möglichkeit, sich für die jeweils optimale Lösung zu entscheiden. Denn es gibt keine Cloud-Lösung, die sich für alle Anforderungen eines Unternehmens eignet. In der Multi-Cloud können mehrere Cloud-Dienste in einer gemeinsamen Cloud zusammengefasst werden. Kombinierbar sind sowohl mehrere öffentliche Cloud-Lösungen als auch eine Private Cloud mit Public-Cloud-Modellen. Dennoch erscheint dem Anwender die Kombination aus mehreren Cloud-Diensten und –Plattformen wie eine einzige große Cloud.

Die Flexibilität der IT ist unverzichtbar für Unternehmen, die ihre Geschäftsmodelle und -prozesse digitalisieren. Denn von der IT wird erwartet, dass sie den Wandel agil, flexibel und kosteneffizient mitgestaltet. Dazu gehört, dass sie in der Lage ist, rasch auf Änderungen zu reagieren, Services bei Bedarf flexibel skalieren zu können, Innovationen zu unterstützen, Unternehmensprozesse zu optimieren und dafür zu sorgen, dass die Anforderungen in den Bereichen Sicherheit, Compliance und Datenschutz erfüllt sind.

Herausforderung: Budget-Flexibilität

Neben den zahlreichen organisatorischen und technischen Herausforderungen, die mit der Umsetzung eines Multi-Cloud-Ansatzes einhergehen, ist das Budget-Modell ein nicht zu unterschätzender Hemmschuh in vielen Unternehmen. Traditionellerweise wird das IT-Budget für Investitionen (Capex) und operative Ausgaben (Opex) geplant. In der Vergangenheit war stets eine Erhöhung der Investitionskosten notwendig, wenn Veränderungen in der IT anstanden. Die IT-Ausstattung, z. B. Server und Software, wurde gekauft, die Kosten dafür über Jahre hinweg abgeschrieben. Dagegen wurde das Budget für die Betriebskosten zumeist gering gehalten, wenn nicht sogar jährlich gekürzt. In der Cloud-Welt ändert sich das grundlegend. Denn Cloud-Kosten sind Opex-Kosten.

Wechsel der Budget-Modelle

Während sich die IT-Abteilungen den Anforderungen der Digitalisierung anpassen, wurden die Budget-Modelle in den meisten Unternehmen bislang noch nicht überarbeitet. Strategische Modernisierung benötigt aber flexible Budgets und einen Shift hin zu mehr Opex. Für viele IT-Verantwortliche stellt dies einen Drahtseilakt dar. Denn eine Verringerung des Investitionsbudgets soll nicht mit einer Kürzung des Gesamtbudgets einhergehen. Ziel ist es vielmehr, eine kosteneffizientere IT zu schaffen, ohne dass regelmäßig umfangreiche Investitionen in Capex zur Aktualisierung von Tools und Systemen erforderlich sind. Nur mit einem ausreichenden Opex-Budget kann die IT die Erwartungen an sie auch hinreichend erfüllen.

Step-by-step und gut orchestriert

Kein Unternehmen wird sein Budget-Modell von heute auf morgen komplett umkrempeln. Gelingen kann der Wechsel des Budgetansatzes dennoch, wenn z. B. Jahr für Jahr ein bestimmter Prozentsatz des Capex-Budgets dem Opex-Budget hinzugefügt wird. Notwendig sind aber eine gute Planung und eine umfassende Orchestrierung der Multi-Cloud. Denn mit der Budget-Bereitstellung und –flexibilisierung geht logischerweise auch weiterhin die Erwartung einher, dass dieses Budget effizient von der IT eingesetzt wird. Das heißt, die Verantwortlichen müssen auch die Nachteile der Multi-Cloud im Griff haben:

  • Steigende Komplexität und höherer Verwaltungsaufwand durch die höhere Anzahl an Anbietern
  • Höhere Fehleranfälligkeit durch die steigende Anzahl an Schnittstellen
  • Kein einheitlicher Datenschutz- und Sicherheitsansatz, weil die verschiedenen Anbieter in der Regel unterschiedliche Konzepte anwenden
  • Schwierigkeiten bei der Einhaltung von Lizenzbestimmungen, da verschiedene Anbieter unterschiedliche Lizenzmodelle haben

Unterstützung durch Multi-Cloud-Experten

Um den Dschungel aus Lösungen, Lizenzmodellen und Sicherheitskonzepten erfolgreich managen zu können, ist eine 360-Grad-Sicht auf die Multi-Cloud notwendig. Immer mehr Unternehmen entscheiden sich daher für Anbieter wie Matrix42, die mehrere aufeinander abgestimmte Lösungen anbieten und gleichzeitig die Möglichkeit eröffnen, andere Cloud-Lösungen sowie die Private Cloud einzubinden und die volle Kontrolle über das gesamte System zu gewährleisten.

Die Multi-Cloud eröffnet viele Möglichkeiten, bringt aber auch zahlreiche Herausforderungen mit sich. Professionelle Beratung und Begleitung hilft, die Vorteile der Multi-Cloud optimal ausschöpfen zu können.

Weitere Informationen unter:
www.matrix42.com

Bildquelle / Lizenz: Matrix 42 AG

Transparente und zentrale User-Administration: Verbesserung der Datenqualität

Schluss mit dem aufwendigen Management einer in die Jahre gekommenen Netzwerkinfrastruktur: Seit 2017 betreiben die IT-Experten der Software AG intern eine moderne DDI-Lösung (DNS-DHCP-IPAM) von EfficientIP. Schon jetzt sticht eine Verbesserung der Datenqualität als eine der wesentlichen Optimierungen im Workflow hervor. Doch damit nicht genug: Für das laufende Jahr 2018 ist eine Erweiterung geplant.

Die Software AG unterstützt die digitale Transformation von Unternehmen. Mit der Digital Business Platform der Software AG können Unternehmen besser mit Kunden interagieren, ihre Geschäftsmodelle weiterentwickeln und neue Marktpotenziale erschließen. Im Bereich Internet der Dinge (IoT) bietet die Software AG ihren Kunden führende Lösungen zur Integration, Vernetzung und zum Management von IoT-Komponenten sowie zur Analyse von Daten und zur Vorhersage von zukünftigen Ereignissen auf Basis künstlicher Intelligenz. Die Digital Business Platform basiert auf Technologieführerschaft und jahrzehntelanger Expertise bei Softwareentwicklung und IT. Die Software AG beschäftigt über 4.500 Mitarbeiter, ist in 70 Ländern aktiv und erzielte 2017 einen Umsatz von 879 Millionen Euro.

Eine moderne Lösung für nachvollziehbare Prozesse

Um die heterogene DNS- und DHCP-Lanschaft des Unternehmens zu modernisieren und IPv6 als Datenübertragunsverfahren einzuführen, wurde EfficientIP ins Boot geholt. Ein neues System sollte implementiert werden, an das im Wesentlichen drei Hauptanforderungen gestellt wurden: Zum einen wünschten sich die Entscheider Massendeployment-Templates, um die Einstellungen der heterogenen Landschaft unabhängig vom System zentral pflegen zu können. Ein weiterer Wunsch galt dem Aspekt globale Sichtbarkeit. Um im weltweiten Netzwerk den Überblick über die Aktivitäten an jeglichen Standorten zu behalten, mussten die erforderlichen Informationen zuvor immer aus dem jeweiligen System vor Ort geholt werden. Künftig sollte ein neues Management-System den Verantwortlichen die Option bieten, alles korreliert und von zentraler Stelle aus einsehen zu können.

Der dritte wichtige Punkt auf der Wunschliste betraf das Thema User-Verwaltung. Die Verantwortung für den DNS-Bereich im Unternehmen sollte von weltweit nur einem Experten-Team auf jeweils größere Gruppen mit klaren Kompetenzen für die Netzwerke in festgelegten Regionen wie Asien, USA und Europa ausgedehnt werden. Zudem sollten die IT-Administratoren in die Lage versetzt werden, auftretende Unregelmäßigkeiten im System lückenlos und unverzüglich nachvollziehen zu können. Dazu galt es, ihnen die umfassende Kontrolle über das Management-System und die User zu gewähren.

EfficientIP hat bei der Modernisierung im Rahmen von DNS und DHCP die Software AG entscheidend unterstützt.

„Wir haben uns für das DNS-Management von EfficientIP entschieden, da es sich aufgrund seiner internen Logik bestens an unsere Anforderungen anpassen lässt“, kommentiert Timo Schilling, Network Architect bei der Software AG, der die Funktion des Projektleiters übernahm. „Darüber hinaus erwies sich die Flexibilität des Lösungspakets als ideal für die Struktur in unserem Anwenderkreis.“ Bei EfficientIP ist der Host beziehungsweise der Ressource Record eine feststehende Einheit, die innerhalb des Systems bewegt werden kann, während bei der Konkurrenz die IP-Adresse den feststehenden Wert bildet. Außerdem sind die Anwender nicht an eine Plattform von EfficientIP gebunden, sondern können Betriebssysteme wie Microsoft und Linux nutzen. „Das macht die Lösung besonders interessant für kleine Standorte mit wenigen Mitarbeitern, wie wir sie vielerorts betreiben“, so Schilling.

Mit strategischem Weitblick zur optimalen DDI-Landschaft

Seit 2017 setzt die Software AG die Lösung von EfficientIP in ihrer eigenen IT ein – der DHCP-Service von EfficientIP kommt an Standorten mit dem SOLIDServerTM zum Einsatz. Die Server betreiben eine interne Domain, in die alles eingetragen wird, was intern aufgelöst werden muss. Ein wichtiger Anwendungszweck besteht darin, die Switch-Infrastruktur zu überwachen. Um DNS-Einträge auf ihre Richtigkeit zu überprüfen, können die entsprechenden Informationen am Switch-Port eingesehen werden. Für das Jahr 2018 ist geplant, auch an größeren Standorten EfficientIP in einer Star Failover Architektur zu nutzen, um eine Lösung für das Redundanz-Konzept zu etablieren. „Hintergrund der Einführung war die Konsolidierung der DNS-DHCP-Landschaft als eigenständiges System auf Basis des stabilsten IP-Adressmanagements (IPAM) mit dem größeren Ziel, IPv6 einzuführen“, erklärt Timo Schilling. „Um eine einheitliche Operationsbasis zu schaffen, musste zunächst die interne DHCP-Lösung und die selbstgeschriebene Dokumentation der Netze konsequent abgelöst werden – und das ist auch gelungen.“

Bereits vor der Einführung waren die Systeme nahezu vollständig virtuell. Inzwischen basieren auch die SOLIDServerTM auf einer virtuellen Infrastruktur mit Ausnahme eines einzigen physikalischen Systems. „Virtuelle Systeme machen sich vor allem an kleinen Standorten mit wenigen Büros und Usern bezahlt, wohingegen Hardware-Systeme in den großen Rechenzentren von Relevanz sind“, erläutert Andrea Graeber, Senior Manager Network & Global Infrastructure Services bei der Software AG. Um die Lösung aus einer Hand abzurunden, hat die Software AG den Provider Maintenance Service direkt miteingekauft – mit gutem Ergebnis, sagt Graeber: „Bis heute hat sich die Einführung bewährt und im Fall kritischer Fragen haben wir einen eigenen Ansprechpartner bei EfficientIP.“

Aus heutiger Sicht ist als Hauptnutzen der Implementierung vor allem das zentrale Management von DNS, DHCP und IP-Adressen hervorzuheben. Die IT der Software AG kann von einem Standort aus viele Systeme intern verwalten und monitoren. Zusätzlich sind die Experten in der Lage, den Usern die regionalen Rechte zu gewähren, die sie benötigen. Darüber hinaus punktet das System mit hoher Visibilität. Mitarbeiter, die das System neu bedienen, müssen sich nicht eigens mit DNS auskennen. Ein Zukunftsthema ist die umfassende Reporting-Funktionalität, die bislang noch nicht verwendet wurde, aber künftig einen hohen Zusatznutzen entfalten soll. „Bereits vor einigen Jahren haben wir damit begonnen, eine IPv6-Testumgebung aufzubauen, die aber vom Rest des Unternehmensnetzes getrennt war“, erklärt Andrea Graeber. „Nachdem wir es konsolidiert haben, läuft dieses jetzt über die EfficientIP-Plattform – wie sich gezeigt hat, eine sinnvolle Investition und echter Meilenstein zur Verbesserung der Datenqualität.“

Weitere Informationen unter:
http://www.efficientip.com/de/

RPA 2.0

Wie Artificial Intelligence (AI) dabei hilft, Prozesse effektiv zu optimieren, erläutert Darius Heisig, General Manager EMEA von Kryon Systems, im Interview mit der TREND-REPORT-Redaktion.

 

Herr Heisig, was müssen Unternehmer beachten, die RPA-Lösungen erfolgreich implementieren wollen?

RPA dient vor allem der Effizienzsteigerung einzelner Prozesse. Zunächst muss allerdings analysiert werden, welche Prozesse am ehesten automatisiert werden sollten. In der Praxis heißt das in der Regel, dass durch Mitarbeiterbefragungen versucht wird zu ermitteln, welche Prozesse sich hier auf Grund verschiedener Kriterien am besten eignen.

Erst wenn das geglückt ist, kann die Auseinandersetzung mit der eigentlichen RPA Implementierung beginnen. Hier gilt es zu klären, wie RPA in die gesamte Unternehmensinfrastruktur integriert wird. Security, Audit-Features, IT-Integration, welche Mitarbeiter sind miteinzubeziehen – all dies sind nur Beispiele für viele Aspekte, die für den Aufbau und die Organisation von RPA in Unternehmen wichtig sind.

RPA ist eine agile Methode – das bedeutet im klassischen, programmiertechnischen Sinne „Sprint und Run“, um schnelle Ergebnisse zu erzielen und dann schrittweise das Ganze zu verbessern. Konkret starten RPA Kunden also direkt mit den „Low hanging Fruits“ – also bekannte, nicht sehr variantenreiche Prozesse, die strukturiert sind und einen Mehrwert für das Unternehmen stiften.

Mein Vorschlag also: „think big – start small“ ¬– mit definierten und strukturierten Prozessen starten, mit den Projekten wachsen, Erfahrung sammeln und dann agil voranschreiten.

 

Wie helfen Sie Unternehmen dabei, die richtigen Prozesse zu finden?

Durch die Integration von AI: Unsere jüngst um Kryon Process Discovery erweiterte Lösung kann Prozesse erkennen, die auf dem Rechner ausgeführt werden. Konkret bedeutet dies, dass wir unsere Software auf verschiedenen Rechnern der Mitarbeiter installieren. Dort ermittelt sie dann zum Beispiel wiederkehrende Prozesse innerhalb von acht Stunden an fünf Tagen in der Woche.

Diese Prozesse werden analysiert und Businessprozesse herausgefiltert. Noises – also alles, was sonst passiert, kurze private Tätigkeiten bzw. nicht relevante Applikationen und damit verbundene Klicks – werden dabei nicht erfasst. Im nächsten Schritt erkennen wir automatisiert, wie viele Mitarbeiter welche Prozesse wie häufig in wie vielen Varianten ausführen und wie lange so ein Prozess dauert. Kurzum: Es wird geprüft, wie geeignet Prozesse für die Automatisierung sind.

Unternehmensverantwortliche wie beispielsweise COOs erhalten zudem einen transparenten, also evidenzbasierten Blick auf die tatsächlich ablaufenden Prozesse und wir können unseren Kunden optimale Vorschläge unterbreiten. Mit der erfolgten Aufzeichnung der Prozesse liegen dann sogar schon die fertigen Workflows in unserer RPA-Lösung vor.

Das Besondere ist also, dass die Prozesse nicht nur automatisiert analysiert werden, sondern dass gleichzeitig der Mitarbeiter allein durch seine tägliche Arbeit einen Workflow und einen Robot erstellt und ihn trainiert. So wird eine richtige Factory für Process Automation aufgebaut. Und diese Verbindung von Artificial Intelligence und Robotics, das ist für mich RPA 2.0.

 

Welche Innovationen sind auf Basis der RPA-Technologien in Zukunft denkbar?

Stand jetzt sind wir mittels AI in der Lage, Prozesse zu erkennen und zu optimieren. Prozesse ändern sich jedoch stetig, beispielsweise weil neue Technologien eingeführt werden oder weil neue Produkte und Regularien Änderungen erfordern.

Es gilt also zu erkennen, wann Prozesse sich ändern und diese dementsprechend mit RPA anzupassen. In Kürze wird es sicherlich möglich sein, dass diesbezügliche Analysen kontinuierlich durchgeführt werden. Wir nennen das Continuous Process Optimisation (CPO). Idealerweise geschieht die Anpassung dann nicht erst nachdem die Änderung schon stattgefunden hat.

„Die Verbindung von Artificial Intelligence und Robotics, das ist für mich RPA 2.0“ erläutert, Darius Heisig.

Eine AI könnte, schon bevor Änderungen eingeführt werden, proaktiv einen Vorschlag machen, wie Prozesse in der neuen Umgebung besser automatisiert werden können – quasi ein RPA 2.0 im Sinne einer „automatisierten Automatisierung“.

 

Wie entwickelt sich Ihr Marktumfeld?

Der Markt wächst unglaublich schnell. Ich bin seit 29 Jahren in der IT-Branche und habe noch nie ein Thema sich so schnell verändern und wachsen sehen. Ende November erst war ich auf einer Konferenz in London. Dort hatten von einem Teilnehmerkreis von 60 Personen weniger als 20% RPA in Produktion. Im März hatten auf einer Veranstaltung in Wien schon 70% mindestens ein Bot in Produktion. Gerade neue Ideen werden unglaublich schnell adaptiert, Process Discovery ist dabei der nächste Schritt.

 

Herr Heisig, vielen Dank für das Gespräch.

 

 

www.kryonsystems.com

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

 

Wachstum durch Künstliche Intelligenz

Vernetzte Wirtschaft: gemeinsam innovativer und erfolgreicher

Wenn die vernetzte Gesellschaft thematisiert wird, darf die Wirtschaft als vitaler Teil der Betrachtungen nicht vergessen werden. Doch was bedeutet „Vernetzung der Wirtschaft“ konkret? Der hier zu beobachtende Paradigmenwechsel der vergangenen Jahre ist eine der stillen, aber bedeutsamen Umwälzungen: Nicht nur „Networking“ und miteinander sprechen ist inzwischen ein allgegenwärtiges Thema, sondern das miteinander Arbeiten im Clusterverbund ist zum Erfolgskonzept für ganze Regionen geworden – branchenübergreifend Innovation schaffen lautet die Devise.

Vernetzung ist Erfolgsfaktor

Die „vernetzte Gesellschaft“ ist in ihren Ausprägungen ebenso vielschichtig wie vielseitig. Und sie ist prägender Bestandteil von Erfolg: Erst die Kooperation ermöglicht ein Funktionieren von gesellschaftlichen Systemen, sei es das gemeinsame Organisieren eines Straßenfestes in der Nachbarschaft, die gemeinsame Planung einer Gartenanlage, das gemeinsame Erledigen von Schulaufgaben oder das Zusammenspiel im Mannschaftssport. Gemeinsam erzielt man schneller größere Erfolge als im Alleingang, so die dahinter stehende Erkenntnis.

Kooperation mit Argwohn

Für Wirtschaftseinheiten galt dieser Ansatz über lange Zeit erstaunlicherweise nicht: Die Kooperation mit anderen Unternehmen wurde oft genug gescheut – immer mit der Befürchtung, dass ein Partner außerhalb des eigenen Unternehmens ein potenzieller Konkurrent ist, wenn er erst einmal weiß, wie man selbst arbeitet.
Der Gedanke der Zusammenarbeit über Unternehmensgrenzen hinweg ist in der Wirtschaftsgeschichte eher zaghaft gesprossen: Mit dem Aufkommen der ersten Joint Ventures wurden zum Beispiel in den späten 1920-er und frühen 1930-er Jahren gemeinsame Aktivitäten zwischen amerikanischen und europäischen Unternehmen ermöglicht. Die Kooperation im Joint Venture ist jedoch meist Ergebnis der aktiven und eher mühsamen Suche nach Partnern: Voraussetzung ist immer ein konkreter Plan eines der Unternehmen, zu dem selbst ein passender Partner gesucht werden muss – eine bisweilen mühsame und fruchtlose Anstrengung.

Vernetzung ist Umsatzbooster

Das änderte sich erst seit Mitte der 1990-er Jahre: Seit dieser Zeit wird in und auch außerhalb Deutschland die Vernetzung von Unternehmen zum Zweck der Clusterbildung aktiv gefördert. Denn der Nutzen dieser Vernetzung liegt messbar auf der Hand: So belegte die Europäische Benchmarkingstudie aus dem EU-Projekt „IMP³rove“, dass stark vernetzte Unternehmen rund 25 Prozent ihres Umsatzes aus Produkt- und Dienstleistungsinnovationen beziehen können, die jünger als drei Jahre sind. Bei weniger stark vernetzten Unternehmen sind es gerade einmal zehn Prozent.
Noch deutlicher wird das Potenzial starker Vernetzung im Umsatzzuwachs: Stark vernetzte Unternehmen schafften laut dieser Studie in vier Jahren einen durchschnittlichen Zuwachs von 7,1 Prozent, während es weniger stark Vernetzte auf gerade einmal 3,2 Prozent und damit zu deutlich weniger Wachstum brachten.

Beispiel Schwarzwald-Baar-Heuberg

Thomas Wolf ist unter anderem Geschäftsführer des Technologieverbundes TechnologyMountains e.V.

Wachstum und Innovation sind demnach Aspekte, die durch die Vernetzung von Unternehmen markant begünstigt werden. Diese Erkenntnis hat auch die Industrie- und Handelskammer Schwarzwald-Baar-Heuberg im Jahr 2005 dazu bewogen, etwas zu unternehmen. Denn die wirtschaftliche Lage war in jener Zeit in der Region zwischen Stuttgart und Bodensee nur teilweise gut: Die drei zur IHK gehörenden Landkreise waren in ihrer Wirtschaftsleistung höchst unterschiedlich, vor allem der Schwarzwald-Baar-Kreis (Villingen-Schwenningen) lag im Landesvergleich unter dem Durchschnitt und wies eine leicht rückläufige Wirtschaftsleistung auf – Nachholbedarf in der strukturellen Entwicklung für mehr Innovationskraft war die Ursache hierfür.

In den ebenfalls zur IHK Schwarzwald-Baar-Heuberg gehörenden Landkreisen Rottweil und Tuttlingen sah die Lage besser aus: Mit überdurchschnittlichem Wachstum profitierten diese von den dort traditionell starken und zahlenmäßig stark vertretenen Branchen Zerspanungs- und Medizintechnik.

Auch auf Anfragen hin legte die IHK seinerzeit gemeinsam mit 23 Unternehmen und Institutionen das „MicroMountains Network e.V.“ auf: Ziel dieser ersten Clusterintiative war die Schaffung von Impulsen für die Wirtschaft durch die Ermöglichung von Technologietransfer, von Hightech-Gründungen und durch die Stärkung bei der Fachkräftegewinnung. Die Gründungsmitglieder rekrutierten sich aus den Branchen Medizin-, Mikrosystem-, Kunststoff-, Elektro- sowie Informations- und Messtechnik, vereinten also eine durchaus heterogene Unternehmenslandschaft unter der Geschäftsführung der IHK.

Verhaltener Einstieg

Diese erste Clusterinitiative in der Region hatte aber mit einem grundlegenden Konstruktionsfehler zu kämpfen: So gelang es nicht im gewünschten Ausmaß, Synergien oder sogar dauerhafte Kooperationen zwischen den Beteiligten zu initiieren, schlicht weil die IHK als Mittler bei der Suche nach Kooperationspartnern nicht auf dem Radar der Unternehmen erschien. Zwar wurde mit gewissem Erfolg für technische Berufe geworben und einige Hightech-Gründungen angeschoben, doch das Zusammenbringen von Unternehmen für gemeinsame Projekte blieb hinter den Erwartungen zurück.
So fand dann auch eine eher verhaltene Mitgliederentwicklung statt – bis 2012, also sieben Jahre nach der Gründung, waren erst 17 weitere Mitglieder zum MicroMountains Network dazu gestoßen. Problematisch war auch der Ansatz, Dienstleistungsangebote aus der Führung der Clusterinitiative heraus zu entwickeln, ohne einen Bedarf dafür in den Reihen der Mitglieder identifiziert zu haben. Die Folge war eine geringe Akzeptanz dieser Angebote. Schließlich mangelte es der Clusterinitiative auch an den notwendigen Mitteln, um tatsächlich Effekte erzielen zu können – es war schlicht kein Geschäftsmodell vorhanden, das für tragfähige Umsätze gesorgt hätte.

Durchstarten mit klarem Ansatz

Einen grundlegenden Wandel schaffte das noch eher kleine MicroMountains Network mit der Erkenntnis, dass es etwas mehr braucht als lediglich den Willen, Vernetzung von Unternehmen voranzutreiben: Denn erfolgreich vernetzt zu sein heißt nicht nur, mit anderen Unternehmen vernetzt zu sein – es bedeutet auch, mit anderen Technologien und Branchen vernetzt zu sein. Kernkompetenz einer Clusterinitiative ist das Zusammenführen von unterschiedlichen Branchen unter einem Dach mit dem Ziel, Kommunikation über die Branchengrenzen hinweg zu fördern – die Idee des „Cross-Clustering“ bildet auch die Erfolgsformel, aus der heraus sich das „MicroMountains Network“ zur Cross-Cluster-Initiative „TechnologyMountains“ verwandelt hat.

Die drei im Ursprungscluster enthaltenen Hauptkompetenzfelder wurden jeweils einer eigenen Organisation zugeordnet, die TechnologyMountains angehört: Für die Medizintechnik bildete sich das neue Cluster MedicalMountains, für die Mikrotechnik steht im Verbund nun die Hahn-Schickard-Gesellschaft für angewandte Forschung e.V. und bei der Kunststofftechnik ist das Kunststoff-Institut Südwest die zentrale Anlaufstelle. Durch die Vernetzung dieser drei Spartenorganisationen in der Cross-Clusterinitiative TechnologyMountains entstehen gleich mehrere Nutzen für die Wirtschaft: So ist TechnologyMountains für die genannten Gebiete immer der geeignete Ansprechpartner – Unternehmen auf der Suche nach einem Projektpartner finden bei der Clusterinitiative immer einen Ansprechpartner, der sie an die richtige Stelle innerhalb des Mitgliederkreises lotsen kann. Und dieser Kreis ist seit der Neuausrichtung der Clusterinitiative rasant gewachsen: Seit 2012 stehen mit mehr als 280 Mitgliedern gut siebenmal so viele Unternehmen und Institutionen auf der Mitgliederliste.

Dieser Erfolg hängt unter anderem mit der konsequenten „bottom-up-Strategie“ bei der Entwicklung von Dienstleistungen zusammen: Nur was tatsächlich im Alltag praktischer Bedarf ist, wird auch als Service in Form von Weiterbildungen, Informationsveranstaltungen und anderen Formaten angeboten – und das zu marktfähigen Preisen, die es den Clustern erlauben, unabhängig von einer staatlichen Förderung zu arbeiten.

Technische Antworten auf viele Herausforderungen

Der Boom der Cross-Clusterinitiative mit ihren drei Kernclustern begründet sich aber auch in der zunehmenden technologischen Konvergenz, deren Fragestellungen durch die Branchen-übergreifenden Kooperationen über die ganze vertretene technische Breite in immer mehr Entwicklungsprojekten schnell und praxisgerecht beantwortet werden können.
Gelungene Beispiele solcher Projekte finden sich etliche. So entstand zum Beispiel im Verbundprojekt Hycoplast eine hybride Kunststoffbeschichtung, die in der Medizintechnik dazu beiträgt, Displays fugenlos in Geräte integrieren zu können, um sie dadurch hygienisch einwandfrei zu machen. Mitgewirkt hatten an dieser Beschichtung aus einem kratzfesten Lack und einer anorganischen Schicht zwei Unternehmen und zwei Institute aus Kunststofftechnik und Medizintechnik. Eine Kooperation aus Medizin- und Mikrotechnik brachte die Innovation „TrAntMed“ hervor: Mit Hilfe von Transponder-Antennen auf Keramikbasis und eines Erfassungssystems mit neuartiger Signalverarbeitung soll künftig der Status chirurgischer Instrumente leicht erfasst werden können. Damit lässt sich etwa ganz einfach die Frage beantworten, ob ein Instrument bereits sterilisiert wurde, ob es sich um ein Originalinstrument handelt oder ob vom Patienten nach einem Eingriff alle Instrumente entfernt worden sind.

Ein Verbundprojekt über die Bereiche Medizin-, Mikro- und Kunststofftechnik hinweg beschäftigt sich unter dem Titel „CleanMed“ mit der markanten Niveausteigerung technischer Sauberkeit, Reinigungsfähigkeit, Sterilisierbarkeit und sauberer Handhabung. An dieser Aufgabe, die sich mit dem kompletten Lebenszyklus von Produkten beschäftigt, beteiligen sich neben den drei Kernclustern sowohl Entwicklungsdienstleister als auch Hersteller von Reinigungsanlagen und Reinigungsmitteln. Zudem werden Dienstleister für Reinigungsverfahren beteiligt.

Erst Vernetzung macht’s möglich

Ein solches Mammutprojekt zugunsten des technischen Fortschritts in der Medizin wäre für ein Unternehmen alleine nicht zu bewältigen – wegen fehlenden Know-hows aus unterschiedlichsten Sparten, wegen fehlender Expertise in Nischenbereichen und aufgrund der immensen Kosten. All diese Punkte verteilen sich bei solchen Entwicklungsprojekt jedoch auf die unterschiedlichsten Schultern – Vernetzung mit großer Innovation und vielseitigem Erkenntnisgewinn, die dazu führt, dass alle Beteiligten profitieren.

Weitere Informationen unter:
www.technologymountains.de

Über den Autor:
  • Thomas Wolf (Jahrgang 1977, Diplom-Informatiker)
  • Mitglied der Geschäftsleitung und Geschäftsbereichsleiter „Innovation | Energie | Umwelt | International | Unternehmensförderung“ der IHK Schwarzwald-Baar-Heuberg
  • Geschäftsführer des Technologieverbundes TechnologyMountains e.V.
  • Regionaler Cluster Kontakt (RCK) des Ministeriums für Wirtschaft, Arbeit und Wohnungsbau der Region Schwarzwald-Baar-Heuberg.

Enterprise Filesharing – Sicherheit als oberste Priorität

Gastbeitrag
Der Trend Enterprise Filesharing-Lösungen: Sicherheit sollte oberste Priorität haben

Im Zeitalter der Digitalisierung und Globalisierung setzen Unternehmen vermehrt auf Softwarelösungen, die es Mitarbeitern erlauben, effizient und unkompliziert Daten auszutauschen. Eine Entscheidung, die vor allem die betriebsinterne Kollaboration, aber auch die Zusammenarbeit mit Kunden und Partnern unterstützt.

Besonders in Fällen, in denen Mitarbeiter auf mehrere Standorte verteilt sind und in Zeiten flexibler Arbeitszeitmodelle vereinfacht eine Dateiaustauschlösung die Zusammenarbeit erheblich. Eine durchgängige Datenbasis für alle Beteiligten sorgt nachweislich für eine effizientere Zusammenarbeit aller Projektmitarbeiter.

Darüber hinaus lässt sich durch die Anschaffung einer entsprechenden Lösung auch die unternehmensinterne IT-Infrastruktur nachhaltig modernisieren – denn sie löst als Datenaustauschsystem nicht nur private Cloudspeicher sowie USB-Sticks ab, sondern ersetzt auch veraltete Filesysteme.

War der Versand von größeren Datenmengen in früheren Zeiten oft problematisch, weil physische Begrenzungen in Mailservern für Reglementierungen sorgten, können nun Dateien sicher verschlüsselt, z. B. als Downloadlink, völlig problemlos übermittelt werden.

Datensilos erschweren Erfüllung der DSGVO

Auch nach Inkrafttreten der neuen EU-Datenschutzgrundverordnung finden sich in vielen Unternehmen sogenannte Datensilos, in denen Daten an den verschiedensten Stellen mehrfach gespeichert werden. Solange diese existieren, kann man den Anforderungen der EU-DSGVO, die nicht nur ein Auskunftsrecht, sondern u. a. auch ein Recht auf Löschung von sensiblen Personendaten beinhaltet, nur schlecht gerecht werden.

Durch den Einsatz eines zentralen Datenspeichers wie z. B. einer Filesharing-Lösung können diese Datensilos aufgelöst werden, indem sich Daten einfach zentral speichern lassen. Via einer universell einsetzbaren API können relativ einfach weitere Programme angebunden werden, die ebenfalls auf diese Daten zugreifen müssen. Das verhindert eine Mehrfachspeicherung von Daten und gewährleistet eine sichere Datenkommunikation der Systeme untereinander – ohne die Ressourcen unnötig zu belasten.

Privacy by Design, Privacy by Default

Eine vorausschauende Lösung sollte außerdem nach dem Grundsatz Privacy by Design entwickelt worden sein. Das bedeutet, dass der Datenschutz bereits bei der Erarbeitung eines Datenverarbeitungsvorgangs technisch integriert wurde. Die Verschlüsselung sollte also so einfach integriert sein, dass sich der Anwender bei der Verwendung der Datenaustauschlösung keine Gedanken mehr machen muss, was er genau beim Speichern oder Bearbeiten von Daten beachten muss.

Privacy by Default hingegen besagt, dass bereits die Werkseinstellungen datenschutzfreundlich gestaltet sind. Nach diesem Grundgedanken sollen insbesondere die Nutzer geschützt werden, die weniger technikaffin sind und z.B. dadurch nicht geneigt sind, die datenschutzrechtlichen Einstellungen ihren Wünschen entsprechend anzupassen.

Sicherheit muss Priorität haben bei der Wahl einer Filesharing-Lösung

Bei der Wahl der richtigen Lösung für das eigene Unternehmen steht für viele Entscheider erfahrungsgemäß die unkomplizierte Implementierung und Bedienbarkeit im Vordergrund. Hierbei stellen Firmen zurecht hohe Ansprüche, schließlich sollte die Lösung dafür sorgen, dass sich Abläufe effizienter gestalten und sich leicht in den Arbeitsalltag eingliedern lassen – ohne großen Schulungsaufwand für Mitarbeiter und Entscheider.

Entscheidend bei allen Überlegungen ist jedoch vor allem die Datensicherheit: Räumen Verantwortliche diesem Thema nicht die nötige Wichtigkeit ein, machen sie sich potenziell angreifbar für Datenmissbrauch und Industriespionage. Nur wenn Unternehmen diesen Punkt ernst nehmen, schützen sie eine ihrer wertvollsten Ressourcen und somit nichts Geringeres als ihre Existenz.

Wie ernst die Lage ist, verdeutlicht eine bitkom-Studie aus dem Jahre 2017. In der vom Bundesverband und Bundesverfassungsschutz vorgestellten Publikation heißt es, mehr als die Hälfte der deutschen Unternehmen (53%) seien in den beiden Vorjahren Opfer von Wirtschaftsspionage, Sabotage oder Datendiebstahl geworden. Der dadurch entstandene Schaden ließ sich auf 55 Milliarden Euro beziffern.

Ein weiteres Beispiel verdeutlicht die enorme Brisanz: Im aktuellen Bericht des BSI (Bundesamt für Sicherheit in der Informationstechnik), „Die Lage der IT-Sicherheit in Deutschland“ wurden alleine im Zeitraum zwischen Januar und Mai 2017 rund 280.000 neue Schadprogrammvarianten pro Tag beobachtet.

Darauf sollten Firmen achten

Angesichts dieser Zahlen sollten Unternehmen unbedingt darauf achten, dass bestimmte, essentielle Features in der geplanten Lösung enthalten sind. Um maximale Datensicherheit zu gewährleisten, ist die clientseitige Ende-zu-Ende-Verschlüsselung ein Muss. Konkret bedeutet dies, dass die Daten bereits am Endgerät verschlüsselt werden. Im Idealfall wird die Verschlüsselung open-source bereitgestellt. Dies bedeutet, jeder kann diese nutzen und jeder kann sich davon überzeugen, dass keine Sicherheitslücken vorhanden sind.

Auch ein modernes Berechtigungskonzept mit dezentraler Administration trägt zu einem hohen Sicherheitsstandard in Bezug auf Datensicherheit und auch Datenschutz bei. Hier können Zugriffsrechte einfach und individuell an interne Mitarbeiter, aber auch externe Beteiligte vergeben werden. Auf diese Weise wird sichergestellt, dass bestimmte Personen beispielsweise nur Leserechte erhalten, während andere wiederum auch Daten bearbeiten und löschen können.

Durch diese Funktionen wird außerdem sichergestellt, dass zum Beispiel die IT-Abteilung zwar die organisatorische Hoheit hat, aber keine Lese- und Schreibrechte auf Finanz- und Personaldaten besitzt. Demzufolge können IT-Administratoren auch von gewissen Daten wie etwa Gehältern und Bilanzen komplett für den Zugriff ausgesperrt werden. Idealerweise lassen sich alle Nutzer, beziehungsweise Daten, in ihrer Verfügbarkeit zeitlich befristen.

Software „Made in Germany“

Neben diesen Features spielt aber noch ein weiterer Aspekt eine entscheidende Rolle, nämlich das Herkunftsland und die bestehende Zertifizierung des Anbieters. Um auf Nummer sicher zu gehen, ist Betrieben zu raten, auf Software „Made in Germany“ zurückzugreifen, die entsprechende Datenschutz-Zertifizierungen innehalten.

Zertifizierungen, die in diesem Zusammenhang neben der internationalen Norm ISO 27001 genannt werden sollten, sind beispielsweise das European Privacy Seal von EuroPriSe und das Datenschutzsiegel für „Hervorragenden Datenschutz nach deutschem Recht“ des ULD (Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein). Eine Lösung, die in Deutschland entwickelt wurde, garantiert im Vergleich zu ausländischen Anbietern eine strikte Einhaltung der deutschen Rechtsprechung für Datenschutz und Datensicherheit.

Weiterhin führen sie den Nachweis über eine Behörde, dass kein unerlaubter Zugriff auf die Daten erfolgen kann. Weder vom Softwarehersteller, noch von einem Provider können Daten eingesehen werden. Damit sind gespeicherte Daten – im Vergleich zu US-amerikanischen Lösungen – selbst vor Geheimdiensten sicher.

Insgesamt sind Unternehmen, die sich mit dem Thema Dateiaustauschsoftware beschäftigen, gut beraten, sich vor Augen zu führen, welche Funktionen und Aspekte ihnen besonders wichtig sind. Ohne Frage sollten Betriebe bei den Themen Nutzerfreundlichkeit und einfache Implementierung keine Kompromisse eingehen.

Allerdings ist es angesichts der wachsenden Bedrohungslage ebenso wichtig, sich mit dem Thema Datensicherheit zu beschäftigen und sicherzustellen, dass die gewünschte Software auch diesbezüglich höchsten Ansprüchen genügt. Wie bereits erwähnt, sollte dem Thema Datenschutz eine hohe Bedeutung eingeräumt werden, besonders im Hinblick auf die kürzlich in Kraft getretene europäische Datenschutzverordnung (EU-DSGVO).

Nur wenn dem Sicherheitsaspekt genügend Raum zugeteilt wird, können Betriebe ihre Identitäten und sensiblen Unternehmensdaten effektiv geschützt wissen und sich somit vor Datenmissbrauch und dem daraus resultierenden wirtschaftlichen sowie Imageschaden schützen.

 

 

Weiterführende Informationen finden Sie unter:
Dracoon

 

Unser Autor

Marc Schieder

Marc Schieder, CIO von DRACOON

In seiner Position als Chief Information (Security) Officer verantwortet Marc Schieder den vollständigen Produktlebenszyklus, von der Innovation über die Konzeption und Entwicklung, bis hin zum Betrieb und einer langfristigen Sicherstellung der Qualität. Hierbei steht er als zentrales Organ in engem Austausch mit dem Vertrieb, der Anwendungsentwicklung, der Technik und dem Marketing und sichert so den Wettbewerbsvorsprung von DRACOON. Marc Schieder absolvierte einen dualen Studiengang in den Bereichen Informatik und Kommunikationsdesign und verfügt über mehr als 15 Jahre internationale Berufserfahrung als selbstständiger Unternehmer, Geschäftsführer und Vorstandsvorsitzender in den Bereichen individuelle Softwareentwicklung, Software-as-a-Service, Cloud-Computing und Telekommunikation.

 

 

Aufmacherbild / Quelle / Lizenz
Pixaby / CC0 Creative Commons

So wird die Customer Journey zur Chefsache

Dies ist ein Gastbeitrag von Michael Kenfenheuer, Vorsitzender des Vorstands der adesso AG.

Ohne das Anpassen zentraler Geschäftsprozesse wird es Unternehmen kaum gelingen, passende und überzeugende Customer Journeys aufzubauen. Deswegen ist es notwendig, das Steuern der Customer-Journey von einzelnen Organisationseinheiten auf die Ebene der Geschäftsführung zu verlagern. So können Unternehmen das bisherige Denken in Abteilungsgrenzen überwinden und ganzheitliche Abläufe entwickeln, die den Anforderungen ihrer Kunden gerecht werden. Für diese Umgestaltung der Verantwortlichkeiten und Prozesse empfiehlt sich ein schrittweises Vorgehen. So stellen die Verantwortlichen sicher, dass sie einzelne Mitarbeiter und die Gesamtorganisation beim Aufbau der Customer Journey ins Boot holen.

Für die Marketingexperten stehen Kampagnenreaktionen im Mittelpunkt, die Internet-Verantwortlichen wollen die Besuchszeiten auf der Website erhöhen und für die Kollegen aus dem Vertrieb zählen nur die Leads, die aus einer Marketingaktion entstehen. Diese Reihe ließe sich beliebig lang fortsetzen. Jede Abteilung eines Unternehmens hat ihren eigenen Blick auf den Kunden und seine Kundenreise, für jede stehen andere Aspekte im Vordergrund. Entsprechend setzen sie bei der Gestaltung der Customer Journey – verstanden als Visualisierung und Optimierung aller Kontaktpunkte, die ein potenzieller Kunde vor dem Kauf und danach durchläuft – auch andere Schwerpunkte. Das Schaffen eines einheitlichen, durchgängigen Kundenerlebnisses wird auf dieser Basis zu einem unnötig komplexen Projekt. Denn dieses Fragmentieren von Verantwortung sorgt für aufwendige Abstimmungs- und Entscheidungsprozesse. Darüber hinaus ist die Gefahr gegeben, dass das Endergebnis eher unternehmenseigene Themen und Strukturen widerspiegelt und weniger die Bedürfnisse und Wünschen der Kunden. Aus beidem – dem Verschwenden von Zeit im internen Kompetenzgerangel und dem nicht hundertprozentige Ausrichten am Kunden – können angesichts der Herausforderungen der Digitalen Transformation handfeste Nachteile erwachsen. Denn das zügige Anpassen der Customer Journey an neue Bedürfnisse, Trends oder Wettbewerbssituationen ist angesichts der Schnelllebigkeit von Märkten und Technologien einer der zentralen Erfolgsfaktoren für Unternehmen.

Das kann aber nur dann gelingen, wenn Mitarbeiter über alle Abteilungen und Hierarchiestufen hinweg gemeinsam an der Entwicklung arbeiten. Das Steuern der Customer Journey ist entsprechend eine strategische Managementaufgabe. Aus diesem Grund sollten die Verantwortlichen das Thema innerhalb der Organisation auch auf Ebene der Geschäftsführung verankern. Das Top-Management sollte hier die Führungsrolle übernehmen. Nur so kann aus Einzelaktivitäten ein konsolidierter Ansatz der Kundenansprache entstehen; nur so können Datensilos einzelner Abteilungen aufgebrochen werden.

Die Herausforderung für die Entscheider liegt darin, innerhalb der teils seit Jahren und Jahrzehnten etablierten Unternehmensstrukturen dieses neue Konzept der Verantwortung und Zusammenarbeit zu implementieren. Hierfür eignet sich ein dreistufiges Vorgehensmodell, das sich bereits in anderen Veränderungsprozessen bewährt hat. So können Unternehmen schrittweise neue Verantwortlichkeiten aufbauen, ohne die Anpassungsfähigkeit einer Organisation zu überfordern.

Stufe 1

„Gemeinsame Verantwortung für eine ausgewählte Journey entwickeln“ – das ist das Motto der ersten Phase der Umstellung. Ein abteilungsübergreifendes Kernteam entwickelt gemeinsam mit dem Manager, der in Zukunft die Gesamtverantwortung für die Customer Journeys tragen wird, die Kundenreise für eine ausgewählte Persona neu beziehungsweise erstmalig. Für den Start sollten die Experten mit Personas arbeiten, deren wirtschaftliche Bedeutung für das Unternehmen überschaubar ist und deren Kundenreise möglichst simpel aufgebaut ist. Denn in dieser Phase gilt es zunächst, gemeinsame Erfahrungen als neues Customer-Journey-Team zu sammeln und möglichst schnell erste Erfolge vorweisen zu können.

Stufe 2

Auf Basis des in Stufe 1 entwickelten und erprobten Vorgehens rollt der gesamtverantwortliche Manager mit seinen Teams Schritt für Schritt weitere Customer Journey neu aus beziehungsweise überarbeitet bestehende Ansätze. Die Zusammensetzung der Teams kann dabei je nach Persona von Kundenreise zu Kundenreise variieren. Alle zeichnen sich aber dadurch aus, dass sie die Gesamtverantwortung für den kompletten Ablauf haben. Die in der ersten Stufe entwickelten neuen Formen der Zusammenarbeit werden vertieft.

Stufe 3

Die Umstrukturierung der verbleibenden Customer Journeys ist das wichtigste Element der letzten Phase. Nun nehmen sich die Experten die bedeutendsten und komplexesten Kundenreisen vor. Die Zusammenarbeit der Teams ist bereits weitgehend etabliert. Jetzt entwickeln und implementieren die Entscheider Kriterien, mit denen der Erfolg der Customer-Journey-Teams gemessen und bewertet wird. Dafür bieten sich Kennzahlen an, die aus dem Customer Experience Management bekannt sind, beispielsweise der Net Promoter Score. Wichtig ist, dass die ausgewählte Kennzahl den Gesamterfolg der Teams widerspiegelt und nicht auf einzelne Aspekte der Kundenreise abzielt.
Wegen ihrer Auswirkungen auf alle Fachabteilungen und die zentralen kundenzentrierten Geschäftsprozesse wird diese neue organisatorische Verankerung der Customer Journey zu einem Projekt von strategischer Bedeutung für Unternehmen. Kurzum: Die Customer Journey muss zur Chefsache werden.

Weitere Informationen unter:
www.adesso.de

Zusammen klappt es besser als allein

Dies ist ein Gastbeitrag von Martin Lundborg, Leiter der Begleitforschung von Mittelstand-Digital

Der industrielle Mittelstand steht unter Druck. Große Auftragsvolumen, die schnell produziert werden sollen, Konkurrenz aus dem Ausland und immer speziellere Kundenwünsche stellen viele Betriebe vor Herausforderungen. Eine Lösung: Über digitale Plattformen mit anderen Unternehmen gemeinsam Aufträge stemmen.

Einen Auftrag ablehnen zu müssen, ist für Unternehmen nie eine einfache Entscheidung. Doch gerade kleinen Betrieben fehlen oft die Produktionskapazitäten oder schlicht das Know-how, um große Aufträge oder spezielle Kundenwünsche erfüllen zu können. Aus dieser Zwickmühle helfen digitale Plattformen, über die mittelständische Industrieunternehmen gemeinsam Aufträge abwickeln. Wie das aussehen kann, zeigen Thüringer Maschinenbauer zurzeit in einem Projekt mit Unterstützung des Mittelstand 4.0-Kompetenzzentrums Ilmenau, das vom Bundesministerium für Wirtschaft und Energie gefördert wird. Im Projekt wird an einer Plattform gearbeitet, über die sich die Betriebe gegenseitig Anlagenkapazitäten vermieten können: Wenn die Produktionskapazitäten eines beteiligten Betriebs nicht ausreichen, um beispielsweise den Liefertermin eines in Aussicht stehenden Großauftrags zu erfüllen, kommt die gemeinsame Plattform ins Spiel. Der Betrieb teilt darüber seinen Partnern die Zahl der ihm fehlenden Maschinenstunden mit. Daraufhin stellen die anderen Betriebe freie Anlagenkapazitäten zur Verfügung. So können nicht nur Großaufträge leichter bewältigt, sondern auch nicht voll ausgelastete Maschinen optimal genutzt werden.

Plattformen revolutionieren die Wertschöpfung

Das Vermieten von freien Anlagenkapazitäten ist nur ein Beispiel dafür, wie digitale Plattformen das Marktumfeld von Industriebetrieben revolutionieren. Bisher stellen viele von ihnen Produkte alleine her und verkaufen sie über eigene Vertriebskanäle – andere Unternehmen werden prinzipiell als Konkurrenten betrachtet. Wertschöpfungsnetzwerke treten vermehrt an die Stelle dieses klassischen Geschäftsmodells und ermöglichen über Plattformen die effizientere Nutzung von Ressourcen – andere Unternehmen werden damit zu Kooperationspartnern. Ein Blick auf die großen digitalen Marktplätze für Smartphone-Anwendungen illustriert, wie kooperative Wertschöpfung im industriellen Mittelstand künftig aussehen kann: Statt möglichst eigenständig Geld zu verdienen, bestehen innovative Geschäftsmodelle teilweise darin, Dritten zu ermöglichen, Geld zu verdienen. Mit diesem Wandel kann die Wettbewerbsfähigkeit kleiner Betriebe gegenüber größeren Mitbewerbern gesteigert werden. Kooperationen über Plattformen können flexibel höhere Kapazitäten, kürzere Durchlaufzeiten und ein breiteres Produktportfolio ermöglichen – ohne hohe Investitionen in Maschinen oder Know-how tätigen zu müssen. Statt sich auf eine dauerhaft gute Auftragslage zu verlassen, kann ein Betrieb sich zwischenzeitlich auf seine Partner stützen und wohlüberlegt langfristige Investitionsentscheidungen treffen.

Mittelständler müssen umdenken

Damit das funktionieren kann, ist ein Umdenken erforderlich. Kooperative Fertigung in Wertschöpfungsnetzwerken setzt den Austausch sensibler Geschäfts- und Konstruktionsdaten voraus. Vor Vertragsabschluss muss daher zwischen den beteiligten Unternehmen sorgfältig geprüft werden, ob die Leistungserbringung und der Schutz von Daten sowie betrieblichem Know-how ausreichend abgesichert ist. Essentiell ist zudem, wie nutzerfreundlich die gemeinsame Plattform ist. Wurde sie an den Bedürfnissen der Nutzer vorbei entwickelt, wird sie im Zweifelsfall gemieden und verfehlt ihren Zweck. Am Beispiel eines entwickelten Demonstrators des Mittelstand 4.0-Kompetenzzentrums Ilmenau wird gezeigt, wie derartige Plattformen auch für Laien intuitiv zu bedienen sind – am besten mit dem Smartphone. Bei der Schulung von Mitarbeitern ist allerdings nicht nur der technische Umgang mit der Plattform wichtig. Für ihren Erfolg ist es unerlässlich, die Nutzer weg vom Konkurrenzdenken zu führen und ein Verständnis dafür zu schaffen, dass alle von der Zusammenarbeit zwischen Betrieben profitieren. Um diesen Wandel zu unterstützen, bietet Mittelstand-Digital Betrieben bundesweit Know-how rund um die Digitalisierung, beispielsweise zu IT-Sicherheit und -Recht, Nutzerfreundlichkeit und digitaler Bildung.

Datensicherheit wird immer wichtiger

Neben vertraglichen Fragen, technischer Umsetzung und richtiger Mitarbeiterweiterbildung ist Datensicherheit von entscheidender Bedeutung. Damit Maschinenbauer über eine gemeinsame Plattform zusammen Aufträge ausführen können, müssen beispielsweise wertvolle Konstruktionsdaten übermittelt werden. Selbst wenn diese vertraglich lückenlos geschützt sind, gilt das nicht ohne Weiteres für den Schutz bei der Datenübertragung. Deswegen hat Datensicherheit bei der Konzeption jeder Plattform höchste Priorität. Zentrale Lösungen von einem einzelnen Anbieter sind daher nicht immer der beste Weg. Aufwändiger, aber ungleich sicherer sind dezentrale Lösungen. In naher Zukunft könnten diese durch Einsatz von Blockchain-Technologie einen noch höheren Schutz bieten. Dabei handelt es sich um fälschungssichere Datenketten, in denen jede Transaktion protokolliert sowie nachvollziehbar und unveränderlich abgebildet wird. Ziel ist eine uneingeschränkte Datenhoheit für jeden beteiligten Betrieb und minimales Risiko für Datenmissbrauch. Wenn das gewährleistet ist, steht der Entwicklung und Nutzung von Plattformen innerhalb anderer Branchen nichts im Weg. Perspektivisch könnten digitale Plattformen es mittelständischen Betrieben sogar ermöglichen, verschiedene Branchen zu verbinden und über ganz unterschiedliche Wirtschaftszweige hinweg vernetzt Produkte fertigen – ein erhebliches Wachstumspotenzial.

Weitere Informationen unter:
http://mittelstand-digital.de/DE/Wissenspool/DigitaleProduktionstechnik/publikationen,did=810660.html

Pioniere einer Mobilität der Zukunft

Unsere Redaktion sprach mit Claus Grunow, Leiter Markt-, Geschäfts- und Produktentwicklung Deutsche Bahn Connect, über die Sharing Eco­nomy, neue Mobilitätskonzepte und sich radikal ändernde Kundenbedürfnisse.

Herr Grunow, in welchem Verhältnis stehen für Sie die Begriffe „vernetzte Gesellschaft“ und „Mobilitätswandel“?
Mobilitätswandel und vernetzte Gesellschaft bedingen einander. Beide Entwicklungen sind untrennbar mit der Digitalisierung verbunden, die eine umfassende Transformation all unserer Arbeits- und Lebenszusammenhänge zur Folge hat. Nicht ohne Grund wird dieser Prozess der Transformation nach Mechanisierung, Massenproduktion und Automatisierung gerne auch als vierte industrielle Revolution bezeichnet. Unser Mobilitätsverhalten im Kontext einer vernetzten Gesellschaft folgt daher neuen Regeln, bei denen die bislang getrennten Bereiche von privatem und öffentlichem Verkehr zurücktreten beziehungsweise zunehmend aufgehoben werden. Damit rückt der privat besessene Pkw immer mehr in den Hintergrund, gewünscht wird dagegen ein digital verfügbares breites Mobilitätsangebot, das sich einfach und bequem über einen Zugang auswählen, vergleichen und buchen lässt.

Seit wann haben Sie das Potenzial der Sharing Economy verstanden und eigene Angebote etabliert?
Nutzen statt besitzen: Dass dies zum Kern einer Mobilität der Zukunft wird, haben wir frühzeitig erkannt und mit Call a Bike und Flinkster auch als einer der Ersten 2001 im Markt realisiert. Heute gehören wir mit rund 1,5 Millionen Kunden zu den führenden Sharing-Anbietern und bieten mit mehr als 15 000 Rädern und rund 4 000 Fahrzeugen unseren Kunden ein dichtes und flächendeckendes Sharing-Angebot. Die Dynamik im Markt hat sich im letzten Jahr nochmals deutlich gesteigert; sichtbar zuletzt im massiven Eintritt asiatischer Anbieter ins Bike­sharing. Aber auch die Kundenbedürfnisse haben sich radikal verändert. Als Pionier wollen wir auch in Zukunft im Markt vorangehen. In einem auf Effizienz ausgelegten Alltag wollen wir den Kun­den mehr Zeit für die wichtigen Dinge im Leben bieten, indem wir sie mit nur einem Klick an ihre Ziele bringen.

Wie und an was muss heute im Sinne eines verbraucherorientierten Mobilitätsverständnisses gedacht werden?
Sharing hat sich heute in vielen Zusam­menhängen in unserem Alltag etabliert und wird gerade im Bereich der Mobilität von vielen Verbrauchern als gute und nachhaltige Lösung empfunden, mit deren Integration in den Mobilitätsmix sich die Lebensqualität in den Ballungszentren verbessern lässt. Dabei geht der Wunsch der Verbraucher ganz klar dahin, Mobilität als Ganzes zu erleben. Der Kunde der Zukunft ist digital unterwegs und erwartet ein clever vernetztes, integriertes Mobilitätsangebot aus verschiedenen Verkehrsträgern. Mobilität ist für ihn ein einfaches und bequemes Produkt, das sich im Handling wie jeder andere Online-Kauf anfühlen soll. Kurz gesagt: Der Kunde will Mobilität unabhängig von Zeit, Ort und Anlass erwerben können, um entsprechend seinem individuellen Bedürfnis von A nach B zu gelangen. Das haben wir zum Fokus unserer Arbeit gemacht.

Wie wird sich der Trend in Zukunft fortsetzen?
Der Mobilitätsmarkt unterliegt nach wie vor einem starken Wandel. Denken Sie nur an autonome Fahrzeuge oder On-Demand-Verkehre: Was vor ein paar Jah­ren noch Zukunftsmusik war, ist heute bereits im Testbetrieb auf der Straße. Noch bedeutsamer ist aber, dass zukünftig der Mensch und sein Mobilitätsbedürfnis im Mittelpunkt stehen wird. Als Folge dieser Entwicklung wird die Trennung zwischen privater und beruflicher Mobilität ebenso wie zwischen öffentlichem und Individualverkehr obsolet werden. Besonders sichtbar wird dies in der Unternehmensmobilität, bei der wir einen Nachfrageboom nach Corporate-Sharing-Lösungen erleben, weil diese den Mitarbeitern privat wie beruflich offenstehen. Umgekehrt wird es im privaten Umfeld immer wichtiger, Fixkosten zu vermeiden und für Mobilität nur dann zu zahlen, wenn diese genutzt wird.

Welche Vorteile ergeben sich für Ihre Partner?
Unser Ziel ist es, unseren Kunden mit einem Klick ein für sie passendes Mobilitätsangebot zu liefern. Es braucht ein dichtes Angebot – gerade auch in kleineren Städten und in ländlichen Regionen -, um diesem Anspruch gerecht zu werden. Mit dem Flinkster-Netzwerk haben wir das flächengrößte Carsharing-Angebot in Deutschland aufgebaut. Von Beginn an haben wir auf die Anbindung einer Vielzahl von Partnern gesetzt, weil es für alle Beteiligten eine Win-win-Situation ist. Denn nach einmaliger Registrierung und unabhängig davon, bei welchem Partner sie sich angemeldet haben, können Kunden alle Fahrzeuge zu einem einheitlichen Preis nutzen. Auch im Bikesharing setzen wir mit Sponsoring vermehrt auf starke Partner – wie mit Lidl und Ford -, um das Angebot für die Kunden signifikant zu erweitern.

Weitere Informationen unter:
www.deutschebahnconnect.com
www.flinkster.de
www.callabike.de

PSD2: Aufbruch zum Open Banking

Gastbeitrag von Oliver Dlugosch, CEO NDGIT GmbH

Banken werden von den Innovationen der vielen neuen digitalen Anbieter sowie den Anforderungen der Gesetzgeber dazu gedrängt, sich zu verändern.

Die PSD2-Regulierung zwingt sie, Kontodaten für die sogenannten Drittanbieter, meistens neue digitale Unternehmen, zu vernetzen. Open Banking erlaubt es ihnen, die Zusammenarbeit mit digitalen Partnern als Teil einer neuen Strategie zu sehen.

So können Finanzinstitute bspw. dem Kunden einen umfassenderen und tiefer gehenden Blick auf sein finanzielles Leben ermöglichen. In seinem Auftrag aggregieren sie die Kontodaten über alle Bankbeziehungen hinweg und bieten ihm digital tief gehende Finanzanalysen und darauf basierend Empfehlungen für neue, digitale Produkte.

„NDGIT ermöglicht Banken gleichzeitig die PSD2 umzusetzen und ein zukünftiges Open Banking aufzubauen. Traditionelle Banken können sich mit digita­len Partnern vernetzen und Ökosysteme mit den inno­vativsten Marktanbietern schaffen“, so Oli­ver Dlugosch, CEO NDGIT.

Der Aufbau sogenannter Partner-Ökosysteme ermöglicht Banken, wie auf einem Marktplatz, innovative Bankproduk­te und Funktionen von Dritten anzubieten. So erhalten Kunden bessere digitale Services und die Bank kann für und mit ihren Partnern mehr Produkte anbieten und am Ende auch mitverdienen. Vorreiter für digitale Ökosysteme ist etwa die Schweizer HBL, die bereits mit zehn FinTechs zusammenarbeitet und z. B. Bargeldabhebungen via Smartphones in Restaurants anbietet. Technologische Grundlage dafür sind Plattformen wie NDGIT, die mit modernster API-Technologie die Vernetzung von Bankanwendungen und digitalen Unternehmen ermöglichen und vernetzte API-Ökonomien im Stile von Amazon oder Netflix auch im Banking etablieren.

Autobahnen des Bankings

NDGIT realisierte die erste API-Plattform speziell für Banken, Versicherungen und FinTechs. Mit Open- Source-Technologien wurde sie über Jahre für die Anforderungen der Finanzindustrie weiterentwickelt. Wir begleiten die Strategie vieler europäischer Banken von der PSD2 zum Open Banking mit dem Aufbau eigener Ökosysteme und Appstores.

Weitere Informationen unter:
https://nextdigitalbanking.com

„Definitiv kein Roboter“

Welche Vorteile durch Automatisierung bei der Vermögensverwaltung entstehen, verdeutlicht Dr. Christian Jasperneite, CIO von M.M.Warburg & CO.

An wen richtet sich der Warburg Navigator?
An alle, die erkannt haben, dass Sparen alleine wenig Sinn ergibt, aber nicht entscheiden wollen, wie investiert wird. Es gibt gefühlt unendlich viele Aktien, Anleihen und Fonds – da kann man als Privatperson leicht den Überblick verlieren. In vielen Fällen führt das dann dazu, dass man gar nichts macht. Früher wäre das kein großes Problem gewesen, da man ja selbst mit dem Sparbuch ansehnliche Zinsen erwirtschaften konnte. Doch das ist jetzt eben vorbei, und zwar vermutlich für die nächsten zehn Jahre.

Wie viel Mensch bzw. wie viel Warburg steckt noch in Ihrem Navigator?
Extrem viel, auch wenn Algorithmen ihre Berechtigung haben. Unsere Algorithmen sind nicht von marktfernen Physikern und Mathematikern programmiert worden, sondern von Kollegen, die seit vielen Jahren für die Anlage großer Summen Verantwortung tragen und selbst alle Krisen und Boomphasen als Investor durchlebt haben. Auch unsere taktischen Einschätzungen fließen direkt in die Portfoliokonstruktion ein und liefern hier einen Mehrwert gegenüber reinen Anlagerobotern. Das ist auch der Grund, warum wir uns ungern als Robo-Advisor bezeichnen lassen, denn wir sind definitiv kein Roboter.

„Im Extremfall erlaube ich mir als Chefstratege auch manuell einzugreifen“, garantiert Dr. Jasperneite die notwendige Zuverlässigkeit im Gespräch mit der TREND-REPORT-Redaktion.

Welche Vorteile bringt dann die Automatisierung?
Dazu gehört beispielsweise das Einhalten von Risikobudgets, primär eine mathematische Aufgabe, die intuitiv nur schwer zu lösen ist. Zudem können Kauf- oder Verkaufsprozesse sowie der ständige Abgleich zwischen Kundenportfolios und Musterportfolios zu einem gewissen Grad automatisiert werden. Allerdings kann bei uns niemals ein Algorithmus unkontrolliert Transaktionen in Kundenportfolios auslösen. Jeden Morgen überprüfen wir, ob die Modelle in der Nacht ohne Fehler durchgelaufen sind und plausible Ergebnisse liefern. Wenn Transaktionen vorgeschlagen werden, erfolgt eine weitere Plausibilitätsprüfung. Im Extremfall erlaube ich mir als Chefstratege auch manuell einzugreifen. Im Januar dieses Jahres z. B. waren die Schwankungen und Korrelationen an den Märkten so gering, dass unser Modell eine weitere, leichte Anhebung der Aktienquote vorschlug. Mathematisch konnte ich diesen Transaktionsvorschlag komplett nachvollziehen. Allerdings waren die Volatilitäten und Korrelationen fast schon aberwitzig gering, sodass nach menschlichem Ermessen eine Korrektur mehr als in der Luft lag. Der Vola-Crash im Februar hat mich dann mit meinem Veto bestätigt.

Weitere Informationen unter:
https://navigator.mmwarburg.de

Prozesse definieren!

In den nächsten Jahren werden neue Technologien und bisher unbekannte Arbeitsweisen in Unternehmen Einzug halten und unser gewohntes Arbeitsumfeld umkrempeln. Wie Unternehmen den Weg in die Digitalisierung mit kompetenten Partnern gehen können, erläutert Jens Weller, Geschäftsführer der toplink GmbH, im Gespräch mit der Redaktion.

Herr Weller, welche technologischen Trends bestimmen die Zusammenarbeit von morgen?
Cloudcomputing und die Möglichkeit der Datenkommunikation von überall. Bemerkenswert dabei ist allerdings, dass diese Trends nicht von der Technologie an sich vorgegeben werden, sondern vielmehr politische und demografische Faktoren als Treiber fungieren. Der Fachkräftemangel etwa sorgt dafür, dass die „Ich mach es selbst“-Mentalität ausgedient hat. Un­ternehmen müssen lernen, sich auf ihre Kernkompetenzen zu konzentrieren und hinsichtlich der Technologien mit den richtigen Partnern zusammenzuarbeiten.

Welche Partner sind die richtigen?
Denken Sie an die Konflikte innerhalb der EU, unser Verhältnis zu den Amerikanern, den Russen etc. Dies gilt es zu bedenken, denn der potenzielle Partner soll womöglich Zugriff auf die Unternehmensdaten erhalten. Wenn Sie beispielsweise Daten in die Cloud legen – und Cloud-Lösungen werden immer wichtiger – dann brauchen Sie eine politische und datensicherheitstechnische Verlässlichkeit. Schließlich soll Ihr Partner kein Risiko darstellen.

Jens Weller, CEO von toplink: „Unternehmen sollten zunächst eine eigene ‚digitale Agenda‘ entwickeln.“

Wie begleiten Sie Ihre Kunden auf dem Weg zur Digitalisierung?
Unter dem Stichwort „Digitalisierung“ werden zu oft nur die Vereinfachung von Prozessen und die Reduktion von Kosten mittels neuer Technologien verstanden. Das Schlagwort vom „pa­pierlosen Büro“ kursiert in diesem Zu­sammenhang in den Unternehmen. Damit ist man weit entfernt von einer eigenen digitalen Agenda, die für das Unternehmen strategisch maßgebend sein sollte. Entscheidend ist nicht die Optimierung von Prozessen, sondern überhaupt erst einmal Prozesse zu de­finieren, die gewollt sind. Wir gehen mit den Unternehmern, Betriebsrä­ten, Personalverantwortlichen usw. in Workshops, in denen wir gemeinsam das Zukunftsszenario erarbeiten.

Welche Rolle spielen Kommunikationslösungen dabei?
Kommunikation muss der Belegschaft entsprechen, was individuell und generationsspezifisch unterschiedlich sein kann. Während ältere Mitarbeiter eher die Arbeit mit dem Tischtelefon bevorzugen, chattet die Generation Z lieber. Dennoch müssen diese Mitarbeiter auch miteinander kommunizieren können – und das idealerweise anytime, anywhere.

Was sind die größten Chancen der digitalen Transformation des Arbeits­platzes?
Mehr Flexibilität für den einzelnen Mitarbeiter. Variable, an Leistung orientierte Arbeitszeitmodelle werden immer populärer. Der einzelne Mitarbeiter wird dadurch freier in der Entscheidung, wann er wo arbeitet, ohne dabei für das Unternehmen an Performance zu verlieren. Dadurch wandeln sich die komplette Arbeitsweise, die Mentalität und schließlich die Struk­tur des Unternehmens. Hier bieten wir cloudbasierte Lösungen an, die diesen Wandel unterstützen – und sich dabei nahtlos in das Tagesgeschäft des Unternehmens integrieren lassen.

Weitere Informationen unter:
www.toplink.de

Paradigmenwechsel an der Kasse

von Ingo Limburg, Leiter Mar­keting & PR bei Euro Kartensysteme

Wer schon einmal in London an einer Bushaltestelle in der Schlange stand, kennt die außergewöhnliche Disziplin der Briten beim Warten. Ganz im Gegensatz zu uns Deutschen, die an der Supermarktkasse schnell nervös und ungeduldig werden.

Die Gewohnheiten sind meist über Generationen hinweg verfestigt: Man verhält sich, wie von klein auf gewohnt. Die Deutschen sind etwa seit jeher ein Volk der Barzahler. Insbesondere bei Kleinstbeträgen ist der Griff zu Münzen und Scheinen quasi die Regel. Umso erstaunlicher ist eine Entwicklung, die sich zuletzt beim Bezahlen feststellen lässt: 2017 wurde laut EHI Retail Institute erstmalig im stationären Einzelhandel genauso viel Umsatz elektronisch wie mit Bargeld erzielt. Und diese Trendwende scheint sich zwar langsam, aber nachhaltig fortzusetzen. Die größten Steigerungswerte im unbaren Bezahlverkehr erzielt dabei die girocard, die seit 2008 mit durchschnittlich 7,7 Prozent jährlicher Transaktionssteigerung und mittlerweile über 3 Milliarden Transaktionen pro Jahr das mit Abstand beliebteste Kartenzahlungsmittel der deutschen Verbraucher ist.

Aber woher kommt dieser Wandel? Ein entscheidender Grund ist sicherlich die stetig wachsende Akzeptanzdichte im Handel. Aufgrund gesunkener Transaktionsgebühren hat sich der finanzielle Vorteil gegenüber dem sehr teuren und zeitaufwendigen Bargeldhandling nochmals vergrößert. Obendrein wird auch das Bezahlen an der Kasse durch innovative Neuerungen, wie girocard kontaktlos, deutlich schneller, so eine Geschwindigkeitsmessung der GfK. Demnach dauert die Bezahlung mit girocard kontaktlos ohne PIN-Eingabe, wie sie i. d. R. bis 25 Euro funktioniert, im Schnitt rund 11 Sekunden. Mehr als doppelt so lang dauert die Bezahlung mit Bargeld (24 Sekunden) und herkömmliche girocard-Zahlung mit Stecken der Karte (23 Sekunden). Das kann die Durchlaufzeit an der Kasse und damit lästiges Warten für Kunden deutlich reduzieren.

Ingo Limburg kündigt das kontaklose Bezahlen per App über ein NFC-fähiges Smartphone an.

Ingo Limburg kündigt das kontaklose Bezahlen per App über ein NFC-fähiges Smartphone an.

Doch es ist nicht die Schnelligkeit allein, die Kunden dazu bringt, gelernte Gewohnheiten beim Bezahlen über Bord zu werfen. Die girocard kontaktlos ist bequem, einfach und intuitiv zu benutzen. Dieses Gesamtpaket an Nutzerkomfort wird getragen vom Vertrauen, das die Kunden in ihre girocard haben: Mit 90 Prozent hat die überwältigende Mehrheit der Kunden generell großes oder sogar sehr großes Vertrauen in die Bezahlverfahren der Banken und Sparkassen, wie z. B. das girocard-System. Das belegt eine repräsentative Umfrage der GfK von Januar 2018. Im Auftrag der Euro Kartensysteme hatten die Marktforscher 1 207 Personen zwischen 16 und 69 Jahren befragt. Entsprechend nehmen die Kunden das kontaktlose Bezahlen mit ihrer Bank- oder Sparkassenkarte so schnell an wie keine andere Funktion der girocard je zuvor. Ohne große Werbemaßnahmen waren so im April bereits je rund zehn Prozent aller girocard-Transak­tionen von Sparkassen und Volksbanken Raiffeisenbanken kontaktlos.

Wie gut das kontaktlose Bezahlen angenommen wird, zeigen auf Seiten des Handels eindrucksvoll die Zahlen von Edeka Hessenring, einem Akzeptanzpartner der ersten Stunde, wo kontaktloses Bezahlen mit girocards bereits im Rahmen der Erprobung in der girocard-City Kassel möglich war. Dort wurde bereits im Februar 2018 rund jede vierte girocard-Transaktion kontaktlos durchgeführt. In einigen Märkten liegt der Kontaktlos-Anteil gemessen an allen girocard-Transaktionen sogar bereits bei über 40 Prozent.
Noch mehr Wahlfreiheit beim Bezahlen haben ab voraussichtlich Mitte 2018 die Besitzer von NFC-fähigen Android-Smartphones. Ihnen bieten nach aktuellem Stand die meisten Sparkassen, Volksbanken und Raiffeisenbanken sowie die National-Bank eine digitale girocard, mit der sie einfach durch Auflegen des Smartphones bezahlen können. Das funktioniert automatisch an allen girocard-kontaktlos-Akzeptanzstellen – der Handel ist also bereit.

Ob wir dank kontaktlosem Bezahlen mit Karte und Smartphone mit den Briten bald die Freude am Schlangestehen teilen, bleibt abzuwarten. Mehr Komfort und schnellere Abwicklung beim Bezahlen sind uns aber gewiss.

Weitere Informationen unter:
www.girocard.eu

Bluetooth 5

Speziell für das Internet of Things (IoT) bringt der aktuelle im Dezember 2016 verabschiedete Bluetooth-Standard (Bluetooth 5) eine Reihe von Verbesserung:

  1. Vierfache Reichweite

Durch die Vervierfachung der Reichweite steigt diese nun auf bis zu 400 Meter im Innenbereich. Dadurch wird die Technologie insbesondere für Smart Home Produkte interessant, deckt Sie doch nun das ganze Haus ab. Dadurch hat Bluetooth das Potential mit dem WiFi-Standard zu konkurrieren und könnte diesen in vielen Fällen ablösen. Im Freien konnten auch schon Reichweiten von bis zu 750 Metern nachgewiesen werden.

  1. Verdopplung der Datenübertragungsgeschwindigkeit

Mit Bluetooth 5 liegt die Übertragungsgeschwindigkeit auf 2Mbps. Da im IoT- und Smart-Home-Bereich häufig gar keine umfangreichen Datenmengen ausgetauscht werden, sondern lediglich überschaubare Sensordaten und Informationen zur Steuerung, ist der Nutzen zunächst nicht offenkundig. Aber: Durch die schnellere Übertragung muss das Radio nur halb so lang aktiv werden, wodurch batteriebetriebene Systeme doppelt so lang halten.

Anwender von Wearables können sich darüber hinaus über schnellere Synchronisierungen freuen sowie über das performante Übertragen von Firmware-Updates.

  1. Verdreifachung der Broadcasting-Kapazität

Mit Bluetooth 5 können Advertising Pakete nun bis zu 255 Byte an dynamischen Informationen transportieren. Die erhöhte Kapazität bildet die Grundlage für Location Based Services und Smart- Sensor-Anwendungen. Erst dadurch wird das sogenannte „connectionless IoT“ ermöglicht. So lassen sich Beispielsweise Informationen über Lagerbestände und komplexe Sensordaten austauschen, und zwar ohne dass herstellerspezifische Apps benötigt werden oder Smart Devices manuell gekoppelt werden müssen.

B2B-Beschaffung: Grüner Strom

Die TREND-REPORT-Redaktion im Gespräch mit Clemens Graf von Wedel über nachhaltige Trends im Energieeinkauf

Herr von Wedel, welchen Paradigmenwechsel erleben Sie gerade im Kontext des Energieeinkaufs?
Im gewerblichen Bereich steigt die Nachfrage nach elektrischer Energie aus regenerativen Energiequellen. Das hängt u. a. damit zusammen, dass Unternehmen die positive Außenwirkung erkennen, die der Bezug von nachhaltiger Energie mit sich bringt und diesen aktiv in ihrem Marketing einsetzen. Einige Unternehmen können durch den Bezug von nachhaltiger Energie ihre CO2-Bilanz verbessern und nutzen dies ebenfalls für ihre Außendarstellung. Darüber hinaus sehen wir einen star­ken Anstieg der Terminmarktpreise für die kommenden Jahre. Der Preisanstieg ist dem Ausstieg aus der Atomkraft und dem sich abzeichnenden Ende des Einsatzes von Kohle geschuldet.

Wie sind Sie darauf vorbereitet, auf Lieferanten und Abnehmerseite?
Die enPortal-Plattform steht grundsätzlich allen Lieferanten offen. Neue Anbieter, insbesondere aus dem regenerativen Bereich, sind herzlich willkommen. Die Plattform bietet für sie eine große Chance, einfach und mit geringem Aufwand, sich 2 500 potenziellen gewerblichen Abnehmern zu präsentieren und einige davon als Kunden zu gewinnen. Unsere Kunden können schon jetzt aus einer Vielzahl von regenerativen Stromanbietern aus­wählen. Im Ausschreibungsprozess haben wir für unsere Kunden die gängigen Zertifikate für Ökostrom gelistet, auf die in einer Ausschreibung zurückgegriffen werden kann.

Welche Beweggrün­de haben die Abnehmer für grüne Energie?
In der Außendarstellung spielt die Her­kunft der verwendeten Energie eine zunehmend größere Rolle. Das gilt gleichermaßen für Dienstleister wie für produzierende Unternehmen. Bei öffentlich-rechtlichen Einrichtungen, insbesondere bei den Kommunen, gibt es entsprechende Beschlüsse der kom­munalen Parlamente für eine Öko­strom­versorgung von Gemeinden und öffentlichen Einrichtungen. In der Industrie spielt die Reduktion von CO2-Emissionen ebenfalls eine immer stärkere Rolle. Sollte sich der Preis für Öko­strom, z. B. aus Anlagen, die keine EEG-Förderung mehr erhalten und zu Marktpreisen anbieten müssen, weiter in Richtung Preisgleichheit mit konventionellem Strom bewegen, wird das die Nachfrage nach grünem Strom weiter beflügeln.

Wie wird sich der Energieeinkauf in naher Zukunft verändern?
Der Energieeinkauf wird sich zukünftig noch stärker an der Preisentwicklung der Energiebörsen orientieren. In Abhän­gigkeit von der weiteren Entwicklung und vom Einsatz von Smart-Metern stehen dem Einkäufer von elektrischer Energie komplexere Beschaffungsmöglichkeiten zur Verfügung. Hier bie­ten wir schon heute alle verfügbaren Möglichkeiten unseren Kunden an und sehen uns führend in der weiteren Entwicklung. Durch die zunehmende Vernetzung über digitale Plattformen wird die Geschwindigkeit der Preisbildung rasant zunehmen. Wir gehen davon aus, dass in wenigen Jahren ein Real Pricing, also die ständige Aktualisierung von Preisen zahlreicher Anbieter für Kunden, Realität wird.

Weitere Informationen unter:
www.enportal.de

Schneller Wandel im Payment

Die TREND-REPORT-Redaktion sprach mit Christian Schollmeyer vom Deutschen Sparkassen- und Giroverband, dem aktuellen Federführer der Deutschen Kreditwirtschaft, über kontaktlose Bezahlverfahren.

Wie wirkt sich die Digitalisierung im Payment-Bereich aus?
Unser aller Alltag wird digitaler und mobiler: Bereits heute haben laut GfK 67 Prozent ihr Smartphone immer dabei. Was läge da näher, als auch das Bezahlen damit zu ermöglichen. Die Deutsche Kreditwirtschaft greift den positiven Trend der kontaktlosen Kartenzahlung auf und zündet mit der digitalen girocard die nächste Stufe. Schon heute können sich 25 Prozent der Smartphone-Besitzer vorstellen, in zehn Jahren nur noch per Smartphone zu bezahlen. Die digitale girocard glänzt als Zusatzangebot neben den physischen Karten. Sie vereint die Vorteile von Karte und Smartphone und eröffnet damit neue Einsatzfelder.

Was sagen Kunden zu den neuen Bezahlmöglichkeiten?
Laut GfK haben 90 Prozent der Kunden großes oder sehr großes Vertrauen in die Bezahlverfahren der Banken und Sparkassen. Das zeigt sich auch in der Nutzung der Kontaktlos-Technologie, die Kunden so schnell und intuitiv annehmen, wie nie zuvor eine neue Funktion der girocard. Je rund 10 Prozent der girocard-Zahlungen waren bei Sparkassen und Volksbanken Raiffeisenbanken im April bereits kontaktlos. Dieser Paradigmenwechsel von kontaktbehaftet zu kontaktlos wird sich fortsetzen – und zwar dank beider Karten, egal ob physisch oder digital.

Was ist mit der Sicherheit?
Die Sicherheit unserer Bezahlverfahren ist die Basis, die Vertrauen schafft und auf die wir als Deutsche Kreditwirtschaft in der Kundenbeziehung aufbauen. Die Sicherheitsarchitektur des girocard-Systems ist auch beim kontaktlosen und digitalen Bezahlen verlässlicher Kern der Infrastruktur – die EMV-Technologie bleibt Maßstab für ein sicheres Angebot.

Alle Risiken im Griff?

Über neue Trends beim Thema „Enter­prise Risk Management“ (ERM) sprach die TREND-REPORT-Redaktion mit Günther Angerbauer und Markus Müller, Geschäftsführer calpana business consulting, dem Hersteller von Crisam.

Ob Überschuldung oder fehlende liquide Finanzmittel, im heutigen Geschäftsalltag ist Risiko zentraler Bestandteil aller Tätigkeiten eines Unternehmens. Es sind Chancen und Risiken, die die Entwicklung der Unternehmen mitbeeinflussen, was nahezu täglich im internationalen Wirtschaftsleben zu beobachten ist. Doch wie können Unternehmen in Zeiten der Digitalisierung solchen Gefahren und Chancen begegnen? Diese und weitere Fragen konnten wir mit Günther Angerbauer und Markus Müller im Interview klären. Auf unsere erste Frage hin, welche Trends denn momentan ausgemacht werden könnten im Enterprise Risk Management, betonte Günther Angerbauer: „Aus unserer Erfahrung gehen immer mehr Unternehmen weg vom Silodenken und wollen die unterschiedlichen ‚Risk & Compliance‘-Themen in einer Gesamt­lösung behandelt sehen. Das Bewusst­sein steigt, dass quantitatives Risikomanagement einen großen Mehrwert für die Entscheidungsfindung der Ge­schäftsleitung in Bezug auf die Aussa­gekraft der Ergebnisse leistet.“ Anger­bauer fährt fort: „Nicht zuletzt gewinnen automatisierte Risi­ko­­identifi­ka­tions­prozesse immer mehr an Bedeutung, d. h., dass stärker zusätzliche Informationsquellen neben den Expertenschätzungen aus den Fachbereichen einbezogen werden.“

Doch Risiken müssen auch im Kontext einer Bestandsgefährdung des Unter­nehmens bewertet und entsprechend gesteuert werden. Eine zeitgemäße ERM-Lösung muss heute auf verschie­denste Szenarien reagieren können. „Sie muss frei definierbare Modelle und Aggregationslogiken unterstützen, muss an die Unter­nehmensplanung anbindbar sein und effiziente Workflows zur Beteiligung der Risikoverantwortlichen ermöglichen. Darüber hinaus muss sie über flexible Standardprozesse ‚out of the box‘ sofort einsetzbar sein, ohne monatelanges Customizing. Gleiches gilt für die unterstützten Bewertungs- und Aggregationsmethoden. Moderne Risk-Ma­nagement-Lösungen unterstüt­zen ein umfangreiches Paket an qualitativen und quantitativen Methoden und erlauben es, mittels Risikoaggregationsmethoden die Gesamtrisikoposition für ein Unternehmen zu berechnen“, er­klärte uns dazu Günther Angerbauer.

„Der Name ‚Decision Engineering‘ ist für uns Programm. Unser gesamtes Tun ist darauf aufgebaut, Unternehmen zu unterstützen und nachhaltige Entscheidungen effizient zu treffen“, bringen es Günther Angerbauer (li.) und Markus Müller (re.) auf den Punkt.

Aber sollte eine Gesamtlösung nicht auch angrenzende „Risk & Com­plian­ce“-Disziplinen wie Infor­ma­tions­sicher­heit, Datenschutz, IKS, Qualitäts-, Audit- und Policy-Management so un­ter­stützen, dass jeder Beteiligte in „sei­ner“ Sprache angesprochen wird? Angerbauer gab dazu zu bedenken: „Ja, aber auch hier gilt der Grundsatz, dass die Inhalte und Referenzen zu den Compliancevorgaben Teil der Lösung sein sollen, damit der Einführungs- und Betreuungsaufwand für den Kunden auf ein Minimum reduziert werden kann.“ Aber nicht nur die Features einer Lösung sind von Bedeutung, sondern auch die Implementierung und der reibungslose Betrieb. Ohne Management-Commitment und gute Kenntnis über die Wertschöpfungsprozesse, die kritischen Unternehmensbereiche und das Identifizie­ren der Key-Stakeholder sind eine erfolgreiche Implementierung und der anschließende Betrieb eines Risk-Management-Systems kaum möglich. Markus Müller erklärte uns dazu: „Der Einsatz einer methodengestützten und simulationsunterstützenden Risk-Management-Lösung, die eine optimale Datenbasis für die Entscheidungen der Key-Stakeholder liefert, komplettiert die Basis für eine effektive und langfristig funktionierende Lösung. Im laufenden Betrieb sind die zyklische Aktualisierung der Risikowerte unter Betrachtung ihrer Einflussgrößen und aussagekräftiges Reporting entscheidend.“

Der Name „Decision Engineering“ ist für Calpana Programm und Philosophie zugleich, gab uns Markus Müller zum Schluss mit auf den Weg: „Unser gesamtes Tun ist darauf aufgebaut, Unternehmen zu helfen, nachhaltige Entscheidungen effizient zu treffen. Dies gelingt durch systematische und methodisch saubere Vorgangsweisen und Berechnungsmethoden, die Teil unserer Lösung Crisam sind.“

Weitere Informationen unter:
www.calpana.com
www.crisam.net

Blockchain, Mythos und Wahrheit

Was es ist, was es kann und was es nützt

Blockchain. Never have so  many people sought so much  from a technology understood  by so few. (Aengus Collins, Practice Lead, Global Risks, World Economic Forum)

Teil 1. Wie entstand die Notwendigkeit für eine sichere Informationskette

Es ist erstaunlich, wie ein Begriff aus der Mechanik, der dort in der Regel Gummiblock Ketten (Rubber block chain) meint, eine solche Euphorie und damit einhergehende Erwartungshaltung in der IT-Branche auslösen konnte.

Heutzutage ist Blockchain ein vielfach in allen Bereichen der Software-und-Informationstechnologie-Branche genutzter Begriff, der immer gerne dann herangezogen wird, wenn es besonders sichere Systeme, Lösungen oder Konzepte zu beschreiben gilt.

Im Grunde ist die Suche nach einem sicheren Weg Informationen von A über B zu C zu schaffen so alt wie die Informationsverarbeitung. Bereits die Römer erfanden die erste, simple Kryptografie um sicherzustellen, dass Botschaften unveränderbar und authentisch übermittelt werden konnten.

In der Vergangenheit hatten wir aber vielfach nicht die Notwendigkeit komplexe Verfahren zur Sicherung von Informationen zu verwenden, da Transaktionen persönlich ausgeführt wurden. Um einen Vertrag zu zeichnen, trafen sich die Parteien, um dieses Vertragswerk gemeinsam zu besprechen und zu unterschreiben. Um eine Sicherheit für Dritte zu schaffen, wurde (und wird) ein Notar hinzugezogen, der die Rechtmäßigkeit des Geschäftes bestätigt und mit seiner Position und seiner Unterschrift für Echtheit bürgt.

Als wir weitere Kommunikationsmethoden erfanden, die ein persönliches Zusammentreffen nicht mehr notwendig machten, wie z.B. das Telefon oder das FAX, einigten wir uns darauf, dass für die Teilnahme an dieser Kommunikation Informationen zu den beteiligten Personen hinterlegt wurden, die zumindest dem Anbieter bekannt waren. Lediglich in wenigen, sicherheitsrelevanten Bereichen wurden Technologien für die Verschlüsselung und Authentizität entwickelt, deren Komplexität (und deren Preis) eine breite Nutzung unerschwinglich machte.

Aber auch ohne Verschlüsselung zweifelt bis heute fast niemand daran, dass eine Telefonnummer einer realen Person oder Unternehmung „gehört“ und diese auch am anderen Ende der Leitung ist, wenn ich dort anrufe. Gleiches gilt für Faxe, welche durch die Zeit- und Übertragungsangaben sogar eine sehr hohe rechtliche Sicherheit erlangt haben.

Auch als Kommunikation noch weiter anonymisiert wurde (Webseiten, etc.), ersannen wir trickreiche Mechanismen, wie Anbieter Zertifikate, die von „trusted authorities“, also quasi Internetnotaren, ausgestellt wurden, um die Echtheit und die Personen hinter dem Zertifikat zu bestätigen.

Erstaunlicherweise haben all diese Ideen nie geholfen, Sicherheit zum Beispiel beim Austausch von Emails oder elektronischen Dokumenten zu schaffen.

Als Ender der 80er Jahre die Ideen von rein elektronischer Währung entstanden, war es an der Zeit sich mit Lösungen zu beschäftigen, die garantieren, dass ein Objekt über viele Stufen seines Transportes und seiner Verwendung niemals seine Integrität und Echtheit verliert.

Die Idee hinter Blockchain war geboren.