Blockchain und Banken: Raus aus der Komfortzone

Gastbeitrag von Gerd Müller, Leiter Architektur und Innovation bei der Fiducia & GAD IT AG

Oberflächlich betrachtet stellt die Blockchain für Finanzinstitute eine Bedrohung dar. Denn das Wesen der Technologie besteht vermeintlich darin, Intermediäre und Dritte bei Transaktionen jeglicher Art obsolet zu machen. Diese Betrachtungsweise greift jedoch zu kurz.

Und vergibt die Chance auf neue Potenziale. Denn die Blockchain-Technologie bietet Finanzdienstleistern vielfältige Möglichkeiten, sich neu zu erfinden. Sie können ihre Position in der Wertschöpfungskette verlagern und in eine neue Rolle schlüpfen: nämlich als vertrauenswürdiger Service-Provider für die Vernetzung der Akteure. Damit wandelt sich die Banken-IT zum Wegbereiter in die Welt der Blockchain-Netzwerke: zur Digitalisierung und effizienteren Gestaltung von Finanzprozessen sowie zur branchenübergreifenden Vernetzung mit den Beteiligten einer Wertschöpfungskette, wie Herstellern, Lieferanten, Händlern – und den Banken selbst.

Das größte Versprechen der Blockchain-Technologie ist die digitale Echtheit durch ihre hohe Transparenz. Oftmals werden diese Attribute fälschlicherweise mit Vertrauen gleichgesetzt. Das ist jedoch nicht richtig. Denn Vertrauen wird nicht alleine durch Zertifikate und Technologien begründet. Es benötigt auch ein hohes Maß an persönlicher Interaktion. Diese Lücke zwischen der digitalen und der echten Welt zu schließen, bleibt auch in einem Blockchain-Ökosystem Aufgabe der Banken.

Wie ein Finanzinstitut seine Kunden im Blockchain-Kontext unter­stützen und relevant bleiben kann, beantwortet Gerd Müller.

Die Technologie ihrerseits ebnet den Weg zur Entwicklung von – in dieser immer stärker digitalisierten und enger vernetzten Welt dringend benötigten – neuartigen Geschäftsmodellen und Produkten. Ziel muss sein, Antworten auf die folgende zentrale Frage zu finden: Wie kann ein Finanzinstitut seine Kunden mit der Technologie bei deren Bedürfnissen sinnvoll unterstützen und relevant für sie bleiben?

Wie sich Finanzakteure die Stärken von Blockchain zu eigen machen können, erprobt auch die Fiducia & GAD derzeit in verschiedenen Prototypen. Im Grundsatz fokussieren die Erprobungen darauf, digitale Dienstleistungen in einem vertrauenswürdigen, sicheren und transparenten Ökosystem zur Verfügung zu stellen – technologisch und organisatorisch.

Einen hohen Anteil an der Entwicklung solcher Modelle stellen nach wie vor gesetzgeberische, regulatorische Fragestellungen bezüglich Datenschutz oder Bankgeheimnis dar. Denn die Transparenz der Blockchain bedeutet auch eine höhere Sichtbarkeit von Informationen jeglicher Art.

Wie bei vielen anderen digitalen Innovationen gilt es also auch hier, nicht nur technologische und regulatorische Herausforderungen zu lösen, sondern die höchste aller Hürden zu nehmen: die über Jahrzehnte gewohnte Komfortzone zu verlassen und sich auf völlig neue Art und Weise zu öffnen. Aber gerade die Blockchain kann der Impuls sein, die Chancen dieser Veränderungen zu ergreifen.

 

www.fiduciagad.de

EU-DSGVO: Der Countdown läuft …

Reportage

Jetzt gilt es, sich der Konformität des eigenen Unternehmens in Bezug auf die EU-DSGVO zu vergewissern, sonst drohen saftige Strafen.

Am 25. Mai 2016 trat die EU-Datenschutzgrundverordnung (EU-DSGVO) in Kraft, ab dem 25. Mai 2018 müssen die EU-Mitgliedstaaten die Verordnung anwenden. Obwohl das Bewusstsein in den Chefetagen der Unternehmen gestiegen ist, sind nicht alle Unternehmen gut aufgestellt.

Mit der EU-DSGVO gibt es erstmals eine Verordnung, die das Datenschutzrecht EU-weit vereinheitlicht und die Unternehmen zum Nachweis verpflichtet, die Prinzipien des EU-Datenschutzes einzuhalten. Sie gilt für in der EU ansässige Unternehmen, aber auch für ausländische Unternehmen, wenn diese eine Niederlassung in der EU haben oder Daten von EU-Bürgern verarbeiten. Also de facto für alle größeren internationalen Unternehmen, aber auch für viele Mittelständler.

Als Daten gelten bspw. Kontakt­daten wie Name, Adresse, E-Mail-Adresse, Telefonnummer, aber auch Geburtstag, Konto- oder Kfz-Daten. Die Strafen bei Verletzung der EU-DSGVO sind saftig: Bis zu 20 Millionen oder vier Prozent des Jahresumsatzes – im Zweifelsfall gilt der höhere Wert. Obwohl viele Unternehmen ihre Hausaufgaben gemacht haben, ist bei anderen regelrechte Panik ausgebrochen, um zum Stichtag noch rechtzeitig in die Zielgerade einzulaufen.

Vieles hängt von der Art und Größe des Unter­neh­mens ab

Einige Experten warnen, die Aufgaben im Zusammenhang mit der Verordnung zu unterschätzen.

Harald Dunst vom Competence Center Safety & Security beim e-Learning-Anbieter bit media e-solutions GmbH warnt: „Die häufig vertretene Ansicht, dass die Erstellung eines Verarbeitungsverzeichnisses die Erfüllung der Richtlinien gemäß DSGVO bedeutet, ist leider nicht richtig. Ein Verarbeitungsverzeichnis ist zwar wesentlich, jedoch nur einer von mehreren Schritten der Umsetzung. Jedes Unternehmen muss also auch alle technischen und organisatorischen Maßnahmen zur Sicherung und zum Schutz der Daten umsetzen und auch dokumentieren. Nicht zu vergessen, die Einhaltung und Dokumentation aller Betroffenenrechte.“ Eine Lösung müsse „all diese Aspekte mitberücksichtigen und ganzheitlich erfüllen“. In welchem „Detailgrad“ die Umsetzung auf Unternehmensebene erfolge, hänge „jedoch von der Art und Größe des Unternehmens sowie den verfügbaren Ressourcen ab“, so Dunst. Entscheidend ist auch die Branche, da jede ihre ganz eigenen Anforderungen hat.

Im Fall der Versicherungsbranche und ihrer Kunden bedeutet die Verordnung „in Zukunft mehr Transparenz über die Speicherung der Daten“, so René Schoenauer, Produkt Marketing Manager EMEA des Versicherungssoftwareherstellers Guidewire Software GmbH.
Schoen­auer sagt, Empfehlungen gingen teilweise sogar so weit, „dass für Unternehmen ganzheitliche Datenschutzmanagementsysteme gefordert werden, die weitreichende Veränderungen der Organisation in allen Unternehmensbereichen mit sich bringen“.
Er sieht sein Unternehmen in der Verantwortung, seine „Kunden tech­nologisch mit modernen Werkzeugen auszustatten, die z. B. eine auf Kundenanfrage erforderliche unkomplizierte und vor allem dokumentierte Anonymisierung oder sogar Löschung von personenbezogenen Daten ermöglichen.“ Dies geschieht bspw. durch den Einsatz von Algorithmen zur Anonymisierung von personenbezogenen Daten, die der Ana­lyse von individuellen Kundenbedürfnissen dienen. Algorithmen gewährleisten, dass kein persönlicher Rückschluss aufgrund dieser Daten mehr erfolgen kann, aber Analysen weiterhin möglich sind.

Zertifizierungen als Basis

Manche Unternehmen profitieren von bereits vorhandenen Zertifizierungen, etwa nach ISO 9001 oder ISO / IEC 27001. Diese Zertifizierungen dienen als Basis für ein Datenschutzmanagement­system (DSMS), das die Compliance mit der EU-DSGVO gewährleistet. Ähnliches gilt für die Zertifizierung nach dem Standard BS 10012:2017.

Uwe Rühl, Mitglied der Geschäftsführung der Rucon-Gruppe, eines Beratungs-, Trainings- und Auditspezialisten für alle Aspekte der Organizational Resilience, betont die Notwendigkeit, „Strukturen aufzubauen und das Thema Datenschutz dauerhaft und systematisch“ zu verankern: „Schauen Sie, welche Ansätze in Ihrem Unternehmen als Basis für ein Datenschutzmanagementsystem taugen. Haben Sie bereits ISO 9001 oder ISO / IEC 27001 in An­wendung: Feuer frei! Damit weitermachen. Wenn nicht? BS 10012 ist eine gute Basis für ein DSMS.“

Ähnlich sieht es Dr. Stephan Killich, Geschäftsführer der ConSense GmbH, eines Anbieters von QM-Software: „Ein etabliertes Verfahren, das im Qualitätsmanagement angewendet wird, ist das Audit. Ein Unternehmen muss sich in regelmäßigen Abständen die Frage nach der Aktualität des Managementsystems stellen. Besteht diesbezüglich vielleicht Handlungsbedarf? Und dieses Verfahren kann eins zu eins auf den Datenschutz übertragen werden, sowohl im Hinblick auf die komplette Dokumentation des Datenschutzmanagement-systems als auch auf die ‚TOMs‘, die technisch-organisatorischen Maßnahmen.“

Datenschutz als Querschnittsaufgabe

Wichtig sei es, darin stimmen die beiden Experten überein, das Thema EU-DSGVO als Querschnittsthema im gesamten Unternehmen zu verankern und das Bewusstsein der Mitarbeiter für diese Problematik zu schärfen. Vom Vorstand oder der Geschäftsführung bis hin zum Betriebsrat müssen die Verantwortlichen über die Regelungen und Veränderungen beim Datenschutz informiert und teilweise aktiv werden: Vorstand und Ge­schäftsführung müssen die veränderte datenschutzrechtliche Praxis im Unternehmen kennen; die IT-Abteilung muss prüfen, welche technisch-organisatorischen Maßnahmen für das geforderte Risk-Management notwendig sind; die Fi­nanzabteilung muss die Kosten berück­sichtigen, die dem Unternehmen durch An­passungsprozesse entstehen; die Rechts­abteilung muss viele Verträge anpassen; die Compliance-Abteilung muss die Risiken eines Verstoßes gegen die Verordnungen berücksichtigen – diese betreffen die außerordentlich hohen Buß­gelder, aber auch den Vertrauensverlust, der bei Kunden, Lieferanten oder Mitarbeitern entstehen kann; die Forschungs- und Entwicklungsabteilung muss schon bei einem frühen Projektstadium darauf achten, dass die datenschutzrechtlichen Grundsätze eingehalten werden; für die Personalabteilung entsteht ein hoher Aufwand, da sie einerseits Mitarbeiterschulungen zum Thema organisieren, andererseits den Mitarbeitern auf Nachfrage nachweisen muss, wie ihre Daten geschützt werden; auch der Betriebsrat ist einzubinden.

Mehr Rechte für Beschäftigte, mehr Pflichten für die Unternehmen

Nach Auffassung vieler Fachleute werden die Pflichten des Arbeitgebers beim Datenschutz deutlich erhöht, die Rechte der Beschäftigten hingegen gestärkt. Diese erhalten die Hoheit über ihre Daten und das Recht, auf Anfrage zu erfahren, „ob, welche und in welchem Umfang personenbezogene Daten durch den Arbeitgeber verarbeitet werden“.

Das muss laut EU-DSGVO schneller und umfassender geschehen, als dies früher der Fall war. Unternehmen ohne digitale Personalakte haben hier einen großen Aufwand, da die dafür zuständigen Personalabteilungen meist in einem mühseligen Prozess die zerstückelt geführten Personalakten, Gehaltsabrechnungen oder Berichte prüfen müssen.

Wieland Volkert vom HR-Softwareanbieter PeopleDoc empfiehlt den Einsatz einer digitalen Personalakte: „Die Arbeit mit der klassischen papiernen Personalakte ist im Gegensatz zum Einsatz einer digitalen Personalakte extrem zeitaufwendig, kompliziert, fehleranfällig und häufig nicht datenschutzkonform. Digitale Personalakten verbessern die Qualität der Personalabteilung, die Zufriedenheit der Mitarbeiter und den Schutz vor Verstößen gegen die EU-DSGVO.“

Checklisten helfen weiter

Um die Personalabteilungen zu unterstützen, hat PeopleDoc eine „umfas­sende Compliance-Checkliste“ erstellt. „Wer die acht Punkte dieser Checkliste beach­tet, ist für die neuen Herausforderungen und Pflichten, die durch die EU-DSGVO entstehen, bestens gewapp­net“, so Volkert.

Zu den Punkten gehören die Bildung einer Taskforce aus den verschiedenen Abteilungen des Unternehmens, die Prüfung aller personenbezogenen Daten, die Prüfung der Zugriffsrechte auf diese Daten, die Aktua­lisierung der Datenschutzrichtlinien, die Dokumentation der Handhabung im Fall von Anfragen, die Beschreibung der Vorgehensweise im Fall einer Panne oder Verletzung des Datenschutzes, die Ernennung eines speziellen Datenschutzbeauftragten sowie die Schulung der Mitarbeiter.

„Die Umsetzung der Verordnung muss im Unternehmen gelebt werden.“

Den letzten drei Punkten kommt eine besondere Bedeutung zu: Im Fall einer Datenpanne muss diese innerhalb von 72 Stunden der Datenschutzbehörde sowie dem Betroffenen gemeldet werden. Hier gilt es, Verantwortlichkeiten für die Untersuchung zu definieren, Verfahren zur Behebung der Panne im Vorfeld auszuarbeiten und die Auswirkungen und Maßnahmen zu dokumentieren.

Die Mitarbeiter sind entscheidend

In der Person des Datenschutzbeauftragten wird die Verantwortung gebündelt; der Beauftragte ist für die Einhaltung der Compliance verantwortlich und muss den Schutz der Daten gewährleisten. Er kann entweder ein Mitglied des Teams oder ein externer Fachmann sein. Die Umsetzung der Verordnung muss im Unternehmen „gelebt“ werden; das bedeutet, die Mitarbeiter zu sensibilisieren, aber auch über die Compliance-Regeln zu informieren, etwa die Frage, wer im Fall einer Nichteinhaltung zu informieren ist.

PeopleDoc rät, einmal pro Jahr eine Schulung für alle Mitarbeiter zu organisieren.
Dr. Stefan Killich sieht hierin eine Aufgabe für die Unternehmen wie für die Anbieter von Schulungen: „Qualitätsmanagement ist nicht etwas, bei dem jeder Mitarbeiter sagt: ‚Juhu endlich haben wir ein ISO 9001.‘ Auch beim Thema Datenschutz ist das nicht der Fall. So bleibt die Frage: Wie kriegt man das hin, dass es trotzdem akzeptiert und lebendig wird? Ich denke, da haben wir sehr große Erfahrungen.“

Chancen und Risiken

Die Risiken einer Verletzung des Datenschutzes sind groß und müssen im Einzelfall genau analysiert werden. Doch wie sieht es mit den Chancen aus? Uwe Rühl hebt den Aspekt der Organizational Resilience hervor, bei dem es nicht nur darum gehe, die negativen Folgen zu vermeiden. „Es geht nicht nur um Überlebens-, sondern auch um Anpassungsfähigkeit“, so Rühl. „Anpassungsfähigkeit sichert langfristiges Überleben, ggf. kann diese sogar zu Wettbewerbsvorteilen führen, auch wenn man diese auf den ersten Blick nicht wahrnimmt. Zum Beispiel könnte ein gut umgesetztes Datenschutzmanagementsystem auch den Eintritt in Länder mit einem ähnlich hohen Datenschutzniveau deutlich erleichtern, wie z.B. Kanada oder Japan.“

Auch Dr. Stephan Killich von der ConSense GmbH betont die Vorteile: „Wenn ich ein gutes Verhältnis zu meinem Kunden haben möchte, dann ist das für mich eine Mindestvoraussetzung, dass ich mit seinen Daten auch gut umgehe. Und gerade weil es im Kundenverhältnis so wichtig ist, ist das für mich klar ein Wettbewerbsvorteil.

Also kann sich ein Unternehmen durch ein gutes Datenschutzmanagementsystem sehr stark von seinen Mitbewerbern abheben.“ Harald Dunst vom e-Learning-Anbieter bit media e-solutions GmbH sieht den Nutzen für die „gewachsenen IT-Abteilungen“: „Der Verwaltungsaufwand kann zwar mitunter höher sein, jedoch sind alle Unternehmen angehalten, bestehende Datenverarbeitungen und Daten zu prüfen und ‚aufzuräumen‘. Dies wird mehr Überblick und Ordnung schaffen.“

Und für René Schoenauer vom Versicherungssoftwarehersteller Guidewire Software GmbH besteht der Vorteil für die Versicherer vor allem darin, dass sie „von Kunden weiterhin die Zustimmung zur Speicherung und Verarbeitung ihrer persönlichen Daten bekommen und damit einen Wettbewerbsvorteil gegenüber anderen Anbietern haben“.

Es liegt also an den Unternehmen selbst, ob ihnen die EU-DSGVO mehr nutzt oder doch eher schadet.

<<

 

Autor: Dr. Ralf Magagnoli

Wetterdaten mit schlauer API

Wie Wetterdaten die Welt „smarter“ machen, erläutert Friederike Koch von WetterOnline im Gespräch mit der Redaktion.

 

„Die Anforderungen an einen smarten Service sind vielfältig“, antwortet Friederike Koch einleitend auf unsere Frage, was einen Service wirklich smart macht. Grundvoraussetzung sei „unbedingt“ eine verlässliche IT-Infrastruktur. Schließlich müsse ein smarter Service stetig erreich­bar und Daten müssten schnell übertragbar sein.

 

„Der Schlüs­sel einer smarten Anwendung liegt in der Kombination und Auswertung der pas­senden Datenquellen.“

 

Zusätzlich müsse der Service von jedem beliebigen Ort nutzbar sein und be­lastbare Ergebnisse liefern. „Der Schlüs­sel einer smarten Anwendung“, betont die Meteorologin, „liegt jedoch in der Kombination und Auswertung der pas­senden Datenquellen.“ Alle Quellen, die einen Mehrwert bieten, sollten berücksichtigt, Daten ohne Relevanz oder von minderer Qualität hingegen ausgeschlossen werden. „Ziel sollte ein stabiler Service sein, der alle Daten in Echtzeit auswertet und flexibel reagiert.“

In Bezug auf das Wetter bietet Wetter­Online solche Daten. „Ein Schwerpunkt unserer Arbeit liegt in der Erfassung und Analyse des Ist-Zustands der Atmosphäre“, präzisiert Koch den Service ihres Unternehmens. „Dazu sammeln wir im ersten Schritt Daten aus so vielen Quellen wie möglich, im Grunde spre­chen wir hier von Big Data.“

Aus den gewonnenen Daten entsteht ein konsistentes Bild des Ist-Zustands der Atmosphäre, woraus sich treffende Prognosen für die nächsten Stunden und Tage ableiten lassen, für jeden beliebigen Punkt weltweit. „So entstehen die hoch­aktuellen und präzisen Wetterproduk­te, die uns auszeichnen“, erklärt Koch im Gespräch. „Das schätzen auch die monatlich mehr als 13 Millionen Nut­zer unserer Anwendungen, wie etwa der WetterOnline-App.“

Doch nicht nur die App stellt das Bonner Unternehmen zur Verfügung. Über eine API wird der Wetterdatensatz Kun­den zur direkten Verfügung bereitgestellt. Im­mer sind dabei Parameter wie Wetterzustand, Tem­pe­ra­turen, Sonnenstunden, Nie­der­schlags­wahrscheinlichkeit oder Wind­daten verfügbar.

Darüber hinaus lässt sich die API unproblematisch erweitern und bietet individuelle Lösungen, passend zu den An­forderungen des Kunden. „Wetterwarnungen, Pollenprognosen, aber auch historische Daten über einen längeren Rückschauzeitraum“, zählt unsere Gesprächspartnerin exemplarisch einige Möglichkeiten auf.

Themen wie
alternative Ener­gien, Nachhaltigkeit und Mobilität enthalten immer eine Wetterkomponente.

Interessant sind solche Wetterdaten für eine Vielzahl verschiedener Unternehmen jeder Größe. Landwirte etwa nutzen in Apps die Daten, um den optimalen Zeit­punkt zum Ausbringen des Düngers oder Pflanzenschutzes zu bestimmen. Werbe­treibende können in Echtzeit zum Wetter passende Werbung ausspielen.

Reiseunternehmen können ihre Kunden vorab über das voraussichtliche Wetter am Urlaubsort oder während des Trips informie­ren. Im Bereich des Risikomanage­ments, sei es beispielsweise für Großveranstaltun­gen wie Festivals oder für das Baugewerbe, sorgen zuverlässige Wetter­daten für mehr Planbarkeit und Sicherheit.

 

„Ein Schwerpunkt unserer Arbeit liegt in der Erfassung und Analyse des Ist-Zustands der Atmosphäre“

„Themen wie alternative Energien, Nach­haltigkeit und Mobilität enthalten immer eine Wetterkomponente“, geht Koch auf den Themenkomplex der „Smart Citys“ ein – hier insbesondere auf komplexe Haus­steuerungen. „Mit automatisch einfließenden Wetterinformationen kön­nen Heizung, Jalousien und hauseigene Fotovoltaikanlagen optimal gesteuert werden“, so Koch. „Und wenn es dann noch eine smarte Bewässerungsanlage gibt, braucht man sich nie mehr darüber zu ärgern, dass der Rasensprenger gerade nach einem starken Regen läuft.“

Die größte Herausforderung für sie als Meteorologin im Vertrieb besteht darin, ihr Fachwissen mit den Vorstellungen und Anforderungen der Kunden in Einklang zu bringen. „Dabei gilt es immer, die tatsächlichen Möglichkeiten der Wetterprognose in Bezug auf zeitliche und räumliche Genauigkeit zu thematisieren und zwischen den Wünschen des Kunden und technischer und wissenschaftlicher Machbarkeit zu vermitteln.“

 

Per API auf diversen Endgeräten abrufbar, der Wetterdatensatz von WetterOnline. Temperatur, Sonnenstunden oder Niederschlagswahrscheinlichkeiten werden beispielsweise per App auf dem Display von Smartphone, Tablet und Co. angezeigt. „Alexa, frage WetterOnline nach dem Wetterbericht“ oder „Alexa, frage WetterOnline, ob es gleich in Berlin regnet“ und die „Stimme des Wetters“ antwortet mit dem passenden WetterOnline-Skill für Amazon Echo und Echo Show.

 

Kontakt:
Friederike Koch
sales@wetteronline.de
+49 228 55 937 923
wo.wetteronline.de/business

 

 

wo.wetteronline.de­
www.wetteronline.de

In Zukunft grün gebaut

Die Trend-Report-Redaktion sprach mit Georg Hetz und Stefan Keller, Geschäftsführer der UDI Beratungsgesellschaft mbH, über das Wohnen der Zukunft und Green Buildings im Sinne der Smart City.

Die Themen Green Building und Smart Citys sind unter Architekten, Projektentwicklern und Investoren Mega-Trends. In diesem Kontext verfolgen Georg Hetz und Stefan Keller als Immobilien-Projektentwickler mit langjähriger Investmenterfahrung das Ziel, ausschließlich in ren­table, nachhaltige und umweltfreundliche Immobilien zu investieren.

„Genauer gesagt, in die Projektentwicklung von schlauen und energiesparenden Gebäuden“, präzisiert Hetz und fährt fort: „Das können Wohnungen für Privatnutzer sein oder Geschäftsgebäude. Wir integrieren bei unseren Immobilienprojekten von Anfang an auch Elektromobilitätslösungen, wie etwa eine Car-Sharing-Station mit einer Ladeinfrastruktur für bis zu fünf Elektrofahrzeuge.“

Grüne Gebäu­de, die UDI zum Beispiel in Mittelfranken projektiert, sind emissionsarm und auf einen nachhaltigen Betrieb ausgelegt. „Wir werden Geothermie-Anlagen bauen, die sowohl Wärme im Winter und Kühlung im Sommer liefern können. Und der Strom, der über die Solar­anlagen erzeugt wird, schließt den Kreislauf“, betont Hetz.

Stefan Keller, der bei UDI den Gewerbeimmobilien-Bereich verantwortet, erläutert dazu: „Unser aktuelles gewerbliches Bauvorhaben in Nürnberg besteht aus einem Gebäudekom­plex mit drei aneinander angrenzenden Gebäuden. Wir entwickeln des­halb eine energetische ganzheitliche Lösung für alle Gebäude“.

Keller erklärt dazu: „Komplexe und auch teure Konzepte im Bereich Smart Home sowie Gebäude- und Office Automatisierung können damit kosteneffizient auf alle drei Gebäude ausgerollt werden. Die durch z. B. Geothermie erzeugte Energie stellen wir dann als Contractor den Gebäudebetreibern wieder zur Verfügung.

Mit diesem nachhaltigen Ansatz schaffen wir eine ‚kleine Smart City‘ in der Smart City. Quartierslösungen mit kurzen Wegen, zusätzlichen Servicepaketen und viel integriertem Grün, das ist unser Beitrag zur Smart City.“

Georg Hetz und Stefan Keller (li). im Gespräch über die Mega-Trends Smart Ci­ty und Green Building im Kontext nachhaltiger Geldanlagen.

Wie können Anleger an diesem Wachs­tumsmarkt partizipieren? „Anleger können von dem Trend energieef­fi­zienter Gebäude auch dann profitieren, wenn sie nicht gleich die ganze Immobilie kaufen möchten“, erklärt uns Georg Hetz, dessen Unternehmen UDI auf 20 Jahre Erfahrung bei Anlagen mit grünem Geld und Erneuerbare-Energie-Projekte zurückblicken kann.

„Besonders flexibel gestaltet sich der „UDI Immo Sprint Festzins II“ durch seine kurze Laufzeit von 3 ¼ Jahren und eine vorzeitige Ausstiegsmöglichkeit zum 30. Juni 2020.“ Der jährliche Zinssatz für Anleger liegt bei 4,0 bis 4,25 Prozent. Zudem kommt die Anlage ohne weitere Gebühren oder Aufschläge (Agio) aus.

 

www.udi.de

Smart und nachhaltig ergänzen sich ideal

Effiziente und innovative Lösungen für eine nachhaltige Nutzung von Ressourcen sind weltweit gefragt.

Vom 14. bis 18. Mai 2018 bringt die Weltleitmesse IFAT die wichtigsten Teil­nehmer aus der Wasser-, Abwasser-, Abfall- und Rohstoffwirtschaft in München zusammen. Im Gespräch mit der Redaktion stellt Stefan Rummel, Geschäftsführer der Messe München und Chef der IFAT, die Top-Themen vor.

 

Herr Rummel, in Zeiten von Corporate Social Responsibility erreichen Umweltthemen immer größere Aufmerksamkeit. Welchen Beitrag leistet hier die IFAT?

Die IFAT richtet sich an alle, die moderne Lösungen für nachhaltiges Wirtschaften suchen. Das betrifft nicht nur CSR-Beauftragte, sondern auch Produktionsplaner, technische Leiter oder Facility-Manager. Nachhaltigkeit beginnt bereits in der Produktion und genau hier setzen wir mit unserer Veranstaltung an. Bei der IFAT geht es darum, Wertstoffe stärker zu nutzen und Rohstoffkreisläufe zu schließen. Das kommt sowohl dem Image des Unternehmens als auch langfristig dem Geldbeutel zugute.

 

Die diesjährige Ausgabe wächst um zwei Hallen auf dem Messegelände in München. Ist diese räumliche Ausdehnung gleichzusetzen mit dem Interesse an Ihrer Plattform?

In jedem Fall, das Interesse an der IFAT und damit an Umwelttechnologien ist ungebrochen. Die Nachfrage von Unternehmen ist seit Jahren hoch, die Messe belegte bereits zu den vergangenen Veranstaltungen das gesamte Gelände in München. Trotz der größeren Fläche sind alle 18 Hallen und das Freigelände auch dieses Jahr komplett gebucht, für einige Segmente gibt es wieder Wartelisten. Das überwältigende Feedback der Aussteller stärkt sowohl unsere Position als auch unseren Ruf als Weltleitmesse.

 

Welche Rolle spielt die Digitalisierung bei den Technologien der Aussteller?

Die Digitalisierung wird eines der Top-Themen der IFAT 2018 werden. Das zeichnet sich bereits jetzt aus den Ankündigungen unserer Aussteller ab. Intelligente Lösungen können den Arbeitsalltag erleichtern.

Mit einer „On demand“-Müllabholung mittels einer App können Firmen beispielsweise auf unnötige Entsorgungsfahrten verzichten und Kosten sparen. Im Wasserbereich können Sensoren die Versorgungssicherheit mit dem Lebensmittel Nummer eins optimieren oder die Ressourcen- und Energieeffizienz im Produktionsprozess steigern. Die IFAT wird zeigen, dass sich smart und nachhaltig ideal ergänzen.

 

Gibt es neben der Digitalisierung weitere Fokusthemen?

Die Digitalisierung ist nur eines der Themen, die wir im Mai diskutieren. Neue gesetzliche Rahmenbedingungen stehen ebenfalls im Fokus, denn auch auf politischer Ebene erreichen Umweltthemen einen immer höheren Stellenwert. Seit August letzten Jahres müssen gewerbliche Abfallerzeuger beispielsweise verwertbare Abfälle getrennt erfas­sen und umfangreich dokumentieren.

Ab Januar 2019 schreibt der Gesetzgeber bei der Entsorgung gebrauchter Verpackungen deutlich höhere Recyclingquoten vor. Als Plattform, die sich gleichermaßen an Industrie und Kommunen wendet, greifen wir diese Themen auf, zeigen Best-Practice-Beispiele für Unternehmen auf und liefern Antworten auf offene Fragen.

 

IFAT-Environment-Index 2018

Mit dem Environment-Index hat die IFAT und damit die Messe München ein Instrument geschaffen, das Bürgern eine Stimme verleiht. Die internationale Umfrage wurde in fünf Ländern zu den Umweltthemen Trinkwasser, Abfall, Luft, Umwelt-City-Projekte und Umwelttechnologien bevölkerungsrepräsen­tativ durchgeführt.

Die wichtigste Erkenntnis aus der Befragung brachte zu Tage, dass sich 72 Prozent der Deutschen vor extremen Wet­terverhältnissen fürchten. In diesem Kontext gilt es, die Ängste der Bürger wahrzunehmen. Das mag auch der Grund sein, warum nach der Studie rund 80 Prozent der Bundesbür­ger in „Umwelt-City-Projekten“ eine Chance sehen, den drohenden Wetterszenarien proaktiv zu begegnen.

So könnten künftig „Sponge Cities“, zu Deutsch „Schwammstädte“, durch eine Kombination vorausschauender Stadtplanung und moderner Technologie die Antwort auf extreme Niederschläge sein. Im Hinblick darauf wer­den in das Innenstadtbild eingepasste Überflutungs­anlagen geschaffen, die das Wasser ableiten, zwischenspeichern und später wieder freigeben. Dabei sollten solche Projekte auf digitale Technik setzen, for­dert knapp die Hälfte der Befragten (49 Prozent).

Die Umfrage leistet damit einen wichtigen Beitrag, um den Kontakt zur Basis nicht zu verlieren. Umwelt-City-Projekte verfolgen das Ziel, durch eine enge Kooperation von Ver­waltung, Wirtschaft, Wissenschaft und Bürgern definierte Umweltziele intelligent zu erreichen. Die Folgen von Stür­men, Starkregen und Hitzewellen sollten mit einer lokalen Umweltstrategie adressiert werden – davon sind 79 Pro­zent der Bundesbürger überzeugt.

80 Prozent sehen in smarten Projekten eine wichti­ge Chance, Zukunftstechnik in der Praxis zum Durchbruch zu verhelfen. Vor diesem Hinter­grund werden Plattformen wie die IFAT künftig noch wei­ter an Bedeutung gewinnen. Auch globale Zusammenarbeit ist gefragt: Dem IFAT-Environment-Index zufolge plädieren 81 Prozent der Bundesbür­ger für eine weltweite Kooperation von Forschung und Entwicklung, damit Umwelttechnologien die negativen Trends aufhalten helfen.

 

 

 

www.messe-muenchen.de
www.ifat.de

 

Das ausführliche Interview mit Stefan Rummel finden Sie unter:
Weltleitmesse IFAT 2018

Crowdlending ist erwachsen geworden

2016 unterhielten wir uns mit Christopher Grätz, Co-Founder und CEO der kapilendo AG, über das „aufstrebende Geschäftsmodell“ Crowdlending. Jetzt wurde es Zeit nachzufragen.

 

Herr Grätz, wie lange dauert im Schnitt eine Finanzierung, die über Ihre Online-Plattform ausgeschrieben wird? Was macht Ihren Erfolg aus? 

Die Geschwindigkeit der Ausfinanzierungen hat deutlich zugenommen. 2016 dauerte eine Finanzierung auf unserer Plattform noch ungefähr 43 Tage, heute sind es gerade mal 5 Tage. Bei kleineren Betriebsmittelfinanzierungen, die zwischen 25.000 und 100.000 Euro liegen sogar oftmals nur Sekunden.

Rund zwei Billionen Euro liegen nahezu unverzinst auf Konten deutscher Bürger. Die Niedrigzinspolitik der Europäischen Zentralbank macht viele Anlageformen unattraktiv. Das Crowdlending ist eines der wenigen Segmente, das nicht durch das expansive Anleihekaufprogramm der EZB verzerrt ist. Beim Crowdlending investieren die Anleger direkt in geprüfte deutsche Unternehmen. In Form von Zinsen haben die Anleger so Teil an deren Wertschöpfung und Erfolg. Im Detail heißt das, dass die Crowd ihr Kapital für einen festen Zeitraum und gegen einen festen Zins zur Verfügung stellt.
Die Laufzeiten liegen zwischen 1 – 5 Jahre – wobei bereits quartalsweise während der Laufzeit oder am Laufzeitende bedient wird.

Die Anleger entscheiden selbst wem und wofür sie ihr Geld zur Verfügung stellen und lernen das Unternehmen und den Unternehmer digital kennen. In Kurz-Filmen stellen wir unseren Anlegern die Finanzierungsprojekte, das Unternehmen und den Unternehmer vor. Die Geschäftsmodelle sind vielfältig und reichen von bekannten Markennamen wie der Gastronomiekette L´Osteria über klassische Mittelständler wie z.B. einen Produzenten von Federn- und Drahtbiegeteile bis hin zu Wachstumsunternehmen wie die Graf Metternich-Quellen Karl Schöttker KG.

Mit der erhöhten Finanzierungsgeschwindigkeit und einer in der Praxis nachgewiesenen Zuverlässigkeit haben die führenden Crowdlending Plattformen in den vergangenen Monaten ein letztes, elementares Handicap gegenüber den traditionellen Kreditanbietern eliminiert.

 

Welche Finanzierungsformen mit welchem Finanzierungszweck bieten Sie schnell wachsenden Unternehmen aus dem Mittelstand an? 

Als Full-Service-Online-Plattform im Bereich Unternehmensfinanzierung erhalten Wachstumsunternehmen und kleine und mittelständische Unternehmen bei kapilendo Zugang zu Nachrangkapital und klassischen Krediten durch private Anleger. Der Finanzierungszweck kann vielfältig sein und reicht von Betriebsmittel über Wachstums- und Investitionsfinanzierung bis hin zu Produktivitätssteigerung.

 

Nach welchen Kriterien wählen Sie die Unternehmen aus? 

Die Unternehmen müssen mindestens 3 Jahre am Markt sein und 1 Million Euro Umsatz machen. Es muss eine positive Eigenkapitalquote und ein positives Geschäftsergebnis vorliegen. Unser Ratingteam prüft die Unternehmen dann ausführlich. Neben den wichtigen Finanzkennzahlen berücksichtigt das Team Kriterien wie Industriebranche, Marktposition und Marktentwicklung. Anhand des Ergebnisses der Kreditanalyse bestimmt das Ratingteam die Rating-Konditionen und legt die Rating-Kennziffern fest, wie Anlageklasse, Zinssatz p.a. und Tilgungsplan. Ist der Prüfprozess erfolgreich, dann werden die Projekte auf der Plattform finanziert.

Wir verzeichnen eine hohe Nachfrage von Maschinen- und Anlagenbauern und aus dem Gastronomie – und Technologiesektor wie auch aus den Bereichen Handel und Logistik. In allen Branchen besteht ein besonders hohes Interesse für Investitionen in Automatisierung und Digitalisierung.

 

Wie lange dauert im Schnitt der Kreditantrag für Unternehmen?

Das hängt natürlich davon ab, wie schnell uns alle Unterlagen vorliegen. Im klassischen Fall erhält das Unternehmen innerhalb von 2-3 Tagen Feedback. Hat man beispielsweise den Erstkontakt mit dem Kunden am Montag und bekommt nachmittags bereits die Unterlagen zugeschickt, so erhält er im Normalfall Mittwochabend, spätestens Donnerstagvormittag das komplette Rating, das Angebot und alle Vertragsunterlagen.

 

Und das Rating läuft über Sie oder nutzen Sie hierfür einen Dienstleister?

Neben öffentliche Datenquellen, etwa von der Creditreform oder der Schufa, haben wir im Haus ein eigenes sehr qualifiziertes Ratingteam mit sehr erfahren Leuten und steuern den Prozess entsprechend professionell intern.

 

Inwieweit haben Sie den ganzen Beantragungsprozess digitalisiert?

Der Großteil ist digitalisiert. Man durchläuft eine „Antragstrecke“, bei welcher der Kunde seine ganzen Daten eingeben kann. Dabei verwenden wir ein Tool, welches den Unternehmer frühzeitig digital voll erkennt, und seine Daten schon vorausfüllt. Die Frage ist weniger, wie digital wir sind, als vielmehr wie digital der Kunde ist. Statt die Unterlagen via PDF zuzuschicken, gibt es auch Unternehmen, die lieber einen Leitz-Ordner zusenden. Papier per Post oder komplett digital ist also beides möglich.

 

Mit welchen Zinsen kann der Anleger im Schnitt rechnen? 

Die Zinsen liegen im Schnitt bei 5% p.a.

 

Welche Partnerschaften und Kooperation stehen für Sie im Jahr 2018 im Fokus? 

Der Markt für Mittelstandsfinanzierung wird damit auch zunehmend für Family Offices und Stiftungen interessant. Erste Verbriefungen der auf den Plattformen vermittelten Kredite sowie die Auflage von Spezialfonds (AIF) ermöglichen bereits auch den Zugang für Investoren, die eine depotfähige Anlage benötigen. War die Mittelstandsfinanzierung in Deutschland vor nicht allzu langer Zeit noch ein reiner Bankenmarkt, wird dieser Markt mittlerweile zunehmend von Family Offices und Pensionskassen besetzt, die auf der Suche nach neuen Quellen für laufende Zinseinnahmen sind. Für diese bietet sich im Direct Lending eine attraktive laufende Rendite von über 5 Prozent p.a. ohne Zins- und bei sehr begrenztem Kapitalverlustrisiko.

„Vor allem der klassische Mittelstand nimmt Crowdlending als ernsthafte Finanzierungsalternative an“, weiß Christopher Grätz.

Wie flexibel und mit welchen Sicherheiten kann der Anleger auf Ihrer Plattform investieren?

Die Flexibilität zeichnet uns bei Kapilendo aus. Nur über unsere Plattform kann der Anleger aus dem ganzen Spektrum, von Wachstumsfinanzierungen bis hin zu den ganz klassischen Krediten, die gleichrangig zu Bankkrediten sind, wählen. Die klassischen Kredite sind dabei immer mit selbstschuldnerischen Bürgschaften besichert. Das heißt, der Geschäftsführer oder der führende Gesellschafter gibt eine Bürgschaft über 120% des Kreditbetrags ab, sodass letztendlich selbst zusätzliche Kosten, z.B. Rechtskosten, mit der Bürgschaft abgedeckt sein sollten.

Der qualifizierte Nachrang hingegen ist immer komplett unbesichert. Im Fall einer Insolvenz oder von Schwierigkeiten im Unternehmen steht der Anleger hier weiter hinten in der Rangfolge. Zuerst wird der Bankkredit bedient, danach das Nachrangdarlehn und dann das Eigenkapital. Für die höhere Risikoposition bekommt der Anleger einen entsprechend attraktiven Zins von 6-10%.

Ein Beispiel: Ein Bankkredit zur Eröffnung eines Restaurants für den Systemgastronomen L´Osteria war an die Bedingung von 500.000 Euro Eigenkapital geknüpft. Der Unternehmer konnte hier selbst direkt 250.000 beisteuern, die restlichen 250.000 Euro finanzierte er als Nachrangkapital über unsere Plattform.

Der Anleger erhält dadurch also selbst bei attraktiven und bonitätsstarken Unternehmen die Möglichkeit hohe Renditen zu erzielen. Tatsächlich ist der Prüfungsprozess dabei sogar deutlich höher und dauert deutlich länger als beim klassischen Kredit. Je höher der Zins desto höher zwar das theoretische Risiko, aber eben nicht desto schlechter die Bonität.

 

Wie findet der Anleger die Unternehmen die zu seiner Anlagestrategie und –philosophie passen?

Wir machen keine Anlageberatung, wollen aber das gesamte Spektrum anbieten. Wenn wir eine Empfehlung aussprechen können, dann die zu diversifizieren. Mit 1000 Euro kann der Anleger schon in 10 verschiedene Projekte investieren, da die Mindestanlage pro Projekt nur 100 Euro beträgt.

Die Möglichkeiten sind dabei vielfältig: Der Anleger kann in kurzlaufende oder länger laufende Projekte investieren, wobei jedes Projekt seine eigenen Konditionen hat. Die fast hundert Projekte, die wir über unsere Plattform abgewickelt haben, haben alles das gleiche Zins-Risiko-Verhältnis. Ist das Risiko laut den Ergebnissen unseres Ratings höher, ist es auch der Zinssatz. Ist die Laufzeit länger, ist auch dafür der Zinssatz höher. Der Anleger kann sich gut daran gut orientieren, da wir die Konditionen nicht mit den Kreditnehmern verhandeln.

 

Herr Grätz, wie hat sich Ihr Geschäft in den letzten Jahren verändert und was erwarten Sie von den nächsten 2-3 Jahren?

Was wir definitiv feststellen ist, dass Crowdlending in Deutschland mittlerweile etabliert ist. Dabei hat auch die Qualität der Unternehmen deutlich zugenommen, wodurch auch unsere Ablehnungsquote tendenziell langfristig zurückgehen wird. Man wird jetzt nicht mehr als der „weiße Ritter“ am Markt betrachtet, der Unternehmern Kapital zur Verfügung stellt, die sonst keine Mittel haben.

Crowlending gilt als ernsthafte Finanzierungsalternative. Vor allem der klassische Mittelstand nimmt diese Finanzierungsmöglichkeit jetzt an. Die Anfragen werden immer professioneller, kommen immer häufiger von größeren Unternehmen und auch die Darlehensgrößen haben zugenommen. Wir positionieren uns jetzt in einem im Marktumfeld mit Krediten zwischen 250.000 Euro und 2,5 Millionen. Von den mittlerweile 20 Millionen Euro haben wir fast die Hälfte in den letzten 6 Monaten über unsere Plattform finanziert. Unsere Neuvertragsvolumina mittlerweile etwa 5 Millionen Euro, je nach Saison, so dass wir für dieses Jahr erwarten Finanzierungen in Höhe von 60 Millionen Euro zu verwirklichen.

 

Kann man die neuen Crowdlending-Plattformen allgemein als den neuen Anleihemarkt von Morgen betrachten?

Definitiv, aus unserer Sicht! Die Anleger wollen vor allem einen simplen Zugang zu Finanzierungsobjekten haben, die emotional und einfach ausgestaltet sind. Sie wollen innerhalb von 30 Sekunden bis zu einer Minute über das Mobiltelefon im Großen investieren können. Auch Anleihenemittenten, die Zugang zu Retailinvestoren haben möchten, kommen nicht mehr an digitalen Plattformen vorbei, da diese den Zugang bieten.

Allerdings positionieren wir uns noch bewusst im Marktsegment bis 2,5 Millionen Euro, da wir darüber hinaus prospektpflichtig wären. Jedoch fragen uns schon Unternehmen an, ob es nicht doch Sinn machen würde, auch 5 oder 10 Millionen Euro über uns einzusammeln? Das wäre dann der Eins-zu-Eins-Ersatz der Anleihe.

 

Warum werden Ihre Investoren eigentlich zu Markenbotschaftern? 

Kapilendo bietet weit mehr als nur das Einsammeln von Geld. Kapilendo verknüpft die Finanzierung von mittelständischen Unternehmen zusätzlich mit einem exklusiven Marketing-Auftritt und einer öffentlichkeitswirksamen Kampagne, die zusätzliche Aufmerksamkeit für die Firmen und Produkte schafft. Mit einem kostenlos gedrehten Unternehmensfilm stellt Kapilendo die besonderen Merkmale eines Finanzprojektes professionell auf seiner Plattform dar und verbreitet das Video zusätzlich über verschiedene Medien im Netz.

 

 

www.kapilendo.de

 

 

Werteorientiert und profitabel

ProCredit fördert Entwicklung – und ist erfolgreich dabei. Seit Ende 2016 sind die Aktien der ProCredit Holding im Prime Standard der Frankfurter Börse notiert.

Die Banken der ProCredit Gruppe bestechen durch ihr einfaches und wirkungsvolles Geschäftsmodell: Sie sind hauptsächlich in den wachsenden Märkten Südost- und Osteuropas aktiv und konzentrieren sich auf kleine und mittlere Unternehmen (KMU), um ihnen als deren „Hausbank“ entwicklungsfördernde und transparente Finanzdienstleistungen anzubieten. Das Privatkundengeschäft ist auf die Bedürfnisse mittelständischer Kunden mit Interesse an modernen Bankdienstleistungen zugeschnitten.

Seit ihrer Gründung im Jahre 2003 hat die ProCredit Gruppe jedes Jahr profitabel gearbeitet und konnte für das Geschäftsjahr 2016 ungefähr ein Drittel ihres Bilanzgewinns als Dividende ausschütten. ProCredit verfolgt das Ziel, nachhaltiges Wachstum vor Ort zu fördern, setzt auf Kundenbeziehungen, die auf Langfristigkeit ausgelegt sind, und wendet bei der Kreditvergabe klare Umwelt- und Sozialstandards an.

Bei der Finanzierung von KMU setzt ProCredit zunehmend auch auf sogenannte „grüne“ Kredite, die unter anderem für Investitionen in Energieeffizienzprojekte und erneuerbare Energien gewährt werden und zum September 2017 bereits einen Anteil von über elf Prozent am Gesamtkreditportfolio der Gruppe ausmachten.

Eine gründliche und konservative Kreditrisikoanalyse, ein hohes Maß an Diversifikation sowie die sorgfältige Aus­wahl und kontinuierliche Fortbildung ihrer Mitarbeiter sichert der Gruppe eine herausragende Portfolioqualität – die Kreditausfallquote liegt weit unter dem Landesdurchschnitt in den betreffenden Ländern. Geschäftsaktivitäten, die aus sozialen oder ökologischen Gesichtspunkten zweifelhaft sind bzw. nicht mit den gängigen Gesundheits- und Sicher­heits­vorschriften im Einklang stehen, werden nicht finanziert.

Mit dem Schritt an die Frankfurter Wert­papierbörse Ende 2016 verband sich unter anderem der Wunsch, das besondere Geschäftsmodell der ProCredit Holding auch einer breiteren Öffentlichkeit vorzustellen. Anfang 2018 wurde erfolgreich eine Kapitalerhöhung zur Finanzierung des weiteren Wachstums der ProCredit Gruppe plat­ziert. „Dabei haben wir uns über das rege Interesse von institutionellen, ent­wicklungsorientierten Investoren sehr gefreut, und besonders auch über die Investoren des privaten Sektors, die sich mit unserem Geschäftsmodell identifizieren und am Wachstum der Gruppe teilhaben möchten“, kommentierte dies Borislav Kostadinov, Mitglied des Vorstands.

 

www.procredit-holding.com

Erfolgsfaktor Flexibilität

Robert Abend von der BörseGo AG verdeutlicht im Gespräch mit der TREND-REPORT-Redaktion, warum starre Konzepte für Firmen im Bereich Digital Finance hinderlich sind.

Langjährige Strategien, in Stein gemeißelte Konzepte – wer Erfolg in der digitalen Finanzwelt haben will, sollte darauf verzichten. Das zeigen Unternehmen wie die BörseGo AG, die seit 18 Jahren zu den Vorreitern der Branche gehört, vor allem mit ihren Finanzportalen GodmodeTrader und Guidants.

Erst im letzten Jahr konnte im Zuge des Krypto-Booms innerhalb kürzester Zeit ein umfassendes Angebot rund um Bitcoin & Co. auf die Beine gestellt werden. „Bei Veränderungen am Markt heißt es, schnell zu sein, andere Projekte on hold zu setzen und auf Wünsche der Zielgruppe einzugehen“, erklärt Robert Abend, Grün­der und Vorstand der BörseGo AG.

MIt Guidants, ursprünglich als ergänzendes Tool zu GodmodeTrader gestartet, erkannten die Entwickler schnell den Bedarf, Börseninhalte und -werkzeuge zu demokratisieren. Sie bauten Guidants zur Investment- und Analyseplattform mit Expertennetzwerk und Multi-Brokerage-Funktion sowie dazugehöriger App aus – und begeisterten damit nicht nur Hob­by­anleger und -trader. Und das kostenlos bzw. mit Zusatzfeatures zu fairen Preisen.

„Wir konnten schnell auf den Krypto-Boom reagieren“, so Robert Abend.

„Wir erfuhren von immer mehr Banken, Vermögensverwaltern und anderen professionellen Marktteilnehmern, die Guidants beruflich nutzen. Für sie haben wir nun Guidants PRObusiness als Alternative zu teuren Terminallösungen entwickelt“, erklärt Robert Abend. Auf die Frage, ob er glaubt, die BörseGo AG habe deshalb viele Start-ups im Digital-Finance-Bereich überlebt, kommt von Abend ein entschiedenes Ja. „Start-ups verlieben sich in ihre Idee. Das ist richtig so. Nur scheitern sie oft, weil sie nicht bereit sind, auch von ihr abzurücken.“

 

www.boerse-go.ag

Ausgezeichnet nachhaltig

Die TREND-REPORT-Redaktion sprach mit Tobias Tretter von der Commodity Capital AG über den Erfolgsfaktor Nachhaltigkeit in Bezug auf mögliche Renditen am Rohstoffmarkt.

 

„Wir sind sehr akribisch, wenn es um die Nachhaltigkeit unserer Investments geht“, betont Tobias Tretter. Neben Ausschlusskriterien wie Kinderarbeit oder Umweltsünden werden auch positive Faktoren, wie eine Verbesserung der Wasserversorgung des Dorfes, berücksichtigt. Nachhaltigkeit gewährleistet dabei den reibungslosen Projektverlauf über den gesamten Lebenszyklus. Sabotage, wie die Blockade der einzigen Zugangsstraße, wird vermieden.

 

Die Verleihung des Thomson Reuters Lipper Fund Awards für die beste Performance der vergangenen drei bzw. fünf Jahre bestätigt diesen Ansatz. „Der Structured Solutions Next Generation Resource Fund konnte bereits das zweite Jahr in Folge gewinnen“, freut sich Tretter. Er investiert schwerpunktmäßig in Lithium und Kobalt und profitiert so von der voranschreitenden Elektrifizierung und Elektromobilität. Auch der auf einen langfristigen Anlagehorizont ausgerichtete Commodity Global Mining Fund überzeugte mit außergewöhnlicher Performance.

 

„Die Welt braucht Rohstoffe, die gro­ßen Unternehmen neue Projekte“, schildert Tobias Tretter die idealen Voraussetzungen für Juniors.

 

Risikoaversen Anlegern ermöglicht der WMP I Resource Income Fund die Rohstoffmarktpartizipation. Er investiert vor allem in fest­verzinsliche Wertpapiere sogenannter Juniors. Diesen mittelstän­dischen Rohstoffproduzenten gewäh­­­ren Banken oft keine Kredite, da die Due Dilligence der großer Unternehmen entspricht, die Erträge für die Bank je­doch deutlich geringer ausfallen. „Wir schließen diese Lücke, unterstützen bei der Kapitalsuche und helfen, kurzfristige, voll besicherte Bonds am Markt zu platzieren, in die wir dann mit unserem Fonds investieren“, erklärt Tret­ter. Die Laufzeit dieser Papiere beträgt zwischen 6 und 18 Monaten bei einer Rendite von ca. 8 bis 12 %.

www.commodity-capital.com

DSGVO-Regelwerk

Der Datenschutz in Deutschland und Europa steht nicht nur vor großen inhaltlichen Herausforderungen aufgrund der rasanten technologischen Entwicklung. Auch die rechtlichen Grundlagen sind derzeit im Umbruch.

Die Datenschutz-Grundverordnung (DSGVO), auch General Data Protection
Regulation (GDPR) genannt, ist verabschiedet und gilt ab dem 25. Mai 2018:
Checklisten für die Datenschutz-Grundverordnung und Gesetztestexte
haben wir in einem übersichtlichen Beitrag aufbereitet und sollen Ihnen als Leser
ein Lotse durch den Gesetzes- und Paragrafen-Dschungel sein. Definitionen
und weiterführende Links verhelfen zu einem schnellen Überblick über die zugrundeliegenden Gesetze und Verordnungen.

Mit der Geltung der EU-Datenschutz-Grundverordnung (EU-DSGVO) ab dem 25. Mai 2018 wird in Europa ein modernisiertes anwenderbezogenes Regelwerk für den Datenschutz zur Verfügung stehen, das für alle Mitgliedstaaten verbindlich sein wird. Infolgedessen wird das heutige Bundesdatenschutzgesetz zu diesem Zeitpunkt außer Kraft treten. Das vom Gesetzgeber bereits verabschiedete neue BDSG wird künftig nur noch ergänzende Regelungen enthalten und ebenfalls am 25. Mai 2018 in Kraft treten.

Die Texte der EU-DSGVO, des neuen BDSG, wie auch zur e-Privacy-Richtlinie finden Sie unter nachfolgenden Links:

 

DSGVO

Die Datenschutz-Grundverordnung in deutscher Sprache:
http://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=CELEX:32016R0679

 

BDSG

Bundesdatenschutzgesetz

https://www.bfdi.bund.de/SharedDocs/Publikationen/Infobroschueren/INFO6.pdf?__blob=publicationFile&v=41

e-Privacy-Richtlinie

Aktuell noch viel diskutiert, soll die neue e-Privacy-Verordnung ebenfalls zum 25. Mai 2018 in Kraft treten. Hier handelt es sich um die Cookie-Richtlinie –  deren Bestimmungen werden bislang im Telemediengesetz (TMG) geregelt.

Der vorläufige Entwurf für die geplante neue Verordnung:
http://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=CELEX:52017PC0010&from=FR

Änderungsvorschläge des Rates der EU
http://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CONSIL:ST_11995_2017_INIT&from=EN

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Werkzeuge für das Safety-Management

Im Hintergrundgespräch mit der TREND-REPORT-Redaktion berichtet Harald Dunst, Competence Center Safety & Security bei der bit media e-solutions GmbH, über seine Software-Lösung als umfassendes Werkzeug für die Themengebiete Wartung und Sicherheit in Unternehmen.

Herr Dunst, welche Möglichkeiten bietet Ihre Lösung im Kontext der EU-DSGVO?
Mit „Phoenix Data Protection“ bietet bit media eine umfassende Lösung zur Umsetzung des Datenschutzes gemäß DSGVO in jedem Unternehmen an. Basis ist dazu vor allem das Verzeichnis der Verarbeitungen. Dieses überprüft automatisch korrekte Eingaben und bietet spezielle Hilfeleistungen z. B. im Bereich der Rechtmäßigkeiten oder der Datenschutzfolgenabschätzung.

Phoenix beinhaltet zusätzlich das gesamte Aufgabenmanagement sowie ein Datenschutzprotokoll, das sämtliche Informationen rechtssicher dokumentiert. Dazu gehört auch die Abbildung aller Betroffenenrechte oder von z. B. Auskunftsbegehren. Mit Phoenix können somit alle Vorgaben hinsichtlich der DSGVO perfekt verwaltet und dokumentiert werden.

Wie lange brauche ich, um die Lösung zu implementieren?
Nachdem Phoenix freigeschaltet wurde, sind nur einige wenige Schritte für die Einrichtung erforderlich. Im ersten Schritt werden die gewünschten Benutzer angelegt oder importiert. Es folgt die Eingabe von Daten zur Organisation, zu Personen- und Datenkategorien. Danach kann umgehend mit der Erfassung der Verarbeitungen begonnen und Aufgaben können verwaltet werden. Innerhalb weniger Arbeitsschritte ist der Benutzer somit startklar.

Wo werden meine Daten gehostet, sollte ich mich für Ihre Cloudlösung (SaaS) entscheiden?
Das Datenschutzmanagementsystem Phoenix wird als SaaS-Lösung in einem zertifizierten inländischen Rechenzentrum betrieben und gehostet. SaaS („Software as a Server“) bietet den Vorteil, dass ein Kunde die Anwendung nicht selbst installieren und betreiben muss, sondern umgehend mit der Nutzung der Software starten kann. Auf Wunsch werden aber auch gerne Installationsvarianten angeboten.

Welche Unternehmensbereiche decken Ihre Werkzeuge für Wartung und Sicherheit außerdem noch ab?
Die „Phoenix Safety Suite“ deckt neben Datenschutzmanagement auch die Themen Brandschutzbuch, Objekt- und Gebäudesicherheit sowie Arbeitsschutz und Wartung ab. Ein frei konfigurierbarer Themen- und Aufgabenkatalog definiert den jeweiligen Einsatzzweck – dementsprechend kann Phoenix in allen Bereichen eingesetzt werden, wo es um die Zuweisung von Aufgaben, Prüf- und Kontrolltätigkeiten, sichere Protokollierung, Mangelmanagement und zentrale Dokumentation aller Informationen geht.

Mit welcher Technologie und Methode haben Sie Ihre Lösung entwickelt?
Phoenix wurde auf Basis modernster System- und Webtechnologien entwickelt und ist sowohl auf Desktop-PCs als auch auf beliebigen mobilen Endgeräten nutzbar. Zusätzlich stehen APPs für Android und iOS zur Verfügung, mit erweiterten Funktionen wie z. B. Fotodokumentationen, QR-Code- Erkennung oder NFC-Unterstützung.

 

 

www.bitmedia.at
www.phoenix-management.net

Krypto-Stories

Die TREND-REPORT-Redaktion hat für Sie einige lesenswerte Geschichten aus dem Bereich der Krypto-Währungen zusammengetragen.

 

Pizzen für Bitcoins

Das erste dokumentierte Mal, dass Bitcoins tatsächlich als Zahlungsmittel für reale Güter eingesetzt wurden, geschah am 22. Mai 2010. Der Programmierer Laszlo Hanyecz wollte beweisen, dass das Kryptogeld tatsächlich als Zahlungsmittel funktioniert. Am 17. Mai bot er in einem Forum 10 000 Bitcoin für zwei Pizzas. Fünf Tage später ging jemand auf das Angebot ein und begann damit ein bankenunabhängiges Zahlungsmittel zu bestätigen.

Quelle: Seite „Bitcoin“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 21. März 2018, 10:40 UTC. URL: https://de.wikipedia.org/w/index.php?title=Bitcoin&oldid=175235281 (Abgerufen: 22. März 2018, 09:18 UTC)

 

Der geheimnisvolle Satoshi Nakamoto

Unter dem Pseudonym Satoshi Nakamoto ist der Erfinder der Kryptowährung Bitcoin bekannt, der im November 2008 die Referenzimplementierung Bitcoin Core entwickelte. Welche Person oder Personengruppe sich hinter diesem Pseudonym verbirgt, ist bis heute unbekannt. Seit dem Auftauchen 2008 wurden verschiedene Personen für Nakamoto gehalten oder haben die Identität für sich beansprucht.

  • Dorian NakamotoIm März 2014 behauptete das US-amerikanische Nachrichtenmagazin Newsweek in einer Titelgeschichte, den Kalifornier Dorian Satoshi Nakamoto als wahre Identität Nakamotos ermittelt zu haben. Der damals 65-jährige Mann veröffentlichte ein Dementi und ging rechtlich gegen das Magazin vor.
  • Craig Steven WrightAnfang Mai 2016 behauptete der australische Unternehmer Craig Steven Wright (* 1971), der Erfinder von Bitcoin zu sein. Das Pseudonym Satoshi Nakamoto habe er von dem historischen japanischen Philosophen Tominaga Nakamoto übernommen. Bereits im Dezember 2015 kamen die Computerzeitschrift Wired und das Blog Gizmodo zum Schluss, dass Wright hinter dem Pseudonym Nakamoto stehe. In der Signatur einer Mailadresse, die Nakamoto zur Kommunikation mit Bitcoin-Entwicklern nutzte, war eine Mobilfunknummer angegeben, die auf Wrights Namen zugelassen war.

    Wright veröffentlichte eine digitale Signatur, die nur durch Nakamotos privaten Schlüssel erzeugt werden kann. Wie sich herausstellte, war diese Signatur jedoch nicht frisch erstellt, sondern eine Kopie einer Signatur aus dem Jahr 2009. Nach wenigen Tagen zog Wright eine Ankündigung zurück, noch verifizierbare Beweise zu liefern, hielt aber die Behauptung aufrecht, Nakamoto zu sein.

    Anfang 2018 wurde Wright verklagt. Die Klage wurde von Ira Kleiman beim US-Amtsgericht des südlichen Bezirks von Florida eingereicht. Ira ist der Bruder des verstorbenen David Kleiman, eines Informatikers und Cyber-Sicherheitsexperten. Viele Leute vermuten, dass er einer der Entwickler hinter Bitcoin und der Blockchain-Technologie war. Laut dem Kläger Ira Kleiman, hat Wright aus David Kleimans Nachlass eine Summe von 1,1 Millionen BTC gestohlen. Das sind nach dem zu dieser Zeit anliegendem Kurs über 8,1 Mrd. Euro.

  • Dave Kleiman 

    Dave Kleiman (1967–2013) war ein IT-Forensiker, Autor mehrerer Bücher und Referent bei Veranstaltungen über Informationssicherheit. Er starb im April 2013 zuhause an einer Infektion durch MRSA-Bakterien. Es gibt Vermutungen, dass Kleiman Satoshi Nakamoto war oder dass er in einer Gruppe beteiligt war. Ein weiteres Indiz dafür ist, dass Nakamotos GMX eMail-Adresse spätestens ab September 2014 vermutlich einer anderen Person zur Verfügung stand. Kleiman verstarb im April 2013 und GMX löscht inaktive eMail-Adressen nach Ablauf eines Jahres, sodass jedermann Nakamotos eMail-Adresse neu hätte registrieren können.

  • Hal Finney
    Hal Finney war ein US-amerikanischer Softwareentwickler. Er hat Bitcoin mindestens mitentwickelt und ist als der erste Empfänger einer Bitcoin-Transaktion überhaupt bekannt geworden. Es wurden Spekulationen laut, er selbst stünde hinter dem Pseudonym Satoshi Nakamoto, was er aber energisch bestritt.
  • Elon MuskIm November 2017 mehrten sich Spekulationen, dass möglicherweise Elon Musk hinter dem Pseudonym Satoshi Nakamoto stecke. Auf der Online-Publishing Plattform Medium wurden diesbezügliche Artikel (unter anderem von einem Ex-Mitarbeiter Musks) veröffentlicht.

Quelle: Seite „Satoshi Nakamoto“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 10. März 2018, 20:14 UTC. URL: https://de.wikipedia.org/w/index.php?title=Satoshi_Nakamoto&oldid=174887528 (Abgerufen: 22. März 2018, 09:18 UTC)

Schlagzeile im Code

Das Bitcoin-Netzwerk entstand am 3. Januar 2009 mit der Schöpfung der ersten 50 Bitcoin und dem „Block 0“, dem sogenannten Genesis-Block seiner „Chain“. In dessen Coinbase wurde folgende Nachricht kodiert:

„The Times 03/Jan/2009 Chancellor on brink of second bailout for banks.“

Dies spielt auf den gleichnamigen Zeitungsartikel in der britischen Tageszeitung The Times während der Banken- und Finanzkrise ab 2007 an. Einige Tage später wurde unter dem Pseudonym „Satoshi Nakamoto“ auch die erste Version der Bitcoin-Referenzsoftware Bitcoin Core veröffentlicht.

Quelle: Seite „Bitcoin“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 21. März 2018, 10:40 UTC. URL: https://de.wikipedia.org/w/index.php?title=Bitcoin&oldid=175235281 (Abgerufen: 22. März 2018, 09:18 UTC)

 

Justiz macht Bitcoin zu Geld

Im Dezember 2017 mehrten sich die Schalgzeilen, dass die Justiz In Berlin, Bayern, oder Hessen beschlagnahmte Bitcoin zu Geld machen will. Zu deisem Zeitpunkt näherte sich der Bitcoin seiner Höchstmarke und beträchtliche Gewinne waren zu erwarten. Problem: Die Bitcoins können erst nach Abschluss der verschiedenen Verfahren veräußert werden. Die Mühlen der Justiz mahlen langsamer als der Bitcoin fiel, auch wenn die Gewinne immer noch beträchtlich sind.

 

Der teuerste Müll der Welt

Ebenfalls im Dezember letzten jahres kam die Frage auf, für wievile Geld sich das Umgraben einer Mülldeponie lohnt. Der Waliser James Howell, Bitcoin-Miner der ersten Stunde, schmiss 2013 eine Festplatte mit 7500(!) Bitcoin weg. Damit wäre er mittlerweile mehrfacher Millionär. Ein Ersuchen an die Stadtverwaltung, die örtliche Müllkipe zu durchsuchen wurde abgelehnt, da das Unterfangen zu aussichtlos sei.

 

Petro

Während in den meisten Staaten die Regulierung des Kryptomarkts stark diskutierrt wird, führte Venezuela einfach seine eigene Kryptowährung ein.

Der Petro ist laut Aussage des Chavistischen Regimes eine staatliche Kryptowährung Venezuelas. Es handle sich um die erste staatliche Kryptowährung weltweit, wobei es nicht klar ist, ob es sich um eine Kryptowährung handelt. Der Petro schien mit jeweils einem Barrel (159 Liter) der Rohölreserven gesichert sein, er kann aber „nicht einmal theoretisch“ derart eingelöst werden. Ziel der Regierung sei es in optimistischer Lesart, die Wirtschaft Venezuelas zu stabilisieren und so die Wirtschafts- und Versorgungskrise einzudämmen. Venezuelas reguläre Währung, der Bolívar Fuerte, leidet an einer Hyperinflation. Nach einer anderen Lesart wäre es ein Versuch der korrupten Kaste der Militärs und Regierungsvertreter, ihre Gelder außer Landes zu bringen.

Das Vorhaben wurde von der Nationalversammlung für illegal erklärt.

Der Verkauf von zunächst 38,4 Millionen von insgesamt 100 Millionen digitalen Münzen startete am 20. Februar 2018. Der Preis eines Petro entspricht dem eines Barrels Öl und wurde zum Start auf 60 Dollar festgelegt, soll sich aber Ölpreisschwankungen anpassen. Damit käme die neue Kryptowährung auf einen gesamten Wert von 6 Milliarden Dollar. Am ersten Verkaufstag habe man nach Angaben von Venezuelas Präsident Nicolas Maduro 735 Millionen Dollar eingenommen. Insgesamt hat die erste Verkaufsrunde nach Angaben der venezolanische Regierung mehr als drei Milliarden US-Dollar eingebracht. Am 20. März 2018 sollten weitere 44 Millionen Petro in Umlauf gebracht werden. Die USA haben vor dem Kauf gewarnt, weil es sich um einen Kredit für die venezolanische Regierung und somit um eine Verletzung der US-Sanktionen handele. Im März 2018 wurden alle Geschäfte mit der Kryptowährung in den USA von US-Präsident Donald Trump verboten.

Das Vorhaben wurde von der Nationalversammlung für illegal erklärt. Gemäß der Verfassung Venezuelas von 1999 verfügt die Nationalversammlung über das Budgetrecht. Jedoch ist die frei gewählte Nationalversammlung, in der die Opposition eine Zweidrittelmehrheit besitzt, vom Regime vollständig entmachtet. Da der Petro mit natürlichen Rohstoffen abgesichert wird, verstößt er gegen Artikel 12 der Verfassung.

Hintergrund des Vorhabens ist die seit Jahren bestehende Wirtschaftskrise in Venezuela. Der von der Regierung ausgerufene Sozialismus des 21. Jahrhunderts führte zu einem Zusammenbruch der Versorgung der Bevölkerung, der weltweit höchsten Inflation und dem venezolanischen Staatsbankrott von 2017.

Auch eine mit Gold abgesicherte Variante namens Petro Gold wurde von Maduro für Ende Februar 2018 angekündigt.

Kritik wurde am Konzept des Petro geübt, da es bei ihm an den üblichen Voraussetzungen Dezentralität und Transparenz fehlt, was „ziemlich genau das Gegenteil“ einer Kryptowährung ergäbe. Ebenfalls wurden Zweifel geäußert, ob es sich bei dem Petro überhaupt um eine Kryptowährung handelt, da er parallel zum Ölpreis schwanken soll und sich nicht nach Angebot und Nachfrage richtet. Der Petro ist aber auch kein Terminkontrakt auf Öl, da er nicht gegen Öl eingelöst werden kann und die Ölförderung Venezuelas schon auf Jahre hinaus für Kredite von Russland und China belehnt ist. Es wurden Vermutungen geäußert, dass es primär darum gehe, Gelder anonym außer Landes zu bringen.

Quelle: Seite „Petro (Kryptowährung)“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 20. März 2018, 12:00 UTC. URL: https://de.wikipedia.org/w/index.php?title=Petro_(Kryptow%C3%A4hrung)&oldid=175204698 (Abgerufen: 22. März 2018, 09:56 UTC)

 

 

 

Status Quo e-Privacy

Auswirkungen der Datenschutzgrundverordnung

Was ist die e-Privacy-Richtlinie?

Die e-Privacy-Richtlinie ist eine von der EU bereits im Jahr 2002 erlassene Richtlinien.
In dieser Richtlinie werden Vorgaben im Bereich des Datenschutzes für die elektronische Kommunikation geregelt. Ergänzt wurde sie 2009 durch die Cookie-Richtlinie, die z. B. eine Einwilligung und Aufklärung der Nutzer über das Setzen von Cookies auf Webseiten verlangt.

 

Cookies

Intention der Europäische Union ist es, mit der Cookie-Richtlinie die personenbezogenen Daten der Internetnutzer stärker zu schützen und unterscheidet hierbei zwischen technisch notwendigen und nicht notwendigen Cookies:

Technisch notwendige Cookies:
Zur notwendigen Datenspeicherung gehören Cookies, die für die Funktionen einer Website zwingend erforderlich sind. Das meint etwa das Speichern von Log-in-Daten, des Warenkorbs oder der Sprachauswahl durch sogenannte Session-Cookies.

Technisch nicht notwendige Cookies:
Nicht notwendige Cookies sind dagegen Textdateien, die nicht allein der Funktionsfähigkeit der Website dienen, sondern auch andere Daten erheben. Dazu zählen folgende: Tracking-Cookies, Targeting-Cookies, Analyse-Cookies, Cookies von Social-Media-Websites

Die Richtlinie verlangt also bei nicht notwendigen Cookies eine Opt-in-Lösung.

 

Exkursion Opt-in und Opt-out:
Opt-in: Cookies werden nicht von Beginn an gesetzt, sondern erst, wenn der Nutzer der Datenspeicherung zustimmt.
Opt-out: Cookies werden von Beginn an gesetzt – die User können der Datenspeicherung erst nachträglich widersprechen.

 

Gealterte Richtlinien

Seit 2002 hat sich unser elektronisches Kommunikatonsverhalten erheblich geändert. Das und die DSGVO fordern daher Neuregelungen, um die neuen Datenschutzregelungen und die bislang geltenden Regelungen zur elektronischen Kommunikation in Einklang zu bringen.

Diese bisherige Richtlinie soll in eine neue Verordnung überführt werden, an der die EU seit 2016 arbeitet. Diese wird spezifizierte Vorschriften zur elektronischen Kommunikation enthalten.

Der aktuellste Stand dieser Verordnung findet sich unter folgenden Link:
http://europa.eu/rapid/press-release_IP-17-16_en.htm

 

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

EU-DSGVO Checkliste

Die ultimative Compliance-Checkliste

Jedes Unternehmen mit Mitarbeitern in der Europäischen Union muss der EU-Datenschutzgrundverordnung (EU-DSGVO), die am 25. Mai 2018 in Kraft tritt, entsprechen. Sie sind sich nicht sicher, ob Ihr Unternehmen den Anforderungen tatsächlich gerecht wird?

Die Acht-Punkte-Checkliste der PeopleDoc GmbH hilft Ihrer Personalabteilung, die Anforderungen der neuen Regularien zu erfüllen.

Unter folgendem Link steht die Checkliste zum Download bereit:

EU-DSGVO-Checkliste

 

Weitere Informationen erhalten Sie unter:
www.people-doc.de

Quo vadis, Workspace-Management?

Gastbeitrag

AI, Sicherheit und Compliance im Fokus

 

Der digitale Arbeitsplatz der Zukunft wird sich viel schneller und häufiger wandeln als heute: Er muss sich spontan und intelligent dem Umfeld und der Zielsetzung des Anwenders anpassen, während er immer neue Angriffe abwehrt. Dabei ist stets die Compliance zu wahren – sowohl die Privatsphäre des Anwenders als auch die Lizenzierung. Oliver Bendig, CEO des Workspace- und Service-Management-Anbieters Matrix42, erläutert in diesem Beitrag, dass dies für IT-Abteilungen bedeutet.

 

US-Militärs würden das moderne digitale Arbeitsleben als „VUCA“-Welt bezeichnen: als Umfeld, das geprägt ist von Unbeständigkeit, Unsicherheit, Komplexität und Uneindeutigkeit (VUCA: Volatility, Uncertainty, Complexity, Ambiguity). IT-Leiter müssen mit einer immer komplexeren Lage fertigwerden, und dies mit stetig höherer Schlagzahl und trotz immer neuer Sicherheitsrisiken – aber mit konstanter Personaldecke.

 

Das zentrale Spannungsfeld: Die Endanwender fordern einen digitalen Arbeitsplatz, der personalisiert und nach Consumer-Manier bequem benutzbar ist; zugleich pochen Security-Verantwortliche und Datenschutzbeauftragte auf Sicherheit und Schutz der Privatsphäre nach dem Stand der Technik.

 

So rücken drei Aspekte für IT-Leiter in den Fokus: intelligente Automation, Sicherheit auf Geräte-, App und Datenebene sowie Compliance mit Lizenzbestimmungen und immer strengeren Regularien, etwa der DSGVO. Es wird mittelfristig nicht helfen, diese drei Punkte mit immer mehr Tools abzudecken. Vielmehr muss man sie zu einem schlüssigen Gesamtkonzept zusammenführen. Sonst wird die IT zwischen diese Aufgaben zerrieben.

 

Arbeitsplatz wird smarter

Der digitale Arbeitsplatz wird sich bald – eine gute Nachricht für das Client-Management-Team – automatisiert an die Anforderungen des Endanwenders anpassen: Künstliche Intelligenz (Artificial Intelligence, AI) wandert verstärkt in Endgeräte und den Digital Workspace hinein, erlernt das Verhalten des Benutzers und erleichtert ihm so den Arbeitsalltag.

Das äußert sich dann z. B. wie folgt: Schaltet der Benutzer das Endgerät ein, erkennt es ihn automatisch anhand biometrischer Merkmale – sei es am Fingerabdruck, Gesicht, an den Augen oder der Stimme. Dank Zugriff auf Terminkalender und Projektmanagement-Tool weiß der digitale Arbeitsplatz, welche Apps der Anwender nun voraussichtlich benötigt. So kann er ihm benötigte Unterlagen ebenso proaktiv vorschlagen wie etwa die App für das Web-Conferencing: „In einer Minute beginnt Ihre Team-Konferenz. Wollen Sie sich einloggen?“ Im Meeting sind dann die gemeinsam genutzten Ordner, Termine und Tools in direkter Reichweite.

Der Anwender wird seinen digitalen Arbeitsplatz von Gerät zu Gerät mitnehmen können, „Follow-me Workplace“ genannt. Dies kann per Automatismus erfolgen: Sobald der User den Schreibtisch verlässt, also die Bluetooth-Verbindung zwischen PC und Mobilgeräten verliert, wandern geöffnete Dateien per WLAN automatisch auf sein Tablet. Zudem wird der User Dateien gestengesteuert zwischen Endgeräten verschieben können: Per Wischgeste übernimmt er die Kundenpräsentation auf sein Tablet.

 

UEM im Wandel

Vieles im modernen Arbeitsumfeld wird sprachgesteuert ablaufen: „Alexa, hol den Kollegen Hans Maier vom Vertrieb mit ins Meeting!“ Auch das Anlegen von Trouble-Tickets wird sich auf virtuelle Assistenten verlagern: „Siri, bestelle neuen Toner für den Drucker im Konferenzraum!“ Welchen Toner und Drucker der User genau meint, erkennt das AI-gestützte Workspace-Management per Zugriff auf die Asset-Datenbank und den Raumplan des Facility-Managements sowie anhand von Geolokationsdaten des Smartphones.

Für das IT-Team bedeutet das: Viele Aufgaben von der Inventarisierung über das Configuration-Management bis hin zum Patching erfolgen künftig selbsttätig. Alexa, Siri und Co. werden als „virtueller First-Level Support“ einen Großteil der Routine-Tickets am Helpdesk abfangen. Das Client- und das Workspace-Management werden sich statt auf Geräte und Apps immer stärker auf die individuellen Anforderungen der Endanwender konzentrieren können – und müssen: Dank Self-Service, AI und flexibel anpassbarer Workflows wandelt sich das UEM vom Unified Endpoint Management zum „User Experience Management“.

 

Sicherheit per Biometrie und AI

Aus Sicht des Endanwenders hat diese AI-gestützte Effizienz oberste Priorität, aus Sicht des IT-Teams hingegen zählen Sicherheit und Compliance. Das leidige Thema Authentifizierung lässt sich, wie erwähnt, dank Biometrie deutlich besser absichern als durch Passwortrichtlinien, die einen Teil der Anwender nur zu lustlos gewählten Passphrasen und Post-it-Zetteln animinieren.

Biometrie schützt aber nicht vor Hacking-Angriffen mittels Phishing und Malware. Erforderlich sind hier deshalb Geräte- und Datenverschlüsselung ebenso wie ein automatisiertes Patch-Management und Endpoint-Security-Lösungen, um Endgeräte, Applikationen und Nutzerkonten zu schützen und ein Abfließen interner Daten zu verhindern.

Zu diesen Tools zählen Next-Generation-Antivirenlösungen ebenso wie die Machine-Learning-gestützte Echtzeitanalyse des Geräte- und Nutzerverhaltens sowie Prozesse und Werkzeuge für den schnellen, effektiven Umgang mit aufgespürten Infektionen und Eindringlingen („Post-Infection Protection“). Das bedeutet: Workspace-, Service- und Security-Management müssen möglichst stark zusammenwachsen. Ziel muss es sein, eine abwehrfähige und resiliente – also sich selbst schnell wieder stabilisierende – Workspace-Umgebung zu schaffen.

 

Licence Compliance und Datenschutz

Sicherheit bedeutet auch Rechtssicherheit: Die IT-Organisation muss stets den aktuellen Überblick über genutzte Lizenzen haben – trotz der Volatilität in der Softwarenutzung, die modernes Arbeiten mit sich bringt. Hier braucht die IT ein intelligentes Lizenzmanagement, das frühzeitig ankündigt, wenn die Lizenzierung in den „roten Bereich“ zu laufen droht.

Ebenfalls kritisch aus rechtlicher Sicht: die erwähnte ML-gestützte Echtzeitanalyse des Nutzerverhaltens, wie sie insbesondere US-Anbieter gerne propagieren. Hier werden deutsche Datenschutzbeauftragte zurecht hellhörig. Denn solche Verhaltensdaten werden zwar anonymisiert oder pseudonymisiert erhoben; letztlich aber ist es immer Sinn und Zweck derartiger Lösungen, einen Angriff oder ein auffälliges Verhalten auf einen bestimmten Client und somit Endanwender zurückführen zu können.

Für die IT-Organisation ist dies ein Dilemma: Technisch möglich ist die Echtzeitüberwachung bereits, doch berechtigte Privatsphäre-Interessen stehen ihr entgegen. Hier werden künftig nur zwei Mittel helfen, nämlich Transparenz und die von der DSGVO geforderte „Privacy by Design“ (produktimmanente Privatheit): Für den Anwender muss stets ersichtlich sein, welche Daten der Arbeitgeber über sein Nutzerverhalten sammelt. Zugleich wird die IT dem User – sei es via Betriebsrat oder direkt – das Zepter der Datenkontrolle übergeben müssen.

Das bedeutet konkret: Der Anwender kann sich per Betriebsvereinbarung oder per Mausklick bei Bestellung eines Workspace-Services im Service-Katalog für ein per SLA garantiertes Security-Level entscheiden. Er hat dann die Wahl: Entweder wird sein Umgang mit dem digitalen Workspace zu Security-Zwecken getrackt, und er erhält damit den bestmöglichen Service; oder aber er wählt aus Datenschutzgründen die Opt-out-Variante. Dies bedingt dann, dass er auf bestimmte Daten mit dem Firmen-PC und nur auf dem Firmengelände zugreifen kann, dass ein Arbeiten im Home Office ausgeschlossen ist, statt bequemer Apps der Umweg über ein VPN nötig ist oder USB-Ports am PC gesperrt sind. Vor diese Wahl gestellt, dürfte sich das Gros der Endanwender freiwillig für die bequemere – aber zugleich sichere – Variante entscheiden.

 

Neue Kompetenzen aufbauen

Dank Automation, AI, virtueller Assistenten und Self-Service werden viele Routineaufgaben des klassischen Endpoint- und Workspace-Managements schon in naher Zukunft wegfallen. Die primäre Aufgabe der IT-Organisation wird es künftig nicht mehr sein, den Betrieb am Laufen zu halten, sondern die IT gemäß den Unternehmenszielen weiterzuentwickeln. IT-Leiter sollten deshalb in modernes Workspace-, Service- und Security-Management ebenso investieren wie in AI-Technologien; zugleich aber sollten sie die Kompetenzen ihrer IT-Teams im Hinblick auf die anspruchsvolleren Aufgaben ausbauen, die jenseits der Automation auf sie warten.

 

Weitere Artikel finden Sie unter:
matrix42 / Blog

 

Autor: Oliver Bendig, CEO, Matrix42

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Zertifizierungsguide DSGVO

Quick Guide

 

Welche Datenschutzmanagement-Systemansätze können helfen, um die Erfüllung der Pflichten des Verantwortlichen im Kontext der DSGVO/ GDPR §24 und § 32 nachzuweisen?

Eine gute Basis bilden ISO 9001, ISO / IEC 27001 oder BS 10012:2017
in Verbindung mit einem Managementsystem gemäß Annex SL.

Warum? Standards helfen, die Anforderungen im Kontext der DSGVO/ GDPR im eigenen Unternehmen umzusetzen.

 

ISO 9001

Die Norm der International Organization of Standardization (ISO) steht für einen stetigen Verbesserungsprozess in Unternehmen. Organisationen sollten die aktuelle Revision der Norm von 2015 als Chance nutzen, um ihr Qualitätsmanagement (QM)-System weiterzuentwickeln sowie bestehende Strukturen und Prozesse zu hinterfragen. So kann die ISO 9001:2015 der Wegbereiter zu einem praxisnahen und nachhaltigen sowie modernen Managementsystem sein.

Hintergrund: Die EN ISO 9000 definiert Grundlagen und Begriffe zu Qualitätsmanagementsystemen. Erläutert werden die Grundlagen für Qualitätsmanagementsysteme und die in der Normen-reihe EN ISO 9000 ff. verwendeten Begriffe. 

Die aktuelle EN ISO 9001 wurde letztmals im Jahr 2015 überarbeitet (EN ISO 9001:2015-09).

„Sieben Grundsätze des Qualitätsmanagements“
1. Kundenorientierung
2. Verantwortlichkeit der Führung
3. Einbeziehung der beteiligten Personen
4. Prozessorientierter Ansatz und Systemorientierter Managementansatz
5. Kontinuierliche Verbesserung
6. Sachbezogener Entscheidungsfindungsansatz
7. Lieferantenbeziehungen zum gegenseitigen Nutzen

 

Qualitätsmanagement nach ISO 9001 hat die beständige Erfüllung von Kundenanforderungen und die Erhöhung von Kundenzufriedenheit im Fokus. In der ISO 9001:2015 kommt unter Punkt 8.5.3. „Eigentum der Kunden oder der externer Anbieter“ unter ANMERKUNG explizit der Begriff „personenbezogene Daten“ vor.

 
Die EU-DSGVO weist viele Parallelen zu Vorgehensweisen und Strukturen der Qualitätsmanagementnorm DIN EN ISO 9001 auf. Wer bereits über ein bestehendes QM-System verfügt, hat es leichter, den neuen Forderungen nachzukommen.

 

ISO / IEC 27001

Die internationale Norm ISO/IEC 27001 Information technology – Security techniques – Information security management systems – Requirements spezifiziert die Anforderungen für Einrichtung, Umsetzung, Aufrechterhaltung und fortlaufende Verbesserung eines dokumentierten Informationssicherheits-Managementsystems unter Berücksichtigung des Kontexts einer Organisation. Darüber hinaus beinhaltet die Norm Anforderungen für die Beurteilung und Behandlung von Informationssicherheitsrisiken entsprechend den individuellen Bedürfnissen der Organisation.

Hierbei werden sämtliche Arten von Organisationen (z. B. Handelsunternehmen, staatliche Organisationen, Non-Profitorganisationen) berücksichtigt. Die Norm wurde auch als DIN-Norm veröffentlicht und ist Teil der ISO/IEC 2700x-Familie.

 

Die ISO/IEC 27001 soll für verschiedene Bereiche anwendbar sein, insbesondere:

  • Zur Formulierung von Anforderungen und Zielsetzungen zur Informationssicherheit
  • Zum kosteneffizienten Management von Sicherheitsrisiken
  • Zur Sicherstellung der Konformität mit Gesetzen und Regulatorien
  • Als Prozessrahmen für die Implementierung und das Management von Maßnahmen zur Sicherstellung von spezifischen Zielen zur Informationssicherheit
  • Zur Definition von neuen Informationssicherheits-Managementprozessen
  • Zur Identifikation und Definition von bestehenden Informationssicherheits-Managementprozessen
  • Zur Definition von Informationssicherheits-Managementtätigkeiten
  • Zum Gebrauch durch interne und externe Auditoren zur Feststellung des Umsetzungsgrades von Richtlinien und Standards

Unternehmen die bereits über ein ISMS nach der internationalen Norm ISO/IEC 27001 verfügen, weiter machen!

 

BS 10012:2017

Jedes Unternehmen, das personenbezogene Daten verarbeitet, sollte sicherstellen, dass es die Privatsphäre der Menschen schützt, die betroffen sind. Der British Standard BS 10012:2017 umfasst Bereiche wie die Schulung der Mitarbeiter zu mehr Sicherheitsbewusstsein, Risikobewertungen, Vorratsdatenspeicherung und Datenvernichtung. Der Standard hilft Ihnen Richtlinien und Prozesse zu installieren, um personenbezogene Daten effizient zu verwalten.  

BS 10012:2017 bietet Ihnen den Rahmen für ein Datenschutz-Managementsystem, welches Ihnen unter anderem dabei hilft, die datenschutzrechtlichen Bestimmungen zu erfüllen.

 

Hintergrund:

Die British Standards Institution (BSI) ist eine Normungsorganisation. Der internationale Marktführer für Normen, Schulungen und Zertifizierungen, BSI Group, unterstützt bei allen Prozessen rund um die Normung – von der Normentwicklung und Zertifizierung von Abläufen oder Medizinprodukten über die Einführung von Softwarelösungen etwa für das Qualitätsmanagement oder Supply Chain Management bis zum Training und der Auditierung.

Die Organisation wurde im Jahre 1901 unter dem Namen Engineering Standards Committee unter der Leitung von James Mansergh gegründet. Ihre ursprüngliche Aufgabe war, die Normierung von Stahlsektionen, in erster Linie um die britische Industrie effizienter und konkurrenzfähiger zu machen. Mittlerweile existieren auch Verfahrens- und Sicherheitsnormen.

Als weltweit erste Normungsorganisation und Gründungsmitglied der ISO, hat BSI bis heute über 50.000 Normen entwickelt. Als globaler Spezialist für Branchenstandards hat BSI über 80.000 Unternehmen auf ihrem Weg zur Prozesseffizienz und Nachhaltigkeit begleitet,

Weiterführende Informationen finden Sie unter:

BSI Group / BS 10012:2017

 

 

ANNEX SL – Was ist das überhaupt?

Der Annex SL der ISO (International Organization for Standardization ) ist ein Leitfaden für die Entwickler von Managementsystemstandards und bildet die Basis für die neue ISO 9001:2015 und ISO 14001:2015.

Er stellt sicher, dass bei der Entwicklung von Managementsystemnormen eine gemeinsame übergeordnete Struktur und einheitliche Anforderungen angewendet werden. Für Unternehmen bedeutet dies, dass sie ihre Systeme künftig einfacher integrieren und entsprechend ihrer eigenen Strukturen weiterentwickeln können.

 

 

 

Aufmacherbild /Quelle / Lizenz
Pixabay / CC0 Creative Commons

 

 

Quellen:
https://de.wikipedia.org/wiki/Qualit%C3%A4tsmanagementnorm

https://de.wikipedia.org/wiki/ISO/IEC_27001

https://www.qz-online.de/news/uebersicht/nachrichten/annex-sl-leitfaden-fuer-die-entwicklung-und-ueberarbeitung-von-iso-standards-703805.html

Die Zukunfts des Service-Managements

Gastbeitrag

Digitalisierung macht ITSM strategisch 

 

Die vieldiskutierte „digitale Transformation“ bedeutet vor allem, dass Geschäftsprozesse hochgradig, im Idealfall vollständig IT-gestützt ablaufen. Der reibungslose IT-Betrieb wird somit geschäftskritisch – selbst in Bereichen, in denen er es nicht längst schon ist. Dadurch kommt auch den (IT-)Service-Prozessen ein deutlich höherer Stellenwert zu: Service-Management wird zum strategischen Erfolgsfaktor. Doch wie wird sich das äußern?

 

Das IT-Service-Management (ITSM) muss störungsfrei funktionieren, daran führt kein Weg vorbei. Denn es umfasst immer stärker das gesamte Unternehmen – nicht umsonst spricht man hier nicht mehr nur von ITSM, sondern von Business-Service-Management (BSM) oder Enterprise-Service-Management (ESM). Der Schritt zum ESM erfordert Automation, den Einsatz künstlicher Intelligenz – und vor allem ein vorausschauendes Prozessdesign.

Dazu muss man sich zunächst das enorme Potenzial von ESM vor Augen führen. Die folgenden vier Thesen sollen veranschaulichen, wie die digital transformierten Unternehmensprozesse aussehen könnten – und was dies für das Service-Management bedeutet.

 

  1. Das Unternehmen wird aus Endanwendersicht zur App.
    Ein durchschnittliches mittelständisches Unternehmen hat heute hunderte Applikationen im Einsatz, manche sogar über 1.000. Neue Mitarbeiter benötigen so Tage oder gar Wochen, bis sie ihren digitalen Workspace eingerichtet haben und ihrer Tätigkeit ungehindert nachgehen können.

 

Hier schaltet modernes Service-Management den Effizienz-Turbo hinzu: Ein neuer Kollege bekommt künftig einfach eine Message auf seinem Mobilgerät. Der dort enthaltene Link führt ihn zu einer App; nach deren Installation sieht er einen Servicekatalog mit allen Applikationen und Services, die die IT für ihn freigegeben hat: Einige sind je nach Rolle automatisch vorgegeben, andere kann er nach Belieben wählen. So ist er noch am ersten Tag voll arbeitsfähig. Verlässt er eines Tages das Unternehmen, löscht die IT einfach seine Zugriffsrechte für die Unternehmens-App. Das sorgt für Datensicherheit – auch im Sinne der DSGVO.

 

  1. Künstliche Intelligenz wird den Service-Desk nicht ersetzen.
    Um eine Störung zu melden, muss der Endanwender bald nicht mehr beim Helpdesk anrufen oder ein Trouble Ticket schreiben. Die einen werden es bevorzugen, dem in ihre App integrierten Chatbot die aktuelle Störung zu schildern, um einen Link zum passenden Knowledge-Base-Artikel zu erhalten; ist eine Störungsbehebung per Self Service nicht möglich, wird der Chatbot den User informieren, dass der Vorgang erfasst und automatisch angestoßen ist – und wann die Störung behoben sein wird.

 

Andere Nutzer werden lieber einem virtuellen Assistenten wie Alexa, Siri oder Cortana per Spracheingabe ihr Leid zu klagen: „Siri, das Display meines Rechners flimmert!“ Das ITSM-System erkennt das Gerät an der MAC-Adresse, erstellt ein Trouble Ticket, prüft das SLA sowie die historischen Reparaturzeiten und meldet dem Endanwender: „Ein Ticket zu Ihrer Störung ist angelegt, sie wird in X Stunden behoben sein.“ Den Status der Störungsbehebung kann der Anwender dann im Incident-Tracker seiner Unternehmens-App live mitverfolgen.

AI (Artificial Intelligence) in Form virtueller Assistenten und Chatbots ist hier dem Service Desk vorgeschaltet: Sie nimmt dem IT-Team jene lästigen Routineabläufe ab, die das Arbeiten im First Level Support bei IT-Mitarbeitern so unbeliebt machen. Der häufigste Grund für Support-Anrufe, das vergessene Passwort, lässt sich mittels hinterlegter Workflows sogar gänzlich automatisieren – oder gar per biometrischer Identifizierung ersetzen.

Viele Störungen gehen aber über banale Routinefälle hinaus: Sie betreffen komplexere technische Fehler, setzen Kenntnis der geschäftlichen Zusammenhänge jenseits der reinen Konfigurations- und Performance-Daten voraus oder erfordern „Fingerspitzengefühl“, also soziale Kompetenz. Das wird AI auf absehbare Zeit nicht leisten. AI kann das Service Desk Team somit zwar entlasten, das Personal wird aber weiterhin gebraucht: Es wird sich auf anspruchsvollere Aufgaben konzentrieren können – und müssen.

 

  1. Die IT-Abteilung muss ihre Services aktiv vermarkten, sonst landet sie „in der Cloud“.
    Die hausinterne IT steht längst im Wettbewerb mit Managed- und Cloud Service Providern: Viele Fachabteilungen ordern IT Services und Apps direkt aus der Cloud – die IT-Organisation nennt das „Schatten-IT“, aus Sicht der Betroffenen ist es aber schlicht „modernes Arbeiten“. Die interne IT muss einsehen, dass sie in manchen Fällen effizienter, unternehmens- oder benutzergerechter agieren kann als generische Cloud Services, in anderen Fällen aber eben nicht. Sie muss ihren Servicekatalog deshalb nutzen, um Endanwendern das Beste aus beiden Welten zu bieten – aus einer Hand, benutzerfreundlich und vor allen Dingen bequemer als der Bezug von Schatten-IT. Sonst wird sie durch die Cloud verdrängt.

 

Ein benutzerfreundlicher Servicebezug allein reicht aber nicht: Die IT muss schnell agieren können und dafür so viele Back-End-Prozesse wie möglich automatisieren. Doch selbst ein vollautomatisiertes IT Service Management ist nur ein Teilerfolg: Die IT muss mit den Fachabteilungen diskutieren, auf welche Weise deren Abläufe so effizient laufen können wie das vollautomatisierte ITSM.

Das oben beschrieben Onboarding eines neuen Mitarbeiters zum Beispiel ist ein digital transformierter HR-Prozess. Denkbar wäre aber noch viel mehr, von der digitalen Urlaubsplanung und -genehmigung über die Self-Service-Buchung von Fahrzeugen aus dem unternehmenseigenen Fahrzeugpool bis hin zum automatisierten Recruiting-Prozess.

Ein Beispiel: Der VP Sales benötigt einen neuen Vertriebsleiter für Süddeutschland. Heute erfasst sein Team dafür das Anforderungsprofil schriftlich per Web-Formular. Die HR-Abteilung stellt das Profil dann bei einer Reihe von Job-Portalen ein und ist anschließend wochenlang damit beschäftigt, Bewerbungen zu sichten und auszuwerten.

In Zukunft hingegen wird der VP Sales das Anforderungsprofil einfach in das unternehmenseigene Recruiting-Portal eingeben. Er klickt die gewünschten Kriterien an, gewichtet sie und wählt dann für die Personalsuche die Platinum-Variante aus: eine per SLA garantierte Suche mittels Headhunter mit Vorschlag der fünf bestgeeigneten Bewerber nach 14 Tagen. Die Verteilung des Profils auf die diversen Job-Portale übernimmt die ESM-Engine automatisiert im Hintergrund, der VP Sales erhält zwei Wochen später die fünf aussichtsreichsten Bewerbungen. Prozessautomation im Recruiting erleichtert dabei nicht nur die Mitarbeitersuche, sondern legt zugleich die Basis für professionelles Talent Relationship Management und somit für langfristige Mitarbeiterbindung.

Für den IT-Leiter oder CIO bedeutet das: Er muss die ITSM-gestützte Prozessoptimierung in den Fachabteilungen aktiv vermarkten. Dazu muss er auf die Fachverantwortlichen zugehen und aufzeigen, was mit hauseigener IT alles möglich ist – und dass man nicht auf Schatten-IT ausweichen muss.

 

  1. Ein Unternehmen, das sein Service Management nicht im Griff hat, findet bald keine Mitarbeiter mehr.
    Nein, der händeringend gesuchte Vertriebsleiter für Süddeutschland wird im Bewerbungsgespräch natürlich nicht fragen: „Haben Sie denn Ihr Service Management im Griff?“ Steht ein Unternehmen aber im Ruf, dass seine IT nicht „rund“ läuft, wird es zunehmend Probleme haben, die gewünschten Mitarbeiter zu finden. Denn im Zeitalter der Digitalisierung bedeuten mangelhafte IT-Service-Prozesse zwangsläufig auch mangelhafte Geschäftsprozesse – und die gesuchten Talente werden dieses Manko über Cloud Services ermitteln.

 

Der neue Vertriebsleiter, der erst mal zwei Wochen auf sein Notebook warten muss, ist dann schnell wieder weg. Im Unternehmen bleiben nur jene, die sich mit mangelhaftem IT-Betrieb zufriedengeben – keine gute Ausgangslage für wirtschaftlichen Erfolg.

 

Jenseits des Service Desks

Das IT Service Management war früher schlicht ein Werkzeug für den Service-Desk-Betrieb. Heute wandelt es sich zum strategischen, automatisierten und Self-Service-orientierten Enterprise Service Management. Denn Digitalisierung heißt eben nicht nur, dass man Geschäftsprozesse auf eine IT-Basis stellt: Zwingend nötig ist auch ein automatisiertes Service-Management, das den digitalen Betrieb verlässlich am Laufen hält.

 

 

weitere Artikel finden Sie unter:
matrix 42 / Blog

 

Autor:

Oliver Bendig ist CEO des Service-Management-Anbieters Matrix42 AG.

 

 

 

 

 

 

 

 

 

 

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Wie ein Fertigungsunternehmen seinen Markenauftritt digitalisierte

Gastbeitrag

Zur digitalen Transformation von Unternehmen zählt auch die Digitalisierung ihres Corporate Design. Damit der Markenauftritt in der digitalen Welt funktioniert, muss er gezielt weiterentwickelt werden. Ein Fallbeispiel aus der Fertigungsbranche.
Von Stefan Maack*

Ein Fertigungsunternehmen in Baden-Württemberg stand vor einer Herausforderung, mit der sich heute praktisch alle B2B-Unternehmen konfrontiert sehen, die schon länger am Markt agieren: Sein Corporate Design war vor allem für starre Printmedien konzipiert und damit nicht für die interaktiven und dynamischen Kanäle des digitalen Zeitalters gerüstet. Deshalb entwickelte es seinen Markenauftritt gemeinsam mit dem Beratungsunternehmen ARITHNEA für die modernen digitalen Touchpoints weiter.

Dabei galt es, einen Spagat zu meistern. Das vorhandene, am Markt eingeführte und den Kunden des Unternehmens vertraute Corporate Design musste transformiert werden, ohne dadurch die Marke zu kompromittieren. Der Markenauftritt sollte die Konventionen und Gegebenheiten jedes digitalen Kanals berücksichtigen können und gleichzeitig über alle diese Kanäle hinweg sofort wiedererkennbar sein und damit ein einheitliches Markenerlebnis sicherstellen.

Denn die Kunden des Unternehmens denken nicht in Kanälen, sondern in Bedarfen. Zur Erfüllung dieser Bedarfe legen sie in aller Regel eine „Customer Journey“ zurück, bei der sie mit verschiedenen Touchpoints in Berührung kommen und unterschiedliche Endgeräte nutzen. Dabei muss gewährleistet sein, dass sich die Marke nicht an jedem Touchpoint und auf jedem Endgerät plötzlich völlig anders anfühlt.

Vorhandenes Corporate Design wurde aufgebrochen

Die Lösung dieser Herausforderung lag im Aufbrechen des vorhandenen Corporate Design. Seine Basiselemente wie Farben, Formen oder Schriften wurden aufgegriffen und wo immer möglich, auch für die digitalen Kanäle eingesetzt. Verändert wurden einzelne Elemente immer nur dann, wenn es nötig war, um den Gegebenheiten und Konventionen der digitalen Kanäle Rechnung zu tragen und die Nutzerführung zu unterstützen. So war sichergestellt, dass immer mehrere zentrale Basiselemente des eingeführten Corporate Design vorhanden sind und es damit sofort wiedererkennbar ist.

Gemeinsam mit den Beratern von ARITHNEA entwickelte das Fertigungsunternehmen einen „Digital Style Guide“, also ein Verzeichnis mit Vorgaben, die sämtliche relevante Touchpoints und Kanäle abdecken. In diesem Guide ist beispielsweise festgelegt, dass auf der Website und im Online-Shop des Unternehmens das Logo immer links platziert wird, um die Nutzerkonventionen zu erfüllen. Die traditionelle Positionierung des Unternehmenslogos wurde damit aufgebrochen, denn in Printmedien befindet es sich klassischerweise immer auf der rechten Seite.

Darüber hinaus werden unterschiedliche Farben genutzt, um die Nutzerführung zu optimieren. Alle Links und Absprünge, die von der Website des Unternehmens in seinen Online-Shop führen, weisen eine andere Farbe auf, als die Links und Absprünge innerhalb der Website. Da die beiden Plattformen nahtlos miteinander integriert sind, würde der User erst einmal gar nicht realisieren, wohin er sich gerade bewegt. Durch die unterschiedlichen Farben wird ihm aber sofort signalisiert, dass er durch den Klick auf einen bestimmten Link in den Einkaufsbereich gelangt.

Zur Darstellung auf den kleineren Bildschirmen von Smartphones ist im Digital Style Guide außerdem der so genannte Schutzraum des Logos aufgebrochen. Für den Printbereich ist vorgeschrieben, dass rund um das Logo ein bestimmter freier Platz sein muss, in dem keine anderen Inhalte auftauchen dürfen. Würde diese Regel auch auf Smartphones angewandt werden, deren Displays ohnehin nur eine sehr beschränkte Fläche aufweisen, wäre der Platz für andere Inhalte zu stark limitiert.

Maschinendisplays und AR als besondere Herausforderung

Website und Online-Shop, die auf PCs, Tablets und Smartphones aufgerufen werden, sind aber nicht die einzigen digitalen Touchpoints, mit denen es das Fertigungsunternehmen zu tun hat. Um den Kunden die Bedienung seiner Maschinen und Geräte zu erleichtern, stattet es sie mit Touch-Displays für die Steuerung aus. Der Hintergrund dieser Displays machte es erforderlich, die Farben des Logos so anzupassen, dass es sich auch dort klar erkennbar abhebt.

Eine ganz ähnliche Herausforderung ergab sich bei einem weiteren Touchpoint, der heute noch gar nicht existiert. Um die Zukunftsfähigkeit des Corporate Design zu gewährleisten, wurde er aber dennoch bereits im Style Guide berücksichtigt. In absehbarer Zeit wird das Fertigungsunternehmen seinen Kunden Augmented-Reality (AR)-Apps anbieten, die sie bei der Wartung seiner Maschinen und Geräte unterstützen. Servicetechniker können sich dann mit AR-Brillen direkt über eine Maschine Informationen und Anleitungen einblenden lassen, die sie durch die Wartungsarbeiten führen. Mit Farbanpassungen im Digital Style Guide wurde sichergestellt, dass das Logo des Unternehmens dabei auch vor dem transparenten Hintergrund der AR-Brillen funktioniert.

Durch das Modernisierungsprojekt verfügt das Fertigungsunternehmen jetzt über einen durchgängig digitalisierten Markenauftritt. Da das vorhandene Design nicht einfach eins zu eins auf die digitalen Kanäle übertragen wird, ist nicht nur Irritationen oder gar Beeinträchtigungen der User vorgebeugt. Sie werden zusätzlich auch noch bei der Nutzerführung unterstützt.

Das Fertigungsunternehmen hat damit die Benutzerfreundlichkeit der digitalen Kanäle für seine Kunden erhöht und sich dadurch einen Wettbewerbsvorteil eröffnet. Last but not least hat es zudem ein dauerhaft einheitliches, unverwechselbares und zukunftsfähiges Markenbild geschaffen.

 

 

Weiterführende Informationen finden Sie unter:
https://www.arithnea.de/

 

 

Über den Autor

*Stefan Maack ist Business Unit Manager Kreation beim Digital-Business-Spezialisten ARITHNEA

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Chancen und Grenzen künstlicher Intelligenz

Gastbeitrag

Wie AI das Service Management verändert

 

Alle reden von Artificial Intelligence, um AI gibt es einen regelrechten Hype: Die Erwartungen sind enorm, die Ziele oft vage, konkrete Lösungen noch selten. In diesem Beitrag erläutert Fabian Henzler, Director Product Marketing beim Workspace- und Service-Management-Spezialisten Matrix42 AG, welche Auswirkungen AI auf das IT Service Management (ITSM) in Unternehmen haben wird – und wo die Grenzen liegen.

 

In Gartners „Hype Cycle for Emerging Technologies“ vom August 2017 lag AI – vertreten durch Deep Learning und Machine Learning (ML) – ganz an der Spitze der Hype-Kurve. Wie es weitergeht, ist klar: bergab. Überzogene Hoffnungen werden enttäuscht, bevor die neue Technologie dann letztlich Einzug in den Alltag findet. Bei Deep Learning und ML wird dies laut Gartner zwei bis fünf Jahre dauern, bei AI-basierten Virtual Assistants fünf bis zehn. Aber AI wird kommen.

Woher also die Enttäuschung? Heute herrscht oft die Erwartung vor, man könne AI als Produkt kaufen, und plötzlich funktioniere alles viel besser. Doch künstliche Intelligenz wird nicht auf dem Silbertablett serviert: Auch der AI-Einsatz erfordert Planung, Budget und Organisation, Unternehmen müssen geeignetes Personal finden, und die Implementierung wird – wie immer in der IT – Zeit und Nerven kosten.

Zunächst aber ist zu klären, wo AI überhaupt nützt. ITSM bietet gleich mehrere Anknüpfungspunkte. Sie reichen vom First Level Support über das Asset- und Problem Management bis hin zur Prozessoptimierung.

 

AI als Kollege im Service Desk

Viele kennen AI aus dem privaten Umfeld: Virtuelle Assistenten wie Alexa, Siri oder Google Home beantworten auf Zuruf Fragen oder stoßen einfache Aktionen an. So versteht es sich fast von selbst, dass AI an der Schnittstelle zwischen Endanwender und Service Management große Vorteile bietet: beim First Level Support. Dank Microsofts Bot Framework lässt sich solche Funktionalität in Service-Desk-Lösungen integrieren. Mit Chatbots und Virtual Agents kann eine IT-Organisation die Annahme von Trouble Tickets vollständig digitalisieren – sogar bis hin zur Störungsbehebung.

Ein Beispiel: Erhält ein Anwender eine unerklärliche Fehlermeldung, hilft AI-gestützte Bilderkennung bei der schnellen Behebung des Incidents. Ein Chatbot fordert den Anrufer auf, einen Screenshot des Fehlers zu senden; die Service-Management-Lösung analysiert den Screenshot mittels AI, erkennt den Fehler, füllt das Ticket aus und leitet es weiter. Die Software trackt die Incidents, und nach mehrmaliger deckungsgleicher Fehlerbehebung schickt sie dem nächsten Anrufer automatisch den Link zum passenden Knowledge-Base-Artikel zur Selbsthilfe auf sein Smartphone.

Ein anderes Szenario: Der Anwender meldet eine Störung mit „Alexa, mein PowerPoint stürzt immer ab.“ Die AI-gestützte Service-Management-Lösung kennt den Nutzer wie auch dessen Rechner. In der Knowledge Base ermittelt sie die beiden Lösungsvarianten. Alexa antwortet: „Sie können eine automatische Neuinstallation von PowerPoint anstoßen, das dauert 30 Minuten. Oder Sie können ein Austauschgerät erhalten, das dauert zwei Stunden.“ Der Nutzer entscheidet sich: „Neuinstallation!“ Die Service-Desk-Software stößt dies im Idealfall per integrierter Workspace-Management-Lösung direkt an. Eine halbe Stunde später meldet Alexa dem Nutzer den Abschluss der Installation und fragt nach seiner Zufriedenheit. Er gibt fünf Sterne für den perfekten Service, das Ticket wird automatisch geschlossen.

 

Integration ist der Schlüssel

In beiden Fällen ist die Einbindung der AI in das Service- und Workspace Management elementar: Dank Integration in das Active Directory, die ITSM-Lösung, die Knowledge Base und die CMDB kennt die AI-Software die Rolle des Endanwenders, seine IT-Ausstattung und Lösungswege. Bei Zugriff auf das Projekt-Management-Tool weiß sie sogar, ob der Anrufer in der heißen Phase eines Projekts steckt und deshalb priorisiert zu bearbeiten ist. Dies sorgt für kundenfreundliche Abläufe sowie zeit- und kostensparende Prozessautomation.

Doch virtuelle Agenten bringen bei Routine-Incidents noch weitere Vorteile: Mitarbeiter im First Level Support müssen selbst angesichts verärgerter oder gestresster Kunden stets freundlich bleiben – für Alexa und Co. kein Problem. Die Technik ist zudem längst so ausgereift, dass ein Virtual Agent sogar die Stimmung des Kunden an dessen Stimme erkennt – und so den wütenden Vorstand gleich zum Second Level Support durchstellen kann.

Für den Service Desk bedeutet dies: Virtual Agents werden als vorgeschaltete Support-Instanzen helfen, zeitraubende Routinefälle zu automatisieren. So kann sich das IT Team besser um das anspruchsvollere Exception Handling kümmern. Denn AI wird die Support-Kollegen aus Fleisch und Blut bis auf Weiteres nicht ersetzen, sondern bestenfalls ergänzen: Komplexe Problemfälle erfordern Intuition, soziale Kompetenz und Wissen um den Geschäftskontext – da stößt AI an Grenzen.

 

Hinter den Kulissen

Ihre Stärken kann AI „hinter den Kulissen“ erst so richtig ausspielen. So vereinfacht z. B. Machine Learning zusammen mit Big-Data-Analysen die Inventarisierung, das Asset- und das Configuration Management: ML-Tools erlernen in Massendatenbeständen schnell die Zusammenhänge zwischen Assets, Usern und Services – selbst wenn diese in den diversen Datentöpfen nicht identisch, sondern nur ähnlich bezeichnet sind (z. B. mal „Office365“, mal „Microsoft Office 365“). Denn AI kann mit semantischer Unschärfe umgehen und ist – anders als die klassische Schlagwortsuche – nicht auf identische Begriffe angewiesen.

So kann man Assets automatisch einem Service oder einer Applikation zuordnen (Application Dependency Mapping, ADM), analysieren und visualisieren. ADM ist heute noch sehr kostspielig; ein ML-gestütztes Service Management wird künftig automatisiert generierte Service Maps auch dem Mittelstand zugänglich machen – sogar inklusive extern bezogener (Cloud-)Dienste samt Tracking der Service-Nutzung.

Mittelfristig wird AI das Problem Management beschleunigen: Bei wiederkehrenden Fehlern können ML-Tools die Ursachenforschung erleichtern, also z. B. bei gehäuften Störungen in einem Bürotrakt erschließen, dass der Etagen-Switch ausgefallen ist. Bei Bedarf kann ML-Software das Internet nach Lösungsvorschlägen absuchen – und wiederum in unterschiedlichsten Knowledge Base Lösungen finden, selbst wenn die Beschreibungen variieren. Die Lösungswege ordnet das ML-gestützte Service Management dann automatisiert dem Trouble Ticket zu.

Letztlich berührt AI sogar den Kern der IT und des Business: die Prozesse. Schon heute kann eine Fachabteilung mittels BPMN (Business Process Model and Notation) und einem Tool wie Matrix42 Workflow Studio bequem neue Workflows erstellen, die Lösung übersetzt sie dann automatisch in konkrete Konfigurationen. Künftig wird es mittels einer AI-Instanz möglich sein, diese individuellen Abläufe zu analysieren und dynamisch zu optimieren. AI vergleicht dazu die neuen Workflows und Prozesse selbsttätig mit bestehenden Best Practices. So deckt sie Prozessfehler auf, um die IT-Prozesse – und letztlich sogar beliebige Abläufe vom Facility Management bis zum Recruiting – schneller, effizienter und kostengünstiger zu machen.

 

Nicht nur auf AI setzen

AI wird einen enormen Effizienzsprung bringen – im ITSM wie auch generell beim Management digital transformierter Geschäftsprozesse. Insbesondere bei der Analyse von Massendaten wird AI ihre Stärken ausspielen. Dabei hat der AI-Einsatz jedoch, wie oben beschrieben, seine Grenzen, wenn es um Kenntnis des Kontexts außerhalb der Massendaten und um soziale oder Business-Aspekte geht.

Deshalb zu guter Letzt ein Tipp: Setzen Sie nicht allein auf AI!

Matrix42 Pilotkunden-Projekte haben gezeigt, dass Alexa weder in Großraumbüros noch in Einzelbüros am nachhaltigsten genutzt wird, sondern in Konferenzräumen: Immer wieder bereitet die Präsentationstechnik Probleme, deren Lösung man dann gern per Alexa anfordert – muss man aber nicht!

Denn die IT kann heute schon mittels der ihnen zur Verfügung stehenden Daten problemlos ermitteln, bspw. nach welcher Nutzungsdauer eine bestimmte Beamer-Glühbirnen den Dienst versagen wird – um sie rechtzeitig auszutauschen. Das kann bereits mit Bordmitteln eines ordentlichen Service- und Asset Management passieren. Das kostet weder viel Zeit noch viel Geld, und die Teambesprechung des Vertriebs kann dann ebenso ungestört stattfinden wie die Vorstandssitzung.

Für viele solcher sofort wirkungsvollen Verbesserungsmaßnahmen braucht man weder Predictive Maintenance noch AI – nur die inventarisierten Daten und ein wenig Kreativität.

 

Weiterführende Informationen:
matrix42 / Blog

 

Autor: Fabian Henzler

Fabian Henzler, Director Product Marketing beim Workspace- und Service-Management-Spezialisten Matrix42 AG

 

Aufmacherbild / Quelle / Lizenz
Image by Tung Nguyen from Pixabay

Den Kunden richtig verstehen

Der Handel hatte es immer schon schwer – Kundenbindung ist nicht leicht zu erzielen und der Preiskampf tobt. Dies gilt für alle Sparten, sei es der Lebensmittelhandel, die Elektronikmärkte oder Autohäuser. Zudem kamen mit Internetplattformen wie Amazon oder Zalando weitere Akteure auf dem Markt, der alteingesessenen Einzelhändlern, aber auch den Einzelhandelsketten das Leben schwermachen. Der Handel ausschließlich über das Internet ermöglicht es diesen Anbietern, kostengünstiger und zielgerichteter anbieten zu können.

Nun ist einer der Vorteile, die Internet-Versandhändler für sich verbuchen können, die weitreichende Kenntnis über die Wünsche und Befindlichkeiten des Kunden. Aufgrund ihres Surfverhaltens, ihrer Klicks und der Verweildauer auf den Seiten, können Betreiber genau analysieren, welche Produkte den Kunden gefallen. Aus dieser Information werden Kaufempfehlungen generiert. Dies erzeugt eine große Menge an Daten, besonders bei Marktführern. Diese Daten können mit herkömmlichen Systemen, die teilweise manuelle Eingriffe erfordern, nicht mehr abgebildet werden.

Doch wie stellt sich das Problem genau? Sicher werden Daten zu den Kunden und ihren Bewegungen erfasst. Diese Daten liegen in den verschiedensten Formaten vor und werden auch oft in isolierten Datensilos hinterlegt. Möchten Händler nun beispielsweise eine Marketingaktion durchführen, steht ein Teil der dafür benötigten Informationen nicht sofort zur Verfügung.

Stimmung der Verbraucher wichtig

Dabei ist besonders für den Vertrieb von Markenartikeln sowohl für den Handel als auch für den Hersteller ein umfassendes Bild vom Markengefühl der Konsumenten wichtig. Die Wahrnehmung eines Markenimages lässt sich nur auch vielen verschiedenen Quellen analysieren. Der Umsatz des jeweiligen Produktes lässt nur eine Momentaufnahme zu. Welche Rolle Werbung, die Vorgehensweise des Wettbewerbs oder Produktinnovationen spielen, bleibt ohne valides Datenmaterial weitgehend ungeklärt. Eigene Marketingstudien könnten zeitaufwändig und teuer sein – und dabei nicht immer zum korrekten Ergebnis kommen.

Jedoch können die unterschiedlichsten Datenquellen in einem Big-Data-System zusammengefasst werden. Im Gegensatz zu gängigen Lösungen verarbeiteen Big-Data-Lösungen die Informationen in unterschiedlichsten Formaten – sei es strukturiert oder unstrukturiert – und aus unterschiedlichen Quellen. Diese Connected-Data-Plattformen verarbeiten nicht nur die Daten der Unternehmens-IT, sondern analysieren darüber hinaus soziale Medien wie Twitter, Facebook, LinkedIn, Xing oder relevante Foren oder Blogs von Influencern. Dabei lässt sich mittels einer passenden Adaption auch die Stimmung („Mood“) der Konsumenten auf diesen Plattformen messen. So können Unternehmen Stimmungsschwankungen rechtzeitig bemerken und mit gezielten Kommunikationsmaßnahmen begegnen. Besonders bei der Planung von Promotions, ob nun Online oder vor Ort im Handel, zahlt sich die rechtzeitige Erfassung von Moods aus.

Wo ist mein Kunde?

Neben der Erfassung der Kundenstimmung sind natürlich auch Informationen über die aktuelle Affinität der Zielgruppe für den Geschäftserfolg entscheidend. Bei Nutzung entsprechender Dienste können beispielsweise der Aufenthaltsort der Konsumenten analysiert und entsprechende Angebote in den Werbeplätzen mobiler Apps ausgespielt werden. So können Filialisten ihre Angebote in Echtzeit über Couponaktionen steuern.

Auch beim Online-Shopping ist Big Data mittlerweile zum Standard geworden. Konsumenten, die sich online über ein Produkt informieren oder sich Informationen über eine relevante oder ihr verwandte Produktkategorie ansehen, hinterlassen viele Clickstream-Daten. Über den Klickverlauf wissen Online-Händler, welche Webseiten attraktiv sind und wo ihre Kunden besonders lange verweilen. Um das riesige Volumen an anfallenden Daten sinnvoll auszuwerten, führt eine Connected-Data-Plattform diese unstrukturierten Daten zusammen und führt eine Analyse in Echtzeit durch. Das schließt allerdings nicht nur das Surfverhalten der Webseitenbesucher ein, sondern auch andere Elemente wie etwa der Warenkorb. Die dort enthaltenen– wie auch die hinzugefügten, aber dann wieder entfernten – Produkte verhelfen ebenfalls zur Entscheidungsfindung für die Gestalter des Online-Shops.

Mit zunehmendem Wettbewerbsdruck auf Handel und Hersteller wird die Nutzung von Big Data folglich immer relevanter. Jedes Jahr verdoppelt sich die Menge an Daten. Rund 90 Prozent beziehen sich dabei nicht auf die klassischen Geschäftstransaktionen. Überdies sind diese Daten nicht statisch, die Datentypen vermehren sich auch. Mit Informationen, die sich vermehrt aus sozialen Medien, Telemetrie ergeben oder aus Sensoren stammen, sind nun Systeme gefragt, die mir einer schieren Anzahl an solchen Daten umgehen können. Denn diejenigen, die nicht nur aufgrund der bisherigen Historie Schlüsse für ihre nächsten Schritte ziehen können, sondern das Kundenverhalten auch prognostizieren können, werden sich auf Dauer auf dem Markt durchsetzen können.

 

Alle Beiträge von Christopher Rummel anzeigen

 

Über den Autoren

Christopher Rummel ist als Regional VP Sales für Hortonworks tätig und ist unter anderem für die Geschäftsentwicklung des Unternehmens im deutschsprachigen Raum verantwortlich. Vorher bekleidete er ähnliche Positionen bei Unternehmen wie bei EMC oder der Parametric Technology Corporation in Tokio.