3D-Technik macht Losgröße Eins greifbar

Gastbeitrag

Wie die 3D-Technik auch das älteste Auto am Laufen halten kann

Der besondere Charme bei Oldtimern liegt gerade darin, dass sie schon lange nicht mehr gefertigt werden. Zum Bedauern ihrer Besitzer trifft das in aller Regel auch auf die Ersatzteile der Fahrzeuge zu.

Genauso schwierig kann sich die Suche nach Originalersatzteilen für ältere Industriemaschinen gestalten, für die keine Baupläne mehr vorliegen. Ob ein per 3D-Druck gefertigtes Ersatzteil im Bedarfsfall Abhilfe schaffen kann, hängt im Wesentlichen davon ab, ob ein druckbares 3D-Modell für das Bauteil erstellt werden kann, ob der Druck realisierbar ist und ob das per 3D-Druck gefertigte Ersatzteil der physischen Belastung im realen Betrieb standhalten würde.

An konkreten Lösungen, die von der 3D-Erfassung von Bauteilen bis hin zum 3D-Druck von virtuell reparierten Ersatzteilen reichen, arbeiten Wissenschaftler im Projekt M3D, das vom Bundesministerium für Wirtschaft und Energie (BMWi) innerhalb des Technologieprogramms PAiCE gefördert wird.

Im Zuge von Industrie 4.0 verändert sich die Produktion mehr und mehr hin zur Losgröße eins, sprich zur individuellen Fertigung. Man spricht dabei auch von »highly customized mass production«. Ziel von M3D ist es, die gesamte Prozesskette von der mobilen 3D-Erfassung bis hin zum 3D-Druck in einem industriellen Umfeld zu untersuchen, zu beschleunigen, flexibler zu gestalten und zu automatisieren.

 

Autonomer 3D-Laserscanner arbeitet in Echtzeit

Bislang ist die individuelle Fertigung noch weitestgehend Zukunftsmusik. Das Projekt M3D holt die Vision von der Losgröße eins nun jedoch mit einem neuartigen 3D-Scansystem einen großen Schritt weiter in Richtung Realität. Das Besondere an dem System: Es ermöglicht erstmals, Bauteile autonom zu scannen – und zwar in Echtzeit.

Auch ein langwieriger Anlernprozess entfällt. Für Oldtimer-Besitzer mit einem kaputten Bauteil heißt das: Das defekte Bauteil wird notdürftig zusammengeklebt und auf einen Drehteller gelegt, der sich unter einem Roboterarm mit dem Scanner befindet. Alles Weitere geschieht automatisch: Der Roboterarm fährt den Scanner so um das Bauteil herum, dass er mit möglichst wenigen Scans die komplette Bauteil-Geometrie erfassen kann. Dafür braucht er, je nach Größe und Komplexität des Bauteils, nur einige Sekunden bis wenige Minuten.

Bereits während des Scans erstellen intelligente Algorithmen im Hintergrund ein dreidimensionales Abbild des Objekts. Eine anschließende Materialsimulation des 3D-Abbilds überprüft, ob ein 3D-Druck den Anforderungen in punkto Stabilität genügt. In einem letzten Schritt wird das Bauteil über einen 3D-Drucker ausgedruckt und kann im Oldtimer verbaut werden.

 

Kein Anlernen nötig: Wie geschaffen für Industrie 4.0

Die Entwicklungsleistung liegt jedoch nicht in der Scanner-Entwicklung an sich, sondern vielmehr in der Kombination eines flexiblen Scanners mit einer intelligenten Ansichtenplanung zu einem autonomen Gesamtsystem. Dabei planen Algorithmen ausgehend von einem ersten Scan des zu erfassenden Objektes iterativ weitere Scans, um das Objekt letztlich mit möglichst wenigen Scans erfassen zu können.

Diese Vorgehensweise ermöglicht es dem autonomen Gesamtsystem, ihm vollkommen unbekannte Objekte selbständig und schnell zu vermessen. Dies ist bislang einmalig, denn für herkömmliche Scan-Systeme ist es erforderlich, sie entweder anzulernen, um anschließend ähnlich gestaltete Objekte scannen zu können oder das 3D- bzw. CAD-Modell des Bauteils zu besitzen, um dadurch die Lage des Objekts relativ zum Scanner ermitteln zu können. Für die Losgröße eins sind solche herkömmlichen Scan-Systeme daher wenig geeignet.

Das Scansystem von M3D dagegen kann jedes beliebige Bauteil vermessen, unabhängig davon, wie es ausgerichtet ist und braucht nicht angelernt zu werden. Auch Informationen zu CAD-Modellen oder Templates – also die Vorgaben von Standardformen, die ein Bauteil üblicherweise aufweist – sind für den Scan nicht nötig.

 

Industrie 4.0 Fertigungsassistent

Durch seine Alleinstellungsmerkmale ermöglicht der autonome Scanner aber auch gänzlich neue Anwendungen. So kann er später etwa als Fertigungsassistent dienen und die Zusammenarbeit von Mensch und Maschine verbessern, etwa beim Zusammensetzen von Baugruppen.

Das 3D-Scansystem wird den Roboter künftig in die Lage versetzen können, über Abgleiche mit entsprechenden Datenbanken sowohl zu erkennen, welches Bauteil er gerade vor sich hat, als auch zu ermitteln, welche Bauteile sein menschlicher Mitarbeiter zum Zusammensetzen der Baugruppe als nächstes braucht. Abschließend kann die Maschine per Scan auch die finale Qualitätskontrolle übernehmen.

 

 

Weiterführende Informationen finden sie unter:
https://www.digitale-technologien.de/DT/Redaktion/DE/Standardartikel/PAICEProjekte/paice-projekt_m3d.html

 

Unsere Autoren:

Pedro Santos
Head of Competence Center
Cultural Heritage Digitization
Fraunhofer Institute for Computer Graphics Research IGD
Fraunhoferstrasse 5 – 64283 Darmstadt – Germany

Phone
+49 6151 155 472
+1 650 644 1346
+49 160 97804959
Fax
+49 6151 155 139
pedro.santos@igd.fraunhofer.de

 

 

Dr. Tom Kraus
Begleitforschung PAiCE – Arbeitsgruppe 3D
VDI/VDE Innovation + Technik GmbH
Steinplatz 1 – 10623 Berlin
Tel. +49 30 310078-5615 –
Fax +49 30 310078-216
tom.kraus@vdivde-it.de

 

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

 

 

 

Rückblick PM-Tage 2018 Sustainability

Sustainability – Verantwortung und Können im Projektmanagement für eine erfolgreiche Zukunft

 

München, 21.03.2018 Bei den PM-Tagen der Tiba Managementberatung am 14. und 15. März drehte sich dieses Mal alles um Nachhaltigkeit. Das jährliche Forum für Entscheider im Projektmanagement ging dabei der Frage nach, was Sustainability für Unternehmen unterschiedlicher Branchen und Größen bedeutet und welche Anstrengungen unternommen werden, um nachhaltig zu handeln und zu wirtschaften.

Tiba-Gründer und Geschäftsführer Till Balser erklärte in seiner Key Note, was er unter nachhaltigem Handeln versteht. Er setzt den Begriff Sustainability mit Verantwortung gleich. „Ein Manager muss sich den Sustainability-Themen verschreiben und menschenschonend, planetenschonend und ökologisch schonend agieren“, so Till Balser in seiner Key Note.

Seine Interpretation geht jedoch noch sehr viel weiter: „Ein Projektleiter hat auch Verantwortung für die Zeit danach.“ Als Beispiel nennt er unter anderem den Grenfell-Tower in London, wo Fehlentscheidungen an entscheidenden Stellen zu einer Katastrophe geführt haben. Er plädiert dafür, Projektleitern auch die Verantwortung über das Ende eines Projektes hinaus zu geben und Verantwortlichkeiten über Projektphasen hinweg klar zu regeln.

 

Referenten

Hochkarätige Referenten berichteten an den beiden Veranstaltungstagen über ihre persönliche Interpretation des Begriffs Sustainability und das Vorgehen ihrer Unternehmen. Zu den Referenten gehörten Dr. Manuel Metz vom DLR Raumfahrtmanagement (How do we build a sustain.able space by global project management?), José Reyes González von Copa Airlines bzw. der Panama Canal Authority (Sustainability in project management – The impacts of projects to the society) und Alexander Rauch-Adam von Coca-Cola European Partners Deutschland (Operational excellence – sustain.ability3 [people.process.project]).

Mehrere Vorträge befassten sich zudem mit dem Wandel, den zum einen das Streben nach nachhaltigem Handeln, zum anderen auch die Digitalisierung mit sich bringen. Florian Waßner von KUKA Systems sprach über die umfassenden Veränderungen im Projektmanagement seines Unternehmens und darüber, welche Herausforderungen sich für die Mitarbeiter in diesem Zusammenhang ergeben.


Nachhaltigkeit im Zeichen von Change und Disruption

Mit dem Thema Change beschäftigten sich zudem die Vorträge von Johann Urban von der Sparkasse im Landkreis Cham, der über sein Projekt „Zukunft gestalten“ sprach und verdeutlichte, was die Disruption im Bankensektor für die Branche bedeutet, sowie Christoph Roth von Daimler, der aufzeigte, vor welchen Herausforderungen die Automobilbranche in disruptiven Zeiten steht. Ebenfalls aus der Automobilbranche kam Wolfgang Frank (Volkswagen). Er sprach über den Zwiespalt von kurzfristiger Zielerreichung und nachhaltigem Projekterfolg und schloss damit an die Key Note von Till Balser an.

Außerdem als Referenten dabei waren Carl-Friedrich zu Knyphausen von Zalando (Übergang von Single Project Environment zu Multi Project Environment), Dr. Andrea Hauk von Roche Diagnostics (Hilfe! Eine Frau managt unsere Projekte … Ein Blick hinter die Kulissen) sowie Gregor Biedermann von Fujitsu (Globalisierung im Produktgeschäft).

Diskutiert wurde im Rahmen der Interaction on Stage, an der auch der engagierte Menschenrechtler, Journalist und ehemalige Cap-Anamur-Chef Elias Bierdel teilnahm. Er warf der internationalen Wirtschaft vor, viel zu wenig in Sachen Umwelt und Menschenrechte zu unternehmen. Er forderte die Teilnehmer dazu auf, weniger profit-orientiert zu agieren und das Thema Nachhaltigkeit endlich ökologisch und sozial zu interpretieren.

In zahlreichen Workshops konnten sich die Teilnehmer darüber hinaus nicht nur mit frischem Wissen zu Themen wie Agilität, Leadership und Digital Thinking bereichern, sondern sich gleichzeitig auch direkt austauschen und networken.

Die Key Note zum Abschluss kam von der Chefreporterin Ausland der RTL-Gruppe, Dr. Antonia Rados. Die promovierte Politikwissenschaftlerin und profunde Kennerin der arabischen Welt sprach über „Die Kunst der Vermeidung nachhaltiger Zerstörung“, gab Einblicke in die politische Situation in der arabischen Welt und die Herausforderung, als Frau aus Krisenregionen und Kriegsgebieten zu berichten.

 

PM-Tage 2019

Nähere Informationen zu den PM-Tagen 2019,
welche unter dem Motto „Shaping the Future“ stattfinden,
erhalten Interessierte bereits unter www.pmtage.de.

 

 

 

Weiterführende Informationen finden Sie auch unter:

TIBA Managementberatung GmbH
TIBA Blog

 

 

Über Tiba 

Die Tiba Managementberatung ist die führende Gesellschaft der Tiba-Gruppe. Sie hat sich auf Beratung und Training rund um das Thema Projektmanagement, Change Management und Prozessmanagement spezialisiert. Zudem unterstützt das 2016 gegründete Kompetenz Center Digitale Transformation mit Beratung, Dienstleistung und Bereitstellung von Ressourcen Unternehmen auf dem Weg ins digitale Business.

Seit der Gründung vor fast 30 Jahren wurden über 400 Unternehmen beraten und circa 65.000 Personen trainiert. Zu den Kunden der Tiba zählen Unternehmen aus den Branchen Pharma, Automotive und Logistik, Energieversorgung, Luft-/Raumfahrt, Finanzdienstleistung, Maschinen- und Anlagenbau sowie IT und Telekommunikation. Die Tiba Gruppe hat Gesellschaften in Deutschland, Spanien und in den USA. Mit Projektmanagement-Experten und Partnern aus verschiedenen wissenschaftlichen Disziplinen ist die Tiba eines der führenden Beratungsunternehmen für Projektmanagement in Deutschland, mit ihrem weltweiten Partnernetzwerk unterstützt Tiba als globaler Projektmanagementpartner viele weltweit agierende Unternehmen.

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay/ CC0 Creative Commons

Zeit zum Handeln

Der 25. Mai 2018 ist für den Datenschutz in Europa ein entscheidender Termin. Ab diesem Datum müssen alle Unternehmen, die personenbezogene Daten von EU-Bürgern verarbeiten und speichern, nachweisen, dass sie die Anforderungen der EU-Datenschutzgrund­verordnung einhalten. Ansonsten kann es teuer werden.

Der Countdown läuft. Viele Unternehmen haben sich frühzeitig mit der EU-Datenschutzgrundverordnung (EU-DSGVO) befasst und sind bereits weit fortgeschritten. Vor allem Unternehmen aus Branchen wie Banken, Gesundheitswesen, Pharmazie oder Versicherungen befinden sich auf der Zielgeraden. Anders sieht es im Mittelstand aus. Aus Gesprächen und Anfragen lässt sich schließen, dass einige die Relevanz und den Aufwand für die Umsetzung der EU-DSGVO unterschätzt haben.

Noch ist es auch für sie nicht zu spät, auch wenn sie bis zum Stichtag nicht mehr alle Anforderungen bis ins Detail erfüllen können. Unternehmen, die erst jetzt aktiv werden, sollten bei einer ab Sommer möglichen Überprüfung durch das für sie zuständige Landesamt für Datenschutzaufsicht auf jeden Fall nachweisen können, dass sie bereits erste Maßnahmen umgesetzt haben.

Self-Assessment liefert einen ersten Einblick

Was ist für Nachzügler in solchen Fällen zu tun? Wichtig ist, dass sich Unternehmen in einem ersten Schritt mit einem überschaubaren Aufwand einen Überblick verschaffen. Hier geht es vor allem darum, den grundlegenden Handlungsbedarf zu identifizieren.

Mit einem Self-Assessment-Tool, wie es etwa NTT Security anbietet, erhalten Unternehmen einen guten Einblick zum Reifegrad ihres organisatorischen und technischen Datenschutzes, gemessen an den zentralen Aspekten der EU-DSGVO. In mehreren Themengebieten liefert das Tool eine Standortbestimmung. Das Spektrum reicht von der IT-Sicherheits-Awareness und einem Aufriss der vorhandenen personenbezogenen Daten über Datenschutzhinweise und Schutz der persönlichen Rechte der Betroffenen bis hin zu Einwilligungserklärungen, dem Umgang mit Datenpannen, einer Datenschutzfolgeabschätzung, einem betrieblichen Datenschutzbeauftragten und dem Datenschutz bei internationaler Geschäftstätigkeit. Eine Zusammenfassung des Self-Assessments zeigt mit Hilfe von Ampelfarben, wo es besondere datenschutzrechtliche Brennpunkte gibt.

Bestandsaufnahme des Ist-Zustands beim Datenschutz

Eines aber sollte man klarstellen: Das Self-Assessment ersetzt nicht die präzise Bestandsaufnahme des Ist-Zustands der Datenschutzorganisation in einem Unternehmen – im idealen Fall unterstützt durch einen auf IT-Sicherheit spezialisierten IT-Dienstleister. Da bei der EU-DSGVO der Schutz personenbezogener Daten eine zentrale Rolle spielt, ist es unabdingbar, zu ermitteln, wo sich überall in einem Unternehmen personenbezogene Daten befinden und in welchen Geschäftsprozessen sie zum Einsatz kommen.

Zu den personenbezogenen Daten zählen alle Informationen, mit denen eine natürliche Person identifizierbar wird: beispielsweise Name, Geburtsdatum, Steueridentifikationsnummer, Kfz-Kennzeichen, Standort oder Onlinekennung. Ein Großteil dieser Angaben wird mehr oder minder regelmäßig in internen und externen Geschäftsprozessen genutzt. Andere Daten sind bei Aktivitäten abseits der offiziellen IT – auch als „Schatten-IT“ bekannt – entstanden und befinden sich an unbekannten Orten. Auch diese Daten müssen aufgespürt werden.

Zusätzlich zur IT ist an dieser Stelle auch das Know-how der Fachabteilungen und deren Experten und Poweruser gefragt. Sie kennen sämtliche Details über die in den Fachprozessen eingesetzten Daten am besten – und können gleichzeitig Licht in das Dunkel der Schatten-IT bringen. Zu den Aufgaben der IT gehört es zum Beispiel, eine nachprüfbare Dokumentation der internen und externen Datenquellen und der Datenflüsse zu erstellen, etwa auch der Datenflüsse in eine Private Cloud und der aus einer Public Cloud. Personenbezogene Daten müssen unter anderem dann verfügbar sein, wenn Betroffene ihr „Recht auf Vergessenwerden“ beziehungsweise das „Recht auf Löschung“ von einem Unternehmen einfordern.

Sicherheitsrisiken identifizieren

Vor dem Hintergrund der Geschäftstätigkeit eines Unternehmens und den dabei verarbeiteten personenbezogenen Daten identifizieren und priorisieren die externen Berater zusammen mit internen IT-Sicherheitsfach­kräften in einer Ist-Analyse die vorhandenen spezifischen Sicherheitsrisiken. Zum Abschluss der Bestandsaufnahme entsteht eine Handlungsempfehlung. Sie vergleicht den Ist- mit dem Soll-Zustand und zeigt beispielsweise auf, welche Maßnahmen aufgrund der EU-DSGVO erforderlich sind und welche Schutzvorkehrungen vor dem Hintergrund der konkreten Sicherheitsrisiken zu implementieren sind. In einigen Fällen verfügen Unternehmen bereits über Vorgaben und Prozesse zur Informationssicherheit, auf die bei der Implementierung der EU-DSGVO aufgesetzt werden kann.

Die Umsetzung der Anforderungen aus der EU-DSGVO bedeutet für Unternehmen einen spürbaren finanziellen und personellen Aufwand. Wer sich bislang nur sporadisch damit befasst hat, geht ein erhebliches Risiko ein, sollte es zu Datenpannen kommen; es drohen massive Geldstrafen. Selbst wer erst jetzt mit externer Unterstützung und eigenem Personal das Datenschutzprojekt startet, kann noch wichtige Meilensteine auf dem Weg zur EU-DSGVO-Konformität erreichen. Dabei darf auch eines nicht vergessen werden: So aufwendig und kostenintensiv die Umsetzung der Datenschutzgrundverordnung zunächst auch sein mag, sie bietet auch Chancen. Denn letztlich handelt es sich dabei nicht um eine lästige Pflicht, sondern vielmehr um ein wichtiges Mittel für den Schutz persönlicher Daten in ganz Europa – und damit um ein entscheidendes Differenzierungsmerkmal im globalen Wettbewerbsumfeld.

 

* Kai Grunwitz ist Senior Vice President EMEA bei NTT Security

 

Bildquelle: NTT Security

Effizientes Management von Software-Lizenzen

Der Wandel von On-Premise zu cloudbasierten Software-Strukturen verspricht für Unternehmen große Kosteneinsparungen. Allerdings kann die Migration in die Cloud schnell zum Bumerang werden, wenn sich daraus ein Lizenzchaos entwickelt und die Lizenzen für lokal installierte Software und die aus der Cloud sich plötzlich überschneiden. Mit Software-Asset-Management behalten die Verantwortlichen die Kontrolle und können ihre Ressourcen effizient verwalten, wie Benedict Geissler, Geschäftsführer und Regional Business Manager von Snow Software erklärt.

Der Digitale Wandel hat Unternehmen voll erfasst und wirbelt sie kräftig durcheinander. Das wirkt sich nicht nur auf interne wie externe Prozesse aus, sondern natürlich auch auf die zugrundeliegende Infrastruktur. Während die bestehende Software nach und nach von den lokalen Servern in die Cloud migriert wird, um Kosten zu sparen, verlangt der Fortschritt zahlreiche neue Investitionen. Die Compliance-Anforderungen, die mit der bevorstehenden DSGVO einhergehen, der Trend in Richtung Multi-Cloud-Strukturen und der Drang nach datengetriebenen Innovationen machen zusätzliche Ausgaben für die nötigen, unterstützenden Lösungen nötig. Allerdings kann die Gesamtrechnung für die IT-Abteilung am Ende ungeahnte Höhen annehmen. Die Dezentralisierung der IT-Landschaft macht sie zunehmend weniger transparent und hält versteckte Kosten bereit.

Einblick in die IT der Business Units

Wollten Fachabteilungen in der Vergangenheit zusätzliche Ressourcen, mussten sie standardmäßig die IT-Abteilung von der Notwendigkeit überzeugen, die sich daraufhin um Auswahl, Anschaffung und Installation kümmerte. Das geschah allein schon deshalb, weil der technische Aufwand so groß war, dass niemand anderes als die IT-Mitarbeiter dieser Aufgabe gewachsen waren. Die Cloud verändert den Status Quo. Infrastrukturen und Software lassen sich als „as-a-Service“-Anwendungen auch von Laien inzwischen in wenigen Augenblicken nur mit einer Kreditkarte buchen und in bestehende Prozesse integrieren.

Die Kosten für die Lizenz sowie die Kontrolle und Wartung der Software liegen allerdings nach wie vor bei der IT, die allerdings nicht einmal mitbekommen hat, dass eine neue Komponente in das System eingepflegt wurde. So kann sie auch Governance und Compliance nicht durchgängig sicherstellen. Es gilt, die Disruption Gap zu schließen, also die Lücke zwischen dem Wachstum der IT und dem Teil, der tatsächlich von der IT-Abteilung kontrolliert wird.

Mit SAM-Lösungen können Unternehmen diesen Umstand beseitigen und dafür die Vorteile freilegen. Denn was oft übersehen wird ist die Tatsache, dass Fachabteilungs-IT von Personen ausgewählt sind, die am besten wissen, welche Lösungen sie eigentlich brauchen, um sämtliche Anforderungen zu erfüllen. So kann sie auch als Innovationstreiber verstanden werden, wenn Abteilungen ihre eigenen passgenauen Lösungen anschaffen und somit agiler operieren können. Den IT-Abteilungen fehlt hierfür häufig die nötige Nähe zum Alltagsgeschäft. Indem sämtliche Beteiligten Einblick in die vorhandenen Ressourcen erhalten und die finanzielle Verantwortlichkeit geklärt ist, entsteht eine Win-Win-Situatoin. Die IT behält Überblick und Kontrolle, während die Fachabteilungen die nötigen Freiheiten erhalten, um ihrer Arbeit bestmöglich nachzugehen.

Licht ins Dunkel bringen

SAM ist allerdings nicht nur sinnvoll, wenn es um die Erfassung nicht genehmigter Software-Lizenzen geht, sondern auch wenn im Unternehmen sowohl On-Premise-Anwendungen als auch die aus der Cloud im Betrieb sind, wie es bei Office 365 der Fall ist. Damit hier ebenfalls ein verlässlicher Überblick gewährleistet ist, gilt es beide Formen der Bereitstellung in den Nutzungsstatistiken zu erfassen. Während eine manuelle Erfassung viel zu aufwändig wäre, stehen SAM-Lösungen bereit, die sich vollständig in Office 365 integrieren lassen und somit die Verwaltung, Bereitstellung und Lizensierung der Nutzer übernehmen – unabhängig von der Plattform.

Verwaltungskosten sind mit 93 Prozent der größte Posten für Office-365 Lizensierungen. Diese lassen sich eindämmen, indem Genehmigung und Bereitstellung durch automatisierte Workflows vereinfacht werden. Anhand von Self-Service-Portalen können Unternehmen die Nutzer von Office 365 bequem einrichten oder sperren, ungenutzte Lizenzen einziehen, neu zuweisen oder deren Nutzer in günstigere Kostenpläne umgruppieren. Zudem lassen sich teurere Anwendungen wie Projekt 365 oder Visio 365 zeitlich begrenzt und dadurch kostensparender bereitstellen.

Benedict Geissler, Geschäftsführer und Regional Business Manager, Snow Software, erklärt, wie Unternehmen ihre Software-Lizenzen über alle Engeräte und Umgebungen hinweg effizient verwalten können. (Quelle: Snow Software)

Benedict Geissler, Geschäftsführer und Regional Business Manager, Snow Software, erklärt, wie Unternehmen ihre Software-Lizenzen über alle Engeräte und Umgebungen hinweg effizient verwalten können. (Quelle: Snow Software)

Sicherstellung der Lizenznutzung

Nicht nur Unternehmen, die die Software-Lizenzen verwalten, profitieren von SAM-Lösungen. Auch die Anbieter selbst erhalten bessere Transparenz über die Nutzung ihrer Software. Zu On-Premise-Zeiten mussten die Hersteller aufwändig prüfen, ob die Lizenzen ordnungsgemäß genutzt wurden, oder ob ihre Kunden sich um Kosten drückten und manche Lizenzen „schwarz“ einsetzten“. Im Zeitalter der Cloud erhalten sie die volle Kontrolle und Transparenz über diese Informationen und es obliegt den Kunden sicherzustellen, dass die bezahlte und genutzte Leistung zueinander passt.

Fazit

Ein transparenter Überblick über die Nutzung von Software-as-a-Service-Angeboten ist unabdinglich, um sämtliche Ressourcen zu kontrollieren und die Cloud wirklich kosteneffizient zu nutzen. Ein intelligentes Software-Asset-Management sorgt dafür, dass die Fäden sämtlicher Soft- und Hardware-Lösungen im Unternehmen wieder an einem Punkt zusammenlaufen. So bleibt die IT-Abteilung stets im Bilde über die verwendeten Ressourcen und kann die Kontrolle darüber behalten, wie sich die Infrastruktur im Unternehmen entwickelt.

Wegweisende Infrastruktur für digitale Ökosysteme

Interview

Über das Thema Interconnection Oriented Architecture (IOA) im Kontext digitaler Ökosysteme sprach die TRENDREPORT-Redaktion mit Donald Badoux, Managing Director von Equinix in Deutschland.

 

Stichwort IoT:

Das Internet of Things verlangt eine sichere Kommunikation, Business Continuity und damit eine stabile Infrastruktur.

Herr Badoux, welche Aufgaben und Leistungen kommen in diesem Kontext auf Unternehmen zu und welche Rolle spielen Rechenzentren? In welchem Kontext stehen dabei Themen wie Datenmengen und Datenanalyse? 

Rechenzentren sind die Grundlage stabiler IT-Infrastrukturen. Nicht nur, weil Unternehmen Rechenzentrumsfläche für die Unterbringung ihrer Server nutzen, sondern auch, weil dort alle Daten zusammenlaufen und Verbindungen entstehen, durch die verschiedene IoT-Geräte überhaupt erst miteinander kommunizieren können.

Daraus resultieren verschiedene Anforderungen an Anbieter von Rechenzentrumsdienstleistungen wie Equinix: Auf operativer Ebene spielen Faktoren wie Zuverlässigkeit, Leistungsdichte, und natürlich Sicherheit eine enorm wichtige Rolle.

Anforderungen entstehen zudem besonders in Bezug auf die kontinuierlich steigenden Datenmengen, die durch die wachsende Anzahl von IoT-Geräten – vom Smartphone bis hin zu Fertigungsmaschinen in der Industrie – entstehen. Diese Daten müssen (an verteilten Orten) gesammelt, übertragen, ausgewertet, verknüpft und gewinnbringend eingesetzt werden.

Rechenzentren machen diese Verbindungen überhaupt erst möglich und garantieren dabei Flexibilität, Skalierbarkeit und Sicherheit.

Wie garantieren Ökosysteme, stabile und sichere Verbindungen in Echtzeit und welche Rolle spielen Rechenzentren dabei?

Ein digitales Ökosystem kann man sich ungefähr wie einen Marktplatz vorstellen: Hier kommen Partner zusammen, um sich miteinander zu verbinden und Geschäfte zu machen. Insofern spielt Sicherheit, sowohl in Bezug auf die physische Sicherheit als auch in Bezug auf die Sicherheit der Daten, eine wichtige Rolle. Rechenzentren, in denen digitale Ökosysteme entstehen, garantieren diese sichere Umgebung.

Neben der Sicherheit wird auch die Bereitstellung von Verbindungen in Echtzeit immer wichtiger. Wir sprechen in diesem Zusammenhang von geringen Latenzzeiten. Auch hier gewinnt die Infrastruktur, die die Umgebung für Ökosysteme bereitstellt, zunehmend an Bedeutung: sie muss dynamisch, flexibel und global sein, so dass an verschiedenen Standorten der Netzwerkrand genutzt werden kann, um Services näher an Anwender und Kunden zu bringen.

 

Stichwort Smart City:

Business Continuity steht im Kontext der digitalen Transformation für Mega-Cities an erster Stelle.

Wie garantiert Equinix global agierenden Unternehmen eine dynamische IT?

Je wichtiger die IT-Infrastruktur für den Unternehmenserfolg ist, um so mehr steigen auch die Gefahren durch ungeplante Ausfälle, zum Beispiel aufgrund von Hardwarefehlern oder Naturereignissen.

Um Ausfälle zu vermeiden, die Geschäftsabläufe oder auch Abläufe von Smart Services bzw. Abläufe in einer Smart City stören, treffen wir verschiedene Vorkehrungen.

Besonders wichtig ist die Absicherung der Energieversorgung. Unsere Rechenzentren verfügen über mehrere Back-up-Lösungen im Falle eines Ausfalls des Stromnetzes. Weltweit garantieren wir in unseren Rechenzentren dadurch >99,9999% Verfügbarkeit.

Die Verteilung der Infrastruktur auf mehrere Standorte ist ein weiterer wichtiger Faktor. Mit weltweit mehr als 190 Rechenzentren in 48 Ballungsräumen stellt Equinix Kunden eine IT-Umgebung bereit, die Redundanz und damit auch Zuverlässigkeit und Ausfallsicherheit gewährleistet.

Weiterhin bietet Equinix Kunden eine Backup-Umgebung durch sogenannte „Business Continuity Trading Rooms“, die es Unternehmen im Krisenfall ermöglichen, ihre Geschäfte in gewohnter Weise fortzusetzen.

Wie können Standorte, die am digitalen Netzwerkrand liegen, ohne Leistungsverluste in die IT-Infrastruktur eingebunden werden?

Die Nähe zum Kunden wird immer wichtiger, damit gewinnen erhobene Daten am sogenannten Netzwerkrand an Bedeutung. Viele Unternehmen verfügen jedoch nicht über die richtige IT-Infrastruktur, um diese Daten zu sammeln, übertragen und verwerten. Sie sind darauf angewiesen, Daten auf leistungs- und kostenintensive Art und Weise zu zentral platzierten Verarbeitungsservices zu übertragen.

Unsere Empfehlung ist es, eine Architektur aufzubauen, die auf einem Interconnection-First Ansatz basiert, eine sogenannte Interconnection Oriented Architecture™ (IOA™). Mithilfe dieser Architektur können Daten und Services am Netzwerkrand platziert werden und sind somit näher an Kunden, Mitarbeitern und Partnern.

Der digitale Handel kann neue Potenziale durch Internationalisierung erschließen. Bitte erklären Sie uns kurz den Begriff „Interconnection Oriented Architecture™“ und dessen Funktionsweise.

Um langfristig wettbewerbsfähig zu bleiben, also flexibel und innovationsfähig zu sein, müssen Unternehmen mit ihrer IT-Infrastruktur entsprechende Weichen stellen. Konnektivität und vor allem Interkonnektivität, also die sichere, direkte Verbindung zwischen Unternehmen, Partnern, Standorten Service-Providern oder Clouds stehen dabei im Mittelpunkt.

Die Interconnection Oriented Architecture stellt das Konzept für die benötigte Infrastruktur bereit und unterstützt die Leistung digitaler Ökosysteme. So können Unternehmen Schritt für Schritt Datenübertragung optimieren, sichern, regulieren oder in bestehende Prozesse integrieren.

Was beschreibt der Global Interconnection Index?

Der Global Interconnection Index ist das Ergebnis einer von Equinix durchgeführten, umfassenden Marktstudie zur aktuellen und zukünftigen weltweiten Nutzung von Interconnection, also der direkten, privaten Verbindungen zwischen Unternehmen, Geschäftspartnern, Kunden und Service-Anbietern in Carrier-neutralen Rechenzentren. Interconnection ist wie ein schnell wachsendes zweites Internet, das auf privaten Verbindungen zwischen Unternehmen basiert und eine entscheidende Rolle in der Zukunft der europäischen Wirtschaft spielt.

Der Index verfolgt, misst und prognostiziert das Wachstum der Interconnection-Bandbreite und ist somit quasi ein Gradmesser für das Wachstum der digitalen Wirtschaft. Für Europa prognostiziert der Index, dass sich die Kapazitäten für Interconnection bis 2020 vervierfachen werden.

Wo sehen Sie sich als Colocation- und Interconnection-Provider in den nächsten zwei bis drei Jahren? 

Colocation, also die Unterbringung von unternehmenseigenen Servern in unseren Rechenzentren, war lange unser Kerngeschäft. Auch heute noch ist die Bereitstellung von Infrastruktur-Services ein wichtiger Bestandteil unseres Geschäftes.

Darüber hinaus haben wir unser Angebot jedoch enorm weiterentwickelt. Als Interconnection-Plattform stellen wir nicht mehr nur Infrastruktur, sondern auch Produkte und Tools zur Verfügung, über die unsere Kunden sich global miteinander vernetzen können. In Zukunft wollen wir uns noch mehr darauf fokussieren, die Anbindung an Partner durch eigene Managed und Professional Services zu ergänzen.

Welche Wettbewerbsvorteile generieren Sie für Kunden, die auf Ihre Interconnection Infrastrukturlösung setzen? Was sind die Vorteile von Interconnection? 

Um wettbewerbsfähig zu bleiben sind Unternehmen gezwungen, ihre traditionellen Geschäftsabläufe zu überdenken und anzupassen. Interconnection ist die Basis, um diese Veränderungen voranzutreiben.

Die richtige Interconnection-Strategie gibt Unternehmen die nötige Flexibilität, um Anforderungen des Marktes schnell und risikoarm umzusetzen. So können sie auch ihre ambitioniertesten Geschäftsideen zur Realität werden lassen und von Skalierbarkeit, Agilität, der Erschließung neuer Kapazitäten, erhöhter Sicherheit und besserer Servicequalität profitieren.

 

Stichwort Smart Services:

Smart Services benötigen eine neue digitale Infrastruktur.

Was raten Sie Unternehmen, die ihre IT-Architektur transformieren wollen?

Zunächst sollten Unternehmen ihre aktuelle IT-Strategie evaluieren und – wenn
nötig – grundlegend überdenken:
Inwiefern passt die aktuelle IT-Strategie zur übergeordneten Unternehmensstrategie? Unterstützt die IT Strategie das Unternehmenswachstum – national wie international?
Flexibilität und Agilität sind hier sehr wichtig. Dabei spielt auch der Standort des Rechenzentrums eine wichtige Rolle.

Ein weiterer wichtiger Aspekt ist Skalierbarkeit:
Wird die bestehende Infrastruktur den kontinuierlich wachsenden Anforderungen in Bezug auf Dynamik, Geschwindigkeit und Datenmengen gerecht? Oder die Frage, ob die gegenwärtige Infrastruktur auch wirklich die Nutzererfahrung in den Vordergrund stellt.

Unternehmen, die diese Fragen nicht mit „Ja“ beantworten können, sollten darüber nachdenken, die eigene IT dorthin auszulagern, wo Verbindungen zu Partnern, Kunden, Anbietern oder Mitarbeitern möglich sind.
Kurzum: in Ökosysteme, wo die Wege kurz sind und wo sichere, effiziente und skalierbare Verbindungen realisiert werden können. Sind diese Voraussetzungen gegeben, steht der digitalen Transformation des eigenen Unternehmens nichts mehr im Weg.

Welche Aufgaben und Rollen nehmen Rechenzentren im Kontext der „Stadt der Zukunft“ ein?

Unsere Städte werden immer größer, überall auf der Welt zieht es die Menschen vom Land in die Stadt. Nun ist es so, dass unser „herkömmliches“ Städte-Modell nicht besonders gut skaliert. Selbstverständlich könnte man einfach mehr von allem bauen, also mehr Straßen, mehr Häuser, mehr Einrichtungen. Es ist jedoch fast unmöglich, durchgängig Lebensqualität, Komfort und Sicherheit zu gewährleisten.

Ein möglicher Lösungsansatz für diese Herausforderung ist es, Städte „smarter“ zu machen, also mithilfe von neuen Technologien Smart Homes, Smart Grids etc. zu bauen und sie so zu sogenannten „Smart Cities“ zu machen.

Der Begriff „Smart Cities“ ist jedoch leicht irreführend. Eine bessere Beschreibung wäre „intelligent, interconnected city“, also intelligente, vernetzte Stadt. Denn schließlich ist eine Stadt nur dann wirklich smart, wenn zum Beispiel Parksysteme, Stromnetze oder Lichtsysteme in der ganzen Stadt miteinander kommunizieren, also Daten austauschen können.

Um zu garantieren, dass dieser Datenaustausch effizient, belastbar und sicher stattfinden kann, braucht es Infrastruktur, die nur Rechenzentren zur Verfügung stellen können.

Welche Infrastruktur wird benötigt, um auf wichtigen internationalen Märkten mit seinen Produkten und Dienstleistungen digital präsent zu sein?

Die Anforderungen an die IT-Infrastruktur lassen sich auf zwei Ebenen beschreiben: physischen Merkmale auf der einen, und kommerzielle Anforderungen auf der anderen Seite.

Rein physisch sind Faktoren wie eine globale Präsenz, die Vernetzung und Nähe zum Kunden, Ausfallsicherheit und Redundanz sowie Standardisierung enorm wichtig.

In Bezug auf kommerzielle Anforderungen geht es vor allem um Nähe und Zugang zu Handels-, Vertriebs-, und Transaktionspartnern, den eigenen Kunden und Endverbrauchern. Das muss mit einem hohen Maß an Effizienz geschehen, das digitale Ökosysteme, die in Rechenzentren entstehen, gewährleisten können.

Rechenzentren spielen vor dem Hintergrund physischer und kommerzieller Aspekte eine wichtige Rolle.

 

Herr Badoux, vielen Dank für das Gespräch.

 

Weiterführende Informationen finden Sie unter:
www.equinix.de

 

 

Unser Interviewpartner:

Donald Badoux, Managing Director Equinix (Germany) GmbH

 

Donald Badoux ist bei Equinix seit Januar 2014 als Managing Director für Deutschland tätig.

Zuvor war er Geschäftsführer bei Savvis, wo er die Etablierung des Geschäftsbereichs für Managed- und Cloud-Services in Deutschland verantwortete. Zu seinen Aufgaben zählten hierbei der Aufbau der neuen Organisation und Infrastruktur, die Entwicklung einer Markteinführungsstrategie sowie die Kundengewinnung.

Badoux arbeitete auf europäischer Ebene bereits in verschiedenen Führungspositionen der IT- und Telekommunikationsbranche. So war er Country Manager für euNetworks in den Niederlanden. Davor war er als Vice President von Verizon Business Northern Europe verantwortlich für das Management der Vertriebs- und Marketingprozesse des Unternehmens in 8 europäischen Ländern.

Badoux verfügt über einen Bachelor-Abschluss in Telekommunikation der Utrecht Technical University.

 

Aufmacherbild / Lizenz / Quelle
Urheberrechte © Equinix

Die fünf Schlüsseltrends im Bereich Nachhaltigkeit für 2018

Ein Beitrag von Britta Wyss Bisang, Chief Sustainable Supply Chain Officer der Rainforest Alliance sowie Chair of Board of Directors der ISEAL Alliance

2018 wird viele wichtige Weichen stellen, wenn es um das Thema Nachhaltigkeit geht. Denn sowohl die Nachfrage der Verbraucher als auch die Anforderungen der Unternehmen in diesem Bereich rücken immer weiter in den Fokus. Ich bin davon überzeugt, dass es vor allem die folgenden fünf Nachhaltigkeitstrends sind, die weiter an Bedeutung gewinnen werden – im Jahr 2018 sowie darüber hinaus. Zertifizierungen markieren dabei einen wichtigen Schritt hin zu mehr Nachhaltigkeit und spielen eine entscheidende Rolle innerhalb dieser Trends.

#1: Nachhaltigkeit ist auf der Agenda von Verbrauchern und Unternehmen nach oben gerückt

In den vergangenen Jahren ist Nachhaltigkeit zu einem immer wichtigeren Thema geworden. Studien zeigen, dass sich diese Entwicklung noch weiter verstärken wird. Schon 2015 hat das Marktforschungsunternehmen Nielsen mehr als 30.000 Verbraucher in 60 Ländern dazu befragt. Das Ergebnis: Zwei Drittel der Befragten waren bereit, mehr Geld für nachhaltige Produkte zu zahlen. Mehr als die Hälfte gab an, dass ihre Kaufentscheidungen davon beeinflusst werden, ob die Produkte natürlich bzw. biologisch angebaut wurden oder ob das Unternehmen dahinter für ein Handeln nach gesellschaftlichen Werten steht.

Zeitgleich erschien eine Studie von Cone Communications, die belegt, dass in den größten Industriestaaten der Welt 91 Prozent der Verbraucher von den Unternehmen erwarten, dass diese Verantwortung übernehmen und soziale und umweltbedingte Probleme angehen. Das ist eine überwältigende Mehrheit. Es kann nicht genug betont werden, wie hoch der Einfluss der Verbraucher ist. Ihre Kaufentscheidungen sind gleichzeitig ein Votum für oder gegen ein Unternehmen und dessen Produkte.

Parallel dazu nutzen immer mehr Regierungen und Unternehmen das 2015 beschlossene Pariser Klimaschutzabkommen und die Sustainable Development Goals (SDGs) der UN als Maßstab für ihre Arbeit im Bereich Nachhaltigkeit. Die SDGs haben zum Ziel, Armut zu beenden, die Erde zu schützen und Wohlstand zu sichern. Diese Ziele in Unternehmensstrategien einzubeziehen, ist eine positive Entwicklung weg von einem ausschließlich am Profit ausgerichteten System hin zu einem System, das die Menschenrechte und eine nachhaltige Umwelt als zentrale Bestandteile anerkennt.

So gibt es mit der Business Sustainable Development Commission eine Initiative, die sich aus den führenden Branchengrößen zusammensetzt, um einen Business Case zu entwickeln und damit die Umsetzung der SDGs zu erreichen. Die Anzahl an Ländern, die sich dazu bereit erklärt haben, eine freiwillige Prüfung zur Umsetzung der SDGs beim Hochrangigen Politischen Forum der UN durchzuführen, hat sich zudem im vergangenen Jahr verdoppelt und umfasst nun 43 Länder. Ein gemeinsamer Report des WWF und der ISEAL Alliance zeigt, wie Nachhaltigkeitsstandards dabei helfen können, den Prozess zur Umsetzung vieler SDGs voranzutreiben – und gleichzeitig zu Vorteilen für Unternehmen und Kleinerzeuger führen.

Nachhaltigkeit wird außerdem zunehmend eine Frage der Rechtspflicht. In Großbritannien sind Unternehmen mittlerweile rechtlich dazu verpflichtet, über ihre Bemühungen zur Abschaffung der Sklaverei in der gesamten Lieferkette zu berichten. In den USA wurde 2016 eine Gesetzeslücke geschlossen, die ein Verbot von Produkten nach sich zog, die mittels Kinderarbeit oder Sklaverei produziert wurden. In Frankreich wurde ein Gesetz gegenüber internationalen Konzernen erlassen, das sie verpflichtet, ihre Pläne zur Einhaltung der Menschenrechte zu veröffentlichen. Und es gibt weitere ähnliche Beispiele.

#2: Worte allein reichen nicht. Verbraucher wollen Taten sehen

Die Verbraucher von heute agieren sehr versiert, wenn sie sich erst einmal für eine Sache entschieden haben. Gut informierte Verbraucher wollen keine leeren Versprechungen, sie wollen Taten und Ergebnisse sehen. Und Unternehmen haben die technischen Mittel und Social Media, um ihnen zu zeigen, wie ihre Produkte entstehen.

Als Resultat daraus schließen sich viele Unternehmen mittlerweile Programmen für eine zertifizierte Rohstoffbeschaffung an – eines der Schlüsselinstrumente, um ihre Nachhaltigkeitsziele zu erreichen. Gleichzeitig hilft ihnen eine Zertifizierung, Ergebnisse vorzulegen, die von unabhängiger Stelle bestätigt wurden. Mehrere große Unternehmen beziehen bereits zu 100 Prozent zertifizierte Rohstoffe.

Britta Wyss Bisang: „Ich glaube, dass wir 2018 mehr Nachhaltigkeit sehen werden. Auf der einen Seite steht die steigende Nachfrage der Verbraucher nach nachhaltigen Produkten – gepaart mit einer größeren Notwendigkeit, Themen wie den Klimawandel, die Abholzung von Wäldern und Kinderarbeit mit Nachdruck anzugehen. Auf der anderen Seite bietet der technologische Fortschritt den Produzenten ganz neue Wege, um nachhaltig zu agieren.“ Bildquelle: UTZ

Dennoch, so zeigt ein aktueller Bericht der Economist Intelligence Unit, besteht in einigen Bereichen die Gefahr, selbstgefällig zu werden. Während vier von fünf Unternehmen angaben, über verantwortungsvolle Lieferketten zu verfügen, befassten sich weniger als ein Viertel mit Kernproblemen wie Klimawandel oder Kinderarbeit. Bei 30 Prozent der befragten Unternehmen waren die Bemühungen um eine verantwortungsvolle Lieferkette über die letzten fünf Jahre sogar rückläufig. Ich würde gerne mehr Engagement seitens der Unternehmen sehen, nicht weniger.

Verbraucher werden sehr wahrscheinlich immer mehr von ihrer Entscheidungsfreiheit Gebrauch machen und nach Marken suchen, die zu ihren Werten passen. Eine aktuelle globale Studie von BBMG und GlobeScan ergab, dass zum ersten Mal seit 2009 mehr Verbraucher sagen, dass sie Unternehmen für ihr Verhalten abgestraft (28%), als sie dafür belohnt haben (26%).

Während eine klare Zuweisung der Verantwortlichkeiten ganz entscheidend ist, damit Unternehmen ihren Worten Taten folgen lassen können, ist vielen von ihnen oftmals unklar, welche Werkzeuge sie zur Erreichung ihrer anvisierten Nachhaltigkeitsresultate nutzen können oder wie sie diese Werkzeuge am effektivsten einsetzen. Das Accountability Framework, eine Initiative, die sich aus einer Koalition führender Umwelt- und Sozialorganisationen (einschließlich der Rainforest Alliance) entwickelt hat, zeigt Unternehmen einen klaren Weg in die Nachhaltigkeit auf – einschließlich wichtiger Meilensteine und Benchmarks zur Bewertung ihrer Fortschritte.

#3: Das Thema Zertifizierungen wird nach wie vor kritisch beäugt (und das ist gut so)

Sowohl die Partner innerhalb der Lieferketten als auch die Verbraucher stellen weiterhin die Frage, worin der spezielle Mehrwert von Zertifizierungen liegt. Meine Antwort darauf lautet, dass Zertifizierungen Einsichten in die Lieferketten liefern, die über andere Kanäle nicht zu erreichen sind.
Die Verbindungen, die Zertifizierungen innerhalb der Lieferketten herstellen – indem sie Farmer und Arbeiter mit Märkten und Akteuren der Zivilgesellschaft zusammenbringen – sind einzigartig und wirken sich positiv auf die Farmer sowie auf die Umwelt aus. Das bescheinigen zahlreiche unabhängige Studien. Zertifizierungen bieten ein Level an Transparenz, mit dem wenig andere Ansätze aufwarten können. Und: Sie bilden die Basis für ein System, das vollständig skalierbar ist und sowohl Farmer als auch Unternehmen einbindet.

Dieser Mehrwert von Zertifizierungen erfährt immer mehr Anerkennung. Das International Trade Center, eine gemeinsame Einrichtung der Welthandelsorganisation und der UN, stellt in seiner Untersuchung zur aktuellen Lage der nachhaltigen Märkte im Jahr 2017 (The State of Sustainable Markets 2017) fest, dass „nachhaltig angebaute Produkte, die nachweislich international anerkannten Standards entsprechen, mit ihrem rasanten Wachstum die konventionell angebauten Produkte überholen“.

Zertifizierungen müssen permanent verbessert werden und es stimmt, dass verschiedene Elemente sich unterschiedlich stark auswirken oder unterschiedliche Herausforderungen mit sich bringen. Außerdem kann selbstverständlich kein Label eine hundertprozentige Nachhaltigkeitsgarantie leisten, da kein funktionsfähiges und weltweit agierendes System jeden Produzenten an 24 Stunden pro Tag und an 365 Tagen pro Jahr überwachen kann.

Davon abgesehen können Zertifizierungen alleine die vielen systemischen Nachhaltigkeitsherausforderungen, mit denen die Farmer konfrontiert sind, nicht lösen. Wenn eine Farm zertifiziert ist, heißt dies beispielsweise nicht zwingend, dass der Farmer und seine Arbeiter über ein stabiles und existenzsicherndes Einkommen verfügen. Denn die internationalen Preise für den Rohstoff sowie Marktschwankungen bleiben auch in Zukunft die Faktoren, die ihr Einkommen am meisten beeinflussen. Was Zertifizierungen jedoch leisten können, ist, dass sie die Farmer mit Wissen, Trainings und Möglichkeiten ausstatten, um ihr Einkommen zu verbessern – indem sie bessere und nachhaltigere Anbaumethoden anwenden, effizienter agieren und sich besser vernetzen.

Zertifizierungen sind ein wertvolles Werkzeug und können auf dem Weg zu mehr Nachhaltigkeit viel bewegen. Am effektivsten können Zertifizierungen ihre Katalysatorwirkung für den nachhaltigen Wandel jedoch dann entfalten, wenn sie innerhalb eines größeren Kontexts in die Zusammenarbeit zwischen Unternehmen, NGOs, Regierungen und anderen Akteuren eingebunden werden.

#4: Produzenten wie produzierende Länder verlangen mehr Zusammenarbeit

Will man die größten Nachhaltigkeitsherausforderungen anpacken, muss man auf Partnerschaften und die Zusammenarbeit mit anderen setzen. Völlig zu Recht erwarten außerdem die Produzenten, dass das Thema Nachhaltigkeit aus einer ganzheitlicheren Perspektive betrachtet wird. So sollen auch die Produktionskosten sowie der Zugang zu für die Zertifizierung notwendigen Investitionen mit auf die Agenda kommen. In letzter Zeit sind eine ganze Reihe wichtiger Plattformen für die Zusammenarbeit entstanden. Erst kürzlich hinzugekommen sind zum Beispiel die Cocoa and Forests Initiative und Plattformen für Kaffee aus Kenia und Uganda – diese werden von der Global Coffee Platform mit Sitz in Bonn unterstützt.

Das aktuellste Beispiel der Kollaboration ist der im Januar 2018 erfolgte Zusammenschluss zwischen UTZ und der Rainforest Alliance. 2019 werden wir unser neues, einheitliches Zertifizierungsprogramm veröffentlichen. Es wird die Stärken der beiden Organisationen UTZ und Rainforest Alliance zusammenbringen und darauf aufbauen. Den Zertifizierungsprozess zu vereinheitlichen wird gleichermaßen neuen Farmern als auch den 1,9 Millionen Farmern, mit denen wir bereits zusammenarbeiten, zugutekommen – speziell den 182.000 Kakao-, Kaffee- und Teefarmern, die momentan sowohl UTZ- als auch Rainforest Alliance-zertifiziert sind. Sie werden effizienter in Nachhaltigkeit investieren können, weil sie so den administrativen Aufwand für die Implementierung zweier Standards und Zertifizierungssysteme vermeiden.

Ich hoffe, dies wird der Beginn eines neuen Konsolidierungstrends im Bereich der Nachhaltigkeitsstandards sein. Ich hoffe auch auf einen Trend der Zusammenarbeit nicht nur innerhalb der einzelnen Sektoren, sondern auch darüber hinaus. Es gibt enorme Möglichkeiten, Synergieeffekte im Bereich Anbau zwischen den Rohstoffen zu schaffen (viele Länder bauen zum Beispiel sowohl Kakao als auch Kaffee an). Diese Möglichkeiten wird die neue Rainforest Alliance in Zukunft verstärkt erschließen.

#5: Für transparente Lieferketten müssen wir Daten und Technik vermehrt nutzen

Digitalisierte Daten bieten große Chancen für Innovationen. Mobile Apps und Drohnen machen es beispielsweise schon heute einfacher, Herausforderungen der Nachhaltigkeit besser abzubilden und diese noch gezielter zu adressieren. Das verändert die Art und Weise, in der einige Audits durchgeführt werden.

Zertifizierungsprogramme müssen mittelfristig das Datenmanagement umfassend beherrschen. Daten sind das Schlüsselinstrument, um Maßnahmen für positive Veränderungen voranzutreiben. Bei der Rainforest Alliance testen wir den Einsatz von Drohnen, um zusätzliche Informationen über Anbauflächen zu sammeln. Außerdem können wir die durch die Drohnen erfassten Daten mit denen von Dritten abgleichen.

Darüber hinaus können Technologien effektiv zu Trainingszwecken eingesetzt werden sowie dafür, bei den Produzenten mehr Bewusstsein für das Thema Nachhaltigkeit zu schaffen. Anfang letzten Jahres hat die Rainforest Alliance ihre Training App für Farmer gelauncht. Mit ihrer Hilfe haben Farmer über Afrika, Asien und Lateinamerika hinweg Zugang zu Trainingsmodulen und -videos. Außerdem können sie sich durch die App mit anderen Farmern austauschen und ihre Best Practice-Methoden teilen.

Auch die Blockchain – bei der es sich kurz gefasst um eine neue, offene und dezentrale Datenbanktechnologie handelt, die Transaktionen überprüfbar macht und dauerhaft aufzeichnen kann – kommt bereits in ersten Lieferketten der Lebensmittelindustrie zum Einsatz. Zum Beispiel verwendet Provenance, ein britisches Startup, die Blockchain-Technologie, um die Herkunft und den Weg von Produkten wie Thunfisch und Kokosnüssen nachzuvollziehen.

Dennoch sollte bedacht werden, dass alle neuen Technologien auch Herausforderungen mit sich bringen. In einigen Branchen ist der Zugriff auf Daten aus Lieferketten nach wie vor schwierig, da viele Produkte aus Ländern mit unzureichender Dateninfrastruktur stammen. Und ohne eine nennenswerte Beteiligung der betroffenen Regierungen wird es schwierig sein, einige dieser modernen Technologien zu implementieren. Auch der Datenschutz bleibt eine Herausforderung: Sämtliche Vorgänge der Datenverwaltung müssen sich an die Regeln zu personenbezogenen Daten, die Vertraulichkeit kommerzieller Daten sowie Datenschutzgesetze und Best Practices halten. Das alles sind große Herausforderungen. Aber durch die Zusammenarbeit und das Bündeln von Expertisen aus verschiedenen Branchen sind sie zu meistern.

Ausblick

Ich glaube, dass wir 2018 mehr Nachhaltigkeit sehen werden. Auf der einen Seite steht die steigende Nachfrage der Verbraucher nach nachhaltigen Produkten – gepaart mit einer größeren Notwendigkeit, Themen wie den Klimawandel, die Abholzung von Wäldern und Kinderarbeit mit Nachdruck anzugehen. Auf der anderen Seite bietet der technologische Fortschritt den Produzenten ganz neue Wege, um nachhaltig zu agieren. Diese Dynamik wird sich nicht mehr umkehren. Worauf es in Zukunft noch stärker ankommen wird, ist Transparenz. Denn nur Transparenz kann dieses Gefüge zusammenhalten und ermöglicht es, die oftmals komplexen Strukturen innerhalb der sich diversifizierenden Lieferketten zu verstehen. Ich glaube außerdem, dass Zertifizierungen – eine eigene Reise auf dem übergeordneten Weg zu mehr Nachhaltigkeit – einen wichtigen Baustein in diesen Zeiten des Umbruchs darstellen. Auch ihr Anteil wird meiner Meinung nach im Jahr 2018, und darüber hinaus, weiterwachsen.

Weltleitmesse IFAT 2018

IFAT 2018 „Smart und nachhaltig ergänzen sich ideal“

  

Effiziente und innovative Lösungen für eine nachhaltige Nutzung von Ressourcen sind weltweit gefragt. Vom 14. bis 18. Mai 2018 bringt die Weltleitmesse IFAT die wichtigsten Teilnehmer aus der Wasser-, Abwasser-, Abfall- und Rohstoffwirtschaft in München zusammen. Im Gespräch ist Stefan Rummel, Geschäftsführer der Messe München und Chef der IFAT.

 

Herr Rummel, in Zeiten von Corporate Social Responsibility erreichen Umweltthemen immer größere Aufmerksamkeit. Welchen Beitrag leistet hier die IFAT?

Die IFAT richtet sich an alle, die moderne Lösungen für nachhaltiges Wirtschaften suchen. Das betrifft nicht nur CSR-Beauftragte, sondern auch Produktionsplaner, technische Leiter oder Facility Manager. Nachhaltigkeit beginnt bereits in der Produktion und genau hier setzen wir mit unserer Veranstaltung an. Bei der IFAT geht es darum, Wertstoffe stärker zu nutzen und Rohstoffkreisläufe zu schließen. Das kommt sowohl dem Image des Unternehmens als auch langfristig dem Geldbeutel zugute.

 

Stefan Rummel, Geschaeftsfuehrer Messe Muenchen GmbH

 

Die diesjährige Ausgabe wächst um zwei Hallen auf dem Messegelände in München. Ist diese räumliche Ausdehnung gleichzusetzen mit dem Interesse an Ihrer Plattform?

In jedem Fall, das Interesse an der IFAT und damit an Umwelttechnologien ist ungebrochen. Die Nachfrage von Unternehmen ist seit Jahren hoch, die Messe belegte bereits zu den vergangenen Veranstaltungen das gesamte Gelände in München. Trotz der größeren Fläche sind alle 18 Hallen und das Freigelände auch dieses Jahr komplett gebucht, für einige Segmente gibt es wieder Wartelisten. Das überwältigende Feedback der Aussteller stärkt sowohl unsere Position als auch unseren Ruf als Weltleitmesse.

 

Welche Rolle spielt die Digitalisierung bei den Technologien der Aussteller?

Die Digitalisierung wird eines der Top-Themen der IFAT 2018 werden. Das zeichnet sich bereits jetzt aus den Ankündigungen unserer Aussteller ab. Intelligente Lösungen können den Arbeitsalltag erleichtern. Mit einer „On-Demand“-Müllabholung mittels einer App können Firmen beispielsweise auf unnötige Entsorgungsfahrten verzichten und Kosten sparen. Im Wasserbereich können Sensoren die Versorgungssicherheit mit dem Lebensmittel Nummer eins optimieren oder die Ressourcen- und Energieeffizienz im Produktionsprozess steigern. Die IFAT wird zeigen, dass sich smart und nachhaltig ideal ergänzen.

 

Gibt es neben der Digitalisierung weitere Fokusthemen?

Die Digitalisierung ist nur eines der Themen, die wir im Mai diskutieren. Neue gesetzliche Rahmenbedingungen stehen ebenfalls im Fokus, denn auch auf politischer Ebene erreichen Umweltthemen einen immer höheren Stellenwert. Seit August letzten Jahres müssen gewerbliche Abfallerzeuger beispielsweise verwertbare Abfälle getrennt erfassen und umfangreich dokumentieren. Ab Januar 2019 schreibt der Gesetzgeber bei der Entsorgung gebrauchter Verpackungen deutlich höhere Recyclingquoten vor. Als Plattform, die sich gleichermaßen an Industrie und Kommunen wendet, greifen wir diese Themen auf, zeigen Best Practice-Beispiele für Unternehmen auf und liefern Antworten auf offene Fragen.

 

Inwieweit können Start-ups Ihre Plattform nutzen?

Für Start-ups haben wir eine neue Plattform im Herzen der IFAT geschaffen. Mit „experience.science.future.“ bieten wir dem Branchennachwuchs eine Bühne, um ihre kreativen Ideen und wegweisenden Neuheiten zu präsentieren – sowohl auf der Ausstellungsfläche als auch im Vortragsprogramm. Mit der Zukunftsplattform, auf er auch NGOs, Universitäten und Verbände vertreten sind, geben wir jungen Talenten die Möglichkeit, sich mit internationalen Industrievertretern zu vernetzen.

 

IFAT experience.science.future. vernetzt die klugen, aufstrebenden Köpfe der Branche. experience.science.future

 

Die IFAT ist Teil eines internationalen Messenetzwerks. Wie positioniert sich die Muttermesse gegenüber den Auslandsveranstaltungen?

Umweltschutz ist ein globales Thema. Seit 2004 ist die IFAT in China unterwegs. Seitdem ist das Netzwerk stark gewachsen, das unterstreicht die weltweite Bedeutung des Umwelttechnologiesektors. Mittlerweile sind wir neben China noch in Indien, Südafrika und der Türkei vertreten. Während die Münchner Veranstaltung als Innovationsplattform der weltweiten Umwelttechnologiebranche gilt, zeigen die Auslandsmessen angepasste Lösungen für die Bedürfnisse der jeweiligen Märkte. So werden in Shanghai zum Beispiel Lösungen für „Sponge Cities“ präsentiert – das sind Schwammstädte gegen Hochwasser. In Johannesburg dagegen dominiert die drängende Frage, mit welchen Technologien die akute Wasserkrise überwunden werden kann.

 

Die IFAT hat zum ersten Mal eine Umfrage durchgeführt, den IFAT Environment Index. Was sind die Erkenntnisse?

Bei der Umfrage haben wir über 5.000 Bürger in China, Deutschland, Frankreich, Großbritannien und Italien zu den Themen Trinkwasser, Abfall, Luft, Umwelttechnologien und Umwelt-Cities befragt. Das Ergebnis: Umweltthemen sind nicht nur für die Fachbranche bedeutend; sie bewegen die weltweite Bevölkerung, mehr als wir denken. Lassen Sie mich ein markantes Beispiel herausgreifen. In allen fünf Ländern sehen weit mehr als die Hälfte der Bürger in Plastikmüll eine ernsthafte Umweltgefahr. Am meisten besorgt sind wir Deutschen. 71 Prozent der Befragten stufen die Plastikberge als sehr kritisch ein. Diese Bedenken dürfen wir nicht ignorieren, es gilt dringend nachhaltige Lösungen zu finden.

 

Wie trägt Ihre Messeplattform den Umfrageergebnissen Rechnung?

Die IFAT bringt wie keine andere Branchenveranstaltung die wichtigsten Akteure zusammen. Bleiben wir beim Thema Plastik: Wir haben verschiedenste Stakeholder zu einer Podiumsdiskussion an einen Tisch gebeten. Unter dem Titel „rethink – reduce – recycle plastic” diskutieren Experten aus NGOs und Forschungsinstituten mit Vertretern der Kunststoffindustrie und Produktherstellern am Eröffnungstag der Messe, wie wir unsere Flüsse und Ozeane besser vor Plastikmüll schützen können. Auf diese Weise treiben wir den fachlichen Austausch und den Technologietransfer aktiv voran.

 

 

Stichwort Smart Citys

Stürme, Starkregen und Dürren: Wetterextreme sind auch hierzulande angekommen. Welche Lösungen bietet die IFAT 2018 in diesem Kontext für Städte, Kommunen und Gemeinden?

Umwelttechnologien, wie die IFAT sie zeigt, können schnelle Abhilfe bei Starkregen und Überschwemmungen schaffen. Hochwasserrückhaltebecken regulieren zum Beispiel die Abflussmenge; sie können übermäßige Wasserfrachten aufnehmen, zwischenspeichern und nach Abklingen des Ereignisses wieder kontrolliert abgeben. Dafür bedarf es zum einen leistungsfähiger Abwassernetze und Pumpen, aber auch moderner Mess-, Steuer- und Regelungstechnik.

In Zeiten von Trockenheit und Dürren dagegen können Technologien eine nachhaltige Wasserversorgung sicherstellen. Die IFAT zeigt zum einen Lösungen zur Wassergewinnung und -förderung, zum anderen auch Anlagenkomponenten für Meerwasserentsalzung oder Systeme, mit welchen Wasser aus der Luftfeuchtigkeit gebunden werden kann. Letztere eignen sich insbesondere für Länder mit geringem Vorkommen von Süßwasserquellen.

 

Sind wir angesichts der zunehmenden Wetterextreme wirklich hilflos? Das war die zentrale Frage des IFAT Zukunftsdialogs. V.l.n.r: Maxine Mawhinney (ehem. BBC News), Prof. Stefan Rahmstorf (PIK), Dr. Eberhard Faust (Munich Re), Gerhard Hauber (Ramboll Studio Dreiseitl), Stefan Rummel (Messe München)

Welchen Stellenwert erfährt das Thema „Smart Waste“ in der „Smart City“?

In der „Smart City“ der Zukunft nimmt die intelligente Abfallwirtschaft einen großen Stellenwert ein. Sensoren können beispielsweisen den Füllstand unserer Mülltonnen an die Entsorgungsunternehmen übermitteln. Unnötige Abholungen gehören damit der Geschichte an. Firmen können die Müllabholung „On-Demand“ per App bestellen, auch hier ergeben sich Ansatzpunkte zur Kosteneinsparung und Effizienzsteigerung. Die Stadt von morgen lässt Müll komplett aus dem Stadtbild verschwinden. In Zeiten der zunehmenden Urbanisierung sind Flächen knapp und teuer. Mit Unterflursystemen lässt sich die Müllentsorgung unter die Erde verlegen und viel Platz sparen.

Es geht nicht nur um eine intelligente Entsorgung, sondern auch um die -verwertung und -aufbereitung. In unserer Welt der knappen Ressourcen wird Abfall zum Rohstoff der Zukunft. Milliarden Tonnen an Wertstoffen befinden sich in unseren Abfällen, in unserem Abwasser und – längerfristig gebunden – in unserem Bestand an Gebäuden, Infrastrukturen, Anlagen und Konsumgütern. Auch diese „anthropogenen Lagerstätten“ gilt es stärker zu nutzen – im Sinne einer effektiven Kreislaufwirtschaft.

 

Wie kann die IFAT als Messeplattform „Umwelt-City-Projekten“ zum Durchbruch verhelfen?

Die Technologien der IFAT sind der Schlüssel zu Umwelt-Cities. Nur im Zusammenspiel von Stadt- und Raumplanung und modernen Lösungen können diese gelingen und erfolgreich umgesetzt werden. Die IFAT bringt wie keine andere Veranstaltung die richtigen Stakeholder für solche Projekte zusammen: die Technologieanbieter, die Planungsbüros und die Kommunen. Mit einem internationalen Besucheranteil von 48 Prozent (2016) sorgt sie auch für den nötigen weltweiten Transfer von Wissen und Technologien. Damit schafft die IFAT die ideale Bühne, um Umwelt-City-Projekten global zum Durchbruch zu verhelfen.

 

Welche Zielgruppen bringen Sie in diesem Kontext an den Verhandlungstisch?

Die IFAT bringt Vertreter der unterschiedlichsten Bereiche zusammen: Die Kommunen machen mit einem Besucheranteil von 33 Prozent die größte Teilnehmergruppe aus, dicht gefolgt von Vertretern verschiedenster Industrien, wie der Automobil-, Bau-, Pharma- und Chemie- oder Logistikindustrie (25 Prozent). Auch Ingenieurbüros, Beratungsfirmen, Hochschulen und Forschungseinrichtungen zählen zu den Besuchern. (Zahlen aus 2016)

Für die kommende Veranstaltung hat die IFAT auch Nachwuchskräfte und Jungunternehmer ins Auge gefasst. Gerade zur Förderung von Ideen und Innovationen ist der heterogene Austausch zwischen jungen Talenten und erfahrenen Fachexperten unerlässlich.

 

Welche Ziele hat sich die IFAT dieses Jahr gesteckt?

Die IFAT hat sich zum Ziel gesteckt, die Besucher mit ihrer Innovationsvielfalt und -dichte zu begeistern. Mit der größeren Ausstellungsfläche, einem umfangreichen, hochaktuellen Rahmenprogramm und neuen Programmpunkten wie der Zukunftsplattform experience.science.future. haben die Veranstalter die idealen Voraussetzungen dafür geschaffen.

Die bisherigen Aussteller- und Flächenrekorde sind bereits geknackt: Über 3.100 Unternehmen haben sich für die IFAT 2018 angemeldet; die Rekordfläche von 260.000 Quadratmetern entspricht in etwa 36 Fußballfeldern. Im Mai gilt es, die Besucherzahlen zu toppen (2016: 136.885).

 

Herr Rummel, vielen Dank für das Gespräch.

 

 

Weitere Informationen finden Sie unter:

www.messe-muenchen.de
www.ifat.de

 

Mehr über den IFAT Environment Index finden Sie hier:
Smart und nachhaltig ergänzen sich ideal

 

Aufmacherbild / Beitragsbilder / Quelle / Lizenz
Messe München

 

Synergien zwischen Datenschutz und Qualität

Die Redaktion sprach im Interview mit Dr. Stephan Killich über Parallelen zwischen Datenschutz und Qualität und eine intuitive Softwarelösung für Prozess- und Qualitätsmanagement und deren Anwendung im Kontext der neuen Datenschutz-Grundverordnung.

 

Herr Dr. Killich, wen betrifft die neue EU-Datenschutz-Grundverordnung?

Alle Unternehmen und Organisationen, die personenbezogene Daten erheben oder verarbeiten sind von der neuen Grundverordnung betroffen. Damit sind nicht nur Betriebe und deren Kunden- und Mitarbeiterdaten, sondern auch Organisationen wie ehrenamtliche Vereine, die Daten ihrer Mitglieder oder ehrenamtlichen Helfer erfassen, an die Verordnung gebunden.

Ein Kriterium für das Führen eines Verzeichnisses für Verarbeitungstätigkeiten ist beispielsweise, dass eine Verarbeitung personenbezogener Daten nicht nur gelegentlich erfolgt. Das betrifft somit nahezu jede Organisation und jedes Unternehmen.

Die EU-weit geltende Verordnung bezieht darüber hinaus explizit auch Anbieter mit Sitz außerhalb der EU ein, sofern diese ihre Produkte und Dienstleistung an Bürger der EU richten.

 

Was ist neu?

Die neue europaweite Verordnung enthält viele Aspekte, die im bisher gültigen Bundesdatenschutzgesetz auch schon enthalten waren. An vielen Stellen werden die bisherigen Forderungen der Datenschutzrichtlinie 95/46/EG aber durch die neue EU DS-GVO konkretisiert und erweitert.

In aller Kürze gesagt, muss der Verantwortliche für den Datenschutz nach Artikel 5 die Einhaltung der Grundsätze der Verarbeitung personenbezogener Daten nachweisen können. Das bedeutet, er trägt die Rechenschaftspflicht. Laut Artikel 24 hat er technische und organisatorische Maßnahmen, die sogenannten TOMs, umzusetzen, um sicherzustellen und nachzuweisen, dass die Datenverarbeitung gemäß der DS-GVO erfolgt. Daneben gibt es spezielle Dokumentations- und Maßnahmepflichten, wie beispielsweise die Datenschutz-Folgenabschätzung oder das Verzeichnis der Verarbeitungstätigkeiten.

Auch wenn der Begriff ‚Managementsystem’ in der DS-GVO nicht explizit genannt ist, so ist doch aufgrund der Nachweis- und Rechenschaftspflicht aus Artikel 5 und der Forderungen aus Artikel 24 und auch hinsichtlich der Sanktions- und Haftungsrisiken für die konkrete Umsetzung der DS-GVO die Notwendigkeit – und ein großer Nutzen – eines umfassenden und systematischen Datenschutzmanagementsystems offensichtlich. Damit gehen die klassischen Anforderungen an die Dokumentation und Pflege eines solchen Managementsystems einher.

 

Warum müssen die Vorgaben eingehalten werden?

Die Nachweis- und Rechenschaftspflicht sowie die Sanktions- und Haftungsrisiken bei Nichtkonformitäten sind nach der neuen Verordnung so groß, dass eine Einhaltung zur Vermeidung von hohen Bußgeldern stark angeraten ist. Bei Verstößen drohen empfindliche Bußgelder, die im Extremfall bis zu 20 Millionen Euro beziehungsweise bis zu vier Prozent des weltweiten Jahresumsatzes betragen können.

Und unter Umständen könnte es nun zur faktischen Beweislastumkehr kommen, so dass der Verantwortliche wegen seiner Rechenschaftspflicht sogar die Darlegungs- und Beweislast trägt, dafür, dass er den haftungsauslösenden Verstoß nicht begangen hat. So ist man gut damit beraten, die Vorgaben tatsächlich einzuhalten.

Aber auch darüber hinaus ist es eine echte Chance, sich durch ein entsprechendes professionelles Datenschutzmanagementsystem vom Mitbewerber abzugrenzen und auf dem Markt positiv wahrgenommen zu werden.

Weiterhin ist es sehr wahrscheinlich, dass durch unterschiedliche Konkretisierungen zum Datenschutz, beispielweise im Rahmen von Gerichtsurteilen, neue Anforderungen ergeben. Um diesen zeitnah und ohne großen Aufwand gerecht zu werden, ist ein professionelles Datenschutzmanagementsystem erforderlich.

 

Welche Fragen sollten sich Unternehmen zum Start jetzt stellen?

Was habe ich schon, das ich irgendwie verwenden kann? Das ist die erste Frage, die man sich als Unternehmen stellen sollte. Um den Aufwand zu minimieren und die Umsetzung schnellstmöglich zu erreichen, sollte auf Bestehendem aufgebaut und nicht bei null angefangen werden. Häufig stellt sich heraus, dass Unternehmen schon unbewusst viel aktiver in Sachen Datenschutz sind, als sie selbst annehmen.

Gibt es schon ein Managementsystem in meinem Unternehmen, das Parallelen zur DS-GVO aufweist, zum Beispiel ein Qualitätsmanagementsystem oder ein Informationssicherheits-Managementsystem? Wenn ja, dann habe ich es viel leichter die Forderungen der DS-GVO umzusetzen, denn ich kann die vorhandenen Strukturen, Ressourcen, Inhalte und Methoden nutzen. Darauf aufbauend können gezielt Ergänzungen um die datenschutzrechtlichen Aspekte erfolgen. Dazu folgen dann elementare Fragen, wie „Wo werden welche personenbezogenen Daten verarbeitet und zu welchem Zweck?“

 

Wie können Vorgaben eingehalten werden?

Bewährte Methoden sollten zum Einsatz kommen, zum Beispiel der aus dem QM bekannte und etablierte PDCA-Zyklus. Alle datenschutzrelevanten Aktivitäten müssen schnellstmöglich in eine transparente Struktur gebracht werden.

Dabei macht eine geeignete Softwarelösung zur Abbildung von elektronischen Managementsystemen das Leben leichter, denn diese übernimmt beispielsweise Routinetätigkeiten, automatisiert Abläufe mittels Workflows und bietet viele weitere hilfreiche Funktionen.

Dabei ist es sinnvoll, ein integriertes Managementsystem zu wählen, um mehrere Normen und Regelwerke unter einer gemeinsamen Oberfläche abzubilden. Wir kennen die Nachteile der Insellösungen aus den Anfängen des Qualitätsmanagements. Diesen Fehler sollte man heute von Anfang an vermeiden und Synergien nutzen, zum Beispiel insbesondere zwischen Datenschutz und Qualitätsmanagement.

 

Warum können Unternehmen, die bereits nach DIN EN ISO 9001 zertifiziert sind, den neuen Vorschriften gelassener entgegensehen?

Es gibt viele Parallelen und Synergien zwischen den zwei Systemen. Der Aufbau eines Datenschutz-Managementsystems und der eines Qualitäts-Managementsystems besitzen viele Gemeinsamkeiten und dadurch auch Synergiepotentiale.

Vorteile sind beispielsweise, dass in einem QM-System schon Vorarbeit geleistet wurde: Prozesse und Abläufe sind bereits dokumentiert, hier im Hinblick auf die sogenannte Vorgabedokumentation. Zusätzlich sind die Verantwortlichkeiten im Kontext der Prozesse klar definiert. Darüber hinaus gibt es ein etabliertes Verfahren zum Revisionsmanagement, auf das im Sinne der Rechenschaftspflicht zurückgegriffen werden sollte.

Ein weiteres etabliertes Verfahren, das im Qualitätsmanagement angewendet wird, ist das Audit. Ein Unternehmen muss sich in regelmäßigen Abständen die Frage nach der Aktualität des Managementsystems stellen. Besteht diesbezüglich vielleicht Handlungsbedarf? Und dieses Verfahren kann eins zu eins auf den Datenschutz übertragen werden, sowohl im Hinblick auf die komplette Dokumentation des Datenschutzmanagementsystems als auch auf die ‚TOMs‘, die technisch-organisatorischen Maßnahmen.

 

Dr. Stephan Killich betont: „Durch Datenschutz können Unternehmen eine Vertrauensbasis zum Kunden aufbauen.“

 

Was raten Sie Unternehmen, die bereits ein QMS im Einsatz haben?

Für die Bestandsaufnahme ist eine Analyse des QM-Systems eine große Hilfe und Erleichterung. Viele Informationen zum Aufbau eines Verzeichnisses der Verarbeitungstätigkeiten können aus der QM-Dokumentation automatisch generiert oder zusammengestellt werden.

Unsere integrierte Softwarelösung aus QM und Datenschutz ermöglicht beispielsweise die Analyse der Vorgabedokumentation im Hinblick auf die Verarbeitung personenbezogener Daten und die Ableitung eines Verzeichnisses der Verarbeitungstätigkeiten.

Automatisierte Verfahren wie zum Beispiel zur Revisionierung, Prüfung, Freigabe, Wiedervorlage und Kenntnisnahme reduzieren den Aufwand für „lästige“ Dokumentationspflichten auf ein Minimum. Auch für die Datenschutzfolgenabschätzung sollten Unternehmen bestehende Mechanismen des Risikomanagements anwenden.

Mein Rat in Kürze: Unternehmen sollten die Vorgabedokumentation des Qualitätsmanagements für die Bestandsaufnahme nutzen, das Datenschutzmanagement-System in das bestehende System integrieren und hinterfragen, was ihnen für die Abbildung eines Datenschutzmanagement-Systems an Werkzeugen und Inhalten bereits zur Verfügung steht.

 

Welche Hürden müssen noch gemeistert werden?

Ein weiterer nicht zu vernachlässigender Aspekt ist die Akzeptanz eines solchen Managementsystems. Nur ein von den Mitarbeitern akzeptiertes und gelebtes System führt zum Erfolg, da die Inhalte ansonsten schnell veraltet und nicht mehr gültig sind. Damit wäre einerseits die Einhaltung der Vorgaben der DS-GVO im Laufe der Zeit gefährdet und bei Verstößen würden wieder Bußgelder drohen, und andererseits ist doch das Ziel eines jeden Managementsystems die kontinuierliche Verbesserung – und diese wird nur mit aktuellen Inhalten und realitätsnahen Abläufen möglich.

Ein Datenschutzmanagementsystem muss, genau wie ein QM-System, von den Mitarbeitern akzeptiert und gelebt werden. Erst dann ist es eine Lösung, die einen echten Mehrwert bringt und in der Lage ist, flexibel auf zukünftige Änderungen zu reagieren.

Doch wie bekommt man es hin, dass ein solches System, das in der Regel nicht gerade von allen Mitarbeitern freudig und erwartungsvoll begrüßt wird, akzeptiert und lebendig wird? Genau hiermit haben wir sehr umfangreiche Erfahrungen.

 

Inwieweit kann die EU-DSGVO auch als Chance begriffen werden?

Durch Datenschutz können Unternehmen eine Vertrauensbasis zum Kunden aufbauen. Der Kunde ist nach der DSGVO der Betroffene, für den es ein wichtiges Kriterium ist, dass seine Daten auch geschützt sind. Somit kann Datenschutz per se einen Wettbewerbsvorteil darstellen.

Wenn ich ein gutes Verhältnis zu meinem Kunden haben möchte, dann ist das für mich eine Mindestvoraussetzung, dass ich mit seinen Daten auch gut umgehe. Und gerade weil es im Kundenverhältnis so wichtig ist, ist das für mich klar ein Wettbewerbsvorteil. Also kann sich ein Unternehmen durch ein gutes Datenschutzmanagementsystem sehr stark von seinen Mitbewerbern abheben.

 

Herr Dr. Killich, vielen Dank für das Gespräch.

 

www.consense-gmbh.de

 

Der Wert der Anonymität

TREND REPORT sprach mit Harry Sidiropoulos von CloakCoin über die Idee hinter dem Projekt und die Möglichkeiten, mit der Kryptowährung Gewinne zu erzielen.

„Anonymität im Zahlungsverkehr ist weit mehr als ein Grundrecht“, betont Sidiropoulos, das Sprachrohr der schon seit 2013 im Markt aktiven Krypto-Enthusiasten. „Verschlüsselte Adressen und Transaktionen schützen vor unbefugten Zugriffen.“ Hacker könnten sich sonst nicht nur digitale Coins aneignen, sondern erhielten auch Zugriff auf sensible Transaktionsdaten. Daten, mit denen im Zuge der PSD2-Richtlinie ohnehin viel zu leichtfertig umgegangen werde.

Nach dreijähriger Entwicklungsphase veröffentlichte das Team das Transaktionssystem Enigma unter einer Open-Source-Lizenz. „Dabei wurde das Cloak-Projekt all die Jahre und wird auch heute noch aus eigenen Mitteln finanziert“, beteuert Sidiropoulos. Eine Enig­ma-Transaktion kann nicht zurückverfolgt, Absender und Empfänger nicht identifiziert werden. Daten werden weder protokolliert noch online gespeichert. „Sobald eine Enigma-Transaktion durchgeführt wird“, erläutert Sidiropoulos, „werden per Zufall andere Teilnehmer, sogenannte Nodes, aus dem Netzwerk ausgewählt. Über diese wird die Transaktionssumme vermischt, ehe sie der Empfänger erhält. Die Verbindung zwischen Versender und Nodes ist verschlüsselt und wird innerhalb eines Peer-to-Peer-Netzwerks durchgeführt. Für das Versenden einer Enigma-Transaktion fällt eine Gebühr in Abhängigkeit von der Transaktionssumme an. Sie dient als Belohnung der Nodes, verteilt sich zufällig unter diesen und beträgt zwischen 0,2 und einem Prozent der gesendeten Coins. Je mehr transferiert wird, desto geringer die prozentuale Enigma-Gebühr.

CloakCoin ist dabei die erste Krypto­währung, die durch Cognosec ein externes Audit eines NASDAQ-gelisteten Cyber-Security-Unternehmens durch­führen ließ. „Aus der Prüfung konnten Korrekturmaßnahmen abgeleitet und Prozessänderungen umgesetzt werden“, so Sidiropoulos. „Enigma wurde dadurch optimiert und Schwachstellen beseitigt.“

Bei der Coins-Generierung wird das ressourcenschonende Proof-of-Stake-Verfahren eingesetzt. Dabei wird der Besitzer allein für das Halten der Coins mit einer Verzinsung von jährlich sechs Prozent belohnt. Neben möglichen Kursgewinnen und der Gebühreneinnahme in der Funktion als Node einer Enigma-Transaktion ist dies die dritte Einnahmemöglichkeit der Kryptowährung.

Erwerben lassen sich die Coins über verschiedene Kryptobörsen. Das neuste CloakCoin-Wallet ist dabei sehr benutzerfreundlich und spezielles Know-how ist nicht erforderlich. Fragen werden jederzeit im Chat beantwortet oder vom 5./6. April auf der C3 Crypto Conference in Berlin, wo man als Aussteller und Sponsor tätig ist.

 


www.cloakcoin.com

Krypto-Glossar

Die wichtigsten Wörter um Bitcoin & Co hat die TREND-REPORT-Redaktion zum besseren Verständnis hier zusammengetragen.

Distributed-Ledger-Technologie

Die Distributed-Ledger-Technologie beschreibt die Technologie für vernetzte Computer, die zu einer Übereinkunft (Konsensus) über die Reihenfolge von bestimmten Transaktionen kommen und darüber, dass diese Transaktionen Daten aktualisieren. Es wird auch von dezentral geführten Kontobüchern oder Transaktionsdatenbanken gesprochen. Die von dem Distributed-Ledger verwalteten Daten können zum Beispiel der Kontostand einer Bitcoinadresse, der Zustand eines Smart Contracts oder die Herkunft eines Diamanten sein. Diese Technologien gelten als wegweisend für die Verwaltung von Daten im Internet ohne proprietäre Plattformen.

Die Distributed-Ledger-Technologien unterscheiden sich durch die Art, wie die vernetzen Computer zu einer Vereinbarung kommen (Konsensusprotokolle), etwa durch Proof of Work wie in Bitcoin, durch den Nachweis ökonomischer Interessen (Proof of Stake) wie in Ethereums Casper, durch einen Koordinator wie in Raft oder durch Wahlen wie in Swirlds. Außerdem wird zwischen öffentlichen und privaten Distributed-Ledger-Technologien unterschieden. Bei den öffentlichen kann sich jeder am Computernetzwerk beteiligen und die Daten einsehen, bei privaten nicht.

Blockchain ist eine der bekanntesten Distributed-Ledger-Technologien, die als Grundlage für Kryptowährungen dient. Daher wird Blockchain-Technologie auch als Begriff für Distributed-Ledger-Technologien verwendet.

Seite „Distributed-Ledger-Technologie“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 8. März 2018, 14:21 UTC. URL: https://de.wikipedia.org/w/index.php?title=Distributed-Ledger-Technologie&oldid=174814093 (Abgerufen: 26. März 2018, 06:36 UTC)

 

Blockchain

Eine Blockchain (auch Block Chain, englisch für Blockkette) ist eine kontinuierlich erweiterbare Liste von Datensätzen, genannt „Blöcke“, welche mittels kryptographischer Verfahren miteinander verkettet sind. Jeder Block enthält dabei typischerweise einen kryptographisch sicheren Hash (Streuwert) des vorhergehenden Blocks, einen Zeitstempel und Transaktionsdaten.

Der Begriff Blockchain wird allgemeiner für ein Konzept genutzt, mit dem ein Buchführungssystem dezentral geführt werden kann und dennoch ein Konsens über den richtigen Zustand der Buchführung erzielt wird, auch wenn viele Teilnehmer an der Buchführung beteiligt sind. Dieses Konzept wird als Distributed-Ledger-Technologie (DLT) bezeichnet. Worüber in dem Buchführungssystem Buch geführt wird, ist für den Begriff der Blockchain unerheblich. Entscheidend ist, dass spätere Transaktionen auf früheren Transaktionen aufbauen und diese als richtig bestätigen, indem sie die Kenntnis der früheren Transaktionen beweisen. Damit wird es unmöglich gemacht, Existenz oder Inhalt der früheren Transaktionen zu manipulieren oder zu tilgen, ohne gleichzeitig alle späteren Transaktionen ebenfalls zu zerstören, die die früheren bestätigt haben. Andere Teilnehmer der dezentralen Buchführung, die noch Kenntnis der späteren Transaktionen haben, würden eine manipulierte Kopie der Blockchain ganz einfach daran erkennen, dass sie Inkonsistenzen in den Berechnungen aufweist.

Das Verfahren der kryptografischen Verkettung in einem dezentral geführten Buchführungssystem ist die technische Basis für Kryptowährungen, kann aber darüber hinaus in verteilten Systemen zur Verbesserung bzw. Vereinfachung der Transaktionssicherheit im Vergleich zu zentralen Systemen beitragen.

Die Funktionsweise ähnelt dem Journal der Buchführung. Es wird daher auch als „Internet der Werte“ (Internet of value) bezeichnet. Eine Blockchain ermöglicht es, dass in einem dezentralen Netzwerk eine Einigkeit zwischen den Knoten erzielt werden kann. (Siehe auch: Byzantinischer Fehler.)

Die älteste noch in Betrieb befindliche Blockchain ist die der Kryptowährung Bitcoin.

Seite „Blockchain“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 22. März 2018, 14:24 UTC. URL: https://de.wikipedia.org/w/index.php?title=Blockchain&oldid=175275083 (Abgerufen: 26. März 2018, 06:40 UTC)

 

Smart Citys

Reportage

Mit intelligenten Technologien den wachsenden Anforderungen an Verkehr, Lebensstandard und Umweltschutz begegnen.

Laut eco und Arthur D. Little wird der Smart-City-Markt in den kommenden Jahren einer der am schnellsten wachsenden Sektoren weltweit und auch in Deutschland sein. 2017 verzeichnete er in Deutschland einen Umsatz von circa 20,4 Mrd. Euro. Bis 2022 soll er sich dann schon auf rund 43,8 Mrd. Euro mehr als verdoppelt haben.

Für Prof. h. c. Dr. Etezadzadeh, Gründerin und Institutsleiterin des Smart City.institute, ist eine Smart City „eine Stadt, die nicht nur auf ihren Selbsterhalt, sondern auch auf den Erhalt ihrer natürlichen Umwelt ausgerichtet ist. Sie stellt die Lebensqualität aller Bewohner, den Erhalt des Klimas und der lebendigen Umwelt in den Mittelpunkt der Stadtentwicklung. Eine Smart City strebt nach der Festigung ihrer eigenen Identität, nach lebendiger Vielfalt, sozialer Kohäsion und umfassender Resilienz. Sie hat eine integrierte Stadtverwaltung, die effektiv und nach den Kriterien der Urban Governance arbeitet. Sie verfügt über geeignete Infrastrukturen und nutzt interoperable Techniken, die Vernetzung von Systemen sowie die Digitalisierung, um ihre Ziele zu erreichen, ohne sich technischen Innovationen jemals auszuliefern.“ Dabei wird die Digitalisierung in alle Lebensbereiche eindringen und die Städte werden für dieses Ziel insbesondere ihre urbanen Infrastrukturen modernisieren müssen.

 

„Die Nutzungsweise der Verkehrsträger sowie das Mobilitätsverhalten insgesamt werden sich verändern“, betont Chirine Ete­zadzadeh.

 

Und noch etwas ist klar: Ohne Smart Services keine Smart Citys. Die technische Basis dafür sind IoT- und Cloud-Plattformen, über welche die Da­ten gewonnen werden, die dann – analysiert und aufbereitet – in die Smart Services für die Bürger ein- und diesen wieder zufließen. Dabei können sich die „IT-Plattformen unabhängig von der Größe einer Stadt zu einer Art kommunales Gehirn entwickeln“, weiß Ete­zadzadeh. Ausgerüstet mit einer VR-Brille und einem 3-D-Drucker könnten z. B. technische Außendienstmitarbeiter der Stadt die „kleinen grauen Zellen“ dieses kommunalen Gehirns anzapfen, um schneller und besser Wartungen und Reparaturen an der Verkehrsinfrastruktur durchzuführen.

Hilfe und Lösungen finden Städte, Kommunen und Gemeinden in diesem Kontext auf der diesjährigen IFAT. „Erstmalig wird es auf der IFAT 2018 eine Sonderschau für den Straßenbausektor geben. Diese deckt die gesamte Prozesskette des Straßenbaus ab und konzentriert sich dabei auf nachhaltige Verfahren und Baustoffe sowie die Digitalisierung von Prozessen“, betonte Stefan Rummel, Geschäftsführer der Messe München, im Gespräch mit der TREND-REPORT-Redaktion. Rummel fährt fort: „Smarte Umwelt-Citys verfolgen das Ziel, durch eine Kooperation von Stadtverwaltungen, Bürgern, Wirtschaft und Wissenschaft definierte Umweltschutz-Ziele intelligent zu erreichen. So wird beispielsweise der Städtebau auf extremen Niederschlag angepasst.“

Immer öfter kommen extreme Wettersituationen auf die Städte und Mega­citys dieser Welt zu. Die damit zu­sammenhängenden Ängste der Bundesbür­ger verdeutlicht der „IFAT Environment Index 2018“ sehr gut. Laut der in fünf Ländern durchgeführten repräsentativen Umfrage zu Umwelthemen fürchten sich Bundesbürger vor extremen Wetter-Ereignissen und drängen darauf, die kritischen Folgen mit Umwelt-City-Projekten einzugrenzen (72 Prozent).

„80 Prozent sehen in solchen smarten Projekten eine wichtige Chance, Zukunftstechnik in der Praxis zum Durchbruch zu verhelfen. Vor diesem Hintergrund werden Plattformen wie die IFAT künftig noch weiter an Bedeutung gewinnen“, sagt IFAT-Chef Stefan Rummel. Auch globale Zusammenarbeit ist gefragt: Dem „IFAT Environment Index“ zufolge plädieren 81 Prozent der Bundesbürger für eine weltweite Kooperation von Forschung und Entwicklung, damit Umwelttechnologien die negativen Trends aufhalten helfen.

Schlaue Städte

Schlaue Städte halten schon heute Smart Services und damit z. B. aktuelle Bürgerinformationen für ihre Einwohner bereit. Wetterdaten z.B., die ständiger Aktualität unterliegen, helfen in „Echtzeit“ Energie zu sparen oder warnen vor extremen Wetter-Ereignissen. Friederike Koch von der WetterOnline GmbH aus Bonn erläuterte uns dazu: „Im Kontext ‚Smart City‘ gewinnen umfassende Wetterdaten sicherlich noch einmal an Bedeutung. Gerade Themen wie alternative Energien, Nachhaltigkeit und Mobilität enthalten immer eine Wetterkomponente.“

Die Meteorologin fährt fort: „Ein Beispiel sind die immer komplexer werdenden Systeme zur Haussteuerung. Mit automatisch einfließenden Wetter­informationen können Heizung, Jalousien und hauseigene Fotovoltaik­anlagen optimal gesteuert werden. Und wenn es dann noch eine smarte Bewässerungsanlage gibt, braucht man sich nie mehr darüber zu ärgern, dass der Rasensprenger gerade nach einem starken Regen noch läuft.“

WetterOnline bietet mit der Wetter-API wertvolle Informationen in Form von Wetterdaten an, um Entwicklungen von neuen Produkten und Applikationen, zur Information von Bürgern oder zur Überwachung laufender Prozesse zu ermöglichen.

 

Eine Smart City stellt die Lebensqualität, den Erhalt des Klimas und der lebendigen Umwelt in den Mittelpunkt.

 

Es gibt verschiedene Strategien auf dem Weg zu einer Smart City. Jede Stadt muss den am besten für sie geeigneten herausfinden, es gibt keine Univer­sallösung. In seinem „Smart City Index“ empfiehlt Roland Berger den Groß­städ­ten, erst einmal zu ermitteln, welche Ser­vices ihren Bürgern wichtig sind, wo der Schuh drückt.

Wichtig sei, dass Smart-City-Ansätze nicht in einzelnen, unver­bundenen Lösungen stecken blei­ben, son­dern die Breite der öffentlichen Daseinsvorsorge adressieren und die ent­spre­­chenden Anwendungen auch untereinander verknüpfen. Von Vorteil wird es dabei sicher sein, auf dem aufzubauen, was man schon hat oder besonders gut kann, um dann Schritt für Schritt eine Lösung, einen Service nach dem anderen zu entwickeln und einzuführen.

Projekte zeigen, wie Smart Citys gelingen können

Wie das geht, könnte das Projekt „Digitale Stadt Darmstadt“ noch vorleben als Living-Lab für Smart-City-Technologie. Seit dem Gewinn des bitkom-Wettbewerbs „Digitale Stadt“ im Juni 2017 sind nun einige Monate vergangen, in denen die Wissenschaftsstadt intensiv die notwendigen Maßnahmen und Initiativen ergriffen hat, um die Umsetzung der im Wettbewerb vorgestellten Visionen für eine digitalisierte Stadt vorzubereiten.

Innerhalb des städtischen Unternehmensverbundes hat die Digitalstadt Darmstadt nun eine verlässliche und umsetzungsstarke Struktur erhalten: die Digitalstadt Darmstadt GmbH. Gut wäre es, wenn die neue GmbH einem CDO („Chief Digital Officer“) im Aufgaben-Sinne der Stadt Darmstadt gleichkommen würde. Fest steht, für den urbanen Verkehr der Zukunft müssen die richtigen technischen Voraussetzungen geschaffen werden.

Eines der dringendsten Probleme, die in diesem Zusammenhang immer wieder auftauchen, ist die Planung und Organi­sation des künftigen städtischen Verkehrs, auch um den Bürgern zukunftsweisende Verkehrskonzepte bei gleichzeitiger Reduktion der klima­schädlichen und gesundheitsschädigenden Abgase offerieren zu können.

„Im Mobilitätssektor werden sich nicht nur die Antriebsverfahren, sondern auch die Nutzungsweise der Verkehrsträger sowie das Mobilitätsverhalten insgesamt verändern“, betont Chirine Etezad­zadeh. Dies erfordere u. a. Innovationen im Bereich des motorisierten Individualverkehrs, des öffentlichen Verkehrs sowie in der urbanen Logistik.

Ihrer Meinung nach „wird der Durchbruch hinsichtlich der Aufrechterhaltung der Mobilität im urbanen Raum durch autonome Fahrzeuge erreicht werden. Zusätzlich lassen sich zum Beispiel über offene Cloud-Plattformen vernetzte Verkehrssysteme in Echtzeit organisieren. Gerade für Ballungsgebiete stellt das wachsende Verkehrsaufkommen eine große Herausforderung dar.

In diesem Zusammenhang ist eine weitere Vision zur digitalen Verkehrssteuerung in Darmstadt schnell Wirklichkeit geworden, denn der Straßenverkehr wird in Darmstadt digital und in Echtzeit gesteuert – abhängig vom Verkehrsaufkommen. Eine digitale Open-Data-Plattform mit Verkehrsdaten bietet die ideale Grundlage, um den urbanen Verkehr in Zukunft noch besser in den Griff zu bekommen.

Darüber hinaus werden „aus dem Zusammenspiel innovativer Mobilitätsfor­men und deren digitaler Vernetzung zahllose Möglichkeiten, Geschäftsmodelle zu etablieren, resultieren“, so Chi­rine Etezadzadeh weiter. Als einfachste Beispiele nennt sie Apps, die Mobilitätsmärkte schaffen, indem sie Anbieter und Nachfrager miteinander vernetzen, wie beispielsweise Ridesharing- und Carsharing-Dienste oder Travelservices. „Komplexer wird es, wenn verschiedene Verkehrsträger und Dienste miteinander vernetzt werden müssen, damit verkehrsträgerübergreifend nahtlose Reiseerfahrungen entstehen.“

Aber die Stadt der Zukunft braucht auch Ruhezonen und viel Grün. Zusätzlich wird man sich über die Mischung der Bevölkerung im Kontext der demografischen Entwicklung Gedanken machen müssen. Wir sprechen von digitalen Ökosystemen aber unsere Städte brauchen auch natürliche Ökosysteme und damit nachhaltige Wohnquartiere. Die Themen Green Building und Smart Citys sind unter Architekten, Projektentwicklern und Investoren mittlerweile zu Megatrends geworden.

In diesem Kontext verfolgen Georg Hetz und Stefan Keller als Immobilien-Projektentwickler mit langjähriger Investmenterfahrung bei UDI das Ziel, ausschließlich in rentable, nachhaltige und umweltfreundliche Immobilien zu investieren. Stefan Keller und Georg Hetz erklärten im Kontext ihrer neuen Bauvorhaben dazu: „Komplexe und auch teure Konzepte im Bereich Smart Home sowie Gebäude- und Office-Automatisierung können heute kosteneffizient auf diverse Gebäude ausgerollt werden. Die durch z. B. Geothermie erzeugte Energie stellen wir dann als Contractor den Gebäudebetreibern wieder zur Verfügung. Mit diesem nachhaltigen Ansatz schaffen wir eine ‚kleine Smart City‘ in der Smart City. Quartierslösungen mit kurzen Wegen, zusätzlichen Servicepaketen und viel integriertem Grün, das ist unser Beitrag zur Smart City.“

 

Für Andreas Barth, Managing Director, EuroCentral bei Dassault Systèmes
geht es sowohl in der Industrie als auch bei Stadtentwicklung immer um eine durchgängige Datenbasis.

 

Natur und Hochhausdschungel liegen zum Beispiel in Singapur nah beieinander, denn der Inselstaat will die grünste Stadt der Welt werden. Die Symbiose von Technologie und Natur scheint hier gelungen. Außerdem punktet die Stadt mit dem Projekt „Virtual Singapore“, hier wurde ein digitaler Zwilling von Singapur geschaffen.

Andreas Barth, Managing Director EuroCentral bei Dassault Systèmes, erklärte uns dazu: „Im Fall Singapur werden Daten von staatlichen Stellen gesammelt, genauso wie Daten aus der natürlichen Umwelt. Danach werden sie von Fachleuten mit Domänen-Wissen analysiert, um Rückschlüsse ziehen zu können und die Wenn-dann-Szenarien simulieren zu können.

Dieser Vorgang lässt sich auch auf die Industrie 4.0 übertragen: Es geht immer um eine durchgängige Datenbasis. Denn um einen digitalen Zwilling zu erstellen, müssen alle relevanten Daten an allen wichtigen Schnittstellen gesammelt und analysiert werden. Eine ganzheitliche Perspektive und die Fähigkeit, an jeder Stelle des Wertschöpfungsprozesses nahtlos zusammenzuarbeiten – das sind die Katalysatoren, die uns alle ins digitale Zeitalter katapultieren können.“

Smart Services

Big Data und Digitale Ökosysteme verbessern die Kundenbindung und Wettbewerbsfähigkeit

Schon heute werden intelligente Produkte zunehmend durch internetbasierte, digitale und physische Dienstleistungen erweitert. Physische und digitale Dienstleistungen werden kombiniert sowie verknüpft und uns Kunden als Service bedarfsgerecht und flexibel zur Verfügung gestellt. Wir bezeichnen diese Verknüpfung bzw. Verschmelzung von physischen und digitalen Services dann als Smart Service. Big Data, also große Datenmengen, bilden die Grundlage, um durch die schlaue Analyse der Daten neue Erkenntnisse zu gewinnen. Wie überführt man aber nun die physische Welt in eine digitale Welt und umgekehrt? Dafür hat sich unsere Redaktion mit Experten aus Forschung und Wirtschaft unterhalten.

Dr. Mathias Weber vom Arbeitskreis Smart Services, Bitkom e.V. schreibt dazu: „Wesentliche Merkmale von Smart Services sind die Individualisierung – und damit die Kontextbindung – sowie der Kundennutzen. Die kontextspezifischen und kombinierten Services können z.B. den Bereichen Arbeit, Freizeit, Gesundheit, Mobilität, Reisen oder Bildung zuzuordnen sein.“

 

Die OpenServ4p-Plattform

Ziel des Smart Service Welt-Projekts OpenServ4P ist die Entwicklung einer Plattform für internetbasierte Services im Umfeld von Cyber-Physischen Produktions­systemen. https://openserv4p.de/

 

Doch Smart Services benötigen auch eine neue digitale Infrastruktur. Das Internet der Dinge hat in diesem Kontext seinen Namen verdient. Denn Ziel ist es, Gegenstände und Produkte jeglicher Art mit dem Internet bzw. untereinander digital zu vernetzten. Wenn jetzt noch die richtige Sensorik Daten von und aus den Produkten in Echtzeit erfasst, schließt sich der Kreislauf. Digitale Serviceplattformen auf Cloud-Servern in Cloud-Zentren, können dann aus den generierten Daten „Smart Services“ zur Verfügung stellen.

Daraus resultieren verschiedene Anforderungen an Anbieter von Rechenzentrumsdienstleistungen, Donald Badoux, Managing Director, Equinix Deutschland erklärte uns dazu: „Auf operativer Ebene spielen Faktoren wie Zuverlässigkeit, Leistungsdichte, und natürlich Sicherheit eine enorm wichtige Rolle. Anforderungen entstehen zudem besonders in Bezug auf die kontinuierlich steigenden Datenmengen, die durch die wachsende Anzahl von IoT-Geräten – vom Smartphone bis hin zu Fertigungsmaschinen in der Industrie – entstehen. Diese Daten müssen (an verteilten Orten) gesammelt, übertragen, ausgewertet, verknüpft und gewinnbringend eingesetzt werden.“ Badoux betonte dabei: „Rechenzentren machen diese Verbindungen überhaupt erst möglich und garantieren dabei Flexibilität, Skalierbarkeit und Sicherheit“.

Clever & Smart – Location-Based-Services

Die digitale Infrastruktur um Produkte und Gegenstände jeglicher Art zu vernetzten, kann unter anderem mit der Beacon-Technologie realisiert werden.
So können zum Beispiel in Gebäuden, die über ein Bluetooth Low Energy Mesh-Netzwerk digitalisiert sind und die über die notwendige Sensorik verfügen, die unterschiedlichsten Smart Services realisiert werden. Beispielsweise die Steuerung der Gebäudetechnologie wie Heizung oder Klima, Jalousien und Licht bis hin zur Erkennung von freien Arbeitsplätzen im Kontext der Auslastung.

Die Technologie wirkt sich auf jeden von uns in Zukunft aus. Zum Beispiel in Einrichtungen des Gesundheitswesens wie Krankenhäusern, die nun die Möglichkeit haben, ihren physischen Raum und ihre Geräte mittels Beacon-Technologie zu digitalisieren. Damit können Geräte schnell aufgefunden werden, wenn auf sie im Notfall zugegriffen werden muss.

Mit dem sogenannten Beacon-Mesh und einer digitalen Serviceplattform kann die Interaktion mit anderen Geräten beginnen. Das Asset-Tracking für Krankenhäuser löst damit viele Probleme in Echtzeit. Der Hauptvorteil von Asset-Tracking-Lösungen sind Kosteneinsparungen durch Effizienzsteigerung und Optimierung des Inventars. Grundlage hierfür ist die Transparenz, wo sich bewegliche Gegenstände wie Betten oder medizinische Geräte zu einem bestimmten Zeitpunkt befinden. Basierend darauf können dann das Inventar und die Prozesse optimiert werden. Dies kommt dann vor allem den Patienten zugute, denn durch die eingesparte Zeit kann das Krankenhauspersonal nachhaltig entlastet werden.

Smart und Sicher mit der Blockchain

Ein wichtiger technologischer Treiber und Enabler für Smart Services ist die Blockchain-Technologie.
Die Anwendungsbeispiele für die Blockchain und seine Smart Contracts sind dabei sehr breit gesät und berühren viele Anwendungen aus den Bereichen Banking, Business, öffentliche Hand und Industrie. Die vier wichtigsten Vorteile der Technologie sind Zuverlässigkeit und Integrität der Daten, sowie Geschwindigkeit und Speicherung mit Analysemöglichkeiten und Transparenz.

Die Blockchain bringt uns und den Planeten auch in Punkto Nachhaltigkeit voran. Wie diese Technologie genutzt werden kann, um die Nachhaltigkeit globaler Lieferketten zu stärken, verdeutlicht uns Jörg Walden von iPoint-systems: „Wir arbeiten an einer Blockchain-basierten Lösung, mit der Rohstoffe aus Konfliktgebieten über die gesamte Lieferkette hinweg – von der Mine bis zum Laden – lückenlos rückverfolgt werden können. Unsere Partner sammeln und verifizieren am Anfang der Lieferkette, direkt vor Ort an den Minen, die Ursprungsdaten zu Konfliktrohstoffen und Arbeitsbedingungen und stellen sie fast in Echtzeit über die Blockchain bereit. Dadurch können alle Lieferkettenakteure bis hin zum Endkunden die Entstehungsgeschichte eines Produkts zurückverfolgen. Indem unsere Lösung die von Anfang bis Ende erfasste Lieferkette transparent macht, leistet sie einen Beitrag zur Unterstützung ethisch unbedenklicher, nachhaltiger Praktiken und Verhaltensweisen entlang globaler Wertschöpfungsketten.“

Wie zum Beispiel aus Wetterdaten Smart Services generiert werden können erklärte uns Friederike Koch, Meteorologin von WetterOnline aus Bonn: „Die Anforderungen an einen smarten Service sind vielfältig. Zuerst einmal sollte er immer erreichbar sein und die Daten schnell übertragen. Dafür ist eine stabile und verlässliche IT-Infrastruktur unbedingt Voraussetzung. Ist dieser wesentliche Faktor nicht gegeben, wird sich das in der Anwendung negativ bemerkbar machen noch bevor eine Datenauswertung stattgefunden hat. Ebenfalls unter dem Aspekt der Erreichbarkeit, sollte der Service für jeden beliebigen Ort nutzbar sein und belastbare Ergebnisse liefern“.

Friederike Koch erklärt dazu: „Der Schlüssel zu einer smarten Anwendung liegt natürlich in der Kombination und Auswertung der passenden Datenquellen. Dabei sollte alles berücksichtigt werden, dass einen Mehrwert bietet, jedoch auch auf Quellen verzichtet werden, die keine Relevanz haben oder von minderer Qualität sind. Ziel sollte ein stabiler Service sein, der alle Daten in Echtzeit auswertet und flexibel reagiert.“ Das Unternehmen bietet alles zum Wetter an jedem Ort, das Wetter in Deutschland, die aktuelle Wetterlage und das Reisewetter weltweit. Mit dem RegenRadar lassen sich Wolken, Niederschlag, Gewitter (Blitze) und Temperaturen interaktiv für ganz Mitteleuropa praktisch in Echtzeit verfolgen.

 

Der Schlüssel einer smarten Anwendung liegt in der Kombination und Auswertung der passenden Daten.

Die vorliegenden Beispiele erklären gut, wie sich auch der deutsche Mittelstand durch das Potential der Digitalisierung im Kontext neuer Technologien weiterentwickeln kann.
Auch das Bundesministerium für Wirtschaft und Energie (BMWi) will mit den Förderprogrammen „Smart Service Welt“ und „Smart Service Welt II“ einen Beitrag dazu leisten, dass die deutsche Wirtschaft die Digitalisierung als Chance versteht und gestalterisch nutzt. Das Förderprogramm Smart Service Welt II ist am 4. November 2016 gestartet und soll Anwendungsfelder erschließen, die bislang unterrepräsentiert sind.

Gesucht werden auch Projekte, die ihren Anwendungsschwerpunkt auf der Digitalisierung in ländlichen und kleinstädtischen Kommunen haben. Das Programm läuft bis 2021 und wird mit bis zu ca. 50 Mio. Euro vom BMWi gefördert. Ein gutes Beispiel dazu ist das IoT-Testlab, denn um wettbewerbsfähig zu bleiben, müssen Mittelständler sich mit dem digitalen Wandel auseinandersetzen und sich neuen Technologien wie dem Internet of Things (IoT) öffnen.

Das stellt viele Unternehmen nicht nur vor enorme finanzielle Herausforderungen, sondern birgt auch Risiken: Denn intelligente Anlagen und Systeme bieten Fehlerquellen und Angriffsmöglichkeiten, beispielsweise durch Hacker-Angriffe. Deshalb ist es wichtig, die Zusammenarbeit unterschiedlicher neuer Systeme und Geräte vor ihrer Implementierung zu überprüfen. Der Check von Sicherheit und Vertrauenswürdigkeit spielt eine besondere Rolle, um zu garantieren, dass neue Entwicklungen geltenden Sicherheits- und Datenschutzanforderungen entsprechen und somit schnell im Unternehmen zur Anwendung kommen.

 

Analyse der gewerblichen Wirtschaft nach Digitalisierungsgrad

Die Grafik veranschaulicht, wie sich laut einer repräsentativen Umfrage von TNS Infratest der Digitalisierungsgrad innerhalb der Wirtschaft bis 2021 ändert. Quelle: Quelle: BMWi – „Smart Service Welt – Innovationsbericht 2017“, Daten: TNS Infratest, „Digitalisierung in der deutschen Wirtschaft 2016“.

 

Im Rahmen des Technologieprogramms Smart Service Welt hat das Fraunhofer-Institut FOKUS in Berlin ein IoT-Testlab eingerichtet. Darin können Mittelständler kostengünstig und zuverlässig die Qualität, Sicherheit, Skalierbarkeit und Interoperabilität neuer Technologien prüfen und sich fit machen für die Digitalisierung. Ein Ortsbesuch im IoT-Testlab im Fraunhofer-Institut FOKUS in Berlin-Charlottenburg ist nach kurzer Voranmeldung jederzeit möglich. Trotz dieser Chancen, Möglichkeiten und Erkenntnisse ist es um den Netzausbau am Standort Deutschland nicht gut bestellt.

Gartner Inc. prognostizierte für 2017, dass weltweit rund 8,4 Milliarden Dinge mit dem Internet verbunden sein, also 31 Prozent mehr als noch 2016. Bis 2020 soll Gartner zufolge eine Zahl von 20,4 Milliarden an vernetzten Dingen erreicht werden. Entsprechend wird in 2018 die Zahl dieser Geräte stark steigen.

Um die notwendige Rechenleistung abzudecken, werden die IoT-Ressourcen daher zunehmend an den Rand des Netzwerkes verlagert. Donald Badoux von Equinix Deutschland erklärte uns abschließend dazu: „Weltweit können wir die von den IoT-Unternehmen benötigten verteilten IT-Architekturen optimal unterstützen. Diese Rechenzentren nehmen dann die Rolle von Verbindungs- und Aggregationspunkten für die Daten ein, die über drahtlose Verbindungen gesammelt und in der Cloud verarbeitet werden“.

Der Wert nachhaltiger Investments

Reportage

Außerordentliche Renditen durch Anlagen in einen gesünderen Planeten oder ein sozialeres Miteinander sind keine Seltenheit.

Meist liegen die Projekte nicht in der Nähe von internationalen Flughäfen, sodass die Anreise sehr lang und auch nicht sehr komfortabel ist“, schildert Tobias Tretter von Commodity Capital die Strapazen während eines Miningtrips. Die Schweizer Aktiengesellschaft hat sich auf Anlagen im Rohstoffsektor spezialisiert, stellt dabei aber ökologische und soziale Faktoren in den Vordergrund.

Leider viel zu oft fühlt sich das Minenunternehmen als Allein­herrscher und verhält sich respektlos gegenüber den Einwohnern und der Umwelt. Um sich selbst ein ungetrübtes Bild zu machen, welches nicht aus einer Hochglanzbroschüre entspringt, führt er vor Ort Gespräche mit der lokalen Bevölkerung und den Mitarbeitern. „Deren ungefilterte Meinung zeigt uns“, so Tretter, „welche Probleme da sind beziehungsweise wie sich das Unternehmen im Umgang mit der Bevölkerung oder aber den eigenen Angestellten verhält.“ Insbesondere kleinere Produzenten, die Juniors, stehen dabei in letzter Zeit im Fokus der Reiseplanungen. „Große Projekte gibt es nur noch in politisch instabilen Regionen oder schwer zugänglichen Teilen unseres Planeten, wie etwa dem Kongo oder Alaska“, begründet Tretter.

„Eine nachhaltigere Wirtschaft ist gut für unseren Planeten.“

Die Zukunft sieht er daher eher in kleineren Projekten und die großen Unternehmen, die Majors, sind dazu ge­zwun­gen, diese von den Juniors aufzu­kaufen, um ihre Marktposition zu behaupten. „Die Welt braucht Rohstoffe und die großen Unternehmen brauchen neue Projekte. Ideale Voraussetzungen für Junior-Unternehmen mit guten Managementteams.“

In die Energiewende investieren

Rohstoffe spielen auch eine zentrale Rolle bei den für die Energiewende not­wendigen Technologien, sei es für die Generatoren der Windkraftanlagen oder die Beschichtung von Fotovoltaikanlagen. Windparks und Solarfarmen tau­gen auch als rentable Investitionsprojekte. So bietet beispielsweise die UDI eine Anlage mit einer Mindestbeteiligung von 5 000 Euro mit einer festen Verzinsung in Abhängigkeit von der Laufzeit von 4 bis 6,5 Prozent p. a. Förderprogramme für Hauseigentümer, Unter­nehmen oder Kommunen listet in diesem Zusammenhang das Bundesministerium für Wirtschaft und Energie unter www.deutschland-machts-effizient.de auf.

Vor allem Städte sind darum bemüht, ihren Energiebedarf möglichst Schadstoffarm zu decken. Einer Studie des Umweltbundesamts zufolge sterben jährlich ca. 6 000 Menschen in Deutsch­land an Herzkreislauferkrankungen, ausgelöst von Stickstoffdioxid. Der von der EU festgelegte Grenzwert von 40 Mikrogramm wird in 39 Städten regelmäßig überschritten. Am stärksten ist die Luft in München belastet, wo der Wert von 78 Mikrogramm im letzten Jahr fast doppelt so hoch war. Erst Ende Januar drohte die EU-Kommission mit einer Klage gegenüber Deutschland aufgrund dieser Verstöße vor dem Europäischen Gerichtshof. Ein Verbot von Dieselfahrzeugen, welches seither im Raum steht, kann nur ein erster Schritt sein.

Es gilt, ein Gesamtkonzept einer zukunftsfähigen, nachhaltigen „Smart City“ zu entwickeln, wobei die Probleme in deutschen Städten im Vergleich zu den Megacitys weltweit noch überschaubar erscheinen. Die UN geht davon aus, dass die Zahl der Einwohner in Städten von derzeit 3,6 Milliarden bis 2025 auf 6 Milliarden anwachsen wird, was ca. 70 Prozent der Weltbevölkerung entspräche. Ein dramatischer Anstieg, bedenkt man, dass schon jetzt 80 Prozent des CO2-Ausstoßes weltweit in Städten verursacht wird.

Green Buildings

In Europa entfällt etwa ein Viertel des gesamten Energieverbrauchs auf private Haushalte. Eine effizientere Nutzung der Energie durch „smarte Techno­logien“ verspricht hier Besserung, beispielsweise eine Heizung, die sich bei geöffnetem Fenster abstellt. Unter dem Begriff „Green Building“ boomt dieser Sektor der Immobilienbranche und verspricht gute Renditen. Schließlich senkt eine effizientere Nutzung der Ener­g­ie die Kosten und steigert somit den Umsatz der Immobilienunternehmen. Zahlen des World Green Buildings Council legen darüber hinaus nahe, dass auch die Mieteinnahmen höher sind, je nachhaltiger die Gebäude.

Gerade in Zeiten, wo die Finanzmärkte viele Fragen und Anlässe zu Ver­unsicherung aufwerfen, eignen sich „Immobilien als wertbeständige und solide Geldanlageform“, wie auch die Experten der UDI in Bezug auf ihr Angebot innerhalb dieses Sektors hervorheben. „Wie geht es weiter mit Europa und dem Euro? Welche Auswirkungen hat die neue US-amerikanische Handelspolitik? Ob bei den Zinsen die Talsohle durchschritten ist oder ob das Zins­tief weiter anhält – auch hier sind sich die Experten uneins. Was also bleibt?“

Initiative der EU-Kommission

Nicht nur die Bundesrepublik, auch die EU bangt ihre selbstauferlegten Klimaziele zu verfehlen. Bis 2030 will man den Treibhausgasausstoß um 40 Prozent im Vergleich zu 1990 kürzen. Nachbesserung verspricht sich die EU-Kommission von einer Reform der Finanzmarktregeln, die Öko-Investitionen fördern soll. „Der Wandel hin zu einer umweltfreundlicheren und nachhaltigeren Wirtschaft ist gut für die Schaffung von Arbeitsplätzen, für die Menschen und für unseren Planeten“, sagte Vize-Kommissionspräsident Frans Timmermans in Bezug auf die Pläne.

Damit auch das Finanzsystem diesem Ziel dient, ist unter anderem die Schaffung eines EU-Kennzeichens für „grüne Finanzprodukte“ geplant. Auf diese Weise sollen Investoren leicht erkennen können, welche Anlageprojekte die Kriterien an Umweltfreundlichkeit und Emissionsarmut erfüllen. Zur Absichtserklärung der Kommission gehört auch die Überlegung, Vermögensverwalter in die Pflicht zu nehmen, nachhaltige Anlagen bei ihren Investitionen zu berücksichtigen. Borislav Kostadinov, seines Zeichens Vorstandsmitglied der in Frankfurt ansässigen ProCredit Holding, begrüßt den Vorstoß der Kommission, „die auf eine verantwortlichere Rolle des Finanzsektors bei der Erreichung der Klimaziele abzielt“.

ProCredit ist eine internationale Gruppe entwicklungs­orientierter Geschäftsbanken mit geogra­fischem Schwerpunkt auf Südost- und Osteuropa und strukturellem Fokus auf kleine und mittlere Unternehmen. Das Thema „wirtschaftliche und gesellschaftliche Entwicklung durch verantwortliches Handeln“ ist dabei fester Bestandteil der Raison d‘Être der Gruppe. So wird bei Kreditanträgen mehr als nur die Bonität des Kunden überprüft. „Wir bieten Firmenkunden bereits seit 2006 ‚Grüne Kredite‘ an und arbeiten grundsätzlich mit Unternehmen, die sich an bestehende Umweltvorschriften halten und keine Gefahr für die Gesundheit, Sicherheit oder das Wohlergehen ihrer Mitarbeiter oder ihres Umfelds generieren.“, erläutert Kostadinov. Von den skizzierten Überlegungen und Forderungen des Aktionsplans der Europäischen Kommission erhofft sich Kostadinov, dass sie „zur öffentlichen Bewusstwerdung des Themas und zum Wandel beitragen.“

Borislav Kostadinov von ProCredit setzt sich für „ein verantwortungsvolles Finanzwesen“ ein.

„Um im internationalen Vergleich wettbewerbsfähig zu sein, brauchen die innovativen Unternehmen Europas Zugang zu Kapital, Raum für Experimente und eine gewisse Größe, die ihnen Wachstum ermöglicht“, begründet Vize-Kommissionspräsident Valdis Dombrovskis weitere Vorschläge, die auf die Stärkung des FinTech-Sektors, allen voran der Crowdfunding-Plattformen, abzielen. Um den Zugang von Unternehmen zu dieser Finanzierungsform zu verbessern, sollen die Plattformen künftig auf Grundlage eines einheitlichen Regelwerks ihre Dienstleistung mittels eines EU-Etiketts in der gesamten Union anbieten können.

Nachhaltigkeit für langfristige Investments

Auch nachhaltige Aktienfonds sind aufgrund ihrer langfristigen Performance längst ein Thema für Börsenprofis geworden. So zum Beispiel der „Global Challanges Index“ (GCX). Er wurde von der Börse Hannover in Zusammenarbeit mit der Nachhaltigkeitsrating-Agentur oekom research entwickelt und am 3. September 2007 lanciert.

Er umfasst 50 Unternehmen, die substanzielle und richtungsweisende Beiträge zur Bewältigung der großen globalen Herausforderungen – die Bekämpfung der Ursachen und Folgen des Klimawandels, die Sicherstellung einer ausreichenden Versorgung mit Trinkwasser, ein nachhaltiger Umgang mit Wäldern, der Erhalt der Artenvielfalt, der Umgang mit der Bevölkerungsentwicklung, die Bekämpfung der Armut sowie die Etablierung von Governance-Strukturen – leisten.

Die Aufnahme in den Index würdigt die Aktivitäten der Unternehmen in diesen globalen Handlungsfeldern. Ein Beirat, dem Vertreter der evangelischen und der kat­holischen Kirche, der deutschen UNESCO-Kommission, des Fonds zur Finanzierung der kerntechnischen Entsorgung, der ILO sowie vom WWF angehören, hat die beiden Initiatoren bei der Konzeption und Weiterentwicklung des Index beraten und begleitet den Index aktiv. Seit seiner Auflage konnte er seinen Wert um 125 Prozent steigern. Wie stark diese Performance ist, zeigt ein Vergleich mit dem DAX, der im gleichen Zeitraum „nur“ 71 Prozent zulegte.

Auch der Commodity Capital Global Mining Fund, der im Februar 2010 aufgelegt wurde, setzt auf einen langfristigen Anlagehorizont und konnte allein 2017 ein Plus von 109,9 Prozent erwirtschaften. „Unternehmen, in welche wir bereits vor ein bis zwei Jahren aufgrund des exzellenten Managements investiert hatten, setzten das um, was wir uns erhofft hatten, und trugen einiges zu der außergewöhnlichen Performance im vergangenen Jahr bei“, freut sich Tretter über den Erfolg seiner Reisestrapazen.

 

 

 

 

Agilität

Agilität ist ein Merkmal des Managements einer Organisation (Wirtschaftsunternehmen, Non-Profit-Organisation oder Behörde), flexibel und darüber hinaus proaktiv, antizipativ und initiativ zu agieren, um notwendige Veränderungen einzuführen.
Inhaltsverzeichnis

Hintergrund

„Klassische“ („stabile“) Organisationsstrukturen sind entweder prozessorientiert (z. B. Automobilindustrie, Behörden) oder projektorientiert (z. B. Bauindustrie, Hilfsorganisationen) oder eine Mischform davon.[3] Vor dem Hintergrund eines turbulenten, unbeständigen Umfelds können diese Organisationsstrukturen aufgrund ihrer Hierarchie möglicherweise mit dem Wandel nicht mithalten. „Für ein Unternehmen bedeutet Agilität die Fähigkeit, in einer Wettbewerbsumgebung gewinnbringend zu operieren, die charakterisiert ist durch ständig aber unvorhersehbar sich verändernde Kundenwünsche.“
Dimensionen

Agilität hat im Wesentlichen sechs Dimensionen:

  • Agiles Zielbild
  • Kundenorientierte Organisationsstruktur
  • Iterative Prozesslandschaften
  • Mitarbeiterzentriertes Führungsverständnis
  • Agile Personal- und Führungsinstrumente
  • Agile Organisationskultur

Hieraus ergibt sich die Abgrenzung zur reinen Flexibilität:
Agiles Zielbild

„Viele Unternehmen starten agile Veränderungsprozesse in ihren IT-Bereichen. Nach einiger Zeit stellt sich die Frage, ob Agilität nur auf Projekt- oder Produktentwicklungsebene verstanden werden soll oder doch für weitere Bereiche der Organisation.“

Agilität des Managements drückt sich bereits in Vision, Mission und strategischen Unternehmenszielen aus.

Kundenorientierte Organisationsstruktur

„Traditionelle Organisationen fokussieren sich sehr stark auf sich selbst. Sie denken in Pyramiden und Silos. Agile Unternehmen hingegen richten ihre Strategie an dem Kunden aus und streben eine Maximierung des Kundennutzens an.“

Agile kundenorientierte Organisationen sind geprägt von Netzwerkstrukturen statt von Hierarchien. Der Fokus liegt auf der teambasierten Ablauforganisation statt auf der nicht wertschöpfenden Aufbauorganisation.

Iterative Prozesslandschaften

„Agile Unternehmen (setzen) auf ein iteratives Vorgehen und das Liefern in Inkrementen, also kurzfristigen Ergebnissen.“

Agile kundenorientierte Organisationen planen ihre Prozesse, Produkte und Leistungen iterativ statt nach dem Wasserfallmodell. Hierdurch wird der Zeitaufwand für Planung und Konzeption verringert. Die Kunden erhalten die Produkte und Leistungen in rascher Abfolge in kleineren Teilen statt nach einem längeren Zeitraum in einem Stück. „Agile Prozesse sind iterativ und inkrementell. Sie fokussieren auf kurzfristige Ergebnisse und ermöglichen eine schnelle Anpassungsfähigkeit an veränderte Rahmenbedingungen.“ Fehler werden frühzeitig erkannt und können zeitnah korrigiert werden.

Mitarbeiterzentriertes Führungsverständnis

„Die Führungskraft stellt sich in den Dienst der Teams, um zusammen schneller Nutzen für den Kunden zu schaffen.“

In agilen Organisationen sind die Führungskräfte nicht kontrollierende Vorgesetzte, die Druck auf ihre Mitarbeiter ausüben, sondern sie übertragen den Mitarbeiterteams Verantwortung.

Agile Personal- und Führungsinstrumente

Das Personalwesen (Human Resources, HR) arbeitet „im Dialog mit Mitarbeitern und Führungskräften (…) und (schafft) mit einem klaren Kundennutzen Werte (…) HR ist der entscheidende Katalysator agiler Transformation.“

In agilen Organisationen werden die Mitarbeiter stark in die Personalplanung einbezogen. Mitarbeiterentwicklung erfolgt nicht (nur) auf der Grundlage von Vorgaben, sondern (auch) innerhalb der Teams selbst („Peer Feedback“).

Agile Organisationskultur

„Agile Organisationskulturen sind geprägt von Transparenz, Dialog, einer Haltung des Vertrauens sowie von kurzfristigen Feedbackmechanismen.“

In „klassisch“ organisierten Strukturen herrschen oft eine Kultur aus engen Regeln, standardisierten Vorgaben und wenig Entscheidungsfreiheit für Mitarbeiter vor. In agilen Organisationen wird Wissen offen weitergegeben, Fehler werden offen und konstruktiv angesprochen, Statussymbole („Chefetage“, „Teppichetage“) entfallen.

Werte der Agilität

Die Werte der Agilität wurden in der Agilen Softwareentwicklung entwickelt. Sie sind jedoch – entsprechend angepasst – auf Agilität im Management von Organisationen übertragbar.

Präferierte Werte von Organisationen mit Agilität Präferierte Werte von Organisationen ohne Agilität
Individuen und Interaktion Prozesse und Werkzeuge Produkte und Leistungen Umfassende Dokumentation
Zusammenarbeit mit dem Kunden Vertragsverhandlungen
Reagieren auf Veränderungen Befolgen eines Plans

Schwächen der Agilität

In stabilen Organisationen wird dem Qualitätsmanagement (QM) ein hoher Stellenwert eingeräumt. „Klassisches“ QM ist stark prozessorientiert. Ein QM-System, das an die Bedürfnisse agiler Organisationen angepasst ist, ist bisher nicht entwickelt. Agilität im Management von Organisationen geht daher möglicherweise zu Lasten der Qualität der Produkte und Leistungen.

Quelle: Wikipedia https://de.wikipedia.org/wiki/Agilit%C3%A4t_(Management)

Demokratie des Geldes

Kryptowährungen werden sich als dauerhafte Alternative im bisherigen Finanzsystem etablieren. Mit ihnen entsteht ein neues Verständnis digitaler Zahlungssysteme.

Das Kernproblem konventioneller Währungen“, heißt es in einem Schreiben, das mit Satoshi Nakamoto signiert ist, „ist das Ausmaß an Vertrauen, das nötig ist, damit sie funktionieren.“

Ob es sich bei Satoshi Nakamoto um eine Einzelperson oder eine Gruppe handelt, ist zwar immer noch eines der ungelösten Rätsel unserer Zeit, gewiss ist jedoch der Verdruss des Pseudonyms gegenüber den Banken, die im Zuge der Finanzkrise Geld „in Wellen von Kreditblasen mit einem kleinen Bruchteil an Deckung“ verliehen.

Die „Markets in Financial Instruments Directive“ (MiFID II) ist nun zehn Jahre nach der Finanzkrise ein rund 7 000-seitiges Regelwerk, welches das Vertrauen wiederherstellen soll. Satoshi Nakamoto war da wesentlich schneller und schöpf­te bereits am 3. Januar 2009 die ersten 50 Bitcoin, den sogenannten „Block 0“ oder Genesis-Block. Dabei codierte er in die Coinbase auch eine aktuelle Schlagzeile der Tageszeitung The Times ein, die auf den zweiten Bankenrettungsschirm hinweist.

 

Smart Contracts, ICOs und Kätzchen

Lange Zeit spielten Bitcoin & Co. in der öffentlichen Wahrnehmung jedoch kaum eine Rolle, ehe im letzten Jahr plötzlich ein Hype einsetzte. Während die Marktkapitalisierung des gesamten Kryptomarkts im Januar 2017 noch knapp 16 Milliarden Dollar betrug, beendete der Kryptomarkt seine unglaubliche Rallye im Januar 2018 bei über 800 Milliarden US-Dollar – dann kam der Absturz auf „nur noch“ etwa 276 Milliarden Dollar im Februar.

Marktkapitalisierung Bitcoin

Lange wurde der Bitcoin von der breiten Öffentlichkeit gar nicht wahrgenommen – dann kam 2017. Quelle: blockchain.info

Ein Grund für die unglaubliche Marktkapitalisierung ist, dass der Bitcoin längst nicht mehr die einzige Kryptowährung ist. Schon vor Ethereum, das seit 2015 gehandelt wird und mittlerweile die zweitgrößten Währung nach Marktkapitalisierung ist, gab es eine Vielzahl von Alternativen. Doch Ethereum brachte mit erweiterten Funktionen wie Smart Contracts eine neue Qualität in den Blockchaincode. Dadurch lässt sich eine vertragliche Regelung in den Code einschreiben. Sobald eine bestimmte Voraussetzung erfüllt ist, tritt die dazugehörige Vertragsklausel in Kraft.

Anwälte, Notare und andere Instanzen, die sonst die Einhaltung von Verträgen gewährleisten, werden durch die Smart-Contract-Technologie obsolet, da die Einhaltung automatisch gewährleistet wird. Unzählige Anwendungen, von der automatischen Vergütung für die Teilnahme an einer Umfrage über Auktionen bis hin zu komplexeren Programmen wie dem Spiel CryptoKitties, lassen sich so realisieren. Bei dem Spiel kann man für Einheiten der Kryptowährung Ether selbst lustige mehr oder weniger wertvolle Kätzchen züchten sowie über eine Börsenplattform kaufen und verkaufen.

Vor allem aber ermöglichen Smart Contracts, dass neue Kryptowährungen im Zuge eines „Initial Coin Offerings“ (ICO) einfach erschaffen und verkauft werden können. Die meisten neuen Kryptowährungen knüpfen ihre Token an das Versprechen einer konkreten zukünftigen Dienstleistung, die sich nur damit bezahlen lässt.

Selbst bekannte Unternehmen wie Kodak nutzen die Technologie und sammeln so in kurzer Zeit Millionenbeträge ein. Auf der Plattform KodakOne soll man für KodakCoins Bilder von Fotografen erwerben können. Mittlerweile gibt es über 1500 verschiedene digitale Währungen und Investoren hoffen wie zu Zeiten der New Economy, bloß nicht das nächste große Ding zu verpassen.

„Wer schon mal Geld ins Ausland überwiesen hat, weiß wie teuer und zeitaufwendig der Prozess sein kann.“

Weitere Gründe für den Kryptohype nennt Daniel Kühn von der Börse Go AG. Mit Kryptowährungen lässt sich wunderbar zocken und die abenteuerlichen Gewinne ziehen Millionen von Spekulanten an. Interessierte finden hierzu auch auf den Portalen GodmodeTrader und Guidants ein umfangreiches Angebot von simpler Kursversorgung samt Charthistorie über Know-how-Vermittlung bis hin zur Möglichkeit „Kryptos“ direkt zu handeln.

Ein anderer Anreiz für die digitalen Coins ist das „rebellische“ Argument der Unabhängigkeit von Zentralbanken und Staat. Darüber hinaus haben die digitalen Coins auch einen ganz praktischen Nutzen. „Transaktionen können sehr schnell, kostengünstig und sicher durchgeführt werden, unabhängig von der Entfernung zwischen Sender und Empfänger“, argumentiert Kühn. „Wer schon mal Geld ins Ausland überwiesen hat, weiß wie teuer und zeitaufwendig der Prozess sein kann.“

Zu guter Letzt versprechen Kryptowährungen eine gewisse Anonymität. „Zwar ist in der Bitcoin-Blockchain jede jemals getätigte Transaktion nachverfolgbar, aber wenn man nicht weiß, wer hinter den verwendeten Bitcoin-Adressen steckt, bleiben die Teilnehmer im Dunkeln. In diesem Sinne ist der Bitcoin pseudonym, während andere Kryptos sogar völlig anonyme Transfers ermöglichen.“

Eine dieser völlig anonymen Währungen ist der CloakCoin. Kritik, dass Kryptowährungen vor allem der Terrorfinanzierung und der Geldwäsche dienen, weist Harry Sidiropoulos entschieden zurück. Rückendeckung erhält er dabei ausgerechnet von einer gemeinsamen Studie des britischen Innen- und des britischen Finanzministeriums.

Sie untersuchten das Geldwäscherisiko verschiedener Zahlungsmit­tel. Kryptowährungen landen dabei, nicht zuletzt wegen ihrer Volatilität, auf dem letzten Platz der Rangliste, die vom Bargeld angeführt wird. Neben der Anonymität liegt eine weitere Besonderheit des CloakCoins in der Technologie hinter seiner Generierung, dem Proof-of-Stake-Verfahren.

 

Proof of Work vs. Proof of Stake

Bitcoins und viele andere „Altcoins“ (alternative Währungen) werden durch die Lösung hochkomplexer Rechenaufgaben erstellt. Mittlerweile werden dafür spezielle Computer mit teuren, extrem schnellen Prozessoren benötigt, welche eigens für diesen Zweck installiert werden.

Als Anreiz, die Anschaffungs- und Energiekosten auf sich zu nehmen, Coins zu erstellen und dadurch das Netzwerk zu betreiben, wurde das Proof-of-Work-Verfahren, besser bekannt als Mining, etabliert. Diesem Ansatz wohnen zwei Probleme inne.

Erstens: Mit jeder Transaktion steigt die Größe der Blockchain und damit auch der Energieaufwand zur Erzeugung eines Coins weiter an. Offizielle Zahlen und auch Schätzungen sind nur schwer möglich, da jeder Computer unterschiedlich effizient arbeitet. Die Bundesbank versucht es trotzdem und geht für die Abwicklung einer Transaktion von einem Verbrauch von 427 Kilowattstunden aus. Einer Energiemenge, die genüge einen durch­schnittlichen deutschen „Vier-Personen-Haushalt für mehr als einen Monat mit Strom zu versorgen.“

Zweitens: Die basisdemokratische Idee einer dezentralen Währung wird ad absurdum geführt. Das Monopol der Zentralbanken mit dem Recht der Geldschöpfung wird damit zwar umgangen. Dafür liegt es jetzt bei den großen Minern, die dafür eine rentable Vergütung erhalten.

Das Proof-of Stake-Verfahren hingegen gilt als wesentlich umweltfreundlicher: Hier werden Coins nicht durch energieintensive Rechenleistungen generiert, sondern durch die Menge der Coins, die ein User hält. Die Geldschöpfung wird damit demokratisiert, denn beim „Staking“ erhält jeder Besitzer von Coins einen festen Zinssatz auf seinen Bestand.

 

Geld aus der Crowd

Einen „demokratischen“ Ansatz verfolgt auch das Crowdlending, das eine ähnliche Erfolgsgeschichte wie wie Kryp­towährungen erlebt. Während Christopher Grätz, CEO und Mitgründer der kapilendo AG, vor zwei Jahren noch erklären musste, was darunter überhaupt zu verstehen sei, ist es mittlerweile in der Gesellschaft angekommen.

Deutlich wird die entstandene Popularität beim Blick auf den Ausfinanzierungszeitraum. „2016 dauerte eine Finanzierung auf unserer Plattform noch ungefähr 43 Tage, heute sind es gerade mal 5 Tage“, berichtet Grätz. „Bei kleineren Betriebsmittelfinanzierungen, die zwischen 25 000 und 100 000 Euro liegen, sogar oftmals nur Sekunden.“

Während die Niedrigzinspolitik der Euro­­­päischen Zentralbank viele Anlageformen unattraktiv macht, ist das Crowdlending eines der wenigen Segmente, das nicht durch das expansive Anleihekaufprogramm der EZB verzerrt ist. Über die kapilendo-Platt­form investier­en die Anleger direkt in geprüfte deutsche Unternehmen. In Form von Zinsen haben die Anleger so Teil an deren Wertschöpfung und Erfolg.

„Im Detail heißt das“, erläutert Grätz, „dass die Crowd ihr Kapital für einen festen Zeitraum und gegen einen festen Zins zur Verfügung stellt. Die Laufzeiten liegen zwischen ein und fünf Jahre – wobei bereits quartalsweise während der Laufzeit oder am Laufzeitende bedient wird.“

 

PSD2

Zusätzlichen Rückenwind erhalten FinTechs durch die sogenannte PSD2-Richtlinie, die nur zehn Tage nach MiFID II am 13. Januar dieses Jahres in Kraft trat. Sie soll für Verbraucher das Banking bequemer, billiger und sicherer machen und vor allem den Wettbewerb zwischen Banken und Finanzdienstleistern stärken. Konkret heißt das, dass künftig Zahlungsdienstleister und Kontoinformationsdienste auf das Bankkonto zugreifen können, sofern diesen die Erlaubnis des Kontoinhabers erteilt wurde.

Ein ganzes Ökosystem an FinTech-Zusatzdiensten wird dadurch ermöglicht. Vergleichsportale können beispielsweise gezielt darauf hinweisen, für wen sich der Wechsel einer Versicherung, des Strom- oder Internetanbieters lohnt. Kreditanbieter informieren über die Zweckmäßigkeit einer Umschuldung u.v.m. Das Problem des Vertrauens, welches der ominöse Satoshi Nakamoto aufwarf, wird durch die neue Richtlinie allerdings noch einmal ausgedehnt.

 

Vertrauen als Kernkompetenz

Eine andere Perspektive in Bezug auf den Vertrauensbegriff hat Gerd Müller von der Fiducia & GAD IT AG. Er sieht darin nicht das größte Problem, sondern vielmehr die größte Chance für Banken. Das größte Versprechen der Blockchain-Technologie sei die digitale Echtheit durch ihre hohe Transparenz.

Oftmals werden diese Attribute fälschlicherweise mit Vertrauen gleichgesetzt, doch „Vertrauen wird nicht alleine durch Zertifizierung begründet“, so Müller. „Es benötigt auch ein hohes Maß an persönlicher Interaktion.“ Das Schließen dieser Lücke zwischen der digitalen und der echten Welt sei die Aufgabe der Banken.

Im Zuge der neuen technologischen Möglichkeiten hieße das für Banken „raus aus der Komfortzone“ und innovative „digitale Dienstleistungen in einem vertrauenswürdigen, sicheren und transparenten Ökosystem zur Verfügung zu stellen“. Dabei kann ausgerechnet die Blockchain, jene Tech­nologie, die mit der Anti-Bank-Währung Bitcoin ihren Siegeszug begann, „der Impuls sein, die Chancen dieser Veränderung zu ergreifen.“

 

 

DSGVO: Datenschutzmanagementsysteme erfolgreich aufbauen

Interview

TREND REPORT sprach mit Uwe Rühl, Founder der Rucon Gruppe, über die EU-DSGVO im Kontext von Datenschutzmanagementsystemen (DSMS).

 

Herr Rühl, warum können Unternehmen mit einer bereits implementierten QM-Lösung den neuen Vorschriften der EU-DSGVO gelassener entgegensehen?

Ein wesentlicher Bestandteil der EU-DSGVO ist es, dass Unternehmen in der Lage sein müssen ihre Verantwortlichkeit nachzuweisen. Dies bedeutet, ein Unternehmen muss demonstrieren können, dass es die Prinzipien des EU-Datenschutzes einhält. Diese Prinzipien geben unter anderem vor, dass natürliche Personen ein Recht darauf haben, Auskunft darüber zu erhalten welche personenbezogenen Daten von ihnen verarbeitet werden.

Das Grundprinzip eines Managementsystems -wie wir es zum Beispiel aus ISO 9001 kennen- ist es, relevante Anforderungen an das Produkt oder die Dienstleistung zu ermitteln, Faktoren zu erkennen, welche die Erfüllung dieser Anforderungen beeinflussen (Risiken, aber auch Chancen) und mit Produkten und Dienstleistungen umzugehen, welche die Anforderungen nicht oder nicht richtig erfüllen.

Was jetzt sehr theoretisch klingt, trifft auch auf Datenschutz zu. Die Unternehmen müssen in der Lage sein zu wissen, was geht, was nicht geht und auf welcher Grundlage die Verarbeitung von personenbezogenen Daten geschieht. Weiterhin müssen sie mit allen Situationen umgehen, in denen die Anforderungen des Datenschutzes nicht oder nicht richtig erfüllt wurden.

Ein Managementsystem hilft dabei, dass ein Unternehmen nachweisen kann, wie es mit diesen Aspekten umgeht und die notwendigen Prozesse laufend aufrechterhält. Die EU-DSGVO sieht Zertifizierungen explizit als eine Möglichkeit des Nachweises zur Einhaltung der Datenschutz-Prinzipien vor. Darüber hinaus sind Datenschutzsiegel denkbar. Die Freigabe erfolgt entweder über die Datenschutzbehörden oder über die nationalen Akkreditierungsstellen.

Dazu gibt es in der Zwischenzeit einige Ansätze, von einem „reinen“ Datenschutzmanagementsystem-Standard bis hin zu unterschiedlichen Lösungen, Datenschutz mit bestehenden Managementsystemen zu verbinden. Hier allen voran die ISO/IEC 27001 als Managementsystem-Standard für Informationssicherheit, der mit anderen Standards aus der ISO-Welt ergänzt sinnvoll werden kann zu einem Datenschutz-managementsystem.
Der Vorteil hier: ISO/IEC 27001 ist akkreditiert und damit als Basis ein anerkanntes Managementsystem.

 

Inwieweit decken heute moderne Datenschutzmanagementsysteme und Lösungen die aktuellen Anforderungen und Vorschriften der EU-DSGVO ab?

Man muss dabei generell einen wichtigen Aspekt bedenken: ISO-Standards stellen immer einen gemeinsamen Nenner dar, eben einen internationalen Standard. Dabei wird nie explizit ein Rechtsraum, wie der der EU oder des EEA, berücksichtigt. Es werden Grundprinzipien geschaffen. Also muss alles, was auf ISO-Standards basiert angereichert werden um die gesetzlichen, aufsichtsbehördlichen und vertraglichen Anforderungen des jeweiligen Rechtsraums.

Dies fordern die ISO-Normen auch generell vom Anwender der Norm. Anders herum: die Anwendung einer ISO spricht kein Unternehmen davon frei, sich explizit mit den gesetzlichen und anderen Anforderungen zu beschäftigen. Das sollten die Anwender immer im Blick behalten, auch wenn wir jetzt in der ISO-Welt zunehmend Data Privacy Standards (z.B. ISO 29100-Reihe oder den Entwurf der ISO/IEC 27552) sehen. Diese entbinden kein Unternehmen von der im Gesetz explizit genannten „Accountability“, sondern dient genau für diese als sinnvolle Grundlage.

Es gibt derzeit eine konkrete Ausnahme: das ist der British Standard 10012, herausgegeben als nationale britische Norm. Dieser wurde im Januar 2017 neu herausgegeben und enthält die Anforderungen der EU-DSGVO an ein Datenschutzmanagementsystem. Dieser Standard wurde bereits mehrfach angewendet und zertifiziert. Allerdings ist auch das kein Freibrief, denn es handelt sich dabei nun mal um einen nationalen Standard, der nicht für alle Mitgliedsstaaten der EU gleichermaßen sprechen kann und will.

Aber wir sind immerhin im Geltungsbereich der EU-DSGVO und erhalten wertvolle Hinweise, wie ein Unternehmen EU-DSGVO inhaltlich umsetzen kann. Ein paar Schnitzer lassen sich in der Norm allerdings finden, zum Beispiel bei der Datenschutzfolgenabschätzung. Aber sie entstand auch zu einer Zeit, wo noch nicht wirklich klar war, wie diese EU-DSGVO- „konform“ erfolgen soll.

Derzeit gibt es auch in Österreich ein Normungsvorhaben für eine Datenschutzmanagementsystem-Norm. Ein kleiner Wermutstropfen: noch sind generell keine Akkreditierungen, also behördliche Zulassungen, für spezielle Datenschutzzertifizierungen und -Siegel vorhanden (gem. Art. 42 und 43 EU-DSGVO).

 

Was sollten Unternehmer beachten, die gerade jetzt ein Datenschutzmanagementsystem implementieren wollen?

Es ist vieles noch in Bewegung, vor allem wie einzelne Anforderungen der EU-DSGVO in Zukunft ausgelegt werden sollen, vor allem im Rahmen der Rechtsprechung. Diese Unsicherheit sollte Unternehmen aber keinesfalls davon abhalten, bereits jetzt mit dem Aufbau eines DSMS zu beginnen. Denn es hilft den Unternehmen ungemein, Strukturen aufzubauen und das Thema Datenschutz dauerhaft und systematisch zu verankern.

Die Normenwelt bietet bereits valide Ansätze dazu, egal ob die Basis eine ISO 9001, ISO/IEC 27001 oder eben BS 10012 ist.

 

Hier nochmals meine Tipps:
Schauen Sie, welche Ansätze in Ihrem Unternehmen als Basis für ein Datenschutzmanagementsystem taugen. Haben Sie bereits ISO 9001 oder ISO/IEC 27001 in Anwendung: Feuer frei! Damit weitermachen. Wenn nicht? BS 10012 ist eine gute Basis für ein DSMS.
Schauen Sie sich genau an, welche Anforderungen EU-DSGVO, aber auch Kunden, Branchenverbände oder andere an das Thema Datenschutz an Ihr Unternehmen stellen. Wir nennen das: Analyse des Kontextes. Was leitet sich daraus für Sie ab? Was müssen Sie erfüllen, umsetzen?
Analysieren Sie die Risiken, schauen Sie sich aber auch an, wo Sie heute bereits gut aufgestellt sind und womit Sie vielleicht sogar einen Vorteil gegenüber anderen haben könnten. Leiten Sie Maßnahmen ab und setzen Sie diese um.
Bauen Sie robuste Prozesse auf, um Ihr Pflichten gegenüber natürlichen Personen, deren Daten Sie verarbeiten, erfüllen zu können. Und schauen Sie auf mögliche Datenschutzereignisse oder -vorfälle. Denken Sie an eine gründliche Analyse und ggf. Meldepflichten.

 

Damit haben Sie schon eine gute Basis geschaffen, von der aus Sie Ihr Datenschutzmanagementsystem verbessern können.

Organizational Resilience bedeutet nicht nur Überlebensfähigkeit, sondern auch Anpassungsfähigkeit.

 

Können Sie für uns die Begriffe „Organizational Resilience“ und „EU-Datenschutz-Grundverordnung (EU-DSGVO)“ ins Verhältnis setzen?
Gerne. Organizational Resilience ist ein häufig verwendeter Begriff, der für viele so viel bedeutet wie, dass ein Unternehmen eine „disruptive“ Situation, also einen Notfall oder eine Krise, überleben kann. Diese Definition geht mir etwas zu kurz und auch die aktuelle Literatur versucht den Begriff weiter zu definieren.

Es geht nicht nur um Überlebensfähigkeit, sondern auch um Anpassungsfähigkeit. Dies führt (hoffentlich) dazu, dass ein Unternehmen nicht nur eine Situation übersteht, sondern langfristig so anpassungsfähig ist, dass Geschäftsmodelle überleben, wenn auch in angepasster Form. Und hier kommt Datenschutz als Thema dazu. Die Geldbußen könnten für viele Unternehmen, durchaus ein krisenhaftes Ereignis darstellen. Also will man solche negativen Folgen durch verantwortungsvolles Handeln möglichst verhindern.

Der zweite Aspekt von Organizational Resilience hat für mein Team und mich mit der Anpassungsfähigkeit zu tun. Wenn man von „Privacy by Default“ und „Privacy by Design“ spricht, dann hat das möglicherweise auch direkten Einfluss auf Geschäftsmodelle. Anpassungsfähigkeit sichert langfristiges Überleben, ggf. kann dies sogar zu Wettbewerbsvorteilen führen, auch wenn man diese auf den ersten Blick nicht wahrnimmt. Zum Beispiel könnte ein gut umgesetztes Datenschutzmanagementsystem auch den Eintritt in Länder mit einem ähnlich hohen Datenschutzniveau deutlich erleichtern, wie z.B. Kanada oder Japan.

 

Wie lassen sich die Synergien zwischen Qualitätsmanagement und den neuen Anforderungen an den Datenschutz am besten nutzen?
Letztendlich führt die Frage immer auf den Prozess zurück, der in Unternehmen umgesetzt wird, um Produkte und Dienstleistungen zu erstellen und zu vertreiben. Ein Qualitätsmanagement will die Qualität, also die Reproduzierbarkeit und das Ergebnis der einzelnen Verarbeitungsschritte sicherstellen. Es ist nur natürlich, dass in solchen Prozessen auch personenbezogene Daten fließen, die es zu schützen gilt.

Ein gutes Qualitätsmanagementsystem liefert mir also im Idealfall relativ schnell die Informationen, welche personenbezogenen Daten aus welcher Quelle, aus welchem Grund wohin fließen. Dies ist die Basis für ein Verarbeitungsverzeichnis im Datenschutz. Letztendlich können wir bei enger Verknüpfung mit dem Qualitäts- und Prozessmanagement die Informationen und Daten im relevanten Prozess schützen.

Ein weiterer Aspekt ist es, ein vorhandenes Qualitätsmanagementsystem, nach ISO 9001 oder ISO/IEC 27001 als Basis für ein Datenschutzmanagementsystem zu nutzen. Hierzu gibt es in der Normenwelt schon vielfältige Ansätze. Damit ist es möglich, in einem Qualitätsmanagementsystem oder Informationssicherheitsmanagementsystem die interne Überprüfung der Wirksamkeit des Datenschutzes mit zu prüfen, z.B. in einem internen Audit. Auch Methoden des Risikomanagements oder der Umgang mit Sicherheitsvorfällen können gemeinsam genutzt werden.

Nicht zuletzt bietet sich die Möglichkeit, vorhandene Managementsysteme als Basis für eine externe Zertifizierung des Datenschutzmanagements zu nutzen. Dies kann für einige Unternehmen in Zukunft ein wichtiger Faktor sein, vor allem wenn die Verarbeitung von personenbezogenen Daten im Auftrag, zum Kerngeschäft gehört. Dies könnten z.B. Telemarkting-Agenturen oder auch IT-Unternehmen sein.

 

Was muß eine zuverlässige elektronische Datenschutzmanagementsoftwarelösung heute leisten, um die Einhaltung der EU-DSGVO nachweislich sicher zu stellen?
Diese Frage ist einfach und doch nicht so einfach zu beantworten. Zuerst muss man feststellen, dass es eine Vielzahl von Softwarelösungen unterschiedlicher Ausprägungen gibt, die sich EU-DSGVO-Konformität auf die Fahne schreiben. Das reicht von Risiko-Management-Lösungen (GRC-Tools), über IT-Systeme für Verschlüsselung und data leakage prevention bis zu datenschutzkonformen Cloud-Lösungen.

Ein Unternehmen muss zunächst genau herausfinden, bei welchen Aufgabenstellungen es Softwareunterstützung braucht und für notwendig erachtet. Wir haben schon viele brauchbare und auch viele weniger brauchbare Lösungen gesehen. Von Tools für die Erstellung von Verarbeitungsverzeichnissen und Unterstützung von Datenschutzaudits bis hin zu den vielfältigen Tools zum Analysieren von Benutzerberechtigungen oder für das Management von Log-Files.

Eine große Hilfe können sicherlich vor allem Tools sein, die eine Überwachung des Flusses von personenbezogenen Daten in den unterschiedlichen Prozessen und Anwendungen ermöglichen. Mit diesen Tools sollte auch nachgewiesen werden können, wer wann welche Änderung an personenbezogenen Daten vorgenommen hat. Diese sogenannten Audittrails sind von großer Wichtigkeit, wenn es darum geht, wie ein Unternehmen nachweisen kann, wie es mit personenbezogenen Daten umgeht und wer welchen Zugriff darauf hat.

Die Erfüllung der Rechte und Freiheiten der natürlichen Personen hat besonderes Gewicht im Datenschutzrecht. Deshalb ist es wichtig zu wissen, welche Informationen gespeichert wurden, woher diese stammen und wann eine Löschfrist nötig ist.

Auch das Management von Einverständnissen (Consent-Management) hat eine immense Bedeutung, vor allem für Unternehmen im B2C-Umfeld und im Marketingumfeld.

Es gibt also breite Anwendungsfälle für Software-Lösungen, die aber immer mit Sinn und Verstand eingeführt werden müssen. Eine pauschale EU-DGSVO-Compliance durch die Anwendung eines Tools gibt es leider nicht, trotz vieler Versprechen.

Nicht zuletzt sehen wir auch viele Ansätze für Maschinenlernen, damit Unternehmen in der Vielzahl ihrer Systeme erst einmal verstehen, wo sich überall personenbezogene Daten verstecken.

 

Welche Vorteile bietet Ihre DSMS (as a) Service-Lösung und kann ich damit die Vorschriften der EU-DSGVO nachweislich einhalten?
Hierbei handelt es sich nicht um eine Softwarelösung, sondern um einen Service den wir erbringen, natürlich auch mit entsprechender IT-Unterstützung. Viele Unternehmen erschrecken schlicht und ergreifend vor der Bandbreite, aber auch dem Umfang der Maßnahmen, die im Rahmen des Datenschutzes notwendig sind.

Hier unterstützen wir über unseren Servicekatalog gezielt die Verantwortlichen in den Unternehmen. Das kann vom Führen von Verarbeitungsverzeichnissen, über die Durchführung von Datenschutzfolgenabschätzung bis zu internen Audits gehen. Vor allem dort, wo Datenschutzmanagementsysteme zertifizierbar sein sollen, müssen auch formelle Vorgaben eingehalten werden, um die wir uns kümmern und den Datenschützern im Unternehmen ein paar Sorgen und Aufgaben abnehmen.

Durch den Servicekatalog bleibt das ganze transparent, jederzeit nachvollziehbar und an den Bedarf des Unternehmens anpassungsfähig. Unsere Kunden wissen, dass ihnen damit immer die volle Power eines Expertenteams zur Verfügung steht, die in den notwendigen Einzeldosen abgerufen werden kann.

 

Welche Prinzipien müssen/sollten in einem Datenschutzmanagementsystem grundlegend zur Anwendung kommen?
Die Mutter aller Datenschutzprinzipien findet sich bei der OECD. Diese hat 1980 bereits Datenschutzprinzipien festgelegt, die Pate stehen für alles was wir nun an Prinzipien rund um den Globus, von Australien, über Japan, über Kanada und Argentinien bis zur EU sehen. Von den OECD-Prinzipien hat die ISO in der ISO 29100 dann Data Privacy Principles abgeleitet, die allen ISO-Standards rund um Datenschutz als Grundlage dienen.

Auch die EU hat sich bei der OECD „bedient“. Die wichtige Botschaft ist: die Grundprinzipien sind die gleichen, auch wenn Wortwahl und Ausgestaltung im Einzelnen unterschiedlich sind. Das heißt, dass wir natürlich alles, was in der ISO-Welt angeboten wird, auch nutzen können um ein EU-DSGVO-konformes Datenschutzmanagementsystem aufzubauen. Umgekehrt kann ein EU-DSGVO-konformes System auch in Richtung OECD gemappt werden und damit auch in anderen Ländern einen hilfreichen Nachweis eines wirksamen Datenschutzmanagement-systems erzeugen.

Diese Erfahrung haben wir mit Kunden in den vergangenen Jahren mit der Anwendung von Datenschutzmanagementsystemen oftmals machen dürfen. Am Ende kann es tatsächlich ein globales Datenschutzmanagementsystem in einem Unternehmen geben. Gleiche Spielregeln, hohe Akzeptanz bei den Kunden und lokalen Datenschutzbehörden.

 

Die EU-DSGVO als Chance begreifen, geht das?
Natürlich. Als Risikomanager glauben wir fest an die Kombination von Risiko und Chance. Ja, es mag sein, dass EU-DSGVO für viele Geschäftsmodelle als Drohgebärde erscheint. Andererseits kann ein Geschäftsmodell, das die Prinzipien des EU-Datenschutzes berücksichtigt, die Türe zu anderen Ländern aufstoßen, die der EU vergleichbare rechtliche Regelungen haben.

Das gilt übrigens auch für die vielfach so gescholtenen USA. Diese haben zwar kein generelles Datenschutzrecht und auch keine Ergänzung Ihrer Verfassung im Hinblick auf Datenschutz. Dafür existiert in vielen Branchen eine recht hohe Regulierung, was Datenschutz angeht. Allen voran der medizinische Sektor.

Nicht übersehen sollte man die Chance, den Kunden durch Transparenz und Fairness einen interessanten Service bieten zu können. Verbraucher sind zurecht kritisch und hinterfragen das Verhalten von Dienstleistern. Wenn transparent, offen und fair mit den Kunden umgegangen wird, sind auch neue, verrückte, unorthodoxe Geschäftsmodelle möglich. Und ein Datenschutzmanagementsystem nach EU-DSGVO kann hier an der Vertrauensfront vieles bewirken.

Wir sollten Datenschutz als Bestandteil unserer Geschäftsprozesse und Dienstleistungen verstehen, wie Qualität. Warum nicht neben Qualitätsoffensiven, Datenschutzoffensiven? Warum nicht mit dem Faktor Vertrauen die Treue der Kunden gewinnen? Die Einführung der EU-DGSVO und eines Datenschutzmanagementsystems mitbringt ist eine große Chance, welche für Unternehmen durchaus die Mühe wert ist.

 

Herr Rühl, vielen Dank für das Gespräch.

 

 

Weiterführende Informationen finden Sie unter:
www.rucon-group.com

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

 

Acht Punkte für mehr Sicherheit

Die TREND-REPORT-Redaktion sprach mit Wieland Volkert, Country Manager der PeopleDoc (Germany) GmbH. Sein Unternehmen entwarf eine Acht-Punkte-Checkliste, die in Verbindung mit entsprechenden Software-Lösungen hilft, die HR-Abteilung zu entlasten und die Anforderungen der EU-DSGVO zu bewältigen.
Ein wesentlicher Aspekt der neuen Regularien, der in Punkt 5 der Checkliste seinen Ausdruck findet, ist das Recht der Arbeitnehmer, auf Anfrage zu erfahren, ob, welche und in welchem Umfang personenbezogene Daten durch den Arbeitgeber verarbeitet werden.

Für die Personalabteilung bedeutet dies ein deutliches Mehr an Aufwand, der mit der klassischen papiernen Personalakte kaum noch zu bewältigen sein dürfte. „Digitale Personalakten“, empfiehlt Volkert, „verbessern die Qualität der Personalabteilung, die Zufriedenheit der Mitarbeiter und den Schutz vor Verstößen gegen die EU-DSGVO.“

Eine digitale Personalakte sei allerdings nur der erste Schritt. Als nächstes sollte es Mitarbeitern ermöglicht werden, persönliche Daten wie neue Adressen, Bankverbindungen oder Sozialversiche­rungsnummern in einer mitarbeiter­fokussierten HR-Service-Delivery-Lösung selbst zu bearbeiten.

Eine Software kann HR-Verantwortliche enorm unterstützen im Kontext der Compliance. Digitale Personalakten und „Employee Self Service“ sind dazu ein wichtiger Schritt, so Wieland Volkert.

„Employee Self Service“ stellt sicher, dass Daten korrekt sind, denn die Mitarbeiter selbst wissen am besten, welche Hausnummer ihre Straße hat“, so Volkert. „Wichtig ist dabei, zu beachten, dass die Zugriffs- und Änderungsrechte, gemäß Punkt 3 unserer Checkliste, genau definiert, umgesetzt und überwacht werden und dass das System den Vorgaben der EU-DSGVO entspricht.“

Der letzte Punkt der Acht-Punkte-Checkliste betrifft die Information und Schulung der Mitarbeiter. Zu diesem Zweck bietet PeopleDoc eine eigene leistungsfähige HR-Case-Management-Lösung inklusive Wissensportal an. Diese ist individuell auf die einzelnen Mitarbeiter abgestimmt und ermöglicht einen bedarfsgerechten Zugriff von überall und zu jeder Zeit.

Die Merkmale zur Personalisierung wer­den im firmeneigenen HR-Informationssystem definiert. Sollten sich regulative Vorgaben oder Richtlinien ändern, können die Inhalte schnell und einfach innerhalb der Software geändert werden.

„Das benutzerfreundliche, kontextbezogene Wissensportal“, ergänzt Volkert, „versetzt Mitarbeiter in die Lage, auf gängige Routinefragen selbst die richtigen Antworten zu finden sowie nach Ar­tikeln und personalisierten Formularen zu suchen.“

Obwohl komplexere Anfragen auch zukünftig an die HR-Abteilung weitergeleitet werden, ent­lastet die cloudbasierte Personal­managementlösung diese und er­mög­licht ihr, entsprechend mehr Sorgfalt bei der Bearbeitung komplexer Anfragen aufzubringen.

 

Die komplette Acht-Punkte-Checkliste finden Sie auch unter:

www.trendreport.de/EU-DSGVO-Checkliste

 

www.people-doc.de

„Organizational Resilience“ leben

TREND REPORT sprach mit Uwe Rühl, Founder der Rucon Gruppe, über die EU-DSGVO im Kontext von Datenschutzmanagementsystemen (DSMS).
Auf unsere erste Frage hin, was Unternehmer beachten müssen, die gerade jetzt ein Datenschutzmanagementsystem implementieren, entgegnete Uwe Rühl sofort, dass noch einiges in Bewegung sei.

Zum Beispiel wie einzelne Anforderungen der EU-DSGVO in Zukunft ausgelegt werden sollen, vor allem im Rahmen der Rechtsprechung. Rühl betonte dabei: „Diese Unsicherheit sollte Unternehmen aber keinesfalls davon abhalten, bereits jetzt mit dem Aufbau eines DSMS zu beginnen. Denn es hilft den Unternehmen ungemein, Strukturen aufzubauen und das Thema Datenschutz dauerhaft und systematisch zu verankern.“

Rühl erklärte weiter: „Die Normenwelt bietet bereits valide Ansätze dazu, egal ob die Basis eine ISO 9001, ISO/IEC 27001 oder eben BS 10012 ist.“
Unternehmen, die bereits auf Qualitätsmanagement setzen, haben es also einfacher.

„Unsicherheit im Kontext der DSGVO“, betont Uwe Rühl, „darf Unternehmen keinesfalls vom Aufbau eines DSMS abhalten.“

 

Uwe Rühl erklärt dazu: „Die EU-DSGVO sieht Zertifizierungen explizit als eine Möglichkeit des Nachweises zur Einhaltung der Datenschutz-Prinzipien vor. Darüber hinaus sind Datenschutzsiegel denkbar. Die Freigabe erfolgt entweder über die Datenschutzbehörden oder über die nationalen Akkreditierungsstellen.

Dazu gibt es in der Zwischenzeit einige Ansätze, von einem „reinen“ Datenschutzmanagementsystem-Standard bis hin zu unterschiedlichen Lösungen, Datenschutz mit bestehenden Managementsystemen zu verbinden. Hier allen voran die ISO/IEC 27001 als Managementsystem-Standard für Informationssicherheit, der mit anderen Standards aus der ISO-Welt sinnvoll ergänzt werden kann zu einem Datenschutzmanagementsystem.“

 

Im Gespräch gab uns Uwe Rühl noch wertvolle Tipps mit auf den Weg,
die wir für Sie unter
https://www.trend­report.de/EU-DSGVO-Rucon
zusammengestellt haben.

 

https://rucon-group.com

Chance für Versicherer

Die Redaktion im Gespräch mit René Schoenauer, Produkt Marketing Manager EMEA, Guidewire Software GmbH, über die Rolle der Digitalisierung bei der Umsetzung der Compliance-Richtlinien.

Herr Schoenauer, inwieweit werden die Rechte von Versicherungsnehmern im Kontext der EU-DSGVO gestärkt?
Versicherungskunden erhalten mehr Transparenz und Einfluss in Bezug auf die Speicherung persönlicher Daten, wie zum Beispiel das „Recht auf Vergessen“.

Wie sollten Versicherer jetzt reagieren?
Versicherer wie alle anderen Unternehmen müssen ganzheitlich über Datenschutz nachdenken und diesen umsetzen. Wo bisher eher reaktiv im Bereich Datenschutz agiert wurde, sollten Unternehmen das Thema proaktiv angehen.

Wir als Softwarehersteller für die Schaden- und Unfallversicherung tragen hier die Verantwortung, unsere Kunden technologisch mit modernen Werkzeugen auszustatten. Zum Beispiel, um auf Kundenanfrage unkompliziert und vor allem dokumentiert Anonymisierung oder sogar Löschung von personenbezogenen Daten zu ermöglichen.

Welche Rolle spielt dabei die Digitalisierung und welche Vorteile können mit einer aktuellen Technologieplattform generiert werden?
Die Digitalisierung hat inzwischen Einzug in alle Bereiche unseres Lebens gefunden. Viele Angebote und Dienstleistungen von Unternehmen sind dadurch extrem personalisiert. Die Basis hierfür bilden personenbezogene Daten, da sich nur so Kundenbedürfnisse individuell analysieren lassen.

Um diese Daten weiterhin auch im Rahmen der DSGVO verwenden zu können, müssen z. B. moderne Algorithmen zur Anonymisierung von Daten angewendet werden, die keinen persönlichen Rückschluss mehr zulassen, aber trotzdem die Möglichkeit der Analyse bieten.

René Schoenauer sieht die DSGVO als Chance für Versicherer.

Welche Fragen sollten sich Versicherer oder Versicherungsunternehmen im Kontext der DSGVO jetzt noch stellen?
Die Kernfrage rund um die DSGVO ist: Welche personenbezogenen Daten darf ich wie lange vorhalten, weil der jeweilige geschäftliche Anwendungsfall die Speicherung unabdingbar macht? Eine der Grundprinzipien der DSGVO ist es, solche Daten nur so lange speichern zu dürfen, wie es für einen geschäftlichen Anlass zwingend notwendig ist. Gerade hier müssen Versicherungen genau verstehen, was erlaubt ist und was nicht und es dem Versicherungsnehmer auch schlüssig erklären können. Im Falle eines Schadens zum Beispiel stellt sich die Frage, für welche Zeitspanne die DSGVO greift und ob die Versicherung die Daten weiterhin speichern darf, selbst wenn der Versicherte nicht mehr ihr Kunde ist.

Versicherer müssen hier in die Offensive gehen und den Behörden mit einem Geschäftsszenario-Modell zeigen, dass sie diese Daten weiterhin für geschäftliche Zwecke benötigen.

Die EU-DSGVO als Chance begreifen, geht das?
Die DSGVO muss unbedingt als Chance begriffen werden. Auch in der Versicherungsindustrie verlangen die Geschäftsmodelle der Zukunft immer mehr nach personenbezogenen Daten, um Versicherten personalisierte Services und Produkte anbieten zu können, wie sie es schon aus anderen Lebensbereichen gewohnt sind. Die Chance, die sich nun durch die DSGVO bietet, ist es dieses in der externen Kommunikation zu einem Vorteil zu wenden, wo in der Vergangenheit das Thema Datenschutz eher für negative Schlagzeilen gesorgt hat. Unternehmen, die gegenüber Ihren Kunden zum einen kommunizieren können, dass sie durch die DSGVO den Datenschutz ernst nehmen, und zum anderen Ihren Kunden die Vorteile und den Nutzen dieser neuen Geschäftsmodelle darlegen können, werden von Kunden weiterhin die Zustimmung zur Speicherung und Verarbeitung ihrer persönlichen Daten bekommen und damit einen Wettbewerbsvorteil gegenüber anderen Anbietern haben.

 

 

 

 

 

www.guidewire.de

Der Arbeitsplatz als Assistent

Stellen Sie sich vor, auf Ihrem Desktop öffnen sich kurz vor einem wichtigen Telefonat alle hierfür notwendigen Dokumente. Über diese und andere Anwendungsmöglichkeiten künstlicher Intelligenz (AI) sprach die TREND-REPORT-Redaktion mit Oliver Bendig, CEO der Matrix 42 AG.

Herr Bendig, wie wird AI unsere Arbeitsweise in Zukunft verändern?

Generell wird Arbeiten durch AI einfacher werden. Apps, Daten und Dokumente werden automatisch auf dem gerade genutzten Arbeitsgerät zur richtigen Zeit am richtigen Ort zur Verfügung gestellt. Der digitale Arbeitsplatz wird somit Fragen zum Status eines Projekts oder dem nächsten Meeting beantworten, bevor wir diese überhaupt gestellt haben.

Darüber hinaus wird die Arbeitsumgebung stärker automatisiert und einfacher werden. Denken Sie beispielsweise an die Konferenzraum-Steuerung mittels Smart-Office-Szenarien: So wird beim Eintritt in einen Besprechungsraum beispielsweise automatisch eine Telefonkonferenz gestartet und die entsprechenden Teilnehmer schon angewählt.

Eine AI, die meine Präferenzen kennt, die weiß, wann ich an welchem Ort an welchem Gerät und an welchen Projekten arbeite, kann vorab schon die Dokumente öffnen, die ich benötige. Sie kann Änderungen darin hervorheben, kann mich an meine Termine erinnern und mir auch dafür schon vorab alle wichtigen Daten zusammentragen. Alle wiederkehrenden Prozesse kann die AI schon automatisiert durchführen. So bleibt mehr Zeit für Kreativität, das Entwickeln neuer Ideen und Geschäftsmodelle, die das Unternehmen vorantreiben.

„Alle wiederkehrenden Prozesse kann die AI schon automatisiert durchführen,“ betont Oliver Bendig. „So bleibt mehr Zeit für Kreativität, das Entwickeln neuer Ideen und Geschäftsmodelle.“

Auch bei der Fehlerbehebung eröffnet AI ganz neue Möglichkeiten.
Beispiel: Einem Mitarbeiter wird auf seinem Endgerät eine kryptische Fehlermeldung angezeigt. Durch Bilderkennung und Machine-Learning kann ein AI-basiertes Service-Management die Fehlermeldung selbst erkennen, ggf. sogar selbst beheben. Auch über Chat-Bots oder per Voice-Control können Mitarbeiter ihre Anfragen an die IT-Abteilung richten, welche automatisch passende Lösungen sucht und ausführt. Wir stellen solche Lösungen als „Zero Call Resolutions“ zur Verfügung.

 

Für die geschilderten Prozesse muss das System den Mitarbeiter kennen. Welche Probleme entstehen dadurch im Bereich Datenschutz und im Zuge der EU-DSGVO?

Auf Datenschutz legten wir bei unseren Lösungen schon vor der DSGVO einen besonderen Wert im Sinne von „Privacy by Design“. Einerseits bedeutet dies, dass unsere Lösungen sehr transparent sind und der Anwender jederzeit weiß, wie seine Daten von der IT genutzt werden. Andererseits kann er diese Daten nach seinem Ermessen einschränken. Stellen Sie sich das wie eine Art Schieberegler vor, den man zwischen Privacy auf der einen Seite und Flexibilität bzw. automatisierte Services auf der anderen Seite einstellen kann.

 

Entstehen durch die zunehmende Digitalisierung des Arbeitsplatzes nicht auch mehr Risiken im Hinblick auf IT-Security?

Tatsächlich ist es so, dass gerade AI beim Thema Security ganz neue Herausforderungen, aber auch neue Möglichkeiten bietet. Wir sprechen bereits über Assistenzsysteme, die das Nutzungsverhalten eines Anwenders und von technischen Prozessen analysieren.

Genau hier ist auch der Ansatzpunkt für eine moderne Absicherung von digitalen Arbeitsplätzen. Der größ­te Angriffsvektor für Viren und Erpressersoftware ist heutzutage der Endpoint bzw. der digitale Arbeitsplatz. Damit geht einher, dass das Gerät besonders schützenswert ist. Da Viren und Malware sich heute innerhalb von Minuten verändern, sind neue Secu­rity-Konzepte für Unternehmen nötig.

Über moderne Endpoint-Security-Lösungen kann z. B. in Echt­zeit untypisches, verdächtiges Verhalten auf einem PC oder Laptop iden­tifiziert werden und die Security-Lösung kann mittels Machine-Learning selbständig Schutzmaßnahmen ergreifen. Das heißt, es geht nicht mehr darum, noch höhere Sicherheitszäune um die IT zu bauen, sondern zu akzeptieren, dass es nur eine Frage der Zeit ist, bis es ein Eindringling auf mein Endgerät schafft. Sobald die Schadsoftware dann auszubrechen droht, wird sie einfach automatisch isoliert und neutralisiert.

 

 

www.matrix42.com/blog