Handel mit Zukunft
Voice-Commerce und schlaue Algorithmen verändern die Spielregeln
Voice-Commerce und schlaue Algorithmen verändern die Spielregeln
Die Redaktion im Gespräch mit Eleonora Weisstroffer und Jörg Faulstich von Ibo über agile Methoden für die Unternehmensstrategie.
Eventuell kennen Sie diese Situation? Ihre Mitarbeiter sitzen in der Strategie-Besprechung und diskutieren intensiv über neue Ausrichtungen des Unternehmens. Trotzdem führt so manches Mal die Diskussion ins Leere, weil die diskutierten Themen einfach nicht zu den täglichen Herausforderungen passen.
Wenn man das Paradigma von agilem Arbeiten ernst nimmt, kann bereits hier anders als bisher vorgegangen werden. Zum einen ließe sich der Strategieprozess selbst agil gestalten. „Agile Strategizing ist die Art und Weise, wie sich agile Organisationen quasi in Echtzeit an Umwelt, Markt und Kunden ausrichten können. Dazu gibt es bereits eine Vielzahl guter Steuerungselemente, die bereits in großen agilen Organisationen angewendet werden“, erklärt uns dazu Jörg Faulstich.
So zum Beispiel die Ausrichtung des Unternehmens am eigenen Sinn und Zweck und die Definition und konsequente Bearbeitung übergreifender Ziele anhand geplanter Ergebnisse. Jörg Faulstich betonte dabei: „Das alleine birgt schon das Potenzial für eine konzentrierte unternehmensübergreifende Ausrichtung aller wertschöpfenden Einheiten am Markt, die sich nicht in konkurrierenden Partialstrategien und untereinander konkurrierenden Bereichen verlieren, wie wir das leider heute allzu oft beobachten.“
Zum anderen können agile Methoden genutzt werden, um Führung und Management sowie die eigene Organisationsstruktur zu agilisieren. Das bedeutet, dass die bereits definierten Kommunikations- und Entscheidungswege (z. B. Hierarchien, Aufbaustrukturen) sowie die Weiterentwicklung und Veränderungen von Produktportfolio und Multiprojektmanagementinitiativen mit agilen Methoden hochkooperativ, transparent und „ohne Umwege“ neu konfiguriert werden.
Auf unsere Frage hin, wie Unternehmen ihre Organisation agiler gestalten könnten, erklärte uns Eleonora Weistroffer: „Die meisten Hürden sind im Kopf! Ein wichtiger erster Schritt ist z. B., eine gemeinsame Antwort auf das ‚Warum?‘ zu finden. Dieser ‚Case for Action‘ muss in den Augen der Akteure auf allen Ebenen eine sinnvolle Antwort auf tatsächlich wahrgenommene Herausforderungen sein.“
Eine empfehlenswerte Strategie sei es, sich sehr offen und transparent mit den harten Fragen auseinanderzusetzen und auch Mitarbeiter am Denkprozess und nicht nur am Ergebnis teilhaben zu lassen. Es braucht sehr viel Energie und Ausdauer, um eine agile Transformation durchzuhalten und tatsächlich woanders herauszukommen als man gestartet ist. Aber wie fängt man am besten an? Eleonora Weisstroffer erklärte uns dazu: „Wenn wir könnten, wie wir es für am sinnvollsten halten, würden wir grundsätzlich mit einer Diagnose der aktuellen Situation (Strategie, Struktur, Kultur, individuelle Bereitschaft und Fähigkeit zum Wandel, Technologie etc.) starten, um daraufhin mit gezielt ausgewählten agilen Praktiken in Pilotteams und gleichzeitig initiierten Reflexionsprozessen einen Lernprozess in den Unternehmen in Gang zu bringen.“
Weitere Informationen unter:
www.ibo.de
Die TREND-REPORT-Redaktion spach mit Martin Bressem, Geschäftsführer der Brick Spaces GmbH, über Pop-up-Stores und den Erlebnisdrang des Menschen.
Pierre Thompson-Lukas ist überzeugt, dass Unternehmen sich an die neue Data Economy anpassen müssen, wollen sie nicht auf der Strecke bleiben. „Daten-Darwinismus“ nennt er das. Zur Anpassung gehören auch der sichere Umgang mit Daten und die Einhaltung von Regularien wie der EU-DSGVO.
„Jeder, der Daten aus der Cloud beziehen und dort zur Verfügung stellen will, sollte darauf achten, dass diese im europäischen Rechtsraum bleiben“, betont der Regional Director DACH bei Snowflake in diesem Kontext. Bei seinem Unternehmen liegen die Daten auf den Rechenzentren der großen Infrastrukturanbieter, z. B. für AWS in Frankfurt oder für Microsoft Azure in Amsterdam.
Im Sinne des Datenschutzes müssen Organisationen wissen, welche Daten sie wo vorhalten und wer Zugriff darauf hat. Doch beim Umgang mit Datensätzen werden diese oftmals vervielfältigt und „vergessen“. Entsprechend ist „diese Datenduplikation, dieses Klonen, dieses Mehrfachvorhalten desselben Datensatzes“ das größte Sicherheitsrisiko bei einem Data Warehouse. Beim Snowflake-Ansatz entfällt das kopieren. Alle arbeiten mit genau denselben Daten, allerdings auf Basis einer separaten virtuellen Rechenkapazität.
„Natürlich lassen sich in einem Data Warehouse auch alle weiteren Sicherheitsmechanismen – Verschlüsselung, rollenbasierte Zugriffskontrolle, Multifaktorauthentifizierung etc. – leicht umsetzen“, ergänzt Thompson-Lukas. „Bei uns werden sowohl die gespeicherten Daten als auch der Transportweg verschlüsselt und der Key regelmäßig ausgetauscht. Wir sind sogar in der Lage, einen Kundenschlüssel zu integrieren, sodass ein externer Zugriff nur möglich ist, wenn dieser public zur Verfügung steht.“ Sicherheit ist bei der Plattform also garantiert.
Lesen Sie dazu auch das Interview „Das Data Warehouse in der Cloud“ mit Pierre Thompson-Lukas
Weitere Informationen unter:
www.snowflake.com
Investitionen in Mitarbeiter zahlen sich aus. Wer für seinen Arbeitgeber „brennt“, ist produktiver, bringt mehr Ideen ein und wagt öfter etwas Neues. Allerdings könnten Arbeitgeber das Thema Employee Engagement ernster nehmen. Eine KI-Technologie soll die Wende bringen.
Untersuchungen des britischen Beratungsunternehmens Aon Hewitt belegen einen direkten Zusammenhang zwischen Employee Engagement und Unternehmensgewinn. Organisationen, die über ein hohes Employee Engagement verfügen, sind produktiver bei einer geringeren Fluktuation, was sich in einem um bis zu drei Prozent höheren Gewinn niederschlägt. Dennoch fühlt sich hierzulande nur ein kleiner Anteil von 15 Prozent der Arbeitnehmer seinem Arbeitgeber verbunden, wie aus dem Gallup Engagement Index des Jahres 2018 hervorgeht.
Wer versteht, was die eigenen Leute motiviert und sie inspiriert, hält also den Schlüssel zu einem erfolgreichen, florierenden Unternehmen in der Hand.
Dazu müssen Arbeitgeber bei ihren Mitarbeitern nachfragen. Häufig beauftragen Organisationen Berater, die Mitarbeiter interviewen und aus deren Antworten Handlungspläne ableiten. Doch das ist kostenintensiv und zeitaufwendig. Kostengünstiger und schneller sind digitale Mitarbeiterbefragungen, doch mangelt es diesen oft an nötiger Tiefe.
Abhilfe verspricht eine Software-Lösung, die alle Parameter berücksichtigt, auf die es im Unternehmen ankommt, nämlich Effizienz, überschaubare Kosten und tiefgründige Analysen.
Das Zauberwort dahinter heißt: „Natural Language Processing“ (NLP) und ist das Teilgebiet der künstlichen Intelligenz, das sich mit dem Verständnis natürlicher Sprachen auseinandersetzt. Mitarbeiter beantworten Fragen, indem sie vorgegebene Antworten anklicken und Freitextfelder ausfüllen. Algorithmen untersuchen daraufhin das Feedback und geben somit schnell Einblicke in die Ergebnisse.
Umfragen sind auf diese Weise schnell erstellt, frei konfigurierbar und über jedes Endgerät zugänglich. Zusätzlich können Befragungen jederzeit unterbrochen und wieder fortgesetzt werden. Auf diese Weise können Mitarbeiter genau dann antworten, wenn sie sich auch die Zeit dafür nehmen können. Dank NLP kann umfassenderes Feedback von Mitarbeitern als mit einem einfachen Multiple-Choice-Fragebogen gewonnen werden. Damit können sich Mitarbeiter auch zu Themen äußern, die nicht explizit abgefragt werden.
Das verschafft Unternehmen einen entscheidenden Wettbewerbsvorteil, denn sie können aus den Ergebnissen Mehrwerte für Mitarbeiter schaffen. Davon profitieren beide Seiten: Mitarbeiter sind hochmotiviert und fühlen sich ihrem Arbeitgeber gegenüber verbundener. Arbeitgeber erfreuen sich an validen Ergebnissen – eine Win-win-Situation für alle Beteiligten.
Weitere Informationen unter:
www.people-doc.de
Gastbeitrag von Bastian Lechner, CEO Catana Capital
Wir bieten ein innovatives quantitatives Asset-Management auf Grundlage eines Big-Data-basierten KI-Ansatzes. Dabei werden mehrere Millionen relevante Nachrichten, Artikel, Research sowie Inhalte aus Blogs und Tweets täglich rund um die Uhr in Englisch, Deutsch und Chinesisch über automatische Sprachverarbeitung analysiert und in Handelssignale umgewandelt.
Der Big-Data-powered KI-Ansatz nutzt die kombinierte Meinung von Millionen Markt-Sentiments und historische Kursbewegungen, um Vorhersagen über die Marktentwicklung zu treffen. Unsere vollautomatische Long- / Short-Aktienstrategie nutzt eine einzigartige Kombination aus Aktienauswahl, intelligentem Exposure-Management und maßgeschneidertem Risikomanagement mit dem Ziel, überdurchschnittliche Marktrenditen zu erzielen. Durch die Short-Komponente ist unser innovativer Data Intelligence Fund (ISIN: DE000A2H9A68) insbesondere in Korrekturphasen und Abwärtsmärkten interessant, da wir durch die KI-basierten Algorithmen schnell auf negative Trends reagieren können, was positiv zur Stabilität und Performance des Fonds beiträgt.
Weitere Informationen unter:
catanacapital.com/trendreport
Die TREND-REPORT-Redaktion sprach mit Patrick Benner, Inhaber von Artus Interactive, über die Bedeutung des Markenaufbaus im Kontext von Alexa und Co.
Gastbeitrag von Sabine Obermayr, Marketing Director Central Europe bei UiPath
„Robotic Process Automation“ (RPA) war bisher oft auf Prozesse mit klar strukturierten Informationen und eindeutigen Regeln beschränkt. Die Integration von KI in RPA-Plattformen ändert das grundlegend.
Durch Machine Learning & Co. können sich Software-Roboter neue Fähigkeiten aneignen und ihre menschlichen Kollegen noch besser unterstützen. Mit Computer-Vision-Technologien auf Basis von Deep Learning sind sie in der Lage, Informationen aus Bildern oder mehrdimensionalen Quellen zu erkennen, mit ihnen zu interagieren und sie ähnlich wie ein Mensch zu interpretieren. Das unterstützt beim Nachahmen menschlicher Fähigkeiten wie der Identifizierung von Bildern auf einem Bildschirm oder daraus resultierend bei der Vorhersage von Ergebnissen.
Spezielle Machine-Learning-Technologien ermöglichen ihnen, unstrukturierte Dokumente und Scans mit inkonsistenten Formaten auszuwerten und direkt weiterzuverarbeiten. Mit „Natural Language Processing“ (NLP) können Software-Roboter außerdem auch E-Mails, SMS- und Chat-Nachrichten sowie gesprochene Sprache verstehen. Durch Sentiment-Analysen haben sie dabei sogar die Möglichkeit, Absichten und Stimmungen zu registrieren – und etwa bei Unzufriedenheit eines Anrufers im Callcenter gleich eine besänftigende Aktion anzustoßen.
Das sind nur einige Beispiele für die kommenden kognitiven Fähigkeiten der Software-Roboter von UiPath. Durch die Integration mit einer Vielzahl von KI-Technologiepartnern entstehen weitere branchen- und fachspezifische KI-Kenntnisse, die künftig mit RPA eingesetzt werden können. Idealerweise lässt sich KI in jedem Fall unkompliziert per Drag-and-drop in die RPA-Workflows einbinden.
Weitere Informationen unter:
www.uipath.com/de/
Kerstin Götz, Geschäftsführerin Troi GmbH, im Hintergrundgespräch mit der Redaktion über die VUCA-Welt und New-Work-Konzepte für Agenturen
Frau Götz, in wieweit kann Ihre Lösung Agenturen bei der Etablierung von New-Work-Konzepten unterstützen?
Agenturen müssen ein schwankendes Projektgeschäft effizient und strukturiert planen. New Work Konzepte und Work-Life-Balance spielen zudem eine immer entscheidendere Rolle. Zusätzlich zu einer teilweise undurchsichtigen Projektlage kommt also die Organisation von Ressourcen über Remote-Konstellationen oder flexible Arbeitszeitmodelle.
Diesen Herausforderungen kann Rechnung getragen werden durch eine umfassende und vor allem smarte System-Lösung, die Mitarbeitern zum einen die Kollaboration erleichtert und zum anderen wichtige Informationen für unternehmensrelevante Entscheidungen liefert.
Welchen Stellenwert nimmt in unserer „agilen Zeit“ das Echtzeit-Reporting ein?
Um eine agile Entscheidungsfindung zu fördern ist es unabdingbar, aktuelle Unternehmens-Daten 24/7 parat zu haben. Gerade hieran scheitert es jedoch oft. Denn nicht immer sind die so entscheidenden Daten in der Kürze der Zeit verfügbar. Oder sie müssen entsprechend aufbereitet werden, um ein aussagekräftiges Reporting zu ergeben. Ressourcen dies zu tun sind nicht immer greifbar und die Fehleranfälligkeit ist hoch. Aus diesem Grund haben wir ein mobiles Echtzeit-Reporting geschaffen, das immer den aktuellen Projektstand, die Teamperformance sowie die Umsatz- und Margenentwicklung aufzeigt.
Was hat es mit Ihrer neuen TROI Live App auf sich und wie tief konnten Sie diese in Ihre Lösung intergrieren?
Die App ist die logische Ergänzung zu Troi, die den Funktionsumfang der Weblösung vollumfänglich nutzt, um diese in aussagekräftigen Dashboards zu visualisieren. Die Grundlage für die Daten speist sich komplett aus dem Troi System und wertet diese transparent in Echtzeit aus. Ebenso können Projekt- und Arbeitszeiten einfach erfasst und ausgewertet werden. Damit muss sich die Agentur über die aktuellen Entwicklungen bzgl. der Arbeitszeiterfassung keine Gedanken mehr machen. Die Zeiterfassung ist bei uns ein fest integrierter Bestandteil – gerade in Anbetracht der New Work Arbeitswelt.
Welche Prozesse im Agenturalltag sind eigentlich automatisierbar?
Alle Prozesse sind automatisierbar – von der Projektakquise bis zur Abrechnung. In Troi ist der Projektworkflow ein durchgängiger Prozess, der mit der Projektkalkulation beginnt und mit einer vorbereitenden Buchhaltung endet. Und selbst hier ist über diverse Schnittstellen eine Anknüpfung an weitere Systeme möglich, um diesen Prozess zu erweitern. Damit erhält man einen durchgängigen Datenflow, der den Mitarbeitern die Arbeit enorm erleichtert und die Konzentration auf die wertschöpfende Tätigkeit fokussiert.
Frau Götz, vor welchen Herausforderungen stehen Agenturen und Dienstleister im Kontext der digitalen Transformation?
Für die neue VUCA Welt gilt es, mit geeigneten Systemen und Prozessen gewappnet zu sein. In einem Umfeld, in dem Parameter, wie Volatilität, Unsicherheit, Komplexität und Mehrdeutigkeit an der Tagesordnung sind, ist es wichtig Transparenz zu allen relevanten Kennzahlen zu haben, um konkurrenzfähig zu bleiben und schnell fundierte Entscheidungen treffen zu können. Dieser Vorsprung ist wichtig um zeitnah reagieren zu können. Und nur, wenn alle Stakeholder ein klares Bild vom aktuellen Stand des Business haben, kann eine effiziente Steuerung erfolgen – vor allem im Einklang mit New Work Prinzipien. Denn hier muss eine Kommunikation oft remote erfolgen.
Welche Features, Module und Tools konnten Sie in Ihre Lösung intergieren?
Der Kernbereich ist die Projektabwicklung, sie ist der Dreh- und Angelpunkt einer jeden Agentur. Also ist auch in Troi das Projektmanagement das zentrale Modul. Wie bereits erwähnt, geht es bei Troi aber darum, den gesamten Projektalltag abzubilden. Dies beginnt bereits viel früher, nämlich bei der Projektakquise bzw. der Kontaktpflege. Die gesamte Kundenhistorie kann in unserem System datenschutzkonform dokumentiert werden. Damit ist immer eine Nachvollziehbarkeit gewährleistet. Aber nicht nur die zentrale Projekt- und Ressourcensteuerung erfolgt über Troi, auch die Erfassung der Projekt-Aufwände durch die verschiedenen Gewerke erfolgt über das System. Durch die Projektkalkulation und die erfassten Aufwände erfolgt ein automatisiertes Projektreporting. Der Projektverantwortliche kann so immer steuern, ob das Projekt noch im Bugdet und im Zeitplan liegt. Ein projektübergreifendes Reporting (das MIS Reporting) bietet gerade für Führungsverantwortliche und Geschäftsführer ein wichtiges Steuerungsmodul. Hier wird in Echtzeit das aktuelle Ergebnis über alle Projekte hinweg ausgewiesen.
Welche Rolle nimmt dabei das Projektmanagement ein?
Sowohl die Kalkulation, die Erstellung und Zuweisung von Projektaufgaben, als auch die zeitliche Planung erfolgt über das System. Das Aufgabenmanagement wird hier anschaulich über ein Kanban Board dargestellt und die Milestone-Planung über ein Gant Chart. Systemisch ist es möglich, sowohl agil als auch traditionell vorzugehen, das hängt von der Ausrichtung des Projektmanagements in der jeweiligen Agentur ab. Wir sehen oft, dass viele Agenturen mit hybriden Modellen arbeiten, denn nicht auf alle Projekte lässt sich die eine oder die andere Methode gänzlich anwenden. Wichtig ist aber, dass Troi durch die Automatisierung des Projektmanagement-Workflows sowie durch ein (device-übergreifendes) Controlling eine agile Entscheidungsfindung fördert und Agenturen damit unterstützt, sich im Projektmanagement weiterzuentwickeln. Und gemeinsam mit unseren Partnern lernen und entwickeln auch wir uns täglich weiter.
Weitere Informationen unter:
www.troi.de/live
Die Redaktion sprach mit Prof. Dr. Volker Gruhn, Vorstandsvorsitzender der adesso AG, über die Planung und Implementierung neuer Technologien.
Herr Prof. Gruhn, wie unterscheiden sich KI-Projekte von anderen IT-Projekten?
Ziel KI-basierter Anwendungen ist es, Zusammenhänge in Daten zu erkennen oder große Datenmengen automatisch zu klassifizieren. Hier geht es um Anomalien, Muster oder Cluster: Die eine Kreditkartentransaktion unter 100 000, die ein Betrug ist. Die fünf Sensormessungen in Terabytes von Datenströmen, die zusammen auf einen Maschinenausfall hindeuten. Bei diesen datengetriebenen Systemen gibt es häufig keine klaren Anforderungen, die das Projektteam zu Beginn formulieren könnte. Deswegen kommt der Datenbasis im Vergleich zu klassischen Softwareentwicklungsprojekten eine größere Bedeutung zu. Verfügbarkeit, Qualität, Herkunft, Konsistenz, aber auch die rechtlichen Rahmenbedingungen der Nutzung sind entscheidende Themen.
Wie finden Unternehmen am besten heraus, ob und wie ihnen die neuen KI-Technologien Wettbewerbsvorteile verschaffen?
Dieses Finden der passenden KI-Anwendungsfälle – passend zu den eigenen Kunden, Prozessen und Mitarbeitern – ist eine der entscheidenden Managementaufgaben. Es mangelt nicht an Einsatzmöglichkeiten. Das Gegenteil ist der Fall: Das Zuviel an Auswahl ist das Problem. Eine Kunst, sich hier nicht zu verzetteln. Dagegen hilft nur etwas ganz Altmodisches: miteinander reden. Der Datenanalyst und der Sachbearbeiter, der Machine-Learning-Experte und der Kampagnen-Manager, der Software Engineer und der Endkunde. Nur wenn KI-Know-how und Fachwissen von Anfang an zusammenkommen und zusammenarbeiten, entsteht etwas Sinnvolles. Das klingt einigermaßen trivial, ist aber in der Praxis häufig der Punkt, der über Erfolg und Misserfolg entscheidet.
Welche Vorgehensmodelle oder welche Projektwerkzeuge helfen den Entscheidern in Unternehmen bei diesen Kommunikationsthemen weiter?
„Building AI-based Systems“ ist unsere Antwort auf diese Besonderheiten des KI-Entwicklungsprozesses. Dahinter verbirgt sich ein Vorgehensmodell mit Rollen, Phasen und Verantwortlichkeiten. Dieser Ansatz stellt sicher, dass die Beteiligten frühzeitig wissen, ob KI-Anwendungen überhaupt geeignet sind. Er strukturiert den gesamten Prozess und unterstützt das Team dabei, KI-Systeme in den Kontext klassischer Informations- oder cyberphysikalischer Systeme einzubinden. Im Rahmen von Building AI-based Systems arbeiten wir mit speziellen Rollenprofilen: Domain Expert, Data Scientist, Software Engineer und Data Domain Expert. Jeder dieser Experten bringt unterschiedliches Know-how über Daten, Technologien, Prozesse, Domänen und das eigene Unternehmen ein. Durch die Kombination dieser Fertigkeiten entsteht ein Projektteam, das alle KI-Anforderungen abdeckt, nicht nur die technischen. Der zweite Ansatz, auf den wir bei KI-Themen setzen, ist der sogenannte „Interaction Room“ (IR). Der IR gibt Kommunikationsprozessen in Projekten eine Struktur und einen Rahmen. Eigentlich ist er nicht speziell für KI-Projekte gedacht, passt aber genau zu den oben beschriebenen Anforderungen. Beim IR handelt es sich um einen echten, begehbaren Raum mit vier Wänden. Sie dienen zur Visualisierung von Prozessen und zur Darstellung von Projektdetails. Im IR arbeitet ein interdisziplinäres Team aus Fach- und IT- bzw. KI-Experten unter der Anleitung eines Moderators zusammen. Gemeinsam ermitteln sie in Abstimmungsrunden Lösungen für die zentralen Themen und Fragestellungen des Projektes.
„Building AI-based Systems ist unsere Antwort auf die Besonderheiten des KI-Entwicklungsprozesses.“
Prof. Volker Gruhn
Wie und wie schnell werden die neuen Technologien rund um KI, Blockchain und IoT Prozesse verändern?
Wo die Reise mit KI und anderen Technologien hingeht, kann heute niemand seriös beantworten. Wer hätte 2009 vorhersagen können, wie Smartphones und Apps unser Leben verändern? Vielleicht setzen wir in fünf Jahren Blockchain-Anwendungen so selbstverständlich ein wie heute die EC-Karte an der Supermarktkasse. Oder die Technologie reiht sich ein in die Reihe der überzogenen Hypes. Die genauen Entwicklungspfade vorherzusagen, ist unmöglich. Aber Tendenzen zeichnen sich ab: Sprache wird in der Interaktion mit Systemen immer bedeutender. Mit der Konsequenz, dass Technologie für Anwender unsichtbar wird. Die Autonomie von Anwendungen nimmt zu. Häufiger treffen sie Entscheidungen, ohne einen Menschen mit ins Boot zu holen. Dies führt in vielen Bereichen, vom Einkauf über die Produktion bis hin zur Logistik, zu anderen, deutlich enger getakteten Prozessen. Aber auch zu anderen Konstellationen in der Zusammenarbeit zwischen Menschen und Systemen.
Weitere Informationen unter:
www.adesso.de
Dass die Digitalisierung von Geschäftsprozessen von hoher strategischer Bedeutung ist und insbesondere künstliche Intelligenz Unternehmen zu Smart Companies transformiert, ist hinreichend bekannt. Dennoch setzen laut einer aktuellen Accenture-Studie nur 18 Prozent der befragten Unternehmen KI-Lösungen in mehreren Geschäftsbereichen ein. Es wird also Zeit, das Potential neuer Technologien auszuschöpfen.
Dem Machine Learning (ML), als Teilgebiet der KI, kommt dabei eine besondere Bedeutung zu. Damit kann beispielsweise das Kundenverhalten vorhergesagt und Kündigungen vermieden werden. Auch neue Standorte lassen sich so optimal planen. Ferner ermöglicht ML Predictive Maintenance, wobei die Sensordaten von Industriemaschinen ausgewertet und in der Folge die Kosten sowie der Aufwand der Maschinenwartung drastisch reduziert werden. „Machine Learning ist die Grundlage für jeden industriellen Optimierungsprozess“, bestätigt Dr. Elisabetta Castiglioni, CEO bei A1 Digital, die Bedeutung. Ihr Unternehmen berät KMUs bei ihrer digitalen Transformation und konzentriert sich dabei auf branchenspezifische IoT-Anwendungen.
Aus persönlichen Gesprächen kennt sie daher auch die Gründe des unternehmerischen Zögerns: „Angst vor der Komplexität, Mangel an Informationen und Mangel an Experten, die nicht nur Daten analysieren, sondern auch die Bedürfnisse des Unternehmens verstehen.“ Dennoch mahnt sie Entscheidungsträger „ihre Komfortzone zu verlassen und ihre Denkweise zu ändern, um den Sprung zu Smart Enterprises zu schaffen“.
„Die Machine-Learning-Plattform ermöglicht einen offenen Zugang zu einem bisher sehr komplexen und technischem Thema.“
Dr. Elisabetta Castiglioni
Der zentrale, bisher fehlende Baustein in der ML-Strategie ist die A1 Digital ML-Plattform, die einfache Skalierbarkeit und Programmierbarkeit vereint. „Es ist ein strategisches Werkzeug für den Einstieg ins Business 4.0, weil es einen offenen Zugang zu einem bisher sehr komplexen und technischem Thema ermöglicht“, so Castiglioni. „Nutzer brauchen keine Kenntnisse von Programmiersprachen oder Statistikkenntnisse, um erfolgreich ML-Algorithmen wie Random Forest oder Neuronale Netzwerke anzuwenden und deren Vorhersagequalität miteinander zu vergleichen.“
Statt teuren und kaum verfügbaren Data Scientists benötigen Unternehmen damit nun sogenannte Citizen Data Scientist, die Gartner als „Schweizer Messer“ zur Digitalisierung bezeichnet. „Der Citizen Data Scientist kann zwar keine parallelen Datenpipelines in Spark bauen, hat aber immer noch ein gutes Verständnis für maschinelle Lernfunktionen und ist im Geschäftsfeld versiert“, beschreibt ihn Castiglioni. „Als Enabler versteht er alle Geschäftseinheiten und ihre spezifischen Geschäftsanforderungen, vielleicht nicht zu 100 Prozent, aber doch zu 80 Prozent.“
Weitere Informationen unter:
www.a1.digital
Die TREND-REPORT- Redaktion sprach mit Dr. Jan Christian Seevogel, Senior Vice President DACH bei Avature, über den Einfluss neuer Technologien auf die Personalabteilung.
Welche Bedeutung haben heute die KI-Technologien für das HR-Management?
Ich empfehle Unternehmen, die für ihr Wachstum auf KI-Technologien setzen wollen, den Schwerpunkt des Einsatzes der neuen Technologien auf das HR-Management zu legen. In der sich immer rasanter verändernden Welt entsteht Wachstum aus Transformation und Transformation beginnt bei den Menschen, die das Unternehmen ausmachen, also den Mitarbeitern. Das HR-Management nimmt folglich eine zentrale strategische Rolle ein. KI hilft dabei, Teams den strategischen Entscheidungen entsprechend auf- und auszubauen und kann so eine der Antriebsfedern der Transformation des gesamten Unternehmens werden. Zudem kann KI die Produktivität im HR steigern und gleichzeitig helfen, die Kosten zu senken. Ein Effekt, der umso wichtiger ist, macht doch die Personalabteilung in aller Regel einen hohen Anteil der Gesamtbetriebskosten aus.
Können Sie Beispiele nennen, wie KI-Technologien im Recruiting sinnvoll zum Einsatz kommen?
KI kann genutzt werden, um Talente und Kandidaten zu finden und beim anschließenden Screening Profile automatisiert zu vergleichen. Die HR-spezifische semantische Suche hilft Recruiting-Teams, die Geschwindigkeit zu erhöhen, mit der passende Kandidaten gefunden werden. So werden Ähnlichkeiten von Jobtiteln erkannt und entsprechende Vorschläge unterbreitet. Bei der Suche nach einem Web-Developer könnte das System etwa vorschlagen, auch nach einem Front End-Engineer zu suchen, weil die Begriffsverwendung sehr ähnlich ist. Auf diese Weise können auch HRler ohne besondere Branchenkenntnisse die Suche optimieren und beschleunigen. Entsprechende Hilfe bietet die semantische Suche auch für Skills, Rechtschreibfehler, branchentypische Abkürzungen oder besondere regionale Ortsbezeichnungen. So hilft die semantische Suche dabei, schnellstmöglich die Nadel im Heuhaufen, diesen Spitzenkandidaten, zu finden, vor allem wenn sie mit weiteren unternehmensspezifischen Suchfiltern kombiniert werden kann. KI kann außerdem eingesetzt werden, um in großen Datenbanken der Unternehmen oder extern im Web Profile zu finden, die denen bereits vorhandener vielversprechender bzw. sogar bereits eingestellter Kandidaten ähnlich sind. Die gleiche Funktionalität lässt sich auch anwenden, um ähnliche Jobs innerhalb der Datenbank zu finden, was für die strategische Planung bei großen Unternehmen mit vielen Stellen enorm hilfreich sein kann. Wenn ich beispielsweise von einer Stelle weiß, dass deren Neubesetzung extrem viel Zeit in An-spruch nahm, dann kann ich mich bei vergleichbaren Jobs schon frühzeitig um die richtigen Maßnahmen wie etwa den Aufbau eines entsprechenden Talent-Pools bemühen. KI kann auch nach außen, also dem Kandidaten gegenüber genutzt werden. Durch das automatisierte Matching müssen Talente nicht länger selbst nach dem passenden Job suchen, sondern können einfach ihren Lebenslauf hochladen oder mit einem Klick ihre Daten aus Xing oder LinkedIn mit dem Karriere-Portal verknüpfen. Die KI listet dann durch die Analyse der Kandidaten-Daten die am besten passenden Jobs aus der Datenbank und mit einem weiteren Klick ist die Bewerbung abgesendet. Auch bei der administrativ sehr aufwändigen Interviewterminierung und der Beziehungspflege mit Kandidaten kann KI verbunden mit der Automatisierung von Prozessen unterstützen.
Vor welchen Herausforderungen stehen in diesem Kontext insbesondere große Unternehmen und Konzerne?
Künstliche Intelligenz funktioniert nur mit sehr vielen Daten und die Systeme, die diese Daten verarbeiten, brauchen sehr viel Rechenleistung, was zunächst rein technisch abgebildet werden muss. Hinzu kommt, dass die Verwendung von Daten und KI-Technologien in verschiedenen Regionen der Welt unterschiedlich reguliert ist. Das verlangt von Unternehmen eine gewisse Flexibilität, da sie global operierend in den verschiedenen Ländern unterschiedlich verfahren müssen. Außerdem entstehen Herausforderungen im Zusammenhang mit dem maschinellen Lernen der KI. Hier muss darauf geachtet werden, dass das System nur das lernt, was es auch lernen soll, sonst droht eine mit Vorurteilen belastete KI Entscheidungen zu treffen, die sich niemand wünscht.
Von einer Black-Box-KI muss ich dringend abraten
Dr. Jan-Christian Seevogel
Wie kann dieses Problem gelöst werden?
Sie können die KI zunächst ausschließlich mit Daten füttern, die für ihre Entscheidungen eher ungefährlich sind (etwa nur Bildungsverlauf und Berufserfahrung auslesen). Wollen Sie die KI auch mit potenziell gefährlicheren Daten – im Sinne einer möglichen Fehlentscheidung – füttern, dann brauchen Sie ein festes unternehmensweites Regelwerk, das Verzerrungen vermeidet und vor allem eine White-Box-KI. Das heißt jeder Mitarbeiter, der die KI nutzt oder betreut, muss zu jedem Moment wissen, was die KI überhaupt macht. Von einer Black-Box-KI, bei der die Entscheidungskriterien unbekannt sind, muss ich dringend abraten.
Hilft eine White-Box-KI dann auch, den Mitarbeitern die Angst vor der Technologie zu nehmen?
Genau. Angst entsteht meist dann, wenn Menschen Situationen ausgesetzt sind, die sie nicht kennen. Wenn ich mit Entscheidungen konfrontiert werde, deren Entstehung ich nicht nachvollziehen kann – die intransparent sind. Wenn ich aber die Entscheidungsfindung der KI transparent darstelle, versetze ich die Beteiligten in die Lage, sich damit auseinanderzusetzen und diese gegebenenfalls auch zu überdenken und zu revidieren. Das sollte die Angst nehmen. Eine andere Angst ist, dass der eigene Arbeitsplatz durch die neue Technologie ersetzt wird. Allerdings gibt es noch sehr wenige Jobs, die ohne weitere Technologiesprünge vollständig automatisiert werden können. KI kann aber rund die Hälfte der von Menschen während ihrer Arbeit ausgeübten und vor allem administrativen Aktivitäten abbilden. Es geht also im Kern darum, Mitarbeitern durch künstliche Intelligenz Raum zu schaffen für die eigentlich wichtigen und erfüllenden Herausforderungen. Das sollte Angst nehmen und Zuversicht erzeugen.
Weitere Informationen unter:
www.avature.net/de
Kreditfonds werden immer beliebter. Die TREND-REPORT-Redaktion im Gespräch mit Lahcen Knapp, CEO der Empira AG, über die verschiedenen Formen von Immobilienkreditfonds und deren Marktpotenzial.
Herr Knapp, was sind Kreditfonds?
Kreditfonds sind Kapitalanlagevehikel, die bei (in der Regel institutionellen) Investoren Kapital einsammeln und es ausgewählten Kreditnehmern über eine bestimmte Laufzeit und für einen vorab vereinbarten Zweck als Fremdkapital zur Verfügung stellen. Je nach Ausgestaltung erhalten sie im Gegenzug eine laufende Verzinsung und/oder eine Beteiligung an der finanzierten Unternehmung. Aus der Unternehmensfinanzierung sind solche Produkte schon seit Langem bekannt, am deutschen Immobilienmarkt spielen sie erst seit einigen Jahren eine relevanter werdende Rolle. Gerade im Zuge regulatorischer Veränderungen (Basel III, Solvency II, u.a.) nehmen diese alternativen Finanzierungsangebote konventionellen Kreditinstituten zunehmend Marktanteile ab.
Können Sie das weiter ausführen?
Immobilienfinanzierungen im höheren LTV-Bereich sind ein Geschäft, das für klassische Banken teilweise deutlich schwieriger geworden ist. Im Kontext von Basel III müssen sie für Kredittranchen, die über den Senior Loan hinausgehen, sehr viel mehr Eigenkapital hinterlegen. Aus diesem Grund werden einige Tranchen für sie uninteressant, was eine Marktnische für Kreditfonds geschaffen hat. Neben diesem regulatorischen Faktor kommt hinzu, dass mehr und mehr Akteure auf den Immobilienmarkt streben – nicht zuletzt getrieben vom Niedrigzinsumfeld. Dies treibt die Preise. Mehr Akteure und höhere Preise bedeuten auch mehr Nachfrage nach Finanzierungen insgesamt, speziell im alternativen Bereich. Davon profitieren neben Crowdinvesting-Plattformen und Direct Lending-Anbietern eben auch Initiatoren von Kreditfonds wie wir.
Wer fragt diese Finanzierungen nach – und wieso?
Grundsätzlich gilt es, bei Immobilienkreditfonds verschiedene Formen zu unterscheiden. Dabei reicht die Palette von Whole-Loan-Finanzierungen, die den kompletten Fremdkapitalanteil eines Projekts oder einer Transaktion zur Verfügung stellen und moderat verzinst sind, bis hin zu Mezzanine-Fonds, die lediglich die riskanteste Kredittranche stellen und entsprechend hoch verzinst sind. So vielschichtig wie die Angebote sind hier auch die Kreditnehmer. Eine wichtige Zielgruppe sind sicherlich Projektentwickler. Gerade Entwickler ohne Track-Record haben es oft schwer, an konventionelle Bankkredite zu kommen oder kurzfristig Überbrückungsfinanzierungen zu erhalten. Zudem wollen oft selbst etablierte Entwickler und Käufer ihre Finanzierungsquellen diversifizieren. All dies können Kreditfonds leisten.
Wer investiert dabei in Ihre Fonds?
Unsere Produkte richten sich ausschließlich an institutionelle Investoren, vor allem Versicherungen, Versorgungswerke und Pensionsfonds. Diese Anleger haben einen langfristigen Anlagehorizont und sind oftmals aufgrund ihrer eigenen Auszahlungsverpflichtungen auf regelmäßige und prognostizierbare Cashflows angewiesen. Fest verzinste Fremdkapitalinstrumente können dies leisten. Hinzu kommt ein regulatorischer Hintergrund: Durch die Solvency-II-Regelungen sind Fremdkapitalinvestments wie z. B. Immobilienkreditfonds für Versicherungen unter Umständen interessanter als Direktanlagen oder bestandshaltende Immobilienfonds. Institutionelle Anleger schätzen die relativ hohen Renditen, während das Risiko naturgemäß niedriger ausfällt als bei klassischen Investments in Eigenkapital. Letztlich handelt es sich auch bei Kreditfonds um Anlagen am deutschen Immobilienmarkt.
Welche Modelle bieten Sie an?
Neben Whole-Loan- und Mezzanine-Produkten bieten wir seit diesem Jahr unseren Anlegern auch einen Joint-Venture-Fonds, der dem Projektentwickler im Rahmen einer Beteiligung neben dem Fremd- auch Eigenkapital zur Verfügung stellt. Beim Exit ist er dann auch entsprechend am Verkaufserlös der Liegenschaft beteiligt. Der Vorteil für Projektentwickler liegt in der niedrigeren laufenden Verzinsung und einer größeren Planungssicherheit, die durch gleichlaufende Interessen aller Beteiligten sichergestellt ist. Für unsere institutionelle Anlegerschaft wiederum ermöglicht dieses Modell einen langfristig nachhaltigen Cashflow bei einem gleichzeitig hohen Wertschöpfungspotenzial durch den späteren Verkaufserlös. Dabei lässt sich in verschiedene Nutzungsarten investieren, von Büroimmobilien über Wohnobjekte bis hin zu – aus unserer Sicht – besonders interessanten Quartiersentwicklungen, die aus gemischt genutzten Komplexen bestehen. Diese werden besonders stark nachgefragt.
Wie groß ist das Risiko und wie hoch sind die Zinsen?
Die Zinsen reichen vom niedrigen bis mittleren einstelligen Bereich bei Whole-Loan-Produkten bis hin zu niedrigen zweistelligen Prozentsätzen bei Mezzanine-Finanzierungen mit sehr kurzen Laufzeiten, sind aber natürlich vom jeweiligen Einzelfall abhängig. Grundsätzlich besteht wie bei jedem Investment auch ein Ausfallrisiko. Die existierenden Risiken sind daher korrekt zu identifizieren, zu bepreisen und zu beherrschen. Entscheidend ist hier vor allem die Auswahl des Kreditnehmers beziehungsweise des zu finanzierenden Projekts. Wir achten dabei sehr auf den Track-Record des Partners. Relevant ist zudem die Bewertung und zu welchem Preis das Projekt angekauft wurde. Zuletzt zählt natürlich auch die Markteinschätzung zum jeweiligen Projekt. Hier verlassen wir uns mit Erfolg auf unsere langjährige Marktkenntnis und Expertise.
Warum können Kreditfonds im Abschwung unter Druck kommen?
Mezzanine-Kreditfonds decken die Junior-Tranchen des vergebenen Fremdkapitals ab, also die höheren Beleihungswerte. Oftmals handelt es sich um Nachrangdarlehen. Im Falle eines drastischen Wertverfalls, einer Insolvenz oder einer Zwangsversteigerung zu einem deutlich niedrigeren Preis haftet es vor dem übrigen Fremdkapital – aber immer noch nach dem Eigenkapital. Eine große Expertise in der Strukturierung solcher Finanzierungen, langjährige Erfahrung in der Auswahl von Kreditnehmern sowie am Immobilienmarkt allgemein, eine ausreichende Diversifizierung und eine risikoadäquate Bepreisung sind deshalb notwendig.
Wie wird sich der Markt in den kommenden Jahren entwickeln?
Die Wachstumsfaktoren, von denen der Markt für Kreditfonds profitiert, sind keine Modeerscheinungen, sondern nachhaltige Entwicklungen. Die regulatorischen Anreize sind vom Gesetzgeber gewollt so gesetzt und werden absehbar bestehen bleiben. Die Neujustierung institutioneller Portfolios hin zu einer höheren Sachwerte- und Immobilienallokation ist ebenfalls ein strukturelles und kein temporäres Phänomen. Selbst für den Fall abrupt und zeitnah deutlich steigender Zinsen können Anleger im Bereich Kreditfonds gelassen bleiben. In einem Umfeld generell höherer Zinsen schrumpft der Unterschied zwischen den Kosten eines konventionellen Bankkredits und Mezzanine-Fonds, sodass letztere relativ noch attraktiver werden. Für besonders interessant halte ich mit Blick auf die Zukunft dabei Mezzanine- und Joint-Venture-Strategien.
Weitere Informationen unter:
www.empira.ch
Kleinste Veränderungen in Konfiguration, Technologie oder den zugrunde liegenden Prozessen von IT-Infrastrukturen bedeuten tiefgreifende Änderungen hinsichtlich einer möglichen Angreifbarkeit.
Zudem werden ständig neue Schwachstellen entdeckt. „Um deren Ausnutzung zu unterbinden, ist es notwendig, die eigene Infrastruktur auf diese Verwundbarkeiten kontinuierlich zu überprüfen und gefundene Schwachstellen umgehend zu schließen“, meint Jürgen Bruder, Mitglied der Geschäftsleitung von TÜV Hessen. „Tut man das nicht, nimmt man in Kauf, dass inzwischen bekannte Schwachstellen ausgenutzt werden und es so möglich wird, Unternehmensdaten zu entwenden oder aber ganze Teile der Infrastruktur zu korrumpieren.“
Mit der „Continuous Attack and Threat“-Simulation (CATS) simuliert TÜV Hessen in Echtzeit kontinuierlich Attacken gegen die eingesetzten IT-Sicherheitstechnologien. „Organisationen, die CATS nutzen, sind nicht lediglich hinsichtlich ihrer Cybersicherheit compliant aufgestellt“, so Bruder. „Vielmehr bekommen sie durch den simulierten Beschuss mit reellen Bedrohungen ein sehr genaues Lagebild ihrer tatsächlichen Sicherheit.“ Der Managed Service beurteilt jeden einzelnen simulierten Angriff hinsichtlich seiner Kritikalität und gibt letztlich eine Handlungsempfehlung ab, um die eigene Robustheit und Resilienz zu steigern. Damit die Angriffsvektoren stets auf dem neuesten Stand sind, basiert die CAT-Simulation auf einem lernenden Netzwerk: der LION-Plattform (Learning I/O-Network).
Zur Nutzung müssen keine Veränderungen in der Kundeninfrastruktur vorgenommen werden. Die Implementierung ist durch das Anbringen eines Sensors, der mit dem Service kommuniziert, in wenigen Minuten abgeschlossen. Erste Ergebnisse sind nach wenigen Stunden abrufbar.
Weitere Informationen unter:
www.tuev-hessen.de
„Das neue Gesellschaftsmodell Society 5.0 ist technologiebasiert, auf den Menschen fokussiert und umfasst eine Vielzahl ‚smarter‘ Anwendungsszenarien. Die erfolgreiche Umsetzung hängt von mehreren Faktoren ab“, betonte Kai Grunwitz, NTT Security, im Gespräch mit der Redaktion.
Herr Grunwitz, welche Hürden sind im Kontext der Society 5.0 noch zu nehmen?
Bei der Umsetzung der Society 5.0 gibt es drei zentrale Aufgaben: Zunächst die Schaffung der gesellschaftlichen Akzeptanz, das Vorantreiben der Nutzenargumentation und die Anpassung der Bildungssysteme. Die gesellschaftliche Akzeptanz ist die Grundvoraussetzung, um die Society 5.0 und notwendige Transformation erfolgreich zu gestalten. Dazu ist in erster Linie eine Abkehr von dem vorherrschenden technozentrischen Fokus hin zu einer Nutzenargumentation nötig. Es muss gezeigt werden, welche generellen Chancen und konkreten Vorteile die Society 5.0 und ebenso Digitalisierung bieten, etwa im Hinblick auf Strukturwandel und demografische Entwicklungen. Zudem muss das Bildungssystem auf die neue Society 5.0 ausgerichtet werden. Durch die zunehmende Digitalisierung und Vernetzung der Arbeits- und Lebenswelt stehen Universitäten und Schulen in der Pflicht, ihre Bildungsprogramme anzupassen, gerade auch hinsichtlich der Qualifizierung der nächsten Generation für den Arbeitsmarkt von morgen. Diese Hürde muss noch genommen werden – es ist eine unabdingbare Grundlage.
„Die Society 5.0 ist technologiebasiert, auf den Menschen fokussiert und umfasst eine Vielzahl ‚smarter‘ Anwendungsszenarien“, so Kai Grunwitz.
Kai Grunwitz
Welchen Stellenwert muss das Thema Security-Management im Zuge der Society 5.0 in Zukunft erhalten?
Wie gesagt, die erfolgreiche Etablierung der Society 5.0 hängt maßgeblich von der gesellschaftlichen Akzeptanz ab, und dafür ist das Vertrauen der Nutzer in die bereitgestellten Produkte, Lösungen und Services unerlässlich. Dieses Vertrauen kann aber nur entstehen, wenn die Sicherheit oberste Priorität einnimmt, beispielsweise sollten neue Entwicklungen immer nach dem Security-by-Design-Prinzip erfolgen. Generell muss das Security-Management integraler Bestandteil aller digitalen Infrastrukturen, Plattformen und Services sein, die schließlich das Fundament der Society 5.0 und verbundenen Digitalisierung der Gesellschaft bilden.
Was muss konkret getan werden?
Society 5.0 heißt vor allem auch, dass große Mengen persönlicher Daten erhoben und systemübergreifend geteilt werden. Hier muss für den Verbraucher Transparenz herrschen, gerade in Bezug auf die ergriffenen Sicherheitsmaßnahmen. Auf Seite der Lösungsanbieter ist dabei vielfach noch ein Umdenken erforderlich. Bei IoT-Geräten beispielsweise hat die Sicherheit auf Herstellerseite in der Vergangenheit in der Regel nur eine untergeordnete Rolle gespielt. Und in den Bereichen KI und Robotik werden die Themen Sicherheit und Technikfolgenabschätzung oft noch unzureichend behandelt. NTT Security selbst nimmt die fortschreitende Society-5.0-Entwicklung zum Anlass, neue Lösungen und Services für Hauptkomponenten der zunehmend vernetzten Systeme und Applikationen zu konzipieren: von der IoT- bis zur Cloud-Sicherheit.
Weitere Informationen unter:
http://www.nttsecurity.com
Kleinste Veränderungen in Konfiguration, Technologie oder den zugrunde liegenden Prozessen von IT-Infrastrukturen bedeuten tiefgreifende Änderungen hinsichtlich einer möglichen Angreifbarkeit. Jürgen Bruder liefert Unternehmen mit der „Continuous Attack and Threat“-Simulation „ein sehr genaues Lagebild ihrer tatsächlichen Sicherheit“.
Herr Bruder, warum ist heute die kontinuierliche Überwachung der IT-Infrastruktur so wichtig?
Heute sind IT Infrastrukturen genau so im permanenten Wandel wie die Bedrohungslage selbst. Kleinste Veränderungen in Konfiguration, Technologie oder den zugrundeliegenden Prozessen bedeuten tiefgreifende Änderungen hinsichtlich einer möglichen Angreifbarkeit. Zudem werden ständig neue Schwachstellen entdeckt. Um deren Ausnutzung zu unterbinden ist es notwendig, die eigene Infrastruktur auf diese Verwundbarkeiten kontinuierlich zu überprüfen und gefundene Schwachstellen umgehend zu schließen. Tut man das nicht, nimmt man in Kauf, dass – inzwischen – bekannte Schwachstellen ausgenutzt werden und es so möglich wird, Unternehmensdaten zu entwenden oder aber ganze Teile der Infrastruktur zu korrumpieren.
Wie lange dauert die Implementierung?
Generell müssen keine Veränderungen in der Kunden-Infrastruktur vorgenommen werden. Es wird lediglich ein Sensor implementiert, der mit dem Service kommuniziert. Die Implementierung ist daher innerhalb weniger Minuten realisiert. Erste Ergebnisse sind bereits nach wenigen Stunden abrufbar.
Welche Vorteile haben Ihre Kunden?
Organisationen, die CATs nutzen, sind nicht nur lediglich hinsichtlich ihrer Cyber-Sicherheit compliant aufgestellt. Vielmehr bekommen sie durch den simulierten Beschuss mit reellen Bedrohungen ein sehr genaues Lagebild von ihrer tatsächlichen Sicherheit. Jeder einzelne simulierte Angriff wird darüber hinaus hinsichtlich seiner Kritikalität beurteilt. Letztlich wird eine Handlungsempfehlung gegeben um die eigene Robustheit und Resilienz zu steigern. Daher bietet der CATs Service eine einzigartige Sicht auf den aktuellen Status-Quo der eigenen Unternehmens-Sicherheit, was sowohl technisch wie auch aus Management Sicht ein erheblicher Vorteil ist.
Herr Bruder, was steckt hinter dem Begriff CAT-Simulation?
CATs steht für „Continuous Attack &Threat Simulation” und ist ein Service auf der LION-Plattform von TÜV Hessen, der Infrastrukturen 24/7 mit den aktuellsten Bedrohungen simuliert konfrontiert. Neu an diesem Dienst ist die Tatsache, dass wir hier aus einer anderen Perspektive Cyber Sicherheit beurteilen: Bisher versuchte man immer, Sicherheit anhand einer Vorgabe, Norm (z.B. BSI oder ISO) oder einer Best-Practice zu bewerten. Das Ergebnis ist idealerweise, dass man bestenfalls entsprechend einer statischen Vorgabe compliant aufgestellt ist. Ob das auch bedeutet, dass man auch gegen aktuelle Bedrohungen gut aufgestellt ist darf man bezweifeln. Daher beurteilt CATs Cyber Sicherheit aus Sicht der Angreifer nach den aktuell auftretenden Bedrohungen und ergänzt Compliance und Best-Practice um eine weitere Komponente: der faktischen Sicherheit.
Welche Investitionssicherheit erfahren Ihre Kunden beim Einsatz von CAT-Simulation?
Eine der schwierigsten Aufgaben im Security Umfeld ist die Budgetierung sämtlicher Sicherheitsmaßnahmen und die damit verbundenen Splittung des Budgets. Die sinnvolle Splittung dieses Budgets in einzelne Maßnahmen wie Technologie, Organisation, Sourcing oder Awareness entscheidet maßgeblich über den Erfolg eines wirkungsvollen Sicherheitskonzepts. Hier wird immer wieder die Frage nach einem ROI gestellt, die bisher nur schwer zu beantworten war, weil Sicherheit bisher nur schwer messbar war. Mit CATs kann der Wirkungsgrad sämtlicher Sicherheitsmaßnahmen in einer Infrastruktur genau gemessen werden. So wird es möglich, bspw. den Einsatz einer neuen Technologie zu bewerten weil gemessen wird, wie diese den Sicherheitsstatus in der Infrastruktur verändert. Auch vorhandene Technologien werden im Tagesgeschäft permanent gepatcht oder durch Konfigurationsänderungen angepasst. Auch diese Veränderungen werden sofort visualisiert und messbar gemacht. Darüber hinaus können auch organisatorische Einheiten wie zum Beispiel ein SOC (Security Operations Center) Team ihre Performance im Hinblick auf Sicherheit messen und ihre Prozesse und Technologien bis hin zu Einzelmaßnahmen sichtbar machen. CATs macht es daher erstmals möglich, die Effizienz von ganzen Sicherheitsumgebungen zu messen und stellt somit sicher, dass nur in die effizientesten und notwendigen Maßnahmen investiert wird.
Schwachstellen im Netzwerk finden bevor Hacker angreifen – wie funktioniert das?
Es werden vermehrt Schwachstellen in Betriebssystemen und Applikationen gefunden. Bisher funktioniert das manuell und bedeutet einen erheblichen Aufwand. Jedoch halten auch in diesem Umfeld Technologien wie künstliche Intelligenz (AI) oder Machine-to-Machine Learning (M2M) Einzug. Diese Technologien werden immer häufiger mit Fuzzy-Verfahren oder mit Schwarm-Technologie verknüpft. Die Konsequenz ist, dass das Auffinden von Schwachstellen immer mehr automatisiert wird. Es ist also zu erwarten, dass in Zukunft deutlich mehr Schwachstellen „vermarktet“ werden. Bereits jetzt ist es Organisationen kaum mehr möglich, aus eigener Kraft und zeitnah in der eigenen Infrastruktur Schwachstellen zu schließen. CATs ist nicht nur in der Lage, die eigenen Verwundbarkeiten automatisiert zu finden und damit aktuelle Angriffe unschädlich zu machen. Vielmehr werden auch Empfehlungen zum Schließen der Verwundbarkeiten gegeben. Damit wird der größte Teil der existierenden Bedrohungen für die eigene Infrastruktur wirkungslos.
Weitere Informationen unter:
www.tuev-hessen.de
Der Gesetzgeber verlangt die Verschlüsselung sensibler und, seit der EU-DSGVO, die Pseudonymisierung personenbezogener Daten. Insbesondere in der Cloud sollten Unternehmen dabei vorsichtig agieren.
Herr Eperiesi-Beck, Daten werden immer gestohlen. Welche Vorteile haben Kunden durch den Einsatz Ihrer Lösung?
Sie haben völlig recht: Niemand kann verhindern, dass Daten gestohlen werden. Aber mit unserer Lösung kann man verhindern, dass die Angreifer etwas mit den Daten anfangen können. Da wir die sensiblen Daten verschlüsseln, bevor sie die sichere Umgebung des Unternehmens verlassen und in der Cloud gespeichert werden, finden Angreifer in der Cloud nur unlesbaren Datenmüll vor. Der ist für sie wertlos. Gleichzeitig bedeutet die Verschlüsselung der sensiblen Daten für Unternehmen aber auch, dass sie sowohl die gesetzlichen Bestimmungen wie die Europäische Datenschutzgrundverordnung (EU-DSGVO) und Compliance-Vorgaben einhalten können. Wieso? Gemäß EU-DSGVO haftet das Unternehmen auch für Sicherheitsvorfälle ihrer Cloud-Anbieter. Laut Artikel 25 EU-DSGVO entfällt die Haftung, wenn die personenbezogenen Daten entsprechend pseudonymisiert sind. Pseudonymisierung bedeutet, dass die Daten durch entsprechende zufällige Ersatzwerte unkenntlich gemacht werden, beispielsweise durch Tokenisierung. So können Dritte, die nicht im Besitzt der kryprografischen Schlüssel sind, keine Rückschlüsse auf die Identität der realen Personen ziehen. Unternehmen sollten also am besten eine Datenschutz-Lösung wählen, die sowohl verschlüsseln als auch pseudonymisieren kann.
Was muss beachtet und berücksichtigt werden, wenn Cloud-Provider Verschlüsselungstechnologien anbieten?
Da gibt es mehrere Fallstricke. Zum einen meinen die Cloud-Provider mit Verschlüsselungstechnologien oft nur die Transportverschlüsselung. Mit dem bekannten SSL / TLS werden die Daten auf dem Weg zwischen dem Unternehmen und der Cloud-Anwendung gesichert. Beim Cloud-Anbieter angekommen, werden sie aber wieder vollständig entschlüsselt. Damit hat der Cloud-Anbieter ungehindert Zugriff auf die Daten.
Vorsicht ist auch immer dann geboten, wenn der Cloud-Provider „BYOK – Bring your own key” anbietet. Dabei erzeugt das Unternehmen zwar selbst den kryptografischen Schlüssel, der zum Ver- und Entschlüsseln der Daten notwendig ist. Aber das Problem dabei ist, dass das Unternehmen danach den Schlüssel oder zumindest einen Teil davon an den Cloud-Provider übergeben muss, damit dieser damit die Daten verschlüsseln kann. Um aber überhaupt verschlüsseln zu können, muss er zwangsläufig Zugriff auf die unverschlüsselten Daten haben. Das erfüllt allerdings nicht alle Anforderungen an gängige Gesetze, Datenschutz und Data Residency. Und das Unternehmen gibt damit die alleinige Kontrolle über den Verschlüsselungsprozess aus der Hand.
Unternehmen arbeiten verstärkt in Multi- und Hybrid-Cloud-Umgebungen. Was muss dabei für das IT-Security-Management berücksichtig werden?
Unternehmen müssen sicherstellen, dass sie keine Insellösungen im IT-Sicherheitsumfeld aufbauen. Das würde nämlich zu erhöhtem Verwaltungsaufwand und Fehleranfälligkeit führen. Gerade im Multi-Cloud-Umfeld sollten Unternehmen darauf achten, eine zentrale Lösung einzusetzen. So schaffen Unternehmen einen Blueprint für die sichere Cloud-Anwendung, die auch bei Aufsichtsbehörden oder auch den internen Datenschutzverantwortlichen zu schnellen Freigabeprozessen führt. Warum immer das Rad neu erfinden?
Welche Features bringt das eperi Gateway mit?
Das eperi Gateway ist die einzige wirkliche Lösung im Multi Cloud-Umfeld. Die patentierte Template-Architektur ermöglicht, dass Kunden und Partner ohne Programmieraufwand selbst entscheiden können, welche Datenfelder verschlüsselt, tokenisiert oder im Klartext belassen werden – und das selbst für völlig unbekannte Anwendungen. Es werden aber auch Templates für zahlreiche Standard-Anwendungen und Cloud-Speicher bereits out of the Box angeboten. Dazu zählen beispielsweise Office 365-E-Mail, Exchange, Kalendereinträge, OneDrive und Salesforce. Auch selbstentwickelte Kunden-Anwendungen können so unterstützt werden. Dadurch wird das eperi Gateway zum zentralen Kontrollpunkt für alle Datenschutzprozesse. Es ist einfach und schnell zu implementieren und erhält alle wichtigen Funktionalitäten der Cloud-Anwendung wie Suchen oder Sortieren.
Die ausgefeilte Architektur und Skalierbarkeit der Lösung führen dazu, dass Benutzer selbst in weltweiten Installationen, wie beispielsweise bei unserem Kunden der Deutschen Bank, keine Performance-Einschränkungen wahrnehmen.
Sicherheit kann nur durch Transparenz entstehen, daher wurde die Basis des eperi Gateways gemeinsam mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI) entwickelt. Zusätzlich wurde der Source Code der deutschen IT-Sicherheitslösung veröffentlicht und ist somit für jeden prüfbar. Sicherheit ohne Hintertüren.
Was sollte in Office-365-Cloud-Umgebungen im Kontext des Datenschutzes und von Compliance-Richtlinien beachtet werden?
Unternehmen sollten bei Cloud-Providern im Hinblick auf Datenschutz und Compliance immer vorsichtig sein. Der Grund: Viele Hersteller und Anbieter müssen sogenannte „Backdoors“ einbauen, die einen alternativen Zugang zu Hard- oder Software bieten. Diese Hintertüren werden eingebaut, um beispielsweise Zugriff zu Service- oder Reparaturzwecken zu ermöglichen. Das Problem ist aber, dass auch Angreifer und Geheimdienste diese Backdoors nutzen, um sich Zugang zu den Informationen zu verschaffen. Dazu können beispielsweise auch die in Europa durch die EU-DSGVO besonders geschützten personenbezogenen Daten gehören. Ein Dilemma für die Unternehmen, denn im Zweifel drohen hier hohe Strafen.
Wird das eperi-Gateway beispielsweise für Office 365 eingesetzt, ist es egal, wo Microsoft die Daten wie speichert und ob es zu Sicherheitsvorfällen wie im April der Angriff auf die Web Mail-Dienste kommt. Im Falle eines Zugriffs finden die Eindringlinge nur unlesbaren, weil verschlüsselten, Datenmüll vor.
Warum ist die Datenverschlüsselung in Cloud-Umgebungen so wichtig?
Weil die Cloud im Prinzip wie der Computer eines Fremden ist. Würden Sie Ihre sensiblen Daten jedem x-beliebigen ungeschützt anvertrauen? Sobald Informationen die sichere Umgebung eines Unternehmens verlassen, werden sie zur Zielscheibe von Angreifern. Die Zeiten, wo Unternehmen eigene Datacenter betrieben haben und so das Sicherheitsniveau kontrollieren konnten, sind vorbei. In Zeiten der Cloud-Nutzung, mobiler Endgeräte und Homeoffice müssen moderne Schutzmaßnahmen her. Lösungen wie Verschlüsselungsgateways werden deswegen mittlerweile als „Stand der Technik“ eingestuft.
Hinzu kommt, dass die Kunden die Sicherheitsmaßnahmen eines Drittanbieters niemals so kontrollieren können wie die eigenen. Wie stark ist die Verschlüsselung? Wird sie auch korrekt umgesetzt? Bleibt diese auch nach den Updates sicher? So oder so: Die Unternehmen haften für ihre Daten. Und das nicht nur mit Firmeneigentum, sondern notfalls auch mit dem Privatvermögen der Verantwortlichen. Datenschutz kann nicht delegiert werden. Spätestens seit der EU-DSGVO ist dies auch gesetzlich vorgeschrieben.
Wer also wirklich sicher gehen will, der sorgt selbst dafür, dass seine sensiblen Daten zu jedem Zeitpunkt außerhalb des Unternehmens geschützt sind.
Wie können Organisationen von der eperi-Cloud-Dataprotection profitieren?
Die Cloud Data Protection Lösungen von eperi sorgen dafür, dass die sensiblen Firmeninformationen zu jedem Zeitpunkt außerhalb der sicheren Unternehmensumgebung geschützt sind. Das eperi Gateway dient dabei als alleiniger Kontrollpunkt für alle Datenschutzprozesse. Das Unternehmen gibt diese Kontrolle nicht aus der Hand.
Mit dem eperi-Gateway werden sensible Geschäftsinformationen, personenbezogene Daten und Anwendungen durch Verschlüsselung und Pseudonymisierung in jedem Lebenszyklus – „at Rest“, „in Use“ und „in Motion“ – geschützt. So können Unternehmen alle gesetzlichen Vorgaben und Compliance Richtlinien erfüllen. Und das in einer Vielzahl von Cloud-Anwendungen wie Office 365, Salesforce oder eigenen Web-Anwendungen.
Mit welchem Implementierungsaufwand ist zu rechnen und wie geht dieser von statten?
Der Implementierungsaufwand ist gering, weil das eperi Gateway als Netzwerkkomponente keine Installation auf Server- oder Clientseite erfordert. Das heißt, weder der Cloud-Anbieter muss etwas installieren, noch müssen sich die Benutzer umgewöhnen. Üblicherweise wird das eperi Gateway als transparenter Proxy in der DMZ oder dem Internet Breakout eingesetzt. Da es sich um eine Software-Lösung handelt, wird diese in der Regel als virtuelle Maschine geo-redundant betrieben. Gängige Architektur-Konzepte wie Failover und Load-Balancing werden selbstverständlich unterstützt. Im Rahmen eines Projektes definiert der Kunde, welche Daten wie geschützt werden sollen und legt damit das eigene Schutzniveau fest. Dann ist – nach der Installation und Konfiguration – das eperi Gateway in der Regel in wenigen Stunden einsatzbereit. Nach einer definierten Testphase mit Key-Usern werden die entsprechenden Benutzer nach und nach migriert. Auch die Übernahme von Altdaten und die Verschlüsselung von Altbeständen ist kein Problem und erfolgt ohne Benutzer-Interaktion.
In wieweit kann Ihre Lösung sensible Daten in Software-as-a-Service-Anwendungen schützen?
Die beste Möglichkeit, sensible Daten in Cloud-Anwendungen zu schützen, ist durch eigenkontrollierte Verschlüsselung. Das bedeutet erst einmal nichts anderes, als normal lesbare Daten in eine nicht mehr les- und interpretierbare Form zu bringen. Dabei ist die Datenform egal, es können sowohl Texte als auch Fotos oder PDF-Dateien verschlüsselt werden. Bei der Verschlüsselung wird ein mathematischer Algorithmus verwendet, der sensible Daten oder Klartext in unlesbaren Chiffriertext umwandelt.
Seit Inkrafttreten der EU-DSGVO im Mai 2018 sollten personenbezogene Daten außerdem pseudonymisiert werden. Was bedeutet das? Dabei nutzen wir die sogenannte Tokenisierung, bei der mathematisch unabhängige Ersatzwerte für sensible Daten erzeugt werden. Ein einfaches Beispiel: Aus der Zahl 1234 wird die Zahl 7485. In einer dazugehörigen Mapping-Tabelle wird gespeichert, welcher Originalwert welchem Ersatzwert zugeordnet ist. Diese typkonformen Ersatzwerte – ein Geburtsdatum bleibt beispielsweise ein Geburtsdatum – können dann wieder bedenkenlos als Platzhalter in Cloud-Anwendungen gespeichert werden. Denn die Originaldaten bleiben formal im Unternehmen und ggf. auch im Land, was den höchsten Anforderungen an Data Residency entspricht.
Was hat es auf sich mit Ihrem zum Patent angemeldeten Template-Konzept?
Mit dieser innovativen Template-Architektur erfolgt die Trennung zwischen dem Programmcode des eperi Gateways und der Definition, welche Daten im Datenstrom wie geschützt werden sollen. Wollen Marktbegleiter neue Anwendungen unterstützen, müssen diese ihre Anwendungen umprogrammieren, was hohen Aufwand, hohe Kosten, langsames Time-to-Market und Unflexibilität hervorruft. Um schnellstmöglich auf Änderungen der Cloud-Anbieter zu reagieren und alle gängigen Anwendungen zu unterstützen, bietet die eperi Template-Architektur die Möglichkeit, dies losgelöst vom eperi Gateway mit sogenannten Templates zu tun. Templates sind im wesentlichen XML-Dateien, die auch durch Kunden und Partner angepasst werden können. So können alle gängigen Anwendungen unterstützt werden und die Verarbeitungslogik sowie Verschlüsselungsmethoden werden auf Feld-, Datei- und Inhaltsebene gesteuert. Das bedeutet, man kann für jedes Informationsfeld individuell bestimmen, ob die Daten verschlüsselt, tokenisiert oder im Klartext belassen werden sollen. Zusätzlich bietet eperi beispielsweise für Office 365 und Salesforce fertige Lösungen out of the Box an.
Was sollte generell bei der Verschlüsselung von Daten beachtet werden im Hinblick auf die Sicherheit der Verschlüsselungsalgorithmen und im Hinblick auf Anbieter von kryptografischen Lösungen?
Zunächst einmal muss man sagen, dass es für Kunden in der Regel nicht prüfbar ist, welche Algorithmen wie umgesetzt wurden. Das bedeutet, das Unternehmen muss dem Hersteller oder Cloud-Anbieter blind vertrauen. Es sei denn, der Source Code wurde veröffentlicht – wie beispielsweise beim eperi Gateway. In diesem Fall kann die Sicherheit überprüft und sichergestellt werden, dass keine Hintertüren eingebaut wurden. Das eperi Gateway verschlüsselt alle sensiblen Daten standardmäßig mit dem sicheren Standard-Algorithmus Advanced Encryption Standard (AES). Die kryptografischen Schlüssel werden nicht zusammen mit den Daten am gleichen Ort gespeichert. Sie können im eperi Gateway oder auch einem Hardware Security Module (HSM) verwaltet werden. Das heißt, sie liegen weder in der entsprechenden Cloud-Anwendung noch in Cloud-Datenbanken.
Wichtig ist zusätzlich, dass die Algorithmen austauschbar sind, um ein höchstmögliches Sicherheitsniveau zu gewährleisten. Denn wird ein Verschlüsselungsalgorithmus als unsicher eingestuft, muss dieser schnell und möglichst unkompliziert durch den Kunden selbst austauschbar sein. Werden asymmetrische Verschlüsselungen kompromittiert, so kann man sofort auf quantenresistente Verschlüsselungsalgorithmen umstellen.
Grundsätzlich hängt eine gute Verschlüsselung davon ab, wer den Verschlüsselungsprozess kontrolliert. Und das sollte immer das Unternehmen sein, das für die Daten verantwortlich ist.
Weitere Informationen unter:
https://eperi.com/de/
Heiko Kropf, Geschäftsführer der CyDIS GmbH, erklärte der TREND-REPORT-Redaktion, warum sich Cyberscoring aktuell zu einem Standardmittel im B2B-Umfeld entwickelt.
Herr Kropf, was bedeutet heute Cyber-Scoring?
Cyber Scoring entwickelt sich aktuell zu einem Standard Mittel im B2B-Umfeld. Das Interesse die IT Risiken seines Geschäftspartners zu kennen nimmt stetig zu. Nicht nur Banken und Versicherungen haben das erkannt, auch immer mehr Industrieunternehmen erkennen diese Notwendigkeit.
Ihre eigene Sicherheit und Lieferfähigkeit hängt auch in großen Teilen von der IT Sicherheit ihrer Geschäftspartner ab. Der anhaltende Trend zu immer mehr Digitalisierung bringt höhere Integration und engere Zusammenarbeit – somit auch steigende IT Abhängigkeiten – mit sich.
Cyber Scorings bieten die Möglichkeit sich schnell, preiswert & fundiert ein entsprechendes Lagebild zu verschaffen.
Was genau wird im Kontext des IT-Securitymanagements überprüft?
Cyber Scorings stellen den aktuellen IST Zustand der IT Sicherheit übersichtlich dar und leiten hiervon individuelle Risiken ab. Wir überprüfen auf der Basis von öffentlich verfügbaren Informationen alle über das Internet erreichbaren Systeme eines Unternehmens und lehnen uns hierbei an die Standards vom BSI bzw. OWASP an.
Häufig treten hier IT Risiken und Probleme auf welche auf nicht funktionierende Prozesse innerhalb der Sicherheitsorganisation eines Unternehmens schließen lassen. So können Mängel im Patch- und Releasemanagement aufgezeigt und anschließend auch behoben werden.
Welche Wettbewerbsvorteile können Unternehmen generieren?
Natürlich nutzen viele Unternehmen Cyber Scoring zuerst für eine Art Selbstaudit. Cyber Scorings stellen ja unabhängig die externe Sicht auf das Unternehmen dar. Gerade bei großen Organisationen kann eine externe Sicht auf die Risiken helfen die notwendigen Maßnahmen zu erkennen oder zu priorisieren.
Der Haupteinsatzbereich ist Risikomanagement im Bereich Vendor- und Providermanagement. Wie identifiziert man die Lieferanten, bei denen das höchste Risiko besteht? Aktuell ist der Ausgangspunkt meist die Abhängigkeit vom Lieferanten, also „strategische Lieferanten“ oder umsatzstarke Lieferanten. Das Vorgehen spiegelt aber nicht das IT Risiko wieder! Auch Lieferanten mit wenig Umsatz können massive IT Risiken haben – und gerade in Zeiten von gemeinsamer Entwicklung und ausgelagerter Fertigung kann das zu großen Problemen führen
Wie sieht bisher das Cyber-Scoring bei Banken und Versicherungen aus, hier im Hinblick auf Cyber-Versicherungen?
Banken und Versicherungen haben ein hohes Interesse daran das Ihre Kunden eine sichere IT betreiben. Während Banken das Ausfallrisiko eines Kreditnehmers besser einschätzen können, können Versicherungen die Eintrittswahrscheinlichkeit eines Cyber Schadens besser beurteilen.
Zudem werden Cyber Scorings im Versicherungsumfeld auch als präventiver Produktmehrwert genutzt. D.h. Versicherungsnehmer können diesen Service freiwillig für sich in Anspruch nehmen um Ihren Standpunkt zu bestimmen und zu optimieren. Das führt zum einen zu besseren Versicherungsprodukten und zum andern zu höherer Sensibilisierung bei den Kunden – sprich am Ende zu sichereren Kunden.
Was hat es mit Ihrer White-Label-Strategie auf sich und für wen ist diese gedacht?
Bei uns bedeutet „White Label“ nicht nur ein „re-branding“. CyDIS Scorings können individuell an die spezifischen Bedürfnisse und Compliance Vorgaben von Unternehmen angepasst werden. Somit ist es in vielen Bereichen flexibel einsetzbar.
Der White Label Ansatz wird auf der einen Seite gerne von Unternehmen genutzt, welche dem Kunden die aktuellen Risiken aufzeigen und diese danach beheben wollen, also primär IT Systemhäuser oder Lösungspartner.
Auf der anderen Seite haben wir Kunden mit unterschiedlichen Compliance Vorgaben und Risikobeurteilungen. Um diesen Anforderungen gerecht zu werden kann unserer Scoring entsprechend angepasst werden. Sowohl die Inhalte, als auch der Umfang und auch die Risikobewertung sind hier individuell einstellbar. Diese Reports werden dann ebenso als „White-Label -Produkt“ genutzt.
Für welche Zielgruppen im Unternehmen ist CyDIS-Scoring gedacht?
CyDIS Scorings sind primär für Risiko- oder Compliance Manager interessant. Die Herausforderung für Unternehmen besteht darin ihre Geschäftspartner bzgl. deren IT Sicherheit zu beurteilen. Hierfür gibt es aktuell keine wirklich guten Ansätze. Fragebögen liefern meist nicht die gewünschte Qualität. Audits sind teuer und skalieren nicht und Zertifizierungen allein stellen nicht immer den gesamten Zustand dar.
Mit CyDIS Scorings können Risikomanager gezielt Risiken erkennen. Zudem bieten CyDIS Scoring die Möglichkeit die Lieferanten zu identifizieren bei welchen sich ein Audit rechnet.
Auch das Top-Management bedient sich gerne unserer Reports um eine – vor der eigenen IT unabhängige – Sicherheitseinschätzung zu bekommen.
Welche Expertise haben Sie, um Cyber-Reports qualifiziert zu generieren?
Wir sind als Team schon viele Jahre im IT Sicherheitsumfeld tätig und profitieren natürlich von den Erfahrungen gerade im Kontext „Abwehr von Hackerangriffen und Industriespionage“ sowie Penetrationstests. Während Penetrationstest einzelne Systeme sehr tiefgreifend analysieren geht Cyber Scoring einen anderen Ansatz. Wir analysieren sehr viele Systeme und Unternehmensdaten und bekommen damit eine umfangreiche Gesamteinschätzung des Sicherheitsbildes.
Die Herausforderung am Cyber Scoring ist weniger die Analyse der Systeme selbst, sehr viel anspruchsvoller ist die vollständige Automatisation des Vorgehens und die zielgruppengerechte Darstellung der Ergebnisse.
Aus welchen Firmenzusammenschlüssen ist die CyDIS GmbH hervorgegangen?
Die CyDIS wurde 2017 als Joint Venture der IS4IT GmbH und der Corporate Trust Business Risk & Crisis Management GmbH gegründet. Beide Unternehmen bieten seit vielen Jahren Lösungen und Dienstleistungen im IT Sicherheitsumfeld an. Als mittelständische Unternehmen im IT Umfeld hatten auch sie die Herausforderung gute Mitarbeiter für das Thema IT Sicherheit zu finden.
Die Idee hinter der Gründung der CyDIS ist es qualitativ hochwertige, weitgehend automatisierte und bezahlbare Leistungen für die IT Sicherheit zu schaffen. Wir wollen das Thema „Industrialisierung in der IT Sicherheit“ weiter voranbringen und glauben, dass dies der richtige Ansatz ist um IT Sicherheit in Deutschland in Summe zu verbessern.
Weitere Informationen unter:
https://cydis.de/
Die Redaktion im Gespräch mit Prof. Dr. Andreas Blum, dhpg Dr. Harzem & Partner, über das neue Cyber Security Operations Center (CSOC) und die Kraft der Community.
Herr Prof. Blum, welche Herausforderungen kommen heute auf mittelständische Unternehmen zu, wenn es um ihre IT-Sicherheit und Sicherheitsstrategie geht?
Eine durchschnittliche Netzwerkstruktur eines mittelständischen Unternehmens hat pro Tag 1.500 Sicherheitshinweise, von einfachen Regelverstößen bis hin zu echten Verdachtsfällen eines Angriffs, zu verarbeiten. In der Vergangenheit ließ sich vieles über Firewall und Virenscanner abfangen, denn der Arbeitsplatz befand sich meist im Büro. Heute arbeiten Menschen im Homeoffice, im öffentlichen WLAN am Flughafen, vielleicht mal im Café. Die IT-Systeme sind umfassender und die Angriffsszenarien komplexer geworden. Somit kommen die traditionellen Sicherheitssysteme an ihre Grenzen.
Welche Aufgaben hat in diesem Kontext Ihr Cyber Security Operations Center?
Das Cyber Security Operations Center kann man sich wie einen Wachdienst vorstellen, der ständig über das Gelände geht und seine Augen offenhält. Neben der Firewall, die Angreifer im besten Fall am Werkstor erkennt, löst das CSOC den Alarm genau dann aus, wenn ein ungebetener Gast die traditionellen Schutzmechanismen bereits überwunden hat. Somit stellt das CSOC eine wichtige Ergänzung dar, denn Eindringlinge schaffen es regelmäßig ins System. Viele Unternehmen wissen nicht einmal, dass gerade ein Schadprogramm sein Unwesen treibt.
Welche physische Ausstattung steckt dahinter und wieviel/welche Spezialisten sind an Bord?
Im Netzwerk des Unternehmens werden zur gesamtheitlichen Beobachtung der Zugänge Sensoren eingebaut, die sich einfach in jede Netzwerkstruktur einbinden lassen. Das gilt auch für die Webserver und Clients, die mit Anti-Viren-Tools ausgestattet werden. Über eine sichere Internetverbindung gelangen die Informationen in Echtzeit auf die Dashboards der IT-Security-Analysten. Das sind geprüfte Informationssicherheits-Auditoren, -tester, Datenschutz- oder Netzwerkexperten. Sie beurteilen die Aktivitäten, nehmen Kontakt zum Unternehmen auf und unterstützen darin, den Angreifer zu isolieren und mögliche Folgen zu minimieren.
Welche Vorgehensweisen schlagen Sie vor, um heute Cyber-Kriminellen abwehrtechnisch zu begegnen?
Das sind drei Dinge.
Welche Vorteile hat Ihre Community durch die geteilten Services?
Neben dem raschen Erkennen von Vorfällen und der Unterstützung des Unternehmens bei der Bekämpfung haben wir unser CSOC als Community konzipiert. Sobald ein Schadcode bei einem Mitglied erkannt wird, erhält die Community die relevanten Parameter dazu. Ziel ist eine agile und lernende Organisation mithilfe kurzer Reaktionszeiten. Dazu gehört auch, dass wir gemeinsam mit der Community das System weiterentwickeln und verfeinern sowie den angeschlossenen Unternehmen ein umfassendes Weiterbildungsangebot bieten.
Von welchen Monitor-Services profitiert z.B. Ihre Community?
Ein Unternehmen, das sich dem Cyber Security Operations Center anschließt, profitiert in mehrfacher Hinsicht: Das beginnt beim frühzeitigen Erkennen von Cyberangriffen in Echtzeit. Und zwar genau von den Angriffen, die eine Firewall nicht erkannt hat und die so bereits in die Unternehmenssysteme eingedrungen sind. Erkennen die Sensoren beim Unternehmen einen solchen Angriff, so wird er von den Experten – also echten Menschen, die nichts anderes tun als sich jeden Tag mit Viren und Schadcodes zu beschäftigen – analysiert. So kann zeitnah auf einen Angriff reagiert, mögliche Schäden begrenzt und die Systeme vor einem Ausfall der Verfügbarkeit geschützt werden. Oder es kann im positiven Sinne Entwarnung gegeben werden, wenn es sich um gar keinen Angriff handelt. Hinter dem von uns betriebenen Cyber Security Operations Center steht der Gemeinschaftsgedanke. Je mehr Unternehmen sich anschließen, desto mehr Vorfälle können von den Experten ausgewertet und verbreitet werden. Das heißt, die gesamte Community profitiert davon.
Auf welche Hilfe können Ihre Mitglieder zurückgreifen, wenn es passiert ist?
Unsere Analysten unterstützen die Verantwortlichen auf Unternehmensseite nicht nur darin, einen Cyberangriff festzustellen, sondern den Schadcode zu isolieren und damit einen möglichen Schaden zu begrenzen. Wir sind immer persönlich für das betroffene Unternehmen da. Das heißt, wir lassen die Verantwortlichen nicht allein, sondern unterstützen sie, die Folgen eines Angriffs zu ermitteln und geeignete Maßnahmen einzuleiten, z.B. entsprechende Log-Dateien auszuwerten und die betroffenen Systeme zu identifizieren. Dabei stehen die Verfügbarkeit und das Wiederherstellen der Informationssicherheit an erster Stelle. Zum letztgenannten Punkt gehört auch, den Verlust von Daten möglichst zu vermeiden. Denn dies ist für die meisten Unternehmen das absolut schlimmste Szenario. Laut Bundesdatenschutzgesetz und der Europäischen Datenschutzgrundverordnung gibt es übrigens für diese Fälle eine Informationspflicht. Denn letztlich handelt es sich bei einem Cyberangriff um eine kriminelle Handlung. Unsere Experten helfen in diesen Fällen auch beim Umgang mit den Behörden.
Inwieweit kann die Community durch Ihre Services und Ihr Know-how sicher sein, dass sich keine Hacker im firmeneigenen Netz befinden?
So sehr wir es uns auch wünschen, einen 100prozentigen Schutz vor Cyberangriffen gibt es nicht. In unseren Gesprächen mit IT-Verantwortlichen ist die größte Befürchtung, dass Hacker die Firewall überwinden und in das Firmennetz eindringen. Denn der schnellste Weg für Hacker ist, selbst Teil des internen Systems zu werden, um den Zugriff auf interne Daten zu erhalten. Dazu setzen Angreifer u.a. auf die sogenannten Social-Engineering-Methoden. Oder es wird ein Link angeklickt, den man nicht nutzen sollte. Der Faktor Mensch spielt eine große Rolle. Man sollte deshalb nicht müde werden, die Mitarbeiter zu informieren. Und dann kommt es für die Unternehmen auf gut funktionierende Überwachungsmechanismen an. Mechanismen, die darin unterstützen, Veränderungen innerhalb des Netzwerktraffics oder Auffälligkeiten in den Client- und Serversystemen rasch zu erkennen. An dieser Stelle setzt ein Cyber Security Operations Centers an.
Welche Möglichkeiten gibt es heute, um Angreifer sowie Schwachstellen im eigenen Netz frühzeitig zu erkennen?
Bevor wir ein Unternehmen aufschalten, durchläuft es intensive Sicherheitstests. Das heißt, unsere Sicherheitsexperten wechseln die Rolle. Sie werden selbst zum Hacker. Mit dem Unterschied, dass sie sich ganz bewusst und gezielt auf die Suche nach Sicherheitslücken in der Infrastruktur des Unternehmens begeben. Dazu setzen wir speziell konzipierte Schwachstellen- und Penetrationstests ein. Sie untersuchen Server, Clients, Netzwerkkomponenten, Drucker, Firewall und Router, aber auch Webapplikationen im Internet oder Intranet, Portale und Shops ebenso wie die W-Lan-Umgebung selbst. Damit weiß das Unternehmen relativ rasch, woran es gegebenenfalls arbeiten und Schutzmaßnahmen ergreifen muss. In vielen Fällen kann die IT-Sicherheit allein mit diesen Maßnahmen schon auf ein ganz anderes Niveau gebracht werden. Notfallpläne für den Fall des Cyberangriffs gehören natürlich auch mit dazu. Damit kann das Unternehmen gegenüber der Datenbehörde jederzeit eine optimale Vorbereitung dokumentieren.
Welche IT-Infrastruktur bzw. Soft- und Hardware müssen Ihre Mitglieder implementieren, um Ihre Community-IT-Services in Anspruch zu nehmen?
Das CSOC konzentriert sich auf die Angriffsflächen, die von Firewall und Virenscanner in den meisten Fällen unerkannt bleiben: Werden die Cyberangriffe über geschickt verschleierten Datenverkehr oder einen unbekannten Schadcode verübt, so kann das Schadprogramm die Firewall passieren und bleibt auch vom Virenschutz unentdeckt. Dieser ist auf die Aktualisierung des Herstellers angewiesen, der das Schadprogramm erst einmal als solches hinterlegen muss. Im Gegensatz dazu überwachen im Rahmen des CSOC as a Service Sensoren, die in die IT-Infrastruktur des Unternehmens eingebunden werden, die Datenströme. Die technische Anbindung des Cyber Security Operations Centers an die jeweilige IT-Infrastruktur dauert weniger als eine Stunde. Es gibt keinerlei Systemvoraussetzungen. Neben den Analysten des CSOC erhält auch die hauseigene IT-Abteilung Zugang zum Dashboard und kann Ereignisse nachverfolgen bzw. begleiten.
Welchen Stellenwert nimmt heute die regelbasierte Automatisierung im Kontext aktueller Bedrohungsszenarien ein?
Da wir das CSOC as a Service für den Mittelstand konzipiert haben, legen wir sehr großen Wert auf eine Ausgewogenheit zwischen Automatisierung und der persönlichen Kommunikation der Analysten und Techniker mit den Verantwortlichen im Unternehmen. Der Grund liegt vor allem darin, dass mittelständische Unternehmen immer noch glauben, für einen Cyberangriff nicht attraktiv genug zu sein und Nachholbedarf in der IT-Sicherheit haben. Hier haben wir das ein oder andere Mal persönliche Überzeugungsarbeit zu leisten. Sicher gehen stetig wachsende Datenmengen mit einer weiteren Automatisierung einher, mit dem Ziel, die Analysten von Routineauswertungen zu entlasten. Dies macht insbesondere bei Schadprogrammen gleichen Musters Sinn. Unsere Erfahrung zeigt aber auch, dass nicht alle Angriffe automatisiert erfasst werden können. So bleibt, unseren Auswertungen nach, ein einmal in die Infrastruktur eingeschleuster Schadcode oft ca. 200 bis 300 Tage unbemerkt im Netzwerk. Ein konsequentes Datenstrom-Monitoring kann hier ansetzen und anhand von Auffälligkeiten, den Angreifer identifizieren und damit im weiteren Prozess Gegenmaßnahmen einleiten.
Welches Wissen kann sich aus dem konsequenten Monitoring von Datenströmen im Netzwerk für Netzwerk-Betreiber generieren lassen?
Anhand des Monitorings der Datenströme – also der herein- und herausgehenden Daten eines Unternehmens – können die Analysten beim Modell des CSOC as a Service Datenangriffe identifizieren. Dies können unübliche Transportprotokolle, zweifelhafte Counterparts sowie eine Erhöhung des Datenvolumens, insbesondere des Abzugs von Daten aus dem Unternehmen sein. Dabei sollte sich die Beobachtung nicht nur auf die gängigen Wege zwischen Rechenzentrum und Clients beschränken, sondern auch auf mobile Geräte erweitern. Bis dato ist eine Automatisierung durch Algorithmen zwar unterstützend möglich, allerdings sollte man sich nicht komplett darauf verlassen werden. Ein Bewusstsein bei Management und Mitarbeitern für die Cybergefahren zu schaffen sowie die Unterstützung der betroffenen Unternehmen im Fall der Fälle ist ebenso notwendig wie wichtig.
Was muss getan werden, um unverzüglich Cyber-Angriffe zu erkennen und entsprechend reagieren zu können?
Von Seiten eines Cyber Security Operations Center-Anbieters mag das vermessen klingen, aber es macht Sinn, die eigene IT in Fragen der Cybersicherheit mithilfe eines externen Supports zu unterstützen. Nicht jeder kann in allen Fachgebieten Experte sein. Neben regelmäßigen Updates der gängigen Sicherheitstools ist eine Echtzeiterfassung von Datenströmen über Sensoren wichtig, um Clients und Server zu schützen. Auch wenn die Firewall einen großen Teil von Schäden abwendet, Eindringlinge kommen immer ins Netzwerk und richten einen Schaden an. Manchmal, ohne dass ein Unternehmen dies rechtzeitig bemerkt. Neben Sensoren hilft ein Blocking-System dem zur Seite stehenden Anbieter ins System einzugreifen, sobald ein Angriff festgestellt wurde.
Weitere Informationen unter:
www.csoc.de
Dieser Beitrag wurde mit freundlicher Genehmigung übernommen von CMS Hasche Sigle Partnerschaft von Rechtsanwälten und Steuerberatern mbB
Nach der DSGVO stellt die e-Privacy-Verordnung die Digitalwirtschaft vor neue Herausforderungen. Erfahren Sie bereits jetzt, was Sie morgen wissen müssen.
Nachdem am 25. Mai 2018 gerade erst die Europäische Datenschutz-Grundverordnung (DSGVO) Geltung erlangt hat, rückt mit der Europäischen Verordnung über Privatsphäre und elektronische Kommunikation (ePVO) bereits die nächste europäische Datenschutzverordnung in den Fokus.
Die ePVO regelt die Nutzung elektronischer Kommunikationsdienste innerhalb der Europäischen Union und wird die Richtlinie 2002/58/EG (Datenschutzrichtlinie für elektronische Kommunikation) ersetzen. Sie richtet sich vor allem an Unternehmen der Digitalwirtschaft und soll die derzeitigen Regelungen an die veränderten wirtschaftlichen und technischen Gegebenheiten anpassen. Wie die DSGVO wird die ePVO in jedem Mitgliedsstaat der EU unmittelbar gelten. Über Öffnungsklauseln werden den Mitgliedstaaten allerdings nationale Gestaltungsspielräume eingeräumt.
Da es sich bei der ePVO um eine bereichspezifische Spezialverordnung zur DSGVO handelt, sollten beide Verordnungen ursprünglich zur selben Zeit in Kraft treten. Offenbar hat die EU-Kommission aber die inhaltliche Sprengkraft des Themas unterschätzt.
So liegen bislang lediglich unterschiedliche Entwürfe der EU-Kommission, des EU-Parlaments und verschiedener Ratspräsidentschaften für die ePVO vor, die sich in wesentlichen Punkten allerdings noch unterscheiden. Eigentlich sollten die Trilog-Verhandlungen in diesem Jahr beginnen. Aufgrund der Europawahlen im Mai war es aber ohnehin unwahrscheinlich, dass vor Ende 2019 ein finaler Entwurf der ePVO vorliegen würde.
Die unterschiedlichen Entwürfe der ePVO stehen sinnbildlich für die divergierenden Interessen, die in Brüssel derzeit um Einfluss ringen: Während sich Daten- und Verbraucherschützer für möglichst strenge Regelungen und ein hohes Schutzniveau aussprechen, warnen Wirtschaftsvertreter vor schwerwiegenden Folgen für die digitale Wirtschaft. Ganze Geschäftsmodelle stünden vor dem Aus, wenn beispielsweise das Targeting und das Tracking im Internet zu werblichen Zwecken nur noch mit Einwilligung der Nutzer erlaubt und dadurch erheblich erschwert werden.
Auch wenn bislang noch kein finaler Verordnungstext vorliegt, lohnt sich eine inhaltliche Auseinandersetzung mit den bisherigen Entwürfen der ePVO bereits jetzt. Denn wie der nachfolgende Überblick zeigt, wird die ePVO die digitale Wirtschaft in vielen Bereichen vor neue Herausforderungen stellen. Nach derzeitigem Stand zeichnen sich u. a. die folgenden Eckpunkte ab:
Angesichts der enormen Bedeutung der ePVO für die digitale Wirtschaft sollten alle betroffenen Unternehmen die weitere Entwicklung sehr aufmerksam verfolgen. Die Erfahrung zeigt, dass der Aufwand zur Umsetzung der DSGVO in vielen Unternehmen unterschätzt wurde. Das Thema ePVO sollte also frühzeitig angegangen werden.
Folgende weitere Informationen über die ePVO stellt CMS Hasche Sigle Partnerschaft bereit:
Damit Sie in puncto e-Privacy stets auf dem neusten Stand bleiben, hat CMS eine eigene Webseite zu dem Thema ePrivacy eingerichtet. Die Kanzlei hat auf dieser Seite die wichtigsten Informationen zur ePVO und dem Stand des Verordnungsgebungsverfahrens für Sie zusammengestellt und erläutern Ihnen dort alle relevanten Vorgaben und Neuerungen. Zudem besteht die Möglichkeit, sich für den ePrivacy-Newsletter anzumelden und auf diese Weise stets aktuell informiert zu sein.
Dr. Laura Dereje ist Rechtsanwältin bei der Wirtschaftskanzlei CMS Deutschland. Sie ist auf die Themen Neue Medien, Online-Plattformen und digitale Geschäftsmodelle sowie Zukunftstechnologien spezialisiert. Kontakt mit der Autorin aufnehmen: https://cms.law/de/DEU/People/Laura-Dereje
Dr. Lukas Stelten ist Rechtsanwalt bei der Wirtschaftskanzlei CMS Deutschland. Er berät zu sämtlichen datenschutzrechtlichen Fragestellungen, einschließlich internationalen Datentransfers, der Verwendung von Beschäftigten- und Sozialdaten sowie der Nutzung von Kundendaten. https://cms.law/de/DEU/People/Lukas-Stelten
Dieser Beitrag steht nicht unter Creative Commons zur Verfügung. Teilen, weiterverbreiten etc. nur nach Rücksprache mit den Autoren möglich. Den Originalbeitrag finden Sie unter https://www.cmshs-bloggt.de/tmc/datenschutzrecht/e-privacy-verordnung-was-sie-wissen-muessen/
Diese Seite benutzt Cookies. Mit der Nutzung dieser Seite stimmen Sie den Datenschutzeinstellungen zu.
OKEinstellungenWir können Cookies anfordern, die auf Ihrem Gerät eingestellt werden. Wir verwenden Cookies, um uns mitzuteilen, wenn Sie unsere Webseite besuchen, wie Sie mit uns interagieren, Ihre Nutzererfahrung verbessern und Ihre Beziehung zu unserer Webseite anpassen.
Klicken Sie auf die verschiedenen Kategorienüberschriften, um mehr zu erfahren. Sie können auch einige Ihrer Einstellungen ändern. Beachten Sie, dass das Blockieren einiger Arten von Cookies Auswirkungen auf Ihre Erfahrung auf unseren Webseite und auf die Dienste haben kann, die wir anbieten können.
Diese Cookies sind unbedingt erforderlich, um Ihnen über unsere Webseite verfügbare Dienste bereitzustellen und einige ihrer Funktionen zu nutzen.
Da diese Cookies für die Bereitstellung der Website unbedingt erforderlich sind, wirkt sich die Ablehnung auf die Funktionsweise unserer Webseite aus. Sie können Cookies jederzeit blockieren oder löschen, indem Sie Ihre Browsereinstellungen ändern und das Blockieren aller Cookies auf dieser Webseite erzwingen. Dies wird Sie jedoch immer dazu auffordern, Cookies zu akzeptieren / abzulehnen, wenn Sie unsere Webseite erneut besuchen.
Wir respektieren es voll und ganz, wenn Sie Cookies ablehnen möchten, aber um zu vermeiden, Sie immer wieder zu fragen, erlauben Sie uns bitte, ein Cookie dafür zu speichern. Sie können sich jederzeit abmelden oder sich für andere Cookies anmelden, um eine bessere Erfahrung zu erzielen. Wenn Sie Cookies ablehnen, entfernen wir alle gesetzten Cookies in unserer Domain.
Wir stellen Ihnen eine Liste der auf Ihrem Computer in unserer Domain gespeicherten Cookies zur Verfügung, damit Sie überprüfen können, was wir gespeichert haben. Aus Sicherheitsgründen können wir keine Cookies von anderen Domains anzeigen oder ändern. Sie können diese in den Sicherheitseinstellungen Ihres Browsers überprüfen.
Diese Cookies sammeln Informationen, die entweder in aggregierter Form verwendet werden, um zu verstehen, wie unsere Webseite verwendet wird oder wie effektiv unsere Marketingkampagnen sind, oder um unsere Webseite und Anwendung für Sie anzupassen, um Ihre Erfahrung zu verbessern.
Wenn Sie nicht möchten, dass wir Ihren Besuch auf unserer Website erfassen, können Sie das tracking in Ihrem Browser hier deaktivieren:
Wir verwenden auch verschiedene externe Dienste wie Google Webfonts, Google Maps und externe Videoanbieter. Da diese Anbieter möglicherweise personenbezogene Daten wie Ihre IP-Adresse erfassen, können Sie diese hier sperren. Bitte beachten Sie, dass dies die Funktionalität und das Erscheinungsbild unserer Website erheblich beeinträchtigen kann. Änderungen werden wirksam, sobald Sie die Seite neu laden.
Google Webfont-Einstellungen:
Google Map-Einstellungen:
Google reCaptcha-Einstellungen:
Einbettung von Vimeo- und Youtube-Videos:
Die folgenden Cookies werden ebenfalls benötigt - Sie können auswählen, ob Sie sie zulassen möchten:
Sie können unsere Cookies und Datenschutzeinstellungen im Detail auf unserer Datenschutzrichtlinie nachlesen.
Datenschutz