Identity Governance ist mehr als Identity Management

Für die Aufrechterhaltung einer hohen IT-Sicherheit ist eine konsistente Identity-Governance-Strategie unerlässlich. Sie ist eine Grundvoraussetzung, um zielgerichtete interne wie externe Attacken abzuwehren. Bei etlichen Unternehmen liegt aber – Stand heute – bei diesem komplexen Thema noch vieles im Argen.

Vereinfacht ausgedrückt geht es bei Identity Governance um die Kombination von richtliniengesteuertem Identitätsmanagement und Compliance-Konformität. Zu den konkreten Anforderungen gehören etwa die unternehmensweite Zuweisung von Rollen und Berechtigungen, die Regulierung von Anwenderzugriffen und die Überwachung der Erfüllung von Compliance-Anforderungen.

Im Identity-Governance-Umfeld gibt es verschiedene Lösungsansätze: zum Beispiel Identity-Lifecycle-Lösungen mit Governance-Funktionen oder reine Identity-Management-Lösungen. Sie bieten jeweils unterschiedliche Vor- und Nachteile, verdeutlichen aber auch, dass es gegenwärtig keine „One-size-fits-all“-Lösung gibt. Eine solche Lösung würde erstens eine vollständige Risikoerfassung und -darstellung mit der Ermittlung aller User und ihrer Rechte ermöglichen, zweitens den Zugriff auf IT-Ressourcen steuern und drittens alle unternehmenskritischen Aktivitäten Compliance-konform überwachen und protokollieren.

Schon das klassische Thema Identity Management zeigt, dass keine allumfassende Applikation verfügbar ist. So müssen etwa weit verbreitete „Identity and Access Management“-Lösungen wie „RSA Identity Governance and Lifecycle“ oder „SailPoint IdentityIQ“ durch eine Anwendung für die Verwaltung, Sicherung und Überwachung privilegierter Benutzerkonten ergänzt werden, also um eine Privileged-Identity-Management (PIM)-Lösung wie beispielsweise die marktführende Privileged Account Security Suite von CyberArk. Eine solche Lösung muss immer zentraler Bestandteil einer Identity-Governance-Strategie sein. Dass die von privilegierten Accounts ausgehenden Gefahren im Falle eines Missbrauchs erheblich sind, ist inzwischen durch zahlreiche Sicherheitsvorfälle eindeutig belegt.

Privileged Identity Management ist unumgänglich

An diesem Punkt zeigt sich auch die ganze Komplexität des Themas Identity Governance. In vielen großen Unternehmen ist das Benutzermanagement in aller Regel standardmäßig vorhanden und auch privilegierte Benutzerkonten werden oft verwaltet, gesichert und überwacht. Doch das Thema Privileged Identity Management greift wesentlich weiter. Dabei geht es etwa auch um Application Accounts oder Software Accounts, also um die Passwörter, die in Applikationen, Skripten oder Konfigurationsdateien gespeichert sind. Sie werden für den direkten, automatischen Zugriff von Anwendungen auf Backend-Systeme benötigt, zum Beispiel auf Datenbanken. Da die Passwörter in aller Regel im Klartext eingebettet sind und nie geändert werden, stellen sie ein erhebliches Sicherheitsrisiko dar. Statische Passwörter sollten deshalb eliminiert und alle Application Accounts zentral abgelegt, verwaltet und regelmäßig geändert werden. Bei etlichen Unternehmen dürfte es an diesem Punkt noch einen erheblichen Nachholbedarf geben.

Doch auch mit dem Management und der Überwachung der privilegierten und Application Accounts ist ein Unternehmen noch nicht auf der sicheren Seite. Ein wesentlicher Punkt fehlt noch: das Privileged Session Management, das heißt die Protokollierung von Sessions, um eine vollständige Transparenz über alle Vorgänge bei privilegierten Zugriffen zu erhalten. Damit ist eine revisionssichere Nachvollziehbarkeit aller Aktionen vom Zeitpunkt der Anmeldung an einem System bis zur Abmeldung gegeben. Gerade bei der Einbindung externer Dienstleister oder Service-Provider in die eigene IT ist eine Privileged-Session-Management-Lösung unter Sicherheitsaspekten unverzichtbar – und zwar nicht nur für große, sondern auch für kleine und mittelständische Unternehmen, die Standardaufgaben zunehmend in die Cloud verlagern.

Compliance-Regeln zwingen zur Nutzer- und Rechteverwaltung

Identity Governance bedeutet darüber hinaus aber auch die adäquate Umsetzung von Compliance-Vorgaben zur Nutzer- und Rechteverwaltung. Sie finden sich in zahlreichen Richtlinien und Regelungen wie im BDSG (Bundesdatenschutzgesetz), in den Richtlinien des BSI (Bundesamt für Sicherheit in der Informationstechnik) oder im Standard ISO/IEC 27002. Eine Verschärfung erfährt das Thema Compliance durch die EU-Datenschutz-Grundverordnung (EU-DSGVO), die bereits vor zwei Jahren in Kraft trat und ab Ende Mai 2018 anzuwenden ist. Sie erhöht den Druck in puncto Identity Governance auf die Unternehmen deutlich, denn teilweise drohen bei Nichtbeachtung der Vorgaben drastische Geldstrafen. Zu den Compliance-Anforderungen der unterschiedlichen Richtlinien und Verordnungen zählen etwa die rollenbasierte Identitätsverwaltung, Zugriffskontrollen oder der adäquate Schutz personenbezogener Daten.

Die Komplexität des Themas Identity Governance stellt viele Unternehmen vor große Herausforderungen – allein schon hinsichtlich der Auswahl von sicheren und kostengünstigen Lösungen für die Erfüllung aller Anforderungen. Gerade kleine und mittelständische Unternehmen stoßen zudem etwa bei der Identifizierung personenbezogener Daten oder der Ermittlung von Nutzerrechten schnell an ihre Kapazitätsgrenzen. Erschwerend kommt hinzu, dass die Umsetzung eines Identity-Governance-Projektes bis zu 200 Personentage in Anspruch nimmt. Folglich sollten Unternehmen durchaus prüfen, einen externen Dienstleister hinzuzuziehen, und auch evaluieren, ob im Bereich Identity Governance eine reine Vor-Ort-Lösung oder ein Managed-Security-Service die bessere Wahl ist.

 

* Kai Grunwitz ist Senior Vice President EMEA bei NTT Security

 

Eine kleine Geschichte der Standardsoftware Teil IV

Vierter Teil: Business Spend Management

 

Die IT-Branche liebt Akronyme. Nirgendwo sonst sind – insbesondere dreistellige – Abkürzungen so verbreitet wie in der Technologie: ERP, CRM, HCM, etc. Abkürzungen bleiben besser im Gedächtnis und erleichtern die Kommunikation im Arbeitsalltag. Für die Software selbst, ist die Geläufigkeit des Akronyms ein Erfolgsmesser. Diese Beitragsserie beschäftigt sich mit einigen der bekanntesten Standardanwendungen und diskutiert die Evolution einer neuen Kategorie, dem Business Spend Management, kurz BMS.

Business Spend Management

Es gibt seit langem ERP-Module für P2P (Procure-to-Pay) und S2P (Source-to-Pay). Mit der E-Commerce-Innovation für B2B (Business-to-Business) Ende der 90er-Jahre kamen Unternehmen wie CommerceOne, VerticalNet und Ariba an den Markt. SAP nannte diesen Bereich SRM (Supplier Relationship Management), meinte damit aber nur eine Teilmenge des gesamten Business Spend Managements. Nach dem Abschwung von 2001 war Ariba der einzige Überlebende, der versuchte, seinen Raum als ORMS (Operational Resource Management System) zu definieren. 2012 wurde die Firma dann für 4,3 Milliarden US-Dollar an SAP verkauft.

SAP erkannte damals die Wichtigkeit einzelner BSM-Bereiche – auch mit der Übernahme des Ausgabenmanagement-Experten Concur in 2014. Um jedoch wirklich alle Bereiche zu bedienen, in denen Unternehmen Geld ausgeben, muss BSM noch mehr Gebiete umfassen: Beschaffung, Rechnungsstellung und Spesenmanagement, aber auch Ausgabenanalyse, Lieferantenmanagement, Vertragsmanagement und alle anderen Nebenprozesse, in denen Geld ausgegeben wird.

Diese Lösungen müssen Daten unternehmensübergreifend aggregieren, normalisieren und bereinigen können. Ziel ist, dem Kunden dabei zu helfen, die Art und Weise, wie ein Unternehmen Geld ausgibt, intelligenter zu gestalten. Es spielt keine Rolle, ob das Geld durch einen offiziellen Beschaffungsprozess ausgeben oder als Spesenabrechnung eingereicht wird. Denn BSM umfasst alle drei Kategorien: Beschaffung, Spesen und fakturierte Ausgaben.

Das klingt einfach, Unternehmen wissen aber oftmals nicht, wofür sie Geld ausgeben. Mit Ausgaben in drei Kategorien, denen Daten teilweise sogar falsch zugeordnet werden, wird es schwierig, die Daten zu normalisieren und aggregieren. „Diverses“ wird in vielen Organisationen zur eigenen großen Ausgabenkategorie. Noch bevor die Ausgaben optimiert werden können, müssen sie deshalb richtig verwaltet werden.

Datenbasiertes Ausgabenmanagement

Und hier kommt die Cloud ins Spiel: Der große Vorteil der Cloud ist, dass alle Daten zentral abliegen. Mithilfe von maschinellem Lernen lassen sich anonymisierte Daten wiederum schneller normalisieren. Mit der Masse an Daten, die sich ansammeln, lassen sich präskriptive Erkenntnisse erschließen. So können Lösungen für Business Spend Management beispielsweise Empfehlungen abgeben.

Ein Beispiel: „Sie sind dabei, einen Vertrag mit Lieferant A abzuschließen. Andere Nutzer hatte Schwierigkeiten mit der Leistung des Lieferanten. Vielleicht sollten Sie Lieferant B in Betracht ziehen.“ Oder: „Sie geben 30 Prozent mehr für diese Ware aus als andere Unternehmen in Ihrer Branche. Sie sollten den Vertrag neu verhandeln.“ Je mehr Daten gesammelt werden, umso besser werden die Empfehlungen der BSM-Lösung. In der Vergangenheit wäre diese Softwarefunktion nicht möglich gewesen, da die Informationen dazu in unterschiedlichen Systeme lagen.

Automatisierung & KI

Es ist eine spannende Zeit in der Geschichte der Technologie: Wir haben nicht nur riesige spezialisierte Datensätze, sondern auch die Rechenleistung und die Datenarchitektur, um diese effizient zu nutzen; sowie maschinelles Lernen und künstliche Intelligenz, um Muster zu erkennen und vorausschauende Erkenntnisse zu liefern, die Unternehmen zur Entwicklung neuer Geschäftsmodelle nutzen können.

BSM bedeutet die Automatisierung der Beschaffung, die Verwaltung der Mitarbeiterausgaben, ein effizientes Rechnungsmanagement, Contract Lifecycle Management, Supplier Information Management, Inventory, Advanced Sourcing, Budgeting, Analytics. Wenn all diese Bereiche nahtlos zusammenspielen, ist ein echter Mehrwert und eine echte Optimierung des Ausgabenmanagements möglich.

 

Teil I: „Eine kleine Geschichte der Standardsoftware“

Teil II: „Eine kleine Geschichte der Standardsoftware“

Teil III: „Eine kleine Geschichte der Standardsoftware“

 

 

Weiterführende Informationen finden Sie unter:
Coupa

Unser Autor:

Robert Bernshteyn ist CEO von Coupa Software. Coupa wurde speziell für die Cloud entwickelt und ist die einzige Plattform für Business Spend Management, die Unternehmensabläufe genauso zusammenführt, wie die Mitarbeiter das Geld ausgeben. Unter dem Motto „Value as a Service“ unterstützt Coupa seine Kunden dabei, das Ausgaben-Management zu optimieren, signifikante Kosteneinsparungen zu erzielen und auf diese Weise die Profitabilität des Unternehmens zu verbessern. Coupas Cloud-basierte Spend-Management-Plattform verbindet hunderte von Organisationen mit Millionen von Lieferanten weltweit. Mit der Lösung von Coupa gewinnen die Unternehmen eine bessere Übersicht und Kontrolle über die Ausgaben des Unternehmens und deren Struktur.

 

Aufmacherbild / Lizenz / Quelle
Pixabay / CC0 Creative Commons

Keine Angst vor Digitalisierung

Gastbeitrag von Steve Wainwright, Managing Director EMEA, Skillsoft

54% der Arbeitnehmer befürchten im Zuge der digitalen Automatisierung den Verlust ihres Jobs. Dies ergab eine repräsentative Umfrage von Infratest Dimap. Laut Digitalverband BITKOM fühlen sich 7 von 10 Arbeitnehmern „not ready“ für die digitale Arbeitswelt und die damit verbundenen Anforderungen.

Dabei haben Industrie und Wirtschaft mit 33,5 Milliarden Euro in den letzten Jahren nicht gerade wenig in IT-gestützte Lernformate zu digitalen Themen investiert. Die Erfolge sind jedoch offenbar bescheiden. Denn ein Großteil der Arbeitnehmer stellt den Lerninhalten in ihren Unternehmen ein schlechtes Zeugnis aus: „Unattraktiv, zeitintensiv, nicht bedürfnisgerecht, wenig praxisbezogen, geringe Relevanz“ – so lautet das mehrheitliche Urteil von 6.000 befragten Arbeitnehmern einer internationalen Studie des Marktforschungsunternehmens Towards Maturity in Zusammenarbeit mit Skillsoft.

Die genannten Kritikpunkte bieten gute Ansatzpunkte für Verbesserungen beim Kompetenzaufbau für die Digitalisierung. Dabei sind die folgenden fünf Kriterien besonders wichtig:

  1. Weiterbildung strategisch anlegen
    Die definierten Unternehmensziele der Digitalisierung müssen in einer konsistenten Lernstrategie abgebildet werden. Zunächst gilt es, zwei erfolgskritische Fragestellungen klar zu beantworten: Welche Qualifikationsprofile werden für bestimmte Aufgaben heute und in Zukunft benötigt? Welches Wissen muss vermittelt werden, um dazu Kompetenz „von innen heraus“ aufzubauen?
    Hier sind vor allen Dingen die Führungskräfte gefragt. Ihre Aufgabe ist es, die HR-Strategie in ihren Verantwortungsbereichen umzusetzen sowie Stärken, Defizite und Lernbedürfnisse der unterstellten Mitarbeiter zu identifizieren. Ein wesentlicher Bestandteil des Corporate Learning Konzepts ist es daher, Managern mit Personalverantwortung die notwendigen Führungskompetenzen zu vermitteln, um sie auf ihre veränderte Rolle und Aufgaben vorzubereiten.
  2. Relevanz und Praxisnähe steigern
    Kernziel der unternehmensweiten Lernstrategie muss es sein, Mitarbeiter in die Lage zu versetzen, digitale Prozesse im Unternehmen zu verstehen sowie geeignete Technologien routiniert und risikobewusst einzusetzen. Adäquate Lernprogramme enthalten daher drei große Themenkomplexe: Business Skills, IT-Skills sowie Compliance und Unternehmenssicherheit. Dabei werden auch für die digitale Arbeitswelt unerlässliche Eigenschaften „trainiert“, wie analytische Kompetenzen oder die Fähigkeit zur intensiven Zusammenarbeit in virtuellen Teams.
    Eine kontinuierliche Aktualisierung und Erweiterung der Lerninhalte kann die Relevanz definitiv erhöhen. So dürfen etwa aktuelle Compliance-Themen wie Mobbing-Prävention, das neue Entgelttransparenzgesetz und die bevorstehende DSGVO keinesfalls fehlen.
  3. Diversifikation ermöglichen
    Moderne Lernprogramme richten sich nach individuellen Lernbedürfnissen. Sie berücksichtigen die Zielgruppenvielfalt im Unternehmen nach Funktionen, Altersgruppen und Reifegrad. Zum anderen sind die Kurse nach unterschiedlichen Wissens-Levels strukturiert und bieten eine hohe Kontinuität.
    Eine sehr zeitgemäße Schulungsmethode sind Micro Learning-Kurse: Diese vorwiegend Video-basierten „Lernhäppchen“ haben einen starken Praxisbezug und können aufgrund ihrer geringen Dauer von 5 bis 10 Minuten ideal in den Arbeitsalltag eingebaut oder auch mobil genutzt werden. Ein multimodaler Mix verschiedener Lernmedien gehört allerdings ebenfalls zur Diversifikation. Denn während Einige lieber über Videos lernen, bevorzugen Andere eher Gamification-Tools. Auch das „klassische“ eBook ist nach wie vor ein beliebtes Lernmittel.
  4. Offene Lernkultur etablieren
    Unternehmen müssen Qualifizierung fordern und fördern. Das Schaffen zeitlicher Freiräume zum Lernen, die Bereitstellung mobiler Pattformen für zeit- und ortsunabhängiges Lernen sowie nicht zuletzt die Verbesserung individueller Karriereperspektiven für qualifizierte Mitarbeiter demonstrieren ein klares Bekenntnis zu einer gelebten Lernkultur. An der Belegschaft sollte das Vorhaben jedenfalls nicht scheitern. Denn laut der bereits erwähnten Towards Maturity-Studie sind rund 69% der Mitarbeiter überzeugt, durch digitale Lernangebote ihre Aufgaben im Job besser und schneller erfüllen zu können.
  5. Best Practice erfolgreicher Unternehmen adaptieren
    Top Performer haben eine umfassende Strategie zur Organisation, Strukturierung und Pflege ihrer Lerninhalte etabliert. Der inhaltliche Schwerpunkt liegt auf der Bereitstellung ansprechender, multimodaler Inhalte mit hohen Lernanreizen und einem außergewöhnlichen, individuellen Lern-Erlebnis. Die Didaktik ist stark von sogenannten „Storytelling“-Techniken und hoch interaktiven Methoden geprägt. Darüber hinaus überprüfen und aktualisieren fortschrittliche Unternehmen regelmäßig ihre Inhalte. Es lohnt sich, besonders erfolgreiche Modelle anzusehen und geeignete Bereiche für das eigene Unternehmen zu adaptieren – hier ist „abgucken“ einmal sinnvoll.

Fazit

Die Qualifikation der Mitarbeiter war schon immer ein entscheidender Wettbewerbsfaktor für Unternehmen. In der digitalen Arbeitswelt wird es erfolgsentscheidend sein, wie zeitnah essenziell erforderliche Fähigkeiten aufgebaut und vor dem Hintergrund permanenter Veränderungen angepasst werden können. Mit einer umfassenden Lern-Strategie können Unternehmen wesentlich gezielter in digitale Lernformen investieren und ihre gesteckten digitalen Geschäftsziele besser erreichen.

Weitere Informationen unter:
www.skillsoft.com

Über den Autor:

Steve Wainwright ist Managing Director, EMEA der Skillsoft Gruppe und verantwortet das operative Direktgeschäft und den Channel-Vertrieb des Corporate Learning-Anbieters in Europa, dem mittleren Osten und Afrika. Mit seiner mehr als 25-jährigen Erfahrung in Workforce-Lösungen ist Steve ein leidenschaftlicher Verfechter von Learning & Development (L & D) im Unternehmensumfeld. Vor Skillsoft leitete Steve internationale Vertriebsfunktionen bei marktführenden Unternehmen wie Salesforce.com und Oracle. Als Chief Digital Officer gehörte er außerdem zum Vorstand von SAP in Großbritannien. www.skillsoft.com

Bildquellen / Lizenzen: Skillsoft (Urheberrecht)

Fehlendes Risikobewusstsein

Start-up-Unternehmen fehlen oft Sicherheitsstrukturen

Ein Gastbeitrag von Markus Weidenauer, geschäftsführender Gesellschafter der SecCon Group GmbH

Eine geniale Idee, ein solides Konzept und fertig scheint das erfolgreiche Start-up-Unternehmen? Ganz so einfach ist es leider nicht. Was Gründer bei der Etablierung ihres Produkts am Markt häufig unterschätzen, ist die Relevanz eines entsprechenden Sicherheitskonzepts. Denn auch wenn junge Unternehmer das Risiko einer Bedrohung als gering bis nicht vorhanden einstufen, zeigt die Realität, dass jede Firma gefährdet sein kann. Dabei ist das Repertoire Krimineller vielfältig und reicht von Erpressung über Industriespionage und Diebstahl bis hin zu Entführungen im Ausland.

In der Regel erfährt die breite Masse selten, wenn Unternehmen erpresst werden. Aufgrund des drohenden Imageschadens, zur Vermeidung von Verunsicherungen seitens Kunden und Mitarbeitern sowie um etwaige Ermittlungsverfahren nicht zu gefährden, sind Firmen bemüht, diesen heiklen Umstand möglichst nicht in die Öffentlichkeit gelangen zu lassen. So ist auch potenziellen Opfern meist nicht bewusst, dass sie zu diesen zählen können. Dabei gehen der Akt einer Erpressung und das mögliche Ausspionieren seitens des Erpressers im Vorfeld grundsätzlich leichter vonstatten, wenn es sich um Betriebe ohne Sicherheitseinrichtungen und die dazugehörigen -strukturen handelt. Zu den typischen Androhungen von Erpressern zählen etwa die Manipulation von Produkten, Sabotageakte, die die betrieblichen Abläufe stören oder das Image des Unternehmens nachhaltig schädigen sollen, sowie die Veröffentlichung von sensiblen Firmeninterna. Insgesamt scheint die Wahrscheinlichkeit, tatsächlich an die gewünschten Forderungen zu gelangen, für Erpresser auf den ersten Blick höher zu sein, wenn kleine Unternehmen oder Start-ups als Ziel auserkoren werden. Warum das so ist? Aufgrund mangelnder Sicherheitsstrukturen und der damit einhergehenden ungenügenden Vorbereitung auf einen möglichen Ernstfall. Denn die meisten Firmen verfügen zu Beginn weder über ein präventives Sicherheitskonzept noch über einen Basiskrisenplan mit Krisenstabsvertretern, definierten Szenarien und einer internen sowie externen Krisenkommunikation mit Kontakten zu ausgewiesenen Spezialisten, um Situationen mit Krisenpotenzial bewältigen zu können.

Achtung, Lauschangriff

Auch stellen die sogenannte Industriespionage sowie die Mitbewerberausspähung im Allgemeinen und Lauschangriffe im Besonderen für aufstrebende Unternehmen eine zunehmende Bedrohung dar. Um an interne Informationen zu gelangen, gibt es vor allem aufgrund der technisch weit fortgeschrittenen Entwicklungen viele Möglichkeiten, einen Geschäftsbetrieb auszuspähen. Aus diesem Grund ist es unabdingbar, für einen effektiven und wirksamen Informationsschutz zu sorgen. Insgesamt ist das Thema Informationsschutz komplex und die konkrete Umsetzung von Schutzmaßnahmen erfordert Erfahrung und Fingerspitzengefühl auf verschiedenen Ebenen. Es geht nicht nur darum, sichtbare Angriffskanäle wie Abhöreinrichtungen oder Kameras in Geschäftsräumen zu finden und zu eliminieren. Es geht vielmehr darum, ein ganzheitliches Informationsschutzkonzept auf den Weg zu bringen, das Punkte wie Mitarbeitersensibilisierung, Klassifizierung vertraulicher Unterlagen und Daten und deren Handhabung, Aufbewahrung sowie Entsorgung regelt. Aus der Praxis sind Fälle bekannt, in denen Firmengeheimnisse in Papierkörben gefunden wurden. Daher ist und bleibt der Mensch ein großer Schwachpunkt im Informationsschutz. Denn dieser gibt meistens unbewusst, beispielsweise bei einem belauschten Telefongespräch oder an der Bar in einem Hotel im Gespräch mit Arbeitskollegen, Informationen preis. Durch
gezieltes „Social Engineering“ des Mitbewerbers können via Telefon wichtige Informationen abfließen, da sich der Gesprächspartner als Kollege einer anderen Filiale ausgibt. In Entwicklungsabteilungen und Vorstandsetagen sind weitere Maßnahmen von Nöten, angefangen bei der regelmäßigen Überprüfung von Räumlichkeiten auf technische Lauschmittel durch Spezialisten bis hin zu einem abhörsicheren Konferenzraum für hochsensible Gesprächsrunden.

Entführungsindustrie auf dem Vormarsch

Als Start-up-Unternehmen ist man vor Entführungen im Ausland gefeit? Weit gefehlt! Mit einer wachsenden Anzahl an Krisenherden weltweit geht auch für international agierende Firmen das Risiko einher, dass Mitarbeiter eines Unternehmens Opfer der
sich in den letzten Jahren gegründeten und sehr lukrativen Entführungsindustrie werden. Doch während große Konzerne sich den gestiegenen Anforderungen bereits vor Jahren angepasst und Sicherheitsstrukturen implementiert haben, die auch eine
Reiseabteilung mit einer Länderanalyse sowie ein entsprechendes Krisenmanagement einschließen, gibt es in vielen jungen Unternehmen noch kein Bewusstsein dafür. So reisen Mitarbeiter teilweise in Krisenregionen mit nichts an der Hand außer einem
Erste-Hilfe-Päckchen. Doch das fehlende Risikobewusstsein setzt nicht nur Menschenleben aufs Spiel, sondern verursacht mitunter auch existenzbedrohende Kosten. Hier ist Aufklärung in Form von professioneller Beratung gefragt und im Anschluss eine erste Umsetzung zumindest kleiner Schritte. Dazu zählen die Einholung von Reisehinweisen über das Zielland, Sensibilisierungstrainings in Bezug auf spezifische dort vorherrschende Sicherheitsrisiken und Aufbau und Implementierung eines firmeninternen Krisenmanagements. Auch bietet es sich an, über den Leistungsumfang einer Kidnap-and-Ransom-Versicherung informiert zu sein, mit der deutlich mehr einhergeht als eine reine Zahlung des Lösegelds im Entführungsfall. Hierzu zählen entsprechende Trainings, die Übergabe einer 24/7-Notfallnummer sowie Briefings zum jeweiligen Land. Mit diesen Maßnahmen können Start-up-Unternehmen ihren Beitrag zur Sicherheit ihrer Mitarbeiter leisten und kommen ihrer gesetzlichen Fürsorgepflicht nach. Denn zunehmende Gefahren für den Mitarbeiter, wie zum Beispiel eine Reise in ein Risikoland, verlangen laut Gesetzgeber erhöhte Vorsorgemaßnahmen des Arbeitgebers.

Besser Vor- als Nachsicht

Es zeigt sich, dass Start-up-Unternehmen prüfen sollten, inwiefern ihre Sicherheitsstrukturen auf verschiedene Bedrohungs-Szenarien hin ausgelegt sind, selbst wenn sie das Sicherheitsrisiko für sich als relativ niedrig einschätzen. Speziell
für Firmen ohne ausreichende interne Sicherheitsstrukturen schaffen Beratungsunternehmen der Sicherheitsbranche Abhilfe. Diese Experten sind auf das Analysieren von Gefahren, das Erkennen von Schwachstellen und das Erstellen von individuellen Sicherheitskonzepten und Krisenplänen sowie deren Umsetzung spezialisiert. Dabei ist es wichtig, sich für eine Firma mit entsprechenden Kompetenzen zu entscheiden, denn die fachliche und soziale Kompetenz erfahrener Mitarbeiter ist die Voraussetzung für eine erfolgreiche Abwicklung. Letztendlich sollte das Ziel eines jeden erfolgreichen Sicherheitsmanagements immer sein, nicht nur zu reagieren, sondern zu agieren.

Weitere Informationen unter:
http://seccon-group.de/

Über den Autor:

Markus Weidenauer wurde 1974 geboren und arbeitet bereits seit 1992 im Bereich Sicherheitsmanagement. 2003 machte sich Markus Weidenauer mit der SecCon Group GmbH selbstständig, die seit 2004 in dieser Form firmiert. Seither vertrauen Privatpersonen, exponierte Familien ebenso wie Konzert- und Kulturveranstalter und mittelständische Firmen auf die Kompetenz des Unternehmens bei der Gefahrenabwehr. Mit professioneller Erstberatung liefert die SecCon Group verlässliche Antworten und Einschätzungen, von denen sowohl private Mandanten als auch Sicherheitsverantwortliche in Unternehmen profitieren. Bei der SecCon Group
arbeiten ausschließlich Spezialisten mit nationalem und internationalem Sicherheitshintergrund aus Polizei und Militär.

Bildquelle / Copyright: SecCon Group

Eine kleine Geschichte der Standardsoftware Teil III

Dritter Teil: Human Capital Management

Die IT-Branche liebt Akronyme. Nirgendwo sonst sind – insbesondere dreistellige – Abkürzungen so verbreitet wie in der Technologie: ERP, CRM, HCM, etc. Abkürzungen bleiben besser im Gedächtnis und erleichtern die Kommunikation im Arbeitsalltag. Für die Software selbst, ist die Geläufigkeit des Akronyms ein Erfolgsmesser. Diese Beitragsserie beschäftigt sich mit einigen der bekanntesten Standardanwendungen und diskutiert die Evolution einer neuen Kategorie, dem Business Spend Management, kurz BMS.

So wichtig wie die Informationstechnologie für die Entwicklung von CRM-Software (Eine kleine Geschichte der Standardsoftware Teil 2) war, so sollte sie das Gleiche auch für einen anderen Bereich bewirken: die Personalverwaltung. Die Idee, die Informationstechnologie auch auf Personalfunktionen anzuwenden, hatte ihre Wurzeln bereits in den 70er-Jahren.

Entstehungsgeschichte von HCM-Software

Damals beschränkten sich die Funktionen auf Basisaufgaben wie die Stundenerfassung oder die Verwaltung der Gehaltsabrechnung. Mit dem Aufkommen von ERP-Systemen (Eine kleine Geschichte der Standardsoftware Teil 1) wurden einige Funktionen für HR (Human Resources) als Zusatzmodule angeboten. Doch erst als Dave Duffield und Ken Morris 1987 PeopleSoft gründeten, entwickelte sich HCM (Human Capital Management) zu einer eigenständigen Kategorie.

PeopleSoft begann zwar mit einer reinen HR-Anwendung, fügte jedoch schließlich Module hinzu, die es der Software ermöglichten, als ERP-System zu fungieren. Damit trat das Unternehmen in Konkurrenz zu SAP, JD Edwards (mit dem es 2003 fusionierte) und Oracle, von dem es 2005 übernommen wurde.

Während dieser Zeit, in den späten 1990er- und frühen 2000er-Jahren, löste die Cloud-Technologie eine weitere Innovationsrunde in dieser Kategorie aus. HR-Technologien wurden auch für kleinere Unternehmen ohne ERP-Systeme zugänglich gemacht und öffnete sich für Benutzer außerhalb des HR-Bereichs. So konnten Manager und Mitarbeiter viele Aufgaben selbst erledigen.

Cloud-Anwendungen

Die Cloud brachte auch eine Vielzahl an Startups für Speziallösungen für beispielsweise Recruiting, Bewerber-Tracking, Benefit-Administration oder Performance-Management hervor. Die großen ERP-Anbieter begannen, sich die besten Anbieter zu schnappen, um ihre eigenen Cloud-basierten End-to-End-Lösungen zu entwickeln.

SAP zum Beispiel kaufte im Jahr 2012 SuccessFactors und ist nun mit der Anwendung „Employee Central“ einer der wichtigsten Anbieter. Workday ist zu einem starken Konkurrenten geworden und hat mit dem Aufbau eines nativen und vollständigen End-to-End-Systems gute Arbeit geleistet.

 

Business Spend Management

Das Muster ist immer das gleiche: Software entsteht, um ein Problem zu lösen. Ist sie erst einmal erfolgreich auf dem Markt, wird sie erweitert und mit anderen Lösungen kombiniert, um angrenzende Prozesse zu bewältigen. Viele der Prozesse im Business Spend Management (BSM) wurden schon immer mithilfe der Informationstechnologie umgesetzt. Doch es gab nie einen konkreten Namen dafür, da BSM – ähnlich wie zuvor HCM und CRM – bisher eine Ansammlung einzelner ERP-Add-Ons war. Deshalb erkannte die Industrie lange Zeit BMS nicht als neue und eigene Kategorie.

 

Der vierte und letzte Teil von „Eine kleine Geschichte der Standardsoftware“ diskutiert die Evolution von Business Spend Management, kurz BMS, als neue Software-Kategorie.

 

 

Teil I: „Eine kleine Geschichte der Standardsoftware“

Teil II: „Eine kleine Geschichte der Standardsoftware“

 

Weiterführende Informationen finden Sie unter:
Coupa

Unser Autor:

Robert Bernshteyn ist CEO von Coupa Software. Coupa wurde speziell für die Cloud entwickelt und ist die einzige Plattform für Business Spend Management, die Unternehmensabläufe genauso zusammenführt, wie die Mitarbeiter das Geld ausgeben. Unter dem Motto „Value as a Service“ unterstützt Coupa seine Kunden dabei, das Ausgaben-Management zu optimieren, signifikante Kosteneinsparungen zu erzielen und auf diese Weise die Profitabilität des Unternehmens zu verbessern. Coupas Cloud-basierte Spend-Management-Plattform verbindet hunderte von Organisationen mit Millionen von Lieferanten weltweit. Mit der Lösung von Coupa gewinnen die Unternehmen eine bessere Übersicht und Kontrolle über die Ausgaben des Unternehmens und deren Struktur.

 

Aufmacherbild / Lizenz / Quelle
Pixabay / CC0 Creative Commons

Automobilsektor und Maschinenbau droht ein gravierender Strukturwandel

Pressemitteilung: Die deutsche Wirtschaft ist im Konjunkturhoch, die Unternehmen blicken optimistisch in die Zukunft. Doch sie sollten darüber nicht vergessen, dass sie mit wachsenden Herausforderungen konfrontiert sind: Digitalisierung, Fachkräftemangel, nachlassende Innovationskraft sowie protektionistischen Tendenzen – in vielen Branchen ist ein Strukturwandel dringend nötig. Doch viele Unternehmen machen sich das nicht rechtzeitig bewusst, bzw. sind darauf nicht ausreichend vorbereitet. Besonders betroffen sind die deutschen Vorzeigebranchen Automobil und Maschinenbau, so die neue Roland Berger-Studie Sturmtief voraus! Wo Unternehmen trotz guter Konjunktur mit sektoralen Krisen rechnen müssen“.

„Die gute Konjunktur führt leicht zu Trägheit“, sagt Falco Weidemeyer, Senior Partner bei Roland Berger und Leiter des Bereichs Corporate Performance. „Dabei sollten Unternehmen in guten Zeiten ihre Geschäftsmodelle hinterfragen, Business-as-usual ist gerade jetzt gefährlich.“

 

Viele Industriebereiche stehen vor erheblichem Strukturwandel

Davon sind auch die Studienteilnehmer überzeugt: Trotz guter Konjunktur glauben 88 Prozent der befragten Restrukturierungsexperten, dass ein branchenspezifischer Strukturwandel für Anpassungsbedarf sorgt. Dazu kommen der technologische Wandel (ca. 86%) und der globale Wettbewerb (75%). Vor allem deutsche Vorzeigeindustrien wie Automobil (ca. 95%), Anlagenbau (ca. 87%) und Handel (ca. 84%) werden Veränderungen stark zu spüren bekommen.

Wo Unternehmen trotz guter Konjunktur mit sektoralen Krisen rechnen müssen

„Die Veränderungen bergen auch Wachstumschancen“, sagt Sascha Haghani, Co-Geschäftsführer in der DACH-Region und globaler Leiter des Competence Center Restructuring und Corporate Finance von Roland Berger. „Allerdings gilt das nur für Unternehmen, die Entwicklungen aktiv mitgestalten. Doch genau das gelingt vielen Unternehmen noch nicht.“

 

Die Gründe: Managementfehler (90%), neue Wettbewerber (ca. 78%) sowie disruptive Technologien (ca. 74%). „Unternehmen müssen schneller auf unvorhergesehene Veränderungen reagieren können, nur so können sie zukunftsfähig bleiben.“

 

Verschiedene Branchen – unterschiedliche Herausforderungen

In ihrer Studie haben die Experten von Roland Berger sechs wichtige Industriebranchen in Deutschland genauer analysiert:

 

Konsumgüter und Handel: Umbruch voll im Gange

Im Handel und Großhandel läuft der Umbruch schon länger, er ist aber bei Weitem noch nicht abgeschlossen. Disruptive digitale Entwicklungen haben vor allem die Geschäftsmodelle klassischer Händler erodiert. Hier heißt es schnell gegenzusteuern, um den Wettlauf um die Kunden nicht zu verlieren. Denn die wollen heute parallel über On- und Offline-Kanäle einkaufen. Bis 2022 werden die E-Commerce-Umsätze weltweit um 65 Prozent wachsen – auf rund 2,6 Billionen Dollar. Investitionen in digitale Technologien sind daher unerlässlich.

 

Automobilindustrie: Im Jahrhundertwandel

Trends wie E-Mobilität, autonomes Fahren oder neue Mobilitätskonzepte wie Car Sharing und Ride Hailing bedrohen zunehmend das traditionelle Geschäftsmodell der Autoindustrie, das bisher auf dem Verkauf von Fahrzeugen beruht. Die Branche muss sich umfassend für eine neue Generation von Mobilitätsnutzern öffnen und passende datengetriebene Geschäftsmodelle entwickeln. Dass hier Investitionen nötig sind, haben auch Venture Capital-Investoren erkannt: Ihre Investitionen in Mobilität stiegen von 2016 auf 2017 um 130 Prozent.

Wo Unternehmen trotz guter Konjunktur mit sektoralen Krisen rechnen müssen

Energiewirtschaft: Sinkende Margen, hohe Verschuldung

Die Energieversorger kämpfen seit Jahren mit sinkenden Gewinnmargen im Erzeugungsgeschäft. Waren es vor zehn Jahren noch über 20 Prozent (EBITDA), sind es heute nur noch 6 Prozent. Dazu kommt eine hohe Verschuldung: Jedes fünfte Unternehmen ist bereits nicht mehr kreditwürdig. Zwar hat die Branche bereits reagiert, doch Trends wie eine zunehmend dezentralisierte Energieerzeugung, die Abkehr von fossilen Brennstoffen oder die Sektorenkopplung erfordern weitere Anpassung. Netzbetreiber sollten neue Geschäftsfelder erschließen, etwa Ladeinfrastrukturen, dezentrale Erzeugungstechniken und Mobilitätsplattformen.

 

Maschinenbau: Trügerische Sicherheit durch gute Lage

Die zahlreichen Hidden Champions des deutschen Maschinenbaus sind relativ gut durch vergangene Krisen gekommen. Auch im aktuell schwierigen politischen und wirtschaftlichen Umfeld behauptet sich die Branche weiter. Doch der Druck steigt: Abnehmer brauchen weniger Kapazitäten, Additive Manufacturing und neue Wettbewerber nehmen Marktanteile weg. Potenzial bieten Service-Angebote und neue Einsatzbereiche für vorhandene Technologien. Dafür braucht es eine gute Datenbasis und entsprechende Ressourcen.

Wo Unternehmen trotz guter Konjunktur mit sektoralen Krisen rechnen müssen

 

Finanzindustrie: Gefangen in dauerhafter Transformation

Die Banken kämpfen mit innovativen FinTechs, anspruchsvolleren Kunden, Margendruck und wachsenden regulatorischen Anforderungen. Die Branche braucht echte Innovation, um ihre Geschäftsmodelle weiterzuentwickeln. Hilfreich sind strategische Kooperationen mit externen Partnern, optimierte Prozesse sowie eine schnellere und flexiblere Organisation.

 

Gesundheitswesen: Revolution rückt näher

Das Internet mit seinem Angebot an hochwertigen medizinischen Informationen verändert die Rolle von Patienten und Ärzten genauso wie datengestützte Diagnosen auf Basis Künstlicher Intelligenz. Herausforderungen wie der demografische Wandel, Fachkräftemangel und der Zwang zu Effizienz kommen dazu. Die Akteure müssen Patientenbedürfnisse besser analysieren, maßgeschneiderte Angebote entwickeln und verstärkt in digitale Geschäftsmodelle investieren.

Weitere Informationen unter:
www.rolandberger.com

Im Test: Plantronics BackBeat 100

Die TREND REPORT-Redaktion hatte Gelegenheit, dass Plantronics BackBeat 100 im Langzeittest auf die Probe zu stellen. Es handelt sich um ein In-Ear-Gerät mit Nackenbügel, der sehr angenehm zu tragen ist. So viel sei jetzt schon einmal verraten. Die Verarbeitung ist ordentlich. Das Gerät gibt es nur in Schwarz und wird effektiv im Umkarton verpackt geliefert. Das Gerät beherrscht einfache Steuerungen über Tasten und leitet natürlich auch Sprachbefehle an den jeweiligen digitalen Assistenten weiter. Je nachdem, mit welchem Gerät es gekoppelt ist, beherrscht das BackBeat 100 den Standard „Headset/Freihandprofil HSP 1.2 und HFP 1.6 (Breitband-HD-Sprachübertragung)“.

Wir haben es als „Lifestyle-Headset“ hauptsächlich draußen (im Bus, beim Spazierengehen mit dem Hund sowie beim Sport) auf die Probe gestellt. Seine Noise-Cancelling-Technologie hat auf jeden Fall gut funktioniert, solange nicht wie beim Sport etwa, die Umgebungsgeräusche laut werden.

Über Restspieldauer, maximale Lautstärke und ähnliches informiert einen eine Computerstimme. Die In-Ear-Kopfhörer werden mit angenehm passenden Ohrstöpseln geliefert. Diese sind in zwei Größen in der Packung – sicher ist der Tragekomfort immer individuell; doch sind beim Tragen die Kopfhörer nie rausgefallen und fielen auch nie unangehm auf – noch musste man viel „justieren“.

Getestet wurde das Gerät an zwei Android-Smartphones, darunter ein älteres Modell um einen größeren Personenkreis zu simulieren. Das BackBeat 100 lässt sich mit zwei Smartphones gleichzeitig koppeln. Die iPhone-Koppelung und die Konnektivität unterscheiden sich nicht von der Android-Variante.

Positionierung: Plantronics positioniert das BackBeat 100 als „komfortables Headset, welches sich angenehm tragen lässt.“ Man kann „mühelos von authentischer Musikwiedergabe zu dezenten Spachansagen und simplen Steuerungen“ wechseln. Mit einem Preis von rund 60 Euro liegt es im Mittelfeld seiner Produktgattung.

Akku: Der Akku ist ein Lithium-Ion-Polymer, wiederaufladbar, nicht austauschbar, ca. 8 Stunden Spielzeit. Die Angaben hinsichtlich der Spielzeit konnte das BackBeat 100 immer wieder erfüllen. Allerdings wäre es wünschenswert, die Entwickler hätten insbesondere bei geringerem Akkustand vielleicht noch eine weitere Ansage einprogrammiert. Das Gerät teilt einem eine Restspielzeit von weniger als zwei Stunden mit – das könnte optimiert werden (z.B. weniger als eine Stunde, eine halbe Stunde oder ähnliches) Die Aufladezeit – Plantronics gibt 90 Minuten für eine volle Ladung an – geht aber vollkommen in Ordnung.

Klang: Wie oben schon angedeutet, ist das BackBeat 100 im Mittelfeld positioniert. Genau da kommt es auch an. Gerade draußen bei ruhigen Aktivitäten geht der Klang vollkommen in Ordnung. Auch auf maximaler Lautstärke kam es zu keinerlei Verzerrungen – der Klang war druckvoll aber nicht unangenehm. Aber die Bässe könnten – persönliche Meinung – tiefer sein. Beim Sport verliert sich der gute Klang etwas und die Umgebungsgeräusche sind etwas zu präsent. Andererseits: so hört man wenigstens noch das Klingeln, wenn ein E-Biker an einem vorbeiziehen will. Hier und da kam es beim älteren Handy beim Sport zu Verbindungsproblemen. Das machte sich dann in Form von kurzen Aussetzern bemerkbar. Da dies mit dem jüngeren Smartphone nicht auftrat, schreiben das mal nicht dem Headset zu.

Verarbeitung: Die Verarbeitung ist vollkommen in Ordnung und wurde so auch schon bei deutlich teureren Geräten beobachtet. Plantronics kann hier sicherlich den großen Erfahrungsschatz aus der Business-Welt mit einfließen lassen. Das Gewicht ist mit knapp 30 Gramm auch nicht zu hoch. Die Kopfhörer fallen eher gar nicht auf. Das Tragen des Bügels im Nacken ist ein großer Fortschritt, da so kein Zug auf den Kopfhörern selbst liegt und diese dadurch auch quasi gar nicht rausfallen.
Beim Sport muss man allerdings hinsichtlich der Noise-Cancellation Abstriche machen – aber auch diese bewegen sich auf dem Niveau des Wettbewerbs. Das Pairing und Einrichten war super einfach – und mit einem modernen Handy ist das Headset quasi direkt nach Einschalten verbunden. Mit einem etwas älteren Android-Gerät dauert dieser Vorgang länger – aber das liegt wohl auch am Handy selbst. Die Reichweite des Headsets gibt Plantronics mit 10 m an. Das kommt hin, da im Garten immernoch die Wiedergabe möglich war.

Fazit: Das BackBeat 100 ist eine gute Wahl zu dem Preis. Es gibt auf jeden Fall Headsets deren Klang in jeder Situation quasi Erhaben ist – allerdings sind diese dann auch direkt mindestens um ein Drittel teurer. Wir können das BackBeat 100 guten Gewissens empfehlen, wenn man ein Solides Headset sucht, was den Sport verträgt und auch mal nass werden können soll. Den genau das wurde es am ersten Testtag gehörig. Für den Preis geht die Leistung vollkommen in Ordnung.

Preis: Aktuell kostet das BackBeat 100 zwischen rund 50 Euro bis knapp 90 Euro je nach Händler. Sollte man es für den Preis von ca. 60 Euro erwischen, lohnt sich die Investition.

 

Schöne neue Welt?

Software-as-a-Service ist so etwas wie eine schöne neue Welt, die bei genauerem Hinschauen, doch nicht ganz so einfach und schön ist – vor allem nicht in Hinblick auf die EU Datenschutz Grundverordnung. Für Anwender ist es zweifellos eine neue Erfahrung, Anwendungen aus dem Browser heraus oder mit Native Apps auf ihren Arbeitsplätzen und -geräten zu nutzen. Aus Anwendersicht bietet die Cloud Software ohne IT-Ballast. Die Implementierung dieser Software geht einfach und schnell ohne IT-Unterstützung. Daher führen Fachabteilungen SaaS-Software nicht selten autark ein, ohne sie entsprechender fachgerechter Kontrolle zu unterstellen.

Steigende Kosten

Das bedeutet aus IT-Sicht, dass die Schatten-IT-Quote signifikant zunehmen kann. Und das ist auch gleichzeitig die Kehrseite der Medaille. Gartner-Analysten fassen die Entwicklung so zusammen: „Bis 2019 werden die Kosten für Subskriptionen, bedingt durch die Cloud und die digitale Wirtschaft, die Ausgaben für klassische Lizenzen und die Wartung übersteigen.“[1] Das Software Asset Management, also die Kontrolle der Ausgaben und die korrekte Lizenzierung von Software, sieht sich konfrontiert mit der Aufgabenstellung, dies auch für die Cloud zu gewährleisten.

Neue Werkzeuge

Das bedeutet, dass für diese Aufgaben neue Werkzeuge eingesetzt werden müssen. Denn die Tools, die heute für ein effektives Vermessen herangezogen werden, werden zunehmend stumpf. Gartner sagt dazu: „Bis 2019 werden die heute genutzten Tools zur technischen Vermessung für SAM zu 90 % nutzlos sein.“ Die Cloud erfordert andere Mechanismen, um etwa festzustellen, welcher Mitarbeiter eine Subskription tatsächlich nutzt und welcher nicht. Auch muss die IT Prozesse bereitstellen, die sicherstellen, dass ihre User Anwendungen sauber nutzen können bzw. die genauso sicherstellen, dass beim Verlassen des Unternehmens, diese Anwendungen nicht mehr für den entsprechenden User bereitstehen.

All diese Problemstellungen betreffen nicht nur das Software Asset Management, sondern in weiterer Folge auch das Service Management. Die Analysten von Gartner[2] sind zu diesem Schluss gekommen: „Bereits 2017 war die Nutzung von SaaS in 75 % aller Unternehmen dominiert von fehlender Kontrolle und Steuerung.“ Es fehlt an Standards, denn die Bereitstellung der Anwendungen liegt in vielen Unternehmen immer noch überwiegend bei den Fachabteilungen. Datenschutzfragen sind nicht ausreichend beantwortet. In der Konsequenz sehen sich Unternehmen zunehmend konfrontiert mit:

  • Fragestellungen des Kostenmanagements
  • Notwendigkeit der Prozessabbildung
  • Aufgabe der technischen Bereitstellung und Rücknahme von Services
  • Sicherstellung der Einhaltung der Datenschutzrichtlinien

Kritischer Datenschutz

Die Umsetzung der DSGVO muss am 25. Mai 2018 abgeschlossen sein. Immer noch sind viele Unternehmen noch nicht so weit. Sie müssen sich auf die folgenden Fragen konzentrieren und vor allem auch dokumentieren:

  • Welche Software aus der Cloud ist im Unternehmen im Einsatz?
  • Wo werden die Daten physisch gespeichert?
  • Welche Prozesse und Verfahren verwenden diese Cloud-Anwendungen?
  • Werden personenbezogene Daten in der Cloud gespeichert?
  • Wenn ja, aus welchem Grund?
  • Wer hat welche Zugriffsrechte?

Die wenigsten Unternehmen werden das ohne externen Partner, der einen Blick von außen auf die Situation wirft, zufriedenstellend bewältigen. Hier ist es unumgänglich mit dem obligatorischen Datenschutzbeauftragten zusammen zu arbeiten.

Dazu kommt: In Hinblick auf die Cloud erhält die Speicherung von personenbezogenen Daten eine ganz neue Bedeutung. Unternehmen, die die Zugänge zu diesen Daten nicht unter Kontrolle haben, gehen hohe Risiken ein. Alle betroffenen Prozesse müssen identifiziert und dann in Hinblick auf die DSGVO qualifiziert werden. Das betrifft nicht nur die Speicherung, sondern auch das Löschen oder Ändern von Daten. Datenzugriffe müssen kontrolliert werden, die Nachvollziehbarkeit von Manipulationen muss gewährleistet sein. Denn auch das unberechtigte Ändern oder Löschen von personenbezogenen Daten kann einen Verstoß gegen die Verordnung darstellen. Es gilt, einerseits Dokumentations-, Archiv- und Aufbewahrungspflichten sowie -fristen zu beachten, andererseits die Art der Daten: wirtschaftliche Daten, Fiskaldaten und personenbezogene Daten.

SaaS – neue Herausforderungen aus allen Richtungen

Die Cloud birgt eine enorme Vielfalt an Anwendungen, reine Cloud-Anwendungen genauso wie hybride Lösungen. Die Komplexität nimmt zu und bringt unterschiedliche Herausforderungen mit sich.

Herausforderungen für die Endanwender

Mancher Arbeitnehmer ist mit diesen Themen überfordert. Vor allem weniger IT-affine Mitarbeiter haben Schwierigkeiten, die zunehmende Anzahl an Internetadressen und Login-Daten sicher zu verwalten und im Arbeitsalltag schnell nutzen zu können. Damit erhöht sich der Druck auf die IT, einen einfachen Einstieg für möglichst alle Anwendungen anzubieten und sich um die Informationssicherheit und den Datenschutz zu kümmern. Auch die Kosten muss die IT im Auge behalten und natürlich auch dafür sorgen, dass keine Lizenzverletzungen passieren, indem personenbezogene Zugänge von ganzen Abteilungen verwendet werden.

  • Endanwender haben (zu) viele Passwörter
  • Jede Applikation bedeutet eine neue URL
  • Applikation und Daten sind verstreut

Herausforderungen für die IT

Aus IT-Sicht ist es von enormer Bedeutung, Prozesse bereitzustellen, die so attraktiv sind, dass die Fachabteilungen einen Mehrwert erhalten, wenn sie diese Anwendungen in die Obhut der IT geben. Hier gilt es, entsprechende Standards zu etablieren. Dabei muss natürlich die bestehende IT-Landschaft berücksichtigt werden. Die IT muss dafür Sorge tragen, dass eine zentrale Steuerung auf Applikationen und Ressourcen vorhanden ist. Das ist z. B. beim On- und Offboarding von Mitarbeitern sehr wichtig. Im Idealfall ist dies ein automatisierter Prozess. Auch die Gefahr der Überlizenzierung muss die IT vermeiden, indem sie Prozesse schafft, mit denen Lizenzen bedarfsgerecht vergeben werden können.

  • Prozessstandards für Cloud-Anwendungen etablieren und Schatten-IT vermeiden
  • Daten und Prozesse in die bestehende Infrastruktur integrieren
  • Den Vorgang ausscheidender Mitarbeiter verlässlich automatisieren
  • Rollenbasierte Zugriffe auf Applikationen sicherstellen
  • Latente Gefahr der Überlizenzierung adressieren

Herausforderungen für das Unternehmen

Dementsprechend muss bei der Einführung einer Software – auch bei Software aus der Cloud – überlegt werden, wo was in welcher Ausprägung gespeichert wird und wie Daten gelöscht werden können. Modernes Cloud Software Asset Management unterstützt dabei, diese Fragen zu beantworten und zu helfen, dass DSGVO-konform gearbeitet wird.

  • Governance & Compliance sicherstellen
  • EU DSGVO Konformität gewährleisten
  • Risiko- und Kostenmanagement etablieren

Weitere Informationen unter:
www.matrix42.com


[1] Software Asset Management Is Now a C-Level Imperative
Gartner Research, 03.03.2016, Dokument: G00298384

[2] Augment Your Discovery Tools for Cloud Software Asset Management Right Now
Gartner Research 09.02.2016, Dokument: G00292131

Eine kleine Geschichte der Standardsoftware Teil II

Zweiter Teil: Customer Relations Management

Die IT-Branche liebt Akronyme. Nirgendwo sonst sind – insbesondere dreistellige – Abkürzungen so verbreitet wie in der Technologie: ERP, CRM, HCM, etc. Abkürzungen bleiben besser im Gedächtnis und erleichtern die Kommunikation im Arbeitsalltag. Für die Software selbst, ist die Geläufigkeit des Akronyms ein Erfolgsmesser. Diese Beitragsserie beschäftigt sich mit einigen der bekanntesten Standardanwendungen und diskutiert die Evolution einer neuen Kategorie, dem Business Spend Management, kurz BMS.

Während ERP-Systeme (Eine kleine Geschichte der Standardsoftware Teil 1) entstanden, um die Betriebseffizienz und Produktivität zu erhöhen, vollzog sich in Bezug auf kundenorientierte Systeme eine eigene Entwicklung.

Entstehungsgeschichte von CRM-Software

Jahrzehnte bevor es eine CRM-Branche gab, hielten Vertriebsmitarbeiter ihre Kundeninformationen auf Papierkarten in sogenannten Rolodexes fest. Als sich die Technologie in den 80er-Jahren verbesserte, wurden die Geräte von den Schreibtischen verbannt und Contact Management Software kam auf den Markt. Ziel war es, die Kundenkommunikation so zielgerichtet wie möglich zu gestalten.

In den frühen 90er-Jahren hat die Automatisierung des Vertriebs (SFA = Sales Force Automation) die heranwachsende Informationstechnologie auf viele Funktionen des Datenbankmarketings angewandt und sie mit Contact Management kombiniert. So wurden Pre-Sales-Aktivitäten wie Telemarketing, Lead-Generierung, Angebotserstellung und Bestellungen miteinander verbunden.

Etwa zur gleichen Zeit wurde eine CSS-Software (Customer Service and Support) entwickelt, um Post-Sales-Aktivitäten abzuwickeln. Aber die in dieser Datenbank gespeicherten Informationen waren mit keinem anderen System verknüpft.

In den 90er-Jahren erhielt die Entwicklung einen neuen Aufschwung, genauer gesagt im Jahr 1993 als Tom Siebel und Patricia House Oracle verließen. Nachdem sie es versäumt hatten, CEO Larry Ellison davon zu überzeugen, ihre Vertriebsanwendung als eigenständiges Produkt zu verkaufen, gründeten sie Siebel Systems.

Erfolgsgeschichte

Innerhalb weniger Jahre hatten Siebel und einige andere Hersteller ein Produkt entwickelt, das gemeinhin als Enterprise Customer Management (ECM) oder Customer Information Systems (CIS) bezeichnet wurde. Später erwarb Siebel das Technologieunternehmen Scopus, das alle wichtigen Kundenkontaktpunkte zusammenführte, um den gesamten Lebenszyklus der Kundenbeziehung zu managen, und nannte es CRM. Damit wurde das neue Leistungsversprechen für einen einheitlichen Prozess und eine einzige Quelle für Kundendaten erfüllt.

Die CRM-Technologie von Siebel war damals vielleicht die beste ihrer Klasse, die in einem Client/Server-Modell vor Ort geliefert wurde. Doch Siebel sah sich der starken Konkurrenz von SAP und Oracle ausgesetzt. 2006 wurde das Unternehmen von Oracle übernommen.

Währenddessen entwickelte Salesforce.com Cloud-basierte Software-as-a-Service, die speziell für die Bedürfnisse kleiner und mittlerer Unternehmen ausgerichtet war, die sich keine teure Software leisten konnten. Damit dominierte Salesforce den CRM-Markt.

Siebel war ein wichtiges Unternehmen für die Entwicklung von CRM-Software. Zuvor gab es keine ganzheitliche Lösung, um den gesamten Zyklus einer Kundenbeziehung abzubilden, aufzubauen und zu verwalten. Siebel hat Customer Relationship Management so definiert, wie wir es heute verstehen, und gezeigt, dass Speziallösungen dies besser handhaben können als ERP-Add-Ons.

Der dritte Teil von „Eine kleine Geschichte der Standardsoftware“ widmet sich der Entstehung des Human Capital Managements.

 

Teil I: „Eine kleine Geschichte der Standardsoftware“

Weiterführende Informationen finden Sie unter:
Coupa

Unser Autor:

Robert Bernshteyn ist CEO von Coupa Software. Coupa wurde speziell für die Cloud entwickelt und ist die einzige Plattform für Business Spend Management, die Unternehmensabläufe genauso zusammenführt, wie die Mitarbeiter das Geld ausgeben. Unter dem Motto „Value as a Service“ unterstützt Coupa seine Kunden dabei, das Ausgaben-Management zu optimieren, signifikante Kosteneinsparungen zu erzielen und auf diese Weise die Profitabilität des Unternehmens zu verbessern. Coupas Cloud-basierte Spend-Management-Plattform verbindet hunderte von Organisationen mit Millionen von Lieferanten weltweit. Mit der Lösung von Coupa gewinnen die Unternehmen eine bessere Übersicht und Kontrolle über die Ausgaben des Unternehmens und deren Struktur.

Flexible und anpassungsfähige Systemlösung als Schlüssel für den E-Commerce-Erfolg

ERP für kundenorientierte Unternehmen bringt Online-Handel in Schwung

Egal, ob im Direktvertrieb oder über Zwischenhändler, Fast Moving Consumer Goods oder Luxuswaren mit langem Lebenszyklus: Schnelligkeit und die optimale Zielgruppenansprache entscheiden im Online-Handel darüber, welcher Anbieter im Wettbewerb das Rennen macht. Die Mainzer ERP-Experten von godesys haben drei Tipps zusammengestellt, auf die Unternehmen bei der Kundenfokussierung auf allen Verkaufskanälen achten sollten.

  1. Auf ein zentrales Warenwirtschaftssystem setzen
    So manches Unternehmen nutzt nach wie vor viele verschiedene Insellösungen für die Bereiche Warenwirtschaft, Statistik, Verwaltung von Produktdaten und Finanzbuchhaltung. Oft ist der Onlineshop nur rudimentär mit dem Warenwirtschaftssystem gekoppelt. Die Folge: Mit der vorhandenen Software lassen sich komplexe Geschäftsanforderungen mit zahlreichen Warenströmen nicht länger abbilden. Für erfolgreiches Wachstum im Multi-Channel-Vertrieb wird eine integrierte Warenwirtschaftslösung benötigt, die alle wesentlichen Anwendungsgebiete abdeckt und sich individuell erweitern lässt.
  2. Mit integrierten Schnittstellen den Multi-Channel-Vertrieb stärken
    Von wachsender Bedeutung für viele Anbieter im E-Commerce ist der Big Player Amazon. In der nahtlosen Anbindung der Auftragsbearbeitung an Amazon liegt die Ausgangsbasis für effizienten Multi-Channel-Vertrieb. Vor diesem Hintergrund erweist es sich als enormer Vorteil, die unterschiedlichen Kanäle von Anwendern inklusive nahtloser API-Integration in einem einheitlichen System abzubilden. Wer als klassischer „Seller“ auf dem Amazon-Marktplatz auftritt und zugleich über das „Vendor“-Programm seine Ware beim Online-Riesen einlagert und auch darüber versenden lässt, muss beide Kooperationsbereiche auf unterschiedliche Weise prozess- und datentechnisch integrieren.

    Seamless Commerce: Der Nutzer steht im Mittelpunkt. Quelle: godesys

    Seamless Commerce: Der Nutzer steht im Mittelpunkt. Quelle: godesys

  3. Daten- und Warenströme mobil und in Echtzeit steuern
    Mobile Anwendbarkeit und integriertes Omnichannel-Management zählen immer öfter zu den Anforderungen an moderne Business-Software. Gerade mit Blick auf den Online-Handel profitieren Anwender von der neu geschaffenen Möglichkeit, Angebote als Webseite anzulegen. Interessante Angebote lassen sich bequem per Link aufrufen, was dem Anbieter wiederum eine Basis für aussagekräftige Auswertungen des Kundenverhaltens an die Hand gibt. Viele Unternehmen realisieren Abschlüsse und Umsätze nicht allein stationär, sondern im Außendiensteinsatz bei Kunden und Partnern. Hilfreich ist hierbei, wenn Anwender Kontakte, Termine und Aufträge effizient unterwegs via Smartphone managen und so in Geschäftserfolge verwandeln können.

Weitere Informationen über flexiblen ERP-Lösungen zur Unterstützung der E-Commerce-Strategie finden sich unter http://www.godesys.de

Bildquelle / Aufmacher: Godesys; verwendet mit freundlicher Genehmigung

Digitalisierungsneugier statt Angst

Aktuelle Studie von Another Monday offenbart aber auch Nachholbedarf hinsichtlich Prozessautomatisierung und neuer Technologien

Köln, 03. Mai 2018 – Neugier statt Angst, Aufbruchstimmung, aber auch Wissenslücken: So lässt sich das Ergebnis einer aktuellen Umfrage zusammenfassen, die die Robotic Process Automation (RPA)-Experten von Another Monday jetzt vorstellen. Der Anbieter intelligenter Prozessautomatisierungslösungen hatte die Markt- und Meinungsforscher von YouGov beauftragt, die Einstellung von Mitarbeitern in deutschen Büros gegenüber Digitalisierung und Automatisierung zu erheben.[1] Ein zentrales Ergebnis: Knapp 80 Prozent der Mitarbeiter von deutschen Großunternehmen rechnen damit, dass digitale Technologien ihre Arbeit in den nächsten fünf Jahren übernehmen werden. Überraschend hierbei: Die meisten sehen dieser Entwicklung keinesfalls besorgt entgegen. 72 Prozent der Befragten sind neugierig auf die Veränderungen, die der digitale Wandel an ihrem Arbeitsplatz mit sich bringt und sehen sie als Chance für ihre berufliche Weiterentwicklung.

Doch so positiv sich die Digitalisierungseinstellung im Allgemeinen auch darstellt. Die Studie offenbart gleichzeitig große Lücken bei zentralen Digitalisierungsthemen wie Prozessautomatisierung mittels Software-Roboter. Zudem fühlt sich jeder dritte deutsche Arbeitnehmer in Sachen digitaler Wandel schlecht vom eigenen Unternehmen informiert. 65 Prozent der Befragten haben beispielsweise angegeben, dass in ihrem Unternehmen noch nicht darüber gesprochen werde, inwieweit sich ihre beruflichen Tätigkeiten im Zuge der Digitalisierung künftig verändern werden. Damit der digitale Wandel gelingen kann, ist es jedoch essentiell, Mitarbeiter für neue Herausforderungen, aber auch Chancen zu sensibilisieren. Erfolgreiche Digitalisierungsprojekte basieren auf Kommunikation und einer engen Zusammenarbeit mit allen Mitarbeitern. Sind nur Geschäftsführung und IT involviert, ist die Einführung neuer Technologien und Strategien oft zum Scheitern verurteilt.

Ein essentielles und zukunftsweisendes Digitalisierungsthema ist aktuell Robotic Process Automation (RPA). Hans Martens, Gründer von Another Monday, kommentiert in diesem Zusammenhang: „Die vollautomatische Bearbeitung von wiederkehrenden und regelbasierten Geschäftsprozessen durch Software-Roboter entlastet Mitarbeiter von monotonen und ermüdenden Bürotätigkeiten, die mit Tastatur und Maus ausgeführt werden.  Ein positiver Effekt, denn der Mitarbeiter kann sich auf wertschöpfendere Tätigkeiten konzentrieren wie Kreation, Problemlösung oder den direkten Austausch mit Kunden. Zudem ist diese Automatisierungstechnologie für Geschäftsprozesse schnell umsetzbar, leicht implementierbar, planungssicher und minimal invasiv.“

Hans Martens: „Robotic Process Automation ist als Automatisierungstechnologie für Geschäftsprozesse schnell umsetzbar, leicht implementierbar, planungssicher und minimal invasiv.“

Die Herausforderung: Laut Umfrage kennen zwar rund die Hälfte der Befragten das Thema RPA und seine Vorteile. Allerdings haben erst zwölf Prozent der Unternehmen bereits Geschäftsprozesse durch Software-Roboter umgesetzt, und nur 16 Prozent der Befragten gehen davon aus, dass ein derartiger Schritt geplant ist. Hans Martens kommentiert: „Auf diesem Gebiet gibt es noch viel Nachholbedarf, denn Software-Roboter erweisen sich im Büro als wichtige virtuelle Assistenten, die Mitarbeitern ermüdende und sich ständig wiederholende Aufgaben abnehmen. Das ist noch zu wenigen Unternehmen bekannt und bewusst. Unsere Studie zeigt, dass die meisten Mitarbeiter dem digitalen Wandel durchaus positiv gegenüberstehen. Andererseits werden zu wenige Automatisierungsprojekte geplant und viele Mitarbeiter fühlen sich nicht ausreichend vonseiten der Firmenleitung informiert. Das ist in meinen Augen verschenktes Potenzial, denn durch RPA lassen sich, sofern durchdacht und methodisch richtig umgesetzt, beispielsweise unmittelbare Effizienzsteigerungen und Kostenersparnisse in einer Größenordnung zwischen 50 und 75 Prozent umsetzen. Zugleich werden Mitarbeiter entlastet. Eine klare Win-Win Situation.“

Der fortschreitende digitale Wandel verlangt von Firmen und Organisationen, die dem Wettbewerb voraus sein wollen, ein neues Denken und eine gezielte Analyse der Geschäftsprozesse. RPA und Machine Learning sind Technologien, die Mitarbeiter gezielt unterstützen und viele Prozesse effizienter machen. Martens resümiert: „Dass die meisten Mitarbeiter den digitalen Wandel als gute Entwicklung sehen, ist ein erster, wichtiger Schritt. Nun müssen fundierte und ganzheitliche Digitalisierungs- und Automatisierungsstrategien seitens der Business-Entscheider folgen.“

Weitere Informationen unter www.anothermonday.com

 

[1] An der Another Monday-Umfrage „Digitalisierung am Arbeitsplatz“, die YouGov Mitte April 2018 durchgeführt hat, haben sich 518 Mitarbeiterinnen und Mitarbeiter großer deutscher Unternehmen mit 1.000 und mehr Angestellten beteiligt.

 

Quo vadis, Fachkräftemangel?

Die Rufe nach mehr Digitalisierung in der Unternehmenslandschaft sind unüberhörbar: Ohne den Einsatz smarter Technologien riskieren Betriebe, langfristig den Anschluss an ihre Mitbewerber zu verlieren. Von der Entwicklung besonders betroffen ist das Herz der deutschen Wirtschaft – der Mittelstand. In zugehörigen Betrieben kranken Digitalisierungsvorhaben vor allem an zu wenig Fachpersonal und damit einhergehend am nicht vorhandenen Know-how. Jedem fünften Mittelständler fehlen die Mitarbeiter, um mehr oder überhaupt in die Digitalisierung zu investieren.1 „Diese Mammutaufgabe lässt sich schwerlich alleine stemmen – der deutsche Arbeitsmarkt ist nicht in der Lage, die Menge an Fachkräften zu liefern, die nötig wären, um Digitalisierungsprozesse effektiv anzustoßen“, erläutert Hans-Christian Bartholatus, Geschäftsführer der Employland GmbH. Schon jetzt klafft im MINT-Bereich ein Loch von fast 300.000 Fachkräften und ein Ende ist nicht in Sicht.2 Zeitgleich wächst die Zahl der Unternehmen, die Fachpersonal zur Umsetzung digitaler Prozesse benötigen, weiter.3 „An hoch qualifizierten Fachkräften aus dem Ausland führt kein Weg mehr vorbei, wenn die deutsche Wirtschaft langfristig stabil bleiben will“, mahnt Bartholatus.

Digitale Zweiklassengesellschaft spaltet den Mittelstand

Hans-Christian Bartolatus betreibt die Internetplattform employland.de mit der Arbeitgeber international nach Fachkräften suchen können.

Bereits vor einigen Jahren stellte die Studie „The Digital Advantage“ fest, dass digitalisierte Betriebe etwa neun Prozent mehr Umsatz erzielen und so ihren Wert um zwölf Prozent steigern können.4 Eine Investition in den digitalen Ausbau zahlt sich demnach in jedem Fall aus. Wenn Unternehmen hier nicht nachziehen, verfestigt sich die digitale Zweiklassengesellschaft immer mehr: Auf der einen Seite nutzen erfolgreiche Betriebe bereits jetzt die Chancen der Digitalisierung und richten etwa Lieferanten- und Kundenbeziehungen konsequent an neuen Technologien aus. So sind sie in der Lage, ihre Marktposition auszubauen. Auf der anderen Seite zögern viele Unternehmen die notwendigen Investitionen heraus. Fatal, denn eine ausbleibende Digitalisierung kann sich schnell rächen: Der Anschluss an den Wettbewerb geht verloren oder neue digitale Konkurrenten gefährden etablierte Geschäftszweige. Das Bewusstsein für die schwierige Lage ist bereits in den Köpfen angekommen: 74 Prozent der Mittelständler empfinden die Digitalisierung als Chance.5 Doch warum bleibt diese häufig ungenutzt? Was hemmt die
Entwicklung?

Mitarbeiter als Schlüssel

Fehlendes Personal und mangelndes Know-how – das sind die entscheidenden Faktoren, die Digitalisierungsprojekte stocken oder gar nicht erst entstehen lassen. Dabei stellt der Fachkräftemangel das größte Hindernis für die Digitalisierung von Unternehmen dar. Über 20 Prozent der mittelständischen Betriebe können aufgrund einer zu geringen Personaldecke angestrebte Investitionen in die Digitalisierung nicht durchführen.6 „Am Kapital mangelt es dabei nicht, das Hauptproblem sind schlichtweg fehlende Fachkräfte. Ein klares Alarmsignal“, betont Bartholatus. „Denn durch den Engpass geht bereits jetzt jährlich ein zweistelliger Milliardenbetrag verloren. Gut ausgebildete Arbeitskräfte sind schwer zu finden, weil der deutsche Arbeitsmarkt leer gefegt ist. Unternehmen sollten daher auf internationale Fachkräfte setzen, um langfristig planen zu können. Onlineplattformen wie
employland.de können etwa bei der Suche behilflich sein, damit zusammenkommt, was zusammengehört: qualifizierte Arbeitnehmer und erfolgreiche Unternehmer.“ Vor allem im naturwissenschaftlichen sowie technischen Bereich und im Speziellen in der IT fehlt es an Fachpersonal. Das führt im Umkehrschluss zu einer ausgebremsten Digitalisierung in den Unternehmen. Eine moderne und strategische Personalpolitik entwickelt sich somit immer mehr zum Schlüssel für die erfolgreiche Umsetzung von Digitalisierungsmaßnahmen. Und viel mehr noch: Ausländische Fachkräfte sind nicht nur in der Lage, die Lücke zu füllen; die
kulturelle Diversität kann ein Unternehmensumfeld erzeugen, das durch die unterschiedlichen Perspektiven Innovationen fördert. Ein Wettbewerbsvorteil, der sich neben digitalisierten Prozessen auszahlt.

Weitere Informationen unter:
www.employland.de

1 Befragung Ernst & Young GmbH März 2018:Digitalisierung im deutschen Mittelstand.
2 IWD: MINT-Herbstreport 2017.
3 Befragung Ernst & Young GmbH März 2018:Digitalisierung im deutschen Mittelstand.
4 Capgemini Consulting: The Digital Advantage 2012.
5 Befragung Ernst & Young GmbH März 2018: Digitalisierung im deutschen Mittelstand.
6 ebd.

Eine kleine Geschichte der Standardsoftware

Erster Teil: Enterprise Resource Planning

 

Die IT-Branche liebt Akronyme. Nirgendwo sonst sind – insbesondere dreistellige – Abkürzungen so verbreitet wie in der Technologie: ERP, CRM, HCM, etc. Abkürzungen bleiben besser im Gedächtnis und erleichtern die Kommunikation im Arbeitsalltag. Für die Software selbst, ist die Geläufigkeit des Akronyms ein Erfolgsmesser. Diese Beitragsserie beschäftigt sich mit einigen der bekanntesten Standardanwendungen und diskutiert die Evolution einer neuen Kategorie, dem Business Spend Management, kurz BMS.

Abkürzungen wie ERP (Enterprise Resource Planing), CRM (Customer Relations Management) und HCM (Human Capital Management) haben sich als feste Begriffe auf dem Markt etabliert, weil sie genau auf die Bedürfnisse des Marktes eingehen. Sie stellen Lösungen dar, die Unternehmen einen echten Mehrwert bieten.

Als Kategorien sind sie deshalb so wichtig, weil sie Organisationen dazu ermutigen, ganzheitlicher über ihre Prozesse nachzudenken. Ursprünglich sind alle Anwendungen aus einem Problem heraus entstanden.

Da diese maßgeschneiderten Lösungen auf dem Markt so erfolgreich waren, wurden sie sukzessive erweitert und miteinander kombiniert, um angrenzende Prozesse in Angriff zu nehmen. Schließlich entstanden interoperable Systeme, die einen dauerhaften Mehrwert schaffen, indem sie die Prozesseffizienz steigern.

ERP: Mutter aller Technologielösungen

ERP ist dabei sozusagen die Mutter aller Technologielösungen für Unternehmen. Sie hat ihre Wurzeln in den Warenwirtschaftssystemen der 1960er-Jahre, die sich in die Materialbedarfsplanung (MRP) der 1970er-Jahre weiterentwickelte. Sie half den produzierenden Unternehmen dabei, ihren Bestand in die Produktionsplanung zu integrieren. In den 80er-Jahren entwickelte sie sich zu MRP-II-Systemen, die zusätzliche, für den Fertigungsprozess relevante Daten wie Mitarbeiter- und Finanzbedarf, integrierten.

Gartner prägte den Begriff ERP in den frühen 90er-Jahren, als Anbieter wie SAP, Oracle und JD Edwards MRP II um Module zur Anbindung weiterer Geschäftsprozesse wie Kernfinanzen, Personalwesen und CRM erweiterten. Diese wurden alle in eine zentrale Datenbank integriert.

In den 90er- und frühen 2000er-Jahren haben die ERP-Anbieter in dem Bestreben, die gesamte Topologie der Geschäftssysteme innerhalb der Kundenorganisation zu beanspruchen, weitere Module hinzugefügt und „Mega-Suiten“ geschaffen, die praktisch jeden bekannten Geschäftsprozess verbinden konnten. SAP ERP hatte bereits in den 90ern mit SAP R/3 alle wichtigen Module für den Geschäftsbetrieb – von der Finanzbuchhaltung über das Controlling bis hin zum Vertrieb. Die Software war sehr kompliziert, aber einmal installiert, unterstützte sie Unternehmen über lange Zeit hinweg.

Postmodernes ERP

Im Jahr 2013 prägte Gartner den Begriff „Postmodernes ERP“ und ging davon aus, dass ERP-Systeme auf absehbare Zeit das technologische Rückgrat für die meisten Unternehmen blieben werden. Cloud-basierte, sehr leistungsfähige Speziallösungen würden hingegen in vielen Bereichen den großen ERP-Suiten mehr Flexibilität und einen gesteigerten Mehrwert für Unternehmen bringen. Das Adjektiv „postmodern“ ist eine stillschweigende Bestätigung dafür, dass das Versprechen der ERP-Mega-Suite für alle Geschäftsprozesse weder strategisch wünschenswert, wenn nicht sogar unhaltbar geworden ist.

 

Im zweiten Teil von „Eine kleine Geschichte der Standardsoftware“ geht es um den Siegeszug von Standardsoftware für Customer Relationship Management.

 

 

Weiterführende Informationen finden Sie unter:
Coupa

Unser Autor:

Robert Bernshteyn ist CEO von Coupa Software. Coupa wurde speziell für die Cloud entwickelt und ist die einzige Plattform für Business Spend Management, die Unternehmensabläufe genauso zusammenführt, wie die Mitarbeiter das Geld ausgeben. Unter dem Motto „Value as a Service“ unterstützt Coupa seine Kunden dabei, das Ausgaben-Management zu optimieren, signifikante Kosteneinsparungen zu erzielen und auf diese Weise die Profitabilität des Unternehmens zu verbessern. Coupas Cloud-basierte Spend-Management-Plattform verbindet hunderte von Organisationen mit Millionen von Lieferanten weltweit. Mit der Lösung von Coupa gewinnen die Unternehmen eine bessere Übersicht und Kontrolle über die Ausgaben des Unternehmens und deren Struktur.

 

Aufmacherbild / Lizenz / Quelle
Pixabay / CC0 Creative Commons

Unstrukturierte Daten für bessere Customer Insights

Gastbeitrag

Unstrukturierte Daten liefern entscheidende Infos über Kunden

Autor: Dr. Dorian Selz, CEO und Mitgründer von Squirro

Bei Finanzdienstleistungen haben Kunden mehr Auswahl als je zuvor. Etablierte Anbieter sollten mit künstlicher Intelligenz und maschinellem Lernen ihre Services verbessern, wenn sie im Wettbewerb gegen agile Start-ups bestehen wollen.

Um ihre Kunden besser beraten zu können, haben viele Finanzdienstleister CRM-Lösungen eingeführt, um deren Daten zu verwalten. Die meisten dieser Systeme arbeiten allerdings nur mit strukturierten Daten – und das ist ein Problem, denn deutlich mehr als 80 Prozent aller anfallenden Daten sind unstrukturiert. Damit nutzen Finanzdienstleister nur einen Bruchteil der relevanten Informationen, um ihre Kunden zu verstehen. Riesige Mengen an Kundeninformationen bleiben ungenutzt.

Bei der Analyse und Auswertung unstrukturierter Daten und deren Nutzung für verbesserte Kundenbeziehungen spielen künstliche Intelligenz (KI) und maschinelles Lernen (ML) eine entscheidende Rolle. Die riesigen Datenmengen von Finanzdienstleistern liegen in Dokumenten und Formaten vor, die für die meisten CRM-Systeme nicht zugänglich sind. Genau diese – internen und auch externen – Daten aber sind am wertvollsten und ermöglichen eine 360-Grad-Sicht auf einen Kunden, seine Bedürfnisse und Anforderungen.

Zu den externen unstrukturierten Daten zählen etwa Social-Media-Inhalte von Twitter, Facebook, LinkedIn und Instagram. Dazu kommen interne Daten aus dem E-Mail-Verkehr mit dem Finanzdienstleister oder Aufzeichnungen aus dem Call-Center, die Probleme oder Wünsche dokumentieren. Durch den Einsatz von KI und ML können Unternehmen all diese Daten auswerten.

Damit steigt der Wert dieser Daten. Die damit gewonnenen Einsichten lassen sich auf vielfältige Art nutzen:

 

Den Kundenwert steigern und neue Möglichkeiten erschließen. Den Kunden zu kennen und zu verstehen bedeutet, immer wieder neue Geschäftschancen identifizieren zu können. Finanzdienstleister können nach neuen Daten über Wettbewerber, Partner und Märkte suchen, was ihr Wissen und Verständnis für jeden Kunden vertieft und Cross- oder Up-Selling-Möglichkeiten eröffnet.
Kundenbedürfnisse antizipieren. Das Kundenverständnis lässt sich auch dazu nutzen, um Trends und Anomalien rund um einen einzelnen Kunden oder eine Gruppe von Kunden zu identifizieren und diese zu thematisieren, bevor sie zu einem Problem werden.
Eine Kunden-zentrierte Sicht einnehmen. Die 360-Grad-Sicht auf einen Kunden über alle Kanäle hinweg ist die Basis dafür, dass Top-Kunden nicht übersehen werden und ermöglicht die gezielte Ansprache von Kunden zum genau richtigen Zeitpunkt.
Zeitersparnis bei der Kundenverwaltung. Da alle verfügbaren Daten zu einem Kunden einfach zugänglich sind, sparen Mitarbeiter viel Zeit bei der Suche nach Informationen.

 

Dr. Dorian Selz kommentiert für TREND REPORT in monatlichen Beiträgen die aktuellen Entwicklungen rund um „künstliche Intelligenz“.

Dr. Dorian Selz kommentiert für TREND REPORT in monatlichen Beiträgen die aktuellen Entwicklungen rund um „künstliche Intelligenz“.

Der Verzicht auf die Nutzung unstrukturierter Daten bei der Kundenbetreuung und dem Kundenbeziehungsmanagement kann sich für Finanzdienstleister zu einem erheblichen Nachteil entwickeln. Es fehlen riesige Mengen potenzieller Kundeninformationen, und das wirkt sich negativ auf den Kundenservice aus.

Warum sollten Kunden, die besser informiert sind als je zuvor, am Ende bei einem Finanzdienstleister bleiben, der ihre individuellen und spezifischen Bedürfnisse nicht versteht? Sie können ohne großen Aufwand zu einem der vielen agilen FinTechs wechseln.

Nur durch die Verfügbarkeit aller relevanten internen und externen Informationen sind Finanzdienstleister in der Lage, die Kundenbeziehungen zu verbessern und die Kundenbindung zu stärken. Künstliche Intelligenz und maschinelles Lernen liefern die dazu benötigen Werkzeuge.

 

 

 

Weiterführende Informationen und Beiträge:
Squirro Blog

 

Autor:
Dr. Dorian Selz, CEO und Co-founder Squirro

 

 

Aufmacherbild / Quelle / Lizenz

Pixabay / CC0 Creative Commons

Mitten im Internet-Monopoly

Gastbeitrag

Mitten im Internet-Monopoly – Was wir gegen die Macht von Google und Facebook tun können

 

Vor 20 Jahren revolutionierte das Internet mit offenen Protokollen unsere Kommunikation und unseren Zugang zu Wissen. Heute dominieren die sogenannten GAFAM-Unternehmen immer größere Bereiche des Internets: Die Rede ist von Google, Apple, Facebook, Amazon und Microsoft. Dass dies für die User auch große Gefahren birgt, zeigt der aktuelle Datenskandal um Facebook und Cambridge Analytica, die die Daten von Facebook-Usern zur Beeinflussung des US-Wahlkampfs verwendet haben.

 

Datenkraken haben leichtes Spiel

Die grundsätzliche Problematik besteht darin, dass wir bei zahlreichen, vermeintlich kostenlosen Internetdiensten wie Google und Facebook nicht mit Geld, sondern mit unseren persönlichen Daten bezahlen. Die Information, nach welchen Urlaubsziele wir suchen und welche Musik wir „liken“, sind pures Gold in den Händen der Werbeindustrie. Denn sie ermöglicht es, uns passgenaue Angebote zu machen. Google und Facebook allein kontrollieren die Hälfte des weltweiten digitalen Werbebudgets und zeigen ihren Nutzern nur noch den Teil der Wirklichkeit, mit dem sie ihre Werbeeinnahmen maximieren können.

Natürlich sind wir alle mitverantwortlich für die Misere. Zum einen hat es unsere „Geiz ist geil“-Mentalität erst möglich gemacht, dass sich die werbefinanzierten Dienste im Internet durchgesetzt haben. Und zum anderen haben wir mit dem Akzeptieren der Geschäftsbedingungen von Google und Facebook unsere Zustimmung gegeben zum Sammeln und Auswerten der Datenspuren, die wir im Internet hinterlassen. Natürlich gehört zur Wahrheit auch, dass die amerikanischen Internet-Konzerne auch machen, was technisch machbar ist – auch wenn dies haarscharf an der Grenze der Illegalität ist, wie das Sammeln von Daten von Nichtmitgliedern bei Facebook.

 

Gefangen im „Daten-Silo“

Das Internet wurde vor knapp 50 Jahren als offenes Kommunikationsnetz geschaffen, an dem jeder teilnehmen konnte. Das hat sich mittlerweile gründlich gewandelt. Heute bestimmen meist wenige geschlossene Systeme wie Facebook, YouTube, Google, Instagram oder Twitter, was wir im Internet sehen. In der Regel muss ich als Nutzer bei der Anmeldung zu einem Dienst die Bedingungen akzeptieren – oder ich bleibe draußen.

Was genau dort mit meinen Daten passiert, wo diese gespeichert werden oder ob sie Dritten zugänglich gemacht werden, das bleibt ungewiss. Selbst wenn uns bewusst ist, dass Anbieter wie WhatsApp unsere Daten ohne unsere Zustimmung weitergeben, können wir den Dienst heute nur schwer verlassen – weil ja all unsere Freunde WhatsApp nutzen. Dabei gibt es durchaus Alternativen zu WhatsApp – wie z.B. Threema, Signal oder Telegram.

Das Problem ist: Viele melden sich bei den alternativen Diensten zwar an, sind dann aber schnell wieder zurück bei WhatsApp oder dem Facebook Messenger, weil dort eben dann doch die meisten Freunde sind.

Das Ende vom Lied ist, dass die Datenkraken immer mehr persönliche Daten über uns ansammeln und wir immer weiter die Kontrolle darüber verlieren, was mit ihnen eigentlich passiert. Und das obwohl die Kritik von allen Seiten groß ist – so hat etwa die Menschenrechtsorganisation Amnesty International kürzlich angeprangert, dass Apples iCloud-Umzug nach China den dortigen Behörden uneingeschränkten Zugriff auf Nutzerdaten einräumt.

Unsere Daten sind das Erfolgsmodell und Kapital der Internetmonopolisten. Mit der Vielzahl an persönlichen Informationen, die wir über uns preisgeben, können sie immer genauere Profile von uns erstellen, für die wiederum Werbekunden gut und gerne bezahlen.

 

Offene Systeme als Alternative

Zugegeben: Es ist nicht einfach, die bestehenden Datensilos aufzubrechen, denn die Macht der großen Internetkonzerne scheint riesig zu sein. Eine wirklich nachhaltige und dauerhafte Lösung für das Problem der Datenkraken besteht meiner Meinung nach darin, neue Dienste zu kreieren, die eben keine geschlossenen Silos sind, sondern offen für alle: eben Open Source.

Beispielsweise ein Chat-System, in welchem Nutzer verschiedener Anbieter miteinander kommunizieren können. Funktioniert hat das in der Vergangenheit bei Mails ja auch: Wir können nicht nur von Gmail zu Gmail kommunizieren, sondern von Email zu Email, ohne darauf achten zu müssen, welchen Anbieter der Empfänger bzw. die Empfängerin nutzt.

 

Gemeinsam zurück zur Datenhoheit

Google, Facebook & Co. Haben ihre Macht nur, weil wir sie ihnen einräumen. Mit anderen Worten: Jeder von uns kann schon heute seinen Teil dazu beitragen, dass wir die Hoheit über unsere Daten wieder zurückgewinnen. Was wir dafür tun müssen?

Unsere Gewohnheiten ändern und statt auf die vermeintlich kostenfreien und bequemen Dienste der Datensammler zurückzugreifen, sichere Alternativen nutzen. Statt also die „Googleisierung“ weiter voranzutreiben, sollten wir besser auf Suchmaschinen wie Qwant zurückgreifen, die unsere Privatsphäre respektieren. Mailbox.org statt Gmail nutzen. Oder wie wäre es mit OpenStreetMap statt Google Maps? Oder verschlüsselte Messengerdienste wie Signal, Threema und Telegram statt Facebooks Whatsapp?

 

Ausweg aus dem Hotel California

Die Macht der großen Internetkonzerne, die mit unseren Daten Milliardengewinne erzielen, ist also nicht in Stein gemeißelt. Wir alle können mit unserem Nutzerverhalten und Gewohnheiten dazu beitragen, dass verantwortungsvoll mit unseren Daten umgegangen wird und die (Open-Source-)Projekte unterstützen, die den Datenschutz ernst nehmen. Denn sonst befinden wir uns schon bald alle im Hotel California wieder: „Relax‘ said the night man, we are programmed to receive. You can check out any time you like, But you can never leave!”

 

 

Autor:

Rafael Laguna, CEO und Mitgründer der Open-Xchange AG

 

Rafael Laguna ist Mitgründer und CEO der Open-Xchange AG, die mit mehr als 260 Mitarbeitern E-Mail- und Produktivitäts-Software für Unternehmen und Privatanwender entwickelt. Bereits mit 16 gründete er sein erstes Software-Unternehmen (Elephant Software), mit 21 programmierte er bereits ein komplettes Kassensystem für die Getränkewirtschaft (dicomputer) und mit 31 verkaufte er seine erste Firma (micado). Mit der Gründung von Open-Xchange im Jahr 2005 war Rafael Laguna, der tief in der Open-Source-Bewegung verwurzelt ist, einer der Pioniere im Bereich Software-as-a-Service.

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Konnektivität – Herzstück einer Smart City

Interview

 

Die Redaktion sprach mit Sanjay Khatri, Head of IoT Platform Product Marketing, Cisco IoT über Anforderungen und Chancen einer Stadt bei ihrer Transformation zu einer Smart City.

 

Herr Khatri, Smart City ist derzeit in aller Munde. Wie macht das Internet der Dinge (IoT) unsere Städte lebenswerter und effizienter?

Das Internet der Dinge (IoT) bietet Städten die Möglichkeit, Dinge wie Parkplätze, Straßenlaternen und Ampeln mit einem Netzwerk zu verbinden, wertvolle Daten aus diesen Dingen zu erfassen und diese dann sinnvoll zu nutzen, um Städte effizienter zu gestalten.

 

Vision einer intelligenten Stadt

 
Kann die Transformation zu einer intelligenten Stadt schrittweise oder modular gestaltet werden oder funktioniert die Umsetzung nur als Teil eines Gesamtkonzeptes?

Die Entwicklung einer starken, langfristigen, intelligenten Stadtvision von Stadtverantwortlichen ist der erste Schritt zum Abschluss eines jeden intelligenten Stadtprojekts. Aber Städte sollten sich nicht unter Druck gesetzt fühlen, zu viele Projekte auf einmal in Angriff zu nehmen.

Ein strategischerer Ansatz kann darin bestehen, zuerst einige wichtige Probleme zu identifizieren, die die Stadt angehen will, und dann schrittweise einen Plan auszuarbeiten, der zur Lösung dieser Herausforderungen beiträgt. Diese schrittweise Einführung neuer intelligenter Stadtanwendungen kann im Laufe der Zeit erfolgen.

Einige Städte können ihre Smart-City-Initiative starten, indem sie zuerst intelligente Beleuchtung einsetzen. Danach können sie das Projekt um intelligente Parkplätze, intelligentes Abfallmanagement und andere Bereiche erweitern. Der Schlüssel zum Erfolg liegt jedoch in der Auswahl einer IoT-Plattform und von Lösungsanbietern, die in der Lage sind, ihre derzeitigen und zukünftigen Anforderungen zu erfüllen.

 

Welche Herausforderungen ergeben sich aus der Umwandlung einer Stadt in eine Smart City und wie können Unternehmen und Kommunen diesen Wandel mitgestalten?

Das Fehlen eines Konzeptes oder einer Vision kann bei der Umwandlung einer Stadt in eine Smart City problematisch sein. Städte und Gemeinden sollten eng mit Technologiepartnern zusammenarbeiten, um diese Roadmap zu entwickeln, wichtige Meilensteine zu identifizieren und den Kurs gemeinsam zu verfolgen.

Wenn es um intelligente Städte und IoT geht, dreht sich eine weitere wichtige Herausforderung um Daten. Daten bleiben in verschiedenen Quellen gespeichert. Die Fähigkeit, diese Daten zu extrahieren, zu berechnen und zu verschieben, um sie zu optimieren, ist entscheidend.

Nicht alle Daten müssen ständig auf dieselben Anwendungen zugreifen, und die Kontrolle von Datenschutz, Sicherheit und Dateneigentum war traditionell eine Herausforderung. Städte müssen heute mehr denn je darüber nachdenken, den Wert von Daten zu erschließen und die richtige IoT-Datenmanagement-Plattform zu finden, damit sie dies effektiv und sicher tun können.

 

Infrastruktur

 
Welche Anforderungen müssen Kommunen erfüllen, damit die digitale Infrastruktur ihrer Stadt den Masseneinsatz von IoT bewältigen kann?

Smart-City-Projekte sind auf ein starkes Netzwerk angewiesen, damit IoT-Geräte in Verbindung bleiben und ihren Zweck erfüllen können. Aber das Netzwerk ist nur die erste Komponente. Städte brauchen auch eine IoT-Datenmanagement-Plattform, um die Datenflut sinnvoll zu erfassen.

 

Daten sind die Basis für eine Smart City. Wie können die erzeugten Daten am besten übertragen, verarbeitet und analysiert werden?

Städte benötigen eine speziell entwickelte, Cloud-basierte IoT-Datenmanagement-Plattform, die den größten Nutzen aus den Daten der miteinander verbundenen Maschinen, Modulen und Umgebungen zieht. Diese Art von Datenmanagement-Plattform ermöglicht es, von mehreren Sensoren und Sensortypen zu den richtigen IoT-Anwendungen zur richtigen Zeit, die richtigen Daten zu extrahieren, zu berechnen und zu verschieben, um intelligente Stadtinitiativen voranzutreiben.

 

Stadt der Zukunft: Vorausschauend und vernetzt

 
Welche Vorhersagen können für die Funktionsfähigkeit einer Stadt durch die Analyse solch großer Datenmengen getroffen werden?

Wenn Städte die Möglichkeit haben, ihre Daten freizuschalten und sinnvoll zu nutzen, sind die Möglichkeiten nahezu endlos. So tragen IP-basierte Überwachungslösungen zum Schutz der Bürger bei. Eine Live-Übertragung der Kameras aus dem Kontrollraum der Polizei hilft mit schnelleren Reaktionszeiten bei der Bekämpfung von Straftaten.

Um den Umweltbedürfnissen gerecht zu werden, können Städte damit beginnen, CO2-Emissionsdaten zu erfassen und dann Entscheidungen darüber treffen, wie diese Emissionen für eine sauberere Luft reduziert werden können. Umweltsensoren liefern Daten, mit denen in Echtzeit Berichte über den Zustand der Luftqualität erstellt werden können.

Um die täglichen Pendelfahrten für die Anwohner zu verbessern, helfen die Daten von Knotenpunkten in Ampeln den Städten, Staus zu lokalisieren und zu reduzieren. Und um die Straßen ein wenig sicherer zu machen, können Städte die Daten von Straßenlaternen überwachen, was es ihnen ermöglicht, proaktiv die Wartung durchzuführen, so dass die Lampen repariert werden können, bevor sie ausbrennen.

 

Wie profitieren die Bürger von der Nutzung von IoT in der modernen Stadt? Was sind die Vorteile einer Smart City?

Konnektivität ist das Herzstück moderner Städte und ermöglicht neuartige IoT-Anwendungen, von denen Bewohner und Besucher direkt profitieren können. Eine mobile App kann Anwohnern und Besuchern helfen, Parkplätze leichter zu finden und zu bezahlen.

Interaktive Informationskioske rund um die Städte informieren Touristen über Attraktionen und deren Anreise. Die Kioske sind auch Schnittstellen für mobile Abrechnung, Stadtinformationen, Zugfahrpläne, Reservierungsstatus oder Flugzeiten/Verspätungen.

Insgesamt werden neue IoT-Anwendungen die Aktivität und Funktionalität jeder Stadt weiter vorantreiben. Bei den Bürgern besteht eine Nachfrage nach dieser Technologie, sei es aus Gründen des Komforts, der Sicherheit oder auch Verbesserung der Lebensqualität, so dass sich die Städte an die Bedürfnisse ihrer Bewohner anpassen müssen.

 

Inwieweit unterscheidet sich die Nutzung von IoT in einer Stadt von der industriellen Nutzung von IoT?

IoT kann praktisch jeder Branche zugutekommen. Dabei kann jeder auf unterschiedliche Weise einen Nutzen daraus ziehen. Unternehmen der verarbeitenden Industrie können IoT für weitere industrielle Anwendungen nutzen.

Beispielsweise kann eine Fabrik Roboter an der Montagelinie anschließen und deren Aktivität effizienter überwachen. Dadurch können Fabriken eine proaktive Wartung durchführen, was zu einer Reduzierung der Ausfallzeiten in der Herstellung führt.

Während also Produktionsstätten und Hersteller IoT benötigen, um ein Produkt effizienter zu produzieren, verlassen sich Städte auf IoT, um Anwendungsgebiete wie Parkraumbewirtschaftung, Beleuchtung und Verkehrsflüsse effizienter zu verwalten.

 

Herr Kathri, vielen Dank für das Gespräch.

 

 

Weiterführende Informationen finden Sie unter:  CISCO IoT

 

Unser Interviewpartner:

Sanjay Khatri, Head of IoT Platform Product Marketing, Cisco IoT

 

 

 

 

 

Aufmacherbild / Quelle / Lizenz

Pixabay / CC0 Creative Commons

 

 

Vorreiter in Sachen e-Health

Interview

Die Digitalisierung treibt die Gesundheitsbranche. Die Implementierung digitaler Technologien optimiert Prozesse in der Gesundheitsbranche, senkt Kosten, schafft Transparenz und lässt zunehmend Branchengrenzen verschwimmen. Das E-Health-Gesetz bringt zusätzlichen Schwung hinsichtlich der Digitalisierung von Gesundheitsdaten.

In Sachen Digitalisierung im deutschen Gesundheitsmarkt nimmt ARAG eine Vorreiterrolle ein. Die TREND-REPORT-Redaktion sprach mit Dr. Roland Schäfer, Vorstandsmitglied der ARAG Krankenversicherungs-AG, über die innovativen Lösungen seines Hauses.

 

Herr Dr. Schäfer, bereits seit Anfang 2017 ermöglichen Sie ärztliche Videoberatung für Ihre Kunden in Kooperation mit der TeleClinic. Wie können sich Interessierte eine solche Videoberatung vorstellen?

Stellen Sie sich vor, Sie fühlen sich morgens krank und wollen sich mitten in der Grippesaison nicht in ein überfülltes Wartezimmer setzen. Als Kunde der ARAG Krankenversicherung können Sie einfach Ihr Smartphone zücken und per Video mit einem Arzt sprechen. Eine medizinische Assistenz klärt im Vorfeld die benötigte medizinische Fachrichtung und verbindet dann mit einem Video-Arzt oder vereinbart einen zeitnahen Rückruf.

Besonders komfortabel ist der Service für unsere Kunden in Tarifen mit Primärarzt-Prinzip – auch oft als Hausarzt-Prinzip bezeichnet: Diese müssen die Überweisung zum Facharzt nicht mehr bei ihrem Hausarzt abholen, sondern bekommen sie alternativ vom Video-Arzt direkt auf das Smartphone geschickt.

Wer berät und wie umfänglich wird beraten?

Über 200 Ärzte aus über 30 Fachrichtungen aus ganz Deutschland beraten unsere Kunden. Typischerweise arbeiten die Ärzte langjährig im Krankenhaus oder in der eigenen Praxis und bieten die Beratung per Video als zusätzlichen Service an.

Welche technischen Voraussetzungen benötigen Anwender?

Für Videotelefonie und Chat wird ein Smartphone, ein Tablet oder ein PC benötigt. Unser Beratungsservice kann jedoch auch einfach per Telefon genutzt werden.

Wie gut wird Ihr Angebot angenommen?

Wir erhalten ein äußerst positives Feedback von unseren Kunden, weil unser Angebot den Zeitgeist trifft. Wer es einmal ausprobiert hat, nutzt es meist auch immer wieder.

Wie ausbaufähig ist das Angebot ärztlicher Videoberatung generell?
Wo gibt es Grenzen?

Wir planen, in Kürze an einem Pilotprojekt teilzunehmen, das es den Ärzten erlaubt, auch Rezepte und Arbeitsunfähigkeitsbescheinigungen per Video auszustellen. Die bisherige rechtliche Grenze, nämlich das Fernbehandlungsverbot, wird vermutlich in naher Zukunft fallen und damit die ärztliche Videoberatung ein kräftiges Wachstum erleben.

Darüber hinaus testen wir auch telemetrische Angebote, um künftig Ärzten Messdaten wie Blutdruck, Gewicht oder Blutzuckerwerte übermitteln zu können, sofern die Kunden dies ausdrücklich wünschen.

So wird sich das Spektrum an möglichen Anwendungsszenarien kontinuierlich erweitern. Mit einem gebrochenen Arm wird man jedoch auch in ferner Zukunft in eine Arztpraxis oder ins Krankenhaus müssen.

 

„Als Kunde der ARAG Krankenversicherung können Sie einfach Ihr Smartphone zücken und per Video mit einem Arzt sprechen“, erläutert Dr. Roland Schäfer, Vorstandsmitglied der ARAG Krankenversicherungs-AG

 

Eine weitere Innovation – Ihre Gesundheits-App

Was leistet Ihre App?

Unsere App ist die erste in Deutschland, die Privatversicherten vollautomatisch einen kompletten Überblick über ihre medizinische Historie auf Basis der eingereichten Rechnungen gibt. Welche Medikamente wurden genommen, wann war der letzte Zahnarztbesuch, welche Diagnosen wurden gestellt und welche Therapien durchgeführt?

All diese Informationen haben unsere Kunden stets griffbereit in der Hosentasche und können diese sogar noch durch persönliche Notizen ergänzen. Wir versetzen sie also in die Lage, ihre Gesundheit selbstbestimmt in die Hand zu nehmen. Während landauf landab noch über Arten elektronischer Gesundheitsakten diskutiert wird, haben wir es einfach gemacht.

Natürlich haben wir aber mit der App auch zahlreiche Prozesse zum Kundennutzen digitalisiert. Sie können elektronisch Rechnungen einreichen, ihren Versicherungsschutz prüfen oder über die App mit der ARAG kommunizieren. Den alten Versicherungsordner brauchen sie eigentlich nicht mehr.

 

Stichwort Datenschutz:

Wie gewährleisten Sie den ordnungsgemäßen Umgang mit Anwenderdaten?

Wir haben in der Konzeption eng mit der zuständigen Behörde für Datenschutzaufsicht zusammengearbeitet und hier viel Lob erhalten. Mit IBM haben wir einen erfahrenen Partner im Boot, der mit modernster Technologie ein Höchstmaß an Datensicherheit gewährleistet. Zusätzlich haben wir uns von unabhängiger Seite prüfen lassen.

Welche Sicherheitsmaßnahmen kommen zum Einsatz und wo werden Daten gespeichert?

Wir nutzen eine extrem hohe Verschlüsselung auf dem neuesten Stand der Technik, die weit über das herkömmliche Maß hinausgeht, da die Sicherheit der Daten an erster Stelle steht. Zusätzlich kommt eine Zwei-Faktor-Authentifizierung zum Einsatz. Die Daten werden ausschließlich bei der ARAG in Deutschland gespeichert und auf dem Smartphone nur verschlüsselt abgelegt. Auf die persönlichen Notizen des Kunden haben wir überhaupt keinen Zugriff, diese liegen geschützt auf dessen Smartphone.

 

Nachgefragt: Gesundheitsakte

Bereits heute gibt es verschiedenste Angebot individueller Gesundheitsakten. Wieviel Interaktion benötigen Ihrer Meinung nach, individuelle Gesundheitsakten und institutionelle Patientenakten?

Alle institutionellen Ansätze kranken bisher daran, dass sie nur kleine Ausschnitte der medizinischen Historie abbilden können. Das volle Bild ermöglichen nur patientenzentrierte Gesundheitsakten und diese funktionieren auch nur nachhaltig, wenn der Patient möglichst keinen zusätzlichen Aufwand hat. Insofern sind wir derzeit noch skeptisch, ob die institutionellen Ansätze in den nächsten Jahren an Fahrt aufnehmen.

Sehen Sie Ihr Lösung als Erweiterung zur ePA?

Solange die ePA kein komplettes Bild der eigenen Gesundheit zeichnen kann, sehen wir unsere Lösung als deutlich umfassender und damit überlegen an.

Ein Blick in die Glaskugel…

Wo sehen Sie Ihr Unternehmen in den nächsten drei bis fünf Jahren?

Aktuell sind wir einer der Treiber der Digitalisierung im Markt der privaten Krankenversicherer. Diese Rolle werden wir beibehalten – beziehungsweise noch intensivieren – um die ARAG Krankenversicherung mit dem Angebot neuartiger Services und Produkte zum idealen Partner für die Gesundheit ihrer Kunden weiterzuentwickeln.

Kunden interessieren sich nicht in erster Linie für Krankenversicherungsprodukte. Sie suchen attraktive Lösungen, um gesund zu werden oder gesund zu bleiben – und dabei einen klugen, vertrauensvollen Partner an ihrer Seite. Dieser Partner werden wir sein.

 

Sehr geehrter Herr Dr. Schäfer, vielen Dank für das Gespräch.

 

 

Weiterführende Informationen finden Sie unter:
ARAG

 

Zur Person

Dr. Roland Schäfer, Vorstandsmitglied der ARAG Krankenversicherungs-AG

Nach Ausbildung zum Datenverarbeitungskaufmann bei der Kreditanstalt für Wiederaufbau Studium der Wirtschaftsinformatik an der Universität Bamberg mit anschließender Promotion (Dr. rer. pol.).

1998 – 2004: Tätigkeit als Management- und Strategieberater im Bereich Information Management und Financial Services bei Arthur D. Little International sowie Mitchell Madison Group, später als Gründer und Inhaber der Dr. Schäfer Consulting, spezialisiert auf die Versicherungsbranche.

2004 – 2012: ERGO Versicherungsgruppe AG, zunächst als Direktor und Leiter des Geschäftsbereichs Betriebliche Altersvorsorge, ab 2006 zusätzlich Vorstandsmitglied diverser Tochtergesellschaften im Segment Lebensversicherung; ferner Mitglied des Advisory Boards des International Group Program (IGP), einem globalen Versicherernetzwerk für Alters- und Gesundheitsvorsorgelösungen.

Seit Oktober 2012 Vorstandsmitglied der ARAG Lebensversicherungs-AG (bis Juni 2017) und der ARAG Krankenversicherungs-AG für Markt- und Produktmanagement, Aktuariat und Underwriting, Kunden- und Leistungsservice, Wert- und Bestandsmanagement sowie Vertrieb.

 

 

 

Aufmacherbild/Quelle/ Lizenz
GotCredit / Flickr / Creative Commons CC-BY-2.0

 

Werden ICOs bald verboten?

Dies ist ein Gastbeitrag von Dr. Markus Kaulartz, Rechtsanwalt bei CMS Deutschland

Bei ICOs – auch Token Sales genannt – erschaffen und emittieren Unternehmen ihre eigene Kryptowährung und verkaufen diese an Investoren. Technisch ist dies noch nicht einmal besonders aufwendig, es genügen bereits wenige Zeilen Programmcode, um einen solchen Token zu erstellen. Die Unternehmen befinden sich zum Zeitpunkt eines ICOs typischerweise in einer sehr frühen Phase, in der es noch nicht einmal einen Prototypen des geplanten Produkts oder ein Praxisbeispiel der geplanten Dienstleistung gibt. Stattdessen schwärmen sie von einer Idee, präsentieren ihr Team und halten ein White Paper zum Herunterladen bereit, in dem Idee und Team ausführlich beschrieben werden. Mit den durch den Verkauf generierten Einnahmen soll dann das Unternehmen oder ein ganz konkretes Projekt finanziert werden. Der Erfolg dieses Vorgehens spricht für sich: 2017 wurden mit ICOs weltweit knapp sechs und in den ersten Monaten von 2018 bereits drei Milliarden US-Dollar eingesammelt.

Die gekauften Tokens können typischerweise an sogenannten Kryptobörsen gehandelt werden. Obwohl massive Kurssteigerungen möglich sind, sind auch Totalverluste oder zumindest gravierende Kursverluste nicht unüblich, worauf letztes Jahr auch die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) und die Europäische Wertpapier- und Marktaufsichtsbehörde (ESMA) mit besonderer Deutlichkeit hinwiesen: Insbesondere Verbrauchern ohne Branchenkenntnis raten die Behörden von der Investition in ICOs dringend ab.

Strenger sind Behörden im asiatischen Raum, die ICOs mitunter verbieten. In den USA hat man die Hürde für ICOs extrem angehoben, indem man Tokens typischerweise als Wertpapiere qualifiziert. Europäische Behörden gehen ganz unterschiedlich an die Thematik heran. Die BaFin beobachtete lange Zeit den Markt, bevor sie sich zu ersten Veröffentlichungen hinreißen ließ. Völlig zurecht stellt sich die BaFin auf den Standpunkt, dass jeder Einzelfall individuell betrachtet werden muss, und sich pauschale Aussagen nahezu verbieten. In der Summe lassen sich aber Tendenzen erkennen, die Deutschland aus regulatorischer Sicht zum Paradies für ICOs und damit die gesamte Kryptoszene machen. Zwar kommt für die BaFin eine Qualifikation der emittierten Tokens als Wertpapiere grundsätzlich in Betracht, die Praxis zeigt jedoch, dass die BaFin den vernünftigen, weil technologieneutralen Ansatz wählt. Sie stellt hierbei die Frage, ob der konkrete ICO mit klassischen Wertpapieren vergleichbar ist, da zum Beispiel eine Dividende gezahlt wird. Käme man zu einer Qualifikation als Wertpapier, so hätte dies für Unternehmen die missliche Konsequenz, dass sie beispielsweise ausführliche und aufwendige Prospekte entwerfen müssten.

Das Vorgehen der BaFin ist richtig, denn die BaFin beachtet den Grundsatz, wonach gleiches Geschäft zu gleichem Risiko führt und damit einer gleichen Regulierung bedarf. Wichtig ist nämlich zu beachten, dass ICOs im Kern doch nur eine neue Technologie repräsentieren. Es werden nicht Wertpapiere, Genussrechte oder Vermögensanlagen zum Beispiel in einer Urkunde verbrieft und in dieser Form an Investoren verkauft, sondern es kommt ein Blockchain-gestützter Token zum Einsatz. Es muss also gefragt werden, was eigentlich verkauft wird, unabhängig von der Technologie dahinter (Substance over Form) – damit ist man bei der von der BaFin postulierten Einzelfallbetrachtung.

Es ist vor diesem Hintergrund klar, dass es niemals ein Gesetz geben wird, dass spezifisch ICOs regelt. Wahrscheinlich ist allerdings, dass sich der Gesetzgeber des Handels von Tokens über Kryptobörsen annimmt, was heute nur teilweise reguliert ist.

Aufgabe der BaFin ist es, die Funktionsfähigkeit, Stabilität und Integrität des deutschen Finanzplatzes zu sichern und zu fördern. Da Kryptowährungen wie überall auf der Welt im Vergleich doch nur eine geringe Rolle spielen, ist das Vorgehen der BaFin sehr zu begrüßen und gewiss vorbildlich: Die Behörde beobachtet ganz genau das Gefährdungspotential von ICOs und wendet bestehende Gesetze konsequent an, anstatt voreilige und daher sinnlose Verbote zu verhängen. Im Gegensatz zu manch‘ anderen Behörden hat sie verstanden, dass hier eine Technologie im Raum steht und keine neue und bislang unregulierte Anlageform, und dass die mit dieser Technologie emittierten Finanzinstrumente technologieneutral bewertet werden müssen.

Während einige Unternehmen im Jahr 2016 wenig von regulatorischer Compliance hielten und nicht wenige ICOs dadurch von sich reden machten, dass das eingesammelte Geld schlicht anderweitig verwendet wurde, so zeigt die Beratungspraxis, dass heute mehr und mehr Unternehmen im Weg zum Anwalt eine zwingende Voraussetzung für den Verkauf von Tokens sehen.

Auf was Unternehmen in der Praxis ganz besonders achten müssen:

  1. Rechtsform: Unter Berücksichtigung des Geschäftsmodells muss zunächst die geeignete Rechtsform für die Token emittierende Gesellschaft ermittelt werden, in der Regel getrennt vom operativen Geschäft. Es kommt mitunter vor, dass Unternehmen an einer Gesellschaft interessiert sind, die nur sich selbst gehört und nicht von einem Dritten gesteuert werden kann, wie zum Beispiel die Schweizer Stiftung oder die niederländische Stichting. Wichtig: Am anwendbaren regulatorischen Recht ändert die Wahl der Rechtsform und die Wahl des Sitzlandes nichts: Deutsches Finanzaufsichtsrecht findet immer dann Anwendung, wenn die Tokens zielgerichtet am deutschen Markt vertrieben werden.
  2. Token Design: Das Geschäftsmodell rund um den Token (Token Design), muss anhand der anwendbaren Rechtsordnung geprüft und die einschlägigen Beschränkungen müssen berücksichtigt werden, die sich aus der Qualifizierung des Tokens als Finanzinstrument, E-Geld, Wertpapier oder etwa Vermögensanlage ergeben.
  3. Dokumentation: Kaufvertrag, Allgemeine Geschäftsbedingungen (AGB), Risikohinweise und womöglich Verbraucherwiderrufsbelehrungen müssen entworfen werden.
  4. KYC: Ein Prozess zur Identifizierung der Kunden (Know your Customer – KYC) muss implementiert werden.
  5. Handel: Eine geeignete Kryptobörse ist zu identifizieren, über die die Tokens auf rechtmäßige Art und Weise gehandelt werden können.

Fehler während des ICOs führen zu hohen Haftungsrisiken und reduzieren den Wert des Unternehmens im Falle eines Exits, wenn also Investoren in das Unternehmen einsteigen wollen.

 

Über den Autor:

Dr. Markus Kaulartz ist Rechtsanwalt bei CMS Deutschland und hat sich auf IT-Recht sowie Blockchain, IT-Sicherheit und Datenschutz spezialisiert. Er widmet sich insbesondere Rechtsfragen von Zukunftstechnologien und neuen Geschäftsmodellen, etwa im Bereich Industrie 4.0, FinTech, Internet of Things, ICOs und Big Data. Zu seinen Mandanten zählen börsennotierte Unternehmen ebenso wie Startups.

Digital Finance – Faster Finance

Reportage: Innovative Netzwerke: Computer-Netzwerke setzen auf Prozessoren die heute viermal schneller sind als das menschliche Gehirn. Menschliche Netzwerke erfüllen das Bedürfnis nach sozialer Interaktion.

Chatbots sind in der Lage schneller und immer auf Kundenanfragen zu reagieren. Big Data und KI ermöglichen sofort Rückschlüsse auf Kundenbedürfnisse und das proaktive Aussprechen passgenauer Empfehlungen. Die Blockchain beschleunigt ganze Prozessketten, da Intermediäre obsolet werden, und agile Prozesse steigern die Innovationsrate im Finanzsektor. Geschwindigkeit ist zum zentralen Erfolgsfaktor innerhalb der Finanzbranche geworden, doch auch die soziale Interaktion gewinnt immer mehr an Bedeutung. Als Copy-Trader diskutiert der Kunde über den Erfolg anderer und partizipiert unmittelbar daran. Auf Crowdinvesting-Plattformen begeistert er sich als einer von vielen für neue Projekte und wird in Social-Media-Kanälen selbst zum Botschafter.

Im Rahmen einer eigenständigen Reportage geben wir in Fallbeispielen, Interviews und Expertenbeiträgen dem Thema „Digital Finance“ Raum und vermitteln einen Überblick über die wichtigsten Trends.

TREND REPORT ist die aktuelle Wirtschaftszeitung, die zukünftige Trends zum Thema macht. Wir suchen nach neuen Anzeichen, die Wendepunkte im Zeitgeist markieren und verstehen uns als Partner der Wirtschaft.

 

Themen und Inhalte:

 

PSD2 und Open Banking
Schnittstellen für die Bank der Zukunft 

Bitcoin und Co
Der Reiz der Cyberwährungen.

Blockchain
Die Technologie hinter dem Bitcoin ist auch für Banken interessant.

Trading
Social, Copy, oder alleine – Profitieren und Lernen vom Wissen der Anderen

Crowdfinancing
Start-Up-, Projekt-, oder  Privatkredite – Kryptisches Digital Coin Offering 

Roboadvisors & AI
Künstlich gut beraten 

Digitale Ökosysteme
Serviceorientiert und dynamisch

IT-Security
Der Kampf der Banken gegen Netzangriffe.

Investment
Digitale Unternehmen versprechen Wachstum.

 

Hier können Sie das vollständige Themenexposée herunterladen

Hier geht es zu unseren Mediadaten

Management Hack

NTT Security ermittelt das Sicherheitsrisiko von Vorständen

 

Pressemitteilung/ Ismaning Deutschland, 12. April 2018

NTT Security (Germany), das auf Sicherheit spezialisierte Unternehmen und „Security Center of Excellence“ der NTT Group (NYSE: NTT), erweitert seine umfangreiche Angebotsreihe um den „Management Hack“. Mit dem Einsatz spezieller Social-Engineering-Techniken wird dabei überprüft, inwiefern Führungskräfte selbst ein Sicherheitsrisiko darstellen.

 

„Risikofaktor Mensch“

Technische IT-Sicherheitssysteme sind immer nur so stark wie ihr schwächstes Glied – dabei geht es nicht nur um neue Technologien und Softwarelösungen, sondern auch um den „Risikofaktor Mensch“. Die Minimierung dieser potenziellen Schwachstelle durch die Schulung der Security Awareness und Etablierung unterstützender technischer Lösungen muss immer ein wichtiger Baustein einer präventiven Sicherheitsstrategie sein.

Wie es konkret um die „Schwachstelle Mensch“ für die IT-Sicherheit eines Unternehmens bestellt ist, ermittelt NTT Security im neuen „Management Hack“. Im Fokus steht dabei die Führungsebene eines Unternehmens, das heißt der gesamte C-Level wie CEO, CFO oder CIO.

Die Managementebene ist ein attraktives Ziel für jeden Hacker, da dieser Personenkreis in der Regel uneingeschränkten Zugriff auf vertrauliche Unternehmensdaten genießt. Nicht selten profitieren Manager auch von besonderen Privilegien: So werden Sicherheits-Policies und -Standards ausgesetzt oder aufgelockert, um zum Beispiel das Login zu vereinfachen – mit fatalen Folgen.

„Management Hack“ als Service

Nach entsprechender Abstimmung mit dem Auftraggeber – in der Regel mit dem CISO oder dem Leiter des IT-Betriebs – werden simulierte, personalisierte Social-Engineering-Angriffe durchgeführt, von denen die im Fokus stehenden Personen im Idealfall nichts wissen. Dabei wird analysiert, wie verantwortungsbewusst die Managementebene in Sachen Security Awareness und IT-Sicherheit ist. Im Anschluss werden konkrete Schwachstellen aufgezeigt und Maßnahmen, wie zum Beispiel Security-Awareness-Schulungen, empfohlen.

Allgemein umfasst das Service-Angebot des „Management Hack“ von NTT Security die Überprüfung der IT-Sicherheit, der physischen Sicherheit (Objektschutz) und die Analyse von menschlichem Fehlverhalten. Konkret nutzt der Sicherheitsspezialist hierzu unter anderem Social-Engineering-Techniken wie Phishing und das personalisierte Spear-Phishing in Kombination mit Malware- oder Brute-Force-Angriffen auf Passwörter.

 

Die Simulation eines Social-Engineering-Angriffs erfolgt beispielsweise in folgenden Schritten:
Aufbau einer Phishing-Webseite, die eine Kunden- oder eine dem Kunden bekannte Webseite simuliert
Gestaltung einer Phishing-Mail, die auf die Phishing-Webseite leitet
Versand der Phishing-Mails an das Management des Auftraggebers
Abfangen von Login-Informationen oder anderen vertraulichen Daten
Erstellung eines detaillierten Reports mit Statistiken zur aktuellen Sicherheitslage und Maßnahmenempfehlungen zur Verbesserung der Sicherheit

 

Handlungsbedarf auf Managementebene

Mehrere solcher „Management Hack“-Projekte hat NTT Security bereits in Skandinavien durchgeführt. „Die Ergebnisse haben selbst uns überrascht. So erhielten wir vielfach in nur zehn Minuten Zugriff auf unternehmenskritische Daten, etwa Business-Pläne, M&A-Planungen, Warenwirtschaftssysteme, Domain-Controller, User-Namen oder Passwörter.

Auch administrative Zugangsdaten wurden oft gefunden“, erklärt Kai Grunwitz, Senior Vice President EMEA bei NTT Security. „Die damit verbundenen Gefahren für ein Unternehmen liegen auf der Hand. So kann sich ein Angreifer mit Administratorrechten frei im Netzwerk bewegen und oft für lange Zeit unbemerkt auf kritische Informationen zugreifen.“

Die Managementebene ist ein attraktives Ziel für jeden Hacker. (Quelle: fotolia)

Der neue Service von NTT Security zielt auf eine Erhöhung des Sicherheitsbewusstseins auf Vorstands- und Geschäftsleitungsebene ab – letzten Endes aber auch auf die Etablierung einer neuen Sicherheitsstrategie und -kultur im gesamten Unternehmen. „Unsere ersten Projekte haben gezeigt, dass auf Unternehmensseite durchaus Handlungsbedarf besteht“, so Grunwitz. „Der Reifegrad in Bezug auf Cyber-Security ist auf Managementebene, vorsichtig ausgedrückt, noch eher gering ausgeprägt.“

Im Anschluss an die Tests analysiert NTT Security in Workshops gemeinsam mit dem Kunden die Ergebnisse. Auf Wunsch unterstützt NTT Security dann das Unternehmen bei der Konzeption und Umsetzung einer umfassenden Sicherheitsstrategie, welche auch die Führungsebene einbezieht und zukünftig vor etwaigen Social-Engineering-Angriffen zuverlässig schützt.

 

Weitere Informationen zum „Management Hack“ finden sich unter:

www.nttsecurity.com/de-de/management-hack-service

 

 

 

NTT Security

NTT Security ist das auf Sicherheit spezialisierte Unternehmen und „Security Center of Excellence“ der NTT Group. Mit „Embedded Security“ ermöglicht NTT Security den NTT-Group-Unternehmen (Dimension Data, NTT Communications und NTT DATA) die Bereitstellung zuverlässiger Business-Lösungen für Kundenanforderungen in der digitalen Transformation. NTT Security verfügt über 10 SOCs, sieben Zentren für Forschung und Entwicklung sowie mehr als 1.500 Sicherheitsexperten und behandelt jährlich Hunderttausende Sicherheitsvorfälle auf sechs Kontinenten.

NTT Security sichert eine effiziente Ressourcennutzung, indem den Unternehmen der NTT Group der richtige Mix an ganzheitlichen Managed Security Services, Security Consulting Services und Security-Technologie zur Verfügung gestellt wird – unter optimaler Kombination von lokalen und globalen Ressourcen. NTT Security ist Teil der NTT Group (Nippon Telegraph and Telephone Corporation), einem der größten IKT-Unternehmen weltweit. Weitere Informationen über NTT Security finden sich auf: www.nttsecurity.com

 

NTT Group in Deutschland

Zur NTT Group in Deutschland gehören neben NTT Security die Unternehmen Arkadin, Dimension Data, e-shelter, itelligence, NTT Communications und NTT DATA. In Deutschland beschäftigt die NTT Group rund 5.300 Mitarbeiter. Der Umsatz liegt bei über 1,2 Milliarden Euro. Weitere Informationen zur globalen NTT Group finden sich unter www.ntt-global.com.

 

 

Pressekontakt:

NTT Security
Ana Heydock
Marketing Manager Germany und Austria
Tel: +49 (0) 89 94 57 31 76

ana.heydock@nttsecurity.de

 

PR-COM GmbH
Hanna Greve
Account Director
Tel.: +49 (0) 89 59997 756

hanna.greve@pr-com.de

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons