Kontist geht zu VISA

Kontist geht zu VISA

Kontist, Deutschlands erster Anbieter eines mobilen Bankkontos für Selbstständige und Freelancer, startete diese Woche eine Kooperation mit Visa.

Über die Banking-as-a-Service-Plattform Solarisbank beginnt das Unternehmen mit der Ausgabe von Visa Business Debit Karten. In der aktuellen Situation, in der digitale Geschäftsmodelle und Online-Transaktionen an Bedeutung gewinnen, profitieren Selbstständige von multichannel-fähigen Zahlungsmöglichkeiten, erweiterter Flexibilität und erhöhter Sicherheit.

Für Leser in Eile

  • Erstmalig mobile Payment-Option mit Google Pay
  • Virtuelle Karte bleibt kostenlos und ist sofort nach Kontoeröffnung einsetzbar
  • Individuell anpassbare Limits zur Regulierung der eigenen Ausgaben
  • Neue Smart-Safety-Funktionen im Hintergrund
  • Wechsel von Wirecard zur Solarisbank
Künftig kommen bei Kontist Konto und Karte vom selben Anbieter, um Kundenbedürfnisse aus einer Hand zu erfüllen.

Neue Kontist Kunden werden ab sofort die Visa Business Debit Karte erhalten, bestehende Kontist Karten werden ausgetauscht. Zu einem Zeitpunkt, an dem sich das Bezahlverhalten verändert und digitale Zahlungslösungen Konjunktur haben, bietet die Karte ihren Nutzern erweiterte Möglichkeiten: Die Karte kann nicht nur im Geschäft und online eingesetzt werden – erstmalig ist mit Google Pay auch eine mobile Payment-Option verfügbar. Eine kostenlose digitale Version der Visa Karte wird aus der Kontist App heraus auf Knopfdruck erstellt und kann sofort in Google Pay zum Bezahlen hinterlegt werden. Der Karteninhaber kann sie auf diese Weise unmittelbar im eCommerce oder zum kontaktlosen Bezahlen im Handel einsetzen – auch ohne physische Karte.

Die physische Visa Business Debit Karte unterstützt den NFC-Standard für kontaktlose Zahlungen bis zu 50 Euro ohne PIN-Eingabe und kann weltweit verwendet werden. Dies ist besonders wichtig für Selbständige, die oft ortsunabhängig arbeiten.

Karteninhaber können sich außerdem über eine flexiblere Kostenkontrolle ihrer Transaktionen freuen. Sie können die Limits für tägliche und monatliche Abhebungen und Zahlungen mit der Karte in der Kontist App individuell festlegen – und bei Bedarf jederzeit anpassen, um ihre Ausgaben zu regulieren. Da die Visa Debit nahtlos mit dem Kontist Account verknüpft ist und Zahlungen sofort belastet werden, bietet die Karte Selbstständigen volle Kostentransparenz.

Auch in Sachen Sicherheit erhalten Nutzer aktivere Kontrolle. Die Kontaktlos-Funktion der Karte kann in der Kontist App jederzeit deaktiviert und aktiviert werden. Ein von der Solarisbank entwickeltes Smart-Safety-Konzept schützt Benutzer vor Kartenbetrug, indem es sie im Falle einer abgelehnten Kartenzahlung via Push-Benachrichtigung zur manuellen Bestätigung der Transaktion auffordert. Zusätzlich sichert das Visa Zero Liability Versprechen Kunden vor einer Haftung für von ihnen nicht autorisierte Transaktionen ab.

Die Karten werden durch die Solarisbank ausgegeben, dem kontoführenden Institut hinter Kontist. Künftig kommen bei Kontist Konto und Karte vom selben Anbieter, um Kundenbedürfnisse aus einer Hand zu erfüllen.

Der Zusammenarbeit von Visa und Kontist liegen gemeinsame Werte zugrunde. Visa verfolgt ein langjähriges Engagement, Kleinstunternehmen sowie Selbstständige stärker zu fördern. Kontist verfolgt die Mission, das Leben von Selbstständigen und Freelancern zu erleichtern, und unterstützt sie mit einem innovativen Geschäftskonto, das über das Banking hinaus Steuerverwaltung und Buchhaltungslösungen in einem einzigen Service abdeckt. Die Visa Debit Business Karte wird nun als flexible Zahlungslösung grundlegend in das mobile Echtzeit-Finanzmanagement integriert. Selbstständige haben dank der Kooperation ein maßgeschneidertes Kartenprodukt für jede Situation und können sich somit stärker auf ihren Geschäftserfolg konzentrieren.

Sibylle Strack, CEO von Kontist: „In der aktuellen Situation ist Flexibilität für Selbstständige und Freiberufler wichtiger denn je. Ich freue mich, dass wir nicht nur mit unserem Kontist Geschäftskonto, sondern jetzt auch mit der neuen Visa Kooperation diesen Bedarf abdecken und unseren Kunden ein maßgeschneidertes Kartenprodukt zur Verfügung stellen können, das Sie an ihre individuelle finanzielle Situation anpassen können – und das gleichzeitig höchste Sicherheit garantiert.“

Ute König-Stemmler, Head of Business Development Central Europe bei Visa, sagt: „Wir freuen uns sehr über die Kooperation mit einem weiteren spannenden Fintech aus Deutschland. Entrepreneurs sowie Kleinunternehmen sind ein wichtiger Motor der europäischen Wirtschaft und für uns bei Visa von zentraler Bedeutung. Die Partnerschaft mit Kontist und ihr Start der Visa Business Debit Karte in Deutschland sind wichtige Bestandteile unseres anhaltenden Engagements für dieses Segment. Mit der neuen Karte erhalten kleine Unternehmen eine passende Lösung, die gerade jetzt bestens auf ihren neuen digitalen Alltag zugeschnitten ist.“

Über Kontist
Kontist arbeitet daran, mit seinem Service den Berufsalltag von Selbständigen zu erleichtern und ihnen mehr finanzielle Sicherheit und Kontrolle zu geben. Kontist ist Deutschlands erste Banking-Lösung ausschließlich für Freelancer und Selbstständige. Kontist ist als Konto-App für das Smartphone sowie als Webversion erhältlich. Die Lösung kombiniert die klassischen Funktionen eines Geschäftskontos mit automatisierten Buchhaltungs- und Cashflow-Management-Prozessen. Sie ermöglicht Selbständigen, in Echtzeit Ausgaben und Belege zu verarbeiten und dynamisch Steuerrücklagen zu bilden. Die Kontist GmbH wurde 2016 in Berlin gegründet und wird von den CEOs Christopher Plantener und Sibylle Strack, COO Stephen Ogden, CTO Sebastian Galonska und CPO Mathias Domschke geführt. Das Team besteht aus mehr als 70 Mitarbeitern, die größtenteils über langjährige Freelancer-Erfahrung verfügen und das Produkt gemeinsam entwickelt haben.

Aufmacherbild / Quelle / Lizenz
Photo by Adi Goldstein on Unsplash

Lizenz:
Dies ist eine Pressemitteilung von Kontist

Jetzt to go – der KIX Field Agent

Torsten Thau ist das Gegenteil von einem IT-Nerd. Wenn er über IT spricht, versteht es auch ein Laie. Als Mitgründer und Product Owner der neuen Management-Software KIX in der Version 18 beim Chemnitzer Softwareunternehmen cape IT ist er auch für die Entwicklung und Erweiterung der dazu passenden KIX Field Agent-App verantwortlich. Die Redaktion hat mit ihm über fast alle Schritte von der App-Entwicklung bis zum fertigen Produkt gesprochen, warum überhaupt eine App nötig ist und vor allem, welchen Nutzen die Anwender haben.

Herr Thau, ein Field Agent ist ein Spion im Außendienst. Die Figur James Bond einer, den wir alle kennen. Bekommt man mit der App einen Martini, ein schnelles Auto und eine Dienstwaffe ausgehändigt? Wie kamen Sie auf den Namen?

Ja klar (lacht), der KIX Field Agent ist sozusagen eine Dienstwaffe. Nur, dass sie selbstverständlich nicht tötet. Ein Field Agent schlägt sich unter widrigen Umständen in seinem Arbeitsalltag durch. Im übertragenen Sinn ist das zwar etwas übertrieben, aber mit unserer App braucht man kein Internet, keine Extra-Ausrüstung, ein Handy oder ein Tablet reichen völlig. In der Tat haben wir die Auftaktveranstaltung zum Launch unseres neuen KIX und der dazugehörigen Native App KIX Field Agent in einem Kino abgehalten und unter das Motto „James Bond“ gestellt. Mein Kollege und Mitgründer Rico Barth führte sogar im Smoking durch die Veranstaltung. Leider mussten wir wegen Corona die Anwenderkonferenz ins Netz verlegen, aber das Feedback der Online-Teilnehmer war dennoch super und sehr motivierend und es hat den bei uns beteiligten Kolleginnen und Kollegen jede Menge Spaß gemacht, die Veranstaltung unter solch einem Motto zu organisieren.

Wann entstand die Idee, eine Native App für KIX zu entwickeln?

Na, die Frage „Gibt es dazu auch eine App“ stand eigentlich spätestens seit 2015 immer im Raum. Einfach weil mobile Technologien immer weiter Einzug in unseren Alltag halten. Die ersten Ideen für eine KIX-App haben wir intern sogar bereits 2014 gesammelt. Die Entwicklung unserer ersten „Quasi-App“, würde ich es mal nennen, unter dem Namen KIX Field Service begann dann schließlich 2016 und wurde 2017 gelauncht. Wir haben damals viel gelernt, was geht und was nicht, welche Funktionen sinnvoll sind und welche überarbeitet werden müssen. Wir sind zunächst auch teilweise über das Ziel hinausgeschossen, haben sie quasi over-engineered. Beispielsweise konnten damals nur komplette Touren geplant werden, also mehrere Tagesaufträge, aber nicht einzelne Aufträge im Detail. Insgesamt war der KIX Field Service sehr komplex, die Handhabung kompliziert und die Bedienung hat sich einfach nicht schön angefühlt. Mit einer App, wie wir alle sie heute kennen und erwarten und wie es nun die KIX Field Agent App ist, hatte das noch nicht so sehr viel gemein.

Und aus dem Field Service wurde dann der persönliche Bond, der KIX Field Agent ….

Ganz genau, es war uns wichtig, eine App zu haben, aber man muss Anwendungen einfach dem echten Leben aussetzen und sie immer weiter verbessern. Uns war klar, dass wir zum neuartigen KIX auch die App neu und zeitgemäß aufbauen mussten. Wir sind sehr froh, dass Kunden uns ihr ehrliches Feedback gegeben haben zur Vorgängerversion. Diese Erkenntnisse sind dann auch maßgeblich in den neuen Field Agent eingeflossen.

Torsten Thau, Mitgründer und Product Owner der neuen Management-Software KIX
©-One-Moment-Pictures

Wie können wir uns denn den Entstehungsprozess vorstellen?

Mit der Entwicklung der aktuellen App haben wir im Frühjahr 2019 begonnen. Da wir immer einen prototyp-basierten Ansatz verfolgen, hatten wir nach rund zwei Monaten bereits eine einsatzfähige Version. Wir spielen die Möglichkeiten erst auf dem Papier durch, aber nicht alles was dort funktioniert, läuft dann auch in der Realität, also in der App. Parallel haben wir natürlich auch an unserem Kernprodukt, dem neuen KIX in der Version 18 gearbeitet, und die Änderungen in der App berücksichtigt. Umgekehrt gab es aber auch Funktionen, die direkt für die App entwickelt und im Anschluss in das Kernprodukt übernommen wurden. So ging es hin und her, bis wir mit dem Gesamtprodukt zufrieden waren.

Mit wie vielen Kollegen haben Sie an der Entwicklung gesessen, wer waren die Hauptbeteiligten?

Bei cape IT bestand das Team nur aus zwei Kollegen und mir. Wie schon bei der ersten App haben wir uns jedoch zur Unterstützung die Hilfe eines externen Partners geholt, dadurch kamen vier weitere Leute hinzu. Während der Entwicklung schauten uns natürlich immer wieder Kollegen aus dem eigenen Haus über die Schulter, gaben Tipps und Feedback. Besonders hilfreich waren die Ideen unserer weiblichen Kollegen, da sie oft pragmatischere Ideen und Herangehensweisen hatten als unsere männlichen Kollegen.

Warum überhaupt eine App? Geht KIX 18 nicht auch ohne App?

KIX ist eine typische browserbasierte Anwendung, und das neue KIX ist – wie bereits seine Vorgänger – benutzerfreundlich auf sehr viele Anwendungsfälle anpassbar. Besonders für Mitarbeiter im Außendienst ist der browserbasierte Ansatz aber oft nicht hilfreich. Dort geht es vor allem darum, flexibel und auch offline arbeiten zu können, am besten mit einem mobilen Gerät. Deshalb ist eine App zwingend notwendig, die ebenso nutzerfreundlich und intuitiv bedienbar ist wie das Kern-Programm. Der Field Agent bietet auch die Möglichkeit, größere Datenmengen lokal zu speichern, was im Offline-Einsatz notwendig ist. Jedes Handy hat eine Kamera und kann die Position bestimmen. Das ist schon super. Auch das Erfassen einer Unterschrift ist hilfreich. Das Prinzip kennt jeder, der schon mal ein Paket entgegengenommen hat.

Welche Funktionen sind bei den Kunden besonders beliebt?

Sehr positives Feedback haben wir zur Offline-Nutzung bekommen. Service-Mitarbeiter, die zum Beispiel in Kellern oder Kraftwerken im Einsatz sind, können auch ohne Netzabdeckung und WLAN arbeiten. Mit unserer App werden die vor Ort eingetragenen Informationen mit dem System synchronisiert, sobald wieder eine Verbindung besteht.
Ebenfalls beliebt ist die Checklistenbearbeitung, die man einfach dem Ticket zuordnen kann. Damit können die User einzelne Schritte eines Vorgangs abarbeiten und behalten dabei den Überblick. Hier haben wir uns besonders über das Feedback gefreut, weil viele Kunden sagten, diese Funktion sei einfach schön anzuschauen. Denn auch die Optik spielt eine Rolle dabei, ob eine App gern genutzt wird oder nicht.

Und welche Skills hat der Field Agent noch so?

Oh, einige! Generell ist die App auf die Bearbeitung eines oder mehrerer zugeteilter Tickets zugeschnitten. Alle relevanten Informationen wie Kontaktdaten, Kommunikationshistorie, Dateianhänge, Wissensdatenbankeinträge oder Geräteinformationen sind jederzeit abrufbar.


„Wir sind jederzeit offen für Wünsche von Anwendern. Bei der Planung einer App lassen sich viele Szenarien, die sich im Alltag ergeben, gar nicht vorhersehen.
Deshalb freuen wir uns immer über Rückmeldungen von Nutzern.“

Torsten Thau

Können Sie uns einen typischen Einsatz beschreiben?

Nehmen wir den typischen Arbeitstag eines Service-Mitarbeiters: Zunächst hat er die Möglichkeit, Aufträge nach Priorität zu sortieren. Vor Ort beginnt die automatische Zeiterfassung, und er hat schnellen Zugriff auf sämtliche Informationen. Während der Arbeit kann er dem Ticket Notizen und Fotos hinzufügen sowie einen Arbeitsbericht zur internen oder externen Nutzung erstellen. Ist der Auftrag erledigt, wird dies durch den Auftraggeber mit einer Unterschrift bestätigt. War in der Zwischenzeit kein Netz vorhanden, muss er sich keine Sorgen um Datenverlust machen. Der Status wird aktualisiert, sobald er wieder online ist. Wir glauben, dass der Arbeitsalltag mit KIX Field Agent deutlich einfacher wird.

Wird der Field Agent in Zukunft noch mehr können? Wenn ja: was?

Natürlich, wir bekommen ja immer mehr Feedback von Kunden. Dies werden wir weiter einarbeiten, so wird die App immer besser. Momentan steht die Erstellung neuer Tickets ganz oben auf unser To Do-Liste. Außerdem planen wir den Zugriff auf das Assetmanagement nach Eingabe einer Assetnummer, etwa durch einen QR- oder Barcode. Wir wollen auch die Möglichkeit schaffen, die aktuelle Position des Field Agents bzw. des Mitarbeiters an die Zentrale zu übermitteln. So könnte auch der Einsatz von Technikern, die sich in der Nähe befinden, schneller erfolgen und Wege und Zeiten verkürzt werden. Ansonsten sind wir jederzeit offen für Wünsche von Anwendern. Bei der Planung einer App lassen sich viele Szenarien, die sich im Alltag ergeben, gar nicht vorhersehen. Deshalb freuen wir uns immer über Rückmeldungen von Nutzern und fordern diese auch aktiv ein.


Weiterführende Informationen
http://www.cape-it.de

Aufmacherbild / Quelle / Lizenz
Photo by Marta Filipczyk on Unsplash

Bauchgefühl oder Fakten

Daten versus Bauchgefühl: Was ist die bessere Grundlage für Entscheidungen?

Führt ein Firmenzusammenschluss wirklich zu den geplanten Einsparungen? Nach welchen Kriterien wählt man die besten Bewerber für eine Position aus? Wird das neue Produkt die Bedürfnisse des Marktes erfüllen? Der Erfolg eines Unternehmens hängt nicht zuletzt davon ab, welche Entscheidungen Manager treffen. Diese Entscheidungen bestimmen, welche Lösungen entwickelt werden, wer eingestellt wird oder wie Ressourcen genutzt werden. Manche von ihnen werden bewusst und auf Basis gründlicher Überlegungen getroffen. Andere sind intuitiv, automatisch und von Emotionen geprägt. Von der Wirtschaftsinformatik über das Wissensmanagement bis hin zur Psychologie und Soziologie beschäftigen sich Experten seit Langem damit, wie Entscheidungen gefällt und damit besser unterstützt werden können: Rational oder emotional?

Fakt ist, rund zweieinhalb Jahrhunderte nach Beginn der Aufklärung mit ihrem wissenschaftlichen, logischen Weltbild, das sich auf Zahlen, Daten und Fakten stützt, gewinnen Emotionen wieder an Bedeutung. Auch deshalb, weil längst erwiesen ist, dass sie bei Entscheidungen eine maßgebliche Rolle spielen. Selbst in den Chefetagen von Unternehmen, wo es eigentlich eher rational – also an Fakten und Zahlen orientiert – zugehen sollte. Studien zeigen immer wieder, dass die Intuition von Managern zu schnelleren Entscheidungen und diese oft sogar zu besseren Ergebnissen führen. Diesem Bauchgefühl liegen Erfahrungen zugrunde, die im Unterbewusstsein abgespeichert sind und die dann für die Entscheidungsfindung bewusst oder unbewusst abgerufen werden.

Auf der anderen Seite stehen heute so viele Daten wie nie zuvor als Grundlage zur Verfügung. Diese Datenmengen können automatisch bezogen, aggregiert und strukturiert werden – und zwar in Echtzeit, was bestenfalls zu effizienteren Entscheidungen durch völlig neue Erkenntnisse führt. Doch egal, wie weit entwickelt Big-Data-Technologien sind, die Entscheidungsfindung wird damit nicht einfacher. Im Gegenteil: Je mehr Optionen man hat, desto wichtiger wird der innere Kompass, der einem die Richtung weist. Ausgerechnet die Verfügbarkeit umfassender Informationen kann Unsicherheit erzeugen.

Autor: Kai Grunwitz,
Geschäftsführer der NTT Ltd. in Deutschland





„Der bestmögliche Entscheidungsprozess entsteht,
wenn menschliche Intuition und Data Analytics Hand in Hand gehen.“


Da hilft auch Künstliche Intelligenz nicht automatisch weiter: Zwar gibt es bei diesen Systemen bestenfalls immer einen klaren Input – eine Frage – und einen klaren Output – ein Ergebnis. Ein gewisses Maß an Intuition können intelligente Maschinen heute aber nur durch die Auswertung riesiger Datenmengen nachahmen und auf Probleme anwenden, die immer in ähnlicher Weise etwa bei der Rechnungsprüfung auftreten.

Daten- und Erfahrungsschätze in Einklang bringen

Wenn Unternehmen allerdings ein nie dagewesenes Risiko einschätzen müssen, können die Verantwortlichen nur sehr begrenzt auf bereits vorhandene Daten und Erfahrungen zurückgreifen. Ähnlich verhält es sich bei Personalentscheidungen: Auch wenn KI eine nützliche Vorauswahl anhand definierter Kriterien treffen kann – im Endeffekt entscheiden immer noch soziale Faktoren wie Auftreten, Teamfähigkeit und Führungsqualitäten, ob ein Kandidat eingestellt wird oder nicht.

Trotzdem würden wohl die meisten Führungskräfte folgenden Satz unterschreiben: Meine Entscheidungen fälle ich rational, abwägend und orientiert an Fakten. Das mag im Finanzbereich, für den unumstößliche Informationen und Daten-KPIs vorliegen, zutreffen. Je weniger valide Fakten und Daten es allerdings gibt, desto stärker beeinflussen Emotionen und andere unbewusste Reaktionen unsere Entscheidung. Ob wir uns für oder gegen ein Produkt entscheiden, ob wir auf einen Werbebanner klicken oder nicht, ist von vielen Faktoren abhängig.

Dasselbe gilt für die Datenauswahl und -auswertung: Kognitive Phänomene und durch Bias „verzerrte“ Vorannahmen sowohl auf Ebene der Informationsaufnahme als auch bei der analytischen Verarbeitung verzerren das Ergebnis von Big-Data-Analysen. Oder anders formuliert: Daten werden gerne so interpretiert, dass sie meine eigenen Erfahrungen und Einschätzung unterstützen.

Natürlich ist das Erfassen, Analysieren und Bewerten großer Datenmengen für die optimale Entscheidungsfindung von Bedeutung. Trotz dieser Faktenlage sind die meisten Entscheidungen aber immer noch bauchgetrieben. Der bestmögliche Entscheidungsprozess entsteht, wenn menschliche Intuition und Data Analytics Hand in Hand gehen.

https://hello.global.ntt/

 

EA Connect Days 2020

LeanIX begrüßt als Veranstalter des führenden Branchenevents für Enterprise Architecture am 2. und 3. September 2020 nationale und internationale Vordenker in Bonn.

Der Mut, Neues zu wagen und seiner Vision zu folgen – auch und besonders in Zeiten des schnellen Wandels: Dieses Thema verbindet die beiden viel gefragten Keynote Speaker bei den EA Connect Days 2020. Der deutsche Technologie-Investor Frank Thelen und der international bekannte NASA-Astronaut Mike Massimino unterstreichen mit ihren Gastbeiträgen die Bedeutung des weltweit führenden Branchenevents für Enterprise Architecture, das seit 2014 regelmäßig vom deutschen IT-Unternehmen LeanIX veranstaltet wird.

Im September werden die EA Connect Days erstmals als kostenfreies hybrides Event stattfinden – mit Vorträgen hochkarätiger Experten, dem Austausch vor Ort im World Conference Center in Bonn und parallel als virtuelles Live-Event, um IT-Verantwortlichen und Enterprise Architekten auf der ganzen Welt unabhängig von der aktuellen Situation die Teilnahme zu ermöglichen.

Keynotes

NASA-Astronaut Mike Massimino

Mike Massimino
Ehemaliger NASA-Astronaut (Teilnahme an zwei Space Shuttle Missionen), Professor an der Columbia Universität, Berater, Autor, Redner und TV-Star (u.a. Rolle in Big Bang Theory)

„Die Technologie in heutigen IT-Abteilungen kann durchaus komplexer sein als die, mit der wir in den Weltraum gelangt sind – und viele Entscheidungen in diesem Bereich haben Einfluss auf die gesamte Welt.“

Wie man in dieser Welt des schnellen Wandels die Erfahrungen aus dem Weltraum nutzen kann, wird Mike Massimino in seiner Keynote aufzeigen. Als ehemaliger NASA-Astronaut beleuchtet er die Themen Kollaboration, Teamwork und Innovation aus der Perspektive seiner Weltraumerfahrungen – und er ist überzeugt, dass genau diese Bereiche entscheidend sind für den Erfolg in einem sich dynamisch wandelnden Umfeld.

Er freut sich auf den Austausch mit IT-Experten, bei denen er eine große Verantwortung sieht: „Die Technologie in heutigen IT-Abteilungen kann durchaus komplexer sein als die, mit der wir in den Weltraum gelangt sind – und viele Entscheidungen in diesem Bereich haben Einfluss auf die gesamte Welt. Ich freue mich sehr darauf, meine Erfahrungen mit den Spezialisten zu teilen, die für solche IT-Architekturen verantwortlich sind.“

Tech-Investor Frank Thelen

Frank Thelen
Europäischer Seriengründer, Technologie-Investor und deutsche TV-Persönlichkeit (u.a. in Höhle der Löwen), Gründer und CEO von Freigeist Capital, Redner und Bestseller-Autor

„Die Teilnehmer der EA Connect Days haben alle Chancen, die Zukunft mitzugestalten.“

Ein leidenschaftliches Plädoyer für ein zukunftsorientiertes Mindset und die Chancen disruptiver Technologien: Das erwartet das Publikum bei der Keynote von Deutschlands prominentestem Investor Frank Thelen. Seit über 25 Jahren treibt Thelen die Gründung von Technologie-Unternehmen voran und richtet den Blick nach vorne.

Über die aktuelle Situation und ihre Bedeutung für die IT-Branche sagt er: „Wir stehen an der Schwelle eines neuen Zeitalters. Zahlreiche Schlüsseltechnologien befinden sich momentan in der Entwicklung. Für IT-Verantwortliche ist es wichtiger denn je, agile Entscheidungen zu treffen und Innovation im Unternehmen zu ermöglichen. Die Teilnehmer der EA Connect Days haben alle Chancen, die Zukunft mitzugestalten.“

Fakten zu den EA Connect Days 2020

WANN?

02. und 03. September 2020

Locations

World Conference Center in Bonn und Kostenfreie Live-Übertragung

Agenda und Registrierung unter:

LeanIX-CEO André Christ ist überzeugt, dass die beiden renommierten Redner den Eröffnungstag der EA Connect Days mit ihrer Begeisterung und Überzeugungskraft prägen werden. Mit Frank Thelen ist er seit vielen Jahren im Austausch und teilt dessen Vision: „In seinem jüngsten Bestseller 10xDNA appelliert Frank Thelen an uns alle, eine neue Art zu denken in unseren Unternehmen zu implementieren – eine Kombination aus innovativer Herangehensweise, kontinuierlichem Fortschritt und dem Fokus auf zukünftigen Generationen. Ich halte das für genau das richtige Leitmotiv, um das Business zukunftsfähig zu machen.“

LeanIX-CEO André Christ


Dass LeanIX mit dem ehemaligen NASA-Astronauten Mike Massimino einen weiteren außergewöhnlichen Gastredner begrüßen kann, freut André Christ sehr: „Mikes besondere Erfahrungen und seine Leidenschaft machen ihn zum perfekten Keynote Speaker bei den EA Connect Days. Er ist eine inspirierende Persönlichkeit: Mike zeigt uns, wie wahre Führungsstärke besonders im Angesicht von Krisensituationen aussieht, und er gibt nie auf, wenn es darum geht, ein lohnenswertes Ziel zu verfolgen.“

Über das Unternehmen

LeanIX stellt der internen IT und den DevOps-Teams eine zentrale, zuverlässige Datenbasis zur Verfügung – um Transparenz über die Gegenwart zu schaffen, geeignete Maßnahmen abzuleiten und die Zukunft in einem verständlichen Geschäftskontext zu gestalten. Die SaaS-Lösungen von LeanIX verfolgen einen kollaborativen Ansatz, liefern schon nach kurzer Zeit belastbare Ergebnisse und ermöglichen dadurch bessere datengetriebene Entscheidungen für eine schnelle Wertschöpfung.

Mit den EA Connect Days veranstaltet LeanIX seit 2014 als Impulsgeber regelmäßig eines der international wichtigsten Branchenevents für Enterprise Architecture. Das Unternehmen mit Hauptsitz in Bonn hat weitere Büros in München, Utrecht (Niederlande), Boston (USA) und Hyderabad (Indien) und beschäftigt weltweit mehr als 230 Mitarbeiter.

https://www.leanix.net/en/

Privacy By Design

Sam Curry, CSO bei Cybereason kommentiert das Urteil des Europäischen Gerichtshofs zum EU-US Privacy Shield, das hat einige Schockwellen ausgelöst hat.

Vor kurzem hat der Europäische Gerichtshof das EU-US Privacy Shield-Abkommen außer Kraft gesetzt, und damit ein mittleres Erdbeben ausgelöst. Das Abkommen diente US-Unternehmen als rechtliches Instrumentarium, um datenschutzrelevante Daten verarbeiten und nutzen zu können, nachdem ein ähnliches Urteil aus dem Jahr 2015 das Safe Harbor-Abkommen gekippt hatte. Die Auswirkungen des jüngsten Urteils sind umfänglich und weitreichend.

In seiner Folge werden Firmen aus allen Branchen sich verstärkt bemühen, Compliance mit Standardvertragsklauseln oder kurz SCC nachzuweisen. Diese Standardvertragsklauseln sind vom Urteil unberührt geblieben und stellen sicher, dass datenschutzbezogene Daten korrekt behandelt werden. Das ist nicht ganz trivial, weil viele Unternehmen auf Software-as-a-Service und die dahinterstehenden Rechenzentren zurückgegriffen haben. Es stellt sich nun die dringende Frage, wie CIOs und CISOs Datenautonomie gewährleisten und wie sie erkennen sollen, welche Anbieter den Umstieg rechtzeitig geregelt bekommen und welche nicht. Allein, um drohende Bußgeldzahlungen zu vermeiden. Mit anderen Worten, welche Anbieter arbeiten nach einem Privacy-by-Design-Prinzip und welche nicht.

Ein Begriff, von dem wir viel hören werden, ist der Terminus Datenhoheit. Dabei handelt es sich um das Prinzip, dass Daten in der nationalen oder sogar regionalen physischen Gerichtsbarkeit verbleiben sollten, um sicherzustellen, dass die Gesetze und Praktiken der Region die letztendliche Autorität bilden. Der Begriff der Datenhoheit ist eng verwandt, aber nicht identisch mit dem Begriff der Datenautonomie. Bei Datenautonomie geht es, vereinfacht ausgedrückt, um Autorität und Kontrolle hinsichtlich der betreffenden Daten. Sie selbst entscheiden, wo diese Daten aufbewahrt und wie sie verwendet werden, wer die Daten ansehen kann und wie sie gegebenenfalls korrigiert werden können. Und nicht zuletzt entscheiden Sie darüber, dass die von Ihnen vorgegebenen Richtlinien so umgesetzt werden, wie Sie es wünschen. Es gibt Überschneidungen zwischen den beiden Konzepten der Datenhoheit und der Datenautonomie, aber sie sind nicht zu 100 % deckungsgleich.

Die SCC sind weit mehr als Formulierungen, die Teil eines Vertrags sind. Sie setzen die Maßstäbe, die sich in der technischen Infrastruktur und den geschäftlichen Praktiken widerspiegeln. Unternehmen müssen in der Lage sein, die Datenautonomie technisch zu gewährleisten, und die geschäftlichen Prozesse müssen so beschaffen sein, dass sie die Vorgaben für die Weiterverwendung von Daten, die Bearbeitung von Ansprüchen und Absichtserklärungen sicherstellen. Wenn Datenstrukturen, Anwendungen, Speicherpraktiken, Anwendungsfälle und andere Interaktionen mit Daten nicht dem Private-by-Design-Konzept entsprechen, wird es schwierig, dem Begriff der Datenhoheit zu entsprechen.


„Wer Privacy-by-Design für sich reklamieren will, der muss gute, umfassende Sicherheitsanforderungen umgesetzt haben. Dazu gehört es auch, Datenautonomie und Datenhoheit frühzeitig mit einzubeziehen.“

Sam Curry

Wir sprechen nun schon seit Jahrzehnten vom Prinzip eines Secure-by-Design: Software sollte so nah wie möglich an der Quelle entwickelt und kodiert werden, um starke Kryptographie verwenden, Identität und Zugriffsberechtigungen sowie Updates und Patches berücksichtigen zu können. Wer Privacy-by-Design für sich reklamieren will, der muss gute, umfassende Sicherheitsanforderungen umgesetzt haben. Dazu gehört es auch, Datenautonomie und Datenhoheit frühzeitig mit einzubeziehen. Es nachträglich zu tun ist nicht nur teuer, sondern auch ausgesprochen schwierig.  

Im Gegensatz dazu ist es vergleichsweise simpel Geschäftsprozesse zu verändern. Die richtigen Mitarbeiter auf die richtigen Positionen zu setzen, Richtlinien zu erstellen und Betriebsabläufe anzupassen – all das bedeutet Arbeitsaufwand, aber der lässt sich innerhalb von einigen Wochen bewältigen. Die zugrunde liegende Architektur zu verändern, kann Jahre dauern. Tut man das erst zu einem späten Zeitpunkt, führt das zu Leistungseinbußen, zu Problemen bei der Verfügbarkeit, zu Funktionseinschränkungen und zu Ansprüchen, die schwer nachzuweisen und schwer zu überprüfen sind. Audits sind erwiesenermaßen gerade dann besonders schmerzhaft, wenn alles auf Hochtouren läuft.

Wenn die interne Überprüfung der Daten abgeschlossen ist, sollte in den Sitzungssälen und im Dialog bewertet werden, welche Daten von Mitarbeitern, Kunden und Partnern in Rechenzentren von Dritten gespeichert sind, die nicht zum Unternehmen selbst gehören. Können Sie mit Gewissheit sagen, wo sich diese Daten befinden und was mit ihnen passiert? 

Dann wird es Zeit für die wirklich schwierigen Gespräche. Anbieter müssen Zeitpläne für eine SCC-Compliance vorlegen. Derzeit sind die Zeichen noch unklar, was genau man brauchen wird, ob Big Data oder maschinelles Lernen (oder sogar KI) die Zusammenführung von Daten erfordert (was nicht der Fall ist) oder ob man versuchen wird, Daten neu zu definieren. Am Ende gibt es immer Ausreden; aber jetzt ist es an der Zeit, sicherzustellen, dass Sie Datenautonomie haben und Datenhoheit durchsetzen können. Datenschutzbeschränkungen und Datenschutzvorgaben werden auf den Prüfstand gestellt werden. Anbieter, unabhängig von ihrem Tätigkeitsbereich, die für die erforderlichen Nachweise keine klaren Zeitvorgaben liefern, sind in Bezug auf den Datenschutz nicht zukunftssicher.

Daten sind kein Besitzrecht. Es ist ein Privileg, mit ihnen zu interagieren. Das EU-Modell wird an Einfluss gewinnen. Selbst wenn wir Privacy Shield 2.0 (Safe Harbor 3.0?) bekommen, wird das IT- und Sicherheitsanbietern, die riesige Datenmengen sammeln, nur vorübergehend Aufschub gewähren. Das Urteil ist ein Weckruf, um sicherzustellen, dass Daten tatsächlich für den Zweck verwendet werden, für den sie erhoben wurden, und nicht für Geschäftsmodelle hinter den Kulissen. Die Datenschutzrevolution geht weiter, und die jüngsten EU-Urteile sind nicht das Ende des Buches. Höchstens das Ende eines Kapitels einer längeren Geschichte. Wir sollten uns bei allem, was wir tun, von den Prinzipien des Privacy-by-Designs leiten lassen. Gerade in einer Welt, in der mehr und mehr Cloud-Dienste und Rechenzentren von Drittanbietern zum Einsatz kommen.

Über Sam Curry

Sam Curry ist seit vier Jahren als Chief Security Officer für Cybereaosn tätig, verfügt über mehr als 25 Jahre Erfahrung in der IT-Sicherheitsbranche und ist Visiting Fellow am National Security Institute. Zuletzt war Sam Curry als CTO, CSO und GM bei Arbor Networks tätig. Zuvor war er mehr als sieben Jahre bei RSA (der Sicherheitsabteilung von EMC) in verschiedenen leitenden Managementpositionen tätig, unter anderem als CTO, SVP of Product und Leiter der RSA Labs. Neben anderen Medien produziert er Security All-In, einen Podcast, der sich auf die persönlichen Geschichten und die Entwicklung von Sicherheitsleuten konzentriert. Sam hatte auch leitende Managementpositionen bei Microstrategy, Computer Associates und McAfee inne und war Mitbegründer und erster Mitarbeiter von zwei erfolgreichen Sicherheits-Startups.

https://www.cybereason.com/

Datenmigrationen als Chance sehen

Datenmigrationen als Chance sehen

von Dr. Tobias Brockmann

Das enorme Tempo der Weiterentwicklung, das die Digitalisierung mit sich bringt, zeigt sich auch in der IT-Architektur eines jeden Unternehmens. Sowohl langfristig geplant als auch ad-hoc ergeben sich Änderungen, Umstellungen, Erweiterungen, die eine Übertragung der Daten in neue Systeme notwendig macht.

Dieser Prozess der Datenmigration ist der perfekte Zeitpunkt, um die Datenqualität zu erhöhen: Mit sauberen Daten legen Sie den Grundstein für eine konsistente Datenlandschaft, die valide Business Insights liefert.

Diverse Projekte machen Datenmigrationen notwendig

Es gibt verschiedene Anlässe für eine Datenmigration. Fusionen und Übernahmen, die neue Systeme in die IT-Architektur einbringen, sind unter den häufigsten Migrationsprojekten. Ob nun ein kompletter Technologiewechsel stattfindet oder ein Konglomerat aus mehreren Systemen geschaffen wird – die Datenlandschaft muss neu gedacht werden.

Auch die Einführung einer neuen Software bzw. das Update auf eine neue Version – wie beispielsweise die ERP-Suite SAP S/4 HANA – stellt Unternehmen vor die Herausforderung, ihre Daten in ein neues Zielsystem zu übertragen. Weitere Anwendungsfälle ergeben sich aus IT-Modernisierungsprozessen wie die Digitalisierung von analogen Prozessen.

Erinnern Sie sich an Ihren letzten Umzug

Die Überführung von Daten aus unterschiedlichen Quellen wie z.B. ERP-Systemen, Excel-Tabellen oder CRM-Systemen, in ein neues Zielsystem nennt sich Datenmigration. Sie ist eine der häufigsten Fehlerursachen für eine schlechte Datenqualität. Eine mangelhafte Datenqualität führt dazu, dass sich Migrationsprojekte verzögern und ihr Budget überschreiten.

Bildlich kann man sich eine Datenmigration wie einen Umzug vorstellen, bei der die Einrichtung von der alten Wohnung in eine neue gebracht wird. Mit den Jahren sammelt sich einiges an Altlasten in einer Wohnung, welche beim Kisten packen kritisch beäugt werden. Hierbei steht man vor der Frage: Sind diese Objekte weiterhin notwendig? Passt dieses und jenes Möbelstück oder die verstaubte Zeitschriftensammlung noch in die neue Wohnung? Kurz gesagt: Es wird ausgemistet!


„Ob ein kompletter Technologiewechsel stattfindet oder ein Konglomerat aus mehreren Systemen geschaffen wird –
die Datenlandschaft muss neu gedacht werden.“

Dr. Tobias Brockmann

Das Keyword zur Beschreibung der Datenmigration lautet „ETL-Prozess“

Um die Daten nach der Migration in hoher Qualität und somit für alle Stakeholder zufriedenstellend vorliegen zu haben, ist eine systematische Vorgehensweise empfehlenswert. Die Fachbereiche des Unternehmens – wichtige Stakeholder im Datenmanagement – sollten von Anfang an in das Projekt einbezogen werden. Den Ablauf einer Datenmigration beschreibt der ETL-Prozess (Extraktion, Transformation, Laden). Die Daten werden aus den vorhandenen Quellsystemen extrahiert. Im nächsten Schritt erfolgt die Transformation und schließlich die Übertragung (das Laden) in das Zielsystem, z.B. eine Datenbank oder ein Data Warehouse.

Dieselben Fragen sollten Sie sich vor einer Datenmigration in Bezug auf Ihre Daten auch stellen. Denn im Vorfeld sorgfältig konsolidierte und an das Zielsystem angepasste Daten erhöhen Ihre Datenqualität merklich!

Beschreibung: Ein Bild, das Essen enthält.

Automatisch generierte Beschreibung

So manch ein IT-Verantwortlicher wird allein bei dem Gedanken an eine anstehende Datenmigration besorgt die Stirn runzeln, denn Kosten und Aufwände können bei unzureichender Vorbereitung und Durchführung der Migration schnell stark ansteigen. Probleme, die bereits in den Quelldaten schlummern, können sich bei der Übertragung in ein neues, komplexeres System potenzieren.

Einige Klippen gilt es zu umschiffen

Die gute Nachricht ist aber: Sie können Datenmigrationen als die Chance betrachten, Ihre Stammdaten auf Vordermann zu bringen. Behandeln Sie die Datenmigration als eigenständiges, strategisches Projekt und überwachen Sie dessen Ablauf genau.

Datenmigration mit Fokus auf Datenqualität ist der Schlüssel zum Erfolg

Insbesondere in Zeiten von Big Data, in denen auf der Basis von Daten grundlegende wirtschaftliche Entscheidungen getroffen werden, erhöht sich die Erfolgswahrscheinlichkeit Ihrer Projekte um ein Vielfaches, wenn die zugrunde liegenden Daten in einer hohen Datenqualität vorliegen.

Holen Sie sich deshalb die Systemanwender und Fachabteilungen ins Boot, die das Quellsystem, seine Daten und letztendlich auch seine Macken genau kennen und untersuchen Sie den Datenbestand gemeinsam. Gehen Sie dabei wie folgt vor:

Schritt 1: Analyse der Quelldaten

Definieren Sie Datenqualitätskriterien, welche die Datensätze erfüllen sollen. Sorgen Sie für die Bereinigung der Quelldaten von Duplikaten.
Meilenstein: Einwandfreie Datenqualität im Quelldatensystem

Schritt 2: Mapping in Zieldatenstruktur

Passen Sie die Struktur der Daten aus dem Quellsystem anhand Ihrer individuellen Regeln an die Datenstruktur im Zielsystem an. Diese Transformation nennt sich Mapping.
Meilenstein: Erfolgreiche Datentransformation

Schritt 3: Konsistenzcheck

Gehen Sie einen Schritt weiter in Richtung optimale Datenqualität, indem Sie ein Tool zum Konsistenzcheck nutzen. Dieses prüft fortlaufend die Datensätze aus beiden Systemen auf ihre Erfüllung der Regeln und bereinigt inkonsistente Daten.
Meilenstein: Eine hohe Datenqualität im Zielsystem.

Viel Erfolg bei Ihrer Datenmigration!

Über den Autor

Dr. Tobias Brockmann ist Mitglied im Fachbeirat des DataCampus und zuständig für das Ressort Stammdatenmanagement. Darüber hinaus engagiert er sich in den Arbeitskreisen BigData und DataQuality der Netzgesellschaft Bitkom.

Weiterführende Informationen:
www.innoscale.de

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Der Staat erleichtert Qualifizierung in der Corona-Krise

Das Qualifizierungschancengesetz: Geförderte Chance auf zukunftssichere Qualifikation in Zeiten „neuer Normalitäten“

Atomausstieg 2022 – wie realistisch ist das Datum?

Blackoutgefahr – es sind noch nicht alle Fragen geklärt, und eine drängt sich immer stärker auf: ist der Atomausstieg 2022 realistisch?

Ingenieure als Krisenhelfer – die Welt nach Corona

Was bedeutet diese neue Normalität für den industriellen Wirtschaftssektor?

Energiewende

Um dem Klimawandel zu begegnen, müssen sich der Energie- und Mobilitätssektor grundlegend ändern.  

Future Store

Die Verknüpfung des Online- mit dem stationären Handel sowie Innovative Shop-Konzepte und Shopping-Lösungen revolutionieren das Einkaufen von morgen.

Künstliche Intelligenz erschafft neue Arbeitswelten

Werden unsere Arbeitsplätze bald durch Maschinen und intelligente Algorithmen ersetzt? Eine neue Studie gibt Entwarnung.

Urteil: US-EU-Datendeal ist unwirksam!

Dies ist ein Gastbeitrag von Dr. Viola Bensinger und Dr. Johanna Hofmann

EuGH setzt dem Datentransfer in die USA auf Basis des EU-US Privacy Shield ein Ende

Mit seinem Urteil im Fall Schrems II erklärte der EuGH den Privacy Shield für unwirksam. Das Abkommen hatte den Transfer personenbezogener Daten aus der EU in die USA vereinfacht, vorausgesetzt, Unternehmen in den USA hatten sich den Bestimmungen des Privacy Shield unterworfen. Vom Urteil betroffen sind nun über fünftausend amerikanische Unternehmen. Aber auch innerhalb der EU wirkt sich die Entscheidung des EuGH aus. Und zwar auf all diejenigen Unternehmen, die einem der genannten US-Unternehmen auf Grundlage des Privacy Shields personenbezogene Daten übermitteln. Das Urteil enthält eine Schelte an die EU Kommission, die laut EuGH so nicht hätte entscheiden dürfen. Unternehmen müssen nun ihre Datenströme in die USA und deren Rechtsgrundlage überprüfen und für diejenigen Datentransfers, die bisher auf den Privacy Shield gestützt wurden, eine andere Grundlage finden. Möglichkeiten gibt es mehrere nach der Datenschutz-Grundverordnung (DSGVO).

Standardvertragsklauseln

Eine dieser Möglichkeiten sind grundsätzlich die sogenannten Standardvertragsklauseln. Deren Wirksamkeit hat der EuGH mit seiner Entscheidung bestätigt. Grundsätzlich sei an den Standardvertragsklauseln nichts auszusetzen. Allerdings sei es Sache der Vertragsparteien (also des übermittelnden Unternehmens in der EU und des Empfängers im Drittstaat), zu beurteilen, ob das Recht des „Empfängerlandes“ der Einhaltung der Standardvertragsklauseln entgegenstehe. Gegebenenfalls seien dann zusätzliche Maßnahmen zu ergreifen, um die Daten abzusichern. Letzten Endes darf das Schutzniveau durch einen solchen Transfer nicht sinken. Kann das im Einzelfall nicht gewährleistet werden, muss der Transfer eingestellt werden. Erfolgt dies nicht, so der EuGH, muss die zuständige Aufsichtsbehörde den konkreten Datenverkehr unterbinden. Gegebenenfalls unter Einbindung des Europäischen Datenschutzausschusses, um eine einheitliche Praxis in allen EU-Staaten zu gewährleisten.

Der Tenor der Entscheidung ist insgesamt wenig überraschend. Wie schon bei der Vorgängerentscheidung, dem sogenannten Safe Harbor Abkommen, das der EuGH 2015 gekippt hatte, kritisiert das Gericht, dass der Privacy Shield den weitreichenden Rechten der US-Nachrichtendienste nichts entgegensetzen kann. Insbesondere eine gerichtliche Überprüfung der nachrichtendienstlichen Verwendung der Daten ist für betroffene Bürger nicht möglich. Das Gefälle des Datenschutzrechts zwischen der EU und den USA ist also zu groß und der Privacy Shield genügt nicht den strengen Anforderungen der DSGVO und der EU Grundrechtecharta.

Darüber hinaus enthält die Entscheidung erfreulicherweise diverse Klarstellungen hinsichtlich der Kompetenzen und Pflichten der Datenschutzaufsichtsbehörden bei der Durchsetzung der DSGVO.

Kein rechtsfreier Raum

Der EuGH schließt sein Urteil mit dem Hinweis, dass durch die Unwirksamkeit des Privacy Shield kein rechtsfreier Raum entstehe, da Artikel 49 DSGVO diverse Möglichkeiten für den Datentransfer in Drittstaaten eröffne. Allerdings sind diese Wege noch lange nicht alle geschaffen und datenverarbeitenden Unternehmen zugänglich. Das ist jetzt dringend erforderlich.

Es wäre zu begrüßen, wenn zum Beispiel die verheißungsvollen DSGVO-Zertifizierungsverfahren erhältlich wären. Diese könnten ebenfalls einen Transfer in Drittstaaten absichern. Für alle Beteiligten wünschenswert bleibt vor allem eines: Rechtssicherheit. Und die ist auch für eine erfolgreiche Digitalisierung vieler Lebensbereiche essenziell. 

Unsere Autoren

Dr. Viola Bensinger

Dr. Viola Bensinger ist Partnerin der internationalen Wirtschaftskanzlei Greenberg Traurig und leitet in Deutschland das Technologie-Team sowie das Litigation-Team, und ist außerdem Co-Chair der globalen Data, Privacy & Cybersecurity Praxisgruppe. Sie berät Unternehmen aus den Bereichen Technologie, Medien und Healthcare in den Bereichen Digitalisierung, (IT-) Outsourcing, Cloud Computing, E-Commerce, digitale Zahlungsdienstleistungen, Datenschutz, Softwarelizenzierungen sowie digitale Medienangebote.

Dr. Johanna Hofmann ist Associate bei Greenberg Traurig. Sie berät deutsche und internationale Unternehmen in allen Fragen des Datenschutz- und des IT-Sicherheitsrechts. Dabei liegen die Schwerpunkte ihrer Tätigkeit in der datenschutzkonformen Gestaltung interner (Konzern-)Strukturen und Geschäftsbeziehungen, sowohl auf nationaler als auch auf internationaler Ebene sowie in den Bereichen Digitalisierung, (IT-) Outsourcing, Cloud Computing, E-Commerce und Zertifizierung.

Dr. Johanna Hofmann

Digital Workplace: 6 Tipps, wie der Wandel gelingt

Unternehmen sind heute mehr denn je gefordert, ihren Mitarbeitern einen flexiblen Arbeitsplatz einzurichten, der die individuellen Bedürfnisse in den Mittelpunkt rückt. Die passende IT-Ausstattung bereitzustellen, ist allerdings nur ein erster Schritt hin zu einem erfolgreichen Digital-Workplace-Konzept. Dell Technologies nennt sechs Punkte, die Unternehmen beachten sollten, damit der Kulturwandel gelingt.

Sechs beachtenswerte Punkt beschreibt Stéphane Paté, Senior Vice President und General Manager bei Dell Technologies Deutschland

Der starre Büroalltag, geprägt von festen Arbeitswegen, -zeiten und -orten, löst sich immer mehr auf. Die Mitarbeiter erwarten heute die Möglichkeit, flexibel an jedem Ort und zu jeder Zeit produktiv zu arbeiten. Das setzt auf Unternehmensseite viel mehr als nur die Ausstattung mit modernen Arbeitsgeräten voraus, sondern erfordert auch einen echten Kulturwandel. 

Folgende Punkte sollten Unternehmen bei der Realisierung eines Digital Workplace beachten:

  1. Bedürfnisse des Einzelnen erkennen. Jeder Mitarbeiter hat individuelle Anforderungen, die bei der Ausstattung des Arbeitsplatzes berücksichtigt werden müssen. Ein One-size-fits-most-Ansatz reicht nicht aus – vielmehr müssen die IT-Verantwortlichen auf eine Art „Employee Journey“ gehen und herausfinden, wie die einzelnen Mitarbeiter jeden Tag durch ihre Aufgaben und Entscheidungen navigieren, welche Kommunikationswege sie nutzen und wie sie Technologien einsetzen. Ziel ist, die IT an jedem Arbeitsplatz flexibler, nutzerfreundlicher und damit letztlich produktiver zu gestalten. 
  2. Passende Technologie bereitstellen. Basierend auf diesem „technologischen Fußabdruck“ werden entsprechend Systeme und Anwendungen ausgewählt. Dazu gehören die Ausstattung der Mitarbeiter mit modernen mobilen Arbeitsgeräten, ihre umfassende Vernetzung sowie der Einsatz digitaler Kommunikationsmittel wie Messenger, Video-Chat-Systeme oder Conferencing-Tools. Die meisten Wissensarbeiter nutzen längst leistungsfähige Werkzeuge und Anwendungen auf ihren persönlichen Geräten und haben daher dieselben Erwartungen an ihre berufliche Arbeitsumgebung. 
  3. IT-Konsum vereinfachen. Endnutzer können über ein Selbstbedienungs-Portal ihr individuelles Portfolio aus Unternehmensanwendungen sowie freigegebenen Apps und SaaS-Lösungen zusammenstellen und per Single Sign-on von jedem Gerät aus darauf zugreifen. Dank einer solchen Unified-Workspace-Lösung können personalisierte Clients vorkonfiguriert, vorinstalliert und mit allen benötigten Anwendungen und Sicherheitsfunktionen ausgeliefert werden. Dadurch wird auch die IT-Abteilung über den gesamten Lebenszyklus hinweg von ansonsten zeitaufwendigen Aufgaben entlastet. 
  4. Sicherheit hat Vorrang. Werden Daten über die verschiedensten Geräte und in den unterschiedlichsten Netzen genutzt, stoßen herkömmliche Sicherheitsmaßnahmen schnell an ihre Grenzen. Abhilfe verspricht ein mehrschichtiger Ansatz, bei dem zuerst einmal das Mobilgerät mit modernen Anti-Viren- und Anti-Malware-Lösungen vor Schadsoftware und mittels unterschiedlicher Authentifizierungsmaßnahmen bei Verlust oder Diebstahl vor Missbrauch durch Fremde geschützt wird. Um sicherzustellen, dass die Zugriffe auf Unternehmensressourcen abgesichert sind und die Verwendung von mobilen Apps und Cloud-Diensten nicht zu einem Risiko wird, ist eine Unified-Workspace-Lösung ebenfalls hilfreich: In Übereinstimmung mit zuvor definierten Richtlinien greifen die Endgeräte auf das Firmennetz zu. Durch diesen Ansatz können Unternehmen sogar die privaten Rechner und Smartphones ihrer Mitarbeiter, die beruflich genutzt werden, sicher vernetzen. 
  5. Kommunizieren, kommunizieren und nochmal kommunizieren. Es ist wichtig, alle Mitarbeiter bei der Umstellung zum Digital Workplace miteinzubeziehen. Die Akzeptanz und Nutzung neuer Tools und Lösungen nimmt deutlich zu, sobald deren Mehrwert erkannt wird. Gleichzeitig müssen die Mitarbeiter mit den Sicherheitsstrategien vertraut gemacht und für die Gefahren von Social Engineering sensibilisiert werden. Für die Arbeit in Remote-Teams braucht es darüber hinaus ein neues Mindset aller Team-Mitglieder und Führungskräfte, damit Prozesse nicht nur virtuell, sondern auch effizient und ohne große Motivations- und Koordinationsverluste ablaufen. Manchen Mitarbeitern fällt die ungewohnte Arbeitsweise schwer – immerhin bedeuten Freiheit und Flexibilität auf der einen Seite ein hohes Maß an Eigenverantwortung auf der anderen –, andern fehlt ein positives emotionales Erlebnis. Führungskräfte wiederum müssen lernen, ihr Kontrollbedürfnis herunterzufahren. Remote-Mitarbeiter sind schlichtweg nicht sichtbar für den Chef. 
  6. Den Team-Gedanken großschreiben. Wenn Kollegen sich nicht mehr an der Kaffeemaschine oder in der Kantine treffen, geht der schnelle Austausch verloren. Einfache Dinge wie virtuelle Mittagspausen oder Cocktailstunden zum Feierabend sind gute Möglichkeiten, Beziehungen außerhalb von Projekten zu pflegen. Um die Interaktion zwischen Bürobelegschaft und virtuellen Kollegen zu vereinfachen, können auch extra Meeting-Plätze sinnvoll sein. 
Stéphane Paté, Senior Vice President und General Manager bei Dell Technologies Deutschland

„Unternehmen aller Branchen müssen sich mehr denn je mit dem Wandel zum digitalen Arbeitsplatz auseinandersetzen, um wettbewerbsfähig zu bleiben. Digitale Technologien und neuartige Konzepte bestimmen immer stärker unsere Arbeitsweise und werden von vielen Arbeitnehmern als Selbstverständlichkeit vorausgesetzt“, erklärt Stéphane Paté, Senior Vice President und General Manager bei Dell Technologies Deutschland. „Die Diskussion um den Arbeitsplatz der Zukunft aber nur über Technologien, Devices und Applikationen zu führen, greift zu kurz. Natürlich ist eine moderne IT-Infrastruktur der Grundpfeiler für ein flexibles, ortsunabhängiges Arbeiten. Doch ohne einen echten Kulturwandel wird es schwierig, alle Beteiligten gleichermaßen mit ins Boot zu holen und die Modernisierung des Arbeitsplatzes voranzutreiben.“

Weitere Informationen unter:
http://www.delltechnologies.com/

Ohne Daten kein New Work

New Work verlangt Organisation. Organisation basiert auf Daten. Daten sollten im Unternehmen jedem Mitarbeitenden so zur Verfügung stehen, dass sie auch genutzt werden können. André Christ, CEO von LeanIX, erläutert diesen Zusammenhang im Interview mit der TREND REPORT-Redaktion.

Herr Christ, welche Lehren sollten Unternehmen aus Ihrer Sicht aus der Krise ziehen – besonders im Hinblick auf ihre Mitarbeiter?
Unternehmen müssen es ermöglichen, dass die relevanten Daten ihren Mitarbeitern zur Verfügung stehen – egal wann und egal wo. Der Zugriff von außen darf zum Beispiel nicht geblockt werden. Wie wichtig das ist, hat uns die aktuelle Situation mit Millionen von neuen, ungeplanten Arbeitsplätzen zuhause drastisch vor Augen geführt. In den letzten Jahren haben wir viel über Customer Experience gesprochen. Ich glaube, zukünftig wird es immer wichtiger werden, auch über das Thema Employee Experience zu reden. Das hat unglaublich viel mit Daten und dem Umgang damit zu tun, es geht um unkomplizierte Bereitstellung und um intuitive Nutzbarkeit. Ich glaube, das ist eine der Lehren aus der COVID-19-Krise, denn genau diese positive Employee Experience hat an vielen Stellen gefehlt und Probleme verursacht.

New Work und „Enterprise Architecture Management“: Wo ist der Zusammenhang?
New Work bedeutet, agil zu sein und schnell auf Veränderungen reagieren zu können. New Work braucht Organisation: Unternehmen müssen ihre Mitarbeiter in die Lage versetzen, Antworten auf vergleichsweise einfache Fragen selbst zu finden. Wie schon gesagt ist der Zugriff auf Daten notwendig – aber auch auf die Infrastruktur. Mitarbeiter wollen wissen: Welche Lösungen helfen mir, produktiver zu sein? Was bietet mein Unternehmen eigentlich für Tools an? Und daraus resultieren weitere Überlegungen: Wo bekomme ich welche Software? Wer ist dafür verantwortlich oder wen kann ich fragen? Wo gibt es mehr Ressourcen? All diese Fragen sollten heute auf Knopfdruck zu beantworten sein, gerade auch für Mitarbeiter aus dem Home Office. Ein gut funktionierendes Enterprise Architecture Management hat Zugang zu genau diesen Informationen. Jetzt geht es darum, diese Daten für alle verfügbar zu machen. Ich sehe eine große Chance in Self-Service-Portalen, über die Mitarbeiter auf relevante Applikationen zugreifen und dadurch selbständig agieren können. Diese Möglichkeit bietet LeanIX seit kurzem seinen Kunden als kostenfreie Zusatzfunktion an. Denn ich bin überzeugt davon, dass die Stärkung von Mitarbeiter-Kompetenzen ein wichtiger Faktor für den Unternehmenserfolg ist.

New Work und die digitale Transformation sind untrennbar miteinander verbunden. Sehen Sie hier Auswirkungen der letzten Wochen und Monate?
Auf jeden Fall: Ich denke, es sind gerade mehrere Jahre an digitaler Transformation in wenigen Wochen zusammengeschoben worden. Anwendungen wie Zoom, Slack oder Microsoft Teams werden mittlerweile extrem gut verstanden und selbstverständlich eingesetzt, weil man täglich mit ihnen konfrontiert ist. Das ist bei allem Negativen eine der wenigen positiven Auswirkungen der Pandemie. Nun muss sich dem aber in Unternehmen auch ein modernes Verständnis anschließen. Wir müssen uns fragen, welche neuen Führungsmechanismen es vielleicht braucht, wie man mehr Transparenz bei der Erreichung von Zielen und in der Führung von Mitarbeitern schafft. Für uns bei LeanIX war das immer schon ein Thema – nicht nur intern. Unsere Software-Lösungen verfolgen einen starken kollaborativen Ansatz. Das spiegelt sich auch in der Struktur unserer Kunden wider, die überwiegend sehr offen sind für einen transparenten Führungsstil.

Welche Rolle spielt nun noch das Büro?
Die Frage kann man nur höchst individuell beantworten. In Unternehmen, in denen die Interaktion der Mitarbeiter von essenzieller Bedeutung ist, wird das Büro auch weiterhin eine wichtige Rolle spielen – allein als Begegnungsstätte. In der Zusammenarbeit mit Menschen wird ja auch das soziale Miteinander deutlich. Deswegen würden wir zum Beispiel unser Büro nicht kündigen, weil für uns der direkte Austausch mit Menschen enorm wichtig ist. Ich glaube, dass es das ist, was ein Unternehmen zusammenhält. Aber schon vor der Pandemie gab es Unternehmen mit zahlreichen Standorten, die mit Lösungen wie Microsoft Teams oder Slack jetzt vielleicht nochmal neue Impulse für die Organisation bekommen haben. Diese Anwendungen beinhalten ja auch ein starkes soziales Element.

Wenn Sie jetzt noch mal auf Ihr Unternehmen schauen: Worin besteht der Reiz, bei LeanIX zu arbeiten – unabhängig von Home Office oder Büro-Arbeitsplatz?
Wir arbeiten mittlerweile mit 300 internationalen und renommierten Kunden – von A wie Adidas bis Z wie Zalando. Wir haben also eine Relevanz für global agierende, spannende Unternehmen. Das ist natürlich auch für potenzielle Mitarbeiter attraktiv. Vor allem, weil sie in unserem dynamischen, jungen Unternehmen kurze Wege vorfinden und deshalb auch Hand in Hand mit den großen Organisationen arbeiten. Sie können sehr schnell verschiedene Rollen kennen lernen und bei LeanIX Verantwortung übernehmen. Unsere Mitarbeiter haben die Chance, am Aufbau eines eigenständigen großen Technologie-Unternehmens mit weltweiter Bedeutung mitzuwirken. Das ist ein interessantes Gesamtpaket. 

Sie bewegen sich mit ihren Produkten in einem spannenden, aber auch komplexen Geschäftsfeld. Ist es in diesem Kontext ein Nachteil, dass das Unternehmen in Bonn und nicht im Silicon Valley sitzt?
Nein – denn unsere Kundenliste, über die ich gerade schon gesprochen habe, beweist das Gegenteil. Darüber hinaus machen wir schon heute knapp 40% unseres Umsatzes im US-amerikanischen Markt. Vor wenigen Tagen haben wir eine Series D Finanzierungsrunde mit 80 Millionen US-Dollar Kapital abgeschlossen, unter Führung von Goldman Sachs. Es ist ja kein Gesetz, dass alle Innovationen in den USA erfunden werden müssen – da reicht schon ein Blick auf SAP mit Sitz in der badischen Provinz. LeanIX ist übrigens genau 40 Jahre nach SAP gegründet worden und wir sind überzeugt, dass auch wir unsere eigene Erfolgsstory made in Germany schreiben werden. Wir sehen uns als Partner, um den digitalen Wandel bei unseren Kunden zu beschleunigen und dabei die Mitarbeiter in den Prozess zu involvieren.

Weitere Informationen unter:
www.leanix.net

Förderung des Mittelstandes durch Sachbezugskarten

Arbeitgeber können ihren Mitarbeiterinnen sogenannte Sachbezugsleistungen zukommen lassen. Diese sind bis dato steuerfrei und aktuell sollten sie sogar helfen, die Corona-Folgen für Mitarbeiter etwas einzudämmen, indem die Freibeträge angehoben werden sollten. Allerdings wurden die entsprechenden Regelungen in welcher Form diese Sachbezugsleistungen anerkannt wurden, immer wieder unterschiedlich von Finanzämtern interpretiert. Dies sorgt für Unsicherheit bei Unternehmen. Patrick Löffler, CEO von givve – einem Anbieter von Prepaid-Kartenlösungen für Sachbezugsleistungen – erläutert im Interview mit der Redaktion die Problematik.

Herr Löffler, können Sie uns nochmals kurz den aktuellen Stand hinsichtlich Sachbezug und Kreditkarten schildern?
Seit dem 1. Januar 2020 gilt ein eine Neufassung des § 8 Einkommensteuergesetz (EStG). Darin ist der Sachbezug geregelt. Das Gesetz bedarf einer genauen Anwendungsbeschreibung seitens des BMF. Aktuell bekommen wir sowohl negative als auch positive Anrufungsauskünfte von den einzelnen Finanzämtern. Es gibt in Deutschland über 640 Finanzämter und jedes Finanzamt interpretiert dieses Gesetz momentan anders. Seit Mitte Juni gibt es einen Entwurf für dieses Klarstellungsschreiben seitens des BMF. Dieser Entwurf ist negativ für die ganze Branche. Er wurde an verschiedene Wirtschafts- und Branchenverbände verschickt, die bis zum 3. Juli Zeit hatten, dem BMF ihre Meinung dazu mitzuteilen. Das haben sehr viele Verbände in Anspruch genommen. Auch seitens der Politiker gab es Druck, unsere Prepaid-Karten nach wie vor als Sachbezug anzuerkennen. Momentan warten wir täglich auf Feedback vom BMF.
 
Was ist daran aus Ihrer Sicht problematisch? Wie beurteilen Sie die Auswirkungen, sollten die Regelungen so umgesetzt werden?
Der derzeitige Entwurf begünstigt in erster Linie wenige große Online-Händler. Der Grund hierfür: Der Einsatz von Gutscheinen und Gutscheinkarten wird im stationären Einzelhandel an Attraktivität verlieren, wenn die Akzeptanzstellen für Sachbezugslösungen (Karten oder Gutscheine) weiter eingeschränkt werden. Profitieren jedoch wenige internationale Online-Konzerne, bleiben die Umsätze in den Städten aus. Dadurch würden wiederum Steuereinnahmen verlorengehen. Außerdem beseitigt der vorliegende Entwurf des BMF die zuletzt fehlende Rechtssicherheit bei der Ausgabe von Sachbezugskarten aufgrund immer noch vorhandener unklarer Begrifflichkeiten nicht. „Der Schluss liegt nahe, dass die Anwendungspraxis von Finanzamt zu Finanzamt weiterhin unterschiedlich sein wird“, erklärt Jonny Natelberg, Geschäftsführender Vorstand des Prepaid Verbandes Deutschland (PVD). „In der momentan laufenden Konsultation verfolgen wir daher engagiert eine praktikable Lösung. Diese muss im Sinne der ca. sechs Millionen Arbeitnehmerinnen und Arbeitnehmer ausfallen, die derzeit zusätzlich zu ihrem Gehalt Prepaid-Karten als Sachbezug erhalten.“

Die Ausgestaltung von Sachbezugsleistungen als Kreditkarte ermöglicht eine breite Akzeptanz im Einzelhandel – da Kartenzahlung fast überall akzeptiert wird.

Wie würde denn eine Lösung aussehen, welche die Vorteile digitaler Abrechnungsmöglichkeiten nutzt?
Dazu haben verschiedene Politiker und viele politische Verbände klar Stellung bezogen. Je offener ein Sachbezugsprodukt ausgestaltet ist, desto lokaler wird es eingesetzt. Die givve Card ist das perfekte Mittel, um den Klein- und Mittelstand in Deutschland zu fördern. Das ist nur möglich, da der Karteneinsatz der givve Card nicht auf bestimmte Handelsketten begrenzt ist. Der überwiegend lokale Einsatz der Karten ergab sich aus einer Analyse von 3 Mio. Transaktionen (im Zeitraum 01.04.2019 – 01.04.2020) mit einem Gesamtwert von über 100 Mio. €. 

Wie können sich Unternehmen jetzt schon vorbereiten – oder müssen sie „abwarten“?
Wir haben natürlich einen Plan B vorbereitet. Sollte das BMF auf eine weitere Einschränkung bestehen, können wir die Karten „over the air“ dementsprechend anpassen. Am besten melden die Arbeitgeber, die unser Produkt nutzen, das ihrem Finanzamt. Die meisten Finanzämter sind kooperativ. Mehrere Finanzausschuss-Mitglieder des aktuellen deutschen Bundestages haben sich ganz klar gegen eine nachträgliche Versteuerung ausgesprochen. Wir sind nahe dran und, dank intensiver Lobbyarbeit, mittendrin. Wir halten unsere Kunden stetig auf dem neuesten Stand.

Weitere Informationen unter:
www.givve.com

Ausblick: EuGH entscheidet über Datenströme in die USA

Dies ist ein Gastbeitrag von Dr. Viola Bensinger und Dr. Johanna Hofmann

Am 16. Juli 2020 ist es endlich soweit: Der Europäische Gerichtshof (EuGH) verkündet sein lang erwartetes Urteil in Sachen Irische Datenschutzbehörde gegen Schrems.

Seit 2013 streiten die Parteien nunmehr vor Gericht über die Rechtmäßigkeit der Übertragung personenbezogener Daten der Nutzer eines sozialen Netzwerks aus der EU zu dessen Mutterkonzern in den USA. Es besteht Hoffnung, dass der EuGH der Odyssee nun ein Ende bereitet und für Klarheit sorgt.

Auf dem Spiel steht dabei nicht weniger, als ein Großteil des Datenverkehrs aus dem Europäischen Wirtschaftsraum (EWR) in Drittstaaten, wie eben den USA. Eines steht fest – die Übertragung personenbezogener Daten in Staaten, die nicht zum EWR zählen, erfordert besondere Aufmerksamkeit und Sorgfalt. Genügt ein Datentransfer nämlich nicht den Anforderungen aus Art. 44 ff. DSGVO, drohen erhebliche Bußgelder und gegebenenfalls sogar Schadensersatz und zwar für jede einzelne Verarbeitungssituation.

Das letzte EuGH-Urteil, das der österreichische Datenschutzaktivist Maximilian Schrems im Jahr 2015 erwirkt hatte, brachte jedenfalls das zwischen der EU und den USA ausgehandelte Safe-Harbor-Abkommen zu Fall (dem sich Unternehmen in den USA unterwerfen konnten, um angemessenen Schutz für aus dem EWR empfangene Daten zu bieten) und entzog somit dem darauf gestützten Datenverkehr die Grundlage. Nunmehr steht das Nachfolgeabkommen, der sogenannte Privacy Shield, auf dem Prüfstand. Hinterfragt werden zudem die sog. Standardvertragsklauseln der EU Kommission, die zwischen dem Datenübermittler im EWR und dem Empfänger im Drittstaat vereinbart werden können, um eine konkrete, individuelle Übermittlung abzusichern.

Die Beantwortung der dem EuGH nunmehr vorgelegten Fragen dürfte weitreichende Konsequenzen haben und sollte all jene Unternehmen interessieren, die ihre Datenübermittlung auf Privacy Shield oder Standardvertragsklauseln stützen. Sollte der EuGH zu dem Schluss kommen, dass eines der beiden oder gar beide Instrumente personenbezogene Daten aus der EU nicht ausreichend schützen, muss etwas Neues her. Dann müssen Unternehmen ihre Datenübermittlung in Drittstaaten grundsätzlich überdenken.

Folgt der EuGH allerdings der Einschätzung des Generalanwalts, in seinen (für das Gericht nicht bindenden) Schlussanträgen, halten sich die Folgen in Grenzen. Der Generalanwalt ist nämlich der Meinung, dass über die Wirksamkeit des Privacy Shield überhaupt nicht zu entscheiden sei. Lediglich für den Fall, dass der EuGH diese Vorfrage anders entscheidet, hat er Zweifel geäußert, dass der Privacy Shield angesichts der weitreichenden Tätigkeiten der US-amerikanischen Nachrichtendienste und Mängeln beim Individualrechtsschutz ausreiche.

Auch die Standardvertragsklauseln sollte der EuGH aufrecht erhalten, wenn es nach dem Generalanwalt geht. Denn die Klauseln seien nicht an sich ungenügend, ihre Eignung im konkreten Fall und die Einhaltung müsse aber von den Vertragsparteien sichergestellt und überprüft werden. Die Klauseln können übrigens ohnehin nur eine Übermittlung rechtfertigen, wenn sie nicht mit den Regeln im Bestimmungsland kollidieren. Ob dies der Fall ist, müssen die Vertragsparteien prüfen.

Der Generalanwalt hat insoweit auf die weitreichenden Prüfpflichten der Vertragsparteien verwiesen, die beim Datentransfer in Drittstaaten neben den üblichen kontinuierlichen Prüf- und Kontrollpflichten aus der DSGVO bestehen. Zu berücksichtigen seien dabei sämtliche Umstände der einzelnen Übermittlung, einschließlich der Art der Daten, bestehender Sicherheitsvorkehrungen der Parteien, Art und Zweck der Verarbeitung der Daten durch die Behörden des Bestimmungslandes, Modalitäten dieser Verarbeitung und die vom Bestimmungsland sichergestellten Grenzen und Garantien. Diese Prüfung erfordert nicht nur vertiefte Rechtskenntnisse der Rechtsordnung des Bestimmungslandes, sondern zudem auch Kenntnis der dortigen tatsächlichen Verhältnisse der Datenverarbeitung durch (Ermittlungs-)Behörden. Außerdem müssen die Entwicklungen kontinuierlich beobachtet und Prüfergebnisse gegebenenfalls später aufgrund veränderter (tatsächlicher oder rechtlicher) Umstände angepasst werden. Stellen die Parteien nach einer solchen Prüfung eine Kollision zwischen Standardvertragsklauseln und dem Recht des Bestimmungslandes fest, muss eine bereits begonnene Übermittlung ausgesetzt werden. Wird die Übermittlung trotz Kollision auf die Klauseln gestützt, droht ein (nicht unerhebliches) Bußgeld durch die Aufsichtsbehörden und gegebenenfalls zudem Schadensersatzansprüche von Betroffenen.

Handlungsempfehlung

Selbst wenn der EuGH der Empfehlung des Generalanwalts folgt, und die Standardvertragsklauseln nicht kassiert, sollten Unternehmen prüfen, ob diese überhaupt eine taugliche Grundlage darstellen. Diese Prüfung sollte dokumentiert werden, um sie bei Aufforderung der Aufsichtsbehörde vorlegen und damit den Pflichten nach der DSGVO entsprechen zu können.

Unabhängig von der Entscheidung des EuGH ist zu erwarten, dass die Kommission zeitnah neue Standardvertragsklauseln vorlegen wird. Bis dies geschieht, sollten Unternehmen bei Neuabschlüssen die Aufnahme einer dynamischen Klausel in den Vertrag erwägen, durch die der Abschluss eventueller Nachfolgeklauseln ermöglicht wird.

Erklärt der EuGH den Privacy Shield für ungenügend, sollten Unternehmen, die personenbezogene Daten an Privacy-Shield-zertifizierte Empfänger in den USA schicken, zeitnah nach einer Alternative suchen.

(Schnelle) Alternativen stehen derzeit nicht wirklich zur Verfügung: Neben dem Privacy Shield (der ohnehin nur für die USA gilt) und den Standardvertragsklauseln kann man grundsätzlich einen Datentransfer in Drittstaaten auch durch andere Methoden wie von den EU-Aufsichtsbehörden genehmigte Zertifizierungsmechanismen absichern. Für solche Verfahren gibt es zwar verschiedene Initiativen, die sich aktuell allesamt aber noch in der Entwicklung befinden. Für Konzern-interne Übertragungen in Drittstaaten stehen außerdem sog. Binding Corporate Rules zur Verfügung; deren Aufsetzen kann aber langwierig sein, da sie ggf. von mehreren EU-Aufsichtsbehörden genehmigt werden müssen. Es dürfte zu erwarten sein, jedenfalls aber zu hoffen, dass die Aufsichtsbehörden im Falle einer entsprechenden Entscheidung des EuGH schnell und flexibel reagieren – denn niemand dürfte ein Interesse daran haben, den Datenverkehr in Drittstaaten lahmzulegen. 

Über Dr. Viola Bensinger

Dr. Viola Bensinger ist Partnerin der internationalen Wirtschaftskanzlei Greenberg Traurig und leitet in Deutschland das Technologie-Team sowie das Litigation-Team, und ist außerdem Co-Chair der globalen Data, Privacy & Cybersecurity Praxisgruppe. Sie berät Unternehmen aus den Bereichen Technologie, Medien und Healthcare in den Bereichen Digitalisierung, (IT-) Outsourcing, Cloud Computing, E-Commerce, digitale Zahlungsdienstleistungen, Datenschutz, Softwarelizenzierungen sowie digitale Medienangebote.

Über Dr. Johanna Hofmann

Dr. Johanna Hofmann ist Associate bei Greenberg Traurig. Sie berät deutsche und internationale Unternehmen in allen Fragen des Datenschutz- und des IT-Sicherheitsrechts. Dabei liegen die Schwerpunkte ihrer Tätigkeit in der datenschutzkonformen Gestaltung interner (Konzern-)Strukturen und Geschäftsbeziehungen, sowohl auf nationaler als auch auf internationaler Ebene sowie in den Bereichen Digitalisierung, (IT-) Outsourcing, Cloud Computing, E-Commerce und Zertifizierung.

Weitere Informationen unter:
https://www.gtlaw.com/de

Europäische Software macht den Unterschied

Dies ist ein Gastbeitrag von Andrea Wörrlein, Verwaltungsrätin bei der VNC AG (Schweiz) und Geschäftsführerin bei der VNC GmbH

Die europäische Software-Industrie lebt und entwickelt sich zur offenen, sicheren und nutzerorientierten Alternative zu den Angeboten US-amerikanischer Anbieter. Bestes Beispiel dafür ist das schweizerisch-deutsche Unternehmen VNC.

Die ganze IT-Welt wird von amerikanischen Software-Giganten beherrscht. Die ganze IT-Welt? Nein, nicht die ganze! Wer sich in der europäischen IT-Szene umschaut, findet eine Reihe von mittelständischen Software-Unternehmen, die den Großen entschlossen Paroli bieten und sich mit innovativen Produkten und Geschäftsmodellen gegen die totale Abhängigkeit von amerikanischen Anbietern stemmen. Und das, anders als das berühmte gallische Dorf, nicht mit einem Zaubertrank, sondern mit cleveren Lösungen, schlanken Firmenstrukturen und weltweiten Partnerschaften.

Exemplarisch für diese lebendige Szene steht das im schweizerischen Zug beheimatete Software-Unternehmen VNC (Virtual Network Consult). Für die Entwicklung und Vermarktung seiner Lösungen setzt es auf eine virtuelle Organisation, eine dislozierte vernetzte Entwicklergemeinde und das Open-Source-Modell als technologische Basis aller Software-Lösungen.

Open Source als technologische Basis

Open Source steht für offene Quellcodes, und damit in diametralem Gegensatz zu Closed-Source-Anbietern wie Microsoft oder Oracle, die ihre Codes ähnlich ängstlich hüten, wie die USA ihre Goldreserven in Fort Knox. Open Source ist anders: Software-Codes werden rund um die Welt geteilt und gemeinsam weiterentwickelt. Sämtliche Änderungen stehen allen Beteiligten umgehend zur Verfügung, sei es zur eigenen Nutzung oder zur Optimierung der eigenen Produkte. Das hat unschlagbare Vorteile bei der Agilität, Flexibilität und Geschwindigkeit, mit der auf Marktveränderungen reagiert, und Innovationen entwickelt werden können. Deshalb arbeitet VNC mit einer engagierten Community zusammen, die über die ganze Welt verteilt ist: von den Britischen Inseln bis nach Vietnam.

Produkt-Suite ohne Silos

Auf dieser offenen Basis hat VNC die umfangreiche Produktsuite VNClagoon entwickelt, die alle Aspekte für Kommunikation und Kollaboration im Unternehmen abdeckt. Zum Funktionsumfang zählen unter anderem E-Mail, Messenger, Office-Paket, Projekt-Management, Enterprise Resource Planning (ERP), Customer Relationship Management (CRM) und Videoconferencing. Im Gegensatz zu bekannten Konkurrenz-Produkten sehen sich Anwender dabei keinem Flickwerk selbstentwickelter und zugekaufter Teillösungen gegenüber, deren mangelhafte Interoperabilität mit Kommunikations- und Medienbrüchen nervt. Alle Funktionalitätspakete basieren vielmehr auf der gleichen technischen Plattform, sind miteinander kompatibel, und unter einer gemeinsamen Oberfläche synchron steuer- und bedienbar.

Unternehmen und Anwender haben dabei die große Freiheit bei den Bereitstellungsmodellen. Die Software kann als traditionelles Lizenzprodukt (on-premises) erworben werden, ist aber auch als Cloud-Software über ein hochsicheres VNC-eigenes Rechenzentrum oder zertifizierte europäische Provider verfügbar. Durch das SaaS-Modell (Software-as-a-Service) fallen dabei nur monatliche Raten für die Nutzung an. Sogar Whitelabeling ist möglich. Kunden und Partner können die Software so unter ihrem eigenen Namen und Logo nutzen oder weitervermarkten.

Sharing als durchgängiges Prinzip

Der VNC-Ansatz ist nicht nur ein effizienter Weg zur Entwicklung innovativer Software nach dem Open-Source-Modell. Er ist auch eine faire Art, Erlöse zu generieren und zu teilen, im Sinne einer Social Economy, bei der das Sharing im Vordergrund steht. Als virtuelle Organisation arbeitet VNC mit Kernteams in der Schweiz und in Deutschland. Sie steuert die global verteilten Softwarespezialisten für die Produktentwicklung und ist verantwortlich für die strategische und operative Planung, das Produktdesign sowie die Qualitätsprüfung und -sicherung. Damit steht VNC exemplarisch für die Vorzüge der europäischen IT-Branche, die mit offener Software, weltweit vernetzten Teams und disruptiven Geschäftsmodellen erfolgreich ein Gegengewicht zur Dominanz US-amerikanischer Anbieter schafft.

Über die Autorin

Andrea Wörrlein hat Amerikanistik, Psychologie und Kommunikationswissenschaften an der Friedrich-Alexander-Universität Erlangen-Nürnberg studiert. Seit 1992 ist sie Geschäftsführerin der VNC – Virtual Network Consult GmbH mit Sitz in Berlin. Heute lebt sie in der Schweiz und ist Mitglied des Verwaltungsrates der VNC – Virtual Network Consult AG in Zug.

Weitere Informationen unter:
https://vnclagoon.com/de/