Designing Data Trusts

Why We Need to Test Consumer Data Trusts Now

Policy Brief

Daten über Personen, ihre Vorlieben und ihr Verhalten werden für Unternehmen, Behörden und Forschungseinrichtungen zu einer immer wichtigeren Ressource. Verbraucher:innen müssen entscheiden, welche der Daten über sie zu welchem Zweck weitergegeben werden. Dabei möchten sie einerseits sicherstellen, dass diese nicht dazu verwendet werden, vertrauliche Einzelheiten ihres Privatlebens zu erschließen oder andere unerwünschte Zwecke zu verfolgen. Andererseits profitieren sie gern von personalisierten Produkten und Innovationen, die mithilfe derselben Daten entstehen. Die Datenerfassung ist so komplex, dass Verbraucher:innen überfordert sind und viele von ihnen Datenschutzerklärungen resigniert akzeptieren, ohne zu wissen, welche Konsequenzen daraus entstehen. Sie verlieren das Vertrauen, dass diejenigen, die so die effektive Kontrolle über die Daten erlangen, sie auch zum Nutzen der Verbraucher:innen verwenden.

Gleichzeitig sammeln und speichern einige wenige große Unternehmen riesige Datenmengen, die es ihnen ermöglichen, Erkenntnisse über Märkte und Verbraucher:innen hinweg zu nutzen. In Europa hat die Datenschutzgrundverordnung (DSGVO) den Verbraucher:innen Rechte eingeräumt, um ihre Interessen gegenüber diesen Unternehmen durchzusetzen. Doch auch mit der DSGVO haben Verbraucher:innen weder genug Informationen noch genug Macht, um sich Gehör zu verschaffen. Andere Organisationen, vor allem kleine Unternehmen oder Start-ups, haben keinen Zugriff auf die Daten (es sei denn, einzelne Nutzer:innen nutzen mühsam ihr Recht auf Portabilität), was oft Wettbewerb und Innovation im Wege steht.

Datentreuhänder

Viele europäische Regierungen arbeiten an Konzepten, um produktive Datennutzung mit dem Schutz der Privatsphäre in Einklang zu bringen. In den letzten Monaten haben sich Datentreuhänder als eine vielversprechende Möglichkeit herauskristallisiert, um einen an den Interessen der Verbraucher:innen orientierten Datenaustausch zu ermöglichen. Das Konzept wird von so unterschiedlichen Gruppen wie Datenschützer:innen, Unternehmen und Expert:innenkommissionen gleichermaßen unterstützt. In Deutschland beispielsweise haben die Datenethikkommission und die Kommission Wettbewerbsrecht 4.0 empfohlen, Datentreuhänder weiter zu untersuchen. Auch die Bundesregierung ist dabei, das Konzept in ihre Datenstrategie aufzunehmen.

Es gibt bisher kein allgemeines Verständnis davon, was Treuhänder für Verbraucher:innendaten sind und was sie tun. Um die erwähnten Probleme zu adressieren, ist es sinnvoll, Datentreuhänder wie folgt zu verstehen: Sie sind Vermittler, die die Interessen von Verbraucher:innen aggregieren und sie gegenüber datennutzenden Organisationen vertreten. Datentreuhänder haben tiefere technische und juristische Expertise sowie mehr Verhandlungsmacht, um mit Organisationen über die Bedingungen der Datennutzung zu verhandeln. So können sie bessere Ergebnisse erzielen, als Verbraucher:innen das einzeln könnten. Um ihren verbraucher:innenorientierten Auftrag zu erfüllen, sollten Datentreuhänder in der Lage sein, Zugriffsrechte zuzuweisen und sicherzustellen, dass das umgesetzt wird, was zwischen Verbraucher:innen und Unternehmen ausgehandelt wurde. Sie können, müssen aber nicht selbst Daten speichern.

Die breite Zustimmung zur Idee des Datentreuhänders könnte auch damit verbunden sein, dass es nur wenige praktische Beispiele oder Ideen für die Umsetzung gibt. Ob die hohen Erwartungen, die an sie gestellt werden, erfüllt werden können, hängt entscheidend damit zusammen, wie Datentreuhänder konkret umgesetzt werden. Politische Entscheidungsträger:innen sollten sich deshalb mit der komplexen Ausgestaltung von Datentreuhändern befassen, indem sie zunächst die unmittelbar bevorstehenden Herausforderungen für die Umsetzung lösen:

    Erstens: Wie können wir sicherstellen, dass die Interessen des Treuhänders mit denen der Verbraucher:innen, die er vertritt, in Einklang stehen? Die rechtliche und finanzielle Struktur muss Verbraucher:innen klar erkennen lassen, dass der Datentreuhänder in ihrem Interesse handelt. Zu diesem Zweck könnten eine Anschubfinanzierung aus öffentlichen Quellen, eine Datensteuer oder -abgabe oder ein Mitgliedsbeitrag die Kosten eines Datentreuhänders tragen.

    Zweitens, wie können wir es den Verbraucher:innen leicht machen, ihre Interessen auszudrücken? Damit Verbraucher:innen einen Datentreuhänder nutzen können, muss er die Komplexität der „informierten Einwilligung“ reduzieren können und stattdessen seine Arbeit auf Entscheidungen basieren, die Verbraucher:innen zu treffen in der Lage und bereit sind. Damit ein Datentreuhänder ihre Interessen vertreten kann, müssen Verbraucher:innen ihre Datenrechte delegieren können, möglicherweise stärker, als die DSGVO es vorsieht. Das könnte zum Beispiel erreicht werden, indem die Möglichkeit der Repräsentation (Artikel 80) auf die Ausübung von Datenrechten ausgeweitet wird oder indem Verbraucher:innen ermöglicht wird, ihr Recht auf Erteilung (und Widerruf) einer Einwilligung zu delegieren, wozu Datentreuhänder einen besonderen rechtlichen Status erhalten könnten.

   Drittens, wie können Organisationen motiviert werden, mit Datentreuhändern zu arbeiten? Datentreuhänder sollten so gestaltet sein, dass sie es Organisationen einfach machen, Daten im Einklang mit den Interessen von Verbraucher:innen zu nutzen. Die Aussicht auf Zugang zu mehr Daten und mehr Rechtssicherheit kann für viele Organisationen, insbesondere für kleine Unternehmen, ausreichen, um mit einem Datentreuhänder zu verhandeln.
 

Praktische Tests und Pilotprojekte sind jetzt notwendig. Nur so kann ermittelt werden, ob Datentreuhänder tatsächlich Verbraucher:innen ermächtigen können, ihre Interessen besser durchzusetzen, als sie es aktuell können. Auch die Frage danach, wie genau sie zu diesem Zweck zu gestalten sind, kann nur in der Interaktion mit Nutzer:innen beantwortet werden. Erst dann ergibt es Sinn, weitere Schritte wie Richtlinien, Regelungen oder andere Formen der Gesetzgebung in Betracht zu ziehen, um z.B. sicherzustellen, dass auch schutzbedürftige Verbraucher:innen von Datentreuhändern profitieren und Unternehmen sie nicht umgehen können. Datentreuhänder kritisch zu testen kann sich im derzeitigen Rechtsrahmen als schwierig erweisen, da er das dafür nötige Maß an Delegierung von Einwilligungs- und Datenrechten an eine vertrauenswürdige Instanz nicht zulässt. „Regulatorische Sandkästen“ (regulatory sandboxes) könnten die geeigneten Schutzvorkehrungen für die Prüfung von Datentreuhänder bieten – mit strenger Aufsicht und hohen Transparenzanforderungen. Das würde uns ermöglichen, dass mehr Daten zum Nutzen von Verbraucher:innen fließen.

Lesen Sie den ausführlichen Beitrag:
Download (PDF, mit Deutscher Zusammenfassung)

Autorin
Aline Blankertz

Stiftung Neue Verantwortung e. V.
https://www.stiftung-nv.de/

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

New Work: Arbeitsplatzorganisation der Zukunft

Dies ist ein Gastbeitrag von Thomas Hartenfels und Thomas Hoffmann, Directors der internationalen Personalberatung Robert Walters

Die Digitalisierung sorgt für eine riesige Transformation der Arbeitswelt und schafft die technologischen Grundlagen der Arbeit 4.0. Sie verändert Wirtschaft und Arbeit radikal und hat bereits heute weite Teile des täglichen Lebens durchdrungen, denn über 80 Prozent der Beschäftigten in Deutschland nutzen aktuell digitale Informations- und Kommunikationstechnologien im Job. Anhand verschiedener Prognosen, Studien und Erfahrungswerte lässt sich ableiten, welche Trends Arbeitgeber und Berufstätige dabei nachhaltig beschäftigen werden.

So verändert New Work die Arbeitsplatzorganisation

Der Fachkräftemangel und Kampf um die besten Talente geht auch 2020 weiter. Dadurch öffnen sich viele Unternehmen und Personalverantwortliche für flexiblere Arbeitszeitmodelle, um die besten Kandidaten für sich zu gewinnen. Unternehmen haben inzwischen verstanden, dass es wichtig ist, Mitarbeiter mit Laptop und Firmenhandy auszustatten, ihnen Freiheiten zu gewähren und dabei trotzdem den Unternehmenserfolg nachhaltig zu steigern. So nehmen Modelle wie Teilzeit, Home Office oder Desk-Sharing weiter an Bedeutung zu.

In dem Zusammenhang hört man immer öfter den Begriff “New Work”. Darunter wird klassischerweise die Arbeitsweise der Zukunft verstanden, die aber längst keine Zukunftsmusik mehr ist. Viele Unternehmen folgen mit der Unternehmenskultur bereits zunehmend einer New Work Philosophie. Klassischerweise sind junge und moderne Startups die Vorreiter solcher Entwicklungen, doch machen sich die Veränderungen auch in zahlreichen anderen Unternehmen bemerkbar.

New Work verspricht viel und Arbeitgeber schreiben es sich auf die Fahnen, um Talente und qualifizierte Fach- und Führungskräfte anzulocken. Richtig umgesetzt, bringt New Work eine ganze Reihe von Vorteilen für Mitarbeiter. Diese reichen von der Digitalisierung in nahezu jedem Bereich bis hin zur Entfaltung der eigenen Persönlichkeit und Kreativität, die im Vordergrund steht.

Dezentrales Arbeiten wird ermöglicht

In der New Work ist räumliche Nähe nicht mehr erforderlich, um im Team produktiv zu sein. Was heute nicht mehr wegzudenken ist, war vor nicht allzu langer Zeit noch kaum vorstellbar. Gerade bei internationalen Unternehmen und in großen Projekten ist es inzwischen Normalität geworden, dass Mitarbeiter über den gesamten Globus verteilt sind. Auch die Arbeit aus dem Homeoffice wird immer mehr Mitarbeitern gewährt, wodurch dezentrales Arbeiten weiter zunimmt. Dadurch ist ein effektiveres, konzentrierteres Arbeiten möglich und geringere Anfahrtswege zur Arbeitsstätte bringen außerdem eine Zeitersparnis.

Arbeitsplätze werden neu gedacht

Digitale Technologien des New Work Ansatzes sind äußerst flexibel und ermöglichen Mitarbeitern mobiles und selbstbestimmtes Arbeiten, ohne an feste Zeiten und Orte gebunden zu sein. Der Fokus liegt auf der Zielerreichung und weniger auf dem Weg zum Ziel. Wenn die Arbeit ortsunabhängig wird, benötigen Unternehmen nicht mehr zwangsläufig Büroräume für alle Mitarbeiter. Arbeitsplätze werden natürlich nicht komplett wegfallen, schließlich sind sie eine wichtige Anlaufstelle und dienen dem Zugehörigkeitsgefühl zum Unternehmen. Doch verändert sich die Gestaltung des Arbeitsplatzes in der New Work deutlich. Hier wird von New Workspace geredet, der mit traditionellen Büroräumen nicht mehr viel gemeinsam hat. Keine tristen Arbeitsplätze und Büros, stattdessen flexible Bürolandschaften, die verschiedensten Zwecken dienen: Ruhezonen für konzentriertes Arbeiten, Telefonboxen für ungestörte Gespräche oder offene Bereiche für den gemeinsamen Austausch mit den Kollegen.

Größere Freiräume und Einflussmöglichkeiten

Während bei alten Arbeitsweisen klare Anweisungen und Hierarchien die Regel waren, rückt im New Work die Eigeninitiative von Mitarbeitern in den Fokus. Das Motto lautet: Weg von strikten Vorgaben, hin zu selbstständigem Handeln und Entscheiden. Das bedeutet, dass Mitarbeiter mehr Verantwortung übernehmen müssen und nicht nur darauf warten können, Anweisungen zu verrichten. New Work ermöglicht damit genau das, was sich viele Arbeitnehmer wünschen. Der Chef guckt nicht ständig auf die Finger, sondern lässt Mitarbeitern Entscheidungsfreiräume. So können Arbeitnehmer sich besser entfalten, aber auch gezielt einbringen, Verantwortung tragen und selbstständige Entscheidungen treffen, um das Unternehmen voranzubringen.

Bessere Vereinbarkeit von Familie und Beruf

Die zunehmenden Freiheiten von Mitarbeitern führen dazu, dass die Grenzen zwischen Arbeits- und Privatleben mehr und mehr miteinander verschwimmen. Das wird gerne kritisiert, muss aber nicht negativ sein. Denn im besten Fall führt dies zu einer größeren Work-Life-Balance, in der das Arbeitsleben keine Belastung, sondern einen wichtigen und geschätzten Teil des Lebens einnimmt. Durch dezentrales Arbeiten wird eine Familienplanung einfacher und gerade berufstätige Eltern können die Möglichkeiten nutzen, um die Arbeitsweise an die Doppelbelastung mit einem Kind anzupassen. Damit bietet sich Unternehmen vor allem die Möglichkeit mehr weibliche Fach- und Führungskräfte für sich zu gewinnen.

Transparente Kommunikation, Teamgedanke und Ideenaustausch

In der New Work wird nicht in Hierarchien kommuniziert, bei denen der Chef vorgibt, was gemacht wird und Mitarbeiter entsprechend ausführen. Stattdessen wird eine transparente Kommunikationsstruktur etabliert, die für einen offenen Austausch sorgen soll. Meinungen werden berücksichtigt, Einwände geprüft, Ideen ausgewertet und gegenseitig ergänzt. Selbst wenn dezentral gearbeitet wird und nicht alle gemeinsam im Büro sitzen, kann New Work zu einer stärkeren Gemeinschaft führen und das Zusammenarbeiten verbessern. Es arbeitet nicht jeder für sich an den eigenen Aufgaben, sondern der Teamgedanke steht im Vordergrund. Mitarbeiter können, wenn sie im gleichen Raum sitzen, nicht einfach nur effizient sein, sondern neue Ideen entwickeln. Sogar aus Eigenbrötlern können im Großraumbüro so kommunikative Teamplayer werden.

Herausforderungen und Kritik an New Work

New Work wird oft als Lösung angepriesen, die alles erneuert, was in der Arbeitswelt nicht gut funktioniert. Modern, flexibel mit Blick auf den Mitarbeiter und dessen Zufriedenheit – zusätzlich soll die neue Arbeit auch noch die Produktivität und Effizienz steigern und bessere Ergebnisse hervorbringen.

Neben allen Vorteilen und allem Fortschritt in Sachen Digitalisierung gibt es aber auch eine ganze Menge Herausforderungen. New Work verlangt eine sehr gute Organisation und Koordination, um die Bedürfnisse aller Mitarbeiter unter einen Hut zu bringen. Fehlt es an Organisation, Struktur und Absprachen, kann New Work im Chaos enden.

So stört es Arbeitnehmer außerdem, dass die Technologien oft nicht funktionieren, wie sie sollten, oder zu viele Informationen auf zu vielen Kanälen fließen. Mitarbeiter, die nicht von Haus aus eine Affinität zu Technologien, wie Office 365 oder G-Suite, haben, werden es mit New Work Methoden schwer haben.

Ein weiterer Punkt ist die Verschmelzung von Arbeit und Privatleben. Im Gegensatz zu den Befürwortern, glauben Kritiker, dass es für Mitarbeiter zunehmend schwieriger wird, diese beiden Bereiche zu trennen und wirklich von der Arbeit abzuschalten. Erreichbarkeit rund um die Uhr und kein wirklicher Feierabend könnten allerdings Folgen der deutlich größeren Flexibilität in der New Work sein.

Für viele Mitarbeiter ist Homeoffice sehr attraktiv. Andererseits besteht die Gefahr, vom Informationsfluss und vom Team abgeschnitten zu werden. Das Homeoffice kann auch die Einzelkämpfermentalität fördern. Auch hier blicken Kritiker durch eine andere Brille als die Befürworter. Es ist daher sinnvoll, Arbeitsplätze nicht komplett in das Zuhause der Beschäftigten zu verlegen, sondern dies auf einige Tage zu beschränken, denn die gesunde Mischung macht es aus.

Die vielleicht größte Kritik besteht darin, ob New Work Unternehmen wirklich erfolgreicher macht. Mitarbeiter in den Fokus zu rücken, ist auf der einen Seite durchaus sinnvoll und sorgt für Motivation und Zufriedenheit – New Work vergisst dabei aber den Blick auf die Marktsituation und die Kunden. Ein Unternehmen ist erfolgreich, wenn es die Erwartungen von Kunden erfüllt. Ist das nicht der Fall, sind Mitarbeiter dank New Work zwar glücklich – wenn beispielsweise die Performance nicht stimmt und deshalb die Umsätze einbrechen, ist das für das Unternehmen allerdings wenig erfreulich.

Richtige Planung neuer Arbeitsprozesse

Aber für welche Unternehmensform sind flexible Arbeitsmodelle nun möglich und sinnvoll? Voraussetzung für die Nutzung ist zunächst der Wunsch und Wille auf Unternehmens- und Arbeitnehmerseite, neue Prozesse und Arbeitsweisen auszuprobieren. In jedem Fall ist es wichtig, Veränderungen grundsätzlich offen und positiv gegenüberzustehen. Dabei geht es darum, Wege zu finden, die Interessen der Arbeitnehmer und die Unternehmensziele in Einklang zu bringen und gleichermaßen zu erfüllen.

Sind diese Voraussetzungen gegeben, können diese Modelle theoretisch in kleinen und mittelständischen Unternehmen, wie auch in Großkonzernen umgesetzt werden. Allerdings kommen nicht grundsätzlich alle Arbeitszeitmodelle für jedes Unternehmen oder jeden Arbeitnehmer in Frage. Die Modelle müssen zur Unternehmensstruktur und den Bedürfnissen der Mitarbeiter passen.

Besonders wichtig ist, bei einem solchen Projekt die Mitarbeiter von Anfang an in die Planung einzubeziehen. Ein neues Arbeitsplatzkonzept kann nur funktionieren, wenn es in den Augen der Belegschaft Sinn macht.

Noch vor der konkreten Planung, sollten Unternehmen daher mithilfe von Brainstormings, Workshops und Umfrage-Tools über mehrere Wochen hinweg identifizieren, welchen Bedarf es bei den Mitarbeitern gibt, etwas an den Arbeitszeitmodellen zu ändern. Daraus lässt sich beispielsweise die Anzahl und Dauer von Meetings und Telefonaten ermitteln. Mitarbeiter können zudem befragt werden, wie sie sich ihren idealen Arbeitsplatz in der Zukunft vorstellen. Gemeinsam wird so Stück für Stück das Konzept für einen neuen, durchdachten Multi-Space erarbeitet. Positiver Nebeneffekt: Können Mitarbeiter bei der Integration neuer Prozesse selbst mitgestalten, unterstützt das zusätzlich deren Zufriedenheit und Leistungsfähigkeit.

Cloud, Remote Desktop, Daten-Flatrates: Die technischen Voraussetzungen sind heute günstiger denn je für das Arbeiten von zu Hause und unterwegs. Mit neuen Technologien kommen neue Chancen und Möglichkeiten für Unternehmen, aber auch Stolpersteine.

Flexible Arbeitsplatzmodelle ermöglichen den Arbeitnehmern, Job und Familie besser zu koordinieren. Es kann aber auch zu Ablenkung führen und die Leistung negativ beeinflussen. Damit das nicht passiert, muss mehr geplant werden. Bei aller Planung und Koordination, ist aber nicht zu verkennen, dass digitale Technologien die Mitarbeiter bei Routineaufgaben massiv entlasten, sodass diese sich verstärkt auf qualitative Aufgaben konzentrieren können, die meist auch ortsunabhängig erledigt werden können.

Unternehmen sollten in Zeiten des Fachkräftemangels auf jeden Fall die Chance nutzen, mit attraktiven, flexiblen Arbeitszeitmodellen bestehendes Personal zu binden und dringend benötigte neue Mitarbeiter zu gewinnen. Unternehmen, die verstehen, dass es wichtig ist, Mitarbeitern Freiheiten zu gewähren und dabei trotzdem den Unternehmenserfolg nachhaltig zu steigern, sind für die zukünftige Transformation der Arbeitswelt bestens aufgestellt.

Über Thomas Hoffmann

Thomas Hoffmann leitet den Standort Hamburg der internationalen Personalberatung Robert Walters. Mit seinem Expertenteam vermittelt er kompetente Fach- und Führungskräfte in Festanstellung sowie auf Interimsbasis auf allen Managementebenen im Finanz- und Rechnungswesen und in der IT. Direkt nach Abschluss seines Wirtschaftsrechtsstudiums mit dem Schwerpunkt Personal im Jahr 2005, startete er seinen beruflichen Weg in der Personaldienstleistung und ist seit 2018 Teil des Teams von Robert Walters.

Über Thomas Hartenfels

Thomas Hartenfels ist Director der internationalen Personalberatung Robert Walters und leitet dort die Standorte Düsseldorf und Köln. Thomas ist seit zehn Jahren als internationaler Personalberater tätig und ist spezialisiert auf die Rekrutierung von Fach- und Führungskräften. Thomas leitet Recruiting Teams in den Bereichen Accounting & Finance, Human Resources, Sales & Marketing, Interim Management, Procurement & Supply Chain Management sowie IT.

Weitere Informationen unter:
www.robertwalters.com

Open-Source: Das sind die Trends für 2020

Leslie Hawthorn und Steve Watt haben für TREND REPORT die Open-Source-Trends für 2020 untersucht. Beide Experten erwarten ein starkes Wachstum im Open-Source-Umfeld.

  1. Wir erwarten, dass sich das Wachstum und der Fußabdruck von Open-Source-Software-Projekten ausweiten werden. Aktuell gibt es allein auf GitHub 2,4 Millionen Repositories, die mit Open-Source-Software lizenziert sind. Das bedeutet die Entwicklung einer großen Anzahl neuer Ideen in einer Art und Weise, die es einfacher macht, sie zu nutzen und gemeinsam an ihnen zu arbeiten – im Gegensatz zu den proprietären Alternativen.
  2. Die Vielfalt rund um Open-Source-Projekte wird zunehmen. Neue Ideen kommen zum Teil aus aufstrebenden Ländern, beispielsweise haben Nigeria, Iran und Kenia im Jahr 2019 den größten Zuwachs an Open-Source-Software-Projekten zu verzeichnen, die auf GitHub erstellt wurden. Hongkong, Singapur und Japan haben den größten Zuwachs an Open-Source-Software-Beiträgen insgesamt zu verzeichnen.
  3. Es wird sich zeigen, dass immer mehr junge Open-Source-Unternehmen, die aggressive Strategien zum Schutz des geistigen Eigentums verfolgen, ihre Position als Eigentümer der Software stärken wollen, wenn sie tatsächlich die ursprünglichen Schöpfer sind.
  4. Dieses Jahr werden wir wahrscheinlich mehr Open-Source-Entwickler sehen, die mit Nachdruck ihre Innovationen schützen möchten.

Weitere Informationen unter:
www.redhat.com

Die Digitalisierung – ein Auslaufmodell!?

Dies ist ein Gastbeitrag von Toby Martin, Chief Executive Officer bei Extensis

Die Digitalisierung gilt als DIE Herausforderung, der sich die Unternehmen branchenübergreifend stellen müssen. Dabei zeigt sich längst, dass sich viele der hochfliegenden Erwartungen an die Digitalisierung nie erfüllen werden – Digitalisierung um der Digitalisierung willen hat sich überlebt. Gefragt ist ein neuer Blickwinkel.

Der digitale Wandel ist in vollem Gange. Er betrifft alle Branchen und alle Sektoren der Wirtschaft, bietet Chancen für neue Angebote und wirkt sich massiv auf die Arbeitswelt aus – in Deutschland ist, glaubt man einer OECD-Studie, jeder fünfte Arbeitsplatz gefährdet. Angesichts dieser enormen Bedeutung lohnt es sich, sehr genau hinzusehen und den Sinn zu hinterfragen: Was nützt es, Millionen oder gar Milliarden einzelner Daten zu bevorraten, wenn sie sich nicht sinnvoll miteinander verknüpfen lassen, die Rechtslage der Datennutzung immer komplexer wird oder die Suche – zum Beispiel nach einem Foto – viel zu lange dauert?

Verschärfte Rahmenbedingungen

Vor dem Hintergrund deutlich gestiegener gesetzlicher wie gesellschaftlicher Anforderungen zum Schutz persönlicher Daten vor unbefugten Zugriffen oder gar Missbrauch für rechtswidrige Zwecke ist ein Umdenken angesagt. Der Transformationsprozess an sich interessiert niemanden mehr. Heute ist das „Warum?“ gefragt; der Nutzen muss im Zentrum der Überlegungen stehen – also die Frage, welchen Mehrwert die Kunden eines Unternehmens oder das Unternehmen selbst haben, wenn eine neue Technologie – also z. B. eine neue Software – eingeführt wird. Unternehmen sollten sich daher vorab folgende acht Fragen stellen:

  1. Gibt es einen echten Bedarf?
    Messbare Verbesserungen durch die neue Technologie bei ähnlicher Ausgangslage sind ein starkes Argument für deren Einführung.
  2. Verbessern oder verschlechtern sich mit der neuen Technologie bestehende oder neue Geschäftsbeziehungen?
    Die Orientierung an den Kunden- und Partnerbedürfnissen ist für den mittel- und langfristigen Geschäftserfolg wichtiger als die eigene Kostenoptimierung.
  3. Kommt es unter dem Strich zu einer Zeitersparnis – einschließlich der nötigen Einarbeitungszeit für die Mitarbeiter?
    Lassen sich lästige Routineaufgaben stark automatisieren und der Workflow verbessern, lohnt sich eine neue Technologie fast immer. Hier eröffnet sich auch ein wichtiger Einsatzbereich für Künstliche Intelligenz – selbstlernenden Systemen gehört die Zukunft.
  4. Wie robust, fehlertolerant und sicher vor Fehlbedienungen ist die Technologie?
    Wo Menschen tätig sind, passieren Fehler. Wie bei der alten Regel gilt auch hier: „Müll rein, Müll raus“. Wenn also die Annahmen fehlerhaft sind, dann werden die Ergebnisse folgen.
  5. Trägt die Einführung der Technologie zur Compliance bei?
    Rechtsverletzungen können dramatische wirtschaftliche Nachteile nach sich ziehen, die sich mit der richtigen Technologie leicht vermeiden lassen. Beispielsweise schützt der Universal Type Server vor dem unrechtmäßigen Einsatz von Schriften, indem er Schriften und deren Hersteller eindeutig identifiziert. Auch die Rechte der Schriftnutzung lassen sich so zweifelsfrei klären – es macht einen Unterschied, ob Sie eine Schrift an Kunden z. B. gar nicht oder uneingeschränkt weitergeben dürfen, oder Sie diese wenigstens legal in ein Dokument einbetten können.
  6. Lässt sich die Technologie bei Bedarf skalieren?
    Offene Schnittstellen und die Option, Technologien gemeinsam weiterzuentwickeln, sind heute wichtiger denn je – die verwendeten Technologien sollten mit dem Unternehmen mitwachsen können. Wenn dies nicht der Fall ist, sollte dies als ein Schlag gegen die Technologie angesehen werden, da heute vor allem alle Anwendungen neben anderen koexistieren müssen und keine wirklich, völlig eigenständig ist.
  7. Wie sicher ist die Investition auch auf längere Sicht?
    Wer auf Lösungen etablierter, marktführender Firmen setzt, kann eher damit rechnen, dass es diese auch noch in fünf oder zehn Jahren gibt – und zwar auf einem aktuellen Stand der Entwicklung. Ein guter Indikator ist eine starke Community, die eine Technologie begeistert einsetzt, zur Weiterentwicklung beiträgt und sich bei Fragen gegenseitig hilft.
  8. Wie einfach ist die Technologie in der täglichen Anwendung?
    Auch auf Technologie-Entscheidungen lässt sich Ockhams Rasiermesser übertragen – der Erklärungsansatz, der die wenigsten Annahmen erfordert, ist im Zweifel richtig. Andere sprechen vom KISS-Prinzip – „Keep it simple, stupid!“. Lässt sich beispielsweise eine Software intuitiv bedienen, oder erst nach langer Einarbeitungszeit? Je schneller eine Technologie produktiv eingesetzt werden kann, desto größer ist die Rentabilität der Investitionen in Zeit, Ausbildung, Ausstattung und Personal.

Wer als Unternehmen alle oder die meisten dieser Fragen mit einem „Ja“ beantworten kann, sollte die in Betracht gezogene Technologie zügig einführen – wer zu spät kommt, den bestraft das Leben.

Organisationen und Unternehmen in der EU haben ohnehin seit der Einführung der Datenschutz-Grundverordnung (DSGVO) keine Wahl: Die DSGVO schreibt insbesondere umfassende Auskunftspflichten und den Schutz personenbezogener Daten nach dem Stand der Technik vor unbefugten Zugriffen vor. Viele der Vorgaben sind – genau betrachtet – nicht neu. Neu ist, dass bei Verstößen saftige Sanktionen drohen. Dadurch zwingt der Gesetzgeber dazu, sich eine leistungsfähige Technologie zu leisten, mit der sich auf einfache Weise feststellen lässt, über welche personenbezogenen Daten diese verfügen – sei es in Datenbanken, Präsentationen, Fotos, Videos und vielem mehr. In der Praxis kommt damit kein größeres Unternehmen mehr an einer Asset-Management-Lösung vorbei.

Die Digitalisierung alten Stils ist tot – es lebe die Digitalisierung 4.0!

Über den Autor

Toby Martin ist seit August 2019 der Chief Executive Officer von Extensis. Die Softwarefirma mit Hauptsitz in Portland, Oregon, zählt zu den Marktführern von Asset Management-Lösungen und ist einer der führenden Anbieter von Schriftverwaltungs-Software.

Weitere Informationen unter:
www.extensis.com

Vom klassischen Kredit bis zum Crowdfunding – Welche Finanzierungstrends gibt es in 2020?

Ben Korbach stellt die Frage, wie die Rolle klassischer Kredite für die Finanzierung in Zukunft sein wird. Im Unternehmensbereich wird die Bedeutung noch auf absehbare Zeit groß sein.

Ein Gastbeitrag von Ben Korbach

Die Digitalisierung treibt die Innovationslust von Unternehmern und Investoren immer weiter voran und beinahe jeden Monat wird ein neues Fintech oder gar ein neues System vorgestellt, das den klassischen Banken Konkurrenz macht. Vor allem im Bereich der Finanzierungen ergeben sich ständig neue Möglichkeiten, wie Unternehmen finanzielle Mittel auftreiben können.

Ist die Zeit klassischer Kredite vorbei?

Über Jahrzehnte hinweg war die Hausbank der erste Kontakt, wenn Unternehmen einen Kredit oder eine andere Finanzierungslösung benötigt haben.
Im Zeitalter der Niedrigzinsen, Digitalisierung und FinTechs ist das zwar nicht mehr zwangsweise der Fall, der klassische Bankkredit hat aber nach wie vor eine herausragende Bedeutung in der Unternehmensfinanzierung.
Die Zeit klassischer Kredite ist also nicht vorbei, sie müssen sich nur das Feld mit einer immer größeren Anzahl alternativer Finanzierungsmöglichkeiten teilen.

Die Vor- und Nachteile verschiedener Finanzierungstrends

In der folgenden Auflistung werden die Möglichkeiten zur Unternehmensfinanzierung aufgezeigt, die sich in den letzten Jahren entwickelt haben bzw. in den kommenden Jahren zu erwarten sind.

Innovationsfinanzierungen mithilfe von Förderkrediten

Die Niedrigzinsphase bildet mit der immer weiter voranschreitenden Digitalisierung ein besonderes Marktumfeld, in welchem vor allem Förderkredite an Bedeutung und Beliebtheit gewinnen. Immer mehr Unternehmen nutzen die günstigen Kredite dazu, um das eigene Unternehmen zukunftsfähig zu machen, neue Möglichkeiten zu erforschen oder längst überfällige Software-Updates durchzuführen.

Die Kreditanstalt für Wiederaufbau (KfW) nimmt dabei eine wichtige Rolle ein und bietet gleich ein ganzes Produktportfolio an, mit dem sie Unternehmen bei Innovation und Wachstum unterstützt. Neben dem eher klassischen ERP-Digitalisierungskredit kann auch eine Mezzanin-Lösung mit niedrigeren Sicherheitsanforderungen oder ein Konsortialkredit mit dem Fokus auf Unternehmenswachstum genutzt werden. Mit dem BMU-Umweltinnovationsprogramm gibt es darüber hinaus ein Programm speziell für alle Umweltschutz-Pioniere.

Die Vorteile dieser Finanzierungsmöglichkeit liegen vor allem in den günstigen Konditionen sowie der teilweisen Risiko-Übernahme durch die KfW. Allerdings ist zu beachten, dass die Förderkredite in der Regel nur einen Finanzierungsbaustein darstellen und auch nur dann genutzt werden können, wenn die entsprechenden Voraussetzungen je Programm erfüllt werden.

Crowdfunding – gemeinsam sind wir stark

Der Gedanke der „Sharing Economy“ hat nicht nur dazu geführt, dass wir unsere Wohnungen über Airbnb an fremde Menschen vermieten, sondern auch dazu, dass wir uns unabhängig von Banken zusammenschließen, um gemeinsam Projekte zu finanzieren. Diese Art der Finanzierung hat sich in den letzten Jahren immer weiterentwickelt und ermöglicht heute auch Unternehmen, über verschiedene Online-Anbieter einen Kredit zu günstigen Konditionen aufzunehmen.

Bei dieser Vorgehensweise ist auch immer ein sehr ausgeprägtes Gemeinschaftsgefühl spürbar. So verspricht die Berliner Crowdinvesting- und Crowdlending-Plattform Kapilendo auf ihrer Startseite zum Beispiel, auf Intermediäre zu verzichten und stattdessen ein Netzwerk aus Unternehmen und unternehmerisch denkenden Investoren zu etablieren.

Neben dem einfachen Online-Beantragungsprozess und den günstigen Konditionen, versprechen diese Plattformen also vor allem eine Geschäftsbeziehung auf Augenhöhe in einer starken Gemeinschaft.

Paradoxerweise kann ein Nachteil jedoch darin liegen, dass genau diese Beziehung eben nicht so intensiv ausfällt wie bei dem Unternehmenskundenberater der Hausbank, der regelmäßig im Unternehmen vorbeischaut.

Kryptowährungen – Eine neue Welt voller Möglichkeiten

Eine völlig neue Form der Unternehmensfinanzierung stellen Kryptowährungen bzw. Token dar. Im Grunde drehte sich der Krypto-Boom inklusive Blasenbildung im Jahr 2017 um die Möglichkeit, finanzielle Mittel von Investoren über diese digitalen Coins aufnehmen zu können, ohne eine (Investment-)Bank einschalten zu müssen. Auch die strengen Prüfungen von Wagniskapitalgebern sowie die Abgabe von Unternehmensanteilen konnten galant umgangen werden, indem die frisch gegründeten Start-Ups ihre Geschäftsidee einfach schick auf der eigenen Homepage präsentierten und hierüber auch gleich den eigenen Coin bewarben.

Das Versprechen: Je erfolgreicher das Unternehmen, umso höher steigt der Kurswert des jeweiligen Coins. Auf diese Weise versprachen sich viele Investoren hohe Gewinne durch die indirekte Beteiligung am Unternehmenserfolg.

In Anlehnung an IPOs wurde die erstmalige Emission neuer Coins bzw. Token als ICO (Initial Coin Offering) bezeichnet. Leider hat das völlige Fehlen jeglicher Regulierung zu vielen schwarzen Schafen und Betrugsvorfällen unter diesen „Startups“ geführt. Die insgesamt 875 ICOs in 2017 haben mit den gesammelten Geldern in Höhe von USD 6,2 Mrd. jedoch gezeigt, dass das System prinzipiell schon heute funktioniert.

Aus diesem Grund hat sich diese neue Finanzierungsmöglichkeit in den letzten Jahren bereits deutlich weiterentwickelt. Anstelle der ICOs sind STOs getreten: Diese „Security Token Offerings“ sind darauf ausgerichtet, die Zulassung der BaFin zu erhalten und somit diese neuartige Finanzierungsart als eine regulierte Möglichkeit der Kapitalbeschaffung vielen Unternehmen zugänglich zu machen. Am Ende werden bei STOs Schuldverschreibungen „tokenisiert“ und den Investoren online zum Kauf angeboten.

Den ersten regulierten und von der BaFin genehmigten deutschen STO hat das Kreditunternehmen Bitbond im Jahr 2019 durchgeführt und auf diese Weise USD 2,3 Mio. eingesammelt. Das ist zwar noch nicht besonders viel, aber die Zeichen für die digitalen Coins und Token stehen gut.

So hat beispielsweise auch die EZB angekündigt, die Vor- und Nachteile eines komplett „digitalen Euro“ auszuloten, was eine enorme Signalwirkung für den jungen Markt der Kryptowährungen hat.

Über den Autor

Ben Korbach war lange Jahre im Unternehmenskunden-Bereich einer deutschen Großbank tätig, bis er merkte, dass dies nicht mehr sein Weg ist. Seitdem reist er zusammen mit seiner Frau um die Welt und arbeitet überall dort, wo es Internet gibt, als Unternehmens-Coach und strategischer Content-Partner. Seine Spezialität besteht darin, die richtigen Fragen zu stellen und die oft komplexen Antworten in einfache, storybasierte Texte zu übersetzen. Dabei hat sich Ben Korbach unter anderem auf das Thema Kredite spezialisiert. Mehr Informationen zum Autor auch unter https://www.benkorbach.com/.

Was hält das Jahr 2020 für das IoT bereit?

Jered Floyd, Member of Technical Staff im Office of the CTO bei Red Hat wagt Prognosen, wie sich das Internet der Dinge im Jahr 2020 entwickeln wird. Besonders spannend wird das Edge-Computing dahingehend, als das die Geräte zunehmend mehr Aufgaben übernehmen können und in der Lage sind, komplette Linux-Implementierungen auszuführen.

IoT-Application-Stacks für Unternehmensimplementierungen werden stärker komponentenbasiert sein. Trotz der Protokoll-Standardisierung für die Kommunikation mit IoT-Komponenten, Sensoren und Aktoren gibt es noch wenig Standardisierung in der Anwendungsarchitektur. Es werden zwar gängige Entwicklerwerkzeuge verwendet, aber die Architektur jeder IoT-Implementierung ist in der Regel einzigartig. Angetrieben durch die Standardisierung von Open-Source-Komponenten wird 2020 mehr Konsistenz in der IoT-Anwendungsarchitektur bringen, die von der Cloud über das Edge-Gateway bis zum Device reicht.

Das größte Wachstumsfeld für IoT-Use-Cases wird die Automobilindustrie sein. Die Automobilzulieferer durchleben eine beschleunigte Entwicklung in Folge einer verzögerten Digitalen Transformation und erkennen, dass ihr wichtigster Differenzierungswert in ihrer Vehicle-to-Cloud-IT-Infrastruktur liegt und nicht nur in der Herstellung von Motoren und anderen mechanischen Komponenten. Dabei zeichnet sich ab, dass der Trend weg geht von der Nutzung Dutzender unabhängiger, microcontroller-gesteuerter Subsysteme hin zu einem einzigen hochleistungsfähigen Bordsystem, das permanent mit der Cloud verbunden ist. Dieses „Internet-of-Things-on-Wheels“ existiert bereits in der Premiumklasse, wird aber 2020 auch verstärkt im Massenmarkt eingesetzt werden.

Das unternehmensweite (oder industrielle) IoT wird als ein Anwendungsfall für Edge-Computing erkannt. Die Nutzung von Edge Devices als unabhängige Einheiten wird aus Sicherheits- und Wartungsperspektive zunehmend problematisch, da selbst das kleinste Gerät in der Lage sein wird, ein vollwertiges Betriebssystem wie Linux auszuführen. Diese Milliarden von IoT-Geräten sind ein riesiges verteiltes System und werden schnell mit End-to-End-Edge-Architekturen entweder von Cloud-Service- oder Unternehmenssoftware-Anbietern in Einklang gebracht werden. Die Dichotomie von Managed Services und eigener Plattform wird das größte IoT/Edge-“Schlachtfeld” der nächsten drei Jahre sein.

Die Trends der Blockchain

Axel Simon, Senior Software Engineer bei Red Hat widmet sich den Trends der Blockchain. Der Einsatz wird in 2020 immer breiter werden und als Teil einer Gesamtlösung wird die Technologie immer mehr Anwendungen prägen. Die Blockchain-Technologie wird ihr universelles Anwendungspotenzial deutlicher darstellen – weg von den Kryptowährungen, die in den vergangenen Jahren die Verwendung prägten.

Tokenisierung – Die Darstellung von digitalen und nicht-digitalen Werten als Token auf einer Blockchain, in der weiter gehandelt und umgetauscht werden kann – wird weiterhin die Träume von der Entfesselung der Kräfte des freien Marktes auf nahezu alles befeuern und umfassende Investitionen erfordern, wie sie derzeit von der Finanzindustrie verfolgt werden.

Wachsendes Interesse an den digitalen Währungen der Zentralbanken – Es überrascht nicht, dass nach der Ankündigung von Libra, der geplanten Kryptowährung von Facebook, generell das Interesse an Kryptowährungen wieder zunimmt, und auch, dass verschiedene Regierungen sich deshalb besorgt zeigen. Die Kombination dieser beiden Aspekte verleiht der Idee rund um eine Central Bank Digital Currency (CBDC), mit der mehrere Zentralbanken in den letzten Jahren gespielt haben, neuen Wind. Einige sehen „Fedcoins“ (oder “digitales Fiatgeld”) als logischen nächsten Schritt in der Entwicklung von staatlich geförderten Währungen.

Private zulassungsgebundene und öffentliche zulassungsfreie Blockchains arbeiten zusammen – Wenn es einen Konsens in Sachen Blockchain gibt, dann den, dass es nicht die eine dominierende Blockchain geben wird. Vor diesem Hintergrund besteht großes Interesse daran, „horizontale Silos“ zu vermeiden und sicherzustellen, dass eine Vielzahl von Blockchains zusammenwirken können. Dieses Interesse wird tendenziell noch zunehmen, wenn Projekte wie Polkadot oder Cosmos weiter ausreifen. Interessanterweise ist die Open-Source-Natur des Blockchain-Ökosystems, sowohl in Bezug auf den Code als auch auf die Kultur, ein wichtiger Faktor für diese Interoperabilität. All dies ebnet den Weg in eine Zukunft, in der eine Vielzahl von Blockchains, sowohl öffentliche als auch private, koexistieren und Werte teilen.

Blockchains als Ankerebene – Wenn Menschen an Blockchains denken, dann häufig als Lösung eines einzelnen Problems, anstatt als umfassende Gesamtlösung. In Zukunft wird es zunehmend Projekte geben, die eine Blockchain als Teil einer Gesamtlösung verwenden, oft als eine Art Ankerebene, die andere Elemente zum Aufbau von Vertrauen nutzen können, wie wir es bereits bei eigenständigen Identitätsprojekten wie Sovrin (basierend auf Hyperledger Indy) sehen. Andere Bereiche, die wahrscheinlich vermehrt Blockchains als Teil ihrer Lösungen verwenden werden, sind das Internet der Dinge und Künstliche Intelligenz.

Zusammengefasst: Nach dem Höhepunkt des Blockchain-Hypes im letzten Jahr hat sich der Fokus auf die Entwicklung praktikabler Lösungen verlagert. Oft bedeutet das, dass man Blockchains als Werkzeug, als Teil einer Lösung, und nicht mehr als die Lösung selbst behandelt. Es bedeutet auch, dass man sich die spezifischen Stärken von Blockchains anschaut und sie nutzt: die Verwendung von Token und die damit verbundene Ökonomie, die Überprüfung von Krypto-Währungen und was sie aus staatlicher Sicht ermöglichen und den Werttransfer in einem Netzwerk heterogener Teilnehmer.

Weitere Informationen unter:
www.redhat.com

Apple hat die Nase vorn

Ein Novum in der Börsengeschichte: Wie Handelsblatt und Financial Times übereinstimmend berichten, ist der Börsenwert aller DAX-Unternehmen zusammengenommen niedriger als der des US-amerikanischen Konzerns Apple alleine. Diese Entwicklung verdeutlicht, dass Deutschland als eine der größten europäischen Volkswirtschaften von anderen Ländern abgehängt wird.

Doch welche Gründe hat dies? Und was können deutsche Unternehmen tun, um der Konkurrenz aus dem Ausland standzuhalten?

Bjoern Klaas, Vice President und Managing Director von Protolabs Europe

Bjoern Klaas, Vice President und Managing Director von Protolabs Europe kommentiert:

„Was sich zunächst nach einem Erdrutsch an den Börsen anhört, ist in Wirklichkeit eine Folge der Schwierigkeiten deutscher Industrie- und IT-Unternehmen sich an den Boom neuer Technologien anzupassen, um weiterhin international wettbewerbsfähig zu bleiben. Trends und Themen wie Digitalisierung und moderne Herstellungsverfahren gingen lange Zeit an den wichtigsten deutschen Unternehmen vorbei und auch in der Politik werden zukunftsträchtige Themen oft zu zögerlich angegangen. Gleichzeitig hat sich der Innovationsdruck und die Konkurrenz in der modernen Wirtschaftswelt weiter verstärkt und verlangt von Entscheidern und Verantwortlichen Weitsicht und tiefgreifende Einblicke in die heutigen technologischen Möglichkeiten.

Wichtige Aspekte sind dabei die Bereitschaft sich schnell mit neuen Themen auseinandersetzen und vor allem die Flexibilität auch in kurzer Zeit auf neue Marktentwicklungen reagieren zu können. Dabei ist es besonders wichtig, dass die vorhandene Innovationskraft hierzulande schnell in tatsächliche Produkte und Dienstleistungen umgesetzt werden kann. Entscheidend hierbei sind verkürzte Zeiten bis zur Markteinführung und die Möglichkeit Produkte schnell an neue Gegebenheiten anpassen zu können. Speziell bei der Herstellung von Prototypen merken wir bei Protolabs, dass es in Deutschland nicht an Innovationskraft mangelt. Vielmehr besteht die Schwierigkeit darin, neue Produkte schnell und effizient auf den Markt zu bringen. Wenn von der Idee bis zum fertigen Produkt Monate vergehen, ist die Konkurrenzsituation meist bereits aussichtlos.

Für deutsche Unternehmen bedeutet dies, dass eine stärkere Konzentration auf Kooperationen mit Spezialisten im Bereich der Entwicklung neuer Produkte liegen muss. Technologien wie eine automatisierte Machbarkeitsanalyse und Rapid Prototyping sind längst vorhanden und werden bereits heute verstärkt nachgefragt.

Schlussendlich muss aber klar sein, dass Unternehmen diese Möglichkeiten auch aktiv nutzen sollten, um dem gestiegenen Innovationsdruck und der internationalen Wettbewerbslage entgegentreten zu können.“

Aufmacherbild / Quelle /vLizenzSkulptur Bulle und Bär vor der Frankfurter Börse
von Reinhard Dachlauer.
CC BY-SA 2.5

Bring your own Meeting: Modernes, standortunabhängiges Arbeiten mit Videokonferenzen

Kaum ein Büroarbeiter, besonders in kreativen Berufen, ist noch an einen festen Arbeitsplatz gefesselt – doch die wachsende Flexibilität bringt auch Herausforderungen mit sich.

Das Rennen um die Bedeutung der menschlichen Seele

BrainTech-Startups wollen mittels IoT das “Internet des Körpers” entwickeln. Denn unser Körper liefert genau wie Produktionsmaschinen eine Unmenge an Daten, die im Gegensatz zu den Maschinen bisher meist brachliegen und daher hohes Potential für Wissenschaft und Wirtschaft bieten.

Trends im Machine Learning

Prognosen sind immer schwierig, besonders wenn sie die Zukunft betreffen. Daniel Riek und Sanjay Arora von RedHat haben es trotzdem versucht. Ihr Spezialgebiet sind Machine Learning und KIOps. Sie blicken in die kommenden Monate und zeigen für TREND REPORT exemplarisch einige wichtige Entwicklungen und begründen ihre Ansicht.

Das Ende der integrierten KI-Plattformen

Zusätzlich zu Kubernetes werden Kunden zu einem Best-of-Breed-Ansatz für ihre Data Science- und KI-Plattformen und -Workflows übergehen. Die Standardisierung wird durch Projekte wie Kubeflow vorangetrieben – und mit dem Red Hat Downstream Open Data Hub wird Kubernetes zur zentralen KI-Plattform. Dieser Umstand wird die Differenzierung bestehender Angebote erschweren, bei denen es sich um Thin User Interfaces und Workflow-Layer auf denselben Open-Source-Stacks handelt, und wird den Fokus auf differenzierte spezialisierte Komponenten verlagern.

Small Data vs. Big Data ML

Die meisten bestehenden Branchenprobleme betreffen nach wie vor Small-Data. Die größten Hürden sind die Verfügbarkeit von bereinigten Daten, die Definition von Problemen und Modellen mit umsetzbaren Lösungen, die Bereitstellung von Modellen für die Produktion und die Überwachung der Modellperformance – und das alles unter Einhaltung von Vorschriften und Unternehmensrichtlinien und ohne dass die Bereitstellung eines Modells durch mehrere Teams erfolgen muss. Die Daten- und Modellversionierung wird für die meisten Unternehmen weiterhin eine besondere Herausforderung darstellen.

Während Deep-Learning-Modelle zu Beginn große Datenmengen für die Konzeption und die Feinjustierung von Open-Source-Modellen erforderten, sind bei viel kleineren Modellen die Datensätze sowohl für Bild- als auch für Sprachaufgaben realisierbar und in verschiedenen Bibliotheken (wie fasti.ai und spacy) verfügbar. Dies liefert mehr Datensätze für die Analyse – mit der Einschränkung von Zeitverbrauch und Interpretierbarkeit.

Nicht im Deep Learning angesiedelte Techniken wie lineare Modelle, baumbasierte Modelle, Clustering, Zeitreihenanalysen und spezialisiertere Analysewerkzeuge wie die Warteschlangentheorie oder diskrete Optimierung werden in den meisten Anwendungsfällen genutzt werden.
Vertrauensfragen und das Management werden im Mittelpunkt von realen KI-Anwendungen stehen. Wahrscheinlich wird es vermehrt Versuche geben, KI zu regulieren und mehr Technologien für das Management einzusetzen, um das Vertrauen zu fördern.
Spezialisierte Hardware wird auf dem Markt stark wachsen, um die Anforderungen an Energieeffizienz und Leistung zu erfüllen, insbesondere in Inferenz-Anwendungsfällen.

AI Ops / AI Dev (Sec) Ops werden zunehmend Bedeutung erlangen

Die KI im Bereich IT-Operations und Dev(Sec)Ops gewinnt zunehmend an Zugkraft und wird wahrscheinlich für “Einhorn”-Investitionen interessant werden. Etablierte Plattformanbieter investieren stark in diesen Bereich und werden sich um eine autonome Hybrid Cloud bemühen. Kubernetes wird hier im Fokus stehen, da damit die erforderlichen Standardisierungs- und Automatisierungsmöglichkeiten vorhanden sind, insbesondere in Kombination mit dem Kubernetes-Operators-Konzept. Für Kunden bedeutet dies eine verbesserte Zuverlässigkeit, Qualität und Skalierbarkeit sowohl in der Produktion als auch in ihren DevOps-Workflows.

Weitere Informationen unter:
www.redhat.com

Next Gen Loyalty für Storebrands

Wie muss ein zeitgemäßes Programm zur Kundenbindung gestrickt sein, das Kunden abholen kann? Ein Idealszenario für Handelsunternehmen.

Die eigene digitale Spedition

Aktuell ist die „digitale Spedition“ im Hype-Cycle ganz weit vorne. Dabei wird der Fokus auf den Transportprozess aus der Sicht der Transporteure betrachtet. eFrexx dagegen sieht den Prozess aus der Sicht der Versender, die den zentralen Bestandteil des Prozesses, nämlich die Ware, in der Hand haben. Sie haben ein Interesse den besten Transporteur für ihre Ware zu finden. Wir haben Achim Quaken, Geschäftsführer von eFrexx, der Cloud-basierten Order-Plattform für Transportdienstleistungen dazu befragt.

Herr Quaken, wie ist die Idee zu Ihrer Transportlösung entstanden?
Wir realisieren seit 1999 Software-Lösungen in der Industrie und Logistik. Dabei wurden wir mehrfach von Kunden auf die Problematik angesprochen, wie man optimal Transporte ausschreiben kann. Deshalb haben wir uns intensiv mit der Fragestellung beschäftigt, eine größere Anzahl von Unternehmen befragt und daraus unser Konzept für eFrexx erstellt. Vor allem der Schwerpunkt, der in den letzten Jahren im Markt auf die Transportprozesse gelegt wurde, hat uns veranlasst eFrexx aus der Taufe zu heben.

Ist die Lösung dann so etwas wie eine Frachtbörse?
Ein ganz klares Jein (lacht Anm. d. Red.). Es geht, wie bei Frachtbörsen, um die Vermittlung von Transporten. Aber, während bei Frachtbörsen jeder Zugriff auf Ausschreibungen von Transporten hat und Daten auswerten kann, arbeitet eFrexx anders. Denn die Ausschreibungsplattformen unserer Kunden sind geschlossene Communities unter der ausschließlichen Verwaltung unserer Kunden. Jede Plattform ist im CI/CD unseres Kunden gestaltet und gebrandet, hat seine eigene URL und nur „eingeladene“ Transporteure haben Zugang. Dadurch behält der Kunde die volle Kontrolle darüber wer seine Daten, sprich Ausschreibungen sieht und daran teilnehmen kann. Oder Rückschlüsse auf seine geschäftlichen Aktivitäten ziehen kann.

Was ist das Alleinstellungsmerkmal von efrexx? Es gibt ja bereits andere Frachtbörsen.
Ja und gerade aktuell ist die „digitale Spedition“ im Hype-Cycle ganz weit vorne. Dabei wird der Fokus auf den Transportprozess aus der Sicht der Transporteure betrachtet. eFrexx dagegen sieht den Prozess aus der Sicht der Versender, die den zentralen Bestandteil des Prozesses, nämlich die Ware, in der Hand haben. Sie haben ein Interesse den besten Transporteur für ihre Ware zu finden. Deshalb haben wir von eFrexx ja diese individuellen Portale der Versender geschaffen. Außerdem haben wir von eFrexx von vorneherein drei der Haupttransportwege kombiniert, während sich andere auf die Landfracht konzentrieren oder nur bestimmte Routen bedienen. eFrexx bietet zudem standardisierte Prozesse für Spezialtransporte, auch für See- und Lufttransporte. Weitere Transportwege kommen in Kürze hinzu, ebenso Kombinationsmöglichkeiten mit Warehousing.

Wieso haben Sie sich bei efrexx für alle drei Transportwege entschieden? Und sich nicht auf eins davon fokussiert?
Warum sollten wir uns auf einen Transportweg konzentrieren? Im Gegenteil wir werden in Kürze weitere Transportwege hinzunehmen und unsere Kunden werden auch Lagerkapazitäten suchen können. Darunter auch Kühlkapazitäten. Die Transportwege für eine Handelsnation wie Deutschland, aber auch viele andere Länder, sind neben Landfracht die See- und Luftfracht. Die dort transportierten Mengen sind enorm. Allein an Container-Seefracht gehen im Jahr mehr 290 Mio. t in Deutschland ein und aus. Der größte Teil der Transporte weltweit aus China läuft über den Seeweg. Es geht eher darum optimale Ausschreibungsprozesse für alle Transportwege zu entwickeln. Darum kümmert sich eFrexx in erster Linie.

Ab welcher Firmengröße lohnt sich der Dienst?
Es gibt keine Beschränkungen in Bezug auf die Firmengröße. Es rechnet sich mit einem Minimum von 200.000, – Euro Frachtkosten pro Jahr, bei komplexen Frachtausschreibungen und bei Projekten, die transportiert werden sollen.

Welche Kosten kommen auf die Mitglieder zu? Wie finanziert sich Ihr Marktplatz?
Bezahlt wird eFrexx durch die Versender, die durch den Einsatz der Plattform um die 22% Frachtkosten einsparen. Es gibt zwei Preismodelle:

  • eine Flatrate, die sich nach einem durchschnittlichen Transportvolumen pro Monat berechnet, z.B. 500,- Euro/Monat
  • eine volumenbasierte Abrechnung, die, nach Transportkosten gestaffelt, auf einem prozentualen Anteil basiert, z.B. einer Varianz von 0,75% fallend bis zu 0,3% bei größeren Volumina.

Bis dato ist Ihre Plattform auf Deutschland ausgerichtet. Gibt es Internationalisierungspläne?
eFrexx wurde in Deutschland gegründet, hat aber ganz klar eine internationale Ausrichtung – ebenso wie die Transporte, die unsere Kunden weltweit durchführen lassen. Wir arbeiten sehr intensiv an der Internationalisierung, die wir über ein Franchisesystem voranbringen. Die ersten Kontakte sind sehr vielversprechend und bereits über Erstkontakte hinaus. Für die ersten europäischen Länder bestehen feste Absichtserklärungen der zukünftigen Partner.

Nach Angaben von Uber würden in Deutschland rund 90 Prozent der Transportkapazitäten von kleineren und mittleren Transportunternehmen bestritten. Diese hätten allerdings Schwierigkeiten, im internationalen Frachtmarkt wahrgenommen zu werden. Der On-Demand-Marktplatz von Uber biete diesen Spediteuren die Möglichkeit mit Uber Freight, am Markt teilzunehmen. Ist Uber nun eine Konkurrenz?
Uber zielt mit seiner Frachtbörse mehr auf den Markt der KEP (Kurier, Express, Paket) -Services. Aber es ist keine Konkurrenz – denn wie bereits dargestellt stehen wir für die Versender ein. Uber Freight wäre sicher ein gern gesehener Provider in unserer Datenbank, ebenso wie die kommenden digitalen Speditionen.

Apropos kommende digitale Speditionen. Wie sehen Ihre Zukunftsvisionen aus?
Unsere Vision ist, das eFrexx in den nächsten Jahren zum wichtigsten Anbieter von Ausschreibungsportalen weltweit wird. Deshalb ist unsere IT-Architektur auf eine Internationalisierung ausgerichtet – Zeitzonen, Mehrsprachigkeit, unterschiedliche Währungen – alles Aspekte, die wir bereits implementiert haben. Wir wollen zu den wichtigsten Third-Party-Anwendungen Integrationen entwickelt haben, um nahtlose Verbindungen zwischen ERP-, Handels- und Speditionssystemen anzubieten. Über das Franchise-System wollen wir bis 2025 in den 50 größten Ex- und Importnationen Franchisenehmer gefunden haben.“

Weitere Informationen unter:
www.efrexx.com

Nachhaltig handeln!

Der Klimawandel erfasst die Wirtschaft und wird zur treibenden Kraft im Wettbewerb.

2020 werden digitale Erfahrungen im Finanzsektor entscheidend

Dies ist ein Gastbeitrag von Karsten Flott, Sales Engineering Manager CER bei AppDynamics

Schon seit über einem Jahrzehnt befindet sich der Finanzsektor in einem tiefgreifenden Transformationsprozess. Von Banken bis zu Versicherungen, traditionelle Geschäftsmodelle und Anbieter geraten zunehmend unter Druck und müssen sich weiterentwickeln. Dieser Trend wird auch im neuen Jahrzehnt anhalten und sich weiter verstärken. Karsten Flott, Sales Engineering Manager CER von AppDynamics zeigt, wie sich Unternehmen darauf einstellen können.

Längst ist die Digitalisierung auch im Finanzsektor angekommen und innovative Ideen krempeln ganze Märkte um. Der Zahldienst Paypal und die auf Smartphone-Nutzer ausgerichtete Direktbank N26 sind nur einzelne Beispiele. Auch Player, die traditionell nichts mit Finanzen zu tun haben, wie Apple oder Google mischen im Payment-Markt mit. Möglich wurde das durch die absolute Selbstverständlichkeit, mit der wir mittlerweile digitale Dienste nutzen. Wir informieren uns online, lassen uns unterhalten und kaufen ein, warum sollte man also nicht auch seine Bankgeschäfte im Internet erledigen?

Unbewusste Nutzung digitaler Angebote

Online-affine Zielgruppen von heute erwarten, dass sie auch alle Finanzdienstleistungen bequem online erledigen können. Doch die Erwartungen sind hoch: Wir befinden uns heute, wenn man so will, in einem Zeitalter des digitalen Reflexes. Das bedeutet, digitale Dienste werden heute nicht mehr bewusst und reflektiert eingesetzt, sondern ganz automatisch. Eine AppDynamics-Umfrage unter 1.000 deutschen Verbrauchern offenbart: Durchschnittlich sieben digitale Dienste nutzen die Befragten täglich, nach eigener Einschätzung. Tatsächlich sind es allerdings mehr als 30. Das zeigt, wie verbreitet die unbewusste Nutzung ist. Außerdem sind Smartphones ein elementarer Bestandteil des Alltags geworden, was sich auch daran zeigt, dass die Hälfte der Umfrageteilnehmer morgens zuerst zu ihrem Smartphone greifen. Für Finanzdienstleister wird ihr Erfolg in Zukunft also auch zu einem großen Teil von ihren Apps abhängen.

Autor Karsten Flott ist Sales Engineering Manager CER bei AppDynamics

Innovative Konkurrenz für Banken

Mit der Einführung der neuen Zahlungsdienstrichtlinie PSD2 durch die EU im letzten Jahr ergeben sich für etablierte Geldhäuser auch neue Herausforderungen. Erklärtes Ziel war es unter anderen, für mehr Wettbewerb im Finanzsektor zu sorgen. Banken werden verpflichtet, Kontodaten über sichere Schnittstellen an Drittanbieter weiterzugeben, sofern Kunden das wünschen. Das bedeutet eine Stärkung von Fintechs. Beispielsweise können Kunden so über eine einzige App Daten von mehreren Girokonten verwalten. Stattdessen sollte es in Bezug auf Kundenbindung eher im Interesse der Banken liegen, dass Kunden deren eigene Apps nutzen. Dafür müssen diese allerdings einwandfrei funktionieren. Generell sind Verbraucher kaum mehr bereit, Fehlfunktionen und Ausfälle zu tolerieren. Wenn es um Finanztransaktionen geht, dürfte die Sensibilität nochmals entsprechend größer sein.

Apps als Differenzierungsmerkmal

In der AppDynamics-Umfrage geben 51 Prozent der deutschen Verbraucher an, dass sie ihre Bank wechseln würden, sollte deren App nicht ihren Anforderungen entsprechen. Das sollte ein Ansporn für alle Institute sein, an ihrer digitalen Präsenz zu arbeiten. Genauso, wie eine schlechte App Kunden kosten kann, kann eine besonders gut gemachte Anwendung auch dafür sorgen, dass sich Neukunden bewusst deswegen für das eigene Haus entscheiden. 59 Prozent der Befragten geben auch an, dass sie bei der Wahl einer Bank darauf achten, ob sie alle Transaktionen digital und ohne zu telefonieren oder eine Filiale aufzusuchen abwickeln können.

Der digitale Reflex beeinflusst Verbraucherentscheidungen

Im nun beginnenden Jahrzehnt ist die Digitalisierung selbstverständlich geworden. Eine Überweisung mit dem Smartphone zu tätigen ist nicht mehr neu oder aufregend, sondern völlig normal. In einer Welt, in der Internet fast schon so selbstverständlich ist wie Strom oder fließend Wasser, reagieren Verbraucher auch ähnlich empfindlich auf Ausfälle. In der zitierten Umfrage geben beispielsweise 64 Prozent der Teilnehmer an, dass sie weniger tolerant gegenüber Problemen mit digitalen Diensten sind als noch vor zwei Jahren. Um die Zukunft ihrer Produkte sicherzustellen sollten also Banken und andere Finanzdienstleister an einer einwandfreien Digitalerfahrung für ihre Kunden arbeiten. Dabei können sie auf umfangreiche Analyse- und Monitoring-Lösungen zurückgreifen, die helfen, Performance-Probleme zu erkennen und zu beheben, bevor Kunden sie bemerken.

Weitere Informationen unter:
www.appdynamics.com

Bildquelle / Lizenz Aufmacher: Photo by Paul Hanaoka on Unsplash

IT-Sicherheit: Was haben wir 2020 zu erwarten

Was haben wir auf dem IT-Security-Sektor in 2020 zu erwarten? Das kann natürlich niemand genau wissen. Fakt ist, dass auch die letztes Jahr beherrschenden Themen in 2020 wieder eine große Rolle spielen. Adenike Cosgrove, Cybersecurity Strategist bei Proofpoint hat für TREND REPORT sechs Themenfelder ausgemacht, die aus Ihrer Sicht in den kommenden Monaten auf jeden Fall große Beachtung finden sollten.

2019 war sicherlich das Jahr der Rückkehr von Emotet, einer der schlimmsten Schadsoftwarevarianten ihrer Art. Doch auch für dieses Jahr können die Cybersecurity-Experten des US-amerikanischen Unternehmens Proofpoint keine Entwarnung in diesem Bereich geben.

Die Autorin Adenike Cosgrove ist Cybersecurity Strategist bei Proofpoint.

Bereits seit einigen Jahren sind E-Mails das beliebteste Angriffswerkzeug der Cyberkriminellen. Die E-Mail ist Grundlage für Phishing-Kampagnen, gezielte Angriffe mit Malware zur Schaffung eines Brückenkopfes innerhalb einer Unternehmens-IT, sowie um Banking-Trojaner, Downloader, Backdoors und vieles mehr zu verbreiten. Allerdings werden auch Cloud-basierte E-Mail-Systeme wie Microsoft Office 365 und Googles GSuite selbst zu Hauptzielen der Angreifer.

Ransomware

Obwohl 2019 Ransomware in den E-Mails selbst eher selten zu finden war, ist davon auszugehen, dass sie 2020 insbesondere bei Angriffen eingesetzt werden, die sich auf Server und Endgeräte in unternehmenskritischen Umgebungen konzentrieren. Dort dürften die Opfer am ehesten für die schnelle Entschlüsselung ihrer Dateien zur Wiederherstellung ihrer Systeme bezahlen. Vor einer Infektion mit Ransomware greifen Kriminelle in der Regel zu Remote Access Trojanern (RATs), Downloadern und Banking-Trojanern, um die Verteidigung des Systems gegen Schadsoftware zu schwächen. Im Jahr 2020 werden mittels Ransomware erpresste Unternehmen folglich zunächst mit vielseitigen Malware-Familien konfrontiert werden, die potenzielle Schwachstellen für künftige Attacken schaffen und Daten von Mitarbeitern sowie geistiges Eigentum kompromittieren.

Komplexe Infektionsketten

Im vergangenen Jahr überstieg die Anzahl von E-Mails, die Links zu mit Malware infizierten Webseiten oder Dokumenten zum Download enthielten, die der E-Mails mit Schadsoftware in Form infizierter Dateianhänge. Da immer mehr Menschen digital zusammenarbeiten und gemeinsam auf Dokumente zugreifen, wird diese Form der Bedrohung weiter an Bedeutung gewinnen.

Darüber hinaus können Kriminelle mit Hilfe von URLs immer komplexer werdende Infektionsketten verschleiern und die Erkennung schwieriger machen als das bei einer einfach verlinkten Payload der Fall wäre. Während URLs in der Vergangenheit häufig direkt mit einer schädlichen Datei verknüpft waren, werden im Jahr 2020 vermehrt URL-Shortener und andere Mechanismen zum Einsatz kommen, die verstärkt versuchen werden, die tatsächliche Schadsoftware – also die Payload – vor den Security-Lösungen zu verbergen.

Gleichzeitig werden die Kampagnen der Angreifer immer komplexer. Sie verbessern ihre Social-Engineering-Fähigkeiten, um Benutzer zur Installation von Malware zu verleiten. Das bedeutet, dass BEC-Taktiken (Business Email Compromise, auch Chef-Masche) ihren Weg in Malware- und Phishing-Kampagnen finden, bei denen Cyberkriminelle den Kontakt zunächst über verschiedene Wege wie LinkedIn oder XING suchen, oderThread-Hijacking betreiben und zunächst unverfängliche E-Mails austauschen, bevor sie nach Aufbau einer persönlichen Beziehung ihre Payload an den Mann bringen. Ebenso wird modulare Malware, die zum Herunterladen weiterer Funktionen oder einer Sekundärmalware verwendet werden kann, verstärkt zum Einsatz kommen und den Trend hin zu mehrstufigen Attacken fortsetzen.

Missbrauch legitimer Dienste

Dementsprechend werden Kriminelle auch den Missbrauch legitimer Dienste für das Hosting der Payloads und die Verbreitung ihrer Angriffe ausweiten. Während beispielsweise SharePoint-Links zum Hosten von Malware schon seit einiger Zeit üblich sind, werden sie nun auch für internes Phishing genutzt. Beispielsweise wird ein kompromittiertes Office-365-Konto dazu verwendet, eine interne Phishing-E-Mail zu senden, die eine Verknüpfung zu einem auf SharePoint gehosteten Phishing-Kit enthält, das über ein anderes, ebenfalls kompromittiertes Konto bereitgestellt wird. Die Opfer werden also niemals auf eine externe Phishing-Website umgeleitet, und die E-Mails scheinen von legitimen Konten, in der Regel Kollegen des eigenen Unternehmens, zu stammen.

Darüber hinaus haben wir Malvertising-Aktivität auf einem hohen Niveau beobachten können, die mit dem Keitaro Traffic Distribution System (TDS) in Verbindung stehen. Keitaro ist ein Service mit einer Reihe von Anwendungen, der vor allem im Web-Marketing eingesetzt wird. Doch mittlerweile wird er zudem häufig von den Cyberkriminellen missbraucht, die die Opfer damit zu einer bestimmten Schadsoftware leiten. Dabei berücksichtigen die Angreifer auch die regionale Herkunft und / oder das Betriebssystem der potenziellen Opfer. Diese Taktik wird 2020 verstärkt genutzt werden.

Brute-Force-Angriffe werden intelligenter

Während traditionelle Brute-Force-Attacken auf Office 365 und andere Cloud-Dienste auch im Jahr 2020 noch anhalten werden, entwickeln sich diese Angriffe technisch immer weiter: So steigt die Zahl digitaler Angriffe unter anderem immer dann, wenn in großem Maßstab Passwörter (auch ältere) von Kriminellen erbeutet werden. Die Angreifer setzen dabei auf Automatisierung, um kompromittierte Passwörter oder solche mit Querverweisen von mehreren Dumps durch gängige Variationen zu ersetzen.

Es ist zudem zu erwarten, dass die Automatisierung von Brute-Force-Angriffen mit Tools wie Python und PowerShell genauso zunehmen wird, wie hybride Angriffe, die sowohl Legacy-Protokolle als auch andere Infiltrationstechniken nutzen, um sich unbefugt Zugriff zu verschaffen.

Lieferketten gefährden Partnerunternehmen

Die Lieferketten stellen einen besonders gefährdeten Bereich dar. Kriminelle werden hier künftig alle verfügbaren Methoden nutzen, vom Kreditkartendiebstahl bis hin zur Chef-Masche (BEC). Doch dürften die Angriffe im Jahr 2020 noch erheblich ausgefeilter werden.

Eine kürzlich durchgeführte Stichprobe bei Organisationen im Gesundheitswesen zeigte ein komplexes Netz von Lieferanten, von denen viele nicht auf die gleichen, hohen Sicherheitsmaßnahmen setzen wie die Organisationen selbst. Daher entstehen Schwachstellen in der Lieferkette. Das Wissen, wer diese Lieferanten sind, und das Bestehen auf hohen Sicherheitsstandards bei E-Mails innerhalb der Lieferketten ist entscheidend dafür, die Möglichkeiten der Angreifer zu beschränken, von einem Lieferanten zum anderen „zu springen“, bis sie ihr ursprünglich anvisiertes Ziel erreicht haben.

Schulung im Fokus

Automatisierte Systeme verhindern, dass eine große Anzahl an Bedrohungen überhaupt im Posteingang der Anwender landet. Aber selbst, wenn nur eine einzige dort ankommt, muss der Anwender diese erkennen können. Das gilt auch dann, wenn sich die Angreifer auf Sprach- und SMS-Phishing sowie Multi-Channel-Angriffe konzentrieren. Folglich ist das Thema Schulung ein Kernelement in Sachen Sicherheit. Nur wenn technische Schutzmaßnahmen mit kritischen, geschulten Anwendern Hand in Hand gehen, lässt sich eine nachhaltige Verbesserung der IT-Sicherheit gewährleisten.

Weitere Informationen unter:
https://www.proofpoint.com/de

Das Bauhaus als Vorbild für eine neue Schule zur Gestaltung der Digitalisierung

Es folgt ein Kommentar von Kim Lauenroth, adesso SE

Der Begriff der „Digitalisierung“ wird gerne kritisiert: Er wird in vielfältigen Kontexten und mit unterschiedlichsten Bedeutungen verwendet, ohne klar definiert zu sein. So hat er im öffentlichen Diskurs schon den Ruf eines Buzzword, das schon bald durch ein neues Wort ersetzt wird. Ob die Kritik am Begriff gerechtfertigt ist oder nicht, soll hier kein Thema sein. Sie darf in jedem Fall aber nicht darüber hinwegtäuschen, dass die Phänomene, die Menschen mit dem Begriff assoziieren, längst Realität sind: Digitale Technologien verbreiten sich in allen Lebensbereichen, sie werden unsere Gesellschaft noch auf Jahrzehnte hinaus prägen. Sie verändern die Art und Weise, wie wir arbeiten, kommunizieren, einkaufen und noch vieles mehr.

Aufgrund dieser tiefgreifenden Veränderungen bezeichnen Vertreter aus Politik und Wirtschaft die Digitalisierung gerne als Gestaltungsaufgabe. Sie rufen dazu auf, die Potenziale der Digitalisierung zum Wohle aller Bürger zu nutzen. Diese Botschaft ist richtig und gut. Vor allem, da Digitalisierung oft in einen negativen Zusammenhang gestellt wird. So wird beispielsweise der Künstlichen Intelligenz das Potenzial zugeschrieben, in Zukunft viele Arbeitsplätze zu vernichten. Aber an wen richten Politiker und Wirtschaftsvertreter ihre Botschaft? Wer soll die Digitalisierung eigentlich gestalten? Und vor allem, nach welchen Werten?
Was die Werte angeht, steht Europa auf seinem Weg in die Digitalisierung sowohl geografisch als auch bildlich zwischen den USA und China. Beide Länder lassen sich auf ihrem Weg durch ihre individuellen Werte leiten und gestalten so ihre digitale Zukunft. Beide Wege entsprechen allerdings nicht den humanistischen Werten, auf denen die Europäische Union gründet. Sie sind daher als Vorbild nur bedingt geeignet. Europa muss sich seinen eigenen Weg suchen und eine digitale Zukunft gestalten, die den europäischen Werten entspricht.

An dieser Stelle könnte dieser Kommentar nun eigentlich enden. Denn die europäischen Werte sind klar und die Gestalter der Digitalisierung sollen diese dann eben anhand der europäischen Werte ausrichten. Was ist das Problem?

Das Problem liegt darin, dass wir keine Gestalter der Digitalisierung haben. Ein kleiner Exkurs hilft hier beim Verständnis. Wer ein Gebäude errichten möchte, wendet sich in erster Instanz an eine Architektin oder einen Architekten. Denn es ist hinlänglich bekannt, dass sie in einem anspruchsvollen Studium dafür ausgebildet werden, Gebäude so zu gestalten und deren Bau so zu begleiten, dass die Gebäude den Bedürfnissen der Nutzer und Bauherren entsprechen. Was ist die Analogie zum Architekten in der Digitalisierung? Die Antwort mag verblüffen: Es gibt sie nicht – und es gibt auch keine systematische Ausbildung zum Gestalter der Digitalisierung.
Dieser Mangel ist kein kleines Problem. Es ist natürlich unbenommen, dass sich Menschen berufen fühlen, die Digitalisierung zu „formen“. Digitalisierung passiert schon heute und dazu gehört natürlich auch ihre Gestaltung. Dennoch fehlt gleich eine ganze Berufsgruppe von Menschen, die es als ihre Verantwortung begreifen, als „Designer“ der Digitalisierung aktiv zu werden und vor allem auch gezielt für diese Aufgabe ausgebildet werden. So hängt die Gestaltung der Digitalisierung von Menschen ab, die nur bedingt für diese Aufgabe vorbereitet wurden. Im Bauwesen akzeptiert die Gesellschaft diesen Zustand nicht, daher gibt es den Beruf des Architekten. Für die Digitalisierung dürfen wir diesen Umstand auch nicht weiter zulassen.
Genau an dieser Stelle setzt das Bitkom-Positionspapier „Digitale Bauhäuser für den europäischen Weg in die digitale Zukunft“ an. Es fordert die Gründung „Digitaler Bauhäuser“, um genau gezielt Gestalterinnen und Gestalter der Digitalisierung auszubilden.

Auf den ersten Blick liegt der Gedanke nahe, dass es sich zum 100. Geburtstag des Staatlichen Bauhauses um ein geschicktes Werbemanöver handelt. Auf den zweiten Blick stellt sich jedoch heraus, dass das Bauhaus ein hervorragendes Vorbild für die Ausbildung von Gestaltern und auch für die Gestaltung der Digitalisierung selbst ist.
Die Gründung des Bauhauses vor 100 Jahren wurde durch Umstände motiviert, die vergleichbar mit der aktuellen Ausgangslage sind . Die Industrialisierung brachte nicht nur neue technische Möglichkeiten, sondern veränderte auch gleichzeitig massiv die Arbeitswelt und die Gesellschaft. Die veränderten Bedingungen erforderten Weiterentwicklung im Design und in der Architektur und gleichzeitig auch ein neues Ideal für die Gestaltung.

Das Bauhaus wird heute in der Öffentlichkeit primär für seine Objekte gefeiert und nicht so sehr für die Menschen, die hinter diesen Gegenständen stehen. Walter Gropius wollte seine Studentinnen und Studenten befähigen, die neuen Materialien (beispielsweise Stahl, Glas und Beton) zu beherrschen – und gleichzeitig über den Status quo hinauszudenken, um ihren Zukunftssinn zur Gestaltung einer lebenswerten Zukunft zu wecken.

Um diesem eigenen Anspruch gerecht zu werden, hat Walter Gropius das Bauhaus nicht nur als Hochschule gedacht, sondern gleichzeitig auch als Labor für die Ausbildung und als Thinktank zur Entwicklung eines lebenswerten Zukunftsideals. Nur so konnte das Bauhaus Menschen ausbilden, die Gegenstände und Gebäude erschaffen haben, die heute noch weltweit berühmt sind – und auch genutzt werden.

Ich bin fest davon überzeugt, dass wir heute wieder Einrichtungen wie das Bauhaus brauchen, um das volle Potenzial der Digitalisierung zu nutzen und vor allem, um zu verhindern, dass die vielfach heraufbeschworen digitalen Dystopien Realität werden. Wir brauchen Menschen, die es den „Bauhäuslern“ gleichtun und das Digitale als eigenständiges und gestaltbares Material begreifen und auch beherrschen können. Es geht aber dabei nicht nur um technische Kompetenz. Gleichzeitig müssen die neuen digitalen Bauhäuser den Studentinnen und Studenten unsere europäischen Werte vermitteln, damit diese als Leitbild für die Gestaltung der digitalen Zukunft von Europa dienen können.

Hanno Rauterberg schließt seinen Text über das Bauhaus mit dem Gedanken, dass das Bauhaus einen Freisinn geweckt hat, der auch nach 100 Jahren noch nachwirkt und von dem man sich heute davontragen lassen sollte. Genau das sollten wir auch für die Digitalisierung anstreben. Digitale Bauhäuser können als Leuchtturm fungieren und genau wie das originale Bauhaus die außerordentlichen Talente anlocken, die eine lebenswerte digitale Zukunft gestalten wollen. Durch ihren Freisinn haben Studentinnen und Studenten in den Werkstätten am Bauhaus die herausragenden Produkte erst erarbeiten können. Mit der richtigen Ausbildung und dem passenden Umfeld können Studentinnen und Studenten an digitalen Bauhäusern diesen Erfolg wiederholen und vielfältigste Ideen für die digitale Zukunft von Europa erdenken und dann auch realisieren.

Über den Autor

Dr. Kim Lauenroth leitet bei der adesso AG das Competence Center für Requirements Engineering. Er ist erster Vorsitzender des International Requirements Engineering Board e.V. und engagiert sich im Bitkom für die Etablierung von Digital Design als Gestaltungsprofession der Digitalisierung.

Weitere Informationen unter:
www.adesso.de

Bildquelle / Lizenz Aufmacher: Image by Tegula from Pixabay

Elektronische Vertrauensdienste

DA:VE ist online

Die Bundesnetzagentur hat das dauerhaftes Verzeichnis für elektronische Vertrauensdienste DA:VE Ende 2019 in Betrieb genommen. Es ermöglicht die dauerhafte Prüfung von qualifizierten elektronischen Signaturen, Siegeln und Zeitstempeln.

„Mit dem dauerhaften Verzeichnis DA:VE leistet die Bundesnetzagentur einen wesentlichen Beitrag zur Verlässlichkeit der elektronischen Unterschrift und bietet deutschen Vertrauensdiensteanbietern einen Vorteil auf dem Binnenmarkt“, sagt Jochen Homann, Präsident der Bundesnetzagentur.

Warum ist das wichtig?

Qualifizierte elektronische Vertrauensdienste wie etwa Signaturen, Siegel und Zeitstempel sind wichtige Werkzeuge der Digitalisierung. Dabei erfordern viele Anwendungsbereiche langfristige Sicherheit. Dort soll z.B. auch in vielen Jahren noch rechtsverbindlich geprüft werden können, wer ein Dokument unterzeichnet hat.

Stellt ein deutscher qualifizierter Vertrauensdiensteanbieter den Betrieb ein, übernimmt die Bundesnetzagentur mit dem Verzeichnis DA:VE die erforderlichen Auskünfte. Bereits erstellte elektronische Signaturen, Siegel und Zeitstempel können so weiterhin zuverlässig auf ihre Gültigkeit geprüft werden. Die Nutzung des Verzeichnisses erfolgt vollautomatisch. Die Bundesnetzagentur unterstützt mit DA:VE die Digitalisierung in Deutschland. Das Verfahren gehört zu den ersten seiner Art in Europa. Es wurde unter Beteiligung der deutschen Marktteilnehmer entwickelt und getestet.

Hintergrund

Die Einführung europaweit einheitlicher elektronischer Vertrauensdienste durch die eIDAS-Verordnung bietet die Möglichkeit, schnelle, kostengünstige sowie vertrauenswürdige elektronische Transaktionen über Ländergrenzen hinweg vorzunehmen. eIDAS hat das Ziel, das Vertrauen in sichere digitale Infrastrukturen nachhaltig zu stärken. Bei Nutzung innovativer Identifizierungsmethoden ermöglichen die elektronischen Bausteine der eDIAS medienbruchfreie und rechtssichere Transaktionen in einem one-stop-shop.

Als Vertrauensanker leistet DA:VE hier einen wichtigen Beitrag.

Weitere Informationen der Bundesnetzagentur zu elektronischen Vertrauensdiensten unter:

www.elektronische-vertrauensdienste.de

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Intelligente Laserbearbeitung

Die Nachfrage nach hochwertigen Bauteilen in großer Stückzahl sowie die Verlagerung von Wertschöpfungsketten in Regionen mit niedrigen Produktionskosten sorgen bei vielen Fertigungsbetrieben für Wettbewerbsdruck, der oftmals nur durch schnellere Bearbeitungsverfahren abgefedert werden kann. Dafür sind jedoch moderne Technologien mit hohem Automatisierungsgrad notwendig, die gerade für kleine und mittlere Unternehmen (KMU) überdimensioniert erscheinen – häufig sind die Beschaffungskosten wie etwa von Ultrakurzpuls-Laseranlagen schlicht zu hoch.

Im Rahmen des EU-Förderprogramms „Horizon 2020“ haben die Unternehmen GFH GmbH und neoLASE GmbH gemeinsam eine kostengünstige und branchenübergreifende Lösung entwickelt: Bei dem „Smart Modular All-in-One Robust Laser Machining Tool“ – SMAART – handelt es sich um ein hochflexibles und vollautomatisches Laserbearbeitungssystem, das mittels eines eigens programmierten intelligenten Steuerungssystems automatisch zwischen verschiedenen Arbeitsschritten wie Laserdrehen oder Feinstrukturieren wechselt. Zudem deckt die Anlage einen Pulsbereich von 500 ps bis 500 fs ab, ohne dass ein aufwendiges Umrüsten notwendig ist. Dadurch bleiben die Anschaffungskosten niedrig und langfristig sollen so Stückzahlen erhöht und Arbeitsplätze geschaffen werden.

Modulare Lasertechnologie auf geringstem Bauraum ermöglicht kompakte und flexible Lasermaterialbearbeitungszentren.
(Quelle: GFH GmbH / neoLASE GmbH)

Steigen die Produktions- oder Personalkosten, sehen sich viele Betriebe gezwungen, ihre Fertigungsprozesse zu restrukturieren oder komplett auszulagern. Gerade Länder mit geringeren Lohn- und Betriebskosten außerhalb der Europäischen Union sind in diesem Zusammenhang attraktiv für deutsche Unternehmen. „Dadurch geht dem europäischen Raum ein signifikanter Betrag an potentiellem Umsatz und Added Value verloren“, erklärt Anton Pauli, Geschäftsführer der GFH GmbH. „Berechnungen nach – basierend auf Daten der Weltbank – sind durch die Abwanderung in Niedriglohnländer allein in den letzten Jahren circa neun Billionen Euro abgeflossen.“ Um diesem Trend entgegenzuwirken, fördert die Europäische Kommission durch Initiativen und Ausschreibungen wie der Horizon 2020 Kampagne neue Technologien, die Fertigungsprozesse effizienter und dadurch günstiger gestalten können.

Eine dieser Technologien ist die Werkstückbearbeitung mit Ultrakurzpuls-Lasern (UKP), die hochpräzise, kontaktlos und dadurch materialschonend operieren. Bisher waren solche Anlagen nicht nur sehr teuer, vielmehr zeigten sie sich komplex im Aufbau und auf einzelne Fertigungsschritte beschränkt. In der Praxis mussten so häufig verschiedene Anlagen für unterschiedliche Bearbeitungsverfahren angeschafft werden, oder aufwendige und lange Umrüstarbeiten durchgeführt werden. Auch die Voraussetzung für umfangreiches Know-How in Bezug auf die Steuerung und die Lasertechnik, um optimale Ergebnisse liefern zu können, machte die Technologie für Klein- und mittelständische Unternehmen bislang nicht nur unrentabel, sondern stellte auch den Grund für gehemmte Investitionsbereitschaft dar. Mit dem Ziel, gemeinsam eine Bearbeitungsanlage zu entwickeln, erfolgte der Zusammenschluss der beiden Laserspezialisten GFH GmbH und neoLASE GmbH. Mit SMAART wurde ein System entwickelt, welches in die neuen Anlagetypen der GFH GmbH integrierbar ist und je nach vorhandenem Bearbeitungsmaterial und Bearbeitungsprozess über die Eingabemaske die passende Laserauswahl – Piko- oder Femtosekunden Laser – anbietet und die richtigen Prozessparameter generiert. Auf diese Weise kann effizienter und mit größerer Bandbreite produziert werden – und das ohne umfangreiche Spezialkenntnisse auf dem Gebiet der Laserbearbeitung. „So lässt sich eine schnelle Amortisierung erreichen und die Etablierung der Laserbearbeitung als Schlüsseltechnologie für den gesamten Sektor der Materialbearbeitung ist realistisch“, erklärt Maik Frede, Geschäftsführer der neoLASE GmbH. Die Finanzierung des ehrgeizigen Projekts erfolgt unter anderem durch Mittel aus dem Rahmenprogramm European Union Horizon 2020. GFH und neoLASE konnten sich dabei mit ihrem SMAART-Projekt gegen 1658 Mitbewerber durchsetzen.

Laserdrehteil aus Hartmetall mit Bohrungen.
(Quelle: GFH GmbH / neoLASE GmbH)

Flexibles Verstärkerdesign ermöglicht variable Pulsdauer und Leistungsklassen

„Durch die Abwanderung ins nicht-europäische Ausland geht dem EU-Raum ein signifikanter Betrag an potentiellem Umsatz und Added Value verloren“, erklärt Anton Pauli, Geschäftsführer der GFH GmbH. (Quelle: GFH GmbH)

Zu Beginn war es nur eine vage Idee, geboren auf einem Laser-Netzwerktreffen. „Ein gemeinsamer Erfahrungsaustausch im Anschluss der Veranstaltung hat gezeigt, dass die Lasertechnologie prädestiniert für ein solches Vorhaben ist“, erklärt Pauli. „Durch die kontaktlose und flexible Bearbeitung mit Lasern ohne nennenswerte Wärmeleitung hat die Technologie das Potential, auch energieaufwendige Prozesse zu ersetzen.“ Für beide Unternehmen galt es zunächst, die Herausforderungen, die Marktsituation, den technischen Status Quo sowie die notwendigen Entwicklungsschritte genau zu definieren. „Damit die Umsetzung eines solchen Projekts überhaupt möglich wird, mussten wir die Lasertechnologie kundennäher gestalten und ihre Komplexität minimieren“, erläutert Frede.

Damit die hohe Flexibilität – also das Wechseln zwischen verschiedenen Arbeitsschritten und Laserparametern ohne Umrüsten – garantiert werden kann, ist es notwendig, dass eine universelle Laserquelle für die Bearbeitung bereitsteht, deren Pulsdauer und Intensität zügig automatisch angepasst werden kann. Die Maschinen mit integriertem SMAART-Tool verfügen über eine Art eigene Intelligenz, welche die jeweiligen Parameter und Komponenten für die einzelnen Bearbeitungsschritte automatisch erkennt, ohne dass diese durch einen Bediener im Voraus berechnet und manuell in die Steuerung eingegeben werden müssen. „Diese Schaltzentrale liefert uns neoLASE mit ihrem GAP-Modul“, berichtet Pauli. „Durch das flexible Verstärkerdesign können auf unseren GL-Anlagen unterschiedliche Pulsdauern und Leistungsklassen abgerufen werden, ohne zusätzlich CPA- oder regenerative Verstärker integrieren zu müssen.“ Dies ermöglicht einen kompakten Aufbau der Anlagen, die dennoch Pulsenergien bis zu 400 µJ und mittlere Leistungen von 80 W generieren können. Gleichzeitig werden zusätzliche Kosten durch aufwendigere Laser oder Komponenten vermieden. „Die Bearbeitungsanlagen von GFH sind generell auf Modularität und Flexibilität ausgelegt, weshalb sie perfekt für unsere Verstärkermodule geeignet sind“, bestätigt Frede. Da durch Kombination beider Technologien der Pulsbereich zwischen 500 ps und 500 fs abgedeckt und ein schneller Wechsel garantiert ist, kann die Anlage signifikante Geschwindigkeitsvorteile und Qualitätssteigerungen erzielen. Durch die gleichzeitige Nutzung von Piko- und Femtosekundenpulsen ist sogar darüber hinaus eine weitere Optimierung der Abtragsgeschwindigkeit vorstellbar.

Berührungslose Bearbeitung ersetzt energieintensive Prozesse

„Unser Ziel ist die Etablierung modularer Lasertechnik als Schlüsseltechnologie für den gesamten Sektor der Materialbearbeitung“, erklärt Maik Frede, Geschäftsführer der neoLASE GmbH. (Quelle: neoLASE GmbH)

Dazu trägt auch die berührungslose Bearbeitung mittels Lasereintrag bei: Weil die Pulse so kurz sind, dass keine nennenswerte Wärmeleitung stattfindet, werden Materialaufschmelzung, Gefügeveränderungen, Phasenumwandlungen und thermische Spannungen im Werkstück vermieden. „So eröffnet sich ein großes Anwendungsfeld für die Herstellung von Mikrokomponenten nicht nur im klassischen Maschinenbau, sondern auch für diverse Industrien wie die Medizintechnik oder die Textil- und Uhrenindustrie“, erklärt Pauli. „Im Idealfall lassen sich energieintensive oder ökologisch bedenkliche Prozesse ersetzen.“ Dies ist besonders wichtig, soll gleichbleibend hohe Qualität in großer Stückzahl erreicht werden, ohne die Produktionskosten zu erhöhen.

Damit die gewünschte Flexibilität auch tatsächlich von Beginn an gewährleistet ist, verfügen SMAART-fähige Anlagen neben der optimierten Hardware auch über eine integrierte Datenbank, auf der die verschiedenen Prozessparameter wie Pulsdauer, Verfahrweg der Optik oder Werkstückmaße und Materialart hinterlegt sind. So ist es möglich über die Eingabemaske, aus über 100 Bearbeitungsverfahren zum Laserbohren, Laserschneiden, Strukturieren und Abtragen mit dem Laser von Metall, Keramik, Glas und Polymeren auszuwählen. „Somit kann der Bediener einfach per Knopfdruck den gewünschten Arbeitsschritt initiieren. Die Ausrichtung der Maschine erfolgt dann automatisch in derselben Aufspannung“, erklärt Frede. „Sollten neue, noch nicht vorhandene Anwendungen oder Parameter hinzukommen, werden Maschine und GAP entsprechend angepasst.“ Auf diese Weise kann SMAART kontinuierlich weiterentwickelt werden und „dazulernen“.

Anwenderfreundlichkeit und Qualitätskontrolle stehen im Zentrum

Damit auch die Werkstückqualität selbst bei schwierig zu bearbeitenden Materialien wie Diamant gleichbleibend hoch ist, verfügen SMAART-fähige Anlagen mit einer Online-Qualitätskontrolle über ein Tool, das die Prozessparameter während der Bearbeitung validiert. Dadurch sind auch während des laufenden Arbeitsschritts Qualitätsproben möglich. „Wir wollten nicht einfach nur die Lasertechnik optimieren, sondern den Mehrwert dieser Verfahren so gut es geht steigern, etwa mit Vereinfachungen im Handling“, erklärt Pauli. „Eine zuverlässige Maschinenlösung, mit der sofort universell produziert werden kann, hält den Betrieb konkurrenzfähig und lässt ihn langfristig wachsen, ohne Personaldruck oder Investitionsängste fürchten zu müssen.“

SMAART – FACTSHEET

Projektdauer: 2 Jahre
Fördervolumen: 70 Prozent European Union Horizon 2020
Aufbau: Modulare Architektur mit u.a. mehreren Laserquellen, Strahlformungselementen, Optiken, Handling-Instrumenten
Pulsdauer: zwischen 500 fs und 500 ps
Pulsenergie: bis zu 400 μJ
Mittlere Leistung: bis zu 80 W
Wiederholrate: von Einzelschuss bis zu mehreren MHz
Strahlqualität: TEMοο mit M2 < 1,3
Anwendungsdatenbank: 100 verschiedene Bearbeitungsverfahren zum Bohren, Schneiden, Strukturieren und Abtragen von Metall, Keramik, Glas und Polymeren (kann erweitert werden)
Rüstzeit: Vollständige Automatisierung des Umrüst- und Einstellvorgangs (innerhalb von 1 Minute)
Online-Qualitätskontrolle für die Probenanalyse während oder unmittelbar nach der Probenverarbeitung

Weitere Informationen unter:
https://gfh-gmbh.de/de/
https://neolase.com/