Leslie Hawthorn und Steve Watt haben für TREND REPORT die Open-Source-Trends für 2020 untersucht. Beide Experten erwarten ein starkes Wachstum im Open-Source-Umfeld.
Wir erwarten, dass sich das Wachstum und der Fußabdruck von Open-Source-Software-Projekten ausweiten werden. Aktuell gibt es allein auf GitHub 2,4 Millionen Repositories, die mit Open-Source-Software lizenziert sind. Das bedeutet die Entwicklung einer großen Anzahl neuer Ideen in einer Art und Weise, die es einfacher macht, sie zu nutzen und gemeinsam an ihnen zu arbeiten – im Gegensatz zu den proprietären Alternativen.
Die Vielfalt rund um Open-Source-Projekte wird zunehmen. Neue Ideen kommen zum Teil aus aufstrebenden Ländern, beispielsweise haben Nigeria, Iran und Kenia im Jahr 2019 den größten Zuwachs an Open-Source-Software-Projekten zu verzeichnen, die auf GitHub erstellt wurden. Hongkong, Singapur und Japan haben den größten Zuwachs an Open-Source-Software-Beiträgen insgesamt zu verzeichnen.
Es wird sich zeigen, dass immer mehr junge Open-Source-Unternehmen, die aggressive Strategien zum Schutz des geistigen Eigentums verfolgen, ihre Position als Eigentümer der Software stärken wollen, wenn sie tatsächlich die ursprünglichen Schöpfer sind.
Dieses Jahr werden wir wahrscheinlich mehr Open-Source-Entwickler sehen, die mit Nachdruck ihre Innovationen schützen möchten.
https://trendreport.de/wp-content/uploads/2020/02/oval-blue-and-orange-open-neon-signage-turned-on-1706018.jpg13952048Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2020-02-12 11:23:212020-02-12 11:24:30Open-Source: Das sind die Trends für 2020
Dies ist ein Gastbeitrag von Toby Martin, Chief Executive Officer bei Extensis
Die Digitalisierung gilt als DIE Herausforderung, der sich die Unternehmen branchenübergreifend stellen müssen. Dabei zeigt sich längst, dass sich viele der hochfliegenden Erwartungen an die Digitalisierung nie erfüllen werden – Digitalisierung um der Digitalisierung willen hat sich überlebt. Gefragt ist ein neuer Blickwinkel.
Der digitale Wandel ist in vollem Gange. Er betrifft alle Branchen und alle Sektoren der Wirtschaft, bietet Chancen für neue Angebote und wirkt sich massiv auf die Arbeitswelt aus – in Deutschland ist, glaubt man einer OECD-Studie, jeder fünfte Arbeitsplatz gefährdet. Angesichts dieser enormen Bedeutung lohnt es sich, sehr genau hinzusehen und den Sinn zu hinterfragen: Was nützt es, Millionen oder gar Milliarden einzelner Daten zu bevorraten, wenn sie sich nicht sinnvoll miteinander verknüpfen lassen, die Rechtslage der Datennutzung immer komplexer wird oder die Suche – zum Beispiel nach einem Foto – viel zu lange dauert?
Verschärfte Rahmenbedingungen
Vor dem Hintergrund deutlich gestiegener gesetzlicher wie gesellschaftlicher Anforderungen zum Schutz persönlicher Daten vor unbefugten Zugriffen oder gar Missbrauch für rechtswidrige Zwecke ist ein Umdenken angesagt. Der Transformationsprozess an sich interessiert niemanden mehr. Heute ist das „Warum?“ gefragt; der Nutzen muss im Zentrum der Überlegungen stehen – also die Frage, welchen Mehrwert die Kunden eines Unternehmens oder das Unternehmen selbst haben, wenn eine neue Technologie – also z. B. eine neue Software – eingeführt wird. Unternehmen sollten sich daher vorab folgende acht Fragen stellen:
Gibt es einen echten Bedarf? Messbare Verbesserungen durch die neue Technologie bei ähnlicher Ausgangslage sind ein starkes Argument für deren Einführung.
Verbessern oder verschlechtern sich mit der neuen Technologie bestehende oder neue Geschäftsbeziehungen? Die Orientierung an den Kunden- und Partnerbedürfnissen ist für den mittel- und langfristigen Geschäftserfolg wichtiger als die eigene Kostenoptimierung.
Kommt es unter dem Strich zu einer Zeitersparnis – einschließlich der nötigen Einarbeitungszeit für die Mitarbeiter? Lassen sich lästige Routineaufgaben stark automatisieren und der Workflow verbessern, lohnt sich eine neue Technologie fast immer. Hier eröffnet sich auch ein wichtiger Einsatzbereich für Künstliche Intelligenz – selbstlernenden Systemen gehört die Zukunft.
Wie robust, fehlertolerant und sicher vor Fehlbedienungen ist die Technologie? Wo Menschen tätig sind, passieren Fehler. Wie bei der alten Regel gilt auch hier: „Müll rein, Müll raus“. Wenn also die Annahmen fehlerhaft sind, dann werden die Ergebnisse folgen.
Trägt die Einführung der Technologie zur Compliance bei? Rechtsverletzungen können dramatische wirtschaftliche Nachteile nach sich ziehen, die sich mit der richtigen Technologie leicht vermeiden lassen. Beispielsweise schützt der Universal Type Server vor dem unrechtmäßigen Einsatz von Schriften, indem er Schriften und deren Hersteller eindeutig identifiziert. Auch die Rechte der Schriftnutzung lassen sich so zweifelsfrei klären – es macht einen Unterschied, ob Sie eine Schrift an Kunden z. B. gar nicht oder uneingeschränkt weitergeben dürfen, oder Sie diese wenigstens legal in ein Dokument einbetten können.
Lässt sich die Technologie bei Bedarf skalieren? Offene Schnittstellen und die Option, Technologien gemeinsam weiterzuentwickeln, sind heute wichtiger denn je – die verwendeten Technologien sollten mit dem Unternehmen mitwachsen können. Wenn dies nicht der Fall ist, sollte dies als ein Schlag gegen die Technologie angesehen werden, da heute vor allem alle Anwendungen neben anderen koexistieren müssen und keine wirklich, völlig eigenständig ist.
Wie sicher ist die Investition auch auf längere Sicht? Wer auf Lösungen etablierter, marktführender Firmen setzt, kann eher damit rechnen, dass es diese auch noch in fünf oder zehn Jahren gibt – und zwar auf einem aktuellen Stand der Entwicklung. Ein guter Indikator ist eine starke Community, die eine Technologie begeistert einsetzt, zur Weiterentwicklung beiträgt und sich bei Fragen gegenseitig hilft.
Wie einfach ist die Technologie in der täglichen Anwendung? Auch auf Technologie-Entscheidungen lässt sich Ockhams Rasiermesser übertragen – der Erklärungsansatz, der die wenigsten Annahmen erfordert, ist im Zweifel richtig. Andere sprechen vom KISS-Prinzip – „Keep it simple, stupid!“. Lässt sich beispielsweise eine Software intuitiv bedienen, oder erst nach langer Einarbeitungszeit? Je schneller eine Technologie produktiv eingesetzt werden kann, desto größer ist die Rentabilität der Investitionen in Zeit, Ausbildung, Ausstattung und Personal.
Wer als Unternehmen alle oder die meisten dieser Fragen mit einem „Ja“ beantworten kann, sollte die in Betracht gezogene Technologie zügig einführen – wer zu spät kommt, den bestraft das Leben.
Organisationen und Unternehmen in der EU haben ohnehin seit der Einführung der Datenschutz-Grundverordnung (DSGVO) keine Wahl: Die DSGVO schreibt insbesondere umfassende Auskunftspflichten und den Schutz personenbezogener Daten nach dem Stand der Technik vor unbefugten Zugriffen vor. Viele der Vorgaben sind – genau betrachtet – nicht neu. Neu ist, dass bei Verstößen saftige Sanktionen drohen. Dadurch zwingt der Gesetzgeber dazu, sich eine leistungsfähige Technologie zu leisten, mit der sich auf einfache Weise feststellen lässt, über welche personenbezogenen Daten diese verfügen – sei es in Datenbanken, Präsentationen, Fotos, Videos und vielem mehr. In der Praxis kommt damit kein größeres Unternehmen mehr an einer Asset-Management-Lösung vorbei.
Die Digitalisierung alten Stils ist tot – es lebe die Digitalisierung 4.0!
Über den Autor
Toby Martin ist seit August 2019 der Chief Executive Officer von Extensis. Die Softwarefirma mit Hauptsitz in Portland, Oregon, zählt zu den Marktführern von Asset Management-Lösungen und ist einer der führenden Anbieter von Schriftverwaltungs-Software.
Ben Korbach stellt die Frage, wie die Rolle klassischer Kredite für die Finanzierung in Zukunft sein wird. Im Unternehmensbereich wird die Bedeutung noch auf absehbare Zeit groß sein.
Ein Gastbeitrag von Ben Korbach
Die Digitalisierung treibt die
Innovationslust von Unternehmern und Investoren immer weiter voran und beinahe
jeden Monat wird ein neues Fintech oder gar ein neues System vorgestellt, das
den klassischen Banken Konkurrenz macht. Vor allem im Bereich der
Finanzierungen ergeben sich ständig neue Möglichkeiten, wie Unternehmen
finanzielle Mittel auftreiben können.
Ist die
Zeit klassischer Kredite vorbei?
Über Jahrzehnte hinweg war die Hausbank der erste Kontakt, wenn Unternehmen einen Kredit oder eine andere Finanzierungslösung benötigt haben. Im Zeitalter der Niedrigzinsen, Digitalisierung und FinTechs ist das zwar nicht mehr zwangsweise der Fall, der klassische Bankkredit hat aber nach wie vor eine herausragende Bedeutung in der Unternehmensfinanzierung. Die Zeit klassischer Kredite ist also nicht vorbei, sie müssen sich nur das Feld mit einer immer größeren Anzahl alternativer Finanzierungsmöglichkeiten teilen.
Die Vor-
und Nachteile verschiedener Finanzierungstrends
In der
folgenden Auflistung werden die Möglichkeiten zur Unternehmensfinanzierung
aufgezeigt, die sich in den letzten Jahren entwickelt haben bzw. in den
kommenden Jahren zu erwarten sind.
Innovationsfinanzierungen
mithilfe von Förderkrediten
Die
Niedrigzinsphase bildet mit der immer weiter voranschreitenden Digitalisierung
ein besonderes Marktumfeld, in welchem vor allem Förderkredite an Bedeutung und
Beliebtheit gewinnen. Immer mehr Unternehmen nutzen die günstigen Kredite dazu,
um das eigene Unternehmen zukunftsfähig zu machen, neue Möglichkeiten zu
erforschen oder längst überfällige Software-Updates durchzuführen.
Die
Kreditanstalt für Wiederaufbau (KfW) nimmt dabei eine wichtige Rolle ein und
bietet gleich ein ganzes Produktportfolio an, mit dem sie Unternehmen bei
Innovation und Wachstum unterstützt. Neben dem eher klassischen
ERP-Digitalisierungskredit kann auch eine Mezzanin-Lösung mit niedrigeren
Sicherheitsanforderungen oder ein Konsortialkredit mit dem Fokus auf
Unternehmenswachstum genutzt werden. Mit dem BMU-Umweltinnovationsprogramm gibt
es darüber hinaus ein Programm speziell für alle Umweltschutz-Pioniere.
Die
Vorteile dieser Finanzierungsmöglichkeit liegen vor allem in den günstigen
Konditionen sowie der teilweisen Risiko-Übernahme durch die KfW. Allerdings ist
zu beachten, dass die Förderkredite in der Regel nur einen
Finanzierungsbaustein darstellen und auch nur dann genutzt werden können, wenn
die entsprechenden Voraussetzungen je Programm erfüllt werden.
Crowdfunding
– gemeinsam sind wir stark
Der
Gedanke der „Sharing Economy“ hat nicht nur dazu geführt, dass wir unsere
Wohnungen über Airbnb an fremde Menschen vermieten, sondern auch dazu, dass wir
uns unabhängig von Banken zusammenschließen, um gemeinsam Projekte zu
finanzieren. Diese Art der Finanzierung hat sich in den letzten Jahren immer
weiterentwickelt und ermöglicht heute auch Unternehmen, über verschiedene
Online-Anbieter einen Kredit zu günstigen Konditionen aufzunehmen.
Bei
dieser Vorgehensweise ist auch immer ein sehr ausgeprägtes Gemeinschaftsgefühl
spürbar. So verspricht die Berliner Crowdinvesting- und Crowdlending-Plattform
Kapilendo auf ihrer Startseite zum Beispiel, auf Intermediäre zu verzichten und
stattdessen ein Netzwerk aus Unternehmen und unternehmerisch denkenden
Investoren zu etablieren.
Neben
dem einfachen Online-Beantragungsprozess und den günstigen Konditionen,
versprechen diese Plattformen also vor allem eine Geschäftsbeziehung auf
Augenhöhe in einer starken Gemeinschaft.
Paradoxerweise
kann ein Nachteil jedoch darin liegen, dass genau diese Beziehung eben nicht so
intensiv ausfällt wie bei dem Unternehmenskundenberater der Hausbank, der
regelmäßig im Unternehmen vorbeischaut.
Kryptowährungen
– Eine neue Welt voller Möglichkeiten
Eine
völlig neue Form der Unternehmensfinanzierung stellen Kryptowährungen bzw.
Token dar. Im Grunde drehte sich der Krypto-Boom inklusive Blasenbildung im
Jahr 2017 um die Möglichkeit, finanzielle Mittel von Investoren über diese
digitalen Coins aufnehmen zu können, ohne eine (Investment-)Bank einschalten zu
müssen. Auch die strengen Prüfungen von Wagniskapitalgebern sowie die Abgabe
von Unternehmensanteilen konnten galant umgangen werden, indem die frisch
gegründeten Start-Ups ihre Geschäftsidee einfach schick auf der eigenen
Homepage präsentierten und hierüber auch gleich den eigenen Coin bewarben.
Das
Versprechen: Je erfolgreicher das Unternehmen, umso höher steigt der Kurswert
des jeweiligen Coins. Auf diese Weise versprachen sich viele Investoren hohe
Gewinne durch die indirekte Beteiligung am Unternehmenserfolg.
In
Anlehnung an IPOs wurde die erstmalige Emission neuer Coins bzw. Token als ICO
(Initial Coin Offering) bezeichnet. Leider hat das völlige Fehlen jeglicher
Regulierung zu vielen schwarzen Schafen und Betrugsvorfällen unter diesen
„Startups“ geführt. Die insgesamt 875 ICOs in 2017 haben mit den gesammelten
Geldern in Höhe von USD 6,2 Mrd. jedoch gezeigt, dass das System prinzipiell
schon heute funktioniert.
Aus
diesem Grund hat sich diese neue Finanzierungsmöglichkeit in den letzten Jahren
bereits deutlich weiterentwickelt. Anstelle der ICOs sind STOs getreten: Diese
„Security Token Offerings“ sind darauf ausgerichtet, die Zulassung der BaFin zu
erhalten und somit diese neuartige Finanzierungsart als eine regulierte
Möglichkeit der Kapitalbeschaffung vielen Unternehmen zugänglich zu machen. Am
Ende werden bei STOs Schuldverschreibungen „tokenisiert“ und den Investoren
online zum Kauf angeboten.
Den
ersten regulierten und von der BaFin genehmigten deutschen STO hat das
Kreditunternehmen Bitbond im Jahr 2019 durchgeführt und auf diese Weise USD 2,3
Mio. eingesammelt. Das ist zwar noch nicht besonders viel, aber die Zeichen für
die digitalen Coins und Token stehen gut.
So hat
beispielsweise auch die EZB
angekündigt, die Vor- und Nachteile eines komplett „digitalen Euro“ auszuloten,
was eine enorme Signalwirkung für den jungen Markt der Kryptowährungen hat.
Über den Autor
Ben Korbach war lange Jahre im Unternehmenskunden-Bereich einer deutschen Großbank tätig, bis er merkte, dass dies nicht mehr sein Weg ist. Seitdem reist er zusammen mit seiner Frau um die Welt und arbeitet überall dort, wo es Internet gibt, als Unternehmens-Coach und strategischer Content-Partner. Seine Spezialität besteht darin, die richtigen Fragen zu stellen und die oft komplexen Antworten in einfache, storybasierte Texte zu übersetzen. Dabei hat sich Ben Korbach unter anderem auf das Thema Kredite spezialisiert. Mehr Informationen zum Autor auch unter https://www.benkorbach.com/.
https://trendreport.de/wp-content/uploads/2020/02/Foto-Ben-Korbach.jpg12001200Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2020-02-10 08:48:082020-02-10 08:48:09Vom klassischen Kredit bis zum Crowdfunding – Welche Finanzierungstrends gibt es in 2020?
Jered Floyd, Member of Technical Staff im Office of the CTO bei Red Hat wagt Prognosen, wie sich das Internet der Dinge im Jahr 2020 entwickeln wird. Besonders spannend wird das Edge-Computing dahingehend, als das die Geräte zunehmend mehr Aufgaben übernehmen können und in der Lage sind, komplette Linux-Implementierungen auszuführen.
IoT-Application-Stacks für Unternehmensimplementierungen werden stärker komponentenbasiert sein. Trotz der Protokoll-Standardisierung für die Kommunikation mit IoT-Komponenten, Sensoren und Aktoren gibt es noch wenig Standardisierung in der Anwendungsarchitektur. Es werden zwar gängige Entwicklerwerkzeuge verwendet, aber die Architektur jeder IoT-Implementierung ist in der Regel einzigartig. Angetrieben durch die Standardisierung von Open-Source-Komponenten wird 2020 mehr Konsistenz in der IoT-Anwendungsarchitektur bringen, die von der Cloud über das Edge-Gateway bis zum Device reicht.
Das größte Wachstumsfeld für IoT-Use-Cases wird die Automobilindustrie sein. Die Automobilzulieferer durchleben eine beschleunigte Entwicklung in Folge einer verzögerten Digitalen Transformation und erkennen, dass ihr wichtigster Differenzierungswert in ihrer Vehicle-to-Cloud-IT-Infrastruktur liegt und nicht nur in der Herstellung von Motoren und anderen mechanischen Komponenten. Dabei zeichnet sich ab, dass der Trend weg geht von der Nutzung Dutzender unabhängiger, microcontroller-gesteuerter Subsysteme hin zu einem einzigen hochleistungsfähigen Bordsystem, das permanent mit der Cloud verbunden ist. Dieses „Internet-of-Things-on-Wheels“ existiert bereits in der Premiumklasse, wird aber 2020 auch verstärkt im Massenmarkt eingesetzt werden.
Das unternehmensweite (oder industrielle) IoT wird als ein Anwendungsfall für Edge-Computing erkannt. Die Nutzung von Edge Devices als unabhängige Einheiten wird aus Sicherheits- und Wartungsperspektive zunehmend problematisch, da selbst das kleinste Gerät in der Lage sein wird, ein vollwertiges Betriebssystem wie Linux auszuführen. Diese Milliarden von IoT-Geräten sind ein riesiges verteiltes System und werden schnell mit End-to-End-Edge-Architekturen entweder von Cloud-Service- oder Unternehmenssoftware-Anbietern in Einklang gebracht werden. Die Dichotomie von Managed Services und eigener Plattform wird das größte IoT/Edge-“Schlachtfeld” der nächsten drei Jahre sein.
https://trendreport.de/wp-content/uploads/2020/02/five-bulb-lights-1036936-scaled.jpg17062560Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2020-02-07 09:48:162020-02-07 09:48:17Was hält das Jahr 2020 für das IoT bereit?
Axel Simon, Senior Software Engineer bei Red Hat widmet sich den Trends der Blockchain. Der Einsatz wird in 2020 immer breiter werden und als Teil einer Gesamtlösung wird die Technologie immer mehr Anwendungen prägen. Die Blockchain-Technologie wird ihr universelles Anwendungspotenzial deutlicher darstellen – weg von den Kryptowährungen, die in den vergangenen Jahren die Verwendung prägten.
Tokenisierung – Die Darstellung von digitalen und nicht-digitalen Werten als Token auf einer Blockchain, in der weiter gehandelt und umgetauscht werden kann – wird weiterhin die Träume von der Entfesselung der Kräfte des freien Marktes auf nahezu alles befeuern und umfassende Investitionen erfordern, wie sie derzeit von der Finanzindustrie verfolgt werden.
Wachsendes Interesse an den digitalen Währungen der Zentralbanken – Es überrascht nicht, dass nach der Ankündigung von Libra, der geplanten Kryptowährung von Facebook, generell das Interesse an Kryptowährungen wieder zunimmt, und auch, dass verschiedene Regierungen sich deshalb besorgt zeigen. Die Kombination dieser beiden Aspekte verleiht der Idee rund um eine Central Bank Digital Currency (CBDC), mit der mehrere Zentralbanken in den letzten Jahren gespielt haben, neuen Wind. Einige sehen „Fedcoins“ (oder “digitales Fiatgeld”) als logischen nächsten Schritt in der Entwicklung von staatlich geförderten Währungen.
Private zulassungsgebundene und öffentliche zulassungsfreie Blockchains arbeiten zusammen – Wenn es einen Konsens in Sachen Blockchain gibt, dann den, dass es nicht die eine dominierende Blockchain geben wird. Vor diesem Hintergrund besteht großes Interesse daran, „horizontale Silos“ zu vermeiden und sicherzustellen, dass eine Vielzahl von Blockchains zusammenwirken können. Dieses Interesse wird tendenziell noch zunehmen, wenn Projekte wie Polkadot oder Cosmos weiter ausreifen. Interessanterweise ist die Open-Source-Natur des Blockchain-Ökosystems, sowohl in Bezug auf den Code als auch auf die Kultur, ein wichtiger Faktor für diese Interoperabilität. All dies ebnet den Weg in eine Zukunft, in der eine Vielzahl von Blockchains, sowohl öffentliche als auch private, koexistieren und Werte teilen.
Blockchains als Ankerebene – Wenn Menschen an Blockchains denken, dann häufig als Lösung eines einzelnen Problems, anstatt als umfassende Gesamtlösung. In Zukunft wird es zunehmend Projekte geben, die eine Blockchain als Teil einer Gesamtlösung verwenden, oft als eine Art Ankerebene, die andere Elemente zum Aufbau von Vertrauen nutzen können, wie wir es bereits bei eigenständigen Identitätsprojekten wie Sovrin (basierend auf Hyperledger Indy) sehen. Andere Bereiche, die wahrscheinlich vermehrt Blockchains als Teil ihrer Lösungen verwenden werden, sind das Internet der Dinge und Künstliche Intelligenz.
Zusammengefasst: Nach dem Höhepunkt des Blockchain-Hypes im letzten Jahr hat sich der Fokus auf die Entwicklung praktikabler Lösungen verlagert. Oft bedeutet das, dass man Blockchains als Werkzeug, als Teil einer Lösung, und nicht mehr als die Lösung selbst behandelt. Es bedeutet auch, dass man sich die spezifischen Stärken von Blockchains anschaut und sie nutzt: die Verwendung von Token und die damit verbundene Ökonomie, die Überprüfung von Krypto-Währungen und was sie aus staatlicher Sicht ermöglichen und den Werttransfer in einem Netzwerk heterogener Teilnehmer.
Ein Novum in der Börsengeschichte: Wie Handelsblatt und Financial Times übereinstimmend berichten, ist der Börsenwert aller DAX-Unternehmen zusammengenommen niedriger als der des US-amerikanischen Konzerns Apple alleine. Diese Entwicklung verdeutlicht, dass Deutschland als eine der größten europäischen Volkswirtschaften von anderen Ländern abgehängt wird.
Doch welche Gründe hat dies? Und was können deutsche Unternehmen tun, um der Konkurrenz aus dem Ausland standzuhalten?
Bjoern Klaas, Vice President und Managing Director von Protolabs Europe
Bjoern Klaas, Vice President und Managing Director von Protolabs Europe kommentiert:
„Was sich zunächst nach einem Erdrutsch an den Börsen
anhört, ist in Wirklichkeit eine Folge der Schwierigkeiten deutscher Industrie-
und IT-Unternehmen sich an den Boom neuer Technologien anzupassen, um weiterhin
international wettbewerbsfähig zu bleiben. Trends und Themen wie
Digitalisierung und moderne Herstellungsverfahren gingen lange Zeit an den
wichtigsten deutschen Unternehmen vorbei und auch in der Politik werden
zukunftsträchtige Themen oft zu zögerlich angegangen. Gleichzeitig hat sich der
Innovationsdruck und die Konkurrenz in der modernen Wirtschaftswelt weiter
verstärkt und verlangt von Entscheidern und Verantwortlichen Weitsicht und
tiefgreifende Einblicke in die heutigen technologischen Möglichkeiten.
Wichtige Aspekte sind dabei die Bereitschaft sich schnell
mit neuen Themen auseinandersetzen und vor allem die Flexibilität auch in
kurzer Zeit auf neue Marktentwicklungen reagieren zu können. Dabei ist es
besonders wichtig, dass die vorhandene Innovationskraft hierzulande schnell in
tatsächliche Produkte und Dienstleistungen umgesetzt werden kann. Entscheidend
hierbei sind verkürzte Zeiten bis zur Markteinführung und die Möglichkeit
Produkte schnell an neue Gegebenheiten anpassen zu können. Speziell bei der
Herstellung von Prototypen merken wir bei Protolabs, dass es in Deutschland
nicht an Innovationskraft mangelt. Vielmehr besteht die Schwierigkeit darin,
neue Produkte schnell und effizient auf den Markt zu bringen. Wenn von der Idee
bis zum fertigen Produkt Monate vergehen, ist die Konkurrenzsituation meist
bereits aussichtlos.
Für deutsche Unternehmen bedeutet dies, dass eine stärkere Konzentration auf Kooperationen mit Spezialisten im Bereich der Entwicklung neuer Produkte liegen muss. Technologien wie eine automatisierte Machbarkeitsanalyse und Rapid Prototyping sind längst vorhanden und werden bereits heute verstärkt nachgefragt.
Schlussendlich muss aber klar sein, dass Unternehmen diese Möglichkeiten auch aktiv nutzen sollten, um dem gestiegenen Innovationsdruck und der internationalen Wettbewerbslage entgegentreten zu können.“
https://trendreport.de/wp-content/uploads/2020/02/1280px-Bulle_und_Bär_Frankfurt.jpg8511280Martina Bartlett-Mattishttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngMartina Bartlett-Mattis2020-02-04 08:25:002020-02-04 13:34:35Apple hat die Nase vorn
Kaum ein Büroarbeiter, besonders in kreativen Berufen, ist noch an einen festen Arbeitsplatz gefesselt – doch die wachsende Flexibilität bringt auch Herausforderungen mit sich.
https://trendreport.de/wp-content/uploads/2020/01/logitech_neuland_aufmacher.jpg13572048trendreporthttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngtrendreport2020-02-03 14:10:292020-06-30 08:31:31Bring your own Meeting: Modernes, standortunabhängiges Arbeiten mit Videokonferenzen
BrainTech-Startups wollen mittels IoT das “Internet des Körpers” entwickeln. Denn unser Körper liefert genau wie Produktionsmaschinen eine Unmenge an Daten, die im Gegensatz zu den Maschinen bisher meist brachliegen und daher hohes Potential für Wissenschaft und Wirtschaft bieten.
https://trendreport.de/wp-content/uploads/2020/01/nerve-cell-2213009_1920.jpg10801920Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2020-02-03 01:00:002020-04-24 09:14:55Das Rennen um die Bedeutung der menschlichen Seele
https://trendreport.de/wp-content/uploads/2020/01/miguel-a-amutio-ngZ4V-myG5s-unsplash-scaled.jpg15572560Martina Bartlett-Mattishttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngMartina Bartlett-Mattis2020-01-31 14:00:112020-02-04 10:36:00Datenqualität messen – So geht es!
Prognosen sind immer schwierig, besonders wenn sie die Zukunft betreffen. Daniel Riek und Sanjay Arora von RedHat haben es trotzdem versucht. Ihr Spezialgebiet sind Machine Learning und KIOps. Sie blicken in die kommenden Monate und zeigen für TREND REPORT exemplarisch einige wichtige Entwicklungen und begründen ihre Ansicht.
Das Ende der integrierten KI-Plattformen
Zusätzlich zu Kubernetes werden Kunden zu einem Best-of-Breed-Ansatz für ihre Data Science- und KI-Plattformen und -Workflows übergehen. Die Standardisierung wird durch Projekte wie Kubeflow vorangetrieben – und mit dem Red Hat Downstream Open Data Hub wird Kubernetes zur zentralen KI-Plattform. Dieser Umstand wird die Differenzierung bestehender Angebote erschweren, bei denen es sich um Thin User Interfaces und Workflow-Layer auf denselben Open-Source-Stacks handelt, und wird den Fokus auf differenzierte spezialisierte Komponenten verlagern.
Small Data vs. Big Data ML
Die meisten bestehenden Branchenprobleme betreffen nach wie vor Small-Data. Die größten Hürden sind die Verfügbarkeit von bereinigten Daten, die Definition von Problemen und Modellen mit umsetzbaren Lösungen, die Bereitstellung von Modellen für die Produktion und die Überwachung der Modellperformance – und das alles unter Einhaltung von Vorschriften und Unternehmensrichtlinien und ohne dass die Bereitstellung eines Modells durch mehrere Teams erfolgen muss. Die Daten- und Modellversionierung wird für die meisten Unternehmen weiterhin eine besondere Herausforderung darstellen.
Während Deep-Learning-Modelle zu Beginn große Datenmengen für die Konzeption und die Feinjustierung von Open-Source-Modellen erforderten, sind bei viel kleineren Modellen die Datensätze sowohl für Bild- als auch für Sprachaufgaben realisierbar und in verschiedenen Bibliotheken (wie fasti.ai und spacy) verfügbar. Dies liefert mehr Datensätze für die Analyse – mit der Einschränkung von Zeitverbrauch und Interpretierbarkeit.
Nicht im Deep Learning angesiedelte Techniken wie lineare Modelle, baumbasierte Modelle, Clustering, Zeitreihenanalysen und spezialisiertere Analysewerkzeuge wie die Warteschlangentheorie oder diskrete Optimierung werden in den meisten Anwendungsfällen genutzt werden. Vertrauensfragen und das Management werden im Mittelpunkt von realen KI-Anwendungen stehen. Wahrscheinlich wird es vermehrt Versuche geben, KI zu regulieren und mehr Technologien für das Management einzusetzen, um das Vertrauen zu fördern. Spezialisierte Hardware wird auf dem Markt stark wachsen, um die Anforderungen an Energieeffizienz und Leistung zu erfüllen, insbesondere in Inferenz-Anwendungsfällen.
AI Ops / AI Dev (Sec) Ops werden zunehmend Bedeutung erlangen
Die KI im Bereich IT-Operations und Dev(Sec)Ops gewinnt zunehmend an Zugkraft und wird wahrscheinlich für “Einhorn”-Investitionen interessant werden. Etablierte Plattformanbieter investieren stark in diesen Bereich und werden sich um eine autonome Hybrid Cloud bemühen. Kubernetes wird hier im Fokus stehen, da damit die erforderlichen Standardisierungs- und Automatisierungsmöglichkeiten vorhanden sind, insbesondere in Kombination mit dem Kubernetes-Operators-Konzept. Für Kunden bedeutet dies eine verbesserte Zuverlässigkeit, Qualität und Skalierbarkeit sowohl in der Produktion als auch in ihren DevOps-Workflows.
https://trendreport.de/wp-content/uploads/2020/01/Graphik-Advanced-Loyalty-System-for-ProCampaign_DE_300dpi.jpg7941156Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2020-01-29 17:08:082020-01-29 17:08:08Next Gen Loyalty für Storebrands
Aktuell ist die „digitale Spedition“ im Hype-Cycle ganz weit vorne. Dabei wird der Fokus auf den Transportprozess aus der Sicht der Transporteure betrachtet. eFrexx dagegen sieht den Prozess aus der Sicht der Versender, die den zentralen Bestandteil des Prozesses, nämlich die Ware, in der Hand haben. Sie haben ein Interesse den besten Transporteur für ihre Ware zu finden. Wir haben Achim Quaken, Geschäftsführer von eFrexx, der Cloud-basierten Order-Plattform für Transportdienstleistungen dazu befragt.
Herr Quaken, wie ist die Idee zu Ihrer Transportlösung entstanden? Wir realisieren seit 1999 Software-Lösungen in der Industrie und Logistik. Dabei wurden wir mehrfach von Kunden auf die Problematik angesprochen, wie man optimal Transporte ausschreiben kann. Deshalb haben wir uns intensiv mit der Fragestellung beschäftigt, eine größere Anzahl von Unternehmen befragt und daraus unser Konzept für eFrexx erstellt. Vor allem der Schwerpunkt, der in den letzten Jahren im Markt auf die Transportprozesse gelegt wurde, hat uns veranlasst eFrexx aus der Taufe zu heben.
Ist die Lösung dann so etwas wie eine Frachtbörse? Ein ganz klares Jein (lacht Anm. d. Red.). Es geht, wie bei Frachtbörsen, um die Vermittlung von Transporten. Aber, während bei Frachtbörsen jeder Zugriff auf Ausschreibungen von Transporten hat und Daten auswerten kann, arbeitet eFrexx anders. Denn die Ausschreibungsplattformen unserer Kunden sind geschlossene Communities unter der ausschließlichen Verwaltung unserer Kunden. Jede Plattform ist im CI/CD unseres Kunden gestaltet und gebrandet, hat seine eigene URL und nur „eingeladene“ Transporteure haben Zugang. Dadurch behält der Kunde die volle Kontrolle darüber wer seine Daten, sprich Ausschreibungen sieht und daran teilnehmen kann. Oder Rückschlüsse auf seine geschäftlichen Aktivitäten ziehen kann.
Was ist das Alleinstellungsmerkmal von efrexx? Es gibt ja bereits andere Frachtbörsen. Ja und gerade aktuell ist die „digitale Spedition“ im Hype-Cycle ganz weit vorne. Dabei wird der Fokus auf den Transportprozess aus der Sicht der Transporteure betrachtet. eFrexx dagegen sieht den Prozess aus der Sicht der Versender, die den zentralen Bestandteil des Prozesses, nämlich die Ware, in der Hand haben. Sie haben ein Interesse den besten Transporteur für ihre Ware zu finden. Deshalb haben wir von eFrexx ja diese individuellen Portale der Versender geschaffen. Außerdem haben wir von eFrexx von vorneherein drei der Haupttransportwege kombiniert, während sich andere auf die Landfracht konzentrieren oder nur bestimmte Routen bedienen. eFrexx bietet zudem standardisierte Prozesse für Spezialtransporte, auch für See- und Lufttransporte. Weitere Transportwege kommen in Kürze hinzu, ebenso Kombinationsmöglichkeiten mit Warehousing.
Wieso haben Sie sich bei efrexx für alle drei Transportwege entschieden? Und sich nicht auf eins davon fokussiert? Warum sollten wir uns auf einen Transportweg konzentrieren? Im Gegenteil wir werden in Kürze weitere Transportwege hinzunehmen und unsere Kunden werden auch Lagerkapazitäten suchen können. Darunter auch Kühlkapazitäten. Die Transportwege für eine Handelsnation wie Deutschland, aber auch viele andere Länder, sind neben Landfracht die See- und Luftfracht. Die dort transportierten Mengen sind enorm. Allein an Container-Seefracht gehen im Jahr mehr 290 Mio. t in Deutschland ein und aus. Der größte Teil der Transporte weltweit aus China läuft über den Seeweg. Es geht eher darum optimale Ausschreibungsprozesse für alle Transportwege zu entwickeln. Darum kümmert sich eFrexx in erster Linie.
Ab welcher Firmengröße lohnt sich der Dienst? Es gibt keine Beschränkungen in Bezug auf die Firmengröße. Es rechnet sich mit einem Minimum von 200.000, – Euro Frachtkosten pro Jahr, bei komplexen Frachtausschreibungen und bei Projekten, die transportiert werden sollen.
Welche Kosten kommen auf die Mitglieder zu? Wie finanziert sich Ihr Marktplatz? Bezahlt wird eFrexx durch die Versender, die durch den Einsatz der Plattform um die 22% Frachtkosten einsparen. Es gibt zwei Preismodelle:
eine Flatrate, die sich nach einem durchschnittlichen Transportvolumen pro Monat berechnet, z.B. 500,- Euro/Monat
eine volumenbasierte Abrechnung, die, nach Transportkosten gestaffelt, auf einem prozentualen Anteil basiert, z.B. einer Varianz von 0,75% fallend bis zu 0,3% bei größeren Volumina.
Bis dato ist Ihre Plattform auf Deutschland ausgerichtet. Gibt es Internationalisierungspläne? eFrexx wurde in Deutschland gegründet, hat aber ganz klar eine internationale Ausrichtung – ebenso wie die Transporte, die unsere Kunden weltweit durchführen lassen. Wir arbeiten sehr intensiv an der Internationalisierung, die wir über ein Franchisesystem voranbringen. Die ersten Kontakte sind sehr vielversprechend und bereits über Erstkontakte hinaus. Für die ersten europäischen Länder bestehen feste Absichtserklärungen der zukünftigen Partner.
Nach Angaben von Uber würden in Deutschland rund 90 Prozent der Transportkapazitäten von kleineren und mittleren Transportunternehmen bestritten. Diese hätten allerdings Schwierigkeiten, im internationalen Frachtmarkt wahrgenommen zu werden. Der On-Demand-Marktplatz von Uber biete diesen Spediteuren die Möglichkeit mit Uber Freight, am Markt teilzunehmen. Ist Uber nun eine Konkurrenz? Uber zielt mit seiner Frachtbörse mehr auf den Markt der KEP (Kurier, Express, Paket) -Services. Aber es ist keine Konkurrenz – denn wie bereits dargestellt stehen wir für die Versender ein. Uber Freight wäre sicher ein gern gesehener Provider in unserer Datenbank, ebenso wie die kommenden digitalen Speditionen.
Apropos kommende digitale Speditionen. Wie sehen Ihre Zukunftsvisionen aus? Unsere Vision ist, das eFrexx in den nächsten Jahren zum wichtigsten Anbieter von Ausschreibungsportalen weltweit wird. Deshalb ist unsere IT-Architektur auf eine Internationalisierung ausgerichtet – Zeitzonen, Mehrsprachigkeit, unterschiedliche Währungen – alles Aspekte, die wir bereits implementiert haben. Wir wollen zu den wichtigsten Third-Party-Anwendungen Integrationen entwickelt haben, um nahtlose Verbindungen zwischen ERP-, Handels- und Speditionssystemen anzubieten. Über das Franchise-System wollen wir bis 2025 in den 50 größten Ex- und Importnationen Franchisenehmer gefunden haben.“
Dies ist ein Gastbeitrag von Karsten Flott, Sales Engineering Manager CER bei AppDynamics
Schon seit über einem Jahrzehnt befindet sich der Finanzsektor in einem tiefgreifenden Transformationsprozess. Von Banken bis zu Versicherungen, traditionelle Geschäftsmodelle und Anbieter geraten zunehmend unter Druck und müssen sich weiterentwickeln. Dieser Trend wird auch im neuen Jahrzehnt anhalten und sich weiter verstärken. Karsten Flott, Sales Engineering Manager CER von AppDynamics zeigt, wie sich Unternehmen darauf einstellen können.
Längst ist die Digitalisierung auch im Finanzsektor angekommen und innovative Ideen krempeln ganze Märkte um. Der Zahldienst Paypal und die auf Smartphone-Nutzer ausgerichtete Direktbank N26 sind nur einzelne Beispiele. Auch Player, die traditionell nichts mit Finanzen zu tun haben, wie Apple oder Google mischen im Payment-Markt mit. Möglich wurde das durch die absolute Selbstverständlichkeit, mit der wir mittlerweile digitale Dienste nutzen. Wir informieren uns online, lassen uns unterhalten und kaufen ein, warum sollte man also nicht auch seine Bankgeschäfte im Internet erledigen?
Unbewusste Nutzung digitaler Angebote
Online-affine Zielgruppen von heute erwarten, dass sie auch alle Finanzdienstleistungen bequem online erledigen können. Doch die Erwartungen sind hoch: Wir befinden uns heute, wenn man so will, in einem Zeitalter des digitalen Reflexes. Das bedeutet, digitale Dienste werden heute nicht mehr bewusst und reflektiert eingesetzt, sondern ganz automatisch. Eine AppDynamics-Umfrage unter 1.000 deutschen Verbrauchern offenbart: Durchschnittlich sieben digitale Dienste nutzen die Befragten täglich, nach eigener Einschätzung. Tatsächlich sind es allerdings mehr als 30. Das zeigt, wie verbreitet die unbewusste Nutzung ist. Außerdem sind Smartphones ein elementarer Bestandteil des Alltags geworden, was sich auch daran zeigt, dass die Hälfte der Umfrageteilnehmer morgens zuerst zu ihrem Smartphone greifen. Für Finanzdienstleister wird ihr Erfolg in Zukunft also auch zu einem großen Teil von ihren Apps abhängen.
Autor Karsten Flott ist Sales Engineering Manager CER bei AppDynamics
Innovative Konkurrenz für Banken
Mit der Einführung der neuen Zahlungsdienstrichtlinie PSD2 durch die EU im letzten Jahr ergeben sich für etablierte Geldhäuser auch neue Herausforderungen. Erklärtes Ziel war es unter anderen, für mehr Wettbewerb im Finanzsektor zu sorgen. Banken werden verpflichtet, Kontodaten über sichere Schnittstellen an Drittanbieter weiterzugeben, sofern Kunden das wünschen. Das bedeutet eine Stärkung von Fintechs. Beispielsweise können Kunden so über eine einzige App Daten von mehreren Girokonten verwalten. Stattdessen sollte es in Bezug auf Kundenbindung eher im Interesse der Banken liegen, dass Kunden deren eigene Apps nutzen. Dafür müssen diese allerdings einwandfrei funktionieren. Generell sind Verbraucher kaum mehr bereit, Fehlfunktionen und Ausfälle zu tolerieren. Wenn es um Finanztransaktionen geht, dürfte die Sensibilität nochmals entsprechend größer sein.
Apps als Differenzierungsmerkmal
In der AppDynamics-Umfrage geben 51 Prozent der deutschen Verbraucher an, dass sie ihre Bank wechseln würden, sollte deren App nicht ihren Anforderungen entsprechen. Das sollte ein Ansporn für alle Institute sein, an ihrer digitalen Präsenz zu arbeiten. Genauso, wie eine schlechte App Kunden kosten kann, kann eine besonders gut gemachte Anwendung auch dafür sorgen, dass sich Neukunden bewusst deswegen für das eigene Haus entscheiden. 59 Prozent der Befragten geben auch an, dass sie bei der Wahl einer Bank darauf achten, ob sie alle Transaktionen digital und ohne zu telefonieren oder eine Filiale aufzusuchen abwickeln können.
Der digitale Reflex beeinflusst Verbraucherentscheidungen
Im nun beginnenden Jahrzehnt ist die Digitalisierung selbstverständlich geworden. Eine Überweisung mit dem Smartphone zu tätigen ist nicht mehr neu oder aufregend, sondern völlig normal. In einer Welt, in der Internet fast schon so selbstverständlich ist wie Strom oder fließend Wasser, reagieren Verbraucher auch ähnlich empfindlich auf Ausfälle. In der zitierten Umfrage geben beispielsweise 64 Prozent der Teilnehmer an, dass sie weniger tolerant gegenüber Problemen mit digitalen Diensten sind als noch vor zwei Jahren. Um die Zukunft ihrer Produkte sicherzustellen sollten also Banken und andere Finanzdienstleister an einer einwandfreien Digitalerfahrung für ihre Kunden arbeiten. Dabei können sie auf umfangreiche Analyse- und Monitoring-Lösungen zurückgreifen, die helfen, Performance-Probleme zu erkennen und zu beheben, bevor Kunden sie bemerken.
Was haben wir auf dem IT-Security-Sektor in 2020 zu erwarten? Das kann natürlich niemand genau wissen. Fakt ist, dass auch die letztes Jahr beherrschenden Themen in 2020 wieder eine große Rolle spielen. Adenike Cosgrove, Cybersecurity Strategist bei Proofpoint hat für TREND REPORT sechs Themenfelder ausgemacht, die aus Ihrer Sicht in den kommenden Monaten auf jeden Fall große Beachtung finden sollten.
2019 war sicherlich das Jahr der Rückkehr von Emotet, einer der schlimmsten Schadsoftwarevarianten ihrer Art. Doch auch für dieses Jahr können die Cybersecurity-Experten des US-amerikanischen Unternehmens Proofpoint keine Entwarnung in diesem Bereich geben.
Die Autorin Adenike Cosgrove ist Cybersecurity Strategist bei Proofpoint.
Bereits seit einigen Jahren sind E-Mails das beliebteste Angriffswerkzeug der Cyberkriminellen. Die E-Mail ist Grundlage für Phishing-Kampagnen, gezielte Angriffe mit Malware zur Schaffung eines Brückenkopfes innerhalb einer Unternehmens-IT, sowie um Banking-Trojaner, Downloader, Backdoors und vieles mehr zu verbreiten. Allerdings werden auch Cloud-basierte E-Mail-Systeme wie Microsoft Office 365 und Googles GSuite selbst zu Hauptzielen der Angreifer.
Ransomware
Obwohl 2019 Ransomware in den E-Mails selbst eher selten zu finden war, ist davon auszugehen, dass sie 2020 insbesondere bei Angriffen eingesetzt werden, die sich auf Server und Endgeräte in unternehmenskritischen Umgebungen konzentrieren. Dort dürften die Opfer am ehesten für die schnelle Entschlüsselung ihrer Dateien zur Wiederherstellung ihrer Systeme bezahlen. Vor einer Infektion mit Ransomware greifen Kriminelle in der Regel zu Remote Access Trojanern (RATs), Downloadern und Banking-Trojanern, um die Verteidigung des Systems gegen Schadsoftware zu schwächen. Im Jahr 2020 werden mittels Ransomware erpresste Unternehmen folglich zunächst mit vielseitigen Malware-Familien konfrontiert werden, die potenzielle Schwachstellen für künftige Attacken schaffen und Daten von Mitarbeitern sowie geistiges Eigentum kompromittieren.
Komplexe Infektionsketten
Im vergangenen Jahr überstieg die Anzahl von E-Mails, die Links zu mit Malware infizierten Webseiten oder Dokumenten zum Download enthielten, die der E-Mails mit Schadsoftware in Form infizierter Dateianhänge. Da immer mehr Menschen digital zusammenarbeiten und gemeinsam auf Dokumente zugreifen, wird diese Form der Bedrohung weiter an Bedeutung gewinnen.
Darüber hinaus können Kriminelle mit Hilfe von URLs immer komplexer werdende Infektionsketten verschleiern und die Erkennung schwieriger machen als das bei einer einfach verlinkten Payload der Fall wäre. Während URLs in der Vergangenheit häufig direkt mit einer schädlichen Datei verknüpft waren, werden im Jahr 2020 vermehrt URL-Shortener und andere Mechanismen zum Einsatz kommen, die verstärkt versuchen werden, die tatsächliche Schadsoftware – also die Payload – vor den Security-Lösungen zu verbergen.
Gleichzeitig werden die Kampagnen der Angreifer immer komplexer. Sie verbessern ihre Social-Engineering-Fähigkeiten, um Benutzer zur Installation von Malware zu verleiten. Das bedeutet, dass BEC-Taktiken (Business Email Compromise, auch Chef-Masche) ihren Weg in Malware- und Phishing-Kampagnen finden, bei denen Cyberkriminelle den Kontakt zunächst über verschiedene Wege wie LinkedIn oder XING suchen, oderThread-Hijacking betreiben und zunächst unverfängliche E-Mails austauschen, bevor sie nach Aufbau einer persönlichen Beziehung ihre Payload an den Mann bringen. Ebenso wird modulare Malware, die zum Herunterladen weiterer Funktionen oder einer Sekundärmalware verwendet werden kann, verstärkt zum Einsatz kommen und den Trend hin zu mehrstufigen Attacken fortsetzen.
Missbrauch legitimer Dienste
Dementsprechend werden Kriminelle auch den Missbrauch legitimer Dienste für das Hosting der Payloads und die Verbreitung ihrer Angriffe ausweiten. Während beispielsweise SharePoint-Links zum Hosten von Malware schon seit einiger Zeit üblich sind, werden sie nun auch für internes Phishing genutzt. Beispielsweise wird ein kompromittiertes Office-365-Konto dazu verwendet, eine interne Phishing-E-Mail zu senden, die eine Verknüpfung zu einem auf SharePoint gehosteten Phishing-Kit enthält, das über ein anderes, ebenfalls kompromittiertes Konto bereitgestellt wird. Die Opfer werden also niemals auf eine externe Phishing-Website umgeleitet, und die E-Mails scheinen von legitimen Konten, in der Regel Kollegen des eigenen Unternehmens, zu stammen.
Darüber hinaus haben wir Malvertising-Aktivität auf einem hohen Niveau beobachten können, die mit dem Keitaro Traffic Distribution System (TDS) in Verbindung stehen. Keitaro ist ein Service mit einer Reihe von Anwendungen, der vor allem im Web-Marketing eingesetzt wird. Doch mittlerweile wird er zudem häufig von den Cyberkriminellen missbraucht, die die Opfer damit zu einer bestimmten Schadsoftware leiten. Dabei berücksichtigen die Angreifer auch die regionale Herkunft und / oder das Betriebssystem der potenziellen Opfer. Diese Taktik wird 2020 verstärkt genutzt werden.
Brute-Force-Angriffe werden intelligenter
Während traditionelle Brute-Force-Attacken auf Office 365 und andere Cloud-Dienste auch im Jahr 2020 noch anhalten werden, entwickeln sich diese Angriffe technisch immer weiter: So steigt die Zahl digitaler Angriffe unter anderem immer dann, wenn in großem Maßstab Passwörter (auch ältere) von Kriminellen erbeutet werden. Die Angreifer setzen dabei auf Automatisierung, um kompromittierte Passwörter oder solche mit Querverweisen von mehreren Dumps durch gängige Variationen zu ersetzen.
Es ist zudem zu erwarten, dass die Automatisierung von Brute-Force-Angriffen mit Tools wie Python und PowerShell genauso zunehmen wird, wie hybride Angriffe, die sowohl Legacy-Protokolle als auch andere Infiltrationstechniken nutzen, um sich unbefugt Zugriff zu verschaffen.
Lieferketten gefährden Partnerunternehmen
Die Lieferketten stellen einen besonders gefährdeten Bereich dar. Kriminelle werden hier künftig alle verfügbaren Methoden nutzen, vom Kreditkartendiebstahl bis hin zur Chef-Masche (BEC). Doch dürften die Angriffe im Jahr 2020 noch erheblich ausgefeilter werden.
Eine kürzlich durchgeführte Stichprobe bei Organisationen im Gesundheitswesen zeigte ein komplexes Netz von Lieferanten, von denen viele nicht auf die gleichen, hohen Sicherheitsmaßnahmen setzen wie die Organisationen selbst. Daher entstehen Schwachstellen in der Lieferkette. Das Wissen, wer diese Lieferanten sind, und das Bestehen auf hohen Sicherheitsstandards bei E-Mails innerhalb der Lieferketten ist entscheidend dafür, die Möglichkeiten der Angreifer zu beschränken, von einem Lieferanten zum anderen „zu springen“, bis sie ihr ursprünglich anvisiertes Ziel erreicht haben.
Schulung im Fokus
Automatisierte Systeme verhindern, dass eine große Anzahl an Bedrohungen überhaupt im Posteingang der Anwender landet. Aber selbst, wenn nur eine einzige dort ankommt, muss der Anwender diese erkennen können. Das gilt auch dann, wenn sich die Angreifer auf Sprach- und SMS-Phishing sowie Multi-Channel-Angriffe konzentrieren. Folglich ist das Thema Schulung ein Kernelement in Sachen Sicherheit. Nur wenn technische Schutzmaßnahmen mit kritischen, geschulten Anwendern Hand in Hand gehen, lässt sich eine nachhaltige Verbesserung der IT-Sicherheit gewährleisten.
https://trendreport.de/wp-content/uploads/2020/01/it_sec_2020-scaled.jpg25601707Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2020-01-23 10:55:532020-01-23 10:55:54IT-Sicherheit: Was haben wir 2020 zu erwarten
Es folgt ein Kommentar von Kim Lauenroth, adesso SE
Der Begriff der „Digitalisierung“ wird gerne kritisiert: Er wird in vielfältigen Kontexten und mit unterschiedlichsten Bedeutungen verwendet, ohne klar definiert zu sein. So hat er im öffentlichen Diskurs schon den Ruf eines Buzzword, das schon bald durch ein neues Wort ersetzt wird. Ob die Kritik am Begriff gerechtfertigt ist oder nicht, soll hier kein Thema sein. Sie darf in jedem Fall aber nicht darüber hinwegtäuschen, dass die Phänomene, die Menschen mit dem Begriff assoziieren, längst Realität sind: Digitale Technologien verbreiten sich in allen Lebensbereichen, sie werden unsere Gesellschaft noch auf Jahrzehnte hinaus prägen. Sie verändern die Art und Weise, wie wir arbeiten, kommunizieren, einkaufen und noch vieles mehr.
Aufgrund dieser tiefgreifenden Veränderungen bezeichnen Vertreter aus Politik und Wirtschaft die Digitalisierung gerne als Gestaltungsaufgabe. Sie rufen dazu auf, die Potenziale der Digitalisierung zum Wohle aller Bürger zu nutzen. Diese Botschaft ist richtig und gut. Vor allem, da Digitalisierung oft in einen negativen Zusammenhang gestellt wird. So wird beispielsweise der Künstlichen Intelligenz das Potenzial zugeschrieben, in Zukunft viele Arbeitsplätze zu vernichten. Aber an wen richten Politiker und Wirtschaftsvertreter ihre Botschaft? Wer soll die Digitalisierung eigentlich gestalten? Und vor allem, nach welchen Werten? Was die Werte angeht, steht Europa auf seinem Weg in die Digitalisierung sowohl geografisch als auch bildlich zwischen den USA und China. Beide Länder lassen sich auf ihrem Weg durch ihre individuellen Werte leiten und gestalten so ihre digitale Zukunft. Beide Wege entsprechen allerdings nicht den humanistischen Werten, auf denen die Europäische Union gründet. Sie sind daher als Vorbild nur bedingt geeignet. Europa muss sich seinen eigenen Weg suchen und eine digitale Zukunft gestalten, die den europäischen Werten entspricht.
An dieser Stelle könnte dieser Kommentar nun eigentlich enden. Denn die europäischen Werte sind klar und die Gestalter der Digitalisierung sollen diese dann eben anhand der europäischen Werte ausrichten. Was ist das Problem?
Das Problem liegt darin, dass wir keine Gestalter der Digitalisierung haben. Ein kleiner Exkurs hilft hier beim Verständnis. Wer ein Gebäude errichten möchte, wendet sich in erster Instanz an eine Architektin oder einen Architekten. Denn es ist hinlänglich bekannt, dass sie in einem anspruchsvollen Studium dafür ausgebildet werden, Gebäude so zu gestalten und deren Bau so zu begleiten, dass die Gebäude den Bedürfnissen der Nutzer und Bauherren entsprechen. Was ist die Analogie zum Architekten in der Digitalisierung? Die Antwort mag verblüffen: Es gibt sie nicht – und es gibt auch keine systematische Ausbildung zum Gestalter der Digitalisierung. Dieser Mangel ist kein kleines Problem. Es ist natürlich unbenommen, dass sich Menschen berufen fühlen, die Digitalisierung zu „formen“. Digitalisierung passiert schon heute und dazu gehört natürlich auch ihre Gestaltung. Dennoch fehlt gleich eine ganze Berufsgruppe von Menschen, die es als ihre Verantwortung begreifen, als „Designer“ der Digitalisierung aktiv zu werden und vor allem auch gezielt für diese Aufgabe ausgebildet werden. So hängt die Gestaltung der Digitalisierung von Menschen ab, die nur bedingt für diese Aufgabe vorbereitet wurden. Im Bauwesen akzeptiert die Gesellschaft diesen Zustand nicht, daher gibt es den Beruf des Architekten. Für die Digitalisierung dürfen wir diesen Umstand auch nicht weiter zulassen. Genau an dieser Stelle setzt das Bitkom-Positionspapier „Digitale Bauhäuser für den europäischen Weg in die digitale Zukunft“ an. Es fordert die Gründung „Digitaler Bauhäuser“, um genau gezielt Gestalterinnen und Gestalter der Digitalisierung auszubilden.
Auf den ersten Blick liegt der Gedanke nahe, dass es sich zum 100. Geburtstag des Staatlichen Bauhauses um ein geschicktes Werbemanöver handelt. Auf den zweiten Blick stellt sich jedoch heraus, dass das Bauhaus ein hervorragendes Vorbild für die Ausbildung von Gestaltern und auch für die Gestaltung der Digitalisierung selbst ist. Die Gründung des Bauhauses vor 100 Jahren wurde durch Umstände motiviert, die vergleichbar mit der aktuellen Ausgangslage sind . Die Industrialisierung brachte nicht nur neue technische Möglichkeiten, sondern veränderte auch gleichzeitig massiv die Arbeitswelt und die Gesellschaft. Die veränderten Bedingungen erforderten Weiterentwicklung im Design und in der Architektur und gleichzeitig auch ein neues Ideal für die Gestaltung.
Das Bauhaus wird heute in der Öffentlichkeit primär für seine Objekte gefeiert und nicht so sehr für die Menschen, die hinter diesen Gegenständen stehen. Walter Gropius wollte seine Studentinnen und Studenten befähigen, die neuen Materialien (beispielsweise Stahl, Glas und Beton) zu beherrschen – und gleichzeitig über den Status quo hinauszudenken, um ihren Zukunftssinn zur Gestaltung einer lebenswerten Zukunft zu wecken.
Um diesem eigenen Anspruch gerecht zu werden, hat Walter Gropius das Bauhaus nicht nur als Hochschule gedacht, sondern gleichzeitig auch als Labor für die Ausbildung und als Thinktank zur Entwicklung eines lebenswerten Zukunftsideals. Nur so konnte das Bauhaus Menschen ausbilden, die Gegenstände und Gebäude erschaffen haben, die heute noch weltweit berühmt sind – und auch genutzt werden.
Ich bin fest davon überzeugt, dass wir heute wieder Einrichtungen wie das Bauhaus brauchen, um das volle Potenzial der Digitalisierung zu nutzen und vor allem, um zu verhindern, dass die vielfach heraufbeschworen digitalen Dystopien Realität werden. Wir brauchen Menschen, die es den „Bauhäuslern“ gleichtun und das Digitale als eigenständiges und gestaltbares Material begreifen und auch beherrschen können. Es geht aber dabei nicht nur um technische Kompetenz. Gleichzeitig müssen die neuen digitalen Bauhäuser den Studentinnen und Studenten unsere europäischen Werte vermitteln, damit diese als Leitbild für die Gestaltung der digitalen Zukunft von Europa dienen können.
Hanno Rauterberg schließt seinen Text über das Bauhaus mit dem Gedanken, dass das Bauhaus einen Freisinn geweckt hat, der auch nach 100 Jahren noch nachwirkt und von dem man sich heute davontragen lassen sollte. Genau das sollten wir auch für die Digitalisierung anstreben. Digitale Bauhäuser können als Leuchtturm fungieren und genau wie das originale Bauhaus die außerordentlichen Talente anlocken, die eine lebenswerte digitale Zukunft gestalten wollen. Durch ihren Freisinn haben Studentinnen und Studenten in den Werkstätten am Bauhaus die herausragenden Produkte erst erarbeiten können. Mit der richtigen Ausbildung und dem passenden Umfeld können Studentinnen und Studenten an digitalen Bauhäusern diesen Erfolg wiederholen und vielfältigste Ideen für die digitale Zukunft von Europa erdenken und dann auch realisieren.
Über den Autor
Dr. Kim Lauenroth leitet bei der adesso AG das Competence Center für Requirements Engineering. Er ist erster Vorsitzender des International Requirements Engineering Board e.V. und engagiert sich im Bitkom für die Etablierung von Digital Design als Gestaltungsprofession der Digitalisierung.
Bildquelle / Lizenz Aufmacher: Image by Tegula from Pixabay
https://trendreport.de/wp-content/uploads/2020/01/bauhaus-250403_1280.jpg9601280Bernhard Haselbauerhttps://trendreport.de/wp-content/uploads/2019/04/trendreport_de_logo-1.pngBernhard Haselbauer2020-01-21 13:32:422020-01-21 10:34:00Das Bauhaus als Vorbild für eine neue Schule zur Gestaltung der Digitalisierung
Die Bundesnetzagentur hat das dauerhaftes Verzeichnis für elektronische Vertrauensdienste DA:VE Ende 2019in Betrieb genommen. Es ermöglicht die dauerhafte Prüfung von qualifizierten elektronischen Signaturen, Siegeln und Zeitstempeln.
„Mit dem dauerhaften Verzeichnis DA:VE leistet die Bundesnetzagentur einen wesentlichen Beitrag zur Verlässlichkeit der elektronischen Unterschrift und bietet deutschen Vertrauensdiensteanbietern einen Vorteil auf dem Binnenmarkt“, sagt Jochen Homann, Präsident der Bundesnetzagentur.
Warum ist das wichtig?
Qualifizierte elektronische Vertrauensdienste wie etwa Signaturen, Siegel und Zeitstempel sind wichtige Werkzeuge der Digitalisierung. Dabei erfordern viele Anwendungsbereiche langfristige Sicherheit. Dort soll z.B. auch in vielen Jahren noch rechtsverbindlich geprüft werden können, wer ein Dokument unterzeichnet hat.
Stellt ein deutscher qualifizierter Vertrauensdiensteanbieter den Betrieb ein, übernimmt die Bundesnetzagentur mit dem Verzeichnis DA:VE die erforderlichen Auskünfte. Bereits erstellte elektronische Signaturen, Siegel und Zeitstempel können so weiterhin zuverlässig auf ihre Gültigkeit geprüft werden. Die Nutzung des Verzeichnisses erfolgt vollautomatisch. Die Bundesnetzagentur unterstützt mit DA:VE die Digitalisierung in Deutschland. Das Verfahren gehört zu den ersten seiner Art in Europa. Es wurde unter Beteiligung der deutschen Marktteilnehmer entwickelt und getestet.
Hintergrund
Die Einführung europaweit einheitlicher elektronischer Vertrauensdienste durch die eIDAS-Verordnung bietet die Möglichkeit, schnelle, kostengünstige sowie vertrauenswürdige elektronische Transaktionen über Ländergrenzen hinweg vorzunehmen. eIDAS hat das Ziel, das Vertrauen in sichere digitale Infrastrukturen nachhaltig zu stärken. Bei Nutzung innovativer Identifizierungsmethoden ermöglichen die elektronischen Bausteine der eDIAS medienbruchfreie und rechtssichere Transaktionen in einem one-stop-shop.
Als Vertrauensanker leistet DA:VE hier einen wichtigen Beitrag.
Weitere Informationen der Bundesnetzagentur zu elektronischen Vertrauensdiensten unter:
Die Nachfrage nach hochwertigen Bauteilen in großer Stückzahl sowie die Verlagerung von Wertschöpfungsketten in Regionen mit niedrigen Produktionskosten sorgen bei vielen Fertigungsbetrieben für Wettbewerbsdruck, der oftmals nur durch schnellere Bearbeitungsverfahren abgefedert werden kann. Dafür sind jedoch moderne Technologien mit hohem Automatisierungsgrad notwendig, die gerade für kleine und mittlere Unternehmen (KMU) überdimensioniert erscheinen – häufig sind die Beschaffungskosten wie etwa von Ultrakurzpuls-Laseranlagen schlicht zu hoch.
Im Rahmen des EU-Förderprogramms „Horizon 2020“ haben die Unternehmen GFH GmbH und neoLASE GmbH gemeinsam eine kostengünstige und branchenübergreifende Lösung entwickelt: Bei dem „Smart Modular All-in-One Robust Laser Machining Tool“ – SMAART – handelt es sich um ein hochflexibles und vollautomatisches Laserbearbeitungssystem, das mittels eines eigens programmierten intelligenten Steuerungssystems automatisch zwischen verschiedenen Arbeitsschritten wie Laserdrehen oder Feinstrukturieren wechselt. Zudem deckt die Anlage einen Pulsbereich von 500 ps bis 500 fs ab, ohne dass ein aufwendiges Umrüsten notwendig ist. Dadurch bleiben die Anschaffungskosten niedrig und langfristig sollen so Stückzahlen erhöht und Arbeitsplätze geschaffen werden.
Modulare Lasertechnologie auf geringstem Bauraum ermöglicht kompakte und flexible Lasermaterialbearbeitungszentren. (Quelle: GFH GmbH / neoLASE GmbH)
Steigen die Produktions- oder Personalkosten, sehen sich viele Betriebe gezwungen, ihre Fertigungsprozesse zu restrukturieren oder komplett auszulagern. Gerade Länder mit geringeren Lohn- und Betriebskosten außerhalb der Europäischen Union sind in diesem Zusammenhang attraktiv für deutsche Unternehmen. „Dadurch geht dem europäischen Raum ein signifikanter Betrag an potentiellem Umsatz und Added Value verloren“, erklärt Anton Pauli, Geschäftsführer der GFH GmbH. „Berechnungen nach – basierend auf Daten der Weltbank – sind durch die Abwanderung in Niedriglohnländer allein in den letzten Jahren circa neun Billionen Euro abgeflossen.“ Um diesem Trend entgegenzuwirken, fördert die Europäische Kommission durch Initiativen und Ausschreibungen wie der Horizon 2020 Kampagne neue Technologien, die Fertigungsprozesse effizienter und dadurch günstiger gestalten können.
Eine dieser Technologien ist die Werkstückbearbeitung mit Ultrakurzpuls-Lasern (UKP), die hochpräzise, kontaktlos und dadurch materialschonend operieren. Bisher waren solche Anlagen nicht nur sehr teuer, vielmehr zeigten sie sich komplex im Aufbau und auf einzelne Fertigungsschritte beschränkt. In der Praxis mussten so häufig verschiedene Anlagen für unterschiedliche Bearbeitungsverfahren angeschafft werden, oder aufwendige und lange Umrüstarbeiten durchgeführt werden. Auch die Voraussetzung für umfangreiches Know-How in Bezug auf die Steuerung und die Lasertechnik, um optimale Ergebnisse liefern zu können, machte die Technologie für Klein- und mittelständische Unternehmen bislang nicht nur unrentabel, sondern stellte auch den Grund für gehemmte Investitionsbereitschaft dar. Mit dem Ziel, gemeinsam eine Bearbeitungsanlage zu entwickeln, erfolgte der Zusammenschluss der beiden Laserspezialisten GFH GmbH und neoLASE GmbH. Mit SMAART wurde ein System entwickelt, welches in die neuen Anlagetypen der GFH GmbH integrierbar ist und je nach vorhandenem Bearbeitungsmaterial und Bearbeitungsprozess über die Eingabemaske die passende Laserauswahl – Piko- oder Femtosekunden Laser – anbietet und die richtigen Prozessparameter generiert. Auf diese Weise kann effizienter und mit größerer Bandbreite produziert werden – und das ohne umfangreiche Spezialkenntnisse auf dem Gebiet der Laserbearbeitung. „So lässt sich eine schnelle Amortisierung erreichen und die Etablierung der Laserbearbeitung als Schlüsseltechnologie für den gesamten Sektor der Materialbearbeitung ist realistisch“, erklärt Maik Frede, Geschäftsführer der neoLASE GmbH. Die Finanzierung des ehrgeizigen Projekts erfolgt unter anderem durch Mittel aus dem Rahmenprogramm European Union Horizon 2020. GFH und neoLASE konnten sich dabei mit ihrem SMAART-Projekt gegen 1658 Mitbewerber durchsetzen.
Laserdrehteil aus Hartmetall mit Bohrungen. (Quelle: GFH GmbH / neoLASE GmbH)
Flexibles Verstärkerdesign ermöglicht variable Pulsdauer und Leistungsklassen
„Durch die Abwanderung ins nicht-europäische Ausland geht dem EU-Raum ein signifikanter Betrag an potentiellem Umsatz und Added Value verloren“, erklärt Anton Pauli, Geschäftsführer der GFH GmbH. (Quelle: GFH GmbH)
Zu Beginn war es nur eine vage Idee, geboren auf einem Laser-Netzwerktreffen. „Ein gemeinsamer Erfahrungsaustausch im Anschluss der Veranstaltung hat gezeigt, dass die Lasertechnologie prädestiniert für ein solches Vorhaben ist“, erklärt Pauli. „Durch die kontaktlose und flexible Bearbeitung mit Lasern ohne nennenswerte Wärmeleitung hat die Technologie das Potential, auch energieaufwendige Prozesse zu ersetzen.“ Für beide Unternehmen galt es zunächst, die Herausforderungen, die Marktsituation, den technischen Status Quo sowie die notwendigen Entwicklungsschritte genau zu definieren. „Damit die Umsetzung eines solchen Projekts überhaupt möglich wird, mussten wir die Lasertechnologie kundennäher gestalten und ihre Komplexität minimieren“, erläutert Frede.
Damit die hohe Flexibilität – also das Wechseln zwischen verschiedenen Arbeitsschritten und Laserparametern ohne Umrüsten – garantiert werden kann, ist es notwendig, dass eine universelle Laserquelle für die Bearbeitung bereitsteht, deren Pulsdauer und Intensität zügig automatisch angepasst werden kann. Die Maschinen mit integriertem SMAART-Tool verfügen über eine Art eigene Intelligenz, welche die jeweiligen Parameter und Komponenten für die einzelnen Bearbeitungsschritte automatisch erkennt, ohne dass diese durch einen Bediener im Voraus berechnet und manuell in die Steuerung eingegeben werden müssen. „Diese Schaltzentrale liefert uns neoLASE mit ihrem GAP-Modul“, berichtet Pauli. „Durch das flexible Verstärkerdesign können auf unseren GL-Anlagen unterschiedliche Pulsdauern und Leistungsklassen abgerufen werden, ohne zusätzlich CPA- oder regenerative Verstärker integrieren zu müssen.“ Dies ermöglicht einen kompakten Aufbau der Anlagen, die dennoch Pulsenergien bis zu 400 µJ und mittlere Leistungen von 80 W generieren können. Gleichzeitig werden zusätzliche Kosten durch aufwendigere Laser oder Komponenten vermieden. „Die Bearbeitungsanlagen von GFH sind generell auf Modularität und Flexibilität ausgelegt, weshalb sie perfekt für unsere Verstärkermodule geeignet sind“, bestätigt Frede. Da durch Kombination beider Technologien der Pulsbereich zwischen 500 ps und 500 fs abgedeckt und ein schneller Wechsel garantiert ist, kann die Anlage signifikante Geschwindigkeitsvorteile und Qualitätssteigerungen erzielen. Durch die gleichzeitige Nutzung von Piko- und Femtosekundenpulsen ist sogar darüber hinaus eine weitere Optimierung der Abtragsgeschwindigkeit vorstellbar.
„Unser Ziel ist die Etablierung modularer Lasertechnik als Schlüsseltechnologie für den gesamten Sektor der Materialbearbeitung“, erklärt Maik Frede, Geschäftsführer der neoLASE GmbH. (Quelle: neoLASE GmbH)
Dazu trägt auch die berührungslose Bearbeitung mittels Lasereintrag bei: Weil die Pulse so kurz sind, dass keine nennenswerte Wärmeleitung stattfindet, werden Materialaufschmelzung, Gefügeveränderungen, Phasenumwandlungen und thermische Spannungen im Werkstück vermieden. „So eröffnet sich ein großes Anwendungsfeld für die Herstellung von Mikrokomponenten nicht nur im klassischen Maschinenbau, sondern auch für diverse Industrien wie die Medizintechnik oder die Textil- und Uhrenindustrie“, erklärt Pauli. „Im Idealfall lassen sich energieintensive oder ökologisch bedenkliche Prozesse ersetzen.“ Dies ist besonders wichtig, soll gleichbleibend hohe Qualität in großer Stückzahl erreicht werden, ohne die Produktionskosten zu erhöhen.
Damit die gewünschte Flexibilität auch tatsächlich von Beginn an gewährleistet ist, verfügen SMAART-fähige Anlagen neben der optimierten Hardware auch über eine integrierte Datenbank, auf der die verschiedenen Prozessparameter wie Pulsdauer, Verfahrweg der Optik oder Werkstückmaße und Materialart hinterlegt sind. So ist es möglich über die Eingabemaske, aus über 100 Bearbeitungsverfahren zum Laserbohren, Laserschneiden, Strukturieren und Abtragen mit dem Laser von Metall, Keramik, Glas und Polymeren auszuwählen. „Somit kann der Bediener einfach per Knopfdruck den gewünschten Arbeitsschritt initiieren. Die Ausrichtung der Maschine erfolgt dann automatisch in derselben Aufspannung“, erklärt Frede. „Sollten neue, noch nicht vorhandene Anwendungen oder Parameter hinzukommen, werden Maschine und GAP entsprechend angepasst.“ Auf diese Weise kann SMAART kontinuierlich weiterentwickelt werden und „dazulernen“.
Anwenderfreundlichkeit und Qualitätskontrolle stehen im Zentrum
Damit auch die Werkstückqualität selbst bei schwierig zu bearbeitenden Materialien wie Diamant gleichbleibend hoch ist, verfügen SMAART-fähige Anlagen mit einer Online-Qualitätskontrolle über ein Tool, das die Prozessparameter während der Bearbeitung validiert. Dadurch sind auch während des laufenden Arbeitsschritts Qualitätsproben möglich. „Wir wollten nicht einfach nur die Lasertechnik optimieren, sondern den Mehrwert dieser Verfahren so gut es geht steigern, etwa mit Vereinfachungen im Handling“, erklärt Pauli. „Eine zuverlässige Maschinenlösung, mit der sofort universell produziert werden kann, hält den Betrieb konkurrenzfähig und lässt ihn langfristig wachsen, ohne Personaldruck oder Investitionsängste fürchten zu müssen.“
SMAART – FACTSHEET
Projektdauer: 2 Jahre Fördervolumen: 70 Prozent European Union Horizon 2020 Aufbau: Modulare Architektur mit u.a. mehreren Laserquellen, Strahlformungselementen, Optiken, Handling-Instrumenten Pulsdauer: zwischen 500 fs und 500 ps Pulsenergie: bis zu 400 μJ Mittlere Leistung: bis zu 80 W Wiederholrate: von Einzelschuss bis zu mehreren MHz Strahlqualität: TEMοο mit M2 < 1,3 Anwendungsdatenbank: 100 verschiedene Bearbeitungsverfahren zum Bohren, Schneiden, Strukturieren und Abtragen von Metall, Keramik, Glas und Polymeren (kann erweitert werden) Rüstzeit: Vollständige Automatisierung des Umrüst- und Einstellvorgangs (innerhalb von 1 Minute) Online-Qualitätskontrolle für die Probenanalyse während oder unmittelbar nach der Probenverarbeitung
New Work: KI, RPA und die Blockchain sorgen für Veränderungen. Fachkräfte für die zunehmend datengetriebene Arbeitswelt sind rar und ihre Bindung zum Unternehmen daher umso wichtiger.
Gleichwohl ein stärkeres Bewusstsein für den Datenschutz vorhanden ist, mangelt es noch deutlich an Durchschlagskraft in Bezug auf die Etablierung vorgeschriebener Maßnahmen hinsichtlich der EU-DSGVO seitens der Unternehmen.
Seit dem 25. Mai 2018 gibt die EU-Datenschutzgrundverordnung vor, wie sich ein rechtskonformer Umgang mit personenbezogenen Daten innerhalb der europäischen Union gestaltet. Knapp anderthalb Jahre nach Inkrafttreten des Gesetzes dürfte eigentlich davon auszugehen sein, dass Unternehmen ihre damit verbundenen Prozesse umfänglich neu ausgerichtet haben – zumal dem Stichtag bereits eine zweijähre Übergangsphase vorausging. Doch prominente Beispiele – wie jüngst ein führendes Unternehmen der Telekommunikationsbranche – beweisen: Noch immer mangelt es vielen Unternehmen an einer gesetzeskonformen Strategie. Nicht einmal drohende immense Strafzahlungen scheinen bislang den finalen Anstoß zur Umsetzung der EU-DSGVO gegeben zu haben.
Worin liegen die Gründe hierfür und wie gelingt eine zeitnahe Umwälzung der betroffenen Prozesse?
In einer aktuellen Bitkom-Umfrage gaben 67 Prozent der teilnehmenden Betriebe zwar an, die neuen Regeln zu großen Teilen zu berücksichtigen, doch erst 25 Prozent konnten die Umsetzung als vollständig abgeschlossen verbuchen.[1] Diese Bilanz spiegelt im Großen und Ganzen das Bild wider, das auch wir gewonnen haben. Auf der einen Seite bewirkte die EU-DSGVO ein stärkeres Bewusstsein für den Datenschutz – doch auf der anderen Seite mangelt es in Bezug auf die Etablierung der vorgeschriebenen Maßnahmen noch deutlich an Durchschlagskraft.
Hemmschuhe bei der Realisierung
In einer internen Befragung unserer Kunden vom Jahresanfang 2019 wurde deutlich, dass 20 Prozent der Betriebe die Richtlinien der EU-DSGVO selbst zum Jahreswechsel noch immer nicht umgesetzt haben würden. Dabei manifestierten sich hauptsächlich vier Gründe: So wusste ein Großteil der Handlungsverpflichteten zu wenig über die entsprechenden Gesetzesrichtlinien rund um personenbezogene Daten. 39 Prozent der befragten Unternehmer verfügten demnach über einige oder gar keine Kenntnisse, nur 10 Prozent gaben an, sich sehr gut mit den Verpflichtungen vertraut gemacht zu haben und die restlichen 51 Prozent ordneten sich dazwischen ein.
Zudem stellte sich heraus, dass knapp 20 Prozent das Ausmaß der Konsequenzen bei DSGVO-Verstößen nicht kannten. Dabei schlagen die mit bis zu zwei Prozent des weltweiten Umsatzes aus dem vorangegangenen Geschäftsjahr beziehungsweise bis zu 10 Millionen Euro – je nachdem, welcher Betrag höher ausfällt – ganz gewaltig zu Buche. Diese Konsequenzen bekam ein Telekommunikationsanbieter erst Ende 2019 zu spüren. Da die Kundendaten nicht ausreichend systematisch geschützt waren und Unberechtigte somit an weitreichende Informationen zu weiteren personenbezogenen Kundendaten gelangten, wurde das Unternehmen mit einer Geldbuße in Höhe von etwa 9,5 Millionen Euro belegt. Obwohl die Summe aufgrund des kooperativen Verhaltens des Unternehmens leicht herabgesetzt wurde, bleibt eine immense Strafzahlung in Millionenhöhe bestehen.
„Noch immer mangelt es vielen Unternehmen an einer gesetzeskonformen Strategie.“
Als dritter Grund für die bislang noch mangelhafte Umsetzung der Richtlinien manifestierte sich, dass auch die neue Pflicht zur Datenschutzfolgenabschätzung bislang noch nicht übergreifend eingehalten wird. Hierbei prüft der Datenschutzbeauftragte bei Verarbeitung besonders sensibler Informationen die speziellen Risiken für die Rechte und Freiheiten des Betroffenen. Obligatorischer Bestandteil dieser Prüfung ist seine Stellungnahme zur Rechtmäßigkeit der Datenverarbeitung. Doch auch hier zeigte sich, dass gerade einmal 21 Prozent der befragten Unternehmen die gesetzlichen Vorgaben der EU-DSGVO einhalten.
An vierter Stelle lässt sich ein mangelndes Vertrauensverhältnis bei der Beratung anführen. Fakt ist: Ein Projekt mit solch einer immensen Tragweite erfordert eine ganze Fülle von Ressourcen, die nur die wenigsten Unternehmen inhouse bereitstellen können. Der Löwenanteil der Betriebe setzt auf externe Datenschutzbeauftragte sowie Beratungshäuser und benötigt spezielle Schulungen oder Tools, um den gesetzeskonformen Umgang mit personenbezogenen Daten zu gewährleisten. Hier konnten wir allerdings feststellen, dass 40 Prozent der teilnehmenden Betriebe ihre externen DSGVO-Berater mit der Note befriedigend und ausreichend bewerteten. 25 Prozent vergaben die Note mangelhaft und lediglich 10 Prozent fühlten sich sehr gut beraten.
Unser Autor
Jürgen Litz
Seit 2009 ist Jürgen Litz Geschäftsführer des Herstellers für
Kundenmanagement-Software cobra GmbH mit Sitz in Konstanz. Basierend auf seinen
langjährigen Erfahrungen im Bereich Kundenmanagement setzt er sich hier im
Hinblick auf die EU-Datenschutz-Grundverordnung für ein positives Verständnis
von Datenschutz und Datenchancen ein. Litz war zuvor acht Jahre lang Geschäftsführer
Vertrieb und Marketing beim Markenartikler ADO-Goldkante. Nach seinem
BWL-Studium in Köln begann er seine Karriere beim Computer-Händler
comtech/escom.
Wo ein Wille, da auch ein Weg
Wollen Unternehmen zügig die neuen Datenschutzregeln auf die eigenen Abläufe anwenden, gilt es zum einen Aufgabenbereiche auf externe Schnittstellen zu verlagern, zum anderen müssen die notwendigen Kompetenzen in den eigenen Betrieb migriert werden. Einen wichtigen Baustein bildet hierbei die Software-Landschaft. Die digitale Datenverarbeitung stellt im Zuge der Digitalisierung die Grundvoraussetzung dar, um flexibel auf Marktanforderungen zu reagieren. Gleichzeitig liegt in diesem Sektor der Schlüssel zur zeitnahen und reibungslosen Umsetzung der Datenschutzgrundverordnung.
Befinden sich alle Kunden- und Auftragsdaten in einer zentral verwalteten CRM-Software mit entsprechender DSGVO-Zertifizierung, lassen sich auf Kundenwunsch per Mausklick und unter Berücksichtigung der Richtlinien sämtliche Informationen herausgeben. Zudem informiert ein Vermerk im System Mitarbeiter aus Vertrieb, Marketing, Management und Geschäftsführung über die Datenportabilität. Darüber hinaus erweisen sich solche CRM-Systeme als clevere Helfer beim Einholen einer erforderlich gewordenen Werbeeinwilligung und tragen somit maßgeblich zur Einhaltung der neuen Richtlinien im Umgang mit personenbezogenen Daten bei.
Insgesamt übernimmt meines Erachtens die IT in Bezug auf die Umsetzung der DSGVO-Richtlinien eine tragende Rolle. Unter Anwendung innovativer Systeme, etwa zum Consumer Relationship Management, lässt sich nicht nur der Schritt in Richtung Datenschutz-Konformität innerhalb kurzer Zeit und mit geringem Aufwand realisieren – sie erhöht außerdem die Datenqualität und trägt somit zu einer ganzheitlichen Optimierung der Unternehmensprozesse und Kundenbeziehungen bei.
Im Zusammenhang mit der EU-DSGVO zeigt sich das Potenzial innovativer IT-Systeme: Sie schaffen eine Balance zwischen den gesetzlichen Anforderungen und dem Nutzen auf Seiten der Unternehmen und Kunden.
Wir können Cookies anfordern, die auf Ihrem Gerät eingestellt werden. Wir verwenden Cookies, um uns mitzuteilen, wenn Sie unsere Webseite besuchen, wie Sie mit uns interagieren, Ihre Nutzererfahrung verbessern und Ihre Beziehung zu unserer Webseite anpassen.
Klicken Sie auf die verschiedenen Kategorienüberschriften, um mehr zu erfahren. Sie können auch einige Ihrer Einstellungen ändern. Beachten Sie, dass das Blockieren einiger Arten von Cookies Auswirkungen auf Ihre Erfahrung auf unseren Webseite und auf die Dienste haben kann, die wir anbieten können.
Wichtige Webseiten-Cookies
Diese Cookies sind unbedingt erforderlich, um Ihnen über unsere Webseite verfügbare Dienste bereitzustellen und einige ihrer Funktionen zu nutzen.
Da diese Cookies für die Bereitstellung der Website unbedingt erforderlich sind, wirkt sich die Ablehnung auf die Funktionsweise unserer Webseite aus. Sie können Cookies jederzeit blockieren oder löschen, indem Sie Ihre Browsereinstellungen ändern und das Blockieren aller Cookies auf dieser Webseite erzwingen. Dies wird Sie jedoch immer dazu auffordern, Cookies zu akzeptieren / abzulehnen, wenn Sie unsere Webseite erneut besuchen.
Wir respektieren es voll und ganz, wenn Sie Cookies ablehnen möchten, aber um zu vermeiden, Sie immer wieder zu fragen, erlauben Sie uns bitte, ein Cookie dafür zu speichern. Sie können sich jederzeit abmelden oder sich für andere Cookies anmelden, um eine bessere Erfahrung zu erzielen. Wenn Sie Cookies ablehnen, entfernen wir alle gesetzten Cookies in unserer Domain.
Wir stellen Ihnen eine Liste der auf Ihrem Computer in unserer Domain gespeicherten Cookies zur Verfügung, damit Sie überprüfen können, was wir gespeichert haben. Aus Sicherheitsgründen können wir keine Cookies von anderen Domains anzeigen oder ändern. Sie können diese in den Sicherheitseinstellungen Ihres Browsers überprüfen.
Google Analytics Cookies
Diese Cookies sammeln Informationen, die entweder in aggregierter Form verwendet werden, um zu verstehen, wie unsere Webseite verwendet wird oder wie effektiv unsere Marketingkampagnen sind, oder um unsere Webseite und Anwendung für Sie anzupassen, um Ihre Erfahrung zu verbessern.
Wenn Sie nicht möchten, dass wir Ihren Besuch auf unserer Website erfassen, können Sie das tracking in Ihrem Browser hier deaktivieren:
Andere externe Dienste
Wir verwenden auch verschiedene externe Dienste wie Google Webfonts, Google Maps und externe Videoanbieter. Da diese Anbieter möglicherweise personenbezogene Daten wie Ihre IP-Adresse erfassen, können Sie diese hier sperren. Bitte beachten Sie, dass dies die Funktionalität und das Erscheinungsbild unserer Website erheblich beeinträchtigen kann. Änderungen werden wirksam, sobald Sie die Seite neu laden.
Google Webfont-Einstellungen:
Google Map-Einstellungen:
Google reCaptcha-Einstellungen:
Einbettung von Vimeo- und Youtube-Videos:
Andere Cookies
Die folgenden Cookies werden ebenfalls benötigt - Sie können auswählen, ob Sie sie zulassen möchten:
Datenschutz-Bestimmungen
Sie können unsere Cookies und Datenschutzeinstellungen im Detail auf unserer Datenschutzrichtlinie nachlesen.