2020 werden digitale Erfahrungen im Finanzsektor entscheidend

Dies ist ein Gastbeitrag von Karsten Flott, Sales Engineering Manager CER bei AppDynamics

Schon seit über einem Jahrzehnt befindet sich der Finanzsektor in einem tiefgreifenden Transformationsprozess. Von Banken bis zu Versicherungen, traditionelle Geschäftsmodelle und Anbieter geraten zunehmend unter Druck und müssen sich weiterentwickeln. Dieser Trend wird auch im neuen Jahrzehnt anhalten und sich weiter verstärken. Karsten Flott, Sales Engineering Manager CER von AppDynamics zeigt, wie sich Unternehmen darauf einstellen können.

Längst ist die Digitalisierung auch im Finanzsektor angekommen und innovative Ideen krempeln ganze Märkte um. Der Zahldienst Paypal und die auf Smartphone-Nutzer ausgerichtete Direktbank N26 sind nur einzelne Beispiele. Auch Player, die traditionell nichts mit Finanzen zu tun haben, wie Apple oder Google mischen im Payment-Markt mit. Möglich wurde das durch die absolute Selbstverständlichkeit, mit der wir mittlerweile digitale Dienste nutzen. Wir informieren uns online, lassen uns unterhalten und kaufen ein, warum sollte man also nicht auch seine Bankgeschäfte im Internet erledigen?

Unbewusste Nutzung digitaler Angebote

Online-affine Zielgruppen von heute erwarten, dass sie auch alle Finanzdienstleistungen bequem online erledigen können. Doch die Erwartungen sind hoch: Wir befinden uns heute, wenn man so will, in einem Zeitalter des digitalen Reflexes. Das bedeutet, digitale Dienste werden heute nicht mehr bewusst und reflektiert eingesetzt, sondern ganz automatisch. Eine AppDynamics-Umfrage unter 1.000 deutschen Verbrauchern offenbart: Durchschnittlich sieben digitale Dienste nutzen die Befragten täglich, nach eigener Einschätzung. Tatsächlich sind es allerdings mehr als 30. Das zeigt, wie verbreitet die unbewusste Nutzung ist. Außerdem sind Smartphones ein elementarer Bestandteil des Alltags geworden, was sich auch daran zeigt, dass die Hälfte der Umfrageteilnehmer morgens zuerst zu ihrem Smartphone greifen. Für Finanzdienstleister wird ihr Erfolg in Zukunft also auch zu einem großen Teil von ihren Apps abhängen.

Autor Karsten Flott ist Sales Engineering Manager CER bei AppDynamics

Innovative Konkurrenz für Banken

Mit der Einführung der neuen Zahlungsdienstrichtlinie PSD2 durch die EU im letzten Jahr ergeben sich für etablierte Geldhäuser auch neue Herausforderungen. Erklärtes Ziel war es unter anderen, für mehr Wettbewerb im Finanzsektor zu sorgen. Banken werden verpflichtet, Kontodaten über sichere Schnittstellen an Drittanbieter weiterzugeben, sofern Kunden das wünschen. Das bedeutet eine Stärkung von Fintechs. Beispielsweise können Kunden so über eine einzige App Daten von mehreren Girokonten verwalten. Stattdessen sollte es in Bezug auf Kundenbindung eher im Interesse der Banken liegen, dass Kunden deren eigene Apps nutzen. Dafür müssen diese allerdings einwandfrei funktionieren. Generell sind Verbraucher kaum mehr bereit, Fehlfunktionen und Ausfälle zu tolerieren. Wenn es um Finanztransaktionen geht, dürfte die Sensibilität nochmals entsprechend größer sein.

Apps als Differenzierungsmerkmal

In der AppDynamics-Umfrage geben 51 Prozent der deutschen Verbraucher an, dass sie ihre Bank wechseln würden, sollte deren App nicht ihren Anforderungen entsprechen. Das sollte ein Ansporn für alle Institute sein, an ihrer digitalen Präsenz zu arbeiten. Genauso, wie eine schlechte App Kunden kosten kann, kann eine besonders gut gemachte Anwendung auch dafür sorgen, dass sich Neukunden bewusst deswegen für das eigene Haus entscheiden. 59 Prozent der Befragten geben auch an, dass sie bei der Wahl einer Bank darauf achten, ob sie alle Transaktionen digital und ohne zu telefonieren oder eine Filiale aufzusuchen abwickeln können.

Der digitale Reflex beeinflusst Verbraucherentscheidungen

Im nun beginnenden Jahrzehnt ist die Digitalisierung selbstverständlich geworden. Eine Überweisung mit dem Smartphone zu tätigen ist nicht mehr neu oder aufregend, sondern völlig normal. In einer Welt, in der Internet fast schon so selbstverständlich ist wie Strom oder fließend Wasser, reagieren Verbraucher auch ähnlich empfindlich auf Ausfälle. In der zitierten Umfrage geben beispielsweise 64 Prozent der Teilnehmer an, dass sie weniger tolerant gegenüber Problemen mit digitalen Diensten sind als noch vor zwei Jahren. Um die Zukunft ihrer Produkte sicherzustellen sollten also Banken und andere Finanzdienstleister an einer einwandfreien Digitalerfahrung für ihre Kunden arbeiten. Dabei können sie auf umfangreiche Analyse- und Monitoring-Lösungen zurückgreifen, die helfen, Performance-Probleme zu erkennen und zu beheben, bevor Kunden sie bemerken.

Weitere Informationen unter:
www.appdynamics.com

Bildquelle / Lizenz Aufmacher: Photo by Paul Hanaoka on Unsplash

IT-Sicherheit: Was haben wir 2020 zu erwarten

Was haben wir auf dem IT-Security-Sektor in 2020 zu erwarten? Das kann natürlich niemand genau wissen. Fakt ist, dass auch die letztes Jahr beherrschenden Themen in 2020 wieder eine große Rolle spielen. Adenike Cosgrove, Cybersecurity Strategist bei Proofpoint hat für TREND REPORT sechs Themenfelder ausgemacht, die aus Ihrer Sicht in den kommenden Monaten auf jeden Fall große Beachtung finden sollten.

2019 war sicherlich das Jahr der Rückkehr von Emotet, einer der schlimmsten Schadsoftwarevarianten ihrer Art. Doch auch für dieses Jahr können die Cybersecurity-Experten des US-amerikanischen Unternehmens Proofpoint keine Entwarnung in diesem Bereich geben.

Die Autorin Adenike Cosgrove ist Cybersecurity Strategist bei Proofpoint.

Bereits seit einigen Jahren sind E-Mails das beliebteste Angriffswerkzeug der Cyberkriminellen. Die E-Mail ist Grundlage für Phishing-Kampagnen, gezielte Angriffe mit Malware zur Schaffung eines Brückenkopfes innerhalb einer Unternehmens-IT, sowie um Banking-Trojaner, Downloader, Backdoors und vieles mehr zu verbreiten. Allerdings werden auch Cloud-basierte E-Mail-Systeme wie Microsoft Office 365 und Googles GSuite selbst zu Hauptzielen der Angreifer.

Ransomware

Obwohl 2019 Ransomware in den E-Mails selbst eher selten zu finden war, ist davon auszugehen, dass sie 2020 insbesondere bei Angriffen eingesetzt werden, die sich auf Server und Endgeräte in unternehmenskritischen Umgebungen konzentrieren. Dort dürften die Opfer am ehesten für die schnelle Entschlüsselung ihrer Dateien zur Wiederherstellung ihrer Systeme bezahlen. Vor einer Infektion mit Ransomware greifen Kriminelle in der Regel zu Remote Access Trojanern (RATs), Downloadern und Banking-Trojanern, um die Verteidigung des Systems gegen Schadsoftware zu schwächen. Im Jahr 2020 werden mittels Ransomware erpresste Unternehmen folglich zunächst mit vielseitigen Malware-Familien konfrontiert werden, die potenzielle Schwachstellen für künftige Attacken schaffen und Daten von Mitarbeitern sowie geistiges Eigentum kompromittieren.

Komplexe Infektionsketten

Im vergangenen Jahr überstieg die Anzahl von E-Mails, die Links zu mit Malware infizierten Webseiten oder Dokumenten zum Download enthielten, die der E-Mails mit Schadsoftware in Form infizierter Dateianhänge. Da immer mehr Menschen digital zusammenarbeiten und gemeinsam auf Dokumente zugreifen, wird diese Form der Bedrohung weiter an Bedeutung gewinnen.

Darüber hinaus können Kriminelle mit Hilfe von URLs immer komplexer werdende Infektionsketten verschleiern und die Erkennung schwieriger machen als das bei einer einfach verlinkten Payload der Fall wäre. Während URLs in der Vergangenheit häufig direkt mit einer schädlichen Datei verknüpft waren, werden im Jahr 2020 vermehrt URL-Shortener und andere Mechanismen zum Einsatz kommen, die verstärkt versuchen werden, die tatsächliche Schadsoftware – also die Payload – vor den Security-Lösungen zu verbergen.

Gleichzeitig werden die Kampagnen der Angreifer immer komplexer. Sie verbessern ihre Social-Engineering-Fähigkeiten, um Benutzer zur Installation von Malware zu verleiten. Das bedeutet, dass BEC-Taktiken (Business Email Compromise, auch Chef-Masche) ihren Weg in Malware- und Phishing-Kampagnen finden, bei denen Cyberkriminelle den Kontakt zunächst über verschiedene Wege wie LinkedIn oder XING suchen, oderThread-Hijacking betreiben und zunächst unverfängliche E-Mails austauschen, bevor sie nach Aufbau einer persönlichen Beziehung ihre Payload an den Mann bringen. Ebenso wird modulare Malware, die zum Herunterladen weiterer Funktionen oder einer Sekundärmalware verwendet werden kann, verstärkt zum Einsatz kommen und den Trend hin zu mehrstufigen Attacken fortsetzen.

Missbrauch legitimer Dienste

Dementsprechend werden Kriminelle auch den Missbrauch legitimer Dienste für das Hosting der Payloads und die Verbreitung ihrer Angriffe ausweiten. Während beispielsweise SharePoint-Links zum Hosten von Malware schon seit einiger Zeit üblich sind, werden sie nun auch für internes Phishing genutzt. Beispielsweise wird ein kompromittiertes Office-365-Konto dazu verwendet, eine interne Phishing-E-Mail zu senden, die eine Verknüpfung zu einem auf SharePoint gehosteten Phishing-Kit enthält, das über ein anderes, ebenfalls kompromittiertes Konto bereitgestellt wird. Die Opfer werden also niemals auf eine externe Phishing-Website umgeleitet, und die E-Mails scheinen von legitimen Konten, in der Regel Kollegen des eigenen Unternehmens, zu stammen.

Darüber hinaus haben wir Malvertising-Aktivität auf einem hohen Niveau beobachten können, die mit dem Keitaro Traffic Distribution System (TDS) in Verbindung stehen. Keitaro ist ein Service mit einer Reihe von Anwendungen, der vor allem im Web-Marketing eingesetzt wird. Doch mittlerweile wird er zudem häufig von den Cyberkriminellen missbraucht, die die Opfer damit zu einer bestimmten Schadsoftware leiten. Dabei berücksichtigen die Angreifer auch die regionale Herkunft und / oder das Betriebssystem der potenziellen Opfer. Diese Taktik wird 2020 verstärkt genutzt werden.

Brute-Force-Angriffe werden intelligenter

Während traditionelle Brute-Force-Attacken auf Office 365 und andere Cloud-Dienste auch im Jahr 2020 noch anhalten werden, entwickeln sich diese Angriffe technisch immer weiter: So steigt die Zahl digitaler Angriffe unter anderem immer dann, wenn in großem Maßstab Passwörter (auch ältere) von Kriminellen erbeutet werden. Die Angreifer setzen dabei auf Automatisierung, um kompromittierte Passwörter oder solche mit Querverweisen von mehreren Dumps durch gängige Variationen zu ersetzen.

Es ist zudem zu erwarten, dass die Automatisierung von Brute-Force-Angriffen mit Tools wie Python und PowerShell genauso zunehmen wird, wie hybride Angriffe, die sowohl Legacy-Protokolle als auch andere Infiltrationstechniken nutzen, um sich unbefugt Zugriff zu verschaffen.

Lieferketten gefährden Partnerunternehmen

Die Lieferketten stellen einen besonders gefährdeten Bereich dar. Kriminelle werden hier künftig alle verfügbaren Methoden nutzen, vom Kreditkartendiebstahl bis hin zur Chef-Masche (BEC). Doch dürften die Angriffe im Jahr 2020 noch erheblich ausgefeilter werden.

Eine kürzlich durchgeführte Stichprobe bei Organisationen im Gesundheitswesen zeigte ein komplexes Netz von Lieferanten, von denen viele nicht auf die gleichen, hohen Sicherheitsmaßnahmen setzen wie die Organisationen selbst. Daher entstehen Schwachstellen in der Lieferkette. Das Wissen, wer diese Lieferanten sind, und das Bestehen auf hohen Sicherheitsstandards bei E-Mails innerhalb der Lieferketten ist entscheidend dafür, die Möglichkeiten der Angreifer zu beschränken, von einem Lieferanten zum anderen „zu springen“, bis sie ihr ursprünglich anvisiertes Ziel erreicht haben.

Schulung im Fokus

Automatisierte Systeme verhindern, dass eine große Anzahl an Bedrohungen überhaupt im Posteingang der Anwender landet. Aber selbst, wenn nur eine einzige dort ankommt, muss der Anwender diese erkennen können. Das gilt auch dann, wenn sich die Angreifer auf Sprach- und SMS-Phishing sowie Multi-Channel-Angriffe konzentrieren. Folglich ist das Thema Schulung ein Kernelement in Sachen Sicherheit. Nur wenn technische Schutzmaßnahmen mit kritischen, geschulten Anwendern Hand in Hand gehen, lässt sich eine nachhaltige Verbesserung der IT-Sicherheit gewährleisten.

Weitere Informationen unter:
https://www.proofpoint.com/de

Das Bauhaus als Vorbild für eine neue Schule zur Gestaltung der Digitalisierung

Es folgt ein Kommentar von Kim Lauenroth, adesso SE

Der Begriff der „Digitalisierung“ wird gerne kritisiert: Er wird in vielfältigen Kontexten und mit unterschiedlichsten Bedeutungen verwendet, ohne klar definiert zu sein. So hat er im öffentlichen Diskurs schon den Ruf eines Buzzword, das schon bald durch ein neues Wort ersetzt wird. Ob die Kritik am Begriff gerechtfertigt ist oder nicht, soll hier kein Thema sein. Sie darf in jedem Fall aber nicht darüber hinwegtäuschen, dass die Phänomene, die Menschen mit dem Begriff assoziieren, längst Realität sind: Digitale Technologien verbreiten sich in allen Lebensbereichen, sie werden unsere Gesellschaft noch auf Jahrzehnte hinaus prägen. Sie verändern die Art und Weise, wie wir arbeiten, kommunizieren, einkaufen und noch vieles mehr.

Aufgrund dieser tiefgreifenden Veränderungen bezeichnen Vertreter aus Politik und Wirtschaft die Digitalisierung gerne als Gestaltungsaufgabe. Sie rufen dazu auf, die Potenziale der Digitalisierung zum Wohle aller Bürger zu nutzen. Diese Botschaft ist richtig und gut. Vor allem, da Digitalisierung oft in einen negativen Zusammenhang gestellt wird. So wird beispielsweise der Künstlichen Intelligenz das Potenzial zugeschrieben, in Zukunft viele Arbeitsplätze zu vernichten. Aber an wen richten Politiker und Wirtschaftsvertreter ihre Botschaft? Wer soll die Digitalisierung eigentlich gestalten? Und vor allem, nach welchen Werten?
Was die Werte angeht, steht Europa auf seinem Weg in die Digitalisierung sowohl geografisch als auch bildlich zwischen den USA und China. Beide Länder lassen sich auf ihrem Weg durch ihre individuellen Werte leiten und gestalten so ihre digitale Zukunft. Beide Wege entsprechen allerdings nicht den humanistischen Werten, auf denen die Europäische Union gründet. Sie sind daher als Vorbild nur bedingt geeignet. Europa muss sich seinen eigenen Weg suchen und eine digitale Zukunft gestalten, die den europäischen Werten entspricht.

An dieser Stelle könnte dieser Kommentar nun eigentlich enden. Denn die europäischen Werte sind klar und die Gestalter der Digitalisierung sollen diese dann eben anhand der europäischen Werte ausrichten. Was ist das Problem?

Das Problem liegt darin, dass wir keine Gestalter der Digitalisierung haben. Ein kleiner Exkurs hilft hier beim Verständnis. Wer ein Gebäude errichten möchte, wendet sich in erster Instanz an eine Architektin oder einen Architekten. Denn es ist hinlänglich bekannt, dass sie in einem anspruchsvollen Studium dafür ausgebildet werden, Gebäude so zu gestalten und deren Bau so zu begleiten, dass die Gebäude den Bedürfnissen der Nutzer und Bauherren entsprechen. Was ist die Analogie zum Architekten in der Digitalisierung? Die Antwort mag verblüffen: Es gibt sie nicht – und es gibt auch keine systematische Ausbildung zum Gestalter der Digitalisierung.
Dieser Mangel ist kein kleines Problem. Es ist natürlich unbenommen, dass sich Menschen berufen fühlen, die Digitalisierung zu „formen“. Digitalisierung passiert schon heute und dazu gehört natürlich auch ihre Gestaltung. Dennoch fehlt gleich eine ganze Berufsgruppe von Menschen, die es als ihre Verantwortung begreifen, als „Designer“ der Digitalisierung aktiv zu werden und vor allem auch gezielt für diese Aufgabe ausgebildet werden. So hängt die Gestaltung der Digitalisierung von Menschen ab, die nur bedingt für diese Aufgabe vorbereitet wurden. Im Bauwesen akzeptiert die Gesellschaft diesen Zustand nicht, daher gibt es den Beruf des Architekten. Für die Digitalisierung dürfen wir diesen Umstand auch nicht weiter zulassen.
Genau an dieser Stelle setzt das Bitkom-Positionspapier „Digitale Bauhäuser für den europäischen Weg in die digitale Zukunft“ an. Es fordert die Gründung „Digitaler Bauhäuser“, um genau gezielt Gestalterinnen und Gestalter der Digitalisierung auszubilden.

Auf den ersten Blick liegt der Gedanke nahe, dass es sich zum 100. Geburtstag des Staatlichen Bauhauses um ein geschicktes Werbemanöver handelt. Auf den zweiten Blick stellt sich jedoch heraus, dass das Bauhaus ein hervorragendes Vorbild für die Ausbildung von Gestaltern und auch für die Gestaltung der Digitalisierung selbst ist.
Die Gründung des Bauhauses vor 100 Jahren wurde durch Umstände motiviert, die vergleichbar mit der aktuellen Ausgangslage sind . Die Industrialisierung brachte nicht nur neue technische Möglichkeiten, sondern veränderte auch gleichzeitig massiv die Arbeitswelt und die Gesellschaft. Die veränderten Bedingungen erforderten Weiterentwicklung im Design und in der Architektur und gleichzeitig auch ein neues Ideal für die Gestaltung.

Das Bauhaus wird heute in der Öffentlichkeit primär für seine Objekte gefeiert und nicht so sehr für die Menschen, die hinter diesen Gegenständen stehen. Walter Gropius wollte seine Studentinnen und Studenten befähigen, die neuen Materialien (beispielsweise Stahl, Glas und Beton) zu beherrschen – und gleichzeitig über den Status quo hinauszudenken, um ihren Zukunftssinn zur Gestaltung einer lebenswerten Zukunft zu wecken.

Um diesem eigenen Anspruch gerecht zu werden, hat Walter Gropius das Bauhaus nicht nur als Hochschule gedacht, sondern gleichzeitig auch als Labor für die Ausbildung und als Thinktank zur Entwicklung eines lebenswerten Zukunftsideals. Nur so konnte das Bauhaus Menschen ausbilden, die Gegenstände und Gebäude erschaffen haben, die heute noch weltweit berühmt sind – und auch genutzt werden.

Ich bin fest davon überzeugt, dass wir heute wieder Einrichtungen wie das Bauhaus brauchen, um das volle Potenzial der Digitalisierung zu nutzen und vor allem, um zu verhindern, dass die vielfach heraufbeschworen digitalen Dystopien Realität werden. Wir brauchen Menschen, die es den „Bauhäuslern“ gleichtun und das Digitale als eigenständiges und gestaltbares Material begreifen und auch beherrschen können. Es geht aber dabei nicht nur um technische Kompetenz. Gleichzeitig müssen die neuen digitalen Bauhäuser den Studentinnen und Studenten unsere europäischen Werte vermitteln, damit diese als Leitbild für die Gestaltung der digitalen Zukunft von Europa dienen können.

Hanno Rauterberg schließt seinen Text über das Bauhaus mit dem Gedanken, dass das Bauhaus einen Freisinn geweckt hat, der auch nach 100 Jahren noch nachwirkt und von dem man sich heute davontragen lassen sollte. Genau das sollten wir auch für die Digitalisierung anstreben. Digitale Bauhäuser können als Leuchtturm fungieren und genau wie das originale Bauhaus die außerordentlichen Talente anlocken, die eine lebenswerte digitale Zukunft gestalten wollen. Durch ihren Freisinn haben Studentinnen und Studenten in den Werkstätten am Bauhaus die herausragenden Produkte erst erarbeiten können. Mit der richtigen Ausbildung und dem passenden Umfeld können Studentinnen und Studenten an digitalen Bauhäusern diesen Erfolg wiederholen und vielfältigste Ideen für die digitale Zukunft von Europa erdenken und dann auch realisieren.

Über den Autor

Dr. Kim Lauenroth leitet bei der adesso AG das Competence Center für Requirements Engineering. Er ist erster Vorsitzender des International Requirements Engineering Board e.V. und engagiert sich im Bitkom für die Etablierung von Digital Design als Gestaltungsprofession der Digitalisierung.

Weitere Informationen unter:
www.adesso.de

Bildquelle / Lizenz Aufmacher: Image by Tegula from Pixabay

Elektronische Vertrauensdienste

DA:VE ist online

Die Bundesnetzagentur hat das dauerhaftes Verzeichnis für elektronische Vertrauensdienste DA:VE Ende 2019 in Betrieb genommen. Es ermöglicht die dauerhafte Prüfung von qualifizierten elektronischen Signaturen, Siegeln und Zeitstempeln.

„Mit dem dauerhaften Verzeichnis DA:VE leistet die Bundesnetzagentur einen wesentlichen Beitrag zur Verlässlichkeit der elektronischen Unterschrift und bietet deutschen Vertrauensdiensteanbietern einen Vorteil auf dem Binnenmarkt“, sagt Jochen Homann, Präsident der Bundesnetzagentur.

Warum ist das wichtig?

Qualifizierte elektronische Vertrauensdienste wie etwa Signaturen, Siegel und Zeitstempel sind wichtige Werkzeuge der Digitalisierung. Dabei erfordern viele Anwendungsbereiche langfristige Sicherheit. Dort soll z.B. auch in vielen Jahren noch rechtsverbindlich geprüft werden können, wer ein Dokument unterzeichnet hat.

Stellt ein deutscher qualifizierter Vertrauensdiensteanbieter den Betrieb ein, übernimmt die Bundesnetzagentur mit dem Verzeichnis DA:VE die erforderlichen Auskünfte. Bereits erstellte elektronische Signaturen, Siegel und Zeitstempel können so weiterhin zuverlässig auf ihre Gültigkeit geprüft werden. Die Nutzung des Verzeichnisses erfolgt vollautomatisch. Die Bundesnetzagentur unterstützt mit DA:VE die Digitalisierung in Deutschland. Das Verfahren gehört zu den ersten seiner Art in Europa. Es wurde unter Beteiligung der deutschen Marktteilnehmer entwickelt und getestet.

Hintergrund

Die Einführung europaweit einheitlicher elektronischer Vertrauensdienste durch die eIDAS-Verordnung bietet die Möglichkeit, schnelle, kostengünstige sowie vertrauenswürdige elektronische Transaktionen über Ländergrenzen hinweg vorzunehmen. eIDAS hat das Ziel, das Vertrauen in sichere digitale Infrastrukturen nachhaltig zu stärken. Bei Nutzung innovativer Identifizierungsmethoden ermöglichen die elektronischen Bausteine der eDIAS medienbruchfreie und rechtssichere Transaktionen in einem one-stop-shop.

Als Vertrauensanker leistet DA:VE hier einen wichtigen Beitrag.

Weitere Informationen der Bundesnetzagentur zu elektronischen Vertrauensdiensten unter:

www.elektronische-vertrauensdienste.de

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Intelligente Laserbearbeitung

Die Nachfrage nach hochwertigen Bauteilen in großer Stückzahl sowie die Verlagerung von Wertschöpfungsketten in Regionen mit niedrigen Produktionskosten sorgen bei vielen Fertigungsbetrieben für Wettbewerbsdruck, der oftmals nur durch schnellere Bearbeitungsverfahren abgefedert werden kann. Dafür sind jedoch moderne Technologien mit hohem Automatisierungsgrad notwendig, die gerade für kleine und mittlere Unternehmen (KMU) überdimensioniert erscheinen – häufig sind die Beschaffungskosten wie etwa von Ultrakurzpuls-Laseranlagen schlicht zu hoch.

Im Rahmen des EU-Förderprogramms „Horizon 2020“ haben die Unternehmen GFH GmbH und neoLASE GmbH gemeinsam eine kostengünstige und branchenübergreifende Lösung entwickelt: Bei dem „Smart Modular All-in-One Robust Laser Machining Tool“ – SMAART – handelt es sich um ein hochflexibles und vollautomatisches Laserbearbeitungssystem, das mittels eines eigens programmierten intelligenten Steuerungssystems automatisch zwischen verschiedenen Arbeitsschritten wie Laserdrehen oder Feinstrukturieren wechselt. Zudem deckt die Anlage einen Pulsbereich von 500 ps bis 500 fs ab, ohne dass ein aufwendiges Umrüsten notwendig ist. Dadurch bleiben die Anschaffungskosten niedrig und langfristig sollen so Stückzahlen erhöht und Arbeitsplätze geschaffen werden.

Modulare Lasertechnologie auf geringstem Bauraum ermöglicht kompakte und flexible Lasermaterialbearbeitungszentren.
(Quelle: GFH GmbH / neoLASE GmbH)

Steigen die Produktions- oder Personalkosten, sehen sich viele Betriebe gezwungen, ihre Fertigungsprozesse zu restrukturieren oder komplett auszulagern. Gerade Länder mit geringeren Lohn- und Betriebskosten außerhalb der Europäischen Union sind in diesem Zusammenhang attraktiv für deutsche Unternehmen. „Dadurch geht dem europäischen Raum ein signifikanter Betrag an potentiellem Umsatz und Added Value verloren“, erklärt Anton Pauli, Geschäftsführer der GFH GmbH. „Berechnungen nach – basierend auf Daten der Weltbank – sind durch die Abwanderung in Niedriglohnländer allein in den letzten Jahren circa neun Billionen Euro abgeflossen.“ Um diesem Trend entgegenzuwirken, fördert die Europäische Kommission durch Initiativen und Ausschreibungen wie der Horizon 2020 Kampagne neue Technologien, die Fertigungsprozesse effizienter und dadurch günstiger gestalten können.

Eine dieser Technologien ist die Werkstückbearbeitung mit Ultrakurzpuls-Lasern (UKP), die hochpräzise, kontaktlos und dadurch materialschonend operieren. Bisher waren solche Anlagen nicht nur sehr teuer, vielmehr zeigten sie sich komplex im Aufbau und auf einzelne Fertigungsschritte beschränkt. In der Praxis mussten so häufig verschiedene Anlagen für unterschiedliche Bearbeitungsverfahren angeschafft werden, oder aufwendige und lange Umrüstarbeiten durchgeführt werden. Auch die Voraussetzung für umfangreiches Know-How in Bezug auf die Steuerung und die Lasertechnik, um optimale Ergebnisse liefern zu können, machte die Technologie für Klein- und mittelständische Unternehmen bislang nicht nur unrentabel, sondern stellte auch den Grund für gehemmte Investitionsbereitschaft dar. Mit dem Ziel, gemeinsam eine Bearbeitungsanlage zu entwickeln, erfolgte der Zusammenschluss der beiden Laserspezialisten GFH GmbH und neoLASE GmbH. Mit SMAART wurde ein System entwickelt, welches in die neuen Anlagetypen der GFH GmbH integrierbar ist und je nach vorhandenem Bearbeitungsmaterial und Bearbeitungsprozess über die Eingabemaske die passende Laserauswahl – Piko- oder Femtosekunden Laser – anbietet und die richtigen Prozessparameter generiert. Auf diese Weise kann effizienter und mit größerer Bandbreite produziert werden – und das ohne umfangreiche Spezialkenntnisse auf dem Gebiet der Laserbearbeitung. „So lässt sich eine schnelle Amortisierung erreichen und die Etablierung der Laserbearbeitung als Schlüsseltechnologie für den gesamten Sektor der Materialbearbeitung ist realistisch“, erklärt Maik Frede, Geschäftsführer der neoLASE GmbH. Die Finanzierung des ehrgeizigen Projekts erfolgt unter anderem durch Mittel aus dem Rahmenprogramm European Union Horizon 2020. GFH und neoLASE konnten sich dabei mit ihrem SMAART-Projekt gegen 1658 Mitbewerber durchsetzen.

Laserdrehteil aus Hartmetall mit Bohrungen.
(Quelle: GFH GmbH / neoLASE GmbH)

Flexibles Verstärkerdesign ermöglicht variable Pulsdauer und Leistungsklassen

„Durch die Abwanderung ins nicht-europäische Ausland geht dem EU-Raum ein signifikanter Betrag an potentiellem Umsatz und Added Value verloren“, erklärt Anton Pauli, Geschäftsführer der GFH GmbH. (Quelle: GFH GmbH)

Zu Beginn war es nur eine vage Idee, geboren auf einem Laser-Netzwerktreffen. „Ein gemeinsamer Erfahrungsaustausch im Anschluss der Veranstaltung hat gezeigt, dass die Lasertechnologie prädestiniert für ein solches Vorhaben ist“, erklärt Pauli. „Durch die kontaktlose und flexible Bearbeitung mit Lasern ohne nennenswerte Wärmeleitung hat die Technologie das Potential, auch energieaufwendige Prozesse zu ersetzen.“ Für beide Unternehmen galt es zunächst, die Herausforderungen, die Marktsituation, den technischen Status Quo sowie die notwendigen Entwicklungsschritte genau zu definieren. „Damit die Umsetzung eines solchen Projekts überhaupt möglich wird, mussten wir die Lasertechnologie kundennäher gestalten und ihre Komplexität minimieren“, erläutert Frede.

Damit die hohe Flexibilität – also das Wechseln zwischen verschiedenen Arbeitsschritten und Laserparametern ohne Umrüsten – garantiert werden kann, ist es notwendig, dass eine universelle Laserquelle für die Bearbeitung bereitsteht, deren Pulsdauer und Intensität zügig automatisch angepasst werden kann. Die Maschinen mit integriertem SMAART-Tool verfügen über eine Art eigene Intelligenz, welche die jeweiligen Parameter und Komponenten für die einzelnen Bearbeitungsschritte automatisch erkennt, ohne dass diese durch einen Bediener im Voraus berechnet und manuell in die Steuerung eingegeben werden müssen. „Diese Schaltzentrale liefert uns neoLASE mit ihrem GAP-Modul“, berichtet Pauli. „Durch das flexible Verstärkerdesign können auf unseren GL-Anlagen unterschiedliche Pulsdauern und Leistungsklassen abgerufen werden, ohne zusätzlich CPA- oder regenerative Verstärker integrieren zu müssen.“ Dies ermöglicht einen kompakten Aufbau der Anlagen, die dennoch Pulsenergien bis zu 400 µJ und mittlere Leistungen von 80 W generieren können. Gleichzeitig werden zusätzliche Kosten durch aufwendigere Laser oder Komponenten vermieden. „Die Bearbeitungsanlagen von GFH sind generell auf Modularität und Flexibilität ausgelegt, weshalb sie perfekt für unsere Verstärkermodule geeignet sind“, bestätigt Frede. Da durch Kombination beider Technologien der Pulsbereich zwischen 500 ps und 500 fs abgedeckt und ein schneller Wechsel garantiert ist, kann die Anlage signifikante Geschwindigkeitsvorteile und Qualitätssteigerungen erzielen. Durch die gleichzeitige Nutzung von Piko- und Femtosekundenpulsen ist sogar darüber hinaus eine weitere Optimierung der Abtragsgeschwindigkeit vorstellbar.

Berührungslose Bearbeitung ersetzt energieintensive Prozesse

„Unser Ziel ist die Etablierung modularer Lasertechnik als Schlüsseltechnologie für den gesamten Sektor der Materialbearbeitung“, erklärt Maik Frede, Geschäftsführer der neoLASE GmbH. (Quelle: neoLASE GmbH)

Dazu trägt auch die berührungslose Bearbeitung mittels Lasereintrag bei: Weil die Pulse so kurz sind, dass keine nennenswerte Wärmeleitung stattfindet, werden Materialaufschmelzung, Gefügeveränderungen, Phasenumwandlungen und thermische Spannungen im Werkstück vermieden. „So eröffnet sich ein großes Anwendungsfeld für die Herstellung von Mikrokomponenten nicht nur im klassischen Maschinenbau, sondern auch für diverse Industrien wie die Medizintechnik oder die Textil- und Uhrenindustrie“, erklärt Pauli. „Im Idealfall lassen sich energieintensive oder ökologisch bedenkliche Prozesse ersetzen.“ Dies ist besonders wichtig, soll gleichbleibend hohe Qualität in großer Stückzahl erreicht werden, ohne die Produktionskosten zu erhöhen.

Damit die gewünschte Flexibilität auch tatsächlich von Beginn an gewährleistet ist, verfügen SMAART-fähige Anlagen neben der optimierten Hardware auch über eine integrierte Datenbank, auf der die verschiedenen Prozessparameter wie Pulsdauer, Verfahrweg der Optik oder Werkstückmaße und Materialart hinterlegt sind. So ist es möglich über die Eingabemaske, aus über 100 Bearbeitungsverfahren zum Laserbohren, Laserschneiden, Strukturieren und Abtragen mit dem Laser von Metall, Keramik, Glas und Polymeren auszuwählen. „Somit kann der Bediener einfach per Knopfdruck den gewünschten Arbeitsschritt initiieren. Die Ausrichtung der Maschine erfolgt dann automatisch in derselben Aufspannung“, erklärt Frede. „Sollten neue, noch nicht vorhandene Anwendungen oder Parameter hinzukommen, werden Maschine und GAP entsprechend angepasst.“ Auf diese Weise kann SMAART kontinuierlich weiterentwickelt werden und „dazulernen“.

Anwenderfreundlichkeit und Qualitätskontrolle stehen im Zentrum

Damit auch die Werkstückqualität selbst bei schwierig zu bearbeitenden Materialien wie Diamant gleichbleibend hoch ist, verfügen SMAART-fähige Anlagen mit einer Online-Qualitätskontrolle über ein Tool, das die Prozessparameter während der Bearbeitung validiert. Dadurch sind auch während des laufenden Arbeitsschritts Qualitätsproben möglich. „Wir wollten nicht einfach nur die Lasertechnik optimieren, sondern den Mehrwert dieser Verfahren so gut es geht steigern, etwa mit Vereinfachungen im Handling“, erklärt Pauli. „Eine zuverlässige Maschinenlösung, mit der sofort universell produziert werden kann, hält den Betrieb konkurrenzfähig und lässt ihn langfristig wachsen, ohne Personaldruck oder Investitionsängste fürchten zu müssen.“

SMAART – FACTSHEET

Projektdauer: 2 Jahre
Fördervolumen: 70 Prozent European Union Horizon 2020
Aufbau: Modulare Architektur mit u.a. mehreren Laserquellen, Strahlformungselementen, Optiken, Handling-Instrumenten
Pulsdauer: zwischen 500 fs und 500 ps
Pulsenergie: bis zu 400 μJ
Mittlere Leistung: bis zu 80 W
Wiederholrate: von Einzelschuss bis zu mehreren MHz
Strahlqualität: TEMοο mit M2 < 1,3
Anwendungsdatenbank: 100 verschiedene Bearbeitungsverfahren zum Bohren, Schneiden, Strukturieren und Abtragen von Metall, Keramik, Glas und Polymeren (kann erweitert werden)
Rüstzeit: Vollständige Automatisierung des Umrüst- und Einstellvorgangs (innerhalb von 1 Minute)
Online-Qualitätskontrolle für die Probenanalyse während oder unmittelbar nach der Probenverarbeitung

Weitere Informationen unter:
https://gfh-gmbh.de/de/
https://neolase.com/

New Work: Arbeitswelt der Zukunft

New Work: KI, RPA und die Blockchain sorgen für Veränderungen. Fachkräfte für die zunehmend datengetriebene Arbeitswelt sind rar und ihre Bindung zum Unternehmen daher umso wichtiger.

Kundendaten: Laissez-faire nicht nachvollziehbar

Gleichwohl ein stärkeres Bewusstsein für den Datenschutz vorhanden ist, mangelt es noch deutlich an Durchschlagskraft in Bezug auf die Etablierung vorgeschriebener Maßnahmen hinsichtlich der EU-DSGVO seitens der Unternehmen.

Seit dem 25. Mai 2018 gibt die EU-Datenschutzgrundverordnung vor, wie sich ein rechtskonformer Umgang mit personenbezogenen Daten innerhalb der europäischen Union gestaltet. Knapp anderthalb Jahre nach Inkrafttreten des Gesetzes dürfte eigentlich davon auszugehen sein, dass Unternehmen ihre damit verbundenen Prozesse umfänglich neu ausgerichtet haben – zumal dem Stichtag bereits eine zweijähre Übergangsphase vorausging. Doch prominente Beispiele – wie jüngst ein führendes Unternehmen der Telekommunikationsbranche – beweisen: Noch immer mangelt es vielen Unternehmen an einer gesetzeskonformen Strategie. Nicht einmal drohende immense Strafzahlungen scheinen bislang den finalen Anstoß zur Umsetzung der EU-DSGVO gegeben zu haben.

Worin liegen die Gründe hierfür und wie gelingt eine zeitnahe Umwälzung der betroffenen Prozesse?

In einer aktuellen Bitkom-Umfrage gaben 67 Prozent der teilnehmenden Betriebe zwar an, die neuen Regeln zu großen Teilen zu berücksichtigen, doch erst 25 Prozent konnten die Umsetzung als vollständig abgeschlossen verbuchen.[1] Diese Bilanz spiegelt im Großen und Ganzen das Bild wider, das auch wir gewonnen haben. Auf der einen Seite bewirkte die EU-DSGVO ein stärkeres Bewusstsein für den Datenschutz – doch auf der anderen Seite mangelt es in Bezug auf die Etablierung der vorgeschriebenen Maßnahmen noch deutlich an Durchschlagskraft.

Hemmschuhe bei der Realisierung

In einer internen Befragung unserer Kunden vom Jahresanfang 2019 wurde deutlich, dass 20 Prozent der Betriebe die Richtlinien der EU-DSGVO selbst zum Jahreswechsel noch immer nicht umgesetzt haben würden. Dabei manifestierten sich hauptsächlich vier Gründe: So wusste ein Großteil der Handlungsverpflichteten zu wenig über die entsprechenden Gesetzesrichtlinien rund um personenbezogene Daten. 39 Prozent der befragten Unternehmer verfügten demnach über einige oder gar keine Kenntnisse, nur 10 Prozent gaben an, sich sehr gut mit den Verpflichtungen vertraut gemacht zu haben und die restlichen 51 Prozent ordneten sich dazwischen ein.

Zudem stellte sich heraus, dass knapp 20 Prozent das Ausmaß der Konsequenzen bei DSGVO-Verstößen nicht kannten. Dabei schlagen die mit bis zu zwei Prozent des weltweiten Umsatzes aus dem vorangegangenen Geschäftsjahr beziehungsweise bis zu 10 Millionen Euro – je nachdem, welcher Betrag höher ausfällt – ganz gewaltig zu Buche. Diese Konsequenzen bekam ein Telekommunikationsanbieter erst Ende 2019 zu spüren. Da die Kundendaten nicht ausreichend systematisch geschützt waren und Unberechtigte somit an weitreichende Informationen zu weiteren personenbezogenen Kundendaten gelangten, wurde das Unternehmen mit einer Geldbuße in Höhe von etwa 9,5 Millionen Euro belegt. Obwohl die Summe aufgrund des kooperativen Verhaltens des Unternehmens leicht herabgesetzt wurde, bleibt eine immense Strafzahlung in Millionenhöhe bestehen.

„Noch immer mangelt es vielen Unternehmen an einer gesetzeskonformen Strategie.“

Als dritter Grund für die bislang noch mangelhafte Umsetzung der Richtlinien manifestierte sich, dass auch die neue Pflicht zur Datenschutzfolgenabschätzung bislang noch nicht übergreifend eingehalten wird. Hierbei prüft der Datenschutzbeauftragte bei Verarbeitung besonders sensibler Informationen die speziellen Risiken für die Rechte und Freiheiten des Betroffenen. Obligatorischer Bestandteil dieser Prüfung ist seine Stellungnahme zur Rechtmäßigkeit der Datenverarbeitung. Doch auch hier zeigte sich, dass gerade einmal 21 Prozent der befragten Unternehmen die gesetzlichen Vorgaben der EU-DSGVO einhalten.

An vierter Stelle lässt sich ein mangelndes Vertrauensverhältnis bei der Beratung anführen. Fakt ist: Ein Projekt mit solch einer immensen Tragweite erfordert eine ganze Fülle von Ressourcen, die nur die wenigsten Unternehmen inhouse bereitstellen können. Der Löwenanteil der Betriebe setzt auf externe Datenschutzbeauftragte sowie Beratungshäuser und benötigt spezielle Schulungen oder Tools, um den gesetzeskonformen Umgang mit personenbezogenen Daten zu gewährleisten. Hier konnten wir allerdings feststellen, dass 40 Prozent der teilnehmenden Betriebe ihre externen DSGVO-Berater mit der Note befriedigend und ausreichend bewerteten. 25 Prozent vergaben die Note mangelhaft und lediglich 10 Prozent fühlten sich sehr gut beraten.

Unser Autor

Jürgen Litz

Seit 2009 ist Jürgen Litz Geschäftsführer des Herstellers für Kundenmanagement-Software cobra GmbH mit Sitz in Konstanz. Basierend auf seinen langjährigen Erfahrungen im Bereich Kundenmanagement setzt er sich hier im Hinblick auf die EU-Datenschutz-Grundverordnung für ein positives Verständnis von Datenschutz und Datenchancen ein. Litz war zuvor acht Jahre lang Geschäftsführer Vertrieb und Marketing beim Markenartikler ADO-Goldkante. Nach seinem BWL-Studium in Köln begann er seine Karriere beim Computer-Händler comtech/escom.

Wo ein Wille, da auch ein Weg

Wollen Unternehmen zügig die neuen Datenschutzregeln auf die eigenen Abläufe anwenden, gilt es zum einen Aufgabenbereiche auf externe Schnittstellen zu verlagern, zum anderen müssen die notwendigen Kompetenzen in den eigenen Betrieb migriert werden. Einen wichtigen Baustein bildet hierbei die Software-Landschaft. Die digitale Datenverarbeitung stellt im Zuge der Digitalisierung die Grundvoraussetzung dar, um flexibel auf Marktanforderungen zu reagieren. Gleichzeitig liegt in diesem Sektor der Schlüssel zur zeitnahen und reibungslosen Umsetzung der Datenschutzgrundverordnung.

Befinden sich alle Kunden- und Auftragsdaten in einer zentral verwalteten CRM-Software mit entsprechender DSGVO-Zertifizierung, lassen sich auf Kundenwunsch per Mausklick und unter Berücksichtigung der Richtlinien sämtliche Informationen herausgeben. Zudem informiert ein Vermerk im System Mitarbeiter aus Vertrieb, Marketing, Management und Geschäftsführung über die Datenportabilität. Darüber hinaus erweisen sich solche CRM-Systeme als clevere Helfer beim Einholen einer erforderlich gewordenen Werbeeinwilligung und tragen somit maßgeblich zur Einhaltung der neuen Richtlinien im Umgang mit personenbezogenen Daten bei.

Insgesamt übernimmt meines Erachtens die IT in Bezug auf die Umsetzung der DSGVO-Richtlinien eine tragende Rolle. Unter Anwendung innovativer Systeme, etwa zum Consumer Relationship Management, lässt sich nicht nur der Schritt in Richtung Datenschutz-Konformität innerhalb kurzer Zeit und mit geringem Aufwand realisieren – sie erhöht außerdem die Datenqualität und trägt somit zu einer ganzheitlichen Optimierung der Unternehmensprozesse und Kundenbeziehungen bei.

Im Zusammenhang mit der EU-DSGVO zeigt sich das Potenzial innovativer IT-Systeme: Sie schaffen eine Balance zwischen den gesetzlichen Anforderungen und dem Nutzen auf Seiten der Unternehmen und Kunden.

https://www.cobra.de/


[1] Bitkom: DS-GVO, ePrivacy, Brexit – Datenschutz und die Wirtschaft. September 2019.

Das Jahr 2020

Der Beginn eines Jahres ist immer auch der Versuch, zu antizipieren, was in den kommenden Monaten wichtig wird. Führungskräfte richten ihre Strategien an Studien, Trends und Marktforschung aus. Wir haben die Experten von Lünendonk gebeten, aus ihrer Sicht auf drei Kernfelder zu schauen: den Arbeitsmarkt und die Wertschätzung der Arbeit, wichtige Neuregelungen für finanzmarktorientierte Unternehmen und wie es gelingen kann, datenbasierte Geschäftsmodelle zu platzieren – gleichsam bedeutend für alle Führungskräfte. In den nachfolgenden Beiträgen schauen Mario Zillmann, Jörg Hossenfelder und Thomas Ball voraus auf die kommenden Monate und identifizieren wichtige Handlungsfelder.

Was Finanzer im Jahr 2020 beachten müssen

Nichtfinanzielle Berichterstattung: Erweiterte Anforderungen bei Klimaschutz und alternativen Kennzahlen sowie Auswirkungen des Brexit

von Jörg Hossenfelder Geschäftsführender Gesellschafter Lünendonk & Hossenfelder GmbH

Die Finanz- und Steuerabteilungen setzen sich im Jahr 2020 mit Regeln auseinander. Vor allem finanzmarktorientierte Unternehmen unterliegen neuen Anforderungen der Europäischen Wertpapier- und Marktaufsichtsbehörde, ESMA. Denn Ende Oktober 2019 wurden neue europäische Prüfungsschwerpunkte veröffentlicht, welche bereits Jahresabschlüsse des Kalenders 2019 betreffen.

Von besonderer Bedeutung sind in diesem Zusammenhang spezifische Fragen zu Leasingverhältnissen (IFRS 16), zu Finanzinstrumenten für Kreditinstitute (IFRS 9) und zu Erlösen aus Kundenverträgen für Industrieunternehmen (IFRS 15). Und auch bei der Anwendung von IAS 12 zu Ertragsteuern finden Justierungen statt.

Auch bei der nichtfinanziellen Berichterstattung weist die ESMA auf erweiterte Anforderungen hin, zum Beispiel beim Klimaschutz oder alternativen Kennzahlen. So müssen die Finanzer bei nichtfinanziellen Informationen auch klimaverändernde Aspekte, KPII oder Rahmenkonzepte für Lieferketten offenlegen. Ferner gilt es bei der Berücksichtigung von alternativen Leistungskennzahlen (APMs) neue Leitlinien zu beachten. Auch etwaige Auswirkungen des Brexit finden Berücksichtigung.

Darüber hinaus einigte sich die Europäische Union Ende Mai 2019 auf ein einheitliches elektronisches Format für Jahresfinanzberichte (ESEF). Dies wird bereits für Jahresabschlüsse gültig, deren Geschäftsjahre am oder nach dem 1. Januar 2020 beginnen.

Den Arbeitsmarkt im Blick

Gesucht: Hochqualifizierte und Helfer für B2B-Dienstleistungen

von Thomas Ball, Partner, Lünendonk & Hossenfelder GmbH

Die Wirtschaftsstruktur entwickelt sich konsequent hin zu Technologieunternehmen und Dienstleistungen. B2B-Services wie Wirtschaftsprüfung und Steuerberatung, Facility Services, IT-Beratung und Service, Zeitarbeit und Ingenieurs- und Instandhaltungsdienstleistungen sowie Managementberatung tragen wesentlich zur Flexibilität, Stabilität und Produktivität ihrer Auftraggeber und damit der Gesamtwirtschaft bei. Ihr kombinierter Jahresumsatz liegt bei rund 200 Milliarden Euro in Deutschland.

Der Personalmangel ist in den B2B-Dienstleistungen weithin spürbar: Elektriker, Schlosser, Instandhalter, IT-Spezialisten, Wirtschaftsprüfer – um nur ausgewählte zu nennen – fehlen landauf, landab. Das liegt auch an mangelnder Wertschätzung. Dabei sind Berater, Facility-Service-Unternehmen und Personaldienstleister Spezialisten und Experten in ihrem Kerngeschäft. Das gilt es zu honorieren.

Lünendonk®-Studien zeigen: Gerade in Zeiten von knappem Personal gewinnen Wertschätzung, Flexibilität, Vertrauen, Fairness und Unternehmenswerte an Bedeutung. Das gilt insbesondere für die beauftragenden Unternehmen und deren Belegschaft gegenüber den B2B-Service-Kräften. Mangelnde (auch finanzielle) Wertschätzung führt über kurz oder lang dazu, dass sich die besten Unternehmen und auch das qualifizierte Personal andere Auftraggeber suchen. Wertschätzung gegenüber B2B-Services ist im Eigeninteresse der Auftraggeber.

Trends für CxOs 2020

Wie können Unternehmen digitale Geschäftsmodelle etablieren?

von Mario Zillmann, Partner Lünendonk & Hossenfelder GmbH

2020 sind für Unternehmen zwei Herausforderungen besonders wichtig: Wie schaffen sie es, in einem intensiveren globalen Wettbewerb ihre Prozesse effizienter zu gestalten und die Kostenstrukturen weiter zu verbessern? Daneben gilt es, endlich mehr digitale Innovationen und datenbasierte Geschäftsmodelle erfolgreich am Markt zu platzieren, um der wachsenden Konkurrenz aus Asien und den USA entgegenzutreten. Auf die folgenden Technologien wird es dabei besonders ankommen:
Nachdem klassische Optimierungsmethoden wie Outsourcing und Shared Service Center an ihre Grenzen stoßen, investieren Unternehmen verstärkt in Process Mining. Damit können bisher versteckte Ineffizienzen in den Prozessen tool-basiert identifiziert werden. Auf dieser Basis können Automatisierungsvorhaben durch Robot Process Automation (RPA) und Künstlicher Intelligenz (KI) durchgeführt werden. Bereits weit fortgeschritten ist RPA, also die Automatisierung von Routineaufgaben, die keine kognitiven Fähigkeiten verlangen. Einen Schub durch immer höhere Rechenleistung (exponentielles Wachstum, Quantencomputing) wird 2020 KI erleben und aus dem Experimentierstadium heraustreten. Immer mehr Aufgaben, die kognitive Fähigkeiten verlangen, werden durch (teil-autonome) KI-Tools abgelöst.
Der Aufbau von schnittstellenoffenen Technologie-Plattformen (APIs) steht ebenfalls im Fokus, um den Austausch von Daten zwischen einzelnen IT-Anwendungen sowie zwischen mehreren Unternehmen zu ermöglichen. Der einfache und automatisierte Datentransfer ist eine wichtige Voraussetzung für KI sowie für digitale Geschäftsmodelle, bei denen Third-Party-Anwendungen in die eigene Plattform integriert oder Unternehmen Teil von anderen Plattformen werden.

Weitere Informationen unter:
www.luenendonk.com

Per Middleware in den Omnichannel

Gastbeitrag von Rudolf Kotschi

Middleware bringt AS/400 auf Zack und bahnt den Weg eines mittelständischen Möbelhauses in den erfolgreichen Omnichannel-Handel.

Onlineshop, Pop-up-Store, Ladengeschäft, Marketplaces, Shop in Shop – um junge Kunden zu gewinnen und bei Stammkunden Kaufenthusiasmus zu fördern, gehört reges Umgarnen der Kundschaft an zahlreichen örtlichen und digitalen Treffpunkten dazu. Nur, wenn Daten in einer einzigen Datenbank gebündelt und von dort spontan an die jeweiligen Kanäle ausgespielt werden, können Mitarbeiter in Echtzeit Fragen beantworten und gewünschte Handlungen ausführen.

Oftmals nutzen mittelständische Unternehmen jedoch schon seit vielen Jahren eine angestammte, vertraute und prall gefüllte Warenwirtschaft; die selten echtzeitfähig ist, der technologischen Veränderungen jedoch möglichst nicht zum Opfer fallen soll.

Eine verbindende Middleware stellt die Lösung dar. Sie verbindet Datenquellen (zum Beispiel ERP, CRM, PIM, MRM) und Datenziele (Außenkanäle wie der eigene Onlineshop, Store oder Verkaufsplattformen) miteinander und bringt Daten mit einem Eintrag in allen Zielorten auf Stand. Wie verläuft die Implementierung eines solchen verbindenden Knotenpunktes und was bringt er in der Praxis?


Unser Gastautor

Rudolf Kotschi war nach dem Informatikstudium an der Universität der Bundeswehr jahrzehntelang in führender Position bei Systemintegrations- und IT-Beratungshäusern tätig. Heute entwirft der leidenschaftliche digitale Humanist E-Commerce-Strategien für mittelständische produzierende Unternehmen und berät zur digitalen Transformation.


Die Zeit vor der Echtzeit

Als Beispiel dient ein traditionelles Möbelhaus mit zehn Ladengeschäften, rund 3.000 Mitarbeitern, drei Millionen Kunden, 800 Lieferanten und einem bunten, vielfältigen und reichhaltigen Produktangebot. Als weitere Ausdrucksform präsentiert er ein Online-Schaufenster ohne Shop. Typisch für Unternehmen dieser Größe ist die weitverbreitete Warenwirtschaft auf einer AS/400 von IBM. Weiterhin hilft ihm  ein Tool zum Regeln der Touren, ein Dokumentenmanagement- und ein Produktinformationssystem beim Organisieren seines Business. Neukunden legen Verkäufer per Hand im CRM an – meist mehrmals, oft mit Flüchtigkeitsfehlern, die späteres Finden durchkreuzen. Da es kaum Online-Registrierungen gibt, gehen appetitanregende Newsletter extrem spärlich raus. Auch auf individuelle Preisanpassungen oder bewegliches Übernehmen von Informationen ins PIM muss das Unternemen verzichten.

So kann es nicht weitergehen, denn die Customer Journey findet meist online statt. Ein Onlineshop muss her!

Online verkaufen bedeutet aber, in Echtzeit zu handeln: Bestellungen annehmen, präzise den Transport regeln, Kunden jederzeit auf Stand halten, blitzschnell antworten, individualisierte Informationen liefern. AS/400 ist jedoch nicht in allen Prozessen durchgängig echtzeitfähig. Als Hebel dient eine Middleware. Eine solche verbindende Plattform macht die Warenwirtschaft für eCommerce-Prozesse echtzeitfähig. In unserem Beispielfall benötigt sie eine Schnittstelle zu AS/400; MIDbridge gehört hier zu bekannten Vertretern. Für das Implementieren der Middleware, für das Dateneinpflegen und Bereinigen, fürs Anbinden an alle genutzten Systeme und das Schulen der Mitarbeiter können Firmen des hier beschriebenen Umfangs mit zirka einem Jahr rechnen.

Nach dem Launch des Onlineshops: Bestellhistorie als Serviceleistung

Der Onlineshop ist gelauncht? Dann gilt es, Redundanzen im Customer Relationshop Management zu tilgen und Daten zu bereinigen. Über ein datenschutzkonformes Dublettenprüfsystem werden Doppelgänger identifiziert und über die Middleware mit einer Hauptadresse verknüpft. Um für Consumer virtuelles mit analogem Einkaufserleben zusammenzuführen, führt die Middleware Online- und POS-Käufe des registrierten Kunden zusammen und stellt für jeden Kunden eine abrufbare Historie bereit. Die Daten ruhen im Datenzentrum. Bis sie gebraucht werden: Sucht beispielsweise ein Stammkunde neue Regalbretter, wirft ihm die Datendrehscheibe in Echtzeit seine Historie aus und sofort findet der Interessent den exakten Regalnamen. Das schafft die vorhandene Warenwirtschaft nicht, weil sie nicht auf Echtzeit gepolt ist.

Automatisierte Produkt-Kongruenz

Kampagnen und Änderungen spiegeln sich sofort im Shop wieder. Die beliebten Beistelltische gibt’s im Frühjahr in peppigem Türkis? Sofort erweitert die Middleware die Farbpalette und gibt sie dem Onlineshop aus. In Zeiten des Streamings sterben CD-Racks – Preisreduktion ist das Mittel der Wahl. Gleich erfahren die Besucher des Onlineshops davon. Da die Middleware Daten automatisiert überträgt, bleiben Warenwirtschaft und Verkaufskanäle auf Stand: Verkauft ein Shop drei Nachttische, sinkt die gesamte Verfügbarkeit im Datenherz um drei. Im Onlineshop erscheint der Nachttisch-Bestand aufgedröselt für jeden der einzelnen Stores.

Kanal egal: Die Middleware führt Online- und POS-Käufe des registrierten Kunden zusammen.
(Bild: stationäres Ladengeschäft)

Omnichannel braucht viele Lieferanten

Ein Möbelhaus bietet mannigfaltige Produkte an, die wiederum unterschiedliche Transportanforderungen stellen: große stabile Möbelstücke, die interne Mitarbeiter liefern und zusammenbauen, fragile Rotweinschwenker, die per Kurier kommen, Ohrensessel, die Besucher mit ihrem Kombi persönlich im Laden abholen. In der zuvor mit Regeln gefütterten Zentralplattform laufen alle Bestellungen ein. Dem Regelwerk gemäß leitet sie die Order an die passenden Frachtführer weiter: Zum Beispiel weist sie eine Anrichte automatisiert der Position Zwei-Mann-Handling zu. Eine informative E-Mail an den Besteller bestätigt den Prozess, ein Sendungsverfolgungslink hält ihn im Bilde.

Unterstützung des Marketings

Wer häuslich ist, liebt schöne Textilien. Ein Newsletter mit aktuellen Tischdecken-Angeboten fällt ihm also mit großer Wahrscheinlichkeit positiv auf. Zugeschnittene Ansprache im Publishing-System steigert die Awareness des Empfängers und schürt Lust auf Kauf. Die Verlinkung von Middleware und Media Ressources Management hievt frisches Marketing-Material in Echtzeit in Shop oder Newsletter.

Apps für Crew und Consumer

Das Smartphone ist immer dabei. Dies zu nutzen, lautet das Gebot der Stunde. So kann eine Umlagerungs-App Mitarbeitern eine Menge Zeit sparen. Steht ein neuer, produktbestückter Display an, erfasst der Zuständige einen Artikel via Barcode. Sofort sieht er auf dem Display den aktuellen Lagerort des gesuchten Artikels. Die Anzahl der Artikel bucht er ab, tippt den neuen Ort ein und fertig. Was hat die Middleware damit zu tun? Sie sendet die Aktionsware und ihre Umschichtung an die AS/400. Bei Konsumenten kann eine App beispielsweise als Wegweiser dienen: Auf Konsumentenseite speichert der Consumer beim Surfen seine Favoriten auf einer Merkliste. Die Datendrehscheibe überträgt diese Merklisten an eine Digitale-Wegeführungs-App. Besucht der Konsument den Store, erhält er an einer Infostele seine Wegeführung hin zu allen Produkten, die seine Merkliste enthält, und bewegt sich mit traumwandlerischer Sicherheit von einem begehrten Objekt zum nächsten.

Fazit

Eine Midddleware bahnt Legacy-Systemen den Weg in den Omnichannel. Bei der Auswahl einer solchen verbindenden Datendrehscheibe achten Anwender auf Schnittstellenvielfalt, Flexibilität und DSVGO-Konformität. Für hohe Kostentransparenz sorgt die Option auf Software-as-a-Service.

Weitere Informationen finden Sie unter:
www.midbridge.de

Aufmacherbild / Quelle / Lizenz
Bild von Michael Gaida auf Pixabay

GetMyInvoices – mehr als ein Turbo fürs Belegmanagement

Deutsche Unternehmen, auch aus dem Mittelstand, erreichen bei der Digitalisierung ihres Finanz- und Rechnungswesens deutliche Fortschritte. Dies ist ein Ergebnis der Studie „Digitalisierung im Finanz- und Rechnungswesen 2019“ der Wirtschaftsprüfungs- und Beratungsgesellschaft PricewaterhouseCoopers (PwC). Doch es gibt noch viel „Luft nach oben“, wie die Software GetMyInvoices zeigt.

Obwohl intelligente Technologie großes Optimierungspotenzial bietet, ist in vielen mittelständischen Unternehmen insbesondere das Management von Rechnungen, Quittungen und weiteren Dokumenten ein Kampf an mehreren Fronten. Die Mitarbeiter in der Buchhaltung sehen sich einer Belegflut aus zunehmend mehr Quellen gegenüber: Denn die Dokumente treffen nicht nur per Post, sondern auch digital über verschiedene E-Mail-Postfächer ein, müssen mühsam aus Kundenportalen abgerufen oder sogar separat angefordert werden. Sie zeitnah zusammenzutragen und in die benötigte Software – unter anderem zur Buchhaltung sowie zur Archivierung – zu übertragen, nimmt viel Zeit in Anspruch. Außerdem sind derartige Prozesse stark fehlerbehaftet, da Medienbrüche entstehen und Belege vergessen werden. Zusätzlich verzögert sich die Durchlaufzeit von Rechnungen und Abrechnungen oft so lange, dass an Vorteile wie Skonti nicht mehr zu denken ist.

Rechnungen automatisch zusammentragen

Mehr als die Hälfte der Unternehmen verzichtet PwC zufolge noch auf Künstliche Intelligenz, beispielsweise für das Auslesen von Rechnungen und Belegen zur Weiterverarbeitung. Dabei liegt in diesem Bereich enormes Potenzial, wie GetMyInvoices verdeutlicht. Konkret trägt GetMyInvoices Belege aus verschiedenen Quellen automatisch zusammen. Nach einmaligem Hinterlegen der Zugangsdaten lädt die Lösung Dokumente aus mehr als 5.000 Online-Portalen herunter und speichert sie in einer zentralen Belegverwaltung in der Cloud. Die Spanne reicht von der Telefonrechnung über Versicherungsbescheide bis hin zu Kontoauszügen.

Außerdem lassen sich mit ihr E-Mail-Postfächer überwachen. Sobald eine Rechnung eingeht, wird diese automatisch erkannt und ebenfalls heruntergeladen. Darüber hinaus können Anwender diverse Drittlösungen wie Cloudspeicher und Rechnungserstellungstools mit GetMyInvoices verbinden, sodass auch in diesen Lösungen gespeicherte Dokumente ohne manuellen Aufwand in die zentrale Belegverwaltung gelangen. Nicht zuletzt ist es möglich, per App mit dem Smartphone gescannte Belege zu der Rechnungsmanagementlösung hochzuladen. Sobald die Belege digital vorliegen, können die Originale aus Papier vernichtet werden. Das ist das Ende der Zettelwirtschaft, zum Beispiel für Außendienstmitarbeiter. Außerdem sind ihre Belege unmittelbar in den zuständigen Abteilungen in der Unternehmenszentrale verfügbar.

Zentrale Belegverwaltung und Synchronisation

Dadurch, dass sämtliche Dokumente zentral und sicher in der Cloud gespeichert sind, können die berechtigten Mitarbeiter von überall darauf zugreifen. Dafür müssen sie keine Software installieren, sondern benötigen nur ihren Webbrowser. Nach dem Einloggen gewährt ihnen ein intuitives Backend Zugriff auf ihre Dokumente. Aus diesen werden relevante Informationen wie Rechnungsdatum, Rechnungsnummer sowie Rechnungsbetrag automatisch ausgelesen. Dafür werden Standardformate wie ZUGFeRD und XRechnung unterstützt. Über eine OCR lassen sich Rechnungsinformationen auslesen, die dann Mitarbeiter prüfen und bei Bedarf korrigieren können. Außerdem haben sie die Möglichkeit, die Dokumente mit Tags zu versehen, sodass sie diese jederzeit ohne Aufwand wiederfinden.

Nicht zuletzt können sie die Belege für die Verbuchung, Zahlung und/oder die Synchronisierung mit anderen Lösungen freigeben. Dazu zählen verschiedene Buchhaltungslösungen wie lexoffice und DATEV Unternehmen online. Auf diese Weise können die Belege nicht nur automatisch in die Buchhaltungsabteilung übertragen werden, sondern auch an den Steuerberater. Ebenso ist es möglich, Belege in Dokumentenmanagementsysteme wie ecoDMS oder CRM-Lösungen einschließlich Salesforce zu übertragen.

Bei Unterstützung durch die jeweilige Schnittstelle werden die extrahierten Informationen mit übergeben. Die Daten lassen sich dann zum automatisierten Abgleich mit Kontoauszügen oder Bestellungen nutzen bzw. direkt verbuchen. Das zeitaufwendige und fehlerbehaftete Abtippen von Rechnungsnummern, -beträgen usw. gehört der Vergangenheit an. Stattdessen können je nach Workflow die unterschiedlichsten dokumentengebundenen Prozesse im Unternehmen automatisiert werden.

Individuelle Einsatzszenarien

Die Spanne beginnt beim beschriebenen Rechnungsmanagement und endet mit einer revisionssicheren Archivierung von Dokumenten. Dabei sind an jedem Dokument sämtliche Aktionen jederzeit nachvollziehbar. Auch ein Buchprüfer kann über eine solche Rechnungsmanagement-Lösung Zugang zu den Belegen erhalten. Ein anderer Anwendungsfall ist das Reisekostenmanagement. Dabei können Mitarbeiter ihre Abrechnungen direkt mit der Buchhaltung teilen, was eine umgehende Kostenerstattung erlaubt. Wenn es eine Frage gibt, dann können sich die Kollegen direkt über die integrierte Chat-Funktion am Beleg bzw. der dazugehörigen Transaktion austauschen.

Die Vorteile: Rechnungen werden schneller bezahlt. Dies führt – je nach Anwendungsfall – nicht nur zu weniger Bearbeitungszeit und -kosten, sondern auch zu mehr Mitarbeiterzufriedenheit oder dazu, dass Vorteile wie Skonti ausgeschöpft werden können. Des Weiteren haben die Mitarbeiter mehr Zeit für ihre Kernaufgaben zur Verfügung, da das lästige Zusammentragen sowie Abtippen von Belegen passé sind. Ein weiterer Nutzen: Es entstehen weniger Fehler, zum Beispiel durch die Übertragung oder das Vergessen von Belegen, sodass sich die Qualität der Daten verbessert. Und bessere – aktuelle – Daten wiederum sind eine fundierte Grundlage für unternehmerische Entscheidungen.

Über den Autor:

Björn Kahle ist Geschäftsführer der fino data services GmbH, welche die Rechnungsmanagement-Software GetMyInvoices anbietet. Mit einer Erfahrung von mehr als 20 Jahren im IT-Bereich hat er bereits Anfang 2004 seinen Fokus auf die Entwicklung von cloudbasierter Software für automatisiertes Rechnungsmanagement gesetzt.

www.getmyinvoices.com

Aufmacherbild / Quelle / Lizenz
Bild von athree23 auf Pixabay

Roadshow Enterprise Change Management

Der Wandel zum intelligenten & vernetzten Unternehmen

11 Termine, 11 Städte, 11 Best Practices: Die SER Group informiert auf ihrer Roadshow vom 04. – 27. März 2020 wie Unternehmen ihren Mitarbeitern den digitalen Wandel erleichtern können.


Die diesjährige Roadshow steht im Zeichen von Praxisberichten, die darstellen, wie Unternehmen mit „Enterprise Change Management“ den Change durch erfolgreiche ECM-/DMS-Projekte von der Strategie bis zum erreichten Ziel des intelligenten & vernetzten Unternehmens meistern. Es wird gezeigt, wie Kunden dabei Mitarbeiter von Anfang an einbeziehen und zu Beteiligten machen – statt zu Zuschauern. Denn digitale Anwendungen allein reichen nicht aus. Erst, wenn Mitarbeiter, IT und Management von der der neuen digitalen Arbeitsweise überzeugt sind, wird der positive Effekt sichtbar.

Christoph Oettl, Leiter Professional Service in Stuttgart und München und weitere SER-Projektleiter berichten dabei aus erster Hand von den Change Management-Ansätzen aus ihren Projekten – von Lösungen für Fachbereiche bis zur konzernweiten ECM-Einführung. Die Teilnehmer erhalten viele neue Impulse und konkrete Empfehlungen für ihre eigenen Projekte.

Sie erhalten Tipps, wie man von Anfang an die richtigen Weichen beim ECM-Projektstart im Hinblick auf die Grundvoraussetzungen für digitale Geschäftsmodelle und Prozesse stellt. Wie man Anwendungen mit hoher Akzeptanz schafft, die in der Praxis funktionieren, den Erfolg des Unternehmens steigern und Anwendern die tägliche Arbeit erleichtern – Strategie, Usability & Akzeptanz zur erfolgreichen Einführung von ECM/DMS sind hier die Stichworte.

Des Weiteren erfahren die Teilnehmer mehr über unternehmensweite Enterprise Search: „Schluss mit Informationssilos“ – dafür nur EINEN Zugang zu allen Quellen wie Datenbanken, Server, Microsoft SharePoint, Fileverzeichnissen und Archiven. Das reduziert Suchzeiten auf  ein Minimum und sorgt für reibungslose, schnelle Geschäftsprozesse und eine bessere abteilungsübergreifende Zusammenarbeit. Zudem verbessert es den Kundenservice – wer schneller alle Informationen findet, ist auch schneller auskunftsfähig und kann Anfragen verlässlich beantworten.

Die Referenten vermitteln den Teilnehmern, wie man die Hürde „Informationssilos“ überwindet und mit Content Federation Dokumente, Daten und Vorgänge systemübergreifend, vernetzt und kontextbasiert für den zentralen Informationszugang zusammenbringt.

Last but not least erläutert der letzte Beitrag für die Teilnehmer den Weg zum digitalen, vernetzten & intelligenten Unternehmen wie folgt: „Das intelligente, vernetzte Unternehmen teilt Informationen und vermehrt Wissen. Es vernetzt Kollegen, Abteilungen und ganze Unternehmen miteinander. Es integriert Künstliche Intelligenz, um Erkenntnisse aus unstrukturierten Inhalten zu gewinnen. Es ist erfolgreicher, weil benötigte Informationen jederzeit und überall im Kontext zur Verfügung stehen, um schnellere und bessere Entscheidungen treffen zu können. Das intelligente Unternehmen unterstützt seine Mitarbeiter mit transparenten Prozessen, es automatisiert Routinetätigkeiten und erleichtert die tägliche Arbeit.“

Wie die Schritte auf diesem Weg im Einzelnen aussehen – die Roadshow bietet den Teilnehmern hierfür wichtige Anhaltspunkte.

Fakten zur Roadshow

Die Agenda und die Anmeldung zur Roadshow finden Sie hier.

Termine & Locations

04.03. Berlin

05.03. Leipzig

10.03. München

11.03. Stuttgart

12.03. Nürnberg

18.03. Zürich

19.03. Wien

20.03. Frankfurt a.M.

24.03. Münster

25.03. Bonn

27.03. Hamburg

Über die SER-Gruppe

SER ist der größte europäische Software-Anbieter für Enterprise Content Management (ECM). Mehr als fünf Millionen Anwender arbeiten täglich mit der Doxis4 ECM-Plattform von SER. Mit ihren einheitlichen ECM, BPM, Collaboration & Cognitive Services gestalten mittelständische Unternehmen, Konzerne, Verwaltungen und Organisationen digitale Lösungen für ihr intelligentes Informations- und Prozessmanagement. SER blickt auf 35 Jahre Erfahrung zurück und ist weltweit an 22 Standorten mit über 550 Mitarbeitern vertreten.

https://www.sergroup.com/de/

Ihr Kontakt für Rückfragen
Silvia Kunze-Kirschner, AIIM ECMM | PR Manager

SERgroup Holding International GmbH
Mittelweg 110A, Haus 3 | 20149 Hamburg
Tel: +49 (0)40 27891-443 | Fax: +49 40 27891-299

Lizenz:
Dies ist eine Pressemitteilung von SER

Aufmacherbild/ Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

„Digitale Essensmarke“

Jeden Mittag steht man vor der Wahl: geht man essen, holt man sich etwas nebenan, bringt vielleicht sogar etwas von zu Hause mit? givve® erleichtert diese Entscheidung seit Januar 2020 mit der digitalen Essensmarke givve® Lunch. Seit nunmehr zehn Jahren bietet das Unternehmen mit der givve® Card Mitarbeiterbenefits an. Während dieser Zeit ist das Start-up zum erfolgreichen Fintech-Unternehmen herangewachsen. Durch den Zusammenschluss mit der internationalen Groupe Up 2018 konnte givve® seine Expertise zusätzlich auf das Thema Essenszuschuss erweitern und verfügt nun auch über ein verlässliches Netzwerk in diesem Bereich. 

Durch die stetige Weiterentwicklung der Produkte bringt givve® 2020, neben der givve® Card ein weiteres starkes Benefit-Produkt auf den Markt: die digitale Essensmarke givve® Lunch. Mit der App für den Essenszuschuss ist und bleibt das Unternehmen digitaler Vorreiter und digitalisiert erneut ein analoges Produkt. Das vereinfacht für Arbeitgeber und -nehmer die Umsetzung des Essenszuschusses deutlich. Arbeitgeber können mit Hilfe von givve® Lunch Mitarbeitern unkompliziert und im Rahmen der steuerlichen Möglichkeiten durch einen Zuschuss das Mittagessen finanzieren. Dabei können sie gegenüber dem klassischen Papiermodell, sogar noch Steuern sparen.

givve® Lunch

Einfach überall essen gehen, den Rechnungsbeleg vom Mittagessen bequem per App einreichen und im Nachhinein den jeweiligen Betrag als Essenszuschuss vom Arbeitgeber zurückerstattet bekommen – welcher Arbeitnehmer wünscht sich das nicht? givve®s digitale Variante des klassischen Essensgutscheins ist eleganter und praktischer als die klassische Essensmarke aus Papier und bringt zudem viele weitere Vorteile mit, zum Beispiel für die Lohnbuchhaltung. Durch die einfache Anbindung ergibt sich ein deutlich geringerer Verwaltungsaufwand. Mit intelligenter Einzelbelegprüfung hat ein Arbeitgeber außerdem eine 100-prozentige Steuersicherheit, nachdem es im Januar 2019 eine Verschärfung der Richtlinien gegeben hat. 

„givve® Lunch beruht auf dem neuesten Stand der Technik und führt eine intelligente Prüfung jedes einzelnen Belegs durch“, fasst Alexander Klaiber, CTO und Produktexperte bei givve®, die Vorzüge des neuen Produkts zusammen. In Zeiten des Fachkräftemangels ist die digitale Essensmarke ein modernes Benefit-Produkt, das im Bereich des Employer Brandings hervorragend einsetzbar ist.

Insgesamt können Arbeitgeber bis zu 6,50 Euro pro Arbeitstag und Mitarbeiter übernehmen. Diese Gesamtzulage setzt sich aus zwei Beträgen zusammen: 3,40 Euro zu versteuernder Pflichtanteil (Sachbezugswert) und 3,10 Euro steuerfreiem Zuschuss.

Mit givve® Lunch können Arbeitgeber ihre Steuerlast sogar bis auf 0,00 Euro reduzieren. Entscheidend für den erheblichen Steuervorteil ist der tatsächliche Rechnungsbetrag der Mahlzeit eines Mitarbeiters: Sobald ein Mitarbeiter mehr als 6,50 Euro für sein Mittagessen ausgibt, mindert der ausgegebene Betrag, den zu versteuernden Pflichtanteil, wodurch sich die Steuerlast reduziert. Ab einem Belegwert von 9,80 € ist der komplette Essenszuschuss für den Arbeitgeber damit steuerfrei!

Re-Design der Marke givve®

Schlicht und locker, mit frischen prägnanten Farben präsentiert sich givve® nach zehn Jahren in neuem Glanz. Zum Jahresstart präsentiert sich givve® im neuen Design. So werden die Produkte im Rahmen der neuen Corporate Identity farblich voneinander unterschieden: Die Corporate-Farbe bleibt orange. Das Logo der givve® Card ist nun rot, Farbe für die givve® Lunch App ist grün. Damit nähert sich das Fintech seinem Partner, der Groupe Up, auch optisch an. Außerdem ist eine klare Unterscheidung von Produkten und Unternehmens-Design möglich, die dem Verbraucher eine leichtere Übersicht ermöglicht.

Website-Relaunch

Zum neuen Corporate Design gehört auch die neue Website. Schrittweise Benutzungsanleitungen mit interaktiven Elementen vereinfachen die Darstellung und runden den neuen Netzauftritt des Unternehmens für Endnutzer, Firmenkunden, Partner und alle interessierten Besucher ab. Auch hier leuchten die neuen Corporate Farben natürlich. Der Aufbau der Website soll die Produkte und das Unternehmen für Nutzer deutlich übersichtlicher gestalten. givve® vermittelt damit auch im Netz seine Vorteile in Punkto Nutzerfreundlichkeit, Technikexpertise, Digitalthemen und Modernität. Ein Design, passend zum Produkt.

Weitere Informationen: https://www.givve.com/de/lunch

Lizenz:
Dies ist eine Pressemitteilung von givve®

Digitale Autonomie in der Cloud

Dies ist ein Gastbeitrag von Elmar Eperiesi-Beck, Founder & CEO, eperi GmbH 

Autonomie ist ein hohes Gut – und im aktuellen digitalen Zeitalter gilt dies noch viel mehr für digitale Autonomie. In der Diskussion um dieses Thema im Geschäftsalltag steht meistens der Gedanke im Zentrum, dass Unternehmen die Kontrolle über ihre Daten und die ihrer Mitarbeiter sicherstellen müssen. Seit die Europäische Datenschutz Grundverordnung (EU-DSGVO) in Kraft ist, hat dieser Aspekt sogar noch größere Relevanz gewonnen, drohen bei Verstößen doch empfindliche Strafen. Allerdings dreht sich die Diskussion vorwiegend um die Sicherung der eigenen IT-Systeme gegen Angriffe von innen und außen sowie auf die Auswahl eines geeigneten Cloud-Anbieters, der die Einhaltung der EU-DSGVO gewährleisten kann. In diesem Sinne hat sich kürzlich auch Bundeswirtschaftsminister Peter Altmaier in die Debatte eingebracht und eine europäische Cloud-Lösung vorgeschlagen.

Elmar Eperiesi-Beck, Founder & CEO der eperi GmbH zeigt die Chancen auf, die digitale Autonomie für Unternehmen und Behörden darstellt.

Es handelt sich hierbei um durchaus lobenswerte Ansätze. Mir gehen diese Vorschläge allerdings nicht weit genug. Immanuel Kant hat die Aufklärung bekanntlich als „Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit“ definiert. Analog möchte ich digitale Autonomie als „Loslösung von Unternehmen aus ihrer selbstverschuldeten Abhängigkeit“ definieren und sie auffordern, tatsächlich die Kontrolle über ihre Daten zu übernehmen, selbst und insbesondere bei Nutzung der Cloud.

Ich will auf Folgendes hinaus: In der Cloud stellt letztlich ein unbekannter Dritter eine IT-Infrastruktur bereit. Zwar bieten viele Cloud-Anbieter eine Rechenplattform, die aufgrund ihrer Expertise und ihrer Manpower leistungsstärker und sicherer ist als die IT-Infrastrukturen der meisten Unternehmen und Behörden. Die zentrale Frage bleibt aber: Wissen Sie, wie ihre Daten in der Cloud gespeichert und gesichert werden und wer darauf Zugriff hat? Natürlich bieten Cloud-Anbieter oft an, die Daten zu verschlüsseln – aber wer Daten verschlüsselt, muss dafür zunächst Zugriff auf die unverschlüsselten Daten haben.

Der wichtigste Schritt auf dem Weg zur digitalen Autonomie für Unternehmen und Behörden muss deshalb sein, personenbezogene und kritische Daten gar nicht erst aus der Kontrolle des Unternehmens zu lassen. Daten müssen verschlüsselt und pseudonymisiert werden, bevor sie das Unternehmen verlassen. Diese Vorgehensweise bietet gleich mehrere Vorteile. So vermeiden Unternehmen Verstöße gegen Datenschutzbestimmungen und somit hohe Strafen, wenn nur verschlüsselte und pseudonymisierte Daten in der Cloud landen. Zudem können sie die ohnehin hohe Datensicherheit der meisten Cloud-Anbieter weiter steigern: Weil die Daten verschlüsselt sind, können Cyberkriminelle nichts mit ihnen anfangen, selbst wenn es ihnen gelingt, sich unbefugten Zugriff auf diese Daten zu verschaffen. Egal ob sie die Cloud nur als Datenspeicher verwenden oder auch SaaS-Anwendungen nutzen, mit der Verschlüsselung und Pseudonymisierung ihrer Daten können Unternehmen und Behörden die Kontrolle übernehmen, sich aus ihrer selbstverschuldeten Abhängigkeit befreien und digitale Autonomie erlangen.

Weitere Informationen unter:
www.eperi.de

CC BY-SA

Digitale Autonomie in der Cloud is licensed under a Creative Commons Attribution-ShareAlike 4.0 International license. Elmar Eperiesi-Beck, Eperi GmbH

3 aktuelle Trends bei E-Invoicing

Robotic Process Automation, Blockchain und Supply Chain Finance: Die elektronische Rechnung bietet vielfältige Potentiale und drei aktuelle Trends geben der digitalen Variante noch mehr Durchschlagskraft. Wie Künstliche Intelligenz, Blockchain und Supply Chain Finance das papierlose Büro zu einem autarken, smarten und finanzstarken Alleskönner beschleunigen.

1. Roboter als Buchhalter?

Wie wirkt sich die Robotic Process Automation auf den Umgang mit Rechnungen aus?

RPA und Ausgangsrechnungen
Robotic Process Automation (RPA) ist eine Methode zur Automatisierung von Geschäftsprozessen, die auf Machine Learning und Künstlicher Intelligenz basiert. Diese Technologie hält gerade Einzug in den unterschiedlichsten Abteilungen. Obwohl es sich bei RPA um eine neue Technologie handelt, findet sie in Kreditorenabteilungen bereits Anwendung. Gerade im Bereich der elektronischen Rechnungsstellung entfaltet diese Automatisierung großes Potential für hohe Kosteneinsparungen: Zu den Vorteilen von RPA zählen kürzere Rechnungszyklen, vereinfachte Genehmigungsprozesse und die Vermeidung verzögerter Zahlungen.

Da eine E-Rechnung aus strukturierten Daten besteht, gibt es zahlreiche Aufgaben, die ein Roboter bei der Überprüfung und Genehmigung der Rechnung übernehmen kann. Bereits heute können wir die Praxis in anderen Ländern wie Mexiko oder Italien unter die Lupe nehmen, welche einen Roboterverifizierungsprozess umgesetzt und das Freigabemodell in ihre Steuerinfrastruktur aufgenommen haben. Auf diese Weise können die erforderlichen Steuerinformationen automatisch erfasst und die Rechnungen genehmigt werden.

RPA und Eingangsrechnungen
Auch bei Eingangsrechnungen kann die Technologie ihre Potentiale entfalten, etwa bei Verifizierung und Buchung der Rechnung. Wenn beispielsweise eine Bestellnummer nicht in der Rechnung eines Lieferanten enthalten ist, kann der Beleg automatisch abgelehnt und zurückgesandt werden. Mit RPA lässt sich die Kostenstelle automatisch einer bestimmten Rechnung zuordnen. E-Invoicing-Dienstleister bieten dazu Managed Services wie Datenvalidierung, -berechnung und -verifizierung von Stammdaten an, die zur Automatisierung des Prozesses verwendet werden.

2. Mit Blockchain U-Bahn-Tickets abrechnen

Wird Blockchain die elektronische Rechnungsstellung revolutionieren?

Das Interesse an Blockchain ist zuletzt deutlich gestiegen. Die Technologie ist Basis für Kryptowährungen. Inzwischen forschen Unternehmen an möglichen Einsatzszenarien des Blockchain-Prinzips. Auch die Bearbeitung von Rechnungen ist ein mögliches Anwendungsfeld. Für das Zusammenspiel von Blockchain und E-Invoicing existieren bereits nennenswerte Use Cases. Beispielsweise hat der U-Bahn-Anbieter der chinesischen Stadt Shenzhen im vergangenen März sein Blockchain-E-Invoicing-System eingeführt. So können Benutzer am Ende einer Reise automatisch Rechnungen über WeChat empfangen. Das öffentliche Verkehrssystem verarbeitet täglich rund 170.000 Rechnungen, was zu einer Einsparung von 400.000 Chinesischen Yuan (rund 50.000 EUR) pro Jahr führen wird.Neben Kosteneinsparungen wird Blockchain in Verbindung mit der elektronischen Rechnungsstellung auch eine Authentifizierungsfunktion zukommen. Dabei stehen die Rückverfolgbarkeit der Rechnungsquelle und die Echtheit der Rechnungen im Fokus. Dies wird Verbesserungen bei der Betrugsprävention erleichtern und Transparenz in Bezug auf Themen wie Geldwäsche schaffen.

Bevor Unternehmen jedoch das volle Potenzial der Blockchain für Rechnungsstellung ausschöpfen können, muss die Zahl der E-Invoicing-Einführungen auf breiter Front noch stärker zunehmen.

3. Wann die Rechnung bezahlt wird

Wie profitiert Supply Chain Finance von E-Invoicing?

Die Finanzierung der Lieferkette und die elektronische Rechnungsstellung sind seit mehreren Jahren eng miteinander verbunden. Der Haupttreiber dahinter waren sichere Kommunikationsprotokolle sowie die Validierung und Überprüfung elektronischer Rechnungen. Das Clearance-Modell hat sich auch auf die Umsetzung von Supply Chain Finance ausgewirkt. Nach Versand einer Rechnung erfolgt etwa in Mexiko auch eine Bestätigung, dass die Rechnung bezahlt wird und wann dies erfolgen wird. Diese Informationen vereinfachen wiederum andere Prozesse.

So wird es zum Beispiel einfacher, Kredite bei Banken und Factoring-Unternehmen zu beantragen. Den nächsten Schritt bei der Finanzierung der Lieferkette und der elektronischen Rechnungsstellung wird vermutlich die Blockchain darstellen. Wie bereits erwähnt, ist die Blockchain ein wichtiger Faktor für die Rückverfolgbarkeit und Authentizität von Rechnungen. Da es sich um ein offenes und transparentes Netzwerk handelt, können Banken und Factoring-Unternehmen die Informationen zu Transaktionen eines Unternehmens auf einfache Weise überprüfen.

3 Trends für die Zukunft des E-Invoicing?

Roboter-Prozessautomatisierung, Blockchain und Supply Chain Finance sind für die elektronische Rechnungsstellung von großem Interesse. RPA und Supply Chain Finance sind derzeit die stärker etablierten Trends, da sie ausgereifter sind als Blockchain.

Voraussichtlich wird die Möglichkeit einer schnelleren und sichereren Finanzierungsmethode für die Lieferkette größere Auswirkungen auf kleine und mittelständische Unternehmen haben, da sie nicht über einen ähnlich hohen Cashflow verfügen wie große Unternehmen. RPA und Blockchain werden für größere Unternehmen von stärkerer Bedeutung sein. Diese Großunternehmen verfügen über das nötige Budget für Investitionen in solche Technologien. Lösungen lassen sich also nach anfänglichem Aufwand schnell monetarisieren.

Darüber hinaus sind in den nächsten Jahren angesichts der zunehmenden Beliebtheit von Supply Chain Finance und RPA sowohl bei mittelständischen als auch großen Unternehmen weitere Investitionen und Innovation zu erwarten. Bei Blockchain ist eher davon auszugehen, dass in den kommenden fünf bis zehn Jahren ein echter geschäftlicher Mehrwert für Unternehmen realisiert wird.

Weitere Informationen finden Sie auf der Website für die elektronische Rechnungsstellung von Comarch:
https://www.comarch.de/produkte/datenaustauch-und-dokumentenmanagement/e-invoicing/

Über den Autor:
Nick van den Berg
Seit mehr als fünf Jahren ist Nick van der Berg im Bereich E-Invoicing tätig.
Bei Comarch ist er für die Betreuung des Benelux-Marktes verantwortlich.
In seiner Rolle als E-Invoicing-Berater berät er vor allem große Unternehmen bei der Digitalisierung ihrer Rechnungsprozesse.

Lizenz:
Dies ist eine Pressemitteilung von Comarch

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

IT-Fachkräfte sind gefragt

Kai Grunwitz, Managing Director Germany bei NTT gibt Schwachstellen im Recruitingablauf keine Chance. Im Interview erläutert er, welche Wege sein Unternehmen beschreitet, um High-Potentials zu begeistern und an das Unternehmen zu binden.

Herr Grunwitz, welche Herausforderungen sind zu meistern, um IT-Fachkräfte zu finden, zu begeistern und zu binden?

Der IT-Arbeitsmarkt ist heute sehr arbeitnehmerfreundlich, das gilt vor allem für hochqualifizierte Fachkräfte. Wir spüren schon seit Jahren einen beträchtlichen Fachkräftemangel, der sogar noch zunimmt. So hat der Bitkom gerade einen Zuwachs an offenen IT-Stellen in Deutschland um rund die Hälfte gegenüber dem Vorjahr festgestellt. Qualifizierte und erfahrene IT-Experten werden händeringend gesucht und Unternehmen müssen heutzutage schon einiges bieten, um sie zu begeistern und zu binden. Ein attraktives Gehalt ist dabei nur ein Faktor. Unternehmen müssen in Zeiten moderner, digitaler Arbeitswelten zudem ein angenehmes Arbeitsklima, interessante und abwechslungsreiche Projekte, Fortbildungs- und Zertifizierungsmaßnahmen, aber auch agile, zukunftsorientierte Führungsmodelle bieten.

Auf welche Recruiting-Strategien haben Sie bislang gesetzt und setzen Sie weiterhin?

Unsere Recruiting-Strategie ruht auf mehreren Säulen. Erstens setzen wir auf persönliche Empfehlungen durch unsere eigenen Mitarbeiter. Dafür loben wir Prämien aus, die nach erfolgreich abgeschlossener Probezeit ausgezahlt werden. Damit haben wir bislang sehr gute Erfahrungen gemacht. Unsere Mitarbeiter beteiligen sich gerne an der Suche nach neuen Kandidaten für offene Stellen.
Zweitens setzen wir eigene interne Recruiter ein, die auf dem Markt gezielt nach geeigneten Kandidaten suchen. Drittens spielen die sozialen Medien eine immer wichtigere Rolle. Und viertens pflegen wir eine vertrauensvolle Zusammenarbeit mit einigen wenigen ausgewählten Personalagenturen, die unser Unternehmen und den relevanten Markt sehr gut kennen. Gerade in besonders innovativen Bereichen wie zum Beispiel Cybersecurity setzen wir auf dynamische Hiring Events mit besonders schnellen Entscheidungsprozessen sowohl auf Bewerber- als auch Unternehmensseite.

„Dynamik und Geschwindigkeit schon während der Bewerbungsphase – das verstehen wir als einen elementaren Differenzierungsfaktor.“

Kai Grunwitz

Was gab für Sie den Anstoß, diese Hiring-Aktionen ins Leben zu rufen?

Wir wollten neben den bisherigen Methoden auch neue Wege beim Recruiting beschreiten. Deshalb haben wir beschlossen, Bewerber zu so genannten Recruiting Days während unserer Konferenzen einzuladen. Wir können so vor Ort Bewerbungsgespräche führen und den Bewerbern einen umfassenden Eindruck von der Arbeit bei unserem Unternehmen vermitteln ­­­– und ihnen die Möglichkeit zu geben, sich ausgiebig zu informieren und mit zukünftigen Kollegen auszutauschen. Die Bewerber können an einem Tag Interviews führen, Feedback bekommen und im Idealfall noch am selben Tag eine Jobzusage erhalten. Ganz im Sinne einer „One Stop Hiring Experience“.

Wie läuft so etwas konkret ab?

Wir laden sowohl Kandidaten mit denen wir bereits in Kontakt standen als auch Bewerber ein, die sich auf Jobportalen, in sozialen Netzwerken, an Universitäten oder auf unserer Website für unsere Recruitings Days registrieren. Die Kandidaten werden dann individuell begrüßt und mit den spezifischen Fachverantwortlichen zusammengebracht. Anschließend können sie eigenständig Gespräche mit Mitarbeitern führen, um die Kultur des Unternehmens aus erster Hand zu erleben.

Den Abschluss bildet dann ein Gespräch mit unseren HR-Experten und dem verantwortlichen Manager. Dieser Ansatz trifft den Zeitgeist der digitalen Gesellschaft, in der langatmige Bewerbungszyklen für junge Talente eher abschreckend wirken. Dynamik und Geschwindigkeit schon während der Bewerbungsphase – das verstehen wir als einen elementaren Differenzierungsfaktor.

Sind beim Recruiting auch die Themen DSGVO und Security zu beachten?

Die DSGVO und der Schutz persönlicher Daten spielen selbstverständlich auch beim Recruiting eine wichtige Rolle. Das gilt sowohl für die Speicherung und Bearbeitung von Bewerberdaten, wenn das Einverständnis der Bewerber dazu vorliegt, als auch das Löschen dieser Daten, wenn sie nicht mehr benötigt werden. Die Security steht vor allem bei Portalen für Onlinebewerbungen im Fokus.

Und welche Rolle spielt E-Recruiting?

E-Recruiting spielt mittlerweile eine wichtige Rolle. Einerseits sucht unser Recruiting-Team aktiv auf sozialen Medien nach geeigneten Kandidaten. Andererseits arbeiten wir auch mit Karrierenetzwerken wie beispielsweise e-fellows zusammen.

Persönlicher und individueller kann es kaum werden – dennoch: KI-Technologien halten zunehmend Einzug in den HR-Abteilungen. Wie denken Sie über den Einsatz von Chatbots und Algorithmen im Rahmen des Personalgewinnungsprozesses?

Hier habe ich eine sehr differenzierte Sicht. Ich bin ein großer Befürworter von Automation und Künstlicher Intelligenz. Aber gerade im Recruiting muss eine KI besonders sorgfältig auf unternehmensspezifische Anforderungen hintrainiert werden. Dazu gilt es, genügend qualitative Daten zur Verfügung zu stellen, um die gewünschte Qualität zu erzielen und zu vermeiden, dass menschliche Fehler oder Vorurteile durch die Maschine dupliziert werden.

KI-Technologien und Chatbots werden künftig einen immer wichtigeren Beitrag im Recruiting Prozess leisten, beispielsweise beim so genannten Match Making. Die menschliche Komponente können sie aber nicht komplett ersetzen. Die Lernkurve geht bei Algorithmen, Chatbots, Natural Language Processing und anderen Technologien steil nach oben. Daher bin ich grundsätzlich für einen offenen Umgang mit neuen Technologien, aber jeder Nutzer sollte sich der konkreten Möglichkeiten und Limitationen bewusst sein.

Welchen Stellenwert nimmt der Faktor Gehalt ein?

Es wäre idealistisch zu sagen, dass Gehalt heute eine untergeordnete Rolle spielen würde. Das ist nicht so. Das Gehalt ist noch immer ein ausschlaggebender Faktor bei der Entscheidung von IT-Fachkräften für einen Arbeitgeber. Bei der jungen Generation bekommen aber auch andere Faktoren eine immer größere Bedeutung; zum Beispiel das Image eines Unternehmens, die Zeitgestaltung, persönliche Freiräume oder soziales Engagement. Wir beobachten zudem, dass soziale Netze wichtiger werden. IT-Experten arbeiten oftmals gerne in Unternehmen, in denen bereits frühere Kollegen tätig sind.

Stichwort „New Work“: Was können „Freidenker“ bei Ihnen erwarten?

Die heutige Arbeitswelt erfordert neben einem modernen Führungsstil auch Freiräume. Ein Beispiel: Bei NTT gilt das Prinzip der Vertrauensarbeitszeit. Unsere Mitarbeiter sind geografisch stark verteilt und IT-Spezialisten verbringen ohnehin sehr viel Zeit bei Kunden vor Ort oder auf Reisen. Arbeiten im Home Office für die richtige Life-Work-Balance bildet deshalb einen wichtigen Bestandteil unserer Kultur.

Wir haben als Unternehmen stets ein Auge darauf, dass alle Mitarbeiter das richtige Maß für sich und ihre Familien finden. Ein Unternehmen lebt von den Ideen und der Kreativität der Mitarbeiter, darum freuen wir uns immer über aktives Innovationsdenken über alle Hierarchieebenen hinweg. Zum Wohl des Unternehmens und damit am Ende auch unserer Kunden.

Ihre Teams arbeiten international und sind sicherlich äußerst heterogen. Welche Herausforderung sind im Management zu meistern?

Als international tätiges Unternehmen hat NTT in der Tat sehr heterogene Teams, die über den ganzen Globus verteilt sind. Zusätzlich gibt es noch Landesorganisationen, die für das Geschäft in einem bestimmten Land verantwortlich sind. Remote-Management, regelmäßigen Kontakt mit verteilten Teams halten und Präsenz zeigen – das sind definitiv Herausforderungen. Sie lassen sich nur durch eine kontinuierliche und auch informelle Kommunikation meistern, etwa mit Hilfe von Videokonferenzen und -meetings, Videobotschaften und weiteren modernen Kommunikationsplattformen.

Es gilt, immer die Verhältnismäßigkeit zu wahren, da teure und umweltbelastende Flugreisen mit Sicherheit nicht für jedes Treffen die richtige Wahl sind. Die Möglichkeiten und Chancen eines derart internationalen und innovativen Umfelds wie bei NTT überwiegen am Ende aber die Herausforderungen deutlich.

Herr Grunwitz, vielen Dank für das Gespräch!

hello.global.ntt    

Aufmacherbild / Quelle / Lizenz
Bild von Krzysztof Kamil auf Pixabay

Offene Standards für das Internet of Things

Open Source spielt auch im IoT eine wichtige Rolle.

 

von Dr. Stefan Ried

Open Source ist aus der Software-Landschaft im Internet und in Unternehmen nicht mehr wegzudenken. So ist es nicht verwunderlich, dass auch im Internet der Dinge (IoT) Open Source eine wichtige Rolle spielt. Wir möchten mit diesem Analyst-View einen ersten Einblick in die IoT-Open-Source-Landschaft geben. Weitere Analyst-Views werden andere Stacks oder die Open-Source-Aktivitäten bestimmter Hersteller beleuchten und grundsätzliche Hilfe bei Plattform-Entscheidungen geben.

Schon recht lange am Markt ist der IoT-Stack von Eclipse. Wir gehen die Komponenten einmal von unten nach oben, also von den kleineren „Constrained“ Controllern bis hoch in die Cloud, durch:

Der Constraint-Device-Stack setzt auf einem sehr einfachen kleinen Betriebssytem oder direkt als Firmware auf. Wir reden hier über kleine Controller mit 1 Megabyte RAM, ohne Filesystem oder gar einen ganzen Linux-Kern.

Dieser Beitrag stammt aus dem „Handbuch IoT“. Lesen Sie hier weiter…

Der Forex-Markt im Wandel der Zeit

Dies ist ein Gastbeitrag von Jon Light, Vice President of Trading Solutions bei Devexperts

Seit ihrer Entstehung vor 20 Jahren hat die Online-Trading-Branche eine beachtliche Entwicklung durchgemacht. Die zunehmende Intelligenz der Finanztechnologien zwingt Broker und Technologieanbieter dazu, ihre Strategien anzupassen, um Schritt halten zu können. Auch der Devisenmarkt hat einen weiten Weg hinter sich und unterliegt den gleichen Trends, die in der Technologie allgemein zu beobachten sind.

Was bisher geschah

Der Forex-Markt (FX) ist der größte der Welt: über fünf Billionen USD werden täglich gehandelt. Die Trades werden nicht über eine Börse, sondern in der Regel direkt (OTC = over the counter) zwischen zwei Handelspartnern abgewickelt. Das heißt, es gibt keine Möglichkeit, das gesamte Marktvolumen in Erfahrung zu bringen. Der Markt ist heutzutage für jeden zugänglich, und es gibt verschiedene Arten des Trading.

Früher wurde der Handel noch zum großen Teil über das Telefon getätigt und manuell aufgeschrieben. Diese Methode war fehleranfällig. Nur große Institutionen konnten an FX-Trading teilnehmen. Mit der Zeit wurden Trading-Plattformen entwickelt, mit denen der Handel und Nachhandel elektronisch abgewickelt werden konnten. Diese Umstellung hat das Trading vereinfacht und verbilligt – das Durchschnittsvolumen pro Trade ist gesunken, die Zahl der Trades ist hingegen gestiegen. Das heißt, die Plattformen müssen heute eine sehr viel größere Anzahl an Trades und Teilnehmern verarbeiten.

Auf einem OTC-Markt ist die Ausführungsgeschwindigkeit sehr wichtig, die Teilnehmer arbeiten mit Mikro- statt mit Millisekunden. Viele Firmen müssen sich dieser Entwicklung anpassen. Doch einige Pioniere des elektronischen Trading hinken mittlerweile hinter den neuen Playern der Branche her.
Außerdem hat sich die Art und Weise, wie gehandelt wird, in den letzten 20 Jahren sehr verändert. Die ersten FX-Trading-Anwendungen waren dedizierte Rechner oder installierte Anwendungen – jetzt sind die Händler viel mobiler, und die Nachfrage nach mobilen Apps und Web-Anwendungen ist stark gestiegen. Auch der algorithmische Handel hat stark zugenommen: Was sich anfangs nur die größten Banken leisten konnten, kann heute jeder mit seiner eigenen Strategie machen. Verändert hat sich auch, dass die Trading-Plattformen jetzt zusätzliche Assets anbieten müssen. Neben Devisen gehören auch Aktien, Kryptowährungen und anderen Assetklassen dazu.

Was die Zukunft bereithält

Die letzten 20 Jahre haben gezeigt, dass sich der Markt massiv verändern kann. Technische Innovationen spielen hier nur eine untergeordnete Rolle. Der Markt ist heute für jeden zugänglich. Um wettbewerbsfähig zu bleiben, müssen sich die Broker etwas einfallen lassen, sonst haben sie nichts, das sie von ihren Konkurrenten unterscheidet.

Außerdem fordern die Kunden inzwischen eine Mindestmenge an Funktionalitäten, wie Mobile-Trading-Apps, Rund-um-die-Uhr-Support, Charts mit Zeichnungen und Indikatoren, One-Click-Trading, Anzeige der aktuellen Risikopositionen und vieles mehr. Künftig werden die Broker ihre Plattformen weiter anpassen müssen, um mehr Assetklassen zu unterstützen. Das Durchschnittsvolumen eines Trades wird sinken, auch wenn die Kosten für den Broker gleich bleiben. Schließlich hat jeder ein Smartphone; eine einfache Internetverbindung reicht aus, um auf dem Markt zu handeln. Ursprünglich war mobiles Trading nur ein zusätzliches Feature traditioneller Plattformen, doch jetzt ist es für viele Nutzer die primär genutzte Oberfläche für das Trading. Deshalb werden die Komplexität und die Zahl der Trade-Arten in diesem Bereich zunehmen. Auch Trading- und Positionsüberwachungssysteme für Wearable-Technologien wie Smartwatches werden nachgefragt – genauso wie Chatbots, die sich mit Messenger-Plattformen, Alexa von Amazon oder Google Assistant verbinden können. Die Nutzer möchten überall mit ihren Märkten kommunizieren, egal wo sie sind. Deshalb wird sich die Entwicklung auch hin zum mobilen Trading im Auto und unterwegs bewegen.

Im institutionellen Bereich wird künftig ein wichtiger Fokus auf der Kostenreduktion liegen. Wie bereits erwähnt, wird das Volumen der einzelnen Trade-Tickets sinken, die Ausführungskosten aber nicht. Aus diesem Grund werden größere Unternehmen versuchen, ihre technische Anbindung und die Nachhandelsabwicklung zu vereinfachen, um die Kosten zu senken. Dieser Ablauf wird zukünftig entweder auf einem dezentralen System, wie einer Blockchain abgebildet, oder von einem zentralen, zuverlässigen Anbieter übernommen, mit dem die Kosten geteilt werden können. Aktuell ist Blockchain noch nicht in der Lage, die erforderliche Menge an Transaktionen zu verarbeiten. Das größere Problem ist aber, dass bei den – nur langsam agierenden – Großfirmen keine Einigkeit über diese Technologie herrscht. Und wenn man bedenkt, wie reguliert der Markt heutzutage ist, sind massive Veränderungen in diese Richtung eher unwahrscheinlich. Aber die Unternehmen arbeiten darauf hin – und es ist wirklich spannend, diese Entwicklung mitzuverfolgen.

Über den Autor

Jon Light ist ein erfahrener Senior Produktmanager mit fundiertem Know-how auf dem Gebiet Foreign Exchange. Er arbeitet mit Brokern, Banken, Handelsplätzen und Buy-Side-Unternehmen zusammen, um Branchenplattenformen und Kundenlösungen bereitzustellen. Jon Light hat die Position des Vice President of Trading Solutions bei Devexperts inne. Er verantwortet das Produktmanagement und profitiert dabei von seiner Kenntnis des FX-Marktes. Jon Light ist die Schnittstelle zwischen den technischen und den Business-Teams im Bereich Kapitalmarkthandel und Ausführungssysteme, deren Palette von Nutzeroberflächen bis hin zu komplexen Backend-Execution-Engines reicht.

Weitere Informationen unter:
https://devexperts.com/

KI in der Produktion

Grundsätzlich kann jede Maschine in irgendeiner Weise mit einer Form künstlicher Intelligenz bestückt werden, weswegen es gerade in den Maschinenparks der Produktionsstätten unzählige Möglichkeiten gibt. Der folgende Überblick an Beispielen bildet daher nur besonders für die Produktion spezifische oder relevante Möglichkeiten ab.