Quo vadis, Workspace-Management?

Gastbeitrag

AI, Sicherheit und Compliance im Fokus

 

Der digitale Arbeitsplatz der Zukunft wird sich viel schneller und häufiger wandeln als heute: Er muss sich spontan und intelligent dem Umfeld und der Zielsetzung des Anwenders anpassen, während er immer neue Angriffe abwehrt. Dabei ist stets die Compliance zu wahren – sowohl die Privatsphäre des Anwenders als auch die Lizenzierung. Oliver Bendig, CEO des Workspace- und Service-Management-Anbieters Matrix42, erläutert in diesem Beitrag, dass dies für IT-Abteilungen bedeutet.

 

US-Militärs würden das moderne digitale Arbeitsleben als „VUCA“-Welt bezeichnen: als Umfeld, das geprägt ist von Unbeständigkeit, Unsicherheit, Komplexität und Uneindeutigkeit (VUCA: Volatility, Uncertainty, Complexity, Ambiguity). IT-Leiter müssen mit einer immer komplexeren Lage fertigwerden, und dies mit stetig höherer Schlagzahl und trotz immer neuer Sicherheitsrisiken – aber mit konstanter Personaldecke.

 

Das zentrale Spannungsfeld: Die Endanwender fordern einen digitalen Arbeitsplatz, der personalisiert und nach Consumer-Manier bequem benutzbar ist; zugleich pochen Security-Verantwortliche und Datenschutzbeauftragte auf Sicherheit und Schutz der Privatsphäre nach dem Stand der Technik.

 

So rücken drei Aspekte für IT-Leiter in den Fokus: intelligente Automation, Sicherheit auf Geräte-, App und Datenebene sowie Compliance mit Lizenzbestimmungen und immer strengeren Regularien, etwa der DSGVO. Es wird mittelfristig nicht helfen, diese drei Punkte mit immer mehr Tools abzudecken. Vielmehr muss man sie zu einem schlüssigen Gesamtkonzept zusammenführen. Sonst wird die IT zwischen diese Aufgaben zerrieben.

 

Arbeitsplatz wird smarter

Der digitale Arbeitsplatz wird sich bald – eine gute Nachricht für das Client-Management-Team – automatisiert an die Anforderungen des Endanwenders anpassen: Künstliche Intelligenz (Artificial Intelligence, AI) wandert verstärkt in Endgeräte und den Digital Workspace hinein, erlernt das Verhalten des Benutzers und erleichtert ihm so den Arbeitsalltag.

Das äußert sich dann z. B. wie folgt: Schaltet der Benutzer das Endgerät ein, erkennt es ihn automatisch anhand biometrischer Merkmale – sei es am Fingerabdruck, Gesicht, an den Augen oder der Stimme. Dank Zugriff auf Terminkalender und Projektmanagement-Tool weiß der digitale Arbeitsplatz, welche Apps der Anwender nun voraussichtlich benötigt. So kann er ihm benötigte Unterlagen ebenso proaktiv vorschlagen wie etwa die App für das Web-Conferencing: „In einer Minute beginnt Ihre Team-Konferenz. Wollen Sie sich einloggen?“ Im Meeting sind dann die gemeinsam genutzten Ordner, Termine und Tools in direkter Reichweite.

Der Anwender wird seinen digitalen Arbeitsplatz von Gerät zu Gerät mitnehmen können, „Follow-me Workplace“ genannt. Dies kann per Automatismus erfolgen: Sobald der User den Schreibtisch verlässt, also die Bluetooth-Verbindung zwischen PC und Mobilgeräten verliert, wandern geöffnete Dateien per WLAN automatisch auf sein Tablet. Zudem wird der User Dateien gestengesteuert zwischen Endgeräten verschieben können: Per Wischgeste übernimmt er die Kundenpräsentation auf sein Tablet.

 

UEM im Wandel

Vieles im modernen Arbeitsumfeld wird sprachgesteuert ablaufen: „Alexa, hol den Kollegen Hans Maier vom Vertrieb mit ins Meeting!“ Auch das Anlegen von Trouble-Tickets wird sich auf virtuelle Assistenten verlagern: „Siri, bestelle neuen Toner für den Drucker im Konferenzraum!“ Welchen Toner und Drucker der User genau meint, erkennt das AI-gestützte Workspace-Management per Zugriff auf die Asset-Datenbank und den Raumplan des Facility-Managements sowie anhand von Geolokationsdaten des Smartphones.

Für das IT-Team bedeutet das: Viele Aufgaben von der Inventarisierung über das Configuration-Management bis hin zum Patching erfolgen künftig selbsttätig. Alexa, Siri und Co. werden als „virtueller First-Level Support“ einen Großteil der Routine-Tickets am Helpdesk abfangen. Das Client- und das Workspace-Management werden sich statt auf Geräte und Apps immer stärker auf die individuellen Anforderungen der Endanwender konzentrieren können – und müssen: Dank Self-Service, AI und flexibel anpassbarer Workflows wandelt sich das UEM vom Unified Endpoint Management zum „User Experience Management“.

 

Sicherheit per Biometrie und AI

Aus Sicht des Endanwenders hat diese AI-gestützte Effizienz oberste Priorität, aus Sicht des IT-Teams hingegen zählen Sicherheit und Compliance. Das leidige Thema Authentifizierung lässt sich, wie erwähnt, dank Biometrie deutlich besser absichern als durch Passwortrichtlinien, die einen Teil der Anwender nur zu lustlos gewählten Passphrasen und Post-it-Zetteln animinieren.

Biometrie schützt aber nicht vor Hacking-Angriffen mittels Phishing und Malware. Erforderlich sind hier deshalb Geräte- und Datenverschlüsselung ebenso wie ein automatisiertes Patch-Management und Endpoint-Security-Lösungen, um Endgeräte, Applikationen und Nutzerkonten zu schützen und ein Abfließen interner Daten zu verhindern.

Zu diesen Tools zählen Next-Generation-Antivirenlösungen ebenso wie die Machine-Learning-gestützte Echtzeitanalyse des Geräte- und Nutzerverhaltens sowie Prozesse und Werkzeuge für den schnellen, effektiven Umgang mit aufgespürten Infektionen und Eindringlingen („Post-Infection Protection“). Das bedeutet: Workspace-, Service- und Security-Management müssen möglichst stark zusammenwachsen. Ziel muss es sein, eine abwehrfähige und resiliente – also sich selbst schnell wieder stabilisierende – Workspace-Umgebung zu schaffen.

 

Licence Compliance und Datenschutz

Sicherheit bedeutet auch Rechtssicherheit: Die IT-Organisation muss stets den aktuellen Überblick über genutzte Lizenzen haben – trotz der Volatilität in der Softwarenutzung, die modernes Arbeiten mit sich bringt. Hier braucht die IT ein intelligentes Lizenzmanagement, das frühzeitig ankündigt, wenn die Lizenzierung in den „roten Bereich“ zu laufen droht.

Ebenfalls kritisch aus rechtlicher Sicht: die erwähnte ML-gestützte Echtzeitanalyse des Nutzerverhaltens, wie sie insbesondere US-Anbieter gerne propagieren. Hier werden deutsche Datenschutzbeauftragte zurecht hellhörig. Denn solche Verhaltensdaten werden zwar anonymisiert oder pseudonymisiert erhoben; letztlich aber ist es immer Sinn und Zweck derartiger Lösungen, einen Angriff oder ein auffälliges Verhalten auf einen bestimmten Client und somit Endanwender zurückführen zu können.

Für die IT-Organisation ist dies ein Dilemma: Technisch möglich ist die Echtzeitüberwachung bereits, doch berechtigte Privatsphäre-Interessen stehen ihr entgegen. Hier werden künftig nur zwei Mittel helfen, nämlich Transparenz und die von der DSGVO geforderte „Privacy by Design“ (produktimmanente Privatheit): Für den Anwender muss stets ersichtlich sein, welche Daten der Arbeitgeber über sein Nutzerverhalten sammelt. Zugleich wird die IT dem User – sei es via Betriebsrat oder direkt – das Zepter der Datenkontrolle übergeben müssen.

Das bedeutet konkret: Der Anwender kann sich per Betriebsvereinbarung oder per Mausklick bei Bestellung eines Workspace-Services im Service-Katalog für ein per SLA garantiertes Security-Level entscheiden. Er hat dann die Wahl: Entweder wird sein Umgang mit dem digitalen Workspace zu Security-Zwecken getrackt, und er erhält damit den bestmöglichen Service; oder aber er wählt aus Datenschutzgründen die Opt-out-Variante. Dies bedingt dann, dass er auf bestimmte Daten mit dem Firmen-PC und nur auf dem Firmengelände zugreifen kann, dass ein Arbeiten im Home Office ausgeschlossen ist, statt bequemer Apps der Umweg über ein VPN nötig ist oder USB-Ports am PC gesperrt sind. Vor diese Wahl gestellt, dürfte sich das Gros der Endanwender freiwillig für die bequemere – aber zugleich sichere – Variante entscheiden.

 

Neue Kompetenzen aufbauen

Dank Automation, AI, virtueller Assistenten und Self-Service werden viele Routineaufgaben des klassischen Endpoint- und Workspace-Managements schon in naher Zukunft wegfallen. Die primäre Aufgabe der IT-Organisation wird es künftig nicht mehr sein, den Betrieb am Laufen zu halten, sondern die IT gemäß den Unternehmenszielen weiterzuentwickeln. IT-Leiter sollten deshalb in modernes Workspace-, Service- und Security-Management ebenso investieren wie in AI-Technologien; zugleich aber sollten sie die Kompetenzen ihrer IT-Teams im Hinblick auf die anspruchsvolleren Aufgaben ausbauen, die jenseits der Automation auf sie warten.

 

Weitere Artikel finden Sie unter:
matrix42 / Blog

 

Autor: Oliver Bendig, CEO, Matrix42

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Zertifizierungsguide DSGVO

Quick Guide

 

Welche Datenschutzmanagement-Systemansätze können helfen, um die Erfüllung der Pflichten des Verantwortlichen im Kontext der DSGVO/ GDPR §24 und § 32 nachzuweisen?

Eine gute Basis bilden ISO 9001, ISO / IEC 27001 oder BS 10012:2017
in Verbindung mit einem Managementsystem gemäß Annex SL.

Warum? Standards helfen, die Anforderungen im Kontext der DSGVO/ GDPR im eigenen Unternehmen umzusetzen.

 

ISO 9001

Die Norm der International Organization of Standardization (ISO) steht für einen stetigen Verbesserungsprozess in Unternehmen. Organisationen sollten die aktuelle Revision der Norm von 2015 als Chance nutzen, um ihr Qualitätsmanagement (QM)-System weiterzuentwickeln sowie bestehende Strukturen und Prozesse zu hinterfragen. So kann die ISO 9001:2015 der Wegbereiter zu einem praxisnahen und nachhaltigen sowie modernen Managementsystem sein.

Hintergrund: Die EN ISO 9000 definiert Grundlagen und Begriffe zu Qualitätsmanagementsystemen. Erläutert werden die Grundlagen für Qualitätsmanagementsysteme und die in der Normen-reihe EN ISO 9000 ff. verwendeten Begriffe. 

Die aktuelle EN ISO 9001 wurde letztmals im Jahr 2015 überarbeitet (EN ISO 9001:2015-09).

„Sieben Grundsätze des Qualitätsmanagements“
1. Kundenorientierung
2. Verantwortlichkeit der Führung
3. Einbeziehung der beteiligten Personen
4. Prozessorientierter Ansatz und Systemorientierter Managementansatz
5. Kontinuierliche Verbesserung
6. Sachbezogener Entscheidungsfindungsansatz
7. Lieferantenbeziehungen zum gegenseitigen Nutzen

 

Qualitätsmanagement nach ISO 9001 hat die beständige Erfüllung von Kundenanforderungen und die Erhöhung von Kundenzufriedenheit im Fokus. In der ISO 9001:2015 kommt unter Punkt 8.5.3. „Eigentum der Kunden oder der externer Anbieter“ unter ANMERKUNG explizit der Begriff „personenbezogene Daten“ vor.

 
Die EU-DSGVO weist viele Parallelen zu Vorgehensweisen und Strukturen der Qualitätsmanagementnorm DIN EN ISO 9001 auf. Wer bereits über ein bestehendes QM-System verfügt, hat es leichter, den neuen Forderungen nachzukommen.

 

ISO / IEC 27001

Die internationale Norm ISO/IEC 27001 Information technology – Security techniques – Information security management systems – Requirements spezifiziert die Anforderungen für Einrichtung, Umsetzung, Aufrechterhaltung und fortlaufende Verbesserung eines dokumentierten Informationssicherheits-Managementsystems unter Berücksichtigung des Kontexts einer Organisation. Darüber hinaus beinhaltet die Norm Anforderungen für die Beurteilung und Behandlung von Informationssicherheitsrisiken entsprechend den individuellen Bedürfnissen der Organisation.

Hierbei werden sämtliche Arten von Organisationen (z. B. Handelsunternehmen, staatliche Organisationen, Non-Profitorganisationen) berücksichtigt. Die Norm wurde auch als DIN-Norm veröffentlicht und ist Teil der ISO/IEC 2700x-Familie.

 

Die ISO/IEC 27001 soll für verschiedene Bereiche anwendbar sein, insbesondere:

  • Zur Formulierung von Anforderungen und Zielsetzungen zur Informationssicherheit
  • Zum kosteneffizienten Management von Sicherheitsrisiken
  • Zur Sicherstellung der Konformität mit Gesetzen und Regulatorien
  • Als Prozessrahmen für die Implementierung und das Management von Maßnahmen zur Sicherstellung von spezifischen Zielen zur Informationssicherheit
  • Zur Definition von neuen Informationssicherheits-Managementprozessen
  • Zur Identifikation und Definition von bestehenden Informationssicherheits-Managementprozessen
  • Zur Definition von Informationssicherheits-Managementtätigkeiten
  • Zum Gebrauch durch interne und externe Auditoren zur Feststellung des Umsetzungsgrades von Richtlinien und Standards

Unternehmen die bereits über ein ISMS nach der internationalen Norm ISO/IEC 27001 verfügen, weiter machen!

 

BS 10012:2017

Jedes Unternehmen, das personenbezogene Daten verarbeitet, sollte sicherstellen, dass es die Privatsphäre der Menschen schützt, die betroffen sind. Der British Standard BS 10012:2017 umfasst Bereiche wie die Schulung der Mitarbeiter zu mehr Sicherheitsbewusstsein, Risikobewertungen, Vorratsdatenspeicherung und Datenvernichtung. Der Standard hilft Ihnen Richtlinien und Prozesse zu installieren, um personenbezogene Daten effizient zu verwalten.  

BS 10012:2017 bietet Ihnen den Rahmen für ein Datenschutz-Managementsystem, welches Ihnen unter anderem dabei hilft, die datenschutzrechtlichen Bestimmungen zu erfüllen.

 

Hintergrund:

Die British Standards Institution (BSI) ist eine Normungsorganisation. Der internationale Marktführer für Normen, Schulungen und Zertifizierungen, BSI Group, unterstützt bei allen Prozessen rund um die Normung – von der Normentwicklung und Zertifizierung von Abläufen oder Medizinprodukten über die Einführung von Softwarelösungen etwa für das Qualitätsmanagement oder Supply Chain Management bis zum Training und der Auditierung.

Die Organisation wurde im Jahre 1901 unter dem Namen Engineering Standards Committee unter der Leitung von James Mansergh gegründet. Ihre ursprüngliche Aufgabe war, die Normierung von Stahlsektionen, in erster Linie um die britische Industrie effizienter und konkurrenzfähiger zu machen. Mittlerweile existieren auch Verfahrens- und Sicherheitsnormen.

Als weltweit erste Normungsorganisation und Gründungsmitglied der ISO, hat BSI bis heute über 50.000 Normen entwickelt. Als globaler Spezialist für Branchenstandards hat BSI über 80.000 Unternehmen auf ihrem Weg zur Prozesseffizienz und Nachhaltigkeit begleitet,

Weiterführende Informationen finden Sie unter:

BSI Group / BS 10012:2017

 

 

ANNEX SL – Was ist das überhaupt?

Der Annex SL der ISO (International Organization for Standardization ) ist ein Leitfaden für die Entwickler von Managementsystemstandards und bildet die Basis für die neue ISO 9001:2015 und ISO 14001:2015.

Er stellt sicher, dass bei der Entwicklung von Managementsystemnormen eine gemeinsame übergeordnete Struktur und einheitliche Anforderungen angewendet werden. Für Unternehmen bedeutet dies, dass sie ihre Systeme künftig einfacher integrieren und entsprechend ihrer eigenen Strukturen weiterentwickeln können.

 

 

 

Aufmacherbild /Quelle / Lizenz
Pixabay / CC0 Creative Commons

 

 

Quellen:
https://de.wikipedia.org/wiki/Qualit%C3%A4tsmanagementnorm

https://de.wikipedia.org/wiki/ISO/IEC_27001

https://www.qz-online.de/news/uebersicht/nachrichten/annex-sl-leitfaden-fuer-die-entwicklung-und-ueberarbeitung-von-iso-standards-703805.html

Die Zukunfts des Service-Managements

Gastbeitrag

Digitalisierung macht ITSM strategisch 

 

Die vieldiskutierte „digitale Transformation“ bedeutet vor allem, dass Geschäftsprozesse hochgradig, im Idealfall vollständig IT-gestützt ablaufen. Der reibungslose IT-Betrieb wird somit geschäftskritisch – selbst in Bereichen, in denen er es nicht längst schon ist. Dadurch kommt auch den (IT-)Service-Prozessen ein deutlich höherer Stellenwert zu: Service-Management wird zum strategischen Erfolgsfaktor. Doch wie wird sich das äußern?

 

Das IT-Service-Management (ITSM) muss störungsfrei funktionieren, daran führt kein Weg vorbei. Denn es umfasst immer stärker das gesamte Unternehmen – nicht umsonst spricht man hier nicht mehr nur von ITSM, sondern von Business-Service-Management (BSM) oder Enterprise-Service-Management (ESM). Der Schritt zum ESM erfordert Automation, den Einsatz künstlicher Intelligenz – und vor allem ein vorausschauendes Prozessdesign.

Dazu muss man sich zunächst das enorme Potenzial von ESM vor Augen führen. Die folgenden vier Thesen sollen veranschaulichen, wie die digital transformierten Unternehmensprozesse aussehen könnten – und was dies für das Service-Management bedeutet.

 

  1. Das Unternehmen wird aus Endanwendersicht zur App.
    Ein durchschnittliches mittelständisches Unternehmen hat heute hunderte Applikationen im Einsatz, manche sogar über 1.000. Neue Mitarbeiter benötigen so Tage oder gar Wochen, bis sie ihren digitalen Workspace eingerichtet haben und ihrer Tätigkeit ungehindert nachgehen können.

 

Hier schaltet modernes Service-Management den Effizienz-Turbo hinzu: Ein neuer Kollege bekommt künftig einfach eine Message auf seinem Mobilgerät. Der dort enthaltene Link führt ihn zu einer App; nach deren Installation sieht er einen Servicekatalog mit allen Applikationen und Services, die die IT für ihn freigegeben hat: Einige sind je nach Rolle automatisch vorgegeben, andere kann er nach Belieben wählen. So ist er noch am ersten Tag voll arbeitsfähig. Verlässt er eines Tages das Unternehmen, löscht die IT einfach seine Zugriffsrechte für die Unternehmens-App. Das sorgt für Datensicherheit – auch im Sinne der DSGVO.

 

  1. Künstliche Intelligenz wird den Service-Desk nicht ersetzen.
    Um eine Störung zu melden, muss der Endanwender bald nicht mehr beim Helpdesk anrufen oder ein Trouble Ticket schreiben. Die einen werden es bevorzugen, dem in ihre App integrierten Chatbot die aktuelle Störung zu schildern, um einen Link zum passenden Knowledge-Base-Artikel zu erhalten; ist eine Störungsbehebung per Self Service nicht möglich, wird der Chatbot den User informieren, dass der Vorgang erfasst und automatisch angestoßen ist – und wann die Störung behoben sein wird.

 

Andere Nutzer werden lieber einem virtuellen Assistenten wie Alexa, Siri oder Cortana per Spracheingabe ihr Leid zu klagen: „Siri, das Display meines Rechners flimmert!“ Das ITSM-System erkennt das Gerät an der MAC-Adresse, erstellt ein Trouble Ticket, prüft das SLA sowie die historischen Reparaturzeiten und meldet dem Endanwender: „Ein Ticket zu Ihrer Störung ist angelegt, sie wird in X Stunden behoben sein.“ Den Status der Störungsbehebung kann der Anwender dann im Incident-Tracker seiner Unternehmens-App live mitverfolgen.

AI (Artificial Intelligence) in Form virtueller Assistenten und Chatbots ist hier dem Service Desk vorgeschaltet: Sie nimmt dem IT-Team jene lästigen Routineabläufe ab, die das Arbeiten im First Level Support bei IT-Mitarbeitern so unbeliebt machen. Der häufigste Grund für Support-Anrufe, das vergessene Passwort, lässt sich mittels hinterlegter Workflows sogar gänzlich automatisieren – oder gar per biometrischer Identifizierung ersetzen.

Viele Störungen gehen aber über banale Routinefälle hinaus: Sie betreffen komplexere technische Fehler, setzen Kenntnis der geschäftlichen Zusammenhänge jenseits der reinen Konfigurations- und Performance-Daten voraus oder erfordern „Fingerspitzengefühl“, also soziale Kompetenz. Das wird AI auf absehbare Zeit nicht leisten. AI kann das Service Desk Team somit zwar entlasten, das Personal wird aber weiterhin gebraucht: Es wird sich auf anspruchsvollere Aufgaben konzentrieren können – und müssen.

 

  1. Die IT-Abteilung muss ihre Services aktiv vermarkten, sonst landet sie „in der Cloud“.
    Die hausinterne IT steht längst im Wettbewerb mit Managed- und Cloud Service Providern: Viele Fachabteilungen ordern IT Services und Apps direkt aus der Cloud – die IT-Organisation nennt das „Schatten-IT“, aus Sicht der Betroffenen ist es aber schlicht „modernes Arbeiten“. Die interne IT muss einsehen, dass sie in manchen Fällen effizienter, unternehmens- oder benutzergerechter agieren kann als generische Cloud Services, in anderen Fällen aber eben nicht. Sie muss ihren Servicekatalog deshalb nutzen, um Endanwendern das Beste aus beiden Welten zu bieten – aus einer Hand, benutzerfreundlich und vor allen Dingen bequemer als der Bezug von Schatten-IT. Sonst wird sie durch die Cloud verdrängt.

 

Ein benutzerfreundlicher Servicebezug allein reicht aber nicht: Die IT muss schnell agieren können und dafür so viele Back-End-Prozesse wie möglich automatisieren. Doch selbst ein vollautomatisiertes IT Service Management ist nur ein Teilerfolg: Die IT muss mit den Fachabteilungen diskutieren, auf welche Weise deren Abläufe so effizient laufen können wie das vollautomatisierte ITSM.

Das oben beschrieben Onboarding eines neuen Mitarbeiters zum Beispiel ist ein digital transformierter HR-Prozess. Denkbar wäre aber noch viel mehr, von der digitalen Urlaubsplanung und -genehmigung über die Self-Service-Buchung von Fahrzeugen aus dem unternehmenseigenen Fahrzeugpool bis hin zum automatisierten Recruiting-Prozess.

Ein Beispiel: Der VP Sales benötigt einen neuen Vertriebsleiter für Süddeutschland. Heute erfasst sein Team dafür das Anforderungsprofil schriftlich per Web-Formular. Die HR-Abteilung stellt das Profil dann bei einer Reihe von Job-Portalen ein und ist anschließend wochenlang damit beschäftigt, Bewerbungen zu sichten und auszuwerten.

In Zukunft hingegen wird der VP Sales das Anforderungsprofil einfach in das unternehmenseigene Recruiting-Portal eingeben. Er klickt die gewünschten Kriterien an, gewichtet sie und wählt dann für die Personalsuche die Platinum-Variante aus: eine per SLA garantierte Suche mittels Headhunter mit Vorschlag der fünf bestgeeigneten Bewerber nach 14 Tagen. Die Verteilung des Profils auf die diversen Job-Portale übernimmt die ESM-Engine automatisiert im Hintergrund, der VP Sales erhält zwei Wochen später die fünf aussichtsreichsten Bewerbungen. Prozessautomation im Recruiting erleichtert dabei nicht nur die Mitarbeitersuche, sondern legt zugleich die Basis für professionelles Talent Relationship Management und somit für langfristige Mitarbeiterbindung.

Für den IT-Leiter oder CIO bedeutet das: Er muss die ITSM-gestützte Prozessoptimierung in den Fachabteilungen aktiv vermarkten. Dazu muss er auf die Fachverantwortlichen zugehen und aufzeigen, was mit hauseigener IT alles möglich ist – und dass man nicht auf Schatten-IT ausweichen muss.

 

  1. Ein Unternehmen, das sein Service Management nicht im Griff hat, findet bald keine Mitarbeiter mehr.
    Nein, der händeringend gesuchte Vertriebsleiter für Süddeutschland wird im Bewerbungsgespräch natürlich nicht fragen: „Haben Sie denn Ihr Service Management im Griff?“ Steht ein Unternehmen aber im Ruf, dass seine IT nicht „rund“ läuft, wird es zunehmend Probleme haben, die gewünschten Mitarbeiter zu finden. Denn im Zeitalter der Digitalisierung bedeuten mangelhafte IT-Service-Prozesse zwangsläufig auch mangelhafte Geschäftsprozesse – und die gesuchten Talente werden dieses Manko über Cloud Services ermitteln.

 

Der neue Vertriebsleiter, der erst mal zwei Wochen auf sein Notebook warten muss, ist dann schnell wieder weg. Im Unternehmen bleiben nur jene, die sich mit mangelhaftem IT-Betrieb zufriedengeben – keine gute Ausgangslage für wirtschaftlichen Erfolg.

 

Jenseits des Service Desks

Das IT Service Management war früher schlicht ein Werkzeug für den Service-Desk-Betrieb. Heute wandelt es sich zum strategischen, automatisierten und Self-Service-orientierten Enterprise Service Management. Denn Digitalisierung heißt eben nicht nur, dass man Geschäftsprozesse auf eine IT-Basis stellt: Zwingend nötig ist auch ein automatisiertes Service-Management, das den digitalen Betrieb verlässlich am Laufen hält.

 

 

weitere Artikel finden Sie unter:
matrix 42 / Blog

 

Autor:

Oliver Bendig ist CEO des Service-Management-Anbieters Matrix42 AG.

 

 

 

 

 

 

 

 

 

 

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Wie ein Fertigungsunternehmen seinen Markenauftritt digitalisierte

Gastbeitrag

Zur digitalen Transformation von Unternehmen zählt auch die Digitalisierung ihres Corporate Design. Damit der Markenauftritt in der digitalen Welt funktioniert, muss er gezielt weiterentwickelt werden. Ein Fallbeispiel aus der Fertigungsbranche.
Von Stefan Maack*

Ein Fertigungsunternehmen in Baden-Württemberg stand vor einer Herausforderung, mit der sich heute praktisch alle B2B-Unternehmen konfrontiert sehen, die schon länger am Markt agieren: Sein Corporate Design war vor allem für starre Printmedien konzipiert und damit nicht für die interaktiven und dynamischen Kanäle des digitalen Zeitalters gerüstet. Deshalb entwickelte es seinen Markenauftritt gemeinsam mit dem Beratungsunternehmen ARITHNEA für die modernen digitalen Touchpoints weiter.

Dabei galt es, einen Spagat zu meistern. Das vorhandene, am Markt eingeführte und den Kunden des Unternehmens vertraute Corporate Design musste transformiert werden, ohne dadurch die Marke zu kompromittieren. Der Markenauftritt sollte die Konventionen und Gegebenheiten jedes digitalen Kanals berücksichtigen können und gleichzeitig über alle diese Kanäle hinweg sofort wiedererkennbar sein und damit ein einheitliches Markenerlebnis sicherstellen.

Denn die Kunden des Unternehmens denken nicht in Kanälen, sondern in Bedarfen. Zur Erfüllung dieser Bedarfe legen sie in aller Regel eine „Customer Journey“ zurück, bei der sie mit verschiedenen Touchpoints in Berührung kommen und unterschiedliche Endgeräte nutzen. Dabei muss gewährleistet sein, dass sich die Marke nicht an jedem Touchpoint und auf jedem Endgerät plötzlich völlig anders anfühlt.

Vorhandenes Corporate Design wurde aufgebrochen

Die Lösung dieser Herausforderung lag im Aufbrechen des vorhandenen Corporate Design. Seine Basiselemente wie Farben, Formen oder Schriften wurden aufgegriffen und wo immer möglich, auch für die digitalen Kanäle eingesetzt. Verändert wurden einzelne Elemente immer nur dann, wenn es nötig war, um den Gegebenheiten und Konventionen der digitalen Kanäle Rechnung zu tragen und die Nutzerführung zu unterstützen. So war sichergestellt, dass immer mehrere zentrale Basiselemente des eingeführten Corporate Design vorhanden sind und es damit sofort wiedererkennbar ist.

Gemeinsam mit den Beratern von ARITHNEA entwickelte das Fertigungsunternehmen einen „Digital Style Guide“, also ein Verzeichnis mit Vorgaben, die sämtliche relevante Touchpoints und Kanäle abdecken. In diesem Guide ist beispielsweise festgelegt, dass auf der Website und im Online-Shop des Unternehmens das Logo immer links platziert wird, um die Nutzerkonventionen zu erfüllen. Die traditionelle Positionierung des Unternehmenslogos wurde damit aufgebrochen, denn in Printmedien befindet es sich klassischerweise immer auf der rechten Seite.

Darüber hinaus werden unterschiedliche Farben genutzt, um die Nutzerführung zu optimieren. Alle Links und Absprünge, die von der Website des Unternehmens in seinen Online-Shop führen, weisen eine andere Farbe auf, als die Links und Absprünge innerhalb der Website. Da die beiden Plattformen nahtlos miteinander integriert sind, würde der User erst einmal gar nicht realisieren, wohin er sich gerade bewegt. Durch die unterschiedlichen Farben wird ihm aber sofort signalisiert, dass er durch den Klick auf einen bestimmten Link in den Einkaufsbereich gelangt.

Zur Darstellung auf den kleineren Bildschirmen von Smartphones ist im Digital Style Guide außerdem der so genannte Schutzraum des Logos aufgebrochen. Für den Printbereich ist vorgeschrieben, dass rund um das Logo ein bestimmter freier Platz sein muss, in dem keine anderen Inhalte auftauchen dürfen. Würde diese Regel auch auf Smartphones angewandt werden, deren Displays ohnehin nur eine sehr beschränkte Fläche aufweisen, wäre der Platz für andere Inhalte zu stark limitiert.

Maschinendisplays und AR als besondere Herausforderung

Website und Online-Shop, die auf PCs, Tablets und Smartphones aufgerufen werden, sind aber nicht die einzigen digitalen Touchpoints, mit denen es das Fertigungsunternehmen zu tun hat. Um den Kunden die Bedienung seiner Maschinen und Geräte zu erleichtern, stattet es sie mit Touch-Displays für die Steuerung aus. Der Hintergrund dieser Displays machte es erforderlich, die Farben des Logos so anzupassen, dass es sich auch dort klar erkennbar abhebt.

Eine ganz ähnliche Herausforderung ergab sich bei einem weiteren Touchpoint, der heute noch gar nicht existiert. Um die Zukunftsfähigkeit des Corporate Design zu gewährleisten, wurde er aber dennoch bereits im Style Guide berücksichtigt. In absehbarer Zeit wird das Fertigungsunternehmen seinen Kunden Augmented-Reality (AR)-Apps anbieten, die sie bei der Wartung seiner Maschinen und Geräte unterstützen. Servicetechniker können sich dann mit AR-Brillen direkt über eine Maschine Informationen und Anleitungen einblenden lassen, die sie durch die Wartungsarbeiten führen. Mit Farbanpassungen im Digital Style Guide wurde sichergestellt, dass das Logo des Unternehmens dabei auch vor dem transparenten Hintergrund der AR-Brillen funktioniert.

Durch das Modernisierungsprojekt verfügt das Fertigungsunternehmen jetzt über einen durchgängig digitalisierten Markenauftritt. Da das vorhandene Design nicht einfach eins zu eins auf die digitalen Kanäle übertragen wird, ist nicht nur Irritationen oder gar Beeinträchtigungen der User vorgebeugt. Sie werden zusätzlich auch noch bei der Nutzerführung unterstützt.

Das Fertigungsunternehmen hat damit die Benutzerfreundlichkeit der digitalen Kanäle für seine Kunden erhöht und sich dadurch einen Wettbewerbsvorteil eröffnet. Last but not least hat es zudem ein dauerhaft einheitliches, unverwechselbares und zukunftsfähiges Markenbild geschaffen.

 

 

Weiterführende Informationen finden Sie unter:
https://www.arithnea.de/

 

 

Über den Autor

*Stefan Maack ist Business Unit Manager Kreation beim Digital-Business-Spezialisten ARITHNEA

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Chancen und Grenzen künstlicher Intelligenz

Gastbeitrag

Wie AI das Service Management verändert

 

Alle reden von Artificial Intelligence, um AI gibt es einen regelrechten Hype: Die Erwartungen sind enorm, die Ziele oft vage, konkrete Lösungen noch selten. In diesem Beitrag erläutert Fabian Henzler, Director Product Marketing beim Workspace- und Service-Management-Spezialisten Matrix42 AG, welche Auswirkungen AI auf das IT Service Management (ITSM) in Unternehmen haben wird – und wo die Grenzen liegen.

 

In Gartners „Hype Cycle for Emerging Technologies“ vom August 2017 lag AI – vertreten durch Deep Learning und Machine Learning (ML) – ganz an der Spitze der Hype-Kurve. Wie es weitergeht, ist klar: bergab. Überzogene Hoffnungen werden enttäuscht, bevor die neue Technologie dann letztlich Einzug in den Alltag findet. Bei Deep Learning und ML wird dies laut Gartner zwei bis fünf Jahre dauern, bei AI-basierten Virtual Assistants fünf bis zehn. Aber AI wird kommen.

Woher also die Enttäuschung? Heute herrscht oft die Erwartung vor, man könne AI als Produkt kaufen, und plötzlich funktioniere alles viel besser. Doch künstliche Intelligenz wird nicht auf dem Silbertablett serviert: Auch der AI-Einsatz erfordert Planung, Budget und Organisation, Unternehmen müssen geeignetes Personal finden, und die Implementierung wird – wie immer in der IT – Zeit und Nerven kosten.

Zunächst aber ist zu klären, wo AI überhaupt nützt. ITSM bietet gleich mehrere Anknüpfungspunkte. Sie reichen vom First Level Support über das Asset- und Problem Management bis hin zur Prozessoptimierung.

 

AI als Kollege im Service Desk

Viele kennen AI aus dem privaten Umfeld: Virtuelle Assistenten wie Alexa, Siri oder Google Home beantworten auf Zuruf Fragen oder stoßen einfache Aktionen an. So versteht es sich fast von selbst, dass AI an der Schnittstelle zwischen Endanwender und Service Management große Vorteile bietet: beim First Level Support. Dank Microsofts Bot Framework lässt sich solche Funktionalität in Service-Desk-Lösungen integrieren. Mit Chatbots und Virtual Agents kann eine IT-Organisation die Annahme von Trouble Tickets vollständig digitalisieren – sogar bis hin zur Störungsbehebung.

Ein Beispiel: Erhält ein Anwender eine unerklärliche Fehlermeldung, hilft AI-gestützte Bilderkennung bei der schnellen Behebung des Incidents. Ein Chatbot fordert den Anrufer auf, einen Screenshot des Fehlers zu senden; die Service-Management-Lösung analysiert den Screenshot mittels AI, erkennt den Fehler, füllt das Ticket aus und leitet es weiter. Die Software trackt die Incidents, und nach mehrmaliger deckungsgleicher Fehlerbehebung schickt sie dem nächsten Anrufer automatisch den Link zum passenden Knowledge-Base-Artikel zur Selbsthilfe auf sein Smartphone.

Ein anderes Szenario: Der Anwender meldet eine Störung mit „Alexa, mein PowerPoint stürzt immer ab.“ Die AI-gestützte Service-Management-Lösung kennt den Nutzer wie auch dessen Rechner. In der Knowledge Base ermittelt sie die beiden Lösungsvarianten. Alexa antwortet: „Sie können eine automatische Neuinstallation von PowerPoint anstoßen, das dauert 30 Minuten. Oder Sie können ein Austauschgerät erhalten, das dauert zwei Stunden.“ Der Nutzer entscheidet sich: „Neuinstallation!“ Die Service-Desk-Software stößt dies im Idealfall per integrierter Workspace-Management-Lösung direkt an. Eine halbe Stunde später meldet Alexa dem Nutzer den Abschluss der Installation und fragt nach seiner Zufriedenheit. Er gibt fünf Sterne für den perfekten Service, das Ticket wird automatisch geschlossen.

 

Integration ist der Schlüssel

In beiden Fällen ist die Einbindung der AI in das Service- und Workspace Management elementar: Dank Integration in das Active Directory, die ITSM-Lösung, die Knowledge Base und die CMDB kennt die AI-Software die Rolle des Endanwenders, seine IT-Ausstattung und Lösungswege. Bei Zugriff auf das Projekt-Management-Tool weiß sie sogar, ob der Anrufer in der heißen Phase eines Projekts steckt und deshalb priorisiert zu bearbeiten ist. Dies sorgt für kundenfreundliche Abläufe sowie zeit- und kostensparende Prozessautomation.

Doch virtuelle Agenten bringen bei Routine-Incidents noch weitere Vorteile: Mitarbeiter im First Level Support müssen selbst angesichts verärgerter oder gestresster Kunden stets freundlich bleiben – für Alexa und Co. kein Problem. Die Technik ist zudem längst so ausgereift, dass ein Virtual Agent sogar die Stimmung des Kunden an dessen Stimme erkennt – und so den wütenden Vorstand gleich zum Second Level Support durchstellen kann.

Für den Service Desk bedeutet dies: Virtual Agents werden als vorgeschaltete Support-Instanzen helfen, zeitraubende Routinefälle zu automatisieren. So kann sich das IT Team besser um das anspruchsvollere Exception Handling kümmern. Denn AI wird die Support-Kollegen aus Fleisch und Blut bis auf Weiteres nicht ersetzen, sondern bestenfalls ergänzen: Komplexe Problemfälle erfordern Intuition, soziale Kompetenz und Wissen um den Geschäftskontext – da stößt AI an Grenzen.

 

Hinter den Kulissen

Ihre Stärken kann AI „hinter den Kulissen“ erst so richtig ausspielen. So vereinfacht z. B. Machine Learning zusammen mit Big-Data-Analysen die Inventarisierung, das Asset- und das Configuration Management: ML-Tools erlernen in Massendatenbeständen schnell die Zusammenhänge zwischen Assets, Usern und Services – selbst wenn diese in den diversen Datentöpfen nicht identisch, sondern nur ähnlich bezeichnet sind (z. B. mal „Office365“, mal „Microsoft Office 365“). Denn AI kann mit semantischer Unschärfe umgehen und ist – anders als die klassische Schlagwortsuche – nicht auf identische Begriffe angewiesen.

So kann man Assets automatisch einem Service oder einer Applikation zuordnen (Application Dependency Mapping, ADM), analysieren und visualisieren. ADM ist heute noch sehr kostspielig; ein ML-gestütztes Service Management wird künftig automatisiert generierte Service Maps auch dem Mittelstand zugänglich machen – sogar inklusive extern bezogener (Cloud-)Dienste samt Tracking der Service-Nutzung.

Mittelfristig wird AI das Problem Management beschleunigen: Bei wiederkehrenden Fehlern können ML-Tools die Ursachenforschung erleichtern, also z. B. bei gehäuften Störungen in einem Bürotrakt erschließen, dass der Etagen-Switch ausgefallen ist. Bei Bedarf kann ML-Software das Internet nach Lösungsvorschlägen absuchen – und wiederum in unterschiedlichsten Knowledge Base Lösungen finden, selbst wenn die Beschreibungen variieren. Die Lösungswege ordnet das ML-gestützte Service Management dann automatisiert dem Trouble Ticket zu.

Letztlich berührt AI sogar den Kern der IT und des Business: die Prozesse. Schon heute kann eine Fachabteilung mittels BPMN (Business Process Model and Notation) und einem Tool wie Matrix42 Workflow Studio bequem neue Workflows erstellen, die Lösung übersetzt sie dann automatisch in konkrete Konfigurationen. Künftig wird es mittels einer AI-Instanz möglich sein, diese individuellen Abläufe zu analysieren und dynamisch zu optimieren. AI vergleicht dazu die neuen Workflows und Prozesse selbsttätig mit bestehenden Best Practices. So deckt sie Prozessfehler auf, um die IT-Prozesse – und letztlich sogar beliebige Abläufe vom Facility Management bis zum Recruiting – schneller, effizienter und kostengünstiger zu machen.

 

Nicht nur auf AI setzen

AI wird einen enormen Effizienzsprung bringen – im ITSM wie auch generell beim Management digital transformierter Geschäftsprozesse. Insbesondere bei der Analyse von Massendaten wird AI ihre Stärken ausspielen. Dabei hat der AI-Einsatz jedoch, wie oben beschrieben, seine Grenzen, wenn es um Kenntnis des Kontexts außerhalb der Massendaten und um soziale oder Business-Aspekte geht.

Deshalb zu guter Letzt ein Tipp: Setzen Sie nicht allein auf AI!

Matrix42 Pilotkunden-Projekte haben gezeigt, dass Alexa weder in Großraumbüros noch in Einzelbüros am nachhaltigsten genutzt wird, sondern in Konferenzräumen: Immer wieder bereitet die Präsentationstechnik Probleme, deren Lösung man dann gern per Alexa anfordert – muss man aber nicht!

Denn die IT kann heute schon mittels der ihnen zur Verfügung stehenden Daten problemlos ermitteln, bspw. nach welcher Nutzungsdauer eine bestimmte Beamer-Glühbirnen den Dienst versagen wird – um sie rechtzeitig auszutauschen. Das kann bereits mit Bordmitteln eines ordentlichen Service- und Asset Management passieren. Das kostet weder viel Zeit noch viel Geld, und die Teambesprechung des Vertriebs kann dann ebenso ungestört stattfinden wie die Vorstandssitzung.

Für viele solcher sofort wirkungsvollen Verbesserungsmaßnahmen braucht man weder Predictive Maintenance noch AI – nur die inventarisierten Daten und ein wenig Kreativität.

 

Weiterführende Informationen:
matrix42 / Blog

 

Autor: Fabian Henzler

Fabian Henzler, Director Product Marketing beim Workspace- und Service-Management-Spezialisten Matrix42 AG

 

Aufmacherbild / Quelle / Lizenz
Image by Tung Nguyen from Pixabay

Den Kunden richtig verstehen

Der Handel hatte es immer schon schwer – Kundenbindung ist nicht leicht zu erzielen und der Preiskampf tobt. Dies gilt für alle Sparten, sei es der Lebensmittelhandel, die Elektronikmärkte oder Autohäuser. Zudem kamen mit Internetplattformen wie Amazon oder Zalando weitere Akteure auf dem Markt, der alteingesessenen Einzelhändlern, aber auch den Einzelhandelsketten das Leben schwermachen. Der Handel ausschließlich über das Internet ermöglicht es diesen Anbietern, kostengünstiger und zielgerichteter anbieten zu können.

Nun ist einer der Vorteile, die Internet-Versandhändler für sich verbuchen können, die weitreichende Kenntnis über die Wünsche und Befindlichkeiten des Kunden. Aufgrund ihres Surfverhaltens, ihrer Klicks und der Verweildauer auf den Seiten, können Betreiber genau analysieren, welche Produkte den Kunden gefallen. Aus dieser Information werden Kaufempfehlungen generiert. Dies erzeugt eine große Menge an Daten, besonders bei Marktführern. Diese Daten können mit herkömmlichen Systemen, die teilweise manuelle Eingriffe erfordern, nicht mehr abgebildet werden.

Doch wie stellt sich das Problem genau? Sicher werden Daten zu den Kunden und ihren Bewegungen erfasst. Diese Daten liegen in den verschiedensten Formaten vor und werden auch oft in isolierten Datensilos hinterlegt. Möchten Händler nun beispielsweise eine Marketingaktion durchführen, steht ein Teil der dafür benötigten Informationen nicht sofort zur Verfügung.

Stimmung der Verbraucher wichtig

Dabei ist besonders für den Vertrieb von Markenartikeln sowohl für den Handel als auch für den Hersteller ein umfassendes Bild vom Markengefühl der Konsumenten wichtig. Die Wahrnehmung eines Markenimages lässt sich nur auch vielen verschiedenen Quellen analysieren. Der Umsatz des jeweiligen Produktes lässt nur eine Momentaufnahme zu. Welche Rolle Werbung, die Vorgehensweise des Wettbewerbs oder Produktinnovationen spielen, bleibt ohne valides Datenmaterial weitgehend ungeklärt. Eigene Marketingstudien könnten zeitaufwändig und teuer sein – und dabei nicht immer zum korrekten Ergebnis kommen.

Jedoch können die unterschiedlichsten Datenquellen in einem Big-Data-System zusammengefasst werden. Im Gegensatz zu gängigen Lösungen verarbeiteen Big-Data-Lösungen die Informationen in unterschiedlichsten Formaten – sei es strukturiert oder unstrukturiert – und aus unterschiedlichen Quellen. Diese Connected-Data-Plattformen verarbeiten nicht nur die Daten der Unternehmens-IT, sondern analysieren darüber hinaus soziale Medien wie Twitter, Facebook, LinkedIn, Xing oder relevante Foren oder Blogs von Influencern. Dabei lässt sich mittels einer passenden Adaption auch die Stimmung („Mood“) der Konsumenten auf diesen Plattformen messen. So können Unternehmen Stimmungsschwankungen rechtzeitig bemerken und mit gezielten Kommunikationsmaßnahmen begegnen. Besonders bei der Planung von Promotions, ob nun Online oder vor Ort im Handel, zahlt sich die rechtzeitige Erfassung von Moods aus.

Wo ist mein Kunde?

Neben der Erfassung der Kundenstimmung sind natürlich auch Informationen über die aktuelle Affinität der Zielgruppe für den Geschäftserfolg entscheidend. Bei Nutzung entsprechender Dienste können beispielsweise der Aufenthaltsort der Konsumenten analysiert und entsprechende Angebote in den Werbeplätzen mobiler Apps ausgespielt werden. So können Filialisten ihre Angebote in Echtzeit über Couponaktionen steuern.

Auch beim Online-Shopping ist Big Data mittlerweile zum Standard geworden. Konsumenten, die sich online über ein Produkt informieren oder sich Informationen über eine relevante oder ihr verwandte Produktkategorie ansehen, hinterlassen viele Clickstream-Daten. Über den Klickverlauf wissen Online-Händler, welche Webseiten attraktiv sind und wo ihre Kunden besonders lange verweilen. Um das riesige Volumen an anfallenden Daten sinnvoll auszuwerten, führt eine Connected-Data-Plattform diese unstrukturierten Daten zusammen und führt eine Analyse in Echtzeit durch. Das schließt allerdings nicht nur das Surfverhalten der Webseitenbesucher ein, sondern auch andere Elemente wie etwa der Warenkorb. Die dort enthaltenen– wie auch die hinzugefügten, aber dann wieder entfernten – Produkte verhelfen ebenfalls zur Entscheidungsfindung für die Gestalter des Online-Shops.

Mit zunehmendem Wettbewerbsdruck auf Handel und Hersteller wird die Nutzung von Big Data folglich immer relevanter. Jedes Jahr verdoppelt sich die Menge an Daten. Rund 90 Prozent beziehen sich dabei nicht auf die klassischen Geschäftstransaktionen. Überdies sind diese Daten nicht statisch, die Datentypen vermehren sich auch. Mit Informationen, die sich vermehrt aus sozialen Medien, Telemetrie ergeben oder aus Sensoren stammen, sind nun Systeme gefragt, die mir einer schieren Anzahl an solchen Daten umgehen können. Denn diejenigen, die nicht nur aufgrund der bisherigen Historie Schlüsse für ihre nächsten Schritte ziehen können, sondern das Kundenverhalten auch prognostizieren können, werden sich auf Dauer auf dem Markt durchsetzen können.

 

Alle Beiträge von Christopher Rummel anzeigen

 

Über den Autoren

Christopher Rummel ist als Regional VP Sales für Hortonworks tätig und ist unter anderem für die Geschäftsentwicklung des Unternehmens im deutschsprachigen Raum verantwortlich. Vorher bekleidete er ähnliche Positionen bei Unternehmen wie bei EMC oder der Parametric Technology Corporation in Tokio.

Vorsorgen, aber richtig

In drei Schritten zur Absicherung im Alter

Hannover, März 2018. Der frühe Vogel fängt den Wurm – ähnlich verhält es sich bei der eigenen Altersvorsorge. Wer sich bereits in jungen Jahren mit Anlagemöglichkeiten beschäftigt, bereitet sich auf einen entspannten Lebensabend vor. Darüber hinaus sprechen das steigende Durchschnittsalter der Deutschen und die Anpassung der gesetzlichen Rente ebenfalls für eine vorzeitige Absicherung. Doch wie das eigene Kapital risikoarm und mit guten Renditeaussichten anlegen? „Immobilien lautet hier das Stichwort. Durch eine lange Lebenszeit bringen sie Wertstabilität und Inflationsresistenz mit sich“, weiß Patrick Holze, Vorstandsvorsitzender der DI Deutschland.Immobilien AG. Worauf potenzielle Anleger bei Zeitpunkt-, Standort- und Objektauswahl achten sollten, erläutert der Immobilien-Experte in drei Schritten.

1. Schritt: Die Erkenntnis
Früh übt sich, wer ein erfolgreicher Anleger werden will: Bereits in jungen Jahren den Vorteil von Immobilien als Kapitalanlage zu kennen, bietet genügend Zeit, um sich auf eine Investition optimal vorzubereiten. Immobilien amortisieren sich durch einen regelmäßigen Mietzins. Je eher die Immobilie also im Besitz ist, desto länger profitieren Investoren. Doch vor einem Kauf sollten Interessierte ihre finanzielle Lage überprüfen. Eine Faustregel besagt, dass bestenfalls drei Nettogehälter als liquider Notgroschen auf dem Konto liegen sollten.1 Wenn etwa die Waschmaschine kaputtgeht, steht das Geld sofort zur Verfügung. Alles darüber hinaus lässt sich sorgenfrei investieren. „Nicht nur die Finanzen sollten im Vorhinein überprüft werden, Investitionswillige müssen sich vor dem Kauf auch über Rechte und Pflichten informieren“, weiß Holze. Zu diesem Zweck bietet die DI Deutschland.Immobilien AG gemeinsam mit Partnern regelmäßig unverbindliche Informationsveranstaltungen in ganz Deutschland an.

2. Schritt: Die Entscheidung
Wer die Wahl hat, hat die Qual: Eigentumswohnung oder Anlage? Selten wissen junge Leute, wo sie den Anker werfen möchten, um sesshaft zu werden oder in den Ruhestand zu gehen – in die eigenen vier Wände zu investieren, ist daher oftmals keine Option. Stattdessen bieten Anlage-Immobilien dank des Mietzinses und der zusätzlichen Einnahmequelle im Alter eine lukrative Alternative. „Auf dem Markt der Anlage-Immobilien gibt es viele verschiedene Assetklassen, wie Pflege-, Ferien-, Mikro- oder Denkmalimmobilien – dabei besticht jedes Objekt durch eigene Vorteile“, berichtet der Experte. Vor allem Pflegeimmobilien punkten in Sachen Altersvorsorge: Mit einer Investition sichern sich Besitzer einen kontinuierlichen Mietzins, denn bei eventuellen Mietausfällen springt die Sozialkasse ein. Dort kümmert sich ein Betreiber um die Verwaltung, Vermietung und Instandhaltung eines Objekts. Außerdem stellen Pflegeimmobilien einen der letzten Wachstumsmärkte dar.

3. Schritt: Die Absicherung
In Stein gemeißelt ist der Kauf einer Immobilie erst, wenn ein Notar den Besitzerwechsel im Grundbuch dokumentiert. „Das Grundbuch ermöglicht zudem, Immobilien im Testament als Erbschaft zu vermerken, bei Schulden zu beleihen, zu verkaufen oder zu verschenken. Darüber hinaus bieten Pflegeappartements einen weiteren Vorteil: Besitzer oder deren nahe Angehörige erhalten ohne lange Wartezeiten einen Pflegeplatz in einer Einrichtung des Betreibers“, erläutert der Experte der DI Deutschland.Immobilien AG. Nicht nur der zukunftssichere Markt und der regelmäßige Mietzins, sondern auch der gesicherte Pflegeplatz überzeugen selbst junge Interessierte von den Vorzügen einer Investition.

Weitere Informationen unter: www.deutschland.immobilien

Als Gastronom den richtigen „edlen Tropfen“ finden

Ein Wein ist ein Genuss für die Sinne und vielseitig im Geschmack. Als Gastronom ist eine gute Weinkarte das A und O. Vorab ist die Beratung besonders bedeutsam, damit die edlen Tropfen bei den Gästen gerne angenommen werden. Charakteristische Nuancen verleihen Merkmale und demnach unterscheiden sich die edlen Tropfen besonders. Ein Wein bietet sich zum Genießen an und ist auch zu bestimmten Speisen eine Köstlichkeit. Daher ist bei der Wahl der edlen Tropfen auf den Geschmack, die Intensität und besonders auch auf den Serviervorschlag zu achten. Wohingegen manche Qualitätstropfen besonders gut zu Käse und Wild-Gerichte schmecken, werden andere Weinsorten ausschließlich zum Genuss verkostet. Jeder Qualitätstropfen besitzt eine eigene Facette, daher sollte grundsätzlich bei den Rotweinen, Weißweinen und Rosés auch auf den einzelnen Charakter geachtet werden.

Qualitätsweine anhand der Beschreibung wählen

Für Genießer bieten sich besonders Qualitätstropfen mit einer feinen und dezenten Nuance an. Wohingegen Weinliebhaber besonders gern auch eine prägnante Charakteristik verköstigen. Die Süße der Weine ist ebenso ein Merkmal. Grundlegend besticht jeder Qualitätswein durch eine eigene Note, welche durch die Beschreibung erfahren werden kann. Klassische Weine und auch einen verspielten Gaumengenuss; die Sparte der Tropfen ist breit. Demnach ist die Information und Beratung eine sinnvoll investierte Zeit und die Gäste können daraufhin rundum zufrieden sein. Die Auswahl sollte darauf abzielen, für jeden Geschmack einen Qualitätstropfen anbieten zu können. Die Beschreibung auf den speziellen Websites geben erweiterte Informationen, welche eine wichtige Anlaufstelle bei der Auswahl darstellen.

Passende Tropfen für das jeweilige Ambiente

Es ist von besonderer Bedeutung, dass die Auswahl auch bezüglich des Ambientes harmoniert. Eine edle Cafébar mit Weinangeboten bietet Weine für den reinen Genuss. Allgemein besonders beliebt sind außerdem edle Tropfen mit einem leichten Abgang, denn diese Weinsorten werden allgemein besonders gerne angenommen; genau der passende Wein für die gemütlichen Abendstunden im Café. Daher ist besonders die Umgebung, in der die edlen Tropfen angeboten werden ein Orientierungspunkt. Ein Restaurant mit vorrangig italienischen, griechischen oder deutschen Spezialitäten, kann ebenso auch die Weinkarte der Speisekarte und demnach dem allgemeinen Flair anpassen. So bietet sich ein griechischer Weinklassiker besonders auch zu einer griechischen Spezialität an.

Kompetente Beratung in Anspruch nehmen

Grundsätzlich gilt, auf einer Weinkarte sollten die Klassiker der Region zu finden sein. Zudem bietet sich auch die Empfehlung eines Weingutes und der speziellen Internetpräsenzen als vorzüglich an, um die Weinkarte geschmackvoll zu gestalten. Jeder Gast besitzt zwar einen eigenen Geschmack, allerdings genießen die Gäste auch gerne Empfehlungen des Hauses. Es ist daher unumgänglich und kompetent zugleich, sich von den Weinsorten auf Gasoni inspirieren zu lassen und sich umfassend über die verschiedenen Edeltropfen zu informieren. Die Internetpräsenzen bietet demnach ein breites Spektrum, um Weine aus jeglichen Regionen zu erwerben und gleichzeitig auch die Charakteristik und das Weinanbaugebiet kennenzulernen. Einen Blick in die lokale Weinhandelberatung zu werfen sollte auch unbedingt vorgenommen werden. Oftmals helfen hier auch Verköstigungen, damit man verschiedene Geschmäcker kennenlernt.

Künstliche Intelligenz unterstützt Kostenkontrolle

Dies ist ein Gastbeitrag von Jochen Werner, RVP Sales Central Europe bei Coupa Software

Künstliche Intelligenz (KI oder auch als Artificial Intelligence, AI, bekannt) ist DAS Trendthema 2018. In verschiedensten Einsatzgebieten ist der Einsatz dieser Technologie dabei unterschiedlich weit verbreitet und fortgeschritten. Speziell im Bereich der Unternehmensausgaben, des Business Spend Management, ist KI eine noch junge Disziplin. Denn erst die Kombination aus einer in den letzten Jahren stark gewachsenen Datenbasis und der heutzutage verfügbaren hohen Rechenleistung ermöglicht Lösungen, die einen echten Mehrwert für Unternehmen bieten. Basis hierfür ist ein tiefes Verständnis der zwei grundlegenden Funktionsweisen von KI – Machine Learning (ML) und Deep Learning (DL) – und auch für deren Einschränkungen.

Unterschiedliche Herangehensweisen mit einem Ziel: Automatisierung

Machine-Learning-Systeme beruhen auf der Anwendung und Einhaltung von Regeln. Diese Regeln werden dabei von den Anwendern entwickelt und im System implementiert. Dabei gilt: Je höher die Anzahl dieser Regeln ist, desto intelligenter wird das System.
Besondere Vorzüge bietet der Einsatz von ML im Business Spend Management für die Normalisierung von Datensätzen. Für diese Normalisierung stellt ein Unternehmen beispielweise Regeln auf, was geschehen soll, wenn in einem Datensatz ein Name auftaucht, der nicht als Lieferant im System hinterlegt ist. Als Beispiel sei hier IBM genannt. Allein für den Namen „IBM“ sind viele Varianten denkbar, zum Beispiel International Business Machines, Intl Bus Machines oder IBM Deutschland, alle jedoch meinen denselben Lieferanten. Um den Überblick über die gesamte Lieferantenbeziehung nicht zu verlieren, ist eine Normalisierung an sich unabdingbar, welche allerdings manuell sehr aufwändig und zeitintensiv ist. Hier kommt Machine Learning ins Spiel, das durch die Anwendung von Regeln Daten automatisiert normalisieren kann – und das wesentlich schneller als jeder Mensch.

Jochen Werner, RVP Sales Central Europe bei Coupa Software

Jochen Werner, RVP Sales Central Europe bei Coupa Software

Deep Learning geht einen anderen Weg und ist im Business Spend Management speziell für die Kategorisierung interessant. Es beruht nicht nur auf Regeln, sondern auf einem vom KI-System selbstentwickelten neuronalen Netz, das auf Wortvektoren basiert. Diese Systeme werden darauf trainiert, ganze Sätze und ihren Kontext zu verstehen. Das Prinzip ähnelt der Funktionsweise des menschlichen Gehirns.
Die Forscher von Google haben schon nahezu zwanzig Jahre damit verbracht, Milliarden von Suchvorgängen zu analysieren. Ziel des Forscherteams war es, anhand falsch-buchstabierter, vermeintlich kryptischer oder gar missverständlicher Eingaben, Rückschlüsse darauf zu ziehen, was der Suchende in Erfahrung bringen wollte. In diesem Projekt, „Word2vec“, baute Google mithilfe von Wortvektoren ein neuronales Netz auf. Word2vec kann heutzutage nicht nur die Bedeutung von Buchstaben und Wörtern ableiten, sondern auch aus ihrem Zusammenhang und ihrer Beziehung zu anderen Wörtern weitere Erkenntnisse gewinnen. Genau nach diesem Prinzip funktioniert auch Deep Learning.
Ein Beispiel aus dem Business Spend Management: Eine Rechnung erhält in der Betreffzeile „Plastik, 500ml, Evian“. Auf Basis der gesammelten Erfahrung und des Kontextes kann das intelligente Deep-Learning-System automatisch erkennen, dass es sich um Wasser in Flaschen handelt. Das lässt sich auch auf unbekannte Datensätze anwenden. Diese können so anhand bekannter und ähnlicher Wörter oder dem Abstand zu anderen Wörtern im Text korrekt und automatisiert kategorisiert werden – ohne, dass dazu eine Regel notwendig ist.

KI benötigt menschliche Hilfe

Mittlerweile verfügen moderne, KI-basierte Business-Spend-Management-Plattformen über ausreichend Wissen, dass Mitarbeiter mit Hilfe der KI-Systeme Aufgaben in nur wenigen Tagen erledigen können, die früher Monate gedauert hätten.
Doch was bedeutet das nun für den geschäftlichen Alltag? Ein durchschnittlicher Einzelhandelsbetrieb bezieht Waren und Leistungen von rund 2.000 Lieferanten. Im Extremfall müssen bis zu fünf Millionen Rechnungen pro Jahr normalisiert und kategorisiert werden. Dies ist ohne Automatisierung kaum zu bewältigen, kann nun aber durch Nutzung von KI innerhalb weniger Wochen erledigen. Das Wissen dazu hat das KI-System aus vielen manuellen Klassifizierungsprozessen erlernt. Was dennoch weiterhin vonnöten ist, ist die menschliche Intelligenz. Es bleibt die Herausforderung, beispielweise für die Mitarbeiter aus der Qualitätssicherung, die Arbeit der Maschinen zu prüfen und zu bewerten. Darüber hinaus müssen Menschen die KI weiter trainieren, denn die Variationsbreite der Sprache zur Beschreibung von Dingen auf der ganzen Welt ist beinahe unendlich. Und nur auf diese Weise kann die Maschine weiter lernen.

Leistung wächst mit Kontrolle, Daten und Erfahrung

Um nun aber echte Fortschritte zu erzielen ist ein weiterer Schritt notwendig: Es braucht Leistungsindikatoren, die in regelmäßigen Abständen gemessen werden, um so die Weiterentwicklung des KI-Systems sicherzustellen: von 50 Prozent richtiger Auswertungen zu 75, 85 und so weiter. Aus der Sicht eines Anbieters von intelligenten Systemen steigern wir bei Coupa mithilfe von künstlicher Intelligenz den Automatisierungsgrad an klassifizierten Ausgabedaten bei unseren Kunden.
KI hört aber nicht bei der Bearbeitung von Datensätzen auf. Denn jeder neu bearbeitete Datensatz wird in Wissen umgewandelt. Das System passt sich immer besser an die unternehmensinternen Richtlinien an und lernt von der kontinuierlichen Interaktion mit Anwendern und Lieferanten. Dies versetzt intelligente Systeme in die Lage, die Kommunikation mit Lieferanten teilweise „eigenständig“ zu übernehmen. Zukünftig werden sprachgesteuerte Bots Rechnungen oder Bestellungen unabhängig von menschlicher Interaktion annehmen oder fehlerhafte Liefermengen korrigieren.

KI ist keine Magie

Nach und nach wird die künstliche Intelligenz mehr und mehr Prozesse bei der Kontrolle der Ausgaben der Unternehmen optimieren können. Die Fehlerrate im Business Spend Management sinkt stetig und nachhaltig, Bearbeitungszeiten verkürzen sich automatisch. KI-Systeme werden mit steigender Erfahrung immer mehr Wissenslücken schließen, doch werden wir nie an einen Punkt kommen, an dem die Maschine alle Aufgaben erledigt.
KI ist keine Magie, aber sie kann herkömmliche Prozesse massiv beschleunigen. Doch sollte man den Aufwand nicht unterschätzen, der insbesondere zu Beginn eines KI-Projekts notwendig ist: Bei Coupa haben wir sieben Jahre gebraucht, um unsere Maschine zu trainieren. Sechs weitere Jahre waren notwendig, um genügend Daten zusammenzutragen. Doch jetzt kann das KI-System, dank Machine Learing und Deep Learning, Ausgabedaten nahezu komplett ohne menschliche Unterstützung normalisieren und kategorisieren.
Künstliche Intelligenz im Business Spend Management lohnt sich. Selbst wenn die Datenbasis noch weiterwachsen muss: Solange die Maschine Regeln bekommt und mithilfe von Feedback lernen kann, werden sich die Ausgabenprozesse bereits innerhalb eines Jahres dramatisch verbessern.

Warum die Förderung von Windkraft überdacht werden muss

Meinung: Gastbeitrag von Dr. Karl Tack, Vorsitzender der Kommission Energiepolitik des Wirtschaftsverbandes „DIE FAMILIENUNTERNEHMER“.

Wer sich für grünen Strom entscheidet, hegt oft folgenden Gedanken: Erneuerbare Energien und ihr Ausbau sind ein wichtiger Baustein für die Energiewende. Doch erstens kann diese Aussage per se bezweifelt werden und zweitens steckt hinter der Förderung der Erneuerbaren ein ganzes Konstrukt an kritikwürdigen Regelungen. Die Windkraft wird aus dem Topf der EEG-Umlage überfördert, die Strompreise bleiben auch wegen der Abgaben hoch. Dies zuzulassen ist, auch mit Hinblick auf die steigende Energiearmut in Deutschland, schlicht nicht vertretbar. Zumal die Branche nach wie vor keinen Beitrag zur Systemstabilität leistet, denn Speicher für überschüssigen Strom sind noch nicht in Sicht.

Förderung trotz Marktreife

Durch die EEG-Umlage erhalten erneuerbare Energien jährlich mehrere Milliarden Euro an Einspeisevergütung. Allein im Jahr 2016 sind laut BMWi über 24 Milliarden Euro an die Betreiber ausgeschüttet worden, für das Jahr 2018 prognostiziert das Ministerium knapp 28 Milliarden Euro1. Die Leidtragenden sind die Verbraucher und insbesondere die industriell geprägten Familienunternehmen, die dieses System über ihre Stromrechnung finanzieren. Was als Starthilfe gedacht war, verkommt heute zu einer Kostenfalle für die, die den Strom beziehen. Allein Privathaushalte zahlen ungefähr 36 Prozent des Jahresbeitrags der festen Vergütung pro Kilowattstunde an eingespeistem Strom2. Diese Vergütung existiert seit dem Jahr 2000. Windkraftanlagen mit Inbetriebnahmezeitpunkt bis Ende 2016 – und über eine Übergangsregelung im EEG 2017 sogar bis Ende 2018 – erhalten sie 20 Jahre lang über ein zweistufiges Modell. In den ersten fünf Betriebsjahren wird der Strom mit einem sogenannten Anfangswert vergütet. Ab dem sechsten hingegen erfolgt die Auszahlung über einen geringeren Grundwert, der für jede erzeugte Kilowattstunde fällig wird. Tatsache ist jedoch, dass der höhere Anfangswert unter bestimmten Voraussetzungen auch über die ersten fünf Jahre hinaus gewährt werden kann. Als Parameter dafür dient der Ertrag der Anlage in den ersten fünf Betriebsjahren. Die tatsächlich produzierte Strommenge wird dazu mit einem Referenzwert verglichen. Anhand dieser Werte wird für die Windkraftanlage die Vergütung für die nächsten 15 Jahre ermittelt. Dabei gilt: Je weiter die tatsächlich produzierte Strommenge unter dem Referenzertrag liegt, desto länger erhält die geprüfte Anlage den Anfangswert der Förderung. Und ist diese Verlängerung erst einmal gewährt, findet in der folgenden Zeitspanne keine weitere Prüfung statt. Damit fallen für bis zu 15 Jahre weitere Kosten an, die unterm Strich vom Verbraucher getragen werden. Selbst mit der Einführung des EEG 2017 reagierte der Gesetzgeber auf diesen Missstand nur halbherzig. Für alle bis 2018 errichteten Anlagen, die nicht am Ausschreibungssystem teilnehmen, wird der Standortertrag spätestens nach 10 Jahren Betrieb noch einmal mit dem Referenzertrag abgeglichen und die Vergütung gegebenenfalls auf den Grundwert reduziert. Danach erfolgt keine Überprüfung mehr.

Dr. Karl Tack ist Vorsitzender der Kommission Energiepolitik des Verbandes DIE FAMILIENUNTERNEHMER.

Dr. Karl Tack ist Vorsitzender der Kommission Energiepolitik des Verbandes DIE
FAMILIENUNTERNEHMER.

Dabei war die erhöhte Vergütung ursprünglich als Ausnahmefall gedacht, bereits 2014
bezogen sie aber fast 60 Prozent aller Windkraftanlagen über die gesamte Förderdauer3. 94 Prozent der Anlagen wurde eine Verlängerung der erhöhten Anfangsvergütung gewährt. Das schließt Windparks sowohl in windarmen wie in windreichen Regionen ein. Jüngste Beispiele aus den Ausschreibungsrunden im Jahr 2017 zeigen jedoch, dass der Betrieb von Windkraftanlagen auch ohne Subventionen auskommt. Das sind nicht die einzigen Punkte, die nachdenklich stimmen sollten. Wie sieht es zum Beispiel mit der Entwicklung von Stromspeichern aus?

Wohin mit überschüssiger Energie?

Erneuerbare Energien sind stark vom Wetter abhängig, was bis dato das Problem einer schlechten Planbarkeit mit sich bringt. Produziert ein Windpark an manchen Tagen kaum Strom, ist es an windreichen so viel, dass mehr Energie generiert wird als benötigt. Ideal wäre es, diesen Überschuss zu speichern. Fakt ist jedoch: Die produzierte Menge an Strom in privaten Haushalten ist in ihrer überschaubaren Menge speicherbar, für größere Dimensionen gilt das dagegen noch nicht. Diesbezüglich informierte der BINE Informationsdienst des Leibniz-Instituts für Informationsstruktur bereits im Jahr 2013 über damalige Untersuchungen eines interdisziplinären Forscherteams zu Möglichkeiten der Zwischenspeicherung4. Die Liste möglicher Methoden für den industriellen Gebrauch ist lang: So sind Pumpspeicherkraftwerke theoretisch in der Lage, Wasser in stromreichen Zeiten in
höher gelegene Becken zu pumpen und später über Generatoren wieder hinunterfließen zu lassen. Druckluftspeicher, die mit überschüssiger Energie Luft komprimieren und sie im Bedarfsfall wieder abgeben, sind eine weitere Alternative. Als bisher vielversprechendstes Projekt gilt das Redox-Flow-Modell, bei dem mit Polymeren gesättigtes Salzwasser Energie aufnimmt und wieder abgeben kann wie bei einer Batterie. Ebenfalls im Forschungsstadium befinden sich sogenannte Power-to-X-Technologien.

Noch keine Lösung in Sicht

Ein Mangel an Möglichkeiten zur Speicherung herrscht offensichtlich nicht. Passiert ist in den letzten Jahren trotzdem wenig. Obwohl Windkraft hoch subventioniert und jedes Jahr mit Milliarden Euro an Einspeisevergütung gefördert wird, gibt es bis heute keinerlei Anreize, überschüssige Energie zu speichern und diese somit am Markt zu verkaufen. In einigen Bundesländern verpufft sogar bis zu 20 Prozent der über Windkraftanlagen gewonnenen Energie, wenn es zu stark weht5. Um einer Überlastung der Netze zuvorzukommen, schalten die Betreiber in diesen Fällen die Windräder ab oder stellen sie gegen die Windrichtung, sodass sie sich nicht mehr drehen können. Eine Förderung erfolgt dennoch. Hinzu kommt, dass die gesicherte Leistung deutscher Windparks nach Meinung von Experten nicht mehr als 1 Prozent beträgt, sodass immer noch ein fossiler Kraftwerkspark als Back-up notwendig ist, der die gesamte Nachfrage decken kann6. Die Branche hat die Marktreife bereits erreicht, streicht trotzdem Fördergelder ein und treibt die Entwicklung von Energiespeichern nur sehr langsam voran. Es stellt sich die Frage: Wie kann das sein?

Model überdenken

DIE FAMILIENUNTERNEHMER sind der Meinung, dass Windkraftanlagen nicht überfördert werden dürfen. Sie müssen nicht nur wirtschaftlich Strom produzieren und einspeisen, sondern auch ihren Beitrag zur Systemstabilisierung, zum Beispiel zur Haltung der Netzfrequenz und Netzspannung, leisten. Obwohl Windenergie diese Systemleistungen inzwischen bieten könnte, gibt es keinerlei Anreize für Anbieter, diese Leistungen auch tatsächlich zu liefern. Auch Kosten der Systemstabilisierung werden ihnen nicht angelastet, stattdessen werden sie zusätzlich gefördert. All das zahlen die Verbraucher. Der gesetzliche Rahmen muss endlich innovative Lösungen anreizen und vor allem deren Umsetzung fordern.
Die Windkraft ist für unsere Zukunft bedeutend. Deren Überförderung und üppige Renditen der Investoren zulasten der Verbraucher sind es keinesfalls.

Über den Autor:

Dr. Karl Tack ist Vorsitzender der Kommission Energiepolitik des Verbandes DIE FAMILIENUNTERNEHMER. In dieser Position macht er sich für eine marktwirtschaftliche und technologieoffene Energiepolitik stark, die auch tatsächlich den Klimaschutz im Fokus hat. Dr. Tack war bis vor Kurzem 28 Jahre lang geschäftsführender Gesellschafter der Gebrüder Rhodius GmbH & Co. KG, eines der größten mittelständischen Unternehmens der Eifel. Im Jahr 2017 wechselte er zugunsten seiner Kinder in den Beirat. Dem Verband der Familienunternehmer gehört er seit 1990 an. Im April 2013 wurde Dr. Karl Tack in das Präsidium des Verbandes DIE FAMILIENUNTERNEHMER – ASU gewählt. Darüber hinaus wurde er im April 2015 und Mai 2017 in den Bundesvorstand des
Verbandes berufen.

 

1 BMWi, EEG in Zahlen: Vergütungen, Differenzkosten und EEG-Umlage 2000 bis 2018.

2 Statista, Zu tragende Kosten aus dem EEG in Deutschland nach Verbrauchergruppen im Jahr 2017 (in Milliarden Euro): https://de.statista.com/statistik/daten/studie/260551/umfrage/kostenanteile-aus-dem-eeg-in-deutschland-nach-verbrauchergruppen/

3 Leipziger Institut für Energie, Marktanalyse – Windenergie an im Auftrag des BMWi.

4 http://www.bine.info/publikationen/publikation/windenergie-unter-tage-speichern/

5 http://www.love-green.de/themen/energie/ueberschuessige-windkraft-nutzen-id7921.html

6 Linnemann, Thomas u. Vallana, Guido S. „Windenergie in Deutschland und Europa. Status quo, Potenziale und Herausforderungen in der Grundversorgung mit Elektrizität. Teil 1: Entwicklungen in Deutschland seit dem Jahr 2010.“ Essen 2017, Seite 70.

Vernetzte Gesundheit

Mittlerweile sind in nahezu allen Branchen die IT-Systeme immer smarter geworden. Der Gesundheitssektor bildet hier keine Ausnahme. Hier hat sich die Digitalisierung bereits einen festen Platz gesichert.

Rund 80 Prozent aller Internet-Nutzer erkundigen sich mittlerweile online über Gesundheitsthemen – das führt dazu, dass ein Fünftel aller Google-Suchanfragen in diesen Bereich fällt. Die Hälfte aller US-amerikanischen Ärzte nutzen Wikipedia für ihre Recherchen. Bis Ende 2017 werden weltweit 1,7 Milliarden Menschen Gesundheits-Apps auf ihren Smartphone nutzen. Doch auch in der Gesundheitsinfrastruktur ist ein Ansteigen der IT-Nutzung bemerkbar. Von 2013 bis 2018 wird sich die Anzahl der Patienten, die über das Netz behandelt werden verzwanzigfachen.

Dies wird von der unterschiedlichen Grundhaltung, die die jeweiligen Generationen haben, begünstigt. Sind ältere Patienten noch der Meinung, mit einem Gang zum Arzt die nötigen Schritte eingeleitet zu haben, sehen das jüngere anders. Diese sind oft im Netz aktiver nach der Lösung ihres gesundheitlichen Problems, denken vernetzter und fragen öfter nach einer zweiten medizinischen Meinung.

Steigendes Datenaufkommen

Dies generiert immer mehr medizinische und administrative Daten, die vernünftig verwaltet werden müssen. Hierzu fallen neben den Patientenstammdaten wie Adresse, Versicherungsstand oder grundlegende Informationen über die Krankheitshistorie auch laufende Vitaldaten an. Letztere sind es, die zu einer erheblichen Vermehrung der erhobenen Daten führen.

Die IT im Medizinsektor kann dabei sehr weitreichend genutzt werden. Die Nutzung von Collaboration-Plattformen sorgt für eine verbesserte Zusammenarbeit, nicht nur für die direkte Datenübermittlung zwischen Ärzten, Krankenhäusern und medizinischen Dienstleistern sondern auch der Austausch von Informationen in Fachforen und gemeinsame Forschungsarbeit. Dazu kommt der Einsatz von Netzwerken mit der Anbindung dezentraler, medizinfremder Ressourcen. Informationen aus einem Umfeld können so ohne Umwege in die Planung der Behandlung des Patienten einfließen. Ein gutes Beispiel dafür ist die Verwendung von Informationen, die im Rahmen des Smart Homes anfallen. Über im Haus des Patienten verbaute Sensoren können Ärzte und Pflegedienst zeitgenau auf die gegenwärtige Situation reagieren und auch zukünftige Pläne an die aktuelle Entwicklung anpassen. Neben dem Smart Home eignen sich auch Armbänder, die laufend Vitaldaten erheben für ein möglichst aktuelles Bild der Krankheitsentwicklung des Patienten. Die von Sensoren erhobenen Daten werden mit denen gesammelt, die bei Untersuchungen anfallen.

Strukturierung der Daten erforderlich

Alles zusammen ergibt einen Satz von Informationen über jeden einzelnen Patienten. Um aus jeder individuellen Krankengeschichte für die zukünftige Behandlung eines bestimmten Krankheitsbildes Schlüsse ziehen zu können, müssen die einzelnen Datensätze anonymisiert zusammengebracht werden, um Krankheitsmuster oder Fortschritte bei Behandlungen frühzeitig erkennen zu können. Auf herkömmlichem Weg ist dies nicht möglich, da die schiere Datenmenge jede manuelle oder halbautomatische Auswertung erschwert.

Lösungsansatz Big Data

Mit dem Einsatz von Big Data in der Medizin ist dies nun möglich. War der bisherige Ansatz eher reaktiv – der Patient kommt in die Behandlung und erst dort kann sich das medizinische Personal schrittweise der Lösung annähern – können mit der Verarbeitung von Informationen einer großen Gruppe Patienten Schlüsse gezogen werden, die eine stärkere Vorsorge ermöglicht. Alle anfallenden Datentypen, also strukturierte, halbstrukturierte und unstrukturierte, können für die Behandlung eines Patienten herangezogen werden. Hier wird eine Analyse in Echtzeit möglich, wo nach altem Muster erst Monate bis zur Auswertung vergingen. Zu einer umfassenden Betrachtung werden sämtliche relevanten Daten verwahrt, um auch in zukünftigen Fällen entweder des Patienten selbst oder ähnlich gelagerten Fällen Rückschlüsse ziehen zu können.

Bei Wahrung der Anonymität der einzelnen Patienten können diese Daten auch an Forschungsinstitutionen übermittelt werden, die diese zur Entwicklung von Medikamenten und Heilmethoden benötigen, einschließlich der Verbesserung des Gesundheitsmanagements in der Bevölkerung. Somit kann die Schaffung neuer Therapiemethoden erheblich beschleunigt werden.

Unterschiedliche Datenquellen

Die Daten können dabei aus den verschiedensten Quellen stammen. Strukturiert fallen sie bei Laboruntersuchungen, Unterlagen der Krankenkassen oder Patientenprofilen bei Ärzten und Krankenhäusern an. Teilweise strukturiert entstehen sie aus dem Schriftverkehr oder Patientenabrechnungen und unstrukturiert kommen die Informationen aus Sensoren, die Patienten an sich tragen oder mit denen sie untersucht worden sind.

Eine Big-Data-Lösung muss nun mit allen diesen Datenarten zurechtkommen. Dies bedeutet einen Paradigmenwechsel in der Art und Weise, wie der Einsatz von IT-Systemen im medizinischen Sektor vorgenommen wird. Denn schließlich wird das Datenvolumen auch in Zukunft immer weiter zunehmen.

Alle Beiträge von Christopher Rummel anzeigen

Über den Autoren

Christopher Rummel ist als Regional VP Sales für Hortonworks tätig und ist unter anderem für die Geschäftsentwicklung des Unternehmens im deutschsprachigen Raum verantwortlich. Vorher bekleidete er ähnliche Positionen bei Unternehmen wie bei EMC oder der Parametric Technology Corporation in Tokio.

Guidewire Versicherungsforum Köln 2018

Vom Gejagten zum Jäger: wie Versicherer die Herausforderungen der Digitalisierung zu ihrem Vorteil nutzen können.

Sie sind herzlich eingeladen zum Guidewire Versicherungsforum in Köln!

Aufgrund der sehr guten Resonanz für die Konferenz in 2017 veranstalten wir am 15. März 2018 unser zweites deutsches Versicherungsforum in Köln.
Die Konferenz bietet wieder Einblicke aus der Praxis von unseren Kunden aus der deutschsprachigen Region und Europa – wie setzen Versicherer Guidewire Software ein und wie geht es mit der Digitalisierung in den Unternehmen voran?
Wie spielen digitale Lösungen, Data & Analytics und Kernsysteme zusammen um echte digitale und smarte Prozesse und Nutzererfahrungen zu erzeugen?
Welche Herausforderungen ergeben sich durch den digitalen und kulturellen Wandel in den Unternehmen – können große Unternehmen agil werden?
Reservieren Sie sich Ihren Platz auf der Konferenz – melden Sie sich jetzt an!
https://success.guidewire.com/Guidewire_Versicherungsforum_Koeln_2018.htmlWo:
Frühlounge, Früh am Dom, Am Hof 12-18, 50667 Köln – in Google maps

Die Event Webseite finden Sie hier.

AGENDA

für Donnerstag, den 15. März 2017
 
10.00 – 10.15 Empfang mit Kaffee
10.15 – 10.45 Begrüßung und Keynote ‚Vom Gejagten zum Jäger: wie Versicherer die Herausforderungen der Digitalisierung zu ihrem Vorteil nutzen können‘ Niels Zijderveld, Guidewire
10.45 – 11.15 Smart Core, Predictive Analytics, CYENCE – wie Guidewire Produkte die Entwicklung der globalen Versicherungsbranche spiegeln und innovieren René Schoenauer, Guidewire
11.15 – 11.45 Von Angebot zum Vertrag in 60 Sekunden – digitale Kundenkommunikation bei der Basler Schweiz
Philippe Boog, Basler Schweiz
11.45 – 12.15 From chasing the market to leading the race – Warta’s story of claims handling revolution
Rafal Stankiewicz, Warta, Polen
12.15 – 13.30 Lunch
13.30 – 14.00 Smart Core in der Praxis – Demo
Alexander Gnodtke, Guidewire
14.00 – 14.30 FRIDAY – der Aufbau eines Digitalen Versicherers mit der weltweit schnellsten Implementierung der Guidewire InsuranceSuite Silvan Saxer, FRIDAY
14.30 – 15.00 Digitale Interaktion und Cloud Computing – wohin geht die Reise bei Guidewire? Oliver Winkenbach, Guidewire
15.00 – 15.30 Kaffeepause
15.30 – 16.00 Warum ein Proof of Concept? Erste Erfahrungen mit der Implementierung der Guidewire InsuranceSuite Wolfgang Pander, Basler Deutschland
16.00 – 16.30 Erfahrungen im agilen Projekt- und Betriebssetup anhand von „Allegro“ bei der Zurich Schweiz
Michael Maise, Zurich Schweiz
16.30 – 17.00
Wie werden große Unternehmen agil? Inspiration und Erfahrungen aus der Praxis.
Ulf Brandes, Brandes & Partners
17.00 – 17.15 Zusammenfassung Niels Zijderveld, Guidewire
ab 17.15 Get-together mit Drinks und Snacks

CPQ-Lösungen im B2B-Bereich

München, 5. März 2018 – FPX, der größte unabhängige Softwarehersteller, der sich ausschließlich auf CPQ-Lösungen im B2B-Bereich konzentriert, gibt die Partnerschaft mit Zilliant, einer führenden KI-gesteuerten SaaS-Plattform zur Optimierung des Lifetime Value von B2B-Kundenbeziehungen, bekannt. Durch den kombinierten Einsatz von Zilliant Price IQ und der CPQ-Lösung von FPX werden die organisatorischen Prozesse verbessert und es können präzise und konsistente Preisangebote für Online-Käufer erstellt werden.

B2B-Unternehmen, die FPX und Zilliant nutzen, können die Handelsgewinne über alle Vertriebskanäle hinweg durch eine genauere und konsistentere Preisgestaltung steigern. Durch die Optimierung komplexer Angebote und Prozesse wird zudem die End-to-End-User-Experience erheblich verbessert und die Kundenbindung erhöht.

Die vollständige Pressemitteilung in englischer Sprache:

FPX Partners with Zilliant to Maximize Customer Lifetime Value Across B2B Organizations

Partnership will integrate Zilliant Price IQ technology with FPX CPQ architecture for enhanced pricing capabilities for every situation and customer

Dallas, Texas – February 21, 2018 – FPX, a global leader in enterprise Configure Price Quote (CPQ) solutions, has partnered with Zilliant, a leading AI-driven SaaS platform for maximizing the lifetime value of B2B customer relationships. When combined, Zilliant Price IQ™ and FPX’s CPQ solution will improve organizational ability to efficiently provide accurate, consistent price quotes for online buyers.

As B2B commerce continues to evolve, traditional pricing solutions are failing to meet the needs of today’s business buyers. Only 15 percent (https://robertkugel.ventanaresearch.com/b2b-price-and-revenue-optimization-goes-mainstream-1) of current B2B organizations use analytics for price optimization, yet, according to the Professional Pricing Society, 95 percent of pricing professionals report a need for pricing software.

The integration of both FPX’s and Zilliant’s AI-driven platforms will empower businesses to optimize pricing based on each business buyer’s unique situation and needs. The solution delivers accurate quotes in shorter time frames, assisting sellers with real-time approvals and intelligent thresholds. Market-value and cost-aligned prices ensure business objectives are tied into customer expectations. The solution also improves the confidence of sales teams with personalized pricing guidance based on deep customer profile data.

„Pricing has been one of the most consistent challenges for B2B organizations looking to improve their digital sales channel, and our partnership with Zilliant arms these companies with the tools they need to streamline pricing for even the most complex products,” said Dave Batt, CEO at FPX. „As B2B buyer expectations continue to grow, we’re partnering with Zilliant to help our customers meet their digital transformation needs and provide the best possible experience for buyers.”

FPX and Zilliant’s combined capabilities allow B2B companies to increase deal profits across channels through more accurate and consistent pricing. By streamlining complex quotes and processes, FPX and Zilliant vastly improve the end-to-end user experience, increasing customer loyalty and boosting businesses’ bottom line.

„We’re excited to work together with FPX to enhance the commerce experience for our B2B customers,” said Zilliant Partner Network Vice President Joe Leyva. „We’re at the beginning of a huge shift in the way B2B commerce is conducted, and CPQ solutions will play a critical role in that transformation.”

Diese Cyber-Bedrohungen erwarten uns 2018

Gastbeitrag von Werner Thalmeier, Director Sales Engineering EMEA, Proofpoint

 

Nicht zuletzt durch die großen Cyberangriffe WannaCry und NotPetya im Jahr 2017 wurde das Thema Cybersicherheit in den Fokus des öffentlichen Interesses gerückt. Damals wurden bei den Attacken Sicherheitslücken im Windows-Betriebssystem ausgenutzt, für die Microsoft zuvor bereits einen Patch bereitgestellt hatte.

Jedoch hatten viele Anwender und Systemadministratoren in Unternehmen diesen Patch schlichtweg nicht (früh genug) eingespielt, was damals Cyberkriminellen Tür und Tor öffnete. Durch die Ausnutzung dieser Schwachstelle wurden daraufhin hunderttausende Computersysteme, vor allem in Unternehmen, mit einer (im Falle NotPetyas vorgeblichen) Ransomware infiziert.

Ransomware verschlüsselt wichtige Dateien und mitunter ganze Datenträger bzw. Systempartitionen ihrer Opfer, ohne dass diese von dem Prozess etwas bemerken würden. Erst wenn die Verschlüsselung abgeschlossen und eine Lösegeldforderung auf dem Bildschirm des Betroffenen erscheint, wird diesen bewusst, dass sie Opfer einer Cyberattacke geworden sind.

Doch dann ist es bereits zu spät. Ohne die Bezahlung des Lösegeldes an die Cyberkriminellen ist es oftmals unmöglich die verschlüsselten Daten wiederherzustellen. Doch auch eine Zahlung birgt Risiken, da – wie bei NotPetya – nicht sichergestellt ist, dass eine Entschlüsselung der betroffenen Daten bzw. Laufwerke überhaupt möglich ist.

Im Falle der beiden großen Cyberattacken im letzten Jahr reichte es häufig aus, dass ein ungepatchter Computer im Unternehmensnetzwerk vorhanden war, über den die Ransomware durch die Ausnutzung der Windows-Schwachstelle eine Art Brückenkopf in das Firmennetz hatte.

Dadurch wurden ganze Unternehmen tagelang lahmgelegt. Zu den bekanntesten Opfern der Attacken zählen der Konsumgüterkonzern Beiersdorf sowie die Reederei Maersk. Neben einem großen Medieninteresse und finanziellen Schäden von Unternehmen, die in die Milliarden reichen dürften, hatten die Cyberangriffe noch eine weitere Folge – eine breite Öffentlichkeit wurde darauf aufmerksam, dass das Thema Cybersicherheit in unserer immer vernetzteren Welt nicht mehr länger allzu stiefmütterlich behandelt werden dürfe.

Bedrohungen durch Schadsoftware nimmt weiter zu

Auch in diesem Jahr ist mit einem deutlichen Anwachsen der Verbreitung von Schadsoftware zu rechnen. In diesem Zusammenhang wird vornehmlich das von Unternehmen meistgenutzte Kommunikationsmittel, die E-Mail, als Verbreitungstechnologie von Malware (Ransomware, Trojaner) genutzt werden. Darüber ist eine schnelle Verbreitung von Malware innerhalb ganzer Netzwerke zu erwarten, die durch die Ausnutzung von bislang unbekannten Schwachstellen (Zero Day Exploits) begünstigt wird.

Dieses Aufdecken immer neuer Sicherheitslücken in immer kürzeren Abständen ist vor allem darauf zurückzuführen, dass immer mehr Menschen über das notwendige Know-how verfügen, derartige Lücken aufzuspüren – sei es aufgrund ihrer Profession oder Ihres privaten (zumal auch kriminellen) Interesses.

 

Erweiterte Trickkiste der Cyberkriminellen

Im Vergleich zu den letztjährigen Ransomware-Attacken kann man zudem davon ausgehen, dass Cyberkriminelle ihr Angriffsportfolio in diesem Jahr um einige Werkzeuge erweitern. Vor allem der Einsatz so genannter Coinminer, also Schadsoftware, die infizierte Rechner zum Schürfen von Krypto-Geld missbraucht, aber auch Banking-Trojaner und spezielle Phishing-Software nehmen in diesem Zusammenhang eine vorrangige Rolle ein, da sich Online-Kriminelle davon einen gesteigerten Profit erwarten.

Aber auch in Zukunft bleibt zu erwarten, dass Malware, die lediglich darauf abzielt ganze Unternehmen lahmzulegen zum Einsatz kommt. In all diesen Fällen kann man jedoch davon ausgehen, dass Angreifer zunehmend den Menschen als Einfallstor für ihre Attacken missbrauchen. Dieser Trend, der bereits in den letzten Jahren zu beobachten war, basiert auf der Erkenntnis vieler Cyberkrimineller, dass Menschen als Schwachstelle oftmals leichter auszunutzen sind, als umfangreiche Hürden in der IT-Sicherheit zu umgehen.

 

Tendenz zu direkter Monetarisierung

Ein weiterer Trend, der in den letzten drei Jahren festzustellen war, ist die Tendenz hin zu schnellerer Monetarisierung. Das bedeutet, dass egal welche Angriffsart man unter die Lupe nimmt (Diebstahl von Kredit- bzw. Bankdaten, Bankingtrojaner, Ransomware) die zu unternehmenden Schritte für Cyberkiminelle zwischen Infektion und Monetarisierung zusehends abnehmen. Die Folgen dieser Entwicklung sind ein reduziertes Entdeckungsrisiko für die Kriminellen bei gleichzeitiger Zunahme der Profite.

Vor allem die bereits erwähnten Coinminer sind dafür ein geradezu perfektes Beispiel. Sobald ein Computer mit einer derartigen Schadsoftware infiziert ist, generiert er für die Cyberkriminellen Krypto-Geld wie Bitcoin oder Monero. Da solche Krypto-Währungen keiner staatlichen Kontrolle einer Notenbank unterliegen, sind die generierten Gewinne für Justizbehörden im Regelfall nicht greifbar und führen folglich auch nicht zu Beschlagnahmungen.

Neben einer reduzierten Rechenleistung (von CPU und GPU) die dem eigentlichen Anwender dann zur Verfügung stehen, resultiert ein Schaden für die Opfer vor allem aus der höheren Leistungsaufnahme von Grafik- und Hauptprozessor, wodurch die Stromkosten in die Höhe schnellen. Selbst bei effizienten und für das Krypto-Mining optimierten Systemen fressen die Energiekosten bereits 50% der Gewinne.

 

Dies erwartet uns außerdem

Eine weitere bedeutende Entwicklung zeichnet sich bei den so genannten Social Media Bots ab. Neben ihrem Einsatz zur Beeinflussung der öffentlichen Wahrnehmung in sozialen Medien ist absehbar, dass sich Cyberkriminelle diese zunehmend zunutze machen, um mit ihrer Hilfe Einnahmen zu generieren. Vor allem die Verteilung von Malware, Links zu infizierten Webseiten und Phishing erscheinen in diesem Zusammenhang als für Cyberkriminelle interessante Einsatzmöglichkeiten.

Darüber hinaus lassen Beobachtungen den Schluss zu, dass soziale Medien auch weiterhin eine beliebte Verbreitungsmöglichkeit für fremdes geistiges Eigentum darstellen. Schon seit dem Jahresbeginn 2017 ließ sich ein Anstieg um 20 Prozent für diese Zwecke feststellen. Kriminelle nutzen raubkopierte Inhalte hauptsächlich auf Social-Media-Plattformen, um Nutzer auf die von ihnen gewünschte Webseite zu locken. Oftmals lauern dort dann Phishing-Malware oder Coinminer auf die ahnungslosen Nutzer.

Speziell für die Verwendung von Coinminern sind Streaming-Seiten besonders gut geeignet, da zum Streaming ein steter Datenfluss vonnöten ist und sich Nutzer sehr lange auf diesen Webseiten aufhalten. Das reduziert wiederum das Risiko, dass der Nutzer das illegale Mining auf seinem Rechner bemerkt und steigert durch die lange Verweildauer die Profite der Kriminellen.

Auch die Verwendung von ähnlich klingenden Domainnamen beziehungsweise die missbräuchliche Nutzung von Firmennamen bekannter Marken im Social-Media- und Online-Umfeld ist ein wachsendes Phänomen. Schon heute ist ein Anstieg um rund 20 Prozent bei verdächtigen Domainregistrierungen im Vergleich zum Vorjahreszeitraum zu verzeichnen.

 

 

Resümee

Für Unternehmen und auch Endnutzer wird Cybersicherheit im Jahr 2018 mehr denn je von hoher Bedeutung sein. Immer perfidere Angriffsmethoden und technische Werkzeuge erfordern von allen Nutzern aber auch den Anbietern von IT-Sicherheitsprodukten ein gesteigertes Maß an Wachsamkeit. Denn nur wenn der Mensch als Benutzer mit den möglichen Angriffsszenarien und den ihn schützenden Sicherheitstechnologien vertraut ist und diese optimal einsetzt, kann ein effektiver Schutz der IT gewährleistet werden.
IT-Sicherheit bedarf immer dem Zusammenspiel verschiedener Elemente innerhalb der Sicherheitsarchitektur, speziell wenn es dabei um den Schutz von Unternehmen geht.

 

Unser Autor:

Werner Thalmeier, Director Sales Engineering EMEA, Proofpoint

 

Über Proofpoint, Inc.

Proofpoint Inc. (NASDAQ: PFPT) ist ein führender Next-Generation-Sicherheits- und Compliance-Anbieter, der Cloud-basierte Lösungen für einen umfangreichen Schutz vor Bedrohungen und Incident Response vertreibt und damit sichere Kommunikation, Social-Media- und Mobile Computing-Sicherheit sowie Compliance, Archivverwaltung und Governance gewährleistet.

Weiterführende Informationen finden Sie unter:

https://www.proofpoint.com/de/

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CCO Creative Commons

Smarte Daten in smarten Städten

Staus, verstopfte Straßen, Engpässe in Ver- und Entsorgung stellen moderne Städte vor immer größere Herausforderungen. Doch wie sollten die Städte darauf reagieren? Häufig sehen Verantwortliche in der Digitalisierung nicht nur die Abhilfe bisheriger Probleme, sondern auch einen Motor für die zukünftige Entwicklung. Innerhalb eines Smart-City-Konzeptes werden die Aufgaben der Kommune Schritt für Schritt in eine vollautomatische IT-Umgebung überführt.

 

Rascher unterwegs

Der Bereich Verkehr, in dem die Digitalisierung voranschreitet, dürfte einer der am meisten sichtbarsten sein. Zunächst fallen Verkehrsleitsysteme und die Parkraumbewirtschaftung ins Auge. Um die Verkehrsströme effizient leiten zu können – und somit Staus und die daraus resultierende Umweltbelastung durch unnötig anfallende Abgase zu vermindern – müssen viele einzelne Daten an Messstationen und Sensoren erfasst werden. Diese in großer Menge anfallenden Daten sind meist normiert und die einzelnen Datensätze recht klein. Dasselbe gilt für die Parkraumbewirtschaftung, in denen Sensoren den Belegt/Unbelegt-Status eines Parkplatzes abfragen und an die zentralen Server der Kommune zurückmelden. Letzteres wird bereits bei vielen Parkhäusern praktiziert. Nun sind diese Daten für sich alleine stehend nicht besonders aussagekräftig. Erst in der Gesamtanalyse ergibt sich das ganze Bild. Dafür stehen Big-Data-Systeme zur Verfügung, die diese großen Mengen an Informationen in Echtzeit verarbeiten und passend für eine Analyse aufbereiten, denn je älter die Information ist, umso weniger hilft sie, Verkehrsströme aktuell zu lenken.

Doch auch im Individualverkehr profitieren die Bürger. So können smarte Navigationssysteme ihre Daten sofort an eine Verkehrsleitstelle übermitteln. Diese informiert in Echtzeit über Unfälle, Staus oder Einsätze der Rettungskräfte, da Sensoren die Straßen permanent erfassen.

Flottenmanagement der Zukunft

Mit zum Bereich Verkehr gehört die Verwaltung des städtischen Flottenparks. Ob Feuerwehr, kommunale Kranken- und Sicherheitsdienste oder lediglich die gewöhnlichen Dienstwagen der städtischen Angestellten – die Übersicht über den Status über jedes einzelne Einsatzfahrzeug schont das Budget des öffentlichen Sektors. Doch auch andere Datenquellen fließen in die Stadtplanung mit ein. Der Energiesektor mit seinen intelligenten Stromzählern wäre ein weiteres Beispiel. Hier können die Verbrauchswerte von kommunalen Körperschaften als auch die der Betriebe und Privathaushalte ausgelesen werden, um eine bessere Ressourcenplanung sicherzustellen. Ein Schnittpunkt zum Bereich Verkehr ist beispielsweise die neu aufkommende elektrische Mobilität. Um diese attraktiv zu gestalten, sollten Ladestationen über die Stadt verteilt angeboten werden. Um nun die passende Menge an Energie sofort bei Bedarf bereitstellen zu können, müssten die Daten aus der Verkehrserhebung, aus dem elektrisch angetriebenen Fahrzeug selbst und aus dem Stromnetz zu einem aussagefähigen Bild verknüpft werden können.

Diese zwei Felder illustrieren, wie eine Smart City in Zukunft aussehen könnte. Da die Datenerfassung dezentral über verteilte Sensoren verläuft, kommt hier Internet of Things (IoT) zum Tragen. Diese extrem granulare Infrastruktur erfordert auf Seite der kommunalen Rechenzentren eine völlig neue Herangehensweise.

Lösungsansätze?

Ein klassisches Enterprise-Ressource-Planning-System (ERP), das vermutlich bis in jüngster Zeit die erste Wahl gewesen wäre, reicht nun nicht mehr aus. Dieses ist nicht in der Lage, eine extrem hohe Anzahl und Dichte von Informationen in Echtzeit aufzunehmen und zu verarbeiten. Auch bei Daten mit extrem unterschiedlicher Struktur kommt es rasch an seine Grenzen. Auch für eine Analyse ist es – aufgrund seiner grundlegenden Konzeption als Planungssystem für Unternehmensressourcen – nicht geeignet. Ein weiteres Problem könnte die Sicherheit der erhobenen Daten und ihrer Ergebnisse ein. Falls jede Körperschaft einer Kommune in ihren eigenen Datensilos arbeitet, führt das außerdem zu Mehrkosten, da die Daten redundant verarbeitet werden. Nicht zuletzt führt eine IT-Landschaft, in der die verschiedenen Informationen nicht zusammengefügt werden können, zu einer Inflexibilität in der die Systeme nicht mehr skaliert werden können.

Ohne Plattform geht es nicht

Zukünftig geht bei Smart City kein Weg an Big Data vorbei. Die Daten verschiedener Sensoren als auch anderer Quellen wie etwa der Dokumentation in den jeweiligen Ämtern werden gesammelt, zusammengefügt, korreliert und in Echtzeit verarbeitet – wie im Beispiel der Steuerung der Verkehrsströme im Falle eines Unfalls. Danach werden sie auf der Plattform des Big-Data-Systems gespeichert. Leistungsfähige Systeme verarbeiten ein Datenvolumen auf Petabyte-Ebene zu wesentlich geringeren Kosten als herkömmliche Lösungen. Die ihnen eigene Flexibilität kommt Big Data dabei zupass. Steigt die Datennachfrage, können zusätzliche Rechenknoten problemlos dem Server-Pool hinzugefügt werden. Neben der eigentlichen Datenerfassung und -verarbeitung ist auch die Implementierung von Sicherheitsmaßnahmen essentiell. Eine Sicherheitskomponente überprüft in Big-Data-Lösungen den Datenverkehr und warnt bei Sicherheitsrisiken beziehungsweise behebt das Problem in Echtzeit. Denn je mehr Städte und Gemeinden auf die Digitalisierung setzen, umso vitaler wird sowohl die effiziente Nutzung als auch der Schutz der Daten.

Alle Beiträge von Christopher Rummel anzeigen

Über den Autoren

Christopher Rummel ist als Regional VP Sales für Hortonworks tätig und ist unter anderem für die Geschäftsentwicklung des Unternehmens im deutschsprachigen Raum verantwortlich. Vorher bekleidete er ähnliche Positionen bei Unternehmen wie bei EMC oder der Parametric Technology Corporation in Tokio.

Auf Wachstumskurs mit Crowd-Factoring

Schweizer Startup Advanon führt Crowd-Factoring in Deutschland ein und bringt KMU so auf Wachstumskurs.

 

Pressemitteilung: Zürich/Berlin, 07. März 2018

 

Nach zwei erfolgreichen Jahren am Schweizer Markt expandiert das Startup Advanon nach Deutschland. Das Unternehmen hat mit Crowd-Factoring eine neue Kategorie der Vorfinanzierung geschaffen.

Auf der Online-Plattform können KMU ihre Rechnungen direkt hochladen und zum Verkauf anbieten, Privatleute unmittelbar investieren. Beide Seiten profitieren: KMU können sich auf ihr Wachstum konzentrieren und Investoren steht eine neue, attraktive Anlageklasse zur Verfügung.

Gerade im Mittelstand lässt sich eine steigende Nachfrage nach Factoring feststellen: 2017 lag das Umsatzvolumen fast 10 Prozent höher als im Vorjahr (1). Insgesamt belief sich der Umsatz der deutschen Factoringbranche 2016 auf knapp 217 Milliarden Euro.

Der Grund für die steigende Nachfrage ist einfach: Zeigen Kunden eine eher laxe Zahlungsmoral, gerät der Rechnungssteller in Stagnation und kann beispielsweise nötige Investitionen nicht tätigen. Diese Lücke schliesst Factoring, sorgt für Liquidität und optimiert den Cashflow.

 

Rechnung hochladen, Zinssatz festlegen und Liquidität erhalten

Phil Lojacono, CEO und Co-Founder von Advanon, kommentiert: „Kurzfristige Bankkredite haben jedoch grosse Nachteile: Es dauert lange, bis sie bewilligt werden, oft investieren Banken nur in grosse Summen und die Zinsen sind meist nicht gerade attraktiv.

Unsere Rechnungsfinanzierung funktioniert schnell, effizient und transparent, so dass sich KMU aufs Wesentliche konzentrieren können, statt sich mit Geldsorgen zu plagen.” Advanon hat das traditionelle Bankengeschäft ins 21. Jahrhundert gebracht und Crowd-Factoring erfunden.

 

Crowd-Factoring – direkt, unkompliziert, in Echtzeit

Beim Crowd-Factoring nutzen KMU die Online-Plattform von Advanon als Marktplatz, auf dem sie sich ihre offene Debitorenrechnungen von Investoren in Echtzeit finanzieren lassen können.

Advanon fungiert dabei als Vermittler zwischen den KMU und den Investoren. Bedingung ist, dass die Firma mindestens ein Jahr alt ist und die Rechnungen auf Unternehmen und nicht auf Privatpersonen ausgestellt sind. Beim Erstkontakt muss ein Bankauszug und die Bilanz des vergangenen Geschäftsjahres eingereicht werden. Nach der Registrierung erstellt Advanon ein Rating zur Kreditwürdigkeit und schon können die ersten Rechnungen hochgeladen werden.

Das Unternehmen gibt einen Zinssatz an, den es zu zahlen bereit ist und Investoren können direkt in die Finanzierung einsteigen. Beide Seiten profitieren von dieser neuen Form des Factoring: KMU erhalten die finanziellen Mittel, um weiter wachsen zu können, Investoren steht eine neue Anlageklasse zur Verfügung, mit dem sie ihr Portfolio streuen können.

 

Machine-Learning Meta-Suchmaschine Nectar als Geschäftsvorteil

Nach der Registrierung nimmt Advanon eine Prüfung vor und erstellt ein Rating. Danach kann das Unternehmen offene Rechnungen einfach über die Plattform hochladen und den Zinssatz festlegen, den es zu zahlen bereit ist. Wenn ein Investor den Zuschlag gegeben hat, wird das Geld in wenigen Stunden überwiesen.

Phil Lojacono, CEO und Co-Founder von Advanon

“Unser Rating ergibt sich unter anderem aus den Ergebnissen, die unsere eigenen Meta-Suchmaschine Nectar liefert”, erklärt Lojacono. “Nectar basiert auf Machine Learning-Technologien. Ein ganzes Team an Software-Entwicklern arbeitet an der Datenbank, die wir intern als ‘Bloomberg der KMU’ bezeichnen. Wir können damit beim Rating noch mehr Sicherheit garantieren.” Mit Nectar lassen sich sämtliche Daten von KMU in Deutschland und der Schweiz in Sekundenschnelle abrufen und auswerten.

Die vor zwei Jahren gegründete und mehrfach preisgekrönte Advanon wickelt in der Schweiz bereits das gesamte Online-Factoring-Volumen ab, welches die 50 Millionen-Grenze inzwischen überstiegen hat. Dass die Summe vor zwei Jahren noch unter einer Million Franken lag, zeigt, wie beliebt die Finanzierungsform geworden ist und dass Advanon mit Crowd-Factoring eine Marktlücke schliesst.

 

Unternehmenskultur als Asset

Innovativ ist nicht nur das Geschäftsmodell, sondern auch die Unternehmenskultur: Unlimitierte Urlaubstage, eine Rückerstattung von privaten Hotelaufenthalten und Flügen oder eine Weltreise zum Betriebsjubiläum sind nur einige der “AdvaPerks”, mit denen Advanon neue Standards setzt.

“Wir wollten von Anfang an ein modernes Unternehmen sein, bei dem der Output zählt und nicht die reine physische Anwesenheit”, sagt CEO Phil Lojacono. “Deshalb messen wir Ziele und nicht Stunden.” Dazu sollen Advanoners Leben und Beruf nicht balancieren müssen, sondern vereinbaren können.

“Bei uns gibt es jeden Morgen Frühstück, wir zelebrieren den Start ins Wochenende, jeder darf zwei Wochen im Quartal ‘remote’ arbeiten, also von überall auf der Welt aus, und bei Bedarf stellen wir einen Wäscheservice oder einen Steuerberater”, ergänzt Lojacono.

Die sogenannten AdvaPerks bestehen aus Leistungen für alle und individuellen Wahl-Angeboten wie Netflix und Spotify, eine Jahresmitgliedschaft im Fitnessstudio oder kostenlose Uber-Fahrten.
Ausserdem sind die Mitarbeiter an der Firma beteiligt: “So werden alle zu Unternehmern und jeder partizipiert direkt am Erfolg oder Misserfolg”, sagt Lojacono.

1) Pressemitteilung des “Bundesverband Factoring für den Mittelstand vom 15.2.2018 http://www.bundesverband-factoring.de/presse/pressemitteilungen/05052017/

Über Advanon

Advanon wurde 2015 von den drei ehemaligen Google-Praktikanten Phil Lojacono, Stijn Pieper und Philip Kornmann in Zürich gegründet. Advanon ist die führende Plattform zur Finanzierung von Debitorenrechnungen in der Schweiz. Sie verbindet KMU und Investoren direkt miteinander. KMU laden über das Portal ihre ausstehenden Rechnungen hoch und Investoren können die Rechnungen direkt finanzieren. Dadurch verhelfen die Investoren KMU zu einer vollständigen Ausschöpfung ihres Wachstumspotenzials und profitieren gleichzeitig von einer neuen, attraktiven Anlageklasse.

Seit dem Start der Plattform konnte das Start-up diverse strategische Partnerschaften mit bekannten Banken bekanntgeben. Zuletzt gab Advanon eine Kooperation mit AXA Winterthur bekannt. Nach einem erfolgreichen ersten Jahr schloss Advanon im Januar 2017 die zweite Finanzierungsrunde ab und sicherte sich weiteres Kapital für das stetige Wachstum. Als Aktionäre konnte Advanon unter anderem Urs Wietlisbach, u.a. Gründer der Partners Group und b-to-v,  Eric Sarasin, ehemaliger stellvertretender Chef der Privatbank J. Safra Sarasin und Business Angel sowie IT-Unternehmer Daniel Gutenberg gewinnen.

Das FinTech-Unternehmen mit Sitz in Zürich und Berlin hat bereits einige renommierte Awards gewonnen, etwa den „Working Capital Management Award“ der Postfinance in der Kategorie Innovation und den Swiss Fintech Award “Top 4 Swiss FinTech Company”. Ausserdem ist Advanon Gewinner der bekannten Swisscom Startup Challenge und zählt zu den zehn Besten der “TOP 100 Swiss Startups of 2017”. Silicon Republic zählt Advanon zu den 100 “Hottest Startups to Watch” in Europa.

 

Weiterführende Informationen finden Sie unter:

https://www.advanon.de/de

Kontakt:

Katharina Böhringer

PR and Communications Manager

Advanon AG

Hardstrasse 301

CH-8005 Zürich

Office:   +41 44 585 38 50

Aufmacherbild / Quelle / Lizenz

Pixabay / CC0 Creative Commons

Fast jeder dritte Deutsche nutzt kostenlose On-Demand-Sendungen

Vor allem Wissens- und Nachrichtenformate haben es Zuhörern und Zuschauern angetan. Das hat eine aktuelle, repräsentative Studie zum Podcast-Nutzungsverhalten der Deutschen herausgefunden.

Das Hamburger Marktforschungsinstitut SPLENDID RESEARCH hat im Januar 2018 im Rahmen einer repräsentativen Umfrage 1.022 Deutsche zwischen 18 und 69 Jahren online zur Nutzung von Podcasts befragt. Untersucht wurde dabei unter anderem, welche Sendungen am häufigsten angesehen oder angehört werden, welche Geräte dazu verwendet werden und wie die Hörer mit Werbung umgehen.

Seit über zehn Jahren schon können Nutzer viele Audio- und Videosendungen on demand abrufen – wann und wo sie wollen und meistens sogar kostenlos. Doch erst seit etwa 2016 zeichnet sich ein Trend zur breiteren Nutzung des Mediums Podcast ab. Dieser hat sich offenbar deutlich verstärkt und die Mitte der Gesellschaft erreicht, denn mittlerweile beziehen 31 Prozent der Bundesbürger regelmäßig On-Demand-Inhalte über Podcastanbieter. Die größte Zielgruppe sind Männer zwischen 18 und 29 Jahren: Sie hören Podcasts häufiger als jede andere Gruppe.

Die beliebtesten Formate sind Nachrichten, die 43 Prozent der Podcast-Hörer im Medium verfolgen, sowie Unterhaltungs- und Musiksendungen, die 41 Prozent respektive 40 Prozent gefallen. Unter den zehn populärsten Podcasts finden sich allerdings neben Tagesschau, Tatort und der Satiresendung Extra 3 gleich sieben Wissenssendungen. Bei den meistabonnierten Podcasts dominieren die öffentlich-rechtlichen Formate: In den Top 10 landen ebenfalls nicht weniger als sieben Produktionen von ARD, ZDF und den Dritten Programmen. Bemerkenswert: Wie in anderen Zuschauerstudien zeigt sich auch hier, dass die Sendung mit der Maus offenbar nicht nur Kinder als Publikum hat. Im Ranking der meistabonnierten Sendungen landet die Show mit dem orangen Nager gleich hinter Tagesschau und Quarks und Co auf Platz drei.

Das Smartphone wird von knapp zwei Drittel der Podcast-Konsumenten für das Streaming der Sendungen genutzt, einen Laptop verwendet nur noch etwa die Hälfte. Offenbar überzeugt die einfache Transportierbarkeit der Mobilgeräte auch zu Hause, denn 31 Prozent der Nutzer geben an, Podcasts am häufigsten neben anderen Tätigkeiten im Haushalt wie Essen, Putzen oder Heimwerken abzuspielen. Ein Viertel schenkt den Sendungen seine ungeteilte Aufmerksamkeit, während jeweils jeder Siebte sie vorwiegend auf dem Arbeitsweg oder zum Einschlafen hört. Bei der optimalen Dauer einer Podcast-Folge teilen sich die Bundesbürger in zwei Lager: Während 45 Prozent eine Länge von maximal 20 Minuten präferieren, sind 37 Prozent eher für Episoden von 30 Minuten oder mehr zu begeistern.

Podcasts bergen ein erhebliches Marketingpotenzial, denn sie inspirieren ihr Publikum in vielen Fällen dazu, etwas Neues zu tun. So geben 41 Prozent der Hörerschaft an, durch einen Podcast den Wunsch verspürt zu haben, ein neues Produkt auszuprobieren, 37 Prozent wollten eine neue Fähigkeit erwerben und 28 Prozent ein neues Hobby beginnen. Wirksam ist dabei sowohl Content Marketing als auch klassische Werbung: Ein Drittel der Hörer hat sich schon einmal über Produkte oder Unternehmen informiert, nachdem diese in einem Podcast besprochen wurden, ebenfalls ein Drittel gibt an, dies nach einem Werbespot in einem Podcast getan zu haben.

Die vollständige Studie gibt es kostenlos unter www.splendid-research.com/studie-podcasts

Zahl der offenen Stellen mit 1,2 Millionen auf neuem Rekordstand

Im vierten Quartal 2017 gab es bundesweit rund 1.183.000 offene Stellen auf dem deutschen Arbeitsmarkt. Damit lag die Zahl um 128.000 über dem Stand vom vierten Quartal 2016 mit 1.055.000 offenen Stellen. Gegenüber dem dritten Quartal 2017 erhöhte sich die Zahl der offenen Stellen um 85.000. Das geht aus der IAB-Stellenerhebung hervor, einer repräsentativen Betriebsbefragung des Instituts für Arbeitsmarkt- und Berufsforschung (IAB).

In Westdeutschland waren im vierten Quartal 2017 rund 918.000 offene Stellen zu vergeben, in Ostdeutschland rund 265.000.

„Am stärksten stieg die Personalnachfrage im Verarbeitenden Gewerbe und im Bausektor“, erklärte der IAB-Arbeitsmarktexperte Alexander Kubis am Dienstag in Nürnberg. So verzeichneten die Betriebe des Verarbeitenden Gewerbes im vierten Quartal 2017 rund 161.000 offene Stellen. Dies entspricht einem Zuwachs von 35 Prozent gegenüber dem vierten Quartal 2016. Im Bausektor gab es gegenüber dem Vorjahresquartal einen Anstieg um 24 Prozent auf rund 98.000 offene Stellen.

Die Arbeitslosen-Stellen-Relation sank auf 2,0 für Gesamtdeutschland. Mit durchschnittlich 194 Arbeitslosen je 100 offenen Stellen in Westdeutschland und 225 Arbeitslosen je 100 offenen Stellen in Ostdeutschland wurde in beiden Landesteilen der niedrigste Wert seit 25 Jahren erreicht. „Die Zahlen zeigen verbesserte Arbeitsmarktchancen für Bewerber, bedeuten aber auch steigende Herausforderungen für die Arbeitgeber bei der Personalrekrutierung“, so IAB-Forscher Kubis.

Das IAB untersucht mit der IAB-Stellenerhebung viermal jährlich das gesamte Stellenangebot, also auch jene Stellen, die den Arbeitsagenturen nicht gemeldet werden. Im vierten Quartal 2017 wurden Antworten von rund 15.000 Arbeitgebern aller Wirtschaftsbereiche ausgewertet. Die Zeitreihen zur Zahl der offenen Stellen auf Basis der IAB-Stellenerhebung sind unter http://www.iab.de/stellenerhebung/daten online veröffentlicht.

Künstliche Intelligenz auf dem Weg zum Mainstream

Gastbeitrag von Dr. Dorian Selz, Geschäftsführer und Mitgründer von Squirro

Auch wenn einige Unternehmen mit KI-basierten Lösungen bereits beeindruckende Ergebnisse erzielt haben, ist KI bei Weitem noch keine Mainstream-Technologie. Aber Unternehmen erkennen zunehmend das Potenzial und die KI-Nutzung steigt.

Nur sehr wenige Unternehmen bezweifeln, dass künstliche Intelligenz (KI) ein großes Potenzial für die Transformation von Geschäftsprozessen hat. Gleichzeitig nutzen aber nur sehr wenige Anwender KI in nennenswertem Umfang. Teilweise hängt dies mit Vorbehalten und falschen Einschätzungen zusammen, was KI wirklich bedeutet und wie die Technologie sich auf ein Unternehmen auswirkt.

Zunächst gibt es die Herausforderung rund um die KI-Implementierung. Einigen Unternehmen mangelt es dabei an Skills, Wissen und Ressourcen. Zudem wissen sie nicht, in welchen Bereichen sie KI einsetzen sollen und wer sie dabei unterstützen könnte. Auch ist eine gewisse Beunruhigung hinsichtlich des langfristigen Einflusses von KI erkennbar – gerade im Hinblick auf eine eventuelle Vernichtung von Arbeitsplätzen.

Dr. Dorian Selz kommentiert für TREND REPORT in monatlichen Beiträgen die aktuellen Entwicklungen rund um „künstliche Intelligenz“.

Dr. Dorian Selz kommentiert für TREND REPORT in monatlichen Beiträgen die aktuellen Entwicklungen rund um „künstliche Intelligenz“.

Ein weiterer Aspekt ist die fehlende Kontrolle. Wenn die KI-Automation für die Verarbeitung großer Datenmengen oder andere mechanische Aufgaben genutzt wird, ist sie kein Problem. Aber KI kann darüber hinausgehen und Handlungsempfehlungen auf Basis der gewonnenen Erkenntnisse geben. Hebt man die KI-Automation auf diese Stufe – also quasi als Entscheidungsinstanz – entsteht ein Kontrollverlust, weil nicht alle Schritte unbedingt transparent und nachvollziehbar sind. Viele Unternehmen haben hier noch Vorbehalte.
Schließlich ist KI bis zu einem gewissen Grad ein Schritt ins Unbekannte. Werden Aufgaben in einer bewährten Art und Weise erledigt, ist es ein Risiko, in eine neue Technologie zu investieren, die einen anderen Ansatz wählt. Die resultierende Unsicherheit kann dazu führen, dass Unternehmen KI-basierte Projekte verwerfen.

Trotz dieser Vorbehalte nimmt die KI-Nutzung zu und das Wachstum wird sich in den nächsten Jahren fortsetzen. Der Grund ist klar: Die KI-Vorteile sind umfassend. Sie reichen von der Steigerung der Mitarbeiterproduktivität über die Gewinnung neuer Business-Insights bis zur Workflow-Automation. Der immense Nutzen führt dazu, dass immer mehr Unternehmen über die mit einer KI-Einführung verbundenen Herausforderungen hinwegsehen.

Das hohe KI-Potenzial zeigt sich gerade bei der automatischen Analyse riesiger Datenmengen aus unterschiedlichen Quellen. Daten zählen zum wertvollsten Kapital eines Unternehmens – und es liegt oft brach. Erst die künstliche Intelligenz kann das Innovationspotenzial der Daten vollständig ausschöpfen. Optimal genutzt, bieten sie einen beispiellosen Einblick in Geschäftsprozesse und Kundenbeziehungen. Für viele Anwendungsszenarien in den unterschiedlichsten Branchen wird diese Nutzung bahnbrechende Auswirkungen haben. Künstliche Intelligenz generiert innovative Einsichten und liefert handlungsrelevante Prognosen, die zuvor nicht möglich waren.

Es ist zwar wahr, dass sich KI noch im Anfangsstadium befindet. Trotz des ganzen Hypes hat noch keine KI-Technologie den Turing-Test bestanden, in dem die Fähigkeit von Maschinen ermittelt wird, ein dem Menschen äquivalentes Denkvermögen zu erreichen. Wenn aber Unternehmen KI-basierte Lösungen für eine spezifische geschäftliche Aufgabe oder einen konkreten Prozess nutzen, werden sich schnell die erwarteten Ergebnisse einstellen. Das heißt, KI kann einen massiven Einfluss auf das Business haben und wird deshalb auch zunehmend Mainstream-Charakter annehmen.

Design Thinking: ein kreativer Innovationsansatz

Gastbeitrag von Roberto Busin, Partner und Leiter Manufacturing Europa, Asien und Lateinamerika und Länderverantwortlicher für die Schweiz bei Infosys Consulting.

Fast immer steht Innovation auf der Liste der langfristigen Unternehmensziele ganz oben. Doch oftmals sind Unternehmen mit diesem Thema überfordert. Diese Situation wird durch aufstrebende, kapitalkräftige Unternehmen aus dem Silicon Valley zusätzlich verschärft.

Design Thinking kann die Innovationsvorhaben von Unternehmen positiv unterstützen. Die Grundvoraussetzung hierfür ist die Fähigkeit, sich in die Bedürfnisse und Motivatoren von Kunden oder Mitarbeitern hineinzuversetzen, um so Konzepte und Lösungen zu entwickeln. Das Verfahren orientiert sich an der Arbeit von Designern, welches auf Verstehen, Beobachten, dem Finden & Testen von Ideen sowie dem Ausführen & Lernen basiert.

Was ist Design Thinking?

Design Thinking ist ein iterativer Prozess, der aus fünf Kernkomponenten besteht:

  1. VERSTEHE (Emphatize): die Aufgabenstellung, den Markt, die Zielgruppe, die Technologie, die Randbedingungen, die Restriktionen sowie die Optimierungskriterien.
  2. BEOBACHTE und ANALYSIERE (Define): das Verhalten von Menschen in realen Situationen in Bezug auf die konkrete Aufgabenstellung sowie die emotionale Grundlage ihrer Erfahrungen.
  3. VISUALISIERE (Ideate): die ersten Ideen, um diese definierten Erfahrungen zu verbessern.
  4. BEWERTE und OPTIMIERE (Prototype): die Prototypen in rasch aufeinander folgenden Wiederholungen, um weitere Probleme aufzudecken und Optimierungen herbeizuführen (beispielsweise in Form von 3D, Simulation, Prototypen, Graphiken oder Zeichnungen).
  5. TESTE & IMPLEMENTIERE (Test): das neue Konzept in der Realität, um brauchbare Lösungen umzusetzen und schlechte zu verwerfen.
Der Ansatz des Design Thinkings setzt auf die These der Abduktion. Abduktion begründet sich aus der Erkenntnistheorie, bei der die Annahme vertreten wird, dass wenn ein Fall eintritt, die Ursache für diesen Fall wahr sein muss.

Der Ansatz des Design Thinkings setzt auf die These der Abduktion. Abduktion begründet sich aus der Erkenntnistheorie, bei der die Annahme vertreten wird, dass wenn ein Fall eintritt, die Ursache für diesen Fall wahr sein muss.

Empathie als Grundvoraussetzung

Design Thinking beginnt damit, die emotionale Grundlage der ausgewählten Zielgruppe zu erörtern und sich in sie hineinzuversetzen. Welche Erfahrungen sind positiv, welche sorgen für Frustration? Wie fühlt sich die Zielgruppe bei der Nutzung von bestimmten Technologien? Bislang verließen sich viele Unternehmen auf einen Logik-basierten Business-Thinking-Ansatz, der häufig während der Produktentwicklung zum Einsatz kommt: Ein Problem wird erkannt und eine Lösung definiert, die automatisch zur Behebung des Problems führt.

Ein Beispiel:
Aus der Business-Thinking-Perspektive ist es logisch, dass durch die Installation eines Heizkörpers die Wohnung von Kunden beheizt wird. Fügt man einen Thermostat mit vielen Einstellungsoptionen hinzu, können Kunden den Heizrhythmus individuell steuern.

Ein Hersteller von Thermostaten suchte einen neuen Ansatz. Er erkannte, dass viele Kunden Stress empfanden, da sie die Übersicht über die vielen Funktionen verloren hatten oder komplizierte Heizpläne erstellen mussten, um den wechselnden Jahreszeiten oder Ferienzeiten gerecht zu werden. Deshalb entwickelte der Hersteller ein einfaches und übersichtliches Produkt, das „lernte“ und so die Vorlieben von Kunden erkennen konnte. So fühlten sich die Kunden freier, techniksicher und konnten wirtschaftlicher beheizen. Diese Lösung war nicht durch neue Schalter oder Funktionen möglich, sondern lediglich durch den Einsatz von Empathie.

Roberto Busin plädiert dafür, ein Produkt nicht mit Funktionen zu überfrachten („Business Thinking“, siehe Abbildung oben)

Roberto Busin plädiert dafür, ein Produkt nicht mit Funktionen zu überfrachten („Business Thinking“, siehe Abbildung oben)

Modellerstellung
Die emotionale Grundlage ergibt sich in erster Linie durch die Befragung oder Beobachtung der Zielgruppe. Diese Erkenntnisse bilden die Basis für die Entwicklung eines gemeinsamen, klaren und übersichtlichen Modells und den hierfür relevanten Personae und Customer Journeys. Nachdem ein Problemlösungsprozess im seltensten Fall linear verläuft, nutzen Design-Thinking-Befürworter kreative Techniken, um alle Aktivitäten innerhalb eines Ökosystems und die daraus resultierenden Antworten einzufangen. Menschen kommunizieren durch Geschichten. Kreative Design-Thinking-Modelle helfen Unternehmen, die Geschichten ihrer Kunden zu erzählen.

Prototypisieren und Lösungen testen
Aufbauend auf den generierten Modellen werden Lösungen entwickelt und getestet. Dabei geht es nicht darum, der Zielgruppe voll funktionstüchtige, ausgefeilte Lösungen zu präsentieren, sondern um einfache Prototypen, die schnell ersten Tests unterzogen werden können. So ist rasch ersichtlich, ob sich eine Lösung als positiv erweist oder sich als Fehlschlag herausstellt. Besonders wichtig dabei ist, dass die Teams unvoreingenommen an die Tests der jeweiligen Lösung herangehen und nicht den Fehler begehen, Lösungen vorab zum Scheitern zu verurteilen.

Weniger ist mehr
Gerade im Produktdesign zählt das Hinzufügen von immer mehr Funktionen zu den größten Fehlern. Oft wollen Unternehmen so keine Wünsche offenlassen. In der Praxis aber führt das zu aufgeblähten Produkten, die bei Nutzern keinen Gefallen finden. Design Thinking ermutigt Teams deshalb, sich auf die tatsächlichen Kernfunktionen zu beschränken. Getreu dem Motto „Build Functions First, Features Second.“ Das Telefonieren beispielsweise ist eine Funktion, der Wählton und die Touch-Tone-Tastatur sind Features, die verwendet werden, um die Funktion zu erreichen.

Es ist unbestritten, dass Unternehmen mit immer mehr Herausforderungen zu kämpfen haben, je weiter sie im digitalen Zeitalter fortschreiten. Mit Big Data, Design-basierten Innovationen und einer stabilen, vernetzten Plattform haben Unternehmen die Möglichkeit, Lösungen zu entwickeln, die nicht nur den eigenen unternehmerischen Erfolg garantieren, sondern auch von Mitarbeitern und Kunden positiv aufgenommen werden.