Der Weg von Big Data zu Smart Data

Big Data und die damit verbundene Analyse von Daten zur Optimierung der Geschäftsprozesse ist ein zunehmend wichtiger Erfolgsfaktor für Unternehmen.
Doch wie lassen sich Datenmengen unterschiedlichen Formats (Big Data) automatisiert zu nützlichem Wissen (Smart Data) verarbeiten?

 

Herr Kanellos, mit welchen Herausforderungen hinsichtlich Big Data Analytics sehen sich Unternehmen heute konfrontiert?

Die gute Nachricht ist, dass Unternehmen den Wert von Analytics verstehen. Die Herausforderung besteht nun darin, wie man dorthin gelangt. Welche Technologien benötigen sie? Welche Ausbildung benötigen ihre Mitarbeiter? Wie können Sie disruptive Technologien in Ihr Unternehmen integrieren, ohne es komplett zu zerstören?

In einem ersten Schritt sollten Unternehmen klare Ziele festlegen. Zum Beispiel, versuchen Sie, den Energieverbrauch zu senken? Oder soll die Produktivität einer bestehenden Anlage um 10% erhöht werden? Und erfassen Sie dann, was sie in dieser Hinsicht bereits tun. Viele Unternehmen erheben bereits das Ausgangsmaterial für Analysen – Maschinendaten aus dem Betrieb – aber sie nutzen es nicht so umfassend, wie es möglich wäre.

 

Welche Technologien sollten Unternehmen hierfür einsetzen?

Es gibt vier Elemente. Zunächst benötigen Sie ein Rechenzentrum oder Cloud-Services. Zweitens benötigen Sie eine Infrastruktur-Ebene, die Maschinendaten erfasst und organisiert, damit sie von anderen genutzt werden können. Maschinen erzeugen enorme Datenmengen, auf die die Mitarbeiter schnell reagieren müssen. IDC hat festgestellt, dass 45% aller Daten nicht genutzt werden. Beispiel Anlagedaten: Eine Firma entdeckte ein Windkraftanlagenproblem frühzeitig mit Hilfe des PI-Systems, wodurch die Reparaturkosten um 90% gesenkt werden konnten.

 

Das PI-System sammelt Daten von Sensoren, Maschinen und stellt sie für die Analyse zur Verfügung.

 

Drittens kann die Analytik auf die Datenebene gehen und Ihre strukturierten Daten für zusätzliche Erkenntnisse auswerten. Ein Datenmanagementsystem wie unseres kann Probleme Stunden bis Tage im Voraus erkennen. Die Analytik liefert Vorhersagen Wochen oder sogar Monate im Voraus, dies ist im Gesamtpaket enthalten.

Schließlich benötigen Sie drahtlose Protokolle wie WiFi und SigFox.

 

Was hat es mit dem Red Carpet Inkubator-Programm auf sich und welche Unternehmen haben Zugang zu diesem Programm?

Das Red Carpet Incubation Programm ist eine Möglichkeit für OSIsoft und Microsoft, unsere Erfahrung und Kenntnisse im Bereich Big Data und IoT mit ausgewählten Kunden zu teilen. Wir helfen ihnen beim Einstieg, zeigen ihnen, wie verschiedene Datenströme genutzt werden können und wie man von einem Pilotprojekt aus startet und von dort aus weitermacht. Die amerikanische Deschutes Brauerei, ein früher Teilnehmer des Programms, konnte die Brau- und Verarbeitungszeiten für viele ihrer Biere um 72 Stunden verkürzen, ohne die Qualität oder den Geschmack zu beeinträchtigen. Dies resultierte in einer Produktionssteigerung von über 400.000 Dollar aus der gleichen Anlage, so dass Deschutes ein Upgrade von 8 Millionen Dollar aufschieben konnte. Dieses Programm steht allen OSIsoft-Kunden offen. Wir beraten Sie gern.

 

In Zusammenhang mit Big Data wird oft der Begriff „Operational Intelligence“ diskutiert: Was verstehen Sie unter Operational Intelligence?  

Operational Intelligence bedeutet im Wesentlichen, zu verstehen, was in einem Unternehmen passiert, und darauf zu reagieren. Uniper verwendet Daten, um Wartungsprobleme vorherzusagen. Covestro nutzt Daten, um die Konsistenz der Chemikalien zu gewährleisten und Energie zu sparen. Windenergiefirmen sind ebenfalls zu großen Befürwortern geworden. Betrieb und Wartung können sich zu 20% der Kosten der Windenergie summieren. Jede Kostenreduzierung wird erhebliche Auswirkungen auf die Verbreitung erneuerbarer Energien haben.

 

An welche Unternehmen richtet sich Ihre Lösung?

Der gemeinsame Nenner für unsere Kunden ist, ob sie viele Maschinendaten haben oder nicht. Das ist die wichtigste Frage: Wir können ihnen helfen, ihre Daten zu verstehen. Wir arbeiten hauptsächlich mit Industrieunternehmen zusammen: Ölraffinerien, Versorgungsunternehmen, Nahrungsmittelherstellern, Pharmaunternehmen. In jüngster Zeit haben wir uns auch auf die diskrete Fertigung, Rechenzentren und Transportnetzwerken spezialisiert. Die Größe reicht von Fortune-500-Unternehmen bis hin zu mittelgroßen Stadtwerken. Wir arbeiten sogar mit einigen Start-ups zusammen.

 

Herr Kanellos, vielen Dank für das Gespräch.

 

www.osisoft.com

 

Lesen Sie auch seinen Gastbeitrag: Technologie ist alles

Unser Interviewpartner

Michael Kanellos

Michael Kanellos ist Technologieanalyst bei OSIsoft, und hilft Kunden zu verstehen, wie Daten einige der größten Unternehmen der Welt verändern. Er arbeitet seit über 20 Jahren als Reporter, Analyst und Marketingmanager im Silicon Valley. Seine Arbeiten erschienen in der New York Times, CNET, Forbes, Newsweek, Newsday, der Chicago Tribune und dem National Geographic. Als Absolvent der Cornell University und der University of California arbeitete er als Rechtsanwalt, Reiseschriftsteller und auch als Kellner in einem Pfannkuchencafé.

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CCO Creative Commons

 

Technologie ist alles

Liebe Technologiebranche: Hört auf, die Nutzer für technische Probleme verantwortlich zu machen

In der High-tech-Branche werden gern Sätze wie „agieren wir rasch und brechen wir mit Konventionen“ und „Daten sind das neue Öl“ geäussert. Falls Sie kürzlich die IoT World besucht haben, so hätten Sie diese fälschlicherweise für eine Konferenz zum Thema Verhaltenspsychologie halten können. Die Redner betonten, dass sich ältere Mitarbeiter oft nur widerwillig an neue Tools anpassen oder dass die Datenanalyse behindert wird, weil die Nutzer keine Daten austauschen möchten.

Einer der wenigen, der anders denkt, ist James Brehm, Gründer von James Brehm & Associates. Er sagt, nicht die Menschen sondern die Prozesse sind häufig die Ursache für Stockungen bei der Nutzung neuer IoT Technologien. Wie zum Beispiel ein Pharmakonzern, welcher seine neue Software nicht ausschöpft, weil gleichzeitig Prozesse durch Verifikation und Ablage in Papierform blockiert sind.

 

Doch lassen Sie uns für einen Moment anders denken. Was, wenn weder Menschen noch Prozesse, sondern unausgereifte Technologie der Grund für das Scheitern von IoT Projekten ist?

Was also, wenn Verzögerungen und Implementierungsfehler dadurch verursacht werden, dass die Technologie nicht gut genug ist? Es ist schwierig, so zu argumentieren oder nur Vorteile in Form von „weichen Kosten“ aufzuzeigen, während die Firma harte Währung fordert. Wann haben Sie zum letzten Mal gehört, dass jemand ein Upgrade für ein ERP-System gelobt hat? Im besten Fall wird man Ihnen sagen, dass es nicht ganz so schlimm war wie bei den vorherigen Updates.

Und technologische Mittelmäßigkeit ist nicht nur ein Problem für schlecht ausgebildete oder ältere Mitarbeiter. Datenwissenschaftler verbringen laut IDC und anderen 80% ihrer Zeit mit der Datenaufbereitung. Die höchstbezahlten und gefragtesten Mitarbeiter im Technikbereich werden auf digitale Hausmeisterarbeiten reduziert, weil der magische Algorithmus Hilfe benötigt.

Einige Ingenieure werden darauf antworten, dass die Technologie ja funktioniert. Nur die “Menschen” haben versäumt, diese in geeigneter Weise zu nutzen. Tja, was soll ich dazu sagen? Wir sind natürlich nachlässige und verbohrte Holzköpfe, aber das lässt sich nun einmal nicht ändern. Wie ein Programmdirektor beim Fernsehen muss man einfach mit der Tatsache leben, dass nur 18% von uns eine Aufmerksamkeitsspanne von mehr als 22 Minuten mitbringen.

„Ich finde, dass es das Beste wäre, manche Softwareentwickler einfach nur zu feuern“, meinte Todd Nemet, ein ehemaliger Produktmanager bei mehreren Fortune-500-Unternehmen, als ich ihn nach einer Funktion eines Publishing-Systems fragte, das mir besonders zuwider war. „Sie denken, sie kontrollieren den Server und deshalb kontrollieren sie alles.“

Mein Bruder hat mich vor Jahren auf die Macht schlechter Technologien hingewiesen. Er ist ein Urologe, ein Befürworter der Roboter-Chirurgie und ein scharfer Kritiker von Online-Krankenakten. „Verstehst Du es nicht, Angelo? Indem alles online gemacht wird, können wir die Verwaltungskosten senken und die Qualität der Versorgung während des gesamten Lebens eines Patienten verbessern“, entgegne ich.

Stimmt. Aber er konterte, dass solche Anwendungen Ärzte oft dazu zwingen, von eigenen Notizen zu Diagnosen per Ankreuzbogen zu wechseln, was die Qualität der Versorgung verschlechtert. Datenverwaltungssysteme können sich als sehr pingelig erweisen und ihn dazu zwingen, mehr Stunden mit Verwaltungstätigkeiten zu verbringen, was die Kosten in die Höhe treibt. Aber am schlimmsten ist, dass keiner mehr auf den Patienten schaut. Man konzentriert sich auf eine Black Box: schlecht für den Arzt und den Patienten.

Das Phänomen „richtige Idee, falsches Werkzeug“ taucht überall auf. Jared Diamond stellte in Guns, Germs and Steel fest, dass Dorfbewohner in Neuguinea die Süßkartoffel sofort als Nahrungsmittel annahmen, als sie diese zum ersten Mal sahen, und sie pflanzten sie in vertikalen Reihen an ihren Hügeln. Missionare und Helfer haben sie belehrt und ihnen erklärt, dass sie in horizontalen Reihen pflanzen sollten. Bei den ersten großen Regenfällen wurden die Pflanzen weggewaschen. Und man kehrte zur vertikalen Pflanzung zurück.

Wie wichtig eine funktionierende Technik hinter der Datenerfassung und -aufbereitung ist, verdeutlicht Michael Kanellos.

Für Digitalisierungsinitiativen könnte dies aufgrund der Größe der Projekte sowie der Anzahl und Vielfalt der be­teiligten Personen zu einem unlösba­ren Problem werden. Moderne Verbraucher sind begeistert von der Idee, mit Solartechnik und Blockheizkraftwerken zu Stromerzeugern zu werden.

Aber man kann Berichte darüber lesen, wie (1) jemand nach Abzug aller Kosten nur $1,27 pro Monat Profit machte, (2) die Rechnungsbeträge stiegen, weil die Batterie zu schnell leer war und der Strom zum Spitzentarif bezogen werden musste oder (3) der Inhalt eines ganzen Gefrierschranks voller Lebensmittel wegen eines unerwarteten Stromausfalls entsorgt werden musste.

Energieeffiziente Fenster machen den Tag zur Nacht und stören die Produktivität, nur um ein paar Cent zu sparen. Lieferkettensysteme sind mit widersprüchlichen Ertrags- und Investitionsannahmen behaftet. Ähnlich schlimm sind Produktkategorien wie eine intelligente Gebäudeklimatisierung, die zwar gut funktionieren und kleine Renditen abwerfen, aber einfach die Zeit und den Aufwand nicht wert sind. Datenzentren werden weniger Leute vor Ort und weniger Leute in zentralen Kontrollräumen beschäftigen, und diese werden viel mehr Server und andere Geräte verwalten müssen als jemals zuvor. Unvorhergesehene Fehler und Einsatzszenarien werden reichlich auftreten.

Und wir können nicht nur einfach antworten, dass es an den Nutzern liege, deshalb machen sich Firmen, wie beispielsweise die Firma OSIsoft, schon seit 1980 Gedanken darüber, wie Datenaufbereitung und -nutzung reibungslos automatisiert werden können.

 

Das PI-System sammelt Daten von Sensoren, Maschinen und stellt sie für die Analyse zur Verfügung.

 

Von Anlagen- und Prozesseinblicken zu Operational Intelligence

OSIsoft sammelt mit seinem PI SystemTM die Echtzeitdaten von Unternehmen wie Kelloggs, Twinings, Bayer, BASF, RWE, Veltins und Heineken aus einer Vielzahl von Sensoren und Aktoren von Produktionsanlagen, liest sie aus und bereitet sie auf, und verbindet diese Steuerungsdaten über den in der Automatisierungstechnik eingesetzten OPC-Standard mit den eingesetzten SAP-Modulen (QM, PM, MII), der Betriebsdatenerfassung und Auswerte-Datenbanken sowie Office-Systemen. Das PI System strukturiert die Daten so, dass Ingenieure und Manager vor Ort die gewonnenen Erkenntnisse nutzen können, um die Produktivität zu steigern und sie in Anwendungen wie Predictive Maintenance mit Artificial intelligence zu nutzen, um Deep Learning und die Analyse von Maschinen zu beschleunigen.

Es ist ganz simpel: Eine funktionierende Technologie unterstützt Prozesse und Nutzer, statt sie zu blockieren. Dies ist der alles entscheidende Punkt!

<<<<

 

Wie aber lassen sich Datenmengen unterschiedlichen Formats (Big Data) automatisiert zu nützlichem Wissen (Smart Data) verarbeiten? 

Michael Kanellos` Antworten fnden Sie hier:
Der Weg von Big Data zu Smart Data

Unser Autor

Michael Kanellos

Michael Kanellos ist Technologieanalyst bei OSIsoft, und hilft Kunden zu verstehen, wie Daten einige der größten Unternehmen der Welt verändern. Er arbeitet seit über 20 Jahren als Reporter, Analyst und Marketingmanager im Silicon Valley. Seine Arbeiten erschienen in der New York Times, CNET, Forbes, Newsweek, Newsday, der Chicago Tribune und dem National Geographic. Als Absolvent der Cornell University und der University of California arbeitete er als Rechtsanwalt, Reiseschriftsteller und auch als Kellner in einem Pfannkuchencafé.

 

 

Weiterführende Informationen über das Unternehmen finden Sie unter:
www.osisoft.com

Erfolgskontrolle bei RPA

Die Erfolgskontrolle beim Einsatz von Robotic Process Automation (RPA)

Robotic Process Automation (RPA) spielt in der strategischen Ausrichtung vieler Unternehmen eine wichtige Rolle zur Automatisierung standardisierter Prozesse. Dabei kann jedoch nur ein geringer Anteil der Unternehmen, die auf RPA setzen, eine Voraussage über die Effizienz dieser Methodik treffen. Dies liegt insbesondere an der Tatsache, dass nur wenige Unternehmen in ihrer Verwaltung eine Messung von Prozesszeiten und den daraus resultierenden Kosten vornehmen.

Somit haben die betroffenen Unternehmen weder einen Überblick über die aktuellen Prozess-Kosten, noch können sie mögliche Effizienzsteigerungen anhand von Kennzahlen vorgeben. Abhilfe schafft der Einsatz der RPA-Lösung Roboticsourcing, die von Weissenberg Intelligence entwickelt wurde.

Im Zusammenspiel mit speziellen Tools zum Process Mining können detaillierte Analysen der mit RPA-Software digitalisierten Geschäftsprozesse vorgenommen werden. Diese werden anschließend im Roboticsourcing-Dashboard visualisiert. So kann die Effizienzsteigerung der RPA-Maßnahmen einfach und genau beurteilt werden.

Tatsächliche Kosten eines Geschäftsprozesses

In den Gesprächen mit Interessenten und Kunden fand die Weissenberg Group heraus, dass nur die wenigsten Unternehmen eine Vorstellung über die tatsächlichen Kosten eines Geschäftsprozesses haben, der mithilfe von RPA automatisiert werden soll. Allerdings sind diese grundlegenden Informationen von hoher Relevanz, um eine Aussage über die Effizienzsteigerungen nach Abschluss der Automatisierung zu treffen.

Durch die Automatisierung der Prozessanalyse sowie der Prozessaufnahme kann diese wichtige Informationslücke geschlossen werden. Zudem kann das von Weissenberg Intelligence entwickelte Dashboard dazu verwendet werden, die realisierten Effizienzsteigerungen zu evaluieren. Im Unternehmen wird dadurch Knowhow aufgebaut, auf dessen Basis zukünftige Automatisierungs-Kandidaten ausgewählt werden.

Um Prozessautomatisierung mit RPA erfolgreich implementieren und in die Breite ausrollen zu können, muss schon in der Prozessaufnahme ein besonderer Fokus auf die Implementierung und den Betrieb gelegt werden. Es werden sämtliche Tätigkeiten sowie die Verantwortlichkeiten innerhalb eines Prozesses erfragt, als Aktivitäten im Prozessmodell festgehalten, der logische und zeitliche Ablauf festgehalten und notwendige Berechtigungen und Zugänge protokolliert.

Auch aus dem Blickwinkel der RPA-Eignung und der Umsetzbarkeit mit der Automatisierungssoftware bietet sich ein idealer Zeitpunkt, mögliche Schwachstellen zu analysieren, um Effizienzpotentiale anzuheben. Im Rahmen der Prozessanalyse wird also nicht nur eine Aussage zur aktuellen Situation getroffen, sondern in enger Abstimmung mit dem Process-Owner auch (moderate) Anpassungen an einem Sollprozess vereinbart.

Case

Ein konkretes Beispiel soll dies verdeutlichen: Im Backoffice eines international tätigen Produktionsunternehmens werden digital bereitgestellte Kontoauszüge mehrfach täglich von Mitarbeitern auf bestimmte buchungsrelevante Inhalte durchsucht und im ERP erfasst. Nach Zustimmung des Process-Owners werden repetitive Anteile von einem im Hintergrund laufenden Software-Roboter, größtenteils in den Nachtstunden, für den Mitarbeiter unsichtbar abgearbeitet. Der Mitarbeiter kümmert sich nur noch um die Fälle, die seine Erfahrung und Expertise bedürfen.

Diese Arbeit des Software-Roboters muss sich in Quantität und Qualität gegen die Performance des früheren, nichtautomatisierten Prozesses messen lassen.

Arbeit von Software-Robotern messen

Die KPIs (Key Performance Indikatoren) basieren idealerweise auf einem in der Vergangenheit durchgeführten Process Mining. Dessen Anwendung bietet Unternehmen die Möglichkeit, die relevanten Kern-, Unterstützungs- und Managementprozesse sowie sämtliche dazugehörige Key Performance Indicators aufzuzeichnen und zu analysieren. Die Erkennung und Identifikation von fehler- und risikobehafteten Prozessen wird optimiert und beschleunigt, dies sorgt in der Folge für eine schnellere und bessere Automatisierung mittels RPA.

Doch Process Mining dient nicht nur zur Beschleunigung der Automatisierung. Vor allem wird durch diesen Vorgang eine valide Grundlage zur Bewertungen der tatsächlichen Ist-Prozesse geschaffen. Zudem werden Leistungsdaten gewonnen, welche als Vergleichswerte für nachfolgende Analysen genutzt werden können.

Die von Weissenberg Intelligence implementierten RPA-Lösungen beinhalten ein Dashboard, welches es den Nutzern erlaubt, eine Auswertung über den Erfolg der Prozessautomatisierung zu bekommen.

Um ein zuverlässiges Feedback zum Erfolg der Prozessautomatisierung geben zu können, sammelt das Dashboard die Logfiles der verschiedenen Bots. Diese Logfiles werden anschließend hinsichtlich der KPIs – etwa Einsparungen, Fehlerquoten oder Laufzeiten – untersucht. Das Ergebnis der Prozessautomatisierung wird abschließend im Dashboard angezeigt.

Zudem kann das Dashboard mit jeder erdenklichen RPA-Software verknüpft werden. Dies bietet den Vorteil, dass bereits implementierte Bots nicht ausgetauscht werden müssen. Vielmehr können diese weiterhin genutzt und an neue Anforderungen angepasst werden.

 

Unser Autor

 

Milad Safar

Milad Safar ist Managing Partner der Weissenberg Group, die er 2012 zusammen mit Marcel Graichen gegründet hat. Schon während seiner Berater-Tätigkeit nach Abschluss seines Studiums der Volkswirtschaftslehre galt sein Interesse der Optimierung von Prozessen durch den Einsatz von IT-Lösungen. Schwerpunktmäßig beschäftig sich Milad Safar mittlerweile mit den Themen Digitalisierung, Robotic und Künstliche Intelligenz.

 

 

Weissenberg – Effortless Intelligence

Weissenberg Group mit Sitz in Wolfsburg wurde 2012 von Milad Safar und Marcel Graichen gegründet und beschäftigt 60 Mitarbeiter. Weissenberg Group ist der interdisziplinäre Ansprechpartner für hoch effiziente und innovative IT-Lösungen. Das Kerngeschäft der Weissenberg Group wird durch die Unternehmensbereiche Weissenberg Solutions, Weissenberg Intelligence und Weissenberg Potentials abgedeckt.

Als Schnittstelle zwischen IT- und Strategy-Consulting vereint Weissenberg Solutions das Know-how der Unternehmensgruppe im Bereich Prozessberatung, Projektmanagement und Softwareentwicklung. Individuell zugeschnittene Geschäftsprozessmanagement-Verfahren zur Analyse der relevanten Geschäftsprozesse garantieren eine effiziente Gestaltung von Arbeitsabläufen und bestehenden Prozessen im Unternehmen und sorgen so für einen nachhaltigen Wettbewerbsvorteil.

Das Kerngeschäft von Weissenberg Intelligence bilden die vielfältigen Anwendungsmöglichkeiten, die sich für Unternehmen durch den Einsatz von Robotic Process Automation und Künstlicher Intelligenz ergeben. Im Zentrum steht die Automatisierung standardisierter, regelbasierter Prozesse durch Software-Roboter, um die vorhandenen Ressourcen effizienter einzusetzen und damit für die Unternehmen letztendlich einen wirtschaftlichen Mehrwert zu schaffen.

Weissenberg Potentials setzt durch den Einsatz von Roboticsourcing im Recruiting neue Maßstäbe. Innovative, automatisierte Algorithmen bei der Suche und Ansprache von Kandidaten sowie bei der Analyse und Auswertung vorhandener Recruiting-Daten erhöhen die Qualität im Recruitingprozess und erlauben eine effektive und passgenaue Besetzung von Vakanzen bei freiberuflichen und festangestellten IT- und Engineering-Experten.

https://weissenberg-solutions.de

 

Unternehmenskontakt

Weissenberg Group

Major-Hirst-Str. 11

38442 Wolfsburg

T.: 05361 897 – 3090

Mail: info@weissenberg-solutions.de

 

 

Aufmacherbild / Quelle / Lizenz
Copyright Weissenberg

 

Big-Data-Analyse im Retail

Big Data ist die Grundvoraussetzung für den Retail von Morgen.
Mit dem richtigen Know-How, Werkzeug und Ziel profitieren Händler enorm von der Analyse der Datenberge.

 

Big Data ist kein neues Thema mehr. Doch wie kann es dann sein, dass einer Umfrage zufolge nur etwa 35 Prozent der deutschen Unternehmen Big-Data-Lösungen bereits einsetzen? Immerhin sind die Datenberge nicht nur wichtige Erfolgsfaktoren, sondern auch Geschäftsgrundlage großer Unternehmen geworden. Allerdings ist die Arbeit mit Big Data eine technisch hochkomplexe Aufgabe, weshalb viele deutsche Unternehmen vor ihr immer noch zurückschrecken.

Jede Aktion generiert im digitalen Zeitalter Daten. Daten, die gesammelt werden und schnell zu großen, komplexen, unstrukturierten Massen werden. Diese Masse an Daten wächst in Unternehmen täglich weiter und nennt sich daher Big Data. Doch sie enthalten wertvolle Informationen, weiß man sie richtig zu verarbeiten.

Für Unternehmen bedeutet das allerdings, dass sie die Daten nicht nur sammeln, sondern auch intelligente Algorithmen schreiben sowie effektive Analyseprozesse entwickeln müssen, um das volle Potenzial der Daten für sich nutzen zu können. An diesem Punkt scheitern aber die meisten Firmen, weil sie die Datenverarbeitung als zu komplex ansehen.

Integrierte Systeme sind das All-Inclusive-Analyse-Paket

Mit den richtigen Fachleuten im Team und den passenden Tools können Unternehmen diese Herausforderung jedoch bewältigen. Für eine kosteneffiziente Lösung, sollten sie daher integrierte Systeme wie Mindtrees Plattform Decision Moments einsetzen, welche Datenseen, Algorithmen und Analysen zusammenführen und es ihnen dadurch erleichtern, den ersten Schritt in Richtung Big-Data-Verarbeitung zu machen.

Die Methodik des integrierten Systems ist im Vergleich relativ einfach: Es setzt sich aus fünf Schritten für die Datenverarbeitung zusammen. Im ersten Schritt müssen die Daten von all den Orten geholt werden, an denen sie erhoben wurden. Deshalb läuft zuerst der sogenannte ETL-Prozess (Extract, Transform, Load) ab. Er zapft die verschiedenen Quellen an und wandelt die Daten so um, dass die Zieldatenbank sie einordnen kann und speichert sie letztendlich dort ab.

Im zweiten Schritt legt das System einen Datensee an, in dem alle strukturierten, semi-strukturierten und unstrukturierten Daten gesammelt werden. NoSQL-Engines können an dieser Stelle vorteilhaft sein, um die Geschwindigkeit der Datenverarbeitung zu erhöhen.

Einen Schritt weiter in Phase drei ist die Lösung über branchenspezifische Algorithmen in der Lage, teilautonom und vollautonom zu lernen. Die Daten werden über verschiedene Verfahren wie Clustering, logistische Regression, kollaboratives Filtern, Random-Decision-Forests oder neuronale Netze sortiert und für den nächsten Schritt vorbereitet.

Im vierten Schritt sind die Daten nun zur Weiterverarbeitung bereit. Etablierte Datenarchitekturmodelle wie Lambda, Kappa und Zeta helfen dabei, die großen Big-Data-Workloads erst bezwingbar zu machen. Die Daten werden jetzt visualisiert, für Einsichten weiterverarbeitet und spätere Ansichten in Backups archiviert.

Schließlich befinden sich auf der letzten Ebene der Big-Data-Plattform Schnittstellen, mit denen sich allerlei Anwendungen verbinden lassen, um so direkt von den Einsichten und Dateninhalten zu profitieren. Dies ist etwa für Omni-Channel-Strategien nützlich und nur aufgrund der hohen Skalierbarkeit und Flexibilität der integrierten Systeme möglich.

Erfolg zeichnet sich durch Ziele aus

Wie bei jeder Datenverarbeitung und –analyse ist es auch bei der Big-Data-Analyse notwendig, wirtschaftliche Ziele zu definieren, auf welche die Arbeit hinauslaufen soll. Das Geschäftsmodell des Unternehmens hat also eine besonders einflussreiche Rolle für die Erfolgsbestimmung der Auswertung des Datenbergs. Dieses bestimmt nämlich, inwiefern ein Unternehmen dazu in der Lage ist, von Big Data letztendlich zu profitieren.

Zum einen können Unternehmen mithilfe der Big-Data-Einsichten ihre eigene Produktivität sowie Effizienz steigern und so ihre Prozesse wirtschaftlicher gestalten. Sei es zur Optimierung der Handelswege oder zum Vorbeugen technischer Probleme durch frühzeitige Wartungen.

Auch im Marketing und Vertrieb können Unternehmen ihren Vorteil aus Big-Data-Analysen ziehen, indem sie den Kunden besser kennenlernen, dessen Nachfrage studieren und in der Produktentwicklung auf ihn reagieren. Dadurch können sie nicht nur genauere Prognosen bezüglich ihres Umsatzes treffen, sondern auch die Erfolgsmessung ihrer Kampagnen wird deutlich erleichtert.

Außerdem ist Big Data für Unternehmen eine große Hilfe wenn es darum geht, das Angebot ihrer Kunden zu individualisieren, die Verkaufs- und Kommunikationskanäle anzupassen und somit für eine personalisierte Customer Experience zu sorgen.

Big Data ist Voraussetzung für Zukunftsgeschäft

Dieser Trend wird sich auch im Jahr 2018 fortsetzen und zeichnet sich schon heute ab. Big-Data-Analysen helfen Retailern etwa dabei, durch Predictive Analytics Engpässe bei Produkten vorherzusehen und entsprechend vorzubeugen oder schnell darauf zu reagieren, indem sie den nächstgelegenen Zulieferer mit einer weiteren Lieferung beauftragen.

Auch künstliche Intelligenzen werden künftig vermehrt im stationären Handel vertreten sein, um beispielsweise Kunden vor Ort per Display Kleidungskombinationen an den Körper zu projizieren, damit diese sich nicht mühselig immer wieder umziehen muss und bequem verschiedene Kombinationen ausprobieren können. Und auch falls ein Kunde bei der Suche nach Produkten Probleme hat kann eine KI das erkennen und den Kunden darauf aufmerksam machen.

Damit die KI jedoch all diese Kunden unterscheiden, ihr Verhalten erkennen und von Interaktionen lernen kann, muss sie Zugriff auf große Mengen an Kundendaten in analysierter, strukturierter Form haben. Besonders hierfür wird die Big-Data-Analyse eine Grundvoraussetzung für kommende Jahre sein.

Amazon, Google und Facebook machen es vor: Wer sich in der digitalen Zeit sich die Daten nicht zunutze macht, wird am Markt irrelevant. Dementsprechend ist vor allem der stationäre Handel zu Umstrukturierungen gezwungen. Mit integrierten Big-Data-Lösungen und einer klaren Zieldefinition können Retailer jedoch großen Profit aus den Daten schlagen und sich für den Handel der Zukunft vorbereiten.

* * *

 

 

 

Unser Autor

 

Ralf Reich, Head of Continental Europe bei Mindtree

 

Ralf Reich verantwortet das Geschäft in Zentraleuropa bei Mindtree. In seiner Rolle kümmert er sich um das Wachstum von Mindtree hauptsächlich in den Branchen Finanzdienstleistungen, Banken, Versicherungen, Retail, Produktion, Tourismus und Transportwesen. Reich bringt über 25 Jahre IT-Service-Erfahrung mit, in denen er Neukunden und Geschäftsbeziehungen in den verschiedensten Märkten und Regionen aufgebaut hat.

 

 

 

 

 

Über Mindtree

Mindtree bietet digitale Transformations- und Technologie-Dienste – von der Ideensammlung bis zur Ausführung. So können sich die Global 2000-Kunden einen Wettbewerbsvorteil verschaffen. Mindtree wurde „digital geboren“ und verfolgt einen agilen, gemeinschaftlichen Ansatz, wenn es darum geht, kundenspezifische Lösungen für die digitale Wertschöpfungskette zu entwickeln. Gleichzeitig sorgt die umfassende Expertise von Mindtree im Infrastruktur- und Anwendungsmanagement dafür, dass die IT zu einem strategischen Asset wird. So unterstützt Mindtree Unternehmen, egal, ob diese sich abheben, Geschäftsfunktionen neu definieren oder das Umsatzwachstum beschleunigen wollen. Besuchen Sie uns und erfahren Sie mehr. http://www.mindtree.com/.

 

Pressekontakt

Hotwire für Mindtree
Jacqueline Pitz
069 25 66 93 15
jacqueline.pitz@hotwireglobal.com

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

(Daten)Spurensuche in Geschäftsprozessen

Kontinuierliches Process Mining als erfolgskritischer Faktor im digitalen Zeitalter

Gastautor Prof. Dr. August-Wilhelm Scheer

 

Für viele Unternehmen ist es ein wichtiger Schritt ihrer Geschäftsprozessorganisation, eine Prozesssoftware zu implementieren. Aber erst die Ausführung der Prozesse zeigt, ob sich der erwartete Nutzen tatsächlich einstellt. Unternehmen setzen daher zunehmend auf Process Mining, um die Datenspuren der Geschäftsprozesse während ihrer Ausführung zu erfassen, auszuwerten und die Prozesse zu verbessern.

Theoretisch sollen die Prozessinstanzen der konfigurierten Software folgen. In der Realität treten jedoch immer wieder Änderungen in den vorgesehenen Zuordnungen von Organisationseinheiten zu Funktionen auf, oder es entstehen Störungen. Der Mensch greift dann ein und ändert ad-hoc Abläufe gegenüber dem Soll-Ablauf.

Derartige Abweichungen hinterlassen Datenspuren in Form von Ereignismeldungen, die dann für Auswertungen, das Process Mining, zur Verfügung stehen. Dabei geht es zunächst darum, die Spuren der Geschäftsprozesse während ihrer Ausführung in einer Logdatei zu erfassen und ihr Verhalten zu beobachten und auszuwerten.

Abgleich der Ist- und Soll- Prozesse

Aus den Vergleichen des bestehenden Soll-Prozess-Modells mit den Datenspuren der Logdatei und des generierten Ist-Modells werden Abweichungen ermittelt. Diese werden analysiert, um das Soll-Modell an die Realität anzupassen und organisatorische Verbesserungsvorschläge zu entwickeln.

Process Mining gibt Auskunft, ob bei der Prozessausführung Compliance-Regeln eingehalten oder verletzt werden, an welchen Stellen Kapazitätsengpässe entstehen, ob von vorgesehenen Kapazitätszuordnungen abgewichen wurde, wie sich Durchlaufzeiten und Qualität verhalten usw.

Daraus automatisch Schlussfolgerungen zur Verbesserung der Prozesse zu ziehen, erfordert auch den Einsatz von Methoden aus der Künstlichen Intelligenz (KI). Ein so angepasstes Modell wird dann als neues Soll-Modell gespeichert. Dieser Abgleich der Ist- und Soll- Prozesse muss als kontinuierliche Aufgabe verstanden werden, denn immer wieder auftretende Änderungen stellen Soll- Prozesse immer wieder in Frage.

Solution

Das von der Scheer GmbH bei ihren Kunden erfolgreich eingesetzte Konzept zum Process Mining basiert auf der Scheer Process Automation Suite. Die Schwerpunkte der Product Suite liegen in den Bereichen Prozessmodellierung, Prozessausführung, Process Intelligence und Robotic Process Automation (RPA).

Sie bietet zahlreiche Möglichkeiten, die Daten der Prozesse zu analysieren. Dabei geht es sowohl um Kennzahlen, die bei der Ausführung der Prozesse entstehen, als auch um fachliche Daten, die während der Ausführung des Prozesses erfasst oder verändert werden. Anschließend erfolgt der Soll-Ist Abgleich, um die Prozesse kontinuierlich zu verbessern.

 

Fazit

Noch ist das Thema Process Mining in manchen Unternehmen etwas neu, aber reale Einsatzszenarien zeigen, dass sich mit den Ansätzen des Process Mining beeindruckende Erfolge erzielen lassen. Marktvorteile werden aber nur jene Unternehmen realisieren können, die diese neue Datensicht als kontinuierlichen Prozess und als kontinuierliche Herausforderung der Geschäftsprozessoptimierung verstehen.

 

www.scheer-group.com

Unser Autor

Prof. Dr. Dr. h.c. mult. August-Wilhelm Scheer

 

 

Prof. Dr. Dr. h.c. mult. August-Wilhelm Scheer ist einer der prägendsten Wissenschaftler und Unternehmer der deutschen IT. Die von ihm entwickelte ARIS-Methode zum Prozessmanagement wird in nahezu allen DAX-Unternehmen und auch international eingesetzt. Er ist Gründer erfolgreicher IT-Unternehmen. Zu den Unternehmen der Scheer Gruppe gehören: Scheer GmbH, Scheer E2E AG, imc AG, IS Predict, Backes SRT, Okinlab GmbH, Fanomena GmbH und Inspirient GmbH. 2014 hat er das gemeinnützige Forschungsinstitut AWS-Institut für digitale Produkte und Prozesse gGmbH gegründet. Darüber hinaus ist Prof. Scheer unabhängiger Berater für die Politik auf Bundes- und Landesebene.

 

Prof. Dr. A.-W. Scheer is one of the most influential scientists and businessmen in the German computer sciences and software industry. ARIS, the business process and IT management method developed by him, is in operation in practically all DAX listed companies, also internationally. He has founded successful software and consulting companies. His Scheer Group of companies includes Scheer GmbH, Scheer E2E AG, imc AG, IS Predict, Backes SRT, Okinlab GmbH and Inspirient GmbH. In 2014 he founded the AWS-Institute for Digital Products and Processes GmbH to support application-oriented research. Additionally, he is independent advisor to national and regional political decision makers.

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creatoive Commons

Der Phantasie sind keine Grenzen gesetzt

Christian Daudert ist Gründer und CEO des Virtual-Reality-Pioniers Staramba in Berlin. Im Interview erläutert er das disruptive Potenzial, das personalisierte VR für die Wirtschaft und das Privatleben hat.

 

Herr Daudert, wie wird sich Ihrer Meinung nach Virtual Reality auf das Leben des Einzelnen oder die Gesellschaft auswirken?

Virtual Reality wird dieselbe disruptive Wirkung haben wie das Internet und künftig alle Lebensbereiche massiv umkrempeln – sei es die Wirtschaft, die Forschung und Lehre, die Medizin oder das Privatleben.

Ein besonders großes Potenzial haben dabei fotorealistische 3D-Avatare von Menschen. Avatare von Konsumenten eröffnen praktisch grenzenlose Einsatzmöglichkeiten. Sie können für virtuelle Anproben von Kleidern genutzt werden oder den Muskelaufbau beim Training nachprüfbar machen.

Eltern können das Aufwachsen ihrer Kinder anschaulich wie nie digital dokumentieren; Angehörige haben die Möglichkeit, verstorbene Verwandte oder Freunde in Form von 3D-Hologrammen virtuell wieder auferstehen zu lassen.

Und für Staramba besonders wichtig: 3D Avatare von Stars und Prominenten aus Sport, Musik und Entertainment können sich virtuell mit ihren Fans treffen und interagieren. Sie ermöglichen Fans so eine lebensechte Interaktion mit ihren Idolen und werden damit die Social-Media-Kommunikation revolutionieren.

 

Was ist die Idee hinter Staramba?

Wir wollen den Märkten alles bieten, was es braucht, um fotorealistische 3D-Avatare von Menschen zu erzeugen, bereitzustellen und einzusetzen. Seien es nun Avatare von Stars oder ganz normale Privatpersonen. Dazu entwickeln wir ein umfassendes Portfolio von Hardware über Software bis hin zu Anwendungen.

Mit STARAMBA.spaces arbeiten wir derzeit am weltweit ersten sozialen VR-Netzwerk mit fotorealistischen Avataren von Stars. Jeder, der ein VR-Headset hat, kann dort beispielsweise einen Fußballspieler oder bewunderten Musikstar besuchen und hautnah mit ihnen trainieren, reden oder lernen. Das ist in dieser fotorealistischen Qualität einzigartig.

Mit AVATARcloud verfügen wir zudem über die weltweit umfassendste Datenbank mit fotorealistischen 3D-Modellen von internationalen Topstars. Dort finden sich Spieler der deutschen Fußballnationalmannschaft, des FC Bayern oder von Real Madrid ebenso wie Usain Bolt, Elvis Presley, Rammstein oder KISS. Die Daten nutzen wir zum einen selbst für STARAMBA.spaces, vertreiben sie aber auch an Dritte.

Zur Erzeugung von Avataren kommen unsere eigenentwickelten 3D-INSTAGRAPH-Ganzkörperscanner zum Einsatz. Sie gelten als technologieführend und werden nicht nur genutzt, um Stars zu scannen, sondern auch Privatpersonen.

 

Für welche Unternehmen eignen sich Ihre Lösungen? Welche Szenarien ergeben sich daraus für die Unternehmen und ihre Marken?

Die 3D-Datenmodelle der Stars aus unserer Datenbank AVATARcloud werden vor allem von Unternehmen genutzt, die VR-Spiele, VR-Anwendungen und 3D-Figuren herstellen.

Unser soziales VR-Netzwerk STARAMBA.spaces bietet zum einen Agenturen große Möglichkeiten. Sie können die Stars, die sie betreuen, in einem faszinierenden neuen Umfeld platzieren, noch breiter vermarkten und ihnen neue Merchandising-Potenziale erschließen.

Zum anderen eröffnen sich aber auch den Herstellern von Produkten aller Art riesige Chancen. Sie können in STARAMBA.spaces ihre Erzeugnisse von den Stars präsentieren, erklären oder sogar benutzen lassen. Unsere 3D-INSTAGRAPH-Scanner eignen sich für alle Unternehmen, die ihren Kunden personalisierte VR-Anwendungen bieten möchten.

Das können Einkaufszentren, Fotoketten, Bekleidungsproduzenten oder Fitnessstudios sein, um nur einige zu nennen. Der Phantasie sind hier wirklich keine Grenzen gesetzt.

 

Wie beraten und begleiten Sie Ihre Kunden in diesem Kontext?

Wir beraten unsere Kunden vor allem bei der Auswahl der Qualität der digitalen Produkte. Bei den Scans lassen sich digitale Dateien mit unterschiedlichen Qualitätsmerkmalen herstellen, die sich für unterschiedliche Anwendungen eignen.

So sind etwa für den 3D-Druck andere Merkmale gefragt als bei Gaming-Avataren oder bei Avataren für eine VR-Welt. Durch unsere Empfehlungen ermöglichen wir den Kunden Kosteneinsparungen, da beispielsweise der kostenintensivere Detailgrad eines VR-Avatars für den 3D-Druck nicht benötigt wird.

Gleichzeitig beraten wir unsere Kunden aber natürlich auch bezüglich der möglichen Anwendungsszenarien. So können Scans von Sportstars nicht nur für den 3D-Druck, sondern auch für Gaming und VR-Applikationen benutzt werden.

 

Können Sie uns ein Beispiel aus der Praxis erläutern?

Ein Beispiel dafür ist der Videospielhersteller Konami. Ihn beraten wir laufend über die Möglichkeiten, unsere Scans von Fußballspielern auch jenseits von Videospielen zu vermarkten, und welche unterschiedlichen Avatar-Qualitäten ihm dafür zur Verfügung stehen.

 

Sie bieten eine eigene Kryptowährung – ROYALTY. Können Sie uns bitte Hintergründe und Ziele erläutern?

ROYALTY wird zunächst in unserem sozialen VR-Netzwerk STARAMBA.spaces zum Einsatz kommen, um dort den exklusiven Content und die Rechte der Lizenzgeber zu sichern. Mittelfristig hat die Kryptowährung aber das Potenzial, die globale Lizenzindustrie zu revolutionieren.

Sie basiert auf einer speziell entwickelten Blockchain-Technologie und ermöglicht damit die drastische Vereinfachung der Abrechnungsprozesse sowie die Real-Time-Aufteilung der Einnahmen an Lizenzgeber und -nehmer. Alle Parteien profitieren von substanziellen Kosteneinsparungen.

 

Mit welchen weiteren Entwicklungen rechnen Sie in den nächsten Jahren?

Virtual Reality wird die Welt verändern und wir wollen diese Veränderung an vorderster Front mitgestalten. Dazu werden wir unser technologisches Wissen kontinuierlich ausbauen und unsere Lösungen weiterentwickeln.

Unser Ziel ist, an dem großen Wachstum, das dem VR-Markt bevorsteht, massiv zu partizipieren. So rechnen wir damit, dass unser soziales VR-Netzwerk in fünf Jahren mehrere Millionen Besucher pro Woche verzeichnet. Der Aktienkurs von Staramba wird dann entsprechend hoch sein: nämlich dreistellig. Unseren Unternehmenswert in fünf Jahren sehe ich bei mindestens 500 Millionen Euro.

 

 

Herr Daudert, vielen Dank für das Gespräch.

 

Zur Person

Vor seiner Zeit als Gründer war Christian Daudert als Vermögensberater für zahlreiche Fußballprofis tätig. Aus dieser Zusammenarbeit heraus entstand die Idee, dreidimensionale Scans von Fußballstars herzustellen und zu vermarkten. Er erkannte das Potenzial von 3D-Scans für VR-Anwendungen und entschied, sein Unternehmen vollständig auf VR auszurichten.

 

Weiterführende Informationen:
STARAMBA

 

 

 

Aufmacherbild / Quelle / Lizenz

Pixabay / CC0 Creative Commons

Optimierter Einkauf von Übersetzungsdienstleistungen

Der Einkauf von Übersetzungsdienstleistungen ist keine leichte Sache, weiß die Expertin für Sprachdienstleistungen, Vanessa Hirthe-Steinle, Produktmanager für die Online-Plattform crossMarket. Sie erläutert im Gespräch mit der Redaktion Hintergründe und gibt Tipps, wie Unternehmen kostensenkend optimieren können.

 

Frau Hirthe-Steinle, was unterscheidet Übersetzungen von anderen Produkten?

Nun, sie sind selten standardisierbar. Schließlich sind die Quelltexte von unterschiedlicher Natur. Manchmal handelt es sich um vergleichsweise einfache Texte, manchmal um komplexe Gebilde mit zahlreichen technischen Details.

Hinzu kommen die Sprachpaare. Während es vergleichsweise einfach ist, Übersetzer zu finden, die Sprachpaare wie Deutsch-Englisch bedienen, wird es bei Sprachen wie Hebräisch eher schwierig. Außerdem ist es problematisch, die Übersetzungsqualität zu bewerten, da sie in der Regel durch die Anforderungen des Kunden definiert ist.

Hinzu kommt, dass es bei der Definition viele Variablen gibt, so dass es schwierig ist, entsprechende Messgrößen zu bestimmen. Von daher ist die Arbeit qualitativ schwer messbar.

 

Wie können Auftraggeber dem Übersetzungspartner die Arbeit erleichtern und damit möglichst ihre eigenen Anforderungen erfüllen?

Nehmen wir ein einfaches Beispiel. Eine Arbeitsanweisung lautet: „Fußböden in den Büros reinigen!“ Diese ist mehr oder weniger beliebig interpretierbar. Soll der Boden gesaugt, nass gewischt oder versiegelt werden? Welche Reinigungsmittel dürfen/sollen verwendet werden? Muss manuell oder maschinell geputzt werden? M

ein Tipp: Formulieren Sie Ihre Anforderungen so klar und konkret wie möglich! So ergibt sich für den Dienstleister kein Verständnisspielraum.

 

Können Sie das an einem Beispiel aus der Praxis erläutern?

Stellen Sie sich ein produzierendes Unternehmen aus der DACH-Region vor, das pro Jahr ein Übersetzungsvolumen von mehr als 500.000 Euro hat! Die Übersetzungen sind immer eilig und die zuständigen Koordinatoren haben keinen Einfluss darauf, wann die Abteilungen oder Niederlassungen Texte zur Übersetzung anfordern. Der Einkauf hat vorgegeben, dass drei definierte Lieferanten beauftragt werden dürfen und natürlich sollen die Übersetzungen möglichst kostengünstig sein. Die Sprachpaare sind höchst unterschiedlicher Natur.

Damit das Unternehmen über einen Pool geeigneter Übersetzer bzw. Sprachdienstleister verfügt, sollte es u.a. definieren, wie hoch z.B. das Sprachvolumen ist und welche Sprachkombinationen tatsächlich relevant sind. So können die Übersetzungskoordinatoren die Aufträge besser und möglichst preisgünstig vergeben.

 

Wovon hängt denn der Übersetzungspreis ab? Doch nicht nur von der Menge der zu übersetzenden Wörter, oder?

Nein, sicherlich ist der Wortpreis wichtig, aber auch die Zahl der Übereinstimmungen und die Leistungsinhalte. Die Frage lautet nicht, wie sich der Preis reduzieren lässt, sondern vielmehr wie Kleinstübersetzungen vermieden und damit Aufwände reduziert werden können. Denn in der Regel fordern Übersetzer Mindestpreise und die schlagen insbesondere bei Kleinstübersetzungen ins Gewicht.

Hierzu ein paar Beispielzahlen aus der Praxis: Während 26 € für eine Übersetzung von weniger als 60 Wörter durchaus üblich sind, fordern Übersetzer bei weniger als 1.000 Wörter lediglich 50 € als Mindestpreis. Das bedeutet, dass bei weniger als 60 Wörter ein Preis von 0,43 € zu Buche schlägt, sind es bei weniger als 1000 Wörter gerade mal 0,05 € pro Wort. Von daher sollten Unternehmen dafür sorgen, dass Sie erst ab einem gewissen Textvolumen Übersetzer beauftragen.

 

Wie schaut es mit den sogenannten Eilaufträgen aus?

Hier besteht zunächst die Frage, was ein Eilauftrag ist. Sind das max. 2.000 oder 1.500 Wörter pro Werktag? Wann soll der Übersetzer liefern? Grundsätzlich lässt sich feststellen, dass ein Auftrag in Abhängigkeit von Volumen, Liefertermin und erwartete Leistung in Kombination als eilig definiert werden kann. Der Übersetzungspartner kann hier einen entsprechenden Eilzuschlag fordern.

Im Übrigen spielen hierbei auch die Zeitzonen eine wichtige Rolle. Auftraggeber sind deshalb gefordert, konkret zu definieren, um wieviel Uhr sie nach welcher Zeitzone die Übersetzung erhalten müssen.

 

Was sollten Unternehmen außerdem beachten, wenn sie Übersetzungen beauftragen?

Zum einen sollten sie die Währung berücksichtigen, mit der die Rechnung ausgestellt wird. Schließlich ist sie gewissen Schwankungen unterlegen. Zum zweiten, so unsere Empfehlung, sollte das Unternehmen nur Übersetzer beauftragen, die über eine Translation-Memory-Software verfügen.

Der Grund ist einfach. Hier können Dienstleister auf bereits übersetzte Texteinheiten zurückgreifen. Wir reden hier von entsprechenden Matches, also Übereinstimmungen. Darüber hinaus steigert der Einsatz einer Translation-Memory-Software über eine einheitliche Verwendung der Begriffe die Übersetzungsqualität.

 

Wie können Unternehmen die Kosten für Übersetzungen sonst noch reduzieren?

Das Geld liegt im Prozess. Visualisieren Sie diesen, um mögliche Schwachstellen aufzudecken! Denn, wenn Sie Prozesse optimieren, können Sie weitaus mehr Geld einsparen als durch Preisdiskussionen mit Ihren Lieferanten.

Die Verwaltung und die Administration von Prozessen sind die größeren Kostenverursacher. Eine geschlossene Lieferkette mit passenden Schnittstellen, sodass der Übersetzer die Arbeitsumgebung vorfindet, die er benötigt, hilft, die Aufwände zu reduzieren.

 

Sie sind Produktmanager der Online-Plattform crossMarket, auf der Industrie-Unternehmen passende Übersetzer finden. Bitte beschreiben Sie kurz, was es damit auf sich hat!

Da sich der Übersetzungsmarkt im Allgemeinen eher intransparent und unübersichtlich darstellt, ist die Suche nach passenden Übersetzungspartnern oft eine Herausforderung. crossMarket wurde entwickelt, um Übersetzer, Übersetzungs- und Industrieunternehmen einfacher für gemeinsame Projekte zusammenzubringen.

Unser Online-Netzwerk unterstützt Auftraggeber dabei, sich anhand aussagekräftiger Profile der Übersetzer und Übersetzungsunternehmen schneller ein Bild von deren Kompetenzen zu machen. Sie können beispielsweise auch schnell Übersetzer finden, die eher ungewöhnliche Sprachpaare bedienen.

 

Frau Hirthe-Steinle, vielen Dank für das Gespräch.

 

 

Weiterführende Informationen finden Sie unter:
https://www.crossmarket.net/

 

Unsere Interviewpartnerin

Vanessa Hirthe-Steinle

Vanessa Hirthe-Steinle verantwortet als Produktmanager für die Online-Plattform crossMarket u.a. die Weiterentwicklung des Features Job Board. Zu ihren Tätigkeitsschwerpunkten im Rahmen des Produktmanagements gehören außerdem die internationalen Netzwerkaktivitäten. Nach ihrem Studium der Germanistik, Geschichts- und Politikwissenschaft arbeitete sie mehrere Jahre als Projektmanager und Business Development Manager für Sprachdienstleister in Deutschland und der Schweiz. Vanessa Hirthe-Steinle startete 2013 ihre Karriere bei der Across Systems GmbH als Teamleiter Language Service Providers und betreute dabei internationale Sprachdienstleister in allen Belangen rund um die Across Übersetzungstechnologien.

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Optimal übersetzen im E-Commerce

Der Handel ist global. 62 Prozent der im Rahmen der „Pitney Bowes Global Ecommerce Study 2017“ befragten Händler gaben an, ein länderübergreifendes E-Commerce-Geschäft zu führen und die Mehrheit derer, die noch nicht über ein länderübergreifendes Geschäft verfügte, plante, es in den nächsten zwölf Monaten einzuführen.

Damit hat sich auch der Wettbewerb um die Kaufentscheidung der Kunden verschärft. Um ihn zu gewinnen, spielt die richtige Sprache – und damit die korrekte Übersetzung – eine Schlüsselrolle. Denn sie ist wesentlich für eine positive Customer Experience.

Bevor sich Interessenten für einen Kauf entscheiden, wollen sie Informationen über das Produkt. Wie eine aktuelle Studie von SapientRazorfish und Salesforce darlegt, suchen 60 Prozent der Kunden vorab im Internet gezielt danach. Um ihre Erwartungen zu erfüllen und ihnen zu ermöglichen, die Informationen zu finden, genügt es – entgegen der Annahme vieler Verantwortlicher für Marketing, Content und Verkauf – nicht, vorhandenen Content nur ins Englische zu übersetzen. Denn Interessenten suchen in ihrer Landessprache.

Damit Suchmaschinen auf Anfragen relevante Treffer liefern können, müssen Onlineinhalte in der jeweiligen Sprache verfügbar sein. Dazu zählen Produktbeschreibungen und Multimediainhalte für Shop und Marktplätze genauso wie Unternehmenswebseiten, News, Ratgeberinhalte, E-Books, Kundenfeedbacks und Bewertungen.

Da Interessenten darüber hinaus auch auf anderen Wegen mit Unternehmen in Verbindung treten wollen, sollten zudem Newsletter, Kundenmagazine, Broschüren, Aftersales-Informationen & Co. in der bevorzugten Sprache des Kunden vorliegen. Je besser über alle Phasen der Customer Journey hinweg Verständlichkeit gewährleistet ist, desto einfacher können Menschen Vertrauen zum Unternehmen aufbauen, was wiederum ausschlaggebend für die Kaufentscheidung ist.

 

Auf die Lokalisierung kommt es an

Um Verständlichkeit zu erzielen, reicht jedoch auch das bloße Übertragen der Inhalte in die Landessprache der Zielgruppe nicht aus. Vielmehr besteht die Herausforderung darin, die Informationen im Kontext der geltenden gesetzlichen Vorschriften und der jeweiligen Kultur korrekt darzustellen. „Lokalisierung“ heißt der Fachbegriff. Er beinhaltet zum Beispiel die Bedeutung sowie die Assoziationen, welche Produkt- und Markennamen in verschiedenen Ländern haben und wecken können.

So trägt das Waschmittel Persil in Frankreich die Bezeichnung „LeChat“, weil „Persil“ im Französischen Petersilie bedeutet. Dies gilt auch für Bilder und Symbole wie das Daumen-hoch-Symbol, das hierzulande für ein „Okay“ steht, während es in Australien als Beleidigung angesehen wird. Nur wenn die Bedeutung auch nach der Übersetzung noch der beabsichtigten Intention entspricht, kann der Interessent das Produkt als hochwertig wahrnehmen und das Unternehmen als vertrauensvoll einstufen.

Anderenfalls ist es möglich, dass unzureichende Übersetzungen negative Rückschlüsse auf das Produkt oder die Dienstleistung auslösen. Der Interessent verlässt die Webseite oder den Shop, ohne zu kaufen und bewertet das Unternehmen vielleicht negativ.

Damit Interessenten die Kommunikation als überzeugend empfinden, sind E-Commerce-Anbieter gefordert, einen einheitlichen Markenauftritt an allen Punkten der Customer Journey zu realisieren. Dies geschieht durch konsistente Verwendung von Produkt- und Servicebezeichnungen, Keywords sowie weiteren Begriffen – kurz: eine konsistente Terminologie.

Außerdem sollten die Texte qualitativ hochwertig sein, indem er korrekte und aktuelle Angaben enthält und fehlerfrei sowie verständlich geschrieben ist. Dafür sollten die Sätze unter anderem einfach aufgebaut, aktiv formuliert und nicht zu lang sein. Angesichts einer großen Menge an Inhalten, die in kürzester Zeit an den verschiedenen Touchpoints für diverse Personen verfügbar sein muss, stellt die Lokalisierung somit eine große Herausforderung dar.

 

Software als Helfer

Beim Meistern der Aufgaben leistet Software für Translation Management wertvolle Dienste. Sie verfügt im Idealfall über ein integriertes Terminologiesystem, in dem alle den gleichen Begriff betreffenden Einträge übersichtlich zusammengestellt sind. Der Autor hat damit alle infrage kommenden Terme im Blick, womit ihre einheitliche Verwendung gewährleistet ist. So kann ein „Turnschuh“ konsequent als solcher bezeichnet werden, und nicht einmal als „Laufschuh“, ein anderes Mal als „Sportschuh“ oder „Sneaker“.

Dabei empfiehlt es sich, die Terminologie auch mit bevorzugten Keywords abzugleichen, nach denen in den jeweiligen Zielländern bevorzugt gesucht wird. Verwirrungen werden vermieden, und der Übersetzungsaufwand verringert sich. Denn Begriffe mit derselben Bedeutung müssen nicht unnötig übersetzt werden.

Ein weiterer Bestandteil einer Translation Management Software ist das Translation Memory. Dabei handelt es sich um eine Datenbank, in der Quelltextsätze mit ihren Übersetzungen als Paare hinterlegt sind. Es dient Autoren als Grundlage für die Erstellung konsistenter Quelltexte und ermöglicht es, bereits übersetzte Textstellen wiederzuverwenden.

 

Mit Automatisierung Kundenerwartungen schneller erfüllen

Professionelle Lösungen für Übersetzungsmanagement stehen allen Projektbeteiligten – vom Autor über den Übersetzer bis zum Lektor – zentral, einfach nutzbar zur Verfügung. Darüber hinaus kann gute Translation Management Software über Schnittstellen mit Product-Information-Management-Systemen verknüpft werden, in denen Unternehmen häufig Produktbeschreibungen pflegen. Dadurch ist ein nahtloser Datenaustausch möglich und die Automatisierung von Übersetzungsprozessen kann Fahrt aufnehmen.

Die Vorteile: Einmal kreierter Content lässt sich schneller für unterschiedliche Formate bereitstellen. Dies spart nicht nur Aufwand und Kosten, sondern hilft E-Commerce-Anbietern auch, den Erwartungen ihrer Kunden gerecht zu werden und die Customer Experience positiv zu beeinflussen. Kunden und Interessenten gewinnen Vertrauen und entscheiden sich eher, ein Produkt zu kaufen oder eine Dienstleistung in Anspruch zu nehmen.

 

Weiterführende Informationen zum Unternehmen:
Across Systems GmbH

 

Unser Autor

Gerd Janiszewski

Gerd Janiszewski ist Geschäftsführer der Across Systems GmbH. Er verfügt über langjährige Führungserfahrung in der Übersetzungs- und IT-Branche. Unter anderem war er in leitender Position für Transline Gruppe GmbH tätig, einen der führenden europäischen Sprachdienstleister.

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

 

KI im Personalmanagement

Künstliche Intelligenz (KI): Im Auftrag des Personalmanagements unterwegs

Das Potenzial von Künstlicher Intelligenz (KI) wird derzeit viel diskutiert. Aber wie verhält es sich mit dem Einsatz von KI im Personalbereich? Dazu hört man noch recht wenig, auch wenn KI-basierte Prozesse vor allem hier einen immensen Wert haben können. Managementebene und Mitarbeiter profitieren gleichermaßen von einem nie da gewesenen Durchblick und völlig neuen Gestaltungsmöglichkeiten Ihrer Arbeit – wenn es nur mit der Akzeptanz stimmen würde. Gerade da scheint es in Deutschland Aufholbedarf zu geben.

Grundsätzliche Aufgabe im Human Resource Management (HRM) ist es, Führungskräften die Informationen an die Hand zu geben, anhand derer die unterschiedlichen Aspekte von Mitarbeiterproduktivität und -motivation folgerichtig bewertet werden können. Darauf aufbauend lassen sich Lösungen erarbeiten, die Defizite in der Produktivität minimieren und Prozesse einfacher und intuitiver gestalten.

Mit eingebetteter KI und Machine-Learning-Algorithmen verfügen die modernsten HRM-Lösungen, wie etwa Workforce Dimensions des weltweiten Workforce-Management-Marktführers Kronos, heute über eine analytische Funktionalität, die ganz präzise Daten und Prognosen ermöglicht.

Bislang zeitraubende, administrative Aufgaben der Mitarbeiter, wie die Erstellung von Urlaubsanträgen oder die Beantragung von Schichtwechsel, können deutlich beschleunigt werden. Potenzielle Compliance-Risiken oder auch Burn-out-Anzeichen aufgrund zu langer Arbeitszeiten oder zu geringer Pausen werden proaktiv erkannt und der Manager wird alarmiert, bevor sie zum Problem werden.

Viele der regelmäßig anliegenden Entscheidungen, die die Manager bislang viel Zeit gekostet haben, wie die Bestätigung von Zeitkarten oder die Genehmigungen von Urlaubstagen, lassen sich aufgrund der jetzt belastbaren und tiefen Informationsbasis automatisieren. Das System wird somit zum digitalen Berater und der Manager hat signifikant mehr Zeit für strategischere Tätigkeiten sowie für die direkte Unterstützung seiner Mitarbeiter.

Eine einfache Gleichung, wenn man beispielsweise einen Kronos-Kunden berichten hört, dass seine Manager weltweit mehr als 20.000 Urlaubs- und Freizeitanträge jede Woche genehmigen müssen. Deutlich genauere Bedarfsprognosen erhöhen außerdem die Qualität der Einsatzpläne, beispielsweise im Handel, und helfen, Betriebskosten zu senken und letztlich auch die Kundenzufriedenheit zu steigern.

Basis von innovativen Workforce-Management-Lösungen mit KI-basierten Prozessen sind modernste Cloud-Architekturen, die aktuelle Informationen in immer kürzerer Zeit bereitstellen. Große Datenbestände können unternehmensweit über internationale Niederlassungen und Zweigstellen hinweg und annähernd in Echtzeit erfasst, konsolidiert und analysiert werden.

Die gewonnenen Ergebnisse stehen dann über die diversen Kommunikationsnetze für alle relevanten Endgeräte und Standorte direkt zur Verfügung. Relevante Informationen werden zeitgemäß über offene Programmschnittstellen (APIs) auch für andere betriebswirtschaftliche Applikationen zur Verfügung gestellt, so dass sich aussagekräftige Daten nahtlos zwischen Anwendungen verschieben lassen.

Akzeptanz schaffen

Die Nutzung von KI schafft nicht nur die Basis für ein produktiveres und gesünderes Arbeitsumfeld, von dem Unternehmen und Belegschaft gleichermaßen profitieren, sie führen auch zu Veränderungen in Arbeitsabläufen und Verantwortlichkeiten – die Akzeptanz aller Beteiligten immer vorausgesetzt.

Just an dieser Akzeptanz gilt es nämlich noch zu arbeiten. Während Systeme mit integrierter KI an sich bereits in anderen Bereichen auf breiter Basis goutiert werden – man denke nur an die intelligente Routenplanung, an Online-Übersetzungen oder smarte Hausgeräte – herrscht in Deutschland beim Einsatz von KI im Arbeitsumfeld eher Skepsis.

So hat das Workforce Institute at Kronos für seine aktuelle internationale Studie „Engaging Opportunity – Working Smarter with AI“ rund 3.000 Arbeitnehmer unterschiedlicher Branchen gefragt, wie sie den Einsatz KI-basierter Lösungen in ihrem Arbeitsumfeld beurteilen.

Lediglich 42 Prozent der deutschen Studienteilnehmer beurteilen hierzulande KI-basierte Analysen als Entscheidungshilfen für Manager positiv. 31 Prozent der Befragten sorgen sich, in ihrem Job aufgrund von KI-Anwendungen durch einen Roboter oder ein Computer-Programm ersetzt zu werden.

Eine ständige Überwachung der Arbeitsschritte durch das Management befürchten weltweit zwar lediglich 29 Prozent, wenn man jedoch Deutschland alleine betrachtet, scheint war dies mit 37 Prozent die Hauptsorge. Dass KI zeitaufwändige Arbeiten vereinfache, glauben in Deutschland zwar immerhin 59 Prozent, dagegen erwarten aber auch 23 Prozent, dass durch das Monitoring der automatisierten Prozesse Mehrarbeit anfallen wird.

Die Skepsis liegt wohl vor allem darin begründet, dass ein potenzieller KI-Einsatz im Arbeitsalltag häufig zu intransparent kommuniziert wird. Zwei Drittel der befragten deutschen Mitarbeiter würden sich wohler fühlen, wenn sie von vornherein erfahren würden, inwiefern KI ihren Arbeitsplatz beeinflussen wird.

Insgesamt zeigt die Studie auf, dass die deutschen Mitarbeiter im Vergleich zu den Kollegen in anderen Industrienationen dem Einsatz von KI am Arbeitsplatz am wenigsten positiv gegenüberstehen. Es ist also dringend Erklärungsmanagement gefragt, durch ausreichend Aufklärung und Weiterbildung.

KI fördert Miteinander

Gerade die Tatsache, dass Innovationen wie die der KI-gestützten automatisierten Entscheidungsfindung das menschliche Miteinander im Grunde eher fördern, weil Vorgesetzte wieder mehr Zeit für ihre Teams haben, wird häufig noch nicht gesehen. Diese Kompetenz der menschlichen Interaktion ist über die vergangenen Jahre allerdings auf der Strecke geblieben, so dass Manager sich derzeit eher unwohl in dieser Situation fühlen.

Da das Management aber die treibende Kraft für die Employee Experience und der damit einhergehenden Produktivitätsoptimierung ist, müssen sich Unternehmen auf Programme konzentrieren, die Entscheider dabei unterstützen, den Einsatz von KI zu verstehen und positiv kommunizieren zu können.

Ist die Akzeptanz dann unter den Mitarbeitern erstmal erreicht, kann das Potenzial von KI voll ausgeschöpft und KI vom bloßen Trend zum entscheidenden Workforce-Management-Tool werden.

 

 

Unsere Autorin

Claire Richardson

Claire Richardson ist europäische Direktorin des Workforce Institute und Senior Director der EMEA Professional Services Practice bei Kronos. Dort arbeitet sie mit Kunden zusammen, um Workforce-Optimierungsprogramme zu definieren und zu liefern, die sich auf Mitarbeiterengagement konzentrieren, um die Geschäftsleistung zu verbessern.

 

Weiterführende Informationen zum Unternehmen:
www.kronosglobal.de

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Digital am POS – Kunden interaktiv begeistern

Die Vorteile von Online-Plattformen sind scheinbar unschlagbar. Wie kann der stationäre Handel mithalten? engelhorn sports zeigt es und begeistert mit interaktiven, digitalen Tools von AMERIA.

Der Onlinehandel setzt auf personalisierte Empfehlungen und Produktvorschläge, die die Kundenbedürfnisse bestmöglich erfüllen sollen. Plattformen wie Amazon oder Ebay adressieren den Konsumenten mit passgenauen Angeboten und ermöglichen so einen schnellen und unkomplizierten Einkauf.

Und das mit Erfolg: Im Jahr 2017 ist die Anzahl an Online-Shoppern laut Handelsverband Deutschland (HDE) im Vergleich zum Vorjahr um fünf Prozent gestiegen. Doch reicht eine personalisierte Online-Ansprache aus oder kann man Menschen mit einer lebhaften Interaktion noch mehr begeistern?

Die Erwartungen der Kunden an den Handel – online sowie stationär – sind enorm gestiegen. Eine individuelle Ansprache wird bereits vorausgesetzt. Online ist dies aufgrund von Tracking und Datenerhebung leicht. Im stationären Handel experimentierte eine Reihe von Händlern bereits mit Möglichkeiten zur Digitalisierung der Verkaufsfläche, um den gleichen Mehrwert zu schaffen. Mit Konzepten wie „Click & Collect“ wird beispielsweise die Verbindung von Webshop und stationärem Geschäft hergestellt. Doch um eine zukunftsweisende Lösung zu schaffen, bedarf es mehr als unausgereifter Insellösungen.

Eine intelligente Vernetzung verschiedener Berührungspunkte innerhalb der Customer Journey, bietet Kunden ein einzigartiges Erlebnis und Händlern Möglichkeiten zur Datenanalyse. Wie das Ganze in der Praxis aussieht, zeigt ein Konzept von engelhorn sports in Mannheim.

Intelligente Vernetzung am stationären PoS

engelhorn sports – eines von acht Häusern des Familienunternehmens engelhorn – ist ein Leuchtturm hinsichtlich des kundenzentrierten Shoppings. Als eines der größten Sporthäuser Europas bietet der Händler seinen Kunden auf sieben Etagen mit fast 10.000 Quadratmetern Ausrüstung, Sportfashion und Zubehör für Aktivitäten vom Joggen bis zum Skifahren. Das Angebot ergänzt engelhorn sports durch Sportreisen, Kurse, Ausrüstungsverleih und Reparaturservices.

Um die zahlreichen Services für den Kunden transparenter zu gestalten und neue Kunden auf die Verkaufsfläche zu locken, arbeitet engelhorn sports mit AMERIA, einem Spezialisten für digitale Lösungen für den stationären Handel, zusammen. Denn AMERIA bietet eine Alternative zu den bisherigen passiven Bildschirm-Lösungen (Digital Signage) oder Touch-Bildschirmen von engelhorn sports: Virtual Promoter, ein interaktives, gestengesteuertes Display.

Interaktiver Service

Anfang Februar fand das erste Meeting zwischen engelhorn sports und AMERIA zum Vorstellen und Kennenlernen des digitalen Tools statt. Bereits sechs Wochen später empfängt ein Virtual Promoter von AMERIA die Kunden direkt am Haupteingang. Als Avatar auf einem 84 Zoll großen Screen im Hochformat begrüßt Leichtathletik-As Nadine Gonska die Besucher und lädt dazu ein, mit ihr zu interagieren, um weitere Serviceinformationen zu erhalten.

Stellt sich der Kunde auf das projizierte Lichtkreuz am Boden, läuft der Avatar aus dem Startblock und führt den Nutzer mittels Gestensteuerung durch unterschiedliche Funktionen. Die virtuelle Nadine Gonska erklärt beispielsweise zusätzliche Services, die engelhorn sports anbietet: von der Ski- und Bikewerkstatt über Lauf- und Radtreffs bis zu Bra-Fittung und Laufanalyse.

Stellt sich der Kunde auf das projizierte Lichtkreuz am Boden, läuft der Avatar aus dem Startblock

So wird die Interaktion zwischen Verkäufer und Kunden durch die Mensch-Technik-Interaktion ergänzt und das Bedürfnis der Kommunikation, anders als beim Onlinehandel, nicht vernachlässigt, sondern weiter unterstützt. Konsumenten fühlen sich abgeholt und bekommen gleichzeitig interessante Informationen.

„Häufig fehlt uns im Verkaufsgespräch die Zeit, den Kunden unsere Zusatzservices und Community-Aktivitäten ausführlich zu erklären“, weiß Michael Kling, zuständig für Multichannel- und Trademarketingkoordination bei engelhorn sports. „Hier nehmen wir positive Effekte des Virtual Promoter wahr. Seitdem Nadine Gonska als Avatar etwa unsere Lauftreffs bewirbt, hat sich die Zahl der Teilnehmer deutlich erhöht.“

Spaß garantiert

Wer beim Einkauf noch mehr Entertainment erleben will, erhält mit der integrierten Fotobox genau das Richtige. Die digitale Doppelgängerin des Leichtathletik-Profis steht in unterschiedlichen Posen für ein Selfie bereit. Um das Foto auf das eigene Smartphone zu laden, gelangen Nutzer mithilfe eines QR-Codes auf eine gesicherte Webseite, registrieren sich dort und bekommen das Bild direkt per E-Mail zugeschickt. So haben Kunden eine schöne Erinnerung an das Einkaufserlebnis und Händler erhalten mit der Registrierung DSGVO-konforme Daten, die sie für die Erstellung von Kundenprofilen und individualisierte Marketingaktionen nutzen können.

Posen für ein Selfie – mithilfe eines QR-Codes auf eine gesicherte Webseite, können sich Kunden dort registrieren und bekommen das Bild direkt per E-Mail zugeschickt

 

Datenbasierte Kundenbindung

Darüber hinaus profitiert engelhorn sports von der Retail Management Plattform „CX Manager“, die von AMERIA entwickelt wurde. Die Intelligenz im Backup ermöglicht nicht nur das Generieren von E-Mail-Adressen, sondern eine Analyse des kompletten Konsumentenverhaltens. Während der Besucher empfangen und über ein Produkt informiert wird, sammelt das System auf sichere Weise Daten parallel in der Cloud. Ein umfassendes Reporting wird so ermöglicht. Händler können das Kundenverhalten nachvollziehen und ihre Maßnahmen auf der Ladenfläche weiter optimieren.

Die Ergebnisse der Nutzerzahlen sind bereits beeindruckend: Alle siebeneinhalb Minuten begeistert Virtual Promoter einen Kunden – und das bei einer Verweildauer von mehr als 60 Sekunden. Die Zahl der Zuschauer liegt noch einmal um den Faktor zehn höher. Michael Kling zieht ein positives Fazit: „Virtual Promoter erfüllt all unsere Erwartungen. Die Lösung zahlt auf unsere Marke als Innovator ein. Zudem haben wir so alleine im April 75.000 Kontakte erzielt.“

-/-

 

 

Unser Autor

Albrecht Metter,

Albrecht Metter, Geschäftsführender Gesellschafter der AMERIA GmbH

 

 

AMERIA

Consumer Engagement am Point of Sale, Mobile und Web Development. Damit sorgt das Unternehmen für Customer Experience und Emotionalisierung sowie für Frequenz- und Umsatzsteigerung. Die innovativen digitalen Lösungen begeistern und verbinden nachhaltig die reale und die digitale Welt.

 

 

 

Pressekontakt

Christoph Schierbaum
AMERIA GmbH
Gutenbergstraße 7, 69120 Heidelberg
Telefon: +49 6221 43 43 149
E-Mail:  press@ameria.de
www.ameria.de

 

Ihr Partner Public Relations
Oliver Kirch
g i w  Gesellschaft für Informationen
aus der und für die Wirtschaft  m b H
Holunderweg 84
45133 Essen-Bredeney
Telefon: +49 201 877867-20
E-Mail: ameria@giw.de
www.giw.de

 

Bildmaterial

©engelhorn

AME-engelhorn-Virtual Promoter: Eine neue Form der Kundenansprache am POS: Virtual Promoter, hier bei der Eröffnung von engelhorn sports in Mannheim.

Autonome Fahrzeuge werden nicht nur die Automobilbranche revolutionieren

Weltweit befindet sich die Transportbranche in einem tiefgreifenden Umbruch. Ein Haupttreiber dieser Transformation ist das Aufkommen autonomer Fahrzeuge. Auf den ersten Blick mag das verwundern, weil diese Fahrzeuge außerhalb eng umgrenzter Pilotprojekte zumindest in Deutschland noch nicht auf öffentlichen Straßen unterwegs sind. Aber Analysten wie die Boston Consulting Group prognostizieren ein enormes Wachstum: Bis zum Jahr 2035 sollen jährlich mehr als 12 Millionen vollautonome und mehr als 18 Millionen teilautonome Fahrzeuge verkauft werden. Während der Markt sich noch in der Entstehungsphase befindet, läuft die Forschung im Hinblick auf die Einsatzmöglichkeiten autonomer Fahrzeuge auf Hochtouren.

Beispiele? Anfang des Jahres haben sich eine der größten Fast-Food-Restaurantketten und ein multinationaler US-Automobilhersteller zusammengetan, um Pizzen in Ann Arbor, Michigan, auszuliefern. Zufällig ausgewählte Kunden wurden dabei ein Teil der fahrerlosen Fahrzeugabnahmeprüfung. In Ruanda liefern autonome Drohnen medizinische Versorgungsgüter und Blut für Transfusionen in entlegene Gebiete und verhindern lebensbedrohliche Verzögerungen. Taucher werden bald in der Lage sein, mit einer winzigen Unterwasser-Drohne die Tiefen des Ozeans vor dem Tauchgang zu erkunden, was die Sicherheit verbessern könnte. Und wenn es nach Dubai geht, wird es Ende des Jahres die erste Stadt mit unbemannten Luft-Taxis sein, so berichtet Newsweek.

Fahrzeugherstellern und ihren Partnern in der Wertschöpfungskette bietet sich hier eine große Chance: Sie können zu den Verwaltern – und Treibern – der größten und anspruchsvollsten On-the-Go-Computing-Umgebungen werden.

Was wird sich ändern?

Soviel ist klar: Autonome Fahrzeuge werden die bestehenden sozialen und geschäftlichen Normen verändern. Eine kurze und schnelle Auflistung zeigt den zu erwartenden Wandel:

  • Autonome Fahrzeuge ermöglichen neue Geschäftsmodelle rund um „Mobility as a Service“ (MaaS).
  • Cybersecurity wird im Mittelpunkt stehen, wenn sich Fahrzeuge miteinander und mit einer Reihe von Online-Systemen von Drittanbietern verbinden und interagieren.
  • Da die meisten autonomen Fahrzeuge aller Voraussicht nach elektrisch angetrieben werden, wird Druck auf das Öl- und Gasgeschäft ausgeübt, in erneuerbare Energiequellen zu investieren.
  • Autonome Fahrzeuge können in schwierigem und/ oder gefährlichem Gelände eingesetzt werden. Aus diesem Grund werden Anzahl und Vielfalt der Sensoren ansteigen, die Daten erzeugen, etwa im Bergbau.
  • Über die Lieferung von Lebensmitteln und die Erfüllung des E-Commerce hinaus werden sich autonome Fahrzeuge in der Logistik- und Konsumgüterbranche durchsetzen. Die Technologie wird den Transport von Gütern und Waren über weite Strecken auf der Straße, in der Luft und auf dem Seeweg erleichtern.
  • Regulierungsbehörden müssen Compliance-Anforderungen neu formulieren, um sicherzustellen, dass neue Registrierungsprozesse mit den sich entwickelnden Technologie- und Leistungsstandards Schritt halten. Im Falle von Unfällen oder illegalen und betrügerischen Ereignissen brauchen die Aufsichtsbehörden einen Weg, um Haftungsfragen zu klären.

Autonome Fahrzeuge haben das Potential, nicht nur die Automobilindustrie, Autohäuser, Kraftstofflieferanten und -versorger zu beeinflussen, sondern auch Anbieter von Software und mobilen Anwendungen, Spezialisten für Cybersecurity und künstliche Intelligenz (KI), Cloud-Provider, die Halbleiterindustrie, Telekommunikations- und Kommunikationsanbieter, Sensorhersteller, Versicherer, Anbieter von Parkflächen und viele mehr. Dies wird zu neuen Akteuren, Produkten, Lieferketten, Buy-outs und Partnerschaften im Ökosystem führen. Insbesondere in drei Schlüsselbereichen bieten sich neue Chancen:

  • Wertschöpfungsketten: Die größte Disruption wird die gut definierte, traditionelle Wertschöpfungskette der Automobilindustrie betreffen. Heute dominieren hier Erstausrüster (OEMs) die Branche. Da die Wertschöpfungskette jedoch immer mehr softwarebasiert und defragmentiert wird, gehört die Zukunft denen, die Software, integrierte Komponenten, Sensoren, Content- und Power-Management-Tools anbieten. Tatsächlich wird allein die Software 35 Prozent des Gesamtumsatzes ausmachen, der durch das Wachstum im Segment der autonomen Fahrzeuge generiert wird. Vorbild hierfür könnte der Wandel in der Smartphone-Industrie sein, wo sich der Fokus innerhalb eines Jahrzehnts von Hardware-Herstellern zu Software- und Content-Anbietern verschoben hat.
  • Sensoren und V2X: LIDAR-Sensoren, Radargeräte und Kameras bieten die Möglichkeit, das Geschehen in der Welt rund um die autonomen Fahrzeuge zu beobachten. In Kombination mit einer Karte geben diese Daten den Fahrzeugen einen Kontext, der es ihnen ermöglicht, auf verschiedene Ereignisse zu reagieren. Häufig werden Sensoren mit ähnlichen Fähigkeiten eingesetzt, um Datenredundanz zu gewährleisten. Auf diese Weise können Fahrzeuge mit Problemen umgehen, die sich aus einem Sensorausfall ergeben. Zukünftige Sensorhersteller werden sich in puncto Robustheit und Kosten differenzieren. Die nahtlose Verbindung zu Einheiten außerhalb des Fahrzeugs ist entscheidend für das reibungslose Funktionieren autonomer Fahrzeuge. Dieser Bedarf wird das Wachstum der Vehicle-to-Infrastructure (V2X)-Technologien vorantreiben. Tatsächlich wird V2X das Herzstück der Next-Gen-Infrastruktur mit Edge-Computing-Fähigkeiten sein. In diesem Bereich wird die Entwicklung der 5G-Infrastruktur die Realisierung von Geschäftsanwendungen beschleunigen.
  • Mobility-as-a-Service-Anbieter: Während frühere Generationen stolz darauf waren, mit 18 den Führerschein zu erhalten und ein Auto zu besitzen, zeigt die aktuelle Generation einen anderen Trend. Millennials wollen sich nicht mit Eigentum belasten und treiben die Nachfrage nach Mobilität als Dienstleistung voran. Aus diesen „Ride-Share”-Diensten ergeben sich Chancen für sekundäre Anbieter in Form von Design und Wartung, mobilen Plattformen, Cloud-Diensten und Zahlungsmanagement.

Schneller vom Prototypen zur Marktreife

Man kann die kommende Revolution aus zwei Blickwinkeln betrachten: Als Turbulenzen und Störfaktoren für die Industrie oder als Chance, sich zu weiter zu entwickeln. Die Verkaufszahlen traditioneller Fahrzeuge werden ohne Zweifel zurückgehen. Aber wenn die Hersteller bereit sind, die Möglichkeiten durch verbundene Services zu nutzen, wird es großes Wachstum geben. Diejenigen, die ihre Abhängigkeit von Motoren und Achsen für den Umsatz aufgeben und zu Power Management, Ride-Sharing, Location Based Content etc. wechseln, um Komfort und Erfahrung zu verbessern, werden langfristig Loyalität und wachsende Einnahmequellen sehen.

Wipro hilft Unternehmen mit seiner Referenzplattform für autonomes Fahren bei dieser Transformation. Die Lösung bietet eine sichere Testumgebung, in der sich verschiedene Szenarien und Randbedingungen mit einem eigenen Prototypen simulieren lassen, der dazu modernste KI- und Machine-Learning-Technologie nutzen kann. Vorhandene Assets wie Software zur Motorsteuerung, Karten und Navigation, Sensoren und viele mehr lassen sich problemlos einbeziehen. Dies verkürzt die Entwicklungszeit bis zur Marktreife und verschafft Anbietern einen Vorteil gegenüber ihrem Wettbewerb.

Weitere Informationen unter:
www.wipro.com

Crowdsourcing als Antwort auf den Fachkräftemangel in der IT

Erst im April diesen Jahres schlugen Arbeitgeber Alarm: Noch nie war der Fachkräftemangel so hoch, deutschen Firmen mangelt es vor allem an Experten aus technischen Berufen. Im April fehlten Berechnungen des Instituts der deutschen Wirtschaft (IW) zufolge 314.800 Arbeitskräfte in MINT-Berufen, also aus den Bereichen Mathematik, Informatik, Naturwissenschaften und Technik. Vor allem Spezialisten für Big Data, Cloud Computing, Machine Learning und Künstliche Intelligenz (KI) werden händeringend gesucht, aktuell fehlen laut dem Branchenverband Bitkom 55.000 IT-Fachkräfte. Hinzu kommt: Die Vielfalt der Kompetenzen, die heute gerade in hochkomplexen Modernisierungsprojekten benötigt werden, lassen sich kaum noch in internen IT-Abteilungen abdecken. Eine Lösung um dem Fachkräftemangel entgegenzuwirken und damit die Digitalisierung und den wirtschaftlichen Wachstum weiter voranzutreiben, könnten Crowdsourcing sein. Beim Crowdsourcing werden Projektaufträge von Unternehmen an eine Gruppe von Experten (Crowd), die auf einer entsprechenden Plattform zusammen kommt, ausgelagert (Outsourcing).

Größter Personalmarktplatz der Welt

Ein Beispiel für eine solche Plattform ist Topcoder. Mit über einer Million Experten ist Topcoder der weltweit größte Personalmarktplatz für Designer, Entwickler, Programmierer, Data Scientists sowie KI-Experten. Hier kommen Fachleute und Freiberufler zusammen, um gemeinsam komplexe Probleme zu lösen. Die Plattform verkauft Community-Services an Unternehmen und bezahlt Community-Mitglieder für ihre Arbeit an den Projekten. Unternehmen stellen ihre IT-Probleme auf der Plattform ein und Entwickler, die irgendwo auf der Welt sitzen, können Lösungsvorschläge einschicken und damit Geld verdienen. Anschließend sucht der Kunde sich die für ihn am besten passende Lösung aus und muss auch nur diese bezahlen. Der Entwickler löst in der Regel nur Teilaufgaben und erfährt nicht, auf welches Projekt sich seine konkrete Aufgabe bezieht. Ist ein Projekt finalisiert, sind jedoch alle Lösungen für alle Teilnehmer einsehbar.

Für Unternehmen hat diese Art der Experten-Rekrutierung den Vorteil, dass sie so Datenwissenschaftler und Entwickler, die in den nachgefragten Bereichen ausgebildet wurden und die notwendigen Fähigkeiten und Zertifizierungen haben, gezielt finden können. Zudem bietet der Personalmarktplatz den Unternehmen einen On-Demand-Zugang zu den Menschen und Qualifikationen, die sie in dem Moment brauchen, um weiterhin im Wettbewerb bestehen zu können. App-Designer, Entwickler und Datenwissenschaftler aus der ganzen Welt konkurrieren auf der Plattform mittlerweile mit kreativen Codes, Algorithmen und Lösungen um die besten Aufträge – und sind bereit, sofort mit der Umsetzung zu beginnen.

Das beste aus beiden Welten: Die Hybrid Crowd

Aufgrund der gestiegenen Nachfrage der Unternehmen ist Topcoder noch einen Schritt weiter gegangen und hat mit seiner Tochterplattform „Hybrid Crowd” einen einzigartigen Marktplatz geschaffen, der die Expertise der Mitglieder der weltweiten Topcoder-Community mit den Netzwerken technischer Talente verbindet, die es in jedem Unternehmen gibt. Wurden bisher Freiberufler und Angestellte als getrennte Einheiten betrachtet, kombiniert Hybrid Crowd die Vorteile beider Lager, um die Produktivität und Geschwindigkeit weiter zu steigern. Die Hybrid-Crowd-Plattform entstand durch die Integration von Topcoder mit der internen Crowdsourcing-Plattform von Wipro, TopGear, die es den Wipro-Projektmanagern ermöglicht, auch Wipro-Mitarbeiter außerhalb ihrer Projektteams in ihre Arbeit mit einzubeziehen. Mehr als 30.000 Wipro-Mitarbeiter haben sich TopGear angeschlossen, das nun als private Community auf der Topcoder Hybrid-Crowd-Plattform untergebracht ist. Topcoder und Hybrid Crowd stellen somit Eckpfeiler einer kontinuierlichen digitalen Transformation da, die dem Fachkräftemangel entgegenwirkt und auch die deutsche Wirtschaft ankurbeln kann.

Mit der „Hybrid Crowd“ hat Topcoader einen Marktplatz für die Expertise seiner Mitarbeiter geschaffen.

Mit der Hybrid Crowd können Kundenteams ein noch breiteres Spektrum an digitalen Dienstleistungen anbieten und Anforderungen „Just-in-Time” erfüllen. Experten können auch neue Fähigkeiten erlernen und Anerkennung erlangen, indem sie an Crowdsourcing-Wettbewerben teilnehmen. Die Kunden profitieren vom Zugang zu einem breiten Pool bestens zertifizierter Fachexperten mit Erfahrung in AI und Cognitive Computing. Für die teilnehmenden Unternehmen lohnt sich das auch finanziell, im Vergleich zu herkömmlicher Software-Entwicklung liegen die Kosten nicht selten um bis zu 33 Prozent niedriger.

Internationale Unternehmen sind Vorreiter

In den vergangen Jahren griffen IT-Dienstleistungsunternehmen für die Projektarbeit vor allem auf traditionelle Modelle wie den Einsatz von Software-Ingenieuren zurück. Diese Modelle stehen aufgrund des Preisdrucks im IT-Dienstleistungsgeschäft und des Protektionismus in den globalen Wachstumsmärkten zunehmend vor Herausforderungen. Aus diesem Grund hat sich beispielsweise IBM mit Topcoder zusammengetan, um die Ul für ihre Mood Marbles App zu entwerfen und zu bauen, die die Stimmung eines Teams während eines Projekts einfängt und visualisiert. Crowdsourcing lieferte in weniger als acht Wochen einen fertigen Code an das Entwicklerteam von IBM.

Ein weiteres Beispiel: BMC wandte sich an Topcoder um eine App zu entwickeln, die als „Mobile Concierge“ für die Besucher ihres Executive Briefing Centers (EBC) dient. In nur fünf Monaten stand die MyEBC-App für Apple- und Android-Geräte zum Download bereit.

Und die Harvard Medical School hat mit Hilfe der Topcoder-Community ein hochkomplexes Problem im Bereich der DNA-Sequenzierung gelöst, konkret ging es um die Berechnung des Abstands zwischen DNA-Strings. Mit einem einzigen Topcoder-Algorithmus wurde die Berechnungszeit von 260,4 Minuten auf 16 Sekunden verkürzt.

Die wirtschaftliche Zukunft vorantreiben

Internationale Großunternehmen haben die Vorteile von Crowdsourcing bereits erkannt und vergeben Projekte oder komplexe Herausforderungen immer häufiger über Internet-Plattformen an externe freiberufliche Wissenschaftler in der ganzen Welt, die sich oftmals auch gemeinsam der Lösungssuche annehmen. Mit Hilfe von Crowdsourcing konnten in den vergangen Jahren Lösungen für die Data-Science-Probleme von Forschern, Unternehmen und Agenturen in den Bereichen Advanced Robotics, Bio-Landwirtschaft, DNA-Sequenzierung, Umweltschutz, Pharma-Testing, Präzisionsmedizin und vielen anderen Gebieten gefunden werden. Führende IT- und High-Tech Unternehmen können dadurch Projekte im Bereich der neuen Technologien fördern und geeignete Talente finden. Insbesondere bei komplexen Herausforderungen sind sie nicht mehr darauf angewiesen, dass ein entsprechender Mitarbeiter vor Ort ist und Qualifikationen vorweist, die am Arbeitsmarkt kaum noch verfügbar sind.

Vor allem bei kleineren und mittelständischen Firmen muss sich dieses Konzept jedoch erst noch etablieren – dabei könnten gerade KMU enorm von Plattformen wie TopCoder profitieren, da sie nicht mehr mit den Größen ihrer Branche einen nahezu aussichtslosen Kampf um die seltenen Fachkräfte ausfechten müssen. Am Mangel an qualifizierten Mitarbeitern müssen Projekte zur Digitalen Transformation in Zukunft auf jeden Fall nicht mehr scheitern.

Weitere Informationen unter:
https://www.topcoder.com/

 

 

Dies ist ein Gastbeitrag von Matt Needham, General Manager Europe Topcoder

Robotik für den Mittelstand

Dies ist ein Gastbeitrag von Dr. Steffen Wischmann, Stellvertretender Leiter der Begleitforschung PAiCE und Jan-Peter Schulz, Förderprojekt ROBOTOP

Intelligente und vernetzte Robotersysteme sollen die industrielle Produktion effizienter machen. Doch bisher bleiben die komplexen Robotik-Anwendungen fast ausschließlich den großen Unternehmen vorbehalten. Entwicklung und Integration der Roboter sind für mittelständische Unternehmen und das Handwerk noch zu personal- und kostenintensiv. Eine mögliche Lösung: Eine offene Plattform, die die Planung der Robotersysteme vereinfacht. Sie kann kleinen und mittleren Unternehmen (KMU) die Integration von intelligenten Robotern in die eigene Produktion ermöglichen. Gleichzeitig ermöglicht die Plattform neue Geschäftsmodelle für Anbieter und Anwender von Robotik-Lösungen.

Mit der digitalen Transformation halten immer mehr hochkomplexe und vernetzte Robotersysteme Einzug in die industrielle Fertigung. Je größer die produzierte Stückzahl, desto rentabler sind die Investitionen in Robotik-Anwendungen. Handelt es sich jedoch um kleine Stückzahlen oder gar die Losgröße 1 – sprich, individuelle Einzelstücke – ist der Einsatz von Robotik-Lösungen schwierig, kostenintensiv und personell aufwendig. Das bedeutet, dass insbesondere kleinen und mittleren Unternehmen sowie dem Handwerk die Einbindung von Robotern in die Produktionsprozesse verwehrt bleibt.

Doch nicht nur die Investitionskosten stellen eine Herausforderung für den Mittelstand dar. Die Programmierung und Integration der aktuell verfügbaren, klassischen Robotersysteme setzen bislang ein hohes Fachwissen und umfassende Erfahrungen voraus – Kenntnisse, die mittelständische Unternehmen nur selten intern vorweisen können. Damit bilden Investitionskosten und technische Anforderungen die größten Hürden für den Mittelstand und hemmen damit die robotisch unterstützte Automatisierung von KMU und Handwerk – eine Voraussetzung für die Industrie 4.0.

Offene Plattform für individuelle Robotik-Lösungen

Diese Hürden will das Projekt ROBOTOP abbauen. An dem Projekt, das vom Bundesministerium für Wirtschaft und Energie im Rahmen des Technologieprogramms PAiCE gefördert wird, sind verschiedene Forschungseinrichtungen sowie Industrie- und Technologieunternehmen beteiligt. Gemeinsam wollen sie die Entwicklung und Umsetzung von Robotik-Anwendungen im industriellen Kontext vereinfachen und diese damit auch mittelständischen Unternehmen zugänglich machen. Dazu arbeitet das Forschungsteam an einer offenen Plattform, auf der Robotersysteme geplant und simuliert werden können.

Auf der Plattform können standardisierte und wiederverwendbare Software- und Hardwarekomponenten für industrielle Roboter-Anwendungen nach dem Baukastenprinzip zu individuellen Systemen kombiniert werden. Vor der Integration in die Produktionsabläufe kann die Passfähigkeit des geplanten Systems durch 3D-Simulationen getestet werden. ROBOTOP begleitet den Anwender dabei Schritt für Schritt durch den Planungsprozess und schlägt automatisiert geeignete und kompatible Komponenten für das geplante System vor. Zudem können Expertenleistungen angefordert werden, wenn Fragen aufkommen oder eine Beratung notwendig ist: das sogenannte Engineering-as-a-Service. So können sowohl versierte Entwickler als auch unerfahrene Anwender eine individuelle und bedarfsgerechte Robotik-Anwendung erstellen. Dadurch werden die Kosten für die Planung der Roboter und ihre Anpassung an die unternehmensspezifische Produktion deutlich gesenkt.

Neues Potenzial für Anbieter und Anwender

Auch mittelständische Unternehmen können auf diese Weise Robotik-Anwendungen in ihre Produktion integrieren und diese damit effizienter gestalten oder sogar neue Geschäftsmodelle entwickeln – zum Beispiel für die Fertigung in Losgröße 1.

Für die Roboter-Anbieter eröffnen sich dank der Plattform vor allem Möglichkeiten für neue Geschäftsmodelle. Verschiedene Hersteller von Robotik-Komponenten, die bisher in Konkurrenz zueinanderstanden, können zukünftig über die ROBOTOP-Plattform zusammenarbeiten und neue Kunden gewinnen. Die Plattform bietet einen sicheren Rahmen für alle Anbieter und ermöglicht damit erst die Zusammenarbeit. Denn nur wer künftig mit Partnern am Markt vertreten ist, hat eine Chance sich im nationalen und internationalen Wettbewerb durchzusetzen.

Aber auch für die System-Integratoren erschließen sich neue Märkte. Heute erfordert der Planungsprozess einen hohen Aufwand, der durch standardisierte Abläufe minimiert werden kann. Die KMU erhalten durch Best-Practice Beispiele erste Vorstellungen, wie der Prozess in den Fertigungsprozess integriert werden kann. Durch die Simulation wird der Prozess abgebildet und visualisiert. Die Möglichkeit einzelne Komponenten im Modell zu ersetzen, reduziert den Planungs- und Beratungsaufwand für den Integrator. Er kann sich damit auf sein Kerngeschäft und seine Kernkompetenz, das Engineering konzentrieren. Das frühzeitige Erkennen von Chancen, aber auch Schwachstellen ermöglicht die frühzeitige Validierung der Kosten.

Die verschiedenen Komponenten sämtlicher Hersteller können auf der Plattform kombiniert und über standardisierte Schnittstellen zu einer individuellen Lösung zusammengebaut werden. Besonders KMU, denen die Einführung von Robotersystemen zu personal- und kostenaufwendig war, werden zu neuen potenziellen Kunden für Softwareanbieter und Komponentenhersteller.

Bedürfnisse potenzieller Robotik-Anwender ablesen

Zusätzlich erhalten Anbieter von Robotik-Systemen über die Plattform einen Zugang zu Informationen über die Nutzer der Anwendungen. Aus dem Kaufverhalten lassen sich Rückschlüsse auf Trends und Kundenbedürfnisse ziehen, die für die Produktentwicklung, das Marketing und die Neukundengewinnung der Hersteller von Robotik-Komponenten genutzt werden können. Damit ermöglicht die offene Plattform des Projekts ROBOTOP nicht nur KMU einen einfachen Zugang zu modernen und individuellen Robotersystemen, sondern bietet auch System-Integratoren, Software-Entwicklern und Komponentenherstellern neue Vertriebswege für innovative Robotik-Anwendungen.

Exzellenter arbeiten

Frazier Miller, CMO von Wrike erläutert im Gespräch mit der TREND-REPORT-Redaktion warum eine kollaborative Projektmanagement-Lösung beim Change zum agilen Unternehmen wie ein Katalysator fungiert.

 

Herr Miller, warum sollte man für Projektmanagement entsprechend dafür entwickelte Software nutzen und was dürfen Unternehmen von einer Lösung erwarten?

Viele Kunden kommen zu Wrike, weil sie an einem Punkt angekommen sind, an dem eine übersichtliche Arbeit mit Tabellen und E-Mails nicht mehr möglich ist. Eine Projektmanagement-Software hilft (genau wie z.B. ERP- oder CRM-Software) dabei, alle relevanten Daten in einem System zu sammeln, Arbeitsabläufe zu digitalisieren und Routineaufgaben zu automatisieren.

Das bedeutet: Unternehmen können effizienter arbeiten und ihre Produktion skalieren. Außerdem ist gerade bei Projektarbeit eine transparente Zusammenarbeit, auch über verschiedene Abteilungen hinweg, ein Schlüssel zum Erfolg – das kann mit einer kollaborativen Projektmanagement-Lösung wie Wrike erreicht werden.

 

Welche Vorteile ergeben sich aus der Integration von UC-Funktionen in die Projektmanagement-Software?

Kommunikation findet immer im Kontext statt: Man kann direkt in einer Aufgabe oder einem Projekt Kommentare und Feedback geben. Auch Diskussionen finden direkt in der jeweiligen Aufgabe statt, sodass der gesamte Verlauf eines Projekts oder einer Aufgabe jederzeit nachvollziehbar ist.

Außerdem können Dokumente und Zusatzinformationen als Dateien hochgeladen werden und sind so für alle einsehbar. Integrationen sind ein weiterer Weg, um eine Single Source of Truth zu schaffen – Wrike kann beispielsweise mit Microsoft Teams, Google Hangouts, Slack usw. integriert werden, sodass aus Unterhaltungen direkt umsetzbare Aufgaben erstellt werden können.

 

Was ist das Besondere an Wrike im Vergleich zu den am Markt befindlichen Lösungen?

Datenhosting in der EU: Seit 2016 bieten wir unseren Kunden die Möglichkeit, ihre Daten in der EU zu speichern. Wir haben ein europäisches Rechenzentrum in Amsterdam.
Ganzheitlicher Ansatz: Während viele andere Lösungen sich entweder auf Aufgabenmanagement oder Collaboration konzentrieren, ist Wrike eine Software/Plattform für umfassendes Arbeitsmanagement. Zudem haben wir spezielle Funktionen für Marketing-Teams wie z.B. ein Feature für Prüfung und Freigabe sowie eine Enterprise-Funktion mit zusätzlichen Sicherheitsfunktionen wie Single Sign On und Zwei-Faktor-Authentifizierung.

 

Um in dieser Wirtschaftswelt bestehen zu können, müssen Unternehmen und Führungskräfte auf einem neuen Effizienz-Niveau arbeiten, weiß Frazier Miller.

 

In welchen Schritten würden Sie Projektmanagement-Software in einem Unternehmen einführen?

Change Management ist ein sehr wichtiger Schritt in der Einführung einer neuen Software. Wir unterstützen unsere Kunden mit umfassenden Deployment-Paketen und mit Customer Success Managern, um ihnen dabei zu helfen, die Software für ihre jeweiligen Bedürfnisse aufzusetzen.

Außerdem empfehlen wir unseren Kunden, auf Unternehmensseite Champions festzulegen, die für das Roll-out und die Projekt-Kommunikation zuständig sind. Es ist außerdem essentiell, die Prozesse und Arbeitsabläufe des Teams, der Abteilung oder des Unternehmens klar zu definieren, damit diese in der Software entsprechend dargestellt werden können.

 

Inwieweit kann Projektmanagement-Software bei stark repetitiven Aufgaben unterstützen?

Sie kann dabei helfen, Prozesse wie zum Beispiel den Arbeitseingang zu automatisieren. Mit Anfrageformularen können klare Briefings erstellt werden und eingehende Arbeit direkt zugewiesen werden. Darüber hinaus kann auch die Arbeitsübergabe unterstützt und automatisiert werden, zum Beispiel durch benutzerdefinierte Arbeitsabläufe mit bereits zugewiesenen Personen.

Wenn eine Aufgabe zum Beispiel zur Freigabe an die Finanzabteilung gegeben werden muss, kann dies mittels einer Statusänderung automatisch an die entsprechende Person in der anderen Abteilung zugewiesen werden. Vorlagen helfen außerdem dabei, Zeit einzusparen: Anstatt für wiederkehrende Aufgaben oder Projekte jedesmal das Rad neu zu erfinden, können Vorlagen erstellt werden, die ganz einfach dupliziert und verwendet werden können.

 

Welche wichtigen Erkenntnisse brachte Ihre Studie im Kontext von Automatisierung und KI?

Unsere Studie, der Wrike Digital Work Report 2018, hat gezeigt, dass Unternehmen mehrheitlich entweder keine Automatisierungsstrategie haben oder nur für einzelne Abteilungen. Demgegenüber wünschen sich Mitarbeiter gerade bei Routine-Aufgaben mehr technologische Unterstützung.

Die Teilnehmer unserer Studie sehen in der Automatisierung von Routine-Aufgaben ein großes Potential für die individuelle Produktivitätssteigerung: Mehr als jeder vierte Büroangestellte in Deutschland, Frankreich und Großbritannien könnte nach eigener Einschätzung 25 Prozent mehr pro Woche leisten, wenn entsprechende Technologie bereit stünde. 23 Prozent würden sogar bis zu 50 Prozent mehr leisten. 45 Prozent der Befragten sind ferner überzeugt, dass Automatisierung ihrem Unternehmen einen Wettbewerbsvorteil bringt.

Den Nutzen der Automatisierung für das gesamte Unternehmen schätzt das mittlere Management mit Abstand am höchsten ein: 66 Prozent der Befragten aus dieser Gruppe sind überzeugt, dass Automatisierung ihrer Firma einen Wettbewerbsvorteil bringen würde. Bei den befragten Teamleitern sind es immerhin 55 Prozent, die diesen Wettbewerbsvorteil so deutlich sehen. Die Vorteile und auch Entlastung, die gerade Mitarbeiter mit Personalverantwortung von der Automatisierung erwarten, scheinen also enorm.

 

Stichwort Agilität – welche Wettbewerbsvorteile können Ihre Kunden generieren?

Wir leben in einer neuen Ära der Wirtschaft, der On-Demand Economy. Durch Amazon Prime, Netflix, Uber und co. werden die Erwartungshaltungen an ein personalisiertes und augenblickliches Kundenerlebnis in neue Höhe getrieben – die „Ich will genau das – und zwar sofort“-Mentalität ist die neue Norm.

Fazit ist: Um in dieser Wirtschaftswelt bestehen zu können, müssen Unternehmen und Führungskräfte auf einem neuen Effizienz-Niveau arbeiten. Und das bedeutet, dass sich auch unsere Arbeitswelt ändert.

Deutsche Unternehmen sind erfahrungsgemäß sehr gut organisiert, aber dadurch oft langsamer, um auf Trends zu reagieren oder auf Kundenwünsche einzugehen. Wenn man durch eine Software wie Wrike damit beginnt, mit Dashboards und in Sprints zu arbeiten, kann man innerhalb eines Teams oder einer Abteilung eine agile Arbeitsweise übernehmen.

Das passiert allerdings nicht von selbst: Die Software kann dabei unterstützen, doch die Führungsebene muss die Änderung planen und vorantreiben, wobei wir wieder beim Change Management sind. Denn Agilität heißt nicht, dass man planlos arbeitet, sondern mit Prozessen, die sich dem Endergebnis mit kleinen Schritten und Zwischentests nähern. Kurz gesagt: Wrike ist ein Katalysator beim Change zum agilen Unternehmen.

 

Gerade bei Projekten nimmt das Thema „single source of truth“ eine bedeutende Rolle ein: wie unterstützt Wrike hier, die Anforderungen, allen Beteiligten die aktuellsten und richtigen Daten zur Verfügung zu stellen?

In Wrike geschieht Zusammenarbeit immer im Kontext, direkt am Projekt und in einer Plattform – und nicht in mehreren Tabellen oder Dokumenten, die jeder lokal abspeichert und die am Ende nicht mehr übereinstimmen.

Wichtige Projektdaten liegen nicht im Posteingang eines Kollegen, sondern im Projektordner in Wrike, der von allen Beteiligten jederzeit eingesehen werden kann. Wrike unterstützt das Dateimanagement außerdem mit einer Versionierung, sodass jeder auf einen Blick die aktuellste Datei sehen kann. Und um eindeutig zu wissen, welches die finale und freigegebene Datei ist, kann hierfür der integrierte Freigabe-Prozess genutzt werden.

 

Herr Miller, vielen Dank für das Gespräch.

 

Weiterführende Informationen zum Unternehmen finden Sie unter:
https://www.wrike.com/de/

 

Unser Interviewpartner

Frazier Miller – Chief Marketing Officer

Frazier Miller leitet die Marketing-Initiativen von Wrike und bringt alle Marketing-Funktionen mit der strategischen Botschaft und der Markenentwicklung in eine Linie. Seine 20-jährige Karriere in der IT-Branche umfasst Rollen in der Führungsspitze von Yahoo, Bloomberg und Articulate. Durch seine Bandbreite an Erfahrung, sowohl im Produktmanagement als auch in Geschäftsprozessen, hat Miller eine einzigartigen Einblick gewonnen, wie sich Teams in einem hoch operativen Umfeld auszeichnen können.

 

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

DSGVO: Die Stunde Null – was jetzt?

Nach Jahren der Arbeit an einem Gesetzesentwurf und weiteren 24 Monate seit ihrer offiziellen Ratifizierung ist die EU-Datenschutz-Grundverordnung (DSGVO) nun in vollem Umfang in Kraft getreten. Im Mittelpunkt der dazugehörigen Diskussion steht jetzt weniger das Bewusstsein der Unternehmen um ihre Anforderungen sondern ihre Durchsetzung durch die Behörden.

Auch wenn das Gesetz in der derzeitigen Form fest steht, existieren noch einige Unklarheiten: Wie rasch werden die Behörden die vorgesehenen Strafen verhängen? Welche Technologien und IT-Sicherheitsmaßnahmen werden dem „Stand der Technik“ gemäß gesetzeskonform sein? Wird die Verordnung Innovationen begünstigen oder hemmen?

Fakt ist, die Verordnung lässt Unternehmen keine Wahl: Wenn auch nur einer ihrer Kunden EU-Bürger ist, müssen sie sich an die Vorgaben halten. Welche Ereignisse im Zusammenhang mit der DSGVO können wir also für die nahe Zukunft erwarten?

 

Keine hohen Strafen – zumindest noch nicht

Die DSGVO verleiht Behörden die Befugnis, Unternehmen im Falle der Nichteinhaltung mit bis zu vier Prozent ihres globalen Gesamtumsatzes, oder mindestens 20 Millionen Euro, je nachdem was höher ist, zu bestrafen. Doch im Gegensatz zu vielen öffentlichkeitswirksamen Schlagzeilen und angstgetriebenen Werbekampagnen ist es unwahrscheinlich, dass Behörden diese Befugnis von Beginn an nutzen werden.

Tatsächlich sagte das britische ‚Information Commissioner’s Office‘ in einem öffentlichen Statement: „Die Vorstellung, dass wir frühzeitig ein Exempel an Unternehmen wegen geringer Verstöße statuieren grenzt an Panikmache, genauso wie die Vorstellung dass Höchststrafen die Norm werden. Wir bevorzugen das Zuckerbrot gegenüber der Peitsche.“

DSGVO-Konformität ist keine einmalige Angelegenheit, sondern ein kontinuierlicher Prozess der ständig evaluiert und weiterentwickelt werden muss, verdeutlicht Richard Werner, Business Consultant bei Trend Micro

Für Deutschland erwarten wir eine ähnliche Handhabe. Nichtsdestotrotz sind die Strafen alles andere als symbolisch. Die Toleranz der Behörden gegenüber Verstößen wird im Laufe der Zeit sicherlich geringer werden und dadurch werden die Chancen für große Strafzahlungsforderungen steigen. Die 20-Millionen-Euro-Frage ist, wann dieser Fall eintreten wird. Wir gehen davon aus, dass die ersten richtigen Bußen Unternehmen treffen werden, die mit Daten fahrlässig umgehen und sich nicht ausreichend gegen den Zugriff durch Cyberkriminelle schützen.

 

Erpressung im Zusammenhang mit der DSGVO

Cyberkriminelle erweisen sich immer wieder als findig. Wie wir besonders am starken Anstieg von Ransomware beobachten konnten, werden Erpressungsversuche immer beliebter, wobei Opfer bisher oft gezwungen werden ein Lösegeld zu bezahlen, um den angedrohten Datenverlust abzuwenden. Es ist durchaus plausibel, dass Kriminelle ein Unternehmen angreifen, dort Kundendaten abgreifen oder Malware platzieren, mit dem Ziel Geld von dem Unternehmen zunächst für ihr Stillschweigen zu erpressen.

Es ist zwar immer noch unklar, welche Strafen die Behörden für einzelne Angriffe verhängen werden. Dennoch könnten Hacker mögliche Strafen durch die DSGVO in Aussicht stellen, die durch ihren Angriff entstehen, um dann eine niedrigere Summe von den Unternehmen für die Vertuschung zu fordern. Die Frage ist, wie viele CEOs zahlen würden, um den Vorfall zu verschweigen.

 

Datenschutzvorfälle im Zusammenhang mit Lieferketten

Die DSGVO macht einen schrittweisen Wandel im Umgang mit den Dienstleistungen Dritter, wie Zulieferern und Partnern, erforderlich. Tatsächlich sind Datenverarbeiter wie Cloud Service Provider unter der DSGVO gleichermaßen haftbar für Verstöße wie diejenigen, die über die Daten verfügen. Die Lieferketten moderner Unternehmen sind oft komplexe und interdependente Netzwerke die schwer abzubilden und zu sichern sind.

Dadurch ist ein großer Vorfall im Zusammenhang mit Lieferketten sehr wahrscheinlich – womöglich mit Zulieferern aus Drittländern außerhalb der EU, in denen regionale Datenschutzgesetze weniger strikt sind. Unternehmen sollten daher sicherstellen, dass Subunternehmer, Zulieferer und Datenverarbeiter dieselben Vorgaben, Prozeduren und Sicherheitskontrollen befolgen, um die DSGVO einzuhalten.

 

Nur die halbe Wahrheit sagen

Trotz oder gerade wegen drohender Strafen, Rufschäden und Betriebsausfällen mögen manche Unternehmen versucht sein, schwerwiegende Verstöße gegen die Verordnung unter Verschluss zu halten. Offensichtlich wäre das Vertuschen der Wahrheit eine folgenschwere Fehlkalkulation, die unter Garantie gravierende Konsequenzen nach sich ziehen wird. Ein zentraler Punkt der DSGVO ist die Forderung nach Offenheit, Transparenz und Verantwortung seitens der Unternehmen. Die Verheimlichung von unsachgemäßem Umgang mit Kundendaten bedeutet die bewusste Missachtung dieser Prinzipien.

Gleichzeitig kann es immer sein, dass Unternehmen Datenverluste nicht melden, weil ihnen darüber einfach keine Informationen vorliegen. Vor dem Hintergrund der 72-stündigen DSGVO-Meldefrist sind stetiges Netzwerk-Monitoring, fortschrittliche Breach Detection und Reaktionspläne für den Ernstfall von großer Wichtigkeit.

Der Meldepflicht nicht oder nur teilweise nachzukommen ist eine ernsthafte Verletzung des Gesetzes. Die Behörden sollten daher baldmöglichst klarstellen, was genau einen Vorfall ausmacht und Unternehmen sollten Handlungsempfehlungen dazu suchen.

 

Eine Orientierungsphase

DSGVO-Konformität ist keine einmalige Angelegenheit. Im Gegenteil handelt es sich dabei um einen kontinuierlichen Prozess der ständig evaluiert und weiterentwickelt werden muss. Das sind insofern gute Neuigkeiten für Unternehmen, da es wahrscheinlich in einer Schonfrist resultieren wird, während derer Behörden und Unternehmen sich mit dem neuen Gesetz vertraut machen.

Um langfristig erfolgreich zu sein, müssen Vorstände die Verordnung als Geschäft betrachten und weniger als Sicherheitsrisiko. Eine Strategie muss formuliert werden, die Stakeholder aus dem gesamten Unternehmen beinhaltet – inklusive IT, Rechtsabteilung, Compliance und den Dateninhabern selbst. Die DSGVO wird uns erhalten bleiben. Deshalb müssen Unternehmen auf den Zug aufspringen, den Wandel mit offenen Armen begrüßen und lernen, welche neuen Möglichkeiten die neue Verordnung für Innovation, Wachstum und Wettbewerbsfähigkeit bietet.

 

 

Unser Autor

Richard Werner, Business Consultant bei Trend Micro

Weiterführende Informationen über das Unternehmen:

TREND MICRO

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CC0 Creative Commons

Neue Studie: Die Lärmbelastung von Angestellten nimmt zu

Hinter offenen Büroumgebungen steht die Idee, die Zusammenarbeit von Mitarbeitern zu fördern. Eine neue Studie vom Forschungsinstitut Oxford Economics, die von Plantronics, Spezialist und Pionier für Kommunikationslösungen im professionellen und Consumer-Bereich, in Auftrag gegeben wurde, zeigt jedoch, dass die Lärmbelastung in Großraumbüros gravierende Ausmaße annimmt. Demnach haben sich die Bedingungen seit der ersten Erhebung aus dem Jahr 2015 deutlich verschlechtert.

Das Forschungsinstitut Oxford Economics befragte für ihre aktuelle Studie weltweit 500 Führungskräfte und Angestellte aus verschiedensten Industrie- und Funktionsbereichen. Die Teilnehmer kommen aus den USA, Großbritannien, Deutschland, Indien, China, Australien, Dänemark, Schweden, Finnland und Norwegen. Die Untersuchung umfasst zudem tiefergehende Interviews mit Führungskräften, die sich aktiv mit den Herausforderungen moderner, offener Arbeitsumgebungen an die Zusammenarbeit und Produktivität auseinandersetzen.

Die wichtigsten Ergebnisse der Studie:

Akustischen Bedingungen in offenen Büroumgebungen haben sich drastisch verschlechtert

Die Mehrheit der Führungskräfte und Angestellten berichten, dass sie an ihrem Arbeitsplatz nahezu konstant Lärm ausgesetzt sind und für Meetings oder konzentriertes Arbeiten kaum Rückzugsmöglichkeiten haben. Die Bedingungen sind nachweislich schlechter als noch vor drei Jahren. Dabei gibt es weiterhin große Diskrepanzen zwischen dem, wie Führungskräfte und Angestellte dieses Problem wahrnehmen:

  • Nur 1 Prozent der befragten Mitarbeiter (gegenüber 20 Prozent aus dem Jahr 2015) gibt an, keine Maßnahmen gegen Lärm und Ablenkung ergreifen zu müssen, um konzentriert und fokussiert arbeiten zu können.
  • Fast zwei Drittel der befragten Führungskräfte (wie auch im Jahr 2015) glauben, dass ihre Mitarbeiter über die notwenigen Mittel verfügen, um sich vor Lärm und Ablenkung am Arbeitsplatz zu schützen. Dem stimmen nur 29 Prozent der Angestellten zu (gegenüber 41 Prozent zum Jahr 2015). In Deutschland sind die Unterschiede noch gravierender: 64 Prozent der Führungskräfte behaupten, dass ihre Angestellten ausreichend Mittel zur Verfügung haben, um Lärm und Ablenkung zu entgehen. Zustimmung finden sie lediglich von 14 Prozent der Mitarbeiter.

Dies hat zur Folge, dass Angestellte selbst aktiv werden und Maßnahmen ergreifen müssen:

  • Drei Viertel der befragten Mitarbeiter weltweit wie in Deutschland geben an, einen Spaziergang an der frischen Luft zu machen, um anschließend konzentriert und effektiv arbeiten zu können. Ein Drittel greift auf Headsets mit Active-Noise-Cancelling zurück, um Lärm und Ablenkung zu reduzieren.
  • Mitarbeiter in geräuschintensiven Büroumgebungen ziehen es eher in Betracht, ihren Arbeitsplatz innerhalb der nächsten sechs Monate zu wechseln.

Wohlbefinden, Produktivität und finanzielle Auswirkungen

Die Ergebnisse zeigen weiter, dass Lärm und Ablenkung das Wohlbefinden, die Produktivität und sogar die finanzielle Leistungsfähigkeit des Unternehmens beeinträchtigen. Führungskräfte bieten jedoch nicht genügend Unterstützung zur Behebung dieses Problems:

  • 63 Prozent der Mitarbeiter geben an, keinen Rückzugsort für konzentriertes Arbeiten zur Verfügung zu haben, was sich negativ auf ihre Produktivität, Zufriedenheit und ihr Wohlbefinden auswirkt. Dieses Problem bestätigten nur 17 Prozent der deutschen Befragten.
  • Beinahe alle befragten Führungskräfte weltweit wie in Deutschland schätzen die Produktivität ihrer Mitarbeiter als entscheidend für den finanziellen Erfolg ihres Unternehmens ein. Davon sieht nur ein Drittel der Befragten einen direkten Zusammenhang zwischen der Lärmbelastung und der Produktivität ihrer Mitarbeiter.
  • Nur 6 Prozent der Führungskräfte weltweit wie in Deutschland geben an, die Büros ihrer Mitarbeiter mit Tools und Geräten zur Lärmreduzierung ausgestattet zu haben.

Millennials

Laut der Studie sind Millennials, also Personen im Alter von 22 bis 36 Jahren, eher an offene Büros gewohnt als ihre älteren Kollegen. Vermutlich geht dies mit der starken Verbreitung von Großraumbüros in den vergangenen Jahren einher. So ist es wahrscheinlich, dass Millennials ihre ersten Karriereschritte in einem solchen Umfeld machten. Trotzdem zählen sie zu den Ersten, die die Herausforderungen von Großraumbüros bewusst wahrnehmen und diesen anders gegenübertreten als ihre älteren Kollegen:

  • Während 30 Prozent ihrer älteren Kollegen angeben, ein geräuschintensives Arbeitsumfeld als anregend zu empfinden, bestätigen nur 9 Prozent der Millennials diese Aussage.
  • Nur etwas mehr als ein Drittel der Millennials ist mit der Gestaltung ihres Büros zufrieden. Unter den älteren Mitarbeitern ist es fast die Hälfte der Befragten.
  • Fast 90 Prozent der Millennials sind der Ansicht, dass es Aufgabe des Unternehmens ist, Maßnahmen zur Bewältigung von Lärm, Ablenkung und Informationsüberlastung zu ergreifen. Unter den Älteren stimmen 75 Prozent dieser Perspektive zu.
  • 84 Prozent der Millennials ziehen einen Spaziergang dem Aufenthalt in den büroeigenen Pausenräumen und an Ruheorten vor, um sich anschließend besser konzentrieren zu können. Nur 63 Prozent ihrer älteren Kollegen bevorzugen dieses Mittel.

Top-Unternehmen zeigen wie es geht

Die Studie zeigt einen Zusammenhang zwischen dem Umsatzwachstum und der Art und Weise, wie Unternehmen die Gestaltung der Arbeitsumgebung ihrer Mitarbeiter angehen. Mehr als drei Viertel der Führungskräfte in Top-Unternehmen (mit einem Umsatzwachstum von über zehn Prozent und niedriger Fluktuation) geben an, dass die Raumakustik und die Lärmminimierung essentiell für den finanziellen Erfolg ihrer Organisation sind. Zudem führen sie an, proaktiv gegen Lärm und Ablenkung in ihren Büros vorzugehen:

  • Umsatzstarke Unternehmen stellen ihren Angestellten häufiger Tools zur Verfügung, um sich vor Lärm und Ablenkung zu schützen. Zudem bieten sie Rückzugsmöglichkeiten für konzentriertes Arbeiten.
  • Unter den Führungskräften umsatzstarker Unternehmen glauben nur 28 Prozent, dass Mitarbeiter eine laute Umgebung als anregend empfinden. Bei den befragten Führungskräften der anderen Unternehmen sind es 50 Prozent.

Plantronics hat die Studie in Auftrag gegeben, um besser zu verstehen, wie Arbeitsumgebungen geschaffen werden können, in denen sich Mitarbeiter entwickeln und inspiriert arbeiten können. „Die Ergebnisse sind eindeutig: Offene Büroräume können zu Kosteneinsparungen führen, jedoch häufig zu Lasten der Produktivität und des Wohlbefindens der Mitarbeiter“, sagt Jennifer Adams, Director Enterprise Solutions Marketing. „Mit fast 60 Jahren akustischer Expertise bieten wir eine Vielzahl an Lösungen, die sich mit diesen Herausforderungen befassen. Dazu gehören Headsets mit Active-Noise-Cancelling sowie unsere Akustik-Management-Lösung Plantronics Habitat Soundscaping. Unsere Vision: Ein offenes Büro, in das Mitarbeiter gerne kommen, das ihr Wohlbefinden steigert und sie dabei unterstützt, ihrer Arbeit konzentriert und engagiert nachzugehen.“

Weitere Informationen unter:
https://www.plantronics.com/gb/en/solutions/managing-noise

Stirbt die Unternehmenswebsite aus?

Geht es der Unternehmenswebsite ähnlich wie den Dinosauriern vor 65 Millionen Jahren am Ende der Kreidezeit? So selbstverständlich wie damals der Tyrannosaurus Rex durch die Wälder streifte, so selbstverständlich beschränken viele Unternehmen heute ihre Aktivitäten im digitalen Raum auf die eigene Website.

Die Dinosaurier sind sang- und klanglos verschwunden, obwohl sie einst die Welt beherrschten. Auch die Unternehmenswebsite droht auszusterben, wenn sie sich nicht weiterentwickelt. Die Digital-Knowledge-Management-Spezialisten von Yext erklären, weshalb ihr Bedeutung schrumpft – und welche Weiterentwicklung notwendig ist, damit sie überlebt.

Voice Search und Drittanbieter bedrohen die Website

Wer im Internet nach einem Unternehmen sucht, stößt auf eine Vielzahl an Links, maximal einer davon führt zur Unternehmenswebsite. Zu ihm gesellen sich Links zu Bewertungsportalen, Adressverzeichnissen, Kartendiensten oder zu sozialen Medien. Darüber hinaus bieten auch die Suchmaschinen selbst Informationen an – bestes Beispiel ist hier der Google Knowledge Graph, der Informationen wie Adressdaten oder Öffnungszeiten direkt in die Suchergebnisseite einbindet.

Die Suche nach einem Unternehmen endet also nicht mehr zwangsläufig auf dessen Website. Im Gegenteil: Eine repräsentative Studie von Yext aus dem Jahr 2017 zeigt, dass 73 Prozent des relevanten Traffics auf Drittanbieter-Plattformen stattfindet. Für Konsumenten sind sie längst nicht mehr nur Durchgangsstation auf dem Weg zur Unternehmenswebsite, sondern ultimative Informationsquelle.

Die zunehmende Verbreitung von Sprachsuchtechnologien verstärkt diesen Trend. Einer Prognose von ComScore zufolge wird die Sprachsuche 2020 bereits die Hälfte aller Suchanfragen ausmachen. Konsumenten haben so dann noch nicht mal mehr die Option, die Unternehmenswebsite aufzurufen. Stattdessen geben ihnen ihre digitalen Assistenten etwa auf die Frage nach den Öffnungszeiten des nächstgelegenen Supermarkts einfach die direkte Antwort: Der Supermarkt schließt um 20 Uhr.

Diese beiden Entwicklungen – der Aufstieg der Sprachsuche und die zunehmende Zahl an Drittanbieter-Plattformen – führen zu einem Bedeutungsverlust der Unternehmenswebsite. Sie wird von Konsumenten immer seltener angesteuert.

Die Unternehmenswebsite muss sich weiterentwickeln

Was den Niedergang der Dinosaurier verursacht hat, ob ein Meteoriteneinschlag, Vulkanausbrüche oder Klimaveränderungen, ist unklar. Bei der Unternehmenswebsite lassen sich die Gründe für ihren Niedergang sehr klar benennen – und auch die Bedingungen ihres Überlebens. Dass sie weiterlebt, ist sowohl im Interesse der Unternehmen als auch ihrer Kunden, denn für die einen ist sie die am besten zu steuernde, für die anderen die zuverlässigste Informationsquelle.

 

 

Zwei Dinge werden das Überleben der Unternehmenswebsite sichern:

1. Die Unternehmenswebsite darf nicht länger als der einzig maßgebliche Kanal missverstanden werden. Unternehmen müssen weg vom „Website-First“-Prinzip und den eigenen Internetauftritt stattdessen als Teil eines weitläufigen Netzwerks aus Touchpoints begreifen, das auch zahlreiche Drittanbieter-Plattformen umfasst.

Für die Zukunft ist entscheidend, dass alle an diesen Touchpoints angebotenen Informationen korrekt, aktuell und widerspruchsfrei sind – hierzu bedarf es einer technischen Lösung, mit der man Inhalte zentral pflegen und per Knopfdruck auf allen Plattformen aktualisieren kann.

 

2. Unternehmenswebsites müssen technisch an die neuen Voraussetzungen angepasst werden. Das umfasst zum Beispiel, die bereitgestellten Informationen mit Hilfe von Auszeichnungssprachen strukturiert aufzubereiten. Denn digitale Assistenten wie Siri oder Alexa brauchen maschinenlesbare Daten, um zuverlässig antworten zu können.

Um die Unternehmenswebsite vor dem Aussterben zu bewahren, ist ein Evolutionssprung nötig. Unternehmen müssen sich verstärkt mit der Frage beschäftigen, welche Touchpoints Konsumenten im digitalen Raum ansteuern und wie sich die dort hinterlegten Informationen möglichst effizient verwalten lassen – angefangen bei Basis-Daten wie Öffnungszeiten, Telefonnummern, Standortadressen und Social-Media-Präsenz bis hin zur Speisekarte, detaillierten Produktinformationen oder Sonderangeboten.

Nur wenn es gelingt, die Unternehmenswebsite an die veränderten Bedingungen anzupassen, lässt sich ihr Überleben sichern.

***

 

 

Über Yext
Ab Yext wird Digitales gemanaged. Yext definiert damit die neue Kategorie Digital Knowledge Management. Unternehmen können all ihre öffentlichen Fakten managen, die sie Konsumenten über das digitale Ökosystem hinweg mitteilen wollen. Die Yext Knowledge Engine™ ermöglicht es, digitales Wissen zu verwalten und mit über 100 Plattformen im PowerListings Network® zu synchronisieren. Die Produkte Yext Listings, Pages und Reviews helfen Unternehmen weltweit, persönliche und digitale Interaktionen zu fördern und damit die Markenbekanntheit zu stärken, Laufkundschaft zu generieren und den Umsatz zu steigern.

Pressekontakt
Hotwire für Yext
yextdach@hotwireglobal.com
+49 (0) 89 21 09 32 75

 

 

Aufmacherbild /Beitragsbild / Quelle / Lizenz

Pixabay / CC0 Creative Commons

Pixabay / CC0 Creative Commons

 

Banken müssen sich öffnen

Banken müssen sich öffnen – in jedem Bereich – um weiter zu bestehen

Die Finanzbranche hat es momentan wirklich nicht leicht. Neue Technologien, neue Wettbewerber, neue Gesetze und gestiegene Kundenerwartungen – das sind nur einige der Herausforderungen, denen die Finanzinstitute gegenüberstehen.

Sinkende Margen und schwindende Börsenkurse haben dazu beigetragen, dass nahezu alle Institute mittlerweile die Zeichen der Zeit erkannt haben und nun auch wirklich Taten folgen lassen. Meist werden dazu riesige Summen in die Hand genommen, um mit neuester Technik voranzukommen. Warum Geld alleine das Problem nicht lösen kann, haben wir in einigen anderen Artikel bereits beschrieben. (Digital Banking – die größten Herausforderungen für Finanzinstitute)

Deutlich wird dies aber vor allem an der Tatsache, dass klassisches Banking an sich an Bedeutung verliert. Ohne eine Hausbank war das finanzielle Überleben einer Privatperson bis vor wenigen Jahren undenkbar. Aber wir leben in Zeiten von Apple Pay, PayPal, der Amazon-Kreditkarte und bald auch AliPay – wer einen Blick nach Asien, Afrika oder den USA riskiert, kann erahnen, was auf die Banken zukommt.

Wenn Arbeitgeber erst einmal beginnen, das Gehalt auf PayPal & Co. zu transferieren – wer braucht dann noch eine Hausbank? Vor allem, wenn es Wettbewerber gibt, die Bankservices besser, schneller, mobiler und günstiger anbieten. Noch genießen Hausbanken hierzulande einen Vertrauensvorsprung gegenüber digitalen Wettbewerbern, aber wie lange noch? Banken müssen daher neue Wege finden, interessant zu bleiben und die Anforderungen der Kunden bestmöglich zu erfüllen. Gelingt ihnen das nicht, geraten sie in Gefahr, die Kunden zu verlieren.

Open Banking – der Weg in die Zukunft?

Open Banking steht für die Öffnung bisher geschlossener Abläufe und Produkte. Zusammen mit Partnern, Wettbewerbern und vor allem externen Entwicklern lassen sich so schneller als bisher neue wettbewerbsfähige Produkte schaffen. Hierbei steht die Nutzung von Bank APIs (Softwareschnittstellen) durch externe Softwareentwickler im Vordergrund. Über APIs erhalten Entwickler Zugriff auf Kundendaten und Bankanwendungen, können diese mit anderen Daten kombinieren und so ganz neue Finanzdienstleistungen schaffen.

Der Kunde möchte Bequemlichkeit bei dem Erwerb eines Produktes oder bei der Nutzung eines Services. Dazu gehört auch, dass er nicht jedes Mal wieder alle seine Daten neu eingeben muss. Egal ob er bei Amazon shoppt, eine Wohnung bei Airbnb bucht oder ein neues Konto eröffnet. Banken haben sich bisher geweigert, die Kundendaten auch externen Drittanbietern zur Verfügung zu stellen. Begründet war dies oftmals auf herrschenden Regularien, die die Banken einhalten müssen.

Doch dürfen die Finanzinstitute in Zukunft nicht den Fehler machen, sich hinter diesen Regularien zu verstecken, sondern müssen auf Grundlage der DSGVO beginnen, ihre Daten externen Anbietern zur Verfügung zu stellen und so einen Mehrwert für die Kunden bieten. Banken stehen vor der Herausforderung sowohl ein einmaliges Kundenerlebnis zu schaffen, es den Kunden zu bequem und einfach wie möglich zu machen als auch die Sicherheit seiner Daten zu gewährleisten.

Hier liegt die Chance für Banken: Nahezu alle Anwendungen im Finanzumfeld benötigen einen Identitäts- und Altersnachweis und genau diese Unterlagen liegen den Instituten bereits vor. Kopien des Personalausweises, Gehaltsbescheinigung, Kreditwürdigkeit – all das ist in den Systemen der Banken vorhanden. Kreiert ein FinTech, das mit einer großen Bank kooperiert, eine neue App, kann auf Eingabe der persönlichen Daten, Überprüfen der Identität und Altersnachweis verzichtet werden, da viele der benötigten Dokumente bereits der Bank vorhanden sind.

Kunden kennen das Prozedere vom Smartphone – “Mit Google Konto registrieren/ anmelden”, künftig könnte es heißen “Mit meinem Konto von BankABC registrieren”. Die Deutsche Bank übrigens hat zusammen mit Partnern wie der Allianz und Daimler genau so etwas eingeführt. VERIMI¹ heißt das zentrale Account, mit dem man sich schnell und sicher bei verschiedenen Online-Diensten registrieren, einloggen und ausweisen kann.

Turbo-Booster PSD2

Aber das beschriebene Szenario ist nur der Startpunkt der digitalen Reise. Banking kann noch angenehmer werden, wenn man sich mit bisherigen Konkurrenten verbindet. Amazon hat das schon lange erkannt und bietet mit dem Amazon Marketplace externen Händlern seine Infrastruktur an. Das hat dazu geführt, dass viele Händler gar keine eigene Webseite geschweige denn einen Online-Shop benötigen, sondern ausschließlich auf Amazon verkaufen.

Interessanterweise hilft PSD2 diesen Ansatz im Finanzsektor voranzutreiben. Die Payment Services Directive 2 (PSD2) definiert die Marktöffnung für Drittanbieter im Zahlungsverkehr, um Innovationen und den Wettbewerb zu fördern. Gleichzeitig soll der Verbraucherschutz erhöht werden.

Hinter der neuen Richtlinie steht das Ziel, durch neue Anbieter, neue Lösungen und verstärkten Wettbewerb die Kosten im Zahlungsverkehr generell zu senken und die Sicherheit zu erhöhen. PSD2 verpflichtet Banken auf Wunsch des Kontoinhabers ihm oder von ihm ausgewählten Dritten den Zugriff auf Kontodaten zu gewähren. Für Kunden bedeutet das vor allem eine Vereinfachung des Zahlungsverkehrs, eine Analyse der Kontobewegungen und eventueller Sparmöglichkeiten.

 

Innovationen und Start-ups gegenüber offen sein

Neben OpenBanking, APIs und PSD2 bieten FinTechs den Banken eine weitere Möglichkeit, sich zu öffnen. Besondere Fähigkeiten und Kompetenzen, die für die Extraktion von Informationen aus vorliegenden Daten und Partnerschaften zwischen Branchenakteuren benötigt werden, können oftmals besser von FinTechs oder Startups geliefert werden. Sie haben die Möglichkeit und das Know-how, durch tiefer gehende Datenanalysen den Kunden individuelle Vorschläge zu unterbreiten und neue Geschäftsmodelle zu entwickeln.

Banken profitieren dabei von einer schnelleren Reaktionsfähigkeit auf Marktimpulse der StartUps. Durch die Partnerschaft kann die Zeit zwischen der Konzeption einer Lösung und ihrer tatsächlichen Kommerzialisierung enorm verkürzt werden. Weitere damit verbundene Vorteile sind Kostensenkungen und eine Steigerung der Rentabilität.

Einige der klassischen Banken haben bereits erkannt, wie nützlich Kooperationen mit  FinTechs sind und schaffen mit der Zusammenarbeit ein Win-Win aus Kundenstamm und neuen digitalen Lösungen. Beispiele sind die Direktbank ING mit Yolt oder die HSBC mit dem Fintech Bud. In einigen Fällen übernehmen Banken auch einfach FinTechs, so hat sich die spanische BBVA mit den drei Start-Ups Holvi, Simple und Madiva verbunden.

Open Mind gewinnt

Nicht nur “Open Banking”, sondern vor allem eine Art “Open Mind” ist es also, was deutsche Banken in Zukunft verfolgen müssen; bestehende Geschäftsmodelle und Infrastrukturen überdenken und überarbeiten. Die stattfindende digitale Transformation sollten Banken dazu nutzen, die eigene Ausrichtung vor allem in Hinblick auf Zusammenarbeit zwischen verschiedenen Parteien in einem System neu zu definieren. Das erklärte Ziel dabei: Innovationen und Bereitstellung von Dienstleistungen zum Wohle des Kunden.

 

Weiterführende Informationen zum Unternehmen:
www.avoka.com

 

Unser Autor

*Christian Brüseke verantwortet als General Manager die D-A-CH-Region von Avoka.

 

 

 

 

 

 

¹Quelle: VERIMI – https://www.deutsche-bank.de/pk/digital-banking/digital-banking-im-ueberblick/verimi.html 

 

Aufmacherbild / Quelle /Lizenz
Pixabay / CCO Creative Commons

Beitragsbild / Quelle / Lizenz
Pxabay / CCO Creative Commons

 

 

 

Was steckt hinter dem Erfolg der Pop-up-Stores?

Ob Sie nun temporären Einzelhandel, Flash-Einzelhandel, Guerilla-Stores oder Pop-up-Store hören, es ist alles ein und dasselbe. Pop-up-Shops erobern die Einzelhandelswelt und stellen traditionelle Verkaufsflächen vor Herausforderungen. Aber was genau steckt hinter diesem wirtschaftlichen Trend?

Bereits in den 1990er Jahren entstanden in Großstädten wie Tokio, London, Los Angeles und New York City Pop-up-Shops: temporäre Verkaufsflächen, auf denen Waren aller Art verkauft werden. Seitdem wurde fast jedes Konsumprodukt zu einem bestimmten Zeitpunkt über einen Shop verkauft. Von Kunst über Mode bis hin zu Tech-Gadgets und Essen sind Pop-ups spannend, weil sie kurzfristige Geschäfte schaffen, die ebenso kreativ wie ansprechend sind. Und es gibt sie in allen Formen und Größen.

Typische Eigenschaften dieser Geschäfte:

Laufzeit: nur wenige Wochen
Lage: stark frequentierte Bereiche wie Stadtzentren, Einkaufszentren und belebte Straßen, zum Teil aber auch ausgefallene Orte, wie Hinterhöfe.
Preis: häufig spezielle Rabattaktionen
Anwendung: Einführung neuer Produkte, Bewusstsein erzeugen, Coolness-Faktor erhöhen, Zielgruppe finden, Brand stärken

 

Was sind die Vorteile eines Pop-up-Shops?

Verbindung der Shopbetreiber mit ihren Kunden: Das Pop-up-Format ermöglicht es Shops, ihre Kunden persönlich kennenzulernen und stärkere Beziehungen aufzubauen.
Mehr verkaufen: Etwa 95% aller Einkäufe werden noch immer offline getätigt. Dies ist die Chance, diesen Handelskanal zu nutzen.
Bewusstsein erzeugen: Verbraucher und Medien lieben die Begeisterung, die von ausgefallenen Shops ausgeht. Händler erzeugen Aufmerksamkeit, indem Sie offline gehen und über Social Media gratis Werbung bekommen
Es ist billiger: Die Eröffnung eines Pop-up-Shops ist 80 % günstiger als ein traditionelles Einzelhandelsgeschäft, die Mietverträge sind kurzweilig
Test neuer Märkte: einfacher Einstieg in einen neuen Markt und Einführung neuer Produkte gerade für junge Unternehmer die ihr Produkt austesten möchten

 

Wer kann einen Pop-up-Shop eröffnen?

Die kurze Antwort ist: Jeder. Namenhafte Marken machen es vor. Der Mode Shop Peek & Cloppenburg bietet wechselnde Themen und Events in seinen Häusern an und erreicht damit neue Zielgruppen. Gleichzeitig sind lokale Künstler, Macher und Modedesigner auch in der Pop-up-Szene immer beliebter geworden. Selbst mobile Trucks für Lebensmittel, Designermode und Vintage-Hausrat werden immer häufiger auch in deutschen Städten entdeckt.

 

Fazit

Pop-up-Stores bieten sowohl klassischen Einzelhändlern als auch den Mietern dieser Flächen zahlreiche Vorteile. Kleine Unternehmen profitieren von der meist exklusiven Lage und hoher Besucherfrequenz. Diese sind ideal, um neue Produkte einzuführen und die Zielgruppe ausfindig zu machen.

Vermieter von Einkaufsflächen vermeiden Leerstände ihrer Verkaufsflächen, generieren Einnahmen durch die Miete und ziehen durch die Attraktivität und zeitliche Beschränkung der Verkaufsflächen neues Publikum an. Vor allem jedoch profitieren die Kunden, denen meist exklusive und hochwertige Produkte in einem attraktiven Umfeld und zu günstigen Konditionen angeboten werden. Somit lohnt sich diese Geschäftsidee für jeden Beteiligten.

 

 

 

 

 

 

Aufmacher- und Beitragsbilder / Quelle / Lizenz

Aufmacher
Pixabay CCO Creative Commons

Discount
Pixabay CC0 Creative Commons

Hot Dog Van
Pixabay CCO Creative Commons

Digital Banking – die größten Herausforderungen für Finanzinstitute

Die globale Finanzkrise ist längst vorbei, aber eine andere Art von “Krise” macht den Banken aktuell zu schaffen – die Digitale Transformation. Erstaunlich, denn eigentlich sollten die Institute mit der Digitalisierung ihrer Services keine Probleme haben.

Hat doch kaum eine andere Branche so früh wie der Finanzsektor sich mit dem Digitalen auseinandergesetzt: Online Banking ist seit gefühlten Ewigkeiten Standard; Kontoauszüge auf Papier gibt es kaum noch und wenn dann meist nur via Self-Service am Bankautomaten; Aktien werden seit über 20 Jahren quasi nur noch Online gehandelt – die Liste ließe sich hier beliebig weiterführen.

Und dennoch werden die klassischen Finanzinstitute aktuell von verschiedenen Seiten in die Zange genommen. Steigender regulatorischer Druck, der rasante Durchbruch des Smartphones, FinTechs, nicht-traditionelle Konkurrenten, rückläufiger Filialverkehr – all das macht es den Banken nicht leicht.

Zudem steigen die Kundenerwartungen immer weiter an. Privatkunden, aber immer öfter auch Firmenkunden, sind mittlerweile fast nur noch mobil unterwegs und durch den eCommerce (Amazon & Co.) andere Services gewohnt, als ihnen die klassische Bank hier bietet.

Die Finanzinstitute haben die Zeichen und die Not zu handeln erkannt. So gibt es zur Zeit wohl keine Bank, die nicht mit Macht an der Digitalen Transformation arbeitet. Aufgeben ist keine Option, aber das Aufholen ist nicht einfach und kostet Zeit. Hinzu kommen weitere Hürden, die teilweise nur im Banken- und Versicherungssektor bestehen. Im Folgenden soll auf einige der wichtigsten Herausforderungen für modernes Digital Banking eingegangen werden.

Kulturelle Aspekte bremsen die Transformation

In der Vergangenheit konnten Banken die Herausforderungen des Wandels meist ohne große Mühe meistern. Oftmals waren sie diejenigen mit dem größten Budget und konnten somit technische Neuerungen schnell umsetzen. Jedoch ist die Digitale Transformation nicht alleine mit digitalen Produkten und einem entsprechenden Budget zu bewältigen.

Denn neben Technik, ohne die es natürlich nicht geht, sind für den Erfolg der Digitalen Transformation vor allem Unternehmenskultur, Organisationsstruktur sowie die individuelle Einstellung von Entscheidern und Mitarbeitern von Bedeutung. Hinzu kommt eine gewisse Experimentierfreude mit der Bereitschaft, auch mal zu scheitern. Aber genau daran mangelt es den klassischen Banken.

Ein Beispiel verdeutlicht die Problematik: In der Vergangenheit haben Banken ihre Lösungen meist nur mit Innensicht und in dem von ihnen bestimmten Tempo umgesetzt. Zuerst wurde überlegt, ob sich ein neues Produkt für die Bank rentiert. Nur wenn dies mit JA beantwortet werden konnte, wurden Lösungen an die bestehende IT angebunden, in existierende Workflows eingebunden und die Mitarbeiter entsprechend geschult. Die Meinung und Wünsche der Kunden wurden hier meist nicht eingeholt.

Aber genau darum geht es heute: Neue Produkte und Service zu kreieren, um Kunden zu begeistern. Hier haben FinTechs und neue Player die bessere Position. Es handelt sich oft um junge Unternehmen, die von jungen Menschen geführt werden, die mit Smartphone und Tablet aufgewachsen sind und daher Produkte entwickeln, die ihrer und damit der Kundenmentalität entsprechen. Kein Wunder also, dass Unternehmen wie die Online-Bank N26 oder die Investment-Plattform etoro an den traditionellen Banken vorbeiziehen.

Neues Frontend – veraltetes Backend

Bei jeder klassischen Bank existiert ein über Jahrzehnte gewachsenes heterogenes IT-Gerüst, das immer wieder erweitert wurde. Darunter befinden sich neuere Entwicklungen aber auch Mainframes, die man aufgrund gewachsener Kernbanken-Anwendungen nie ablösen konnte.

Das Ganze ist ein sehr effizientes, voll funktionierendes System, das mit vielen Anwendungen, Schnittstellen und Partnern kommuniziert. Neue Lösungen wurden immer behutsam über einen längeren Zeitraum entwickelt, getestet und implementiert. Leider funktioniert das heutzutage nicht mehr, da die Halbwertszeit neuer Technologien immer geringer wird.

So gehört beispielsweise ein neues Smartphone nach sechs bis neun Monaten schon zum alten Eisen und die Betriebssysteme Android und iOS werden im Quartalstakt aktualisiert. Neue Lösungen wie zum Beispiel die Möglichkeit Kredite vom Smartphone aus zu beantragen und sich dabei mit Daten von Facebook oder Gesichtserkennung via Handykamera zu identifizieren unterliegen somit dem Druck möglichst schnell auf den Markt zu kommen, dabei optisch attraktiv und leicht bedienbar zu sein.

Und genau hier liegt für Banken das Problem: Innovationen schnell zu entwickeln und diese in die Kernapplikationen zu implementieren. So lässt sich ein neues Frontend vielleicht noch darstellen, die Lücke zum Backend ist jedoch groß. Komplexe, veraltete und intransparente IT-Architekturen behindern neue mobile Prozesse. Moderne Anwendungen im Frontend bringen die Finanzhäuser auf dem Weg der digitalen Transformation nicht weiter, wenn sie nicht gleichzeitig die Kernapplikationen im Backend modernisieren.

Dabei machen Finanzinstitute jedoch oft den Fehler, dass sie zu Übergangs- und Umgehungslösungen greifen, um so schnell wie möglich immer weitere Funktionalitäten oder Apps im Frontend anzubinden. Die Folge ist ein Flickenteppich im Backend, der stetig größer wird und dazu führt, dass sich das Grundproblem nur immer weiter verschärft.

Jedoch können Banken nicht einfach ihre bestehende IT aufgeben und wie ein Start-Up bei Null anfangen. Durch Kooperationen mit erfolgreichen neuen Playern können sie jedoch sehr schnell neue Lösungen anbieten. Die Anbindung an die bestehende IT muss dann “lediglich” über Schnittstellen mit diesen Playern gemeinsam realisiert werden. Im Vergleich zu den oben beschriebenen kulturellen Herausforderungen ist die technische Lücke zwischen Front- und Backend daher eher ein kleines Problem und leichter zu bewältigen.

Compliance als Chance begreifen

Basel 1-2-3, GDPdU, KYC, WpHg, MaRisk – wenn es eine Branche gibt, die Erfahrung mit rechtlichen Vorgaben hat, dann ist es die Finanzbranche. Niemand bekam in den letzten 20 Jahren mehr neue Regeln auferlegt, meist im Zwei-Jahrestakt. Erst vor Kurzem kam noch die DSGVO hinzu.

Mit den neuen Regeln steigen die Anforderungen an die Verwaltung von Daten und an die Informationssicherheit. Vom Frontend bis zur Kern-IT-Infrastruktur müssen transparente und automatisierte Geschäftsprozesse existieren. Das Schlechte dabei, an der DSGVO kommt niemand vorbei. Das Gute daran, an der DSGVO kommt niemand vorbei.

Natürlich stellt die die EU-Datenschutz-Grundverordnung auch für Banken eine große Herausforderung dar. Aber sie sind es gewohnt, neue Gesetze unter knappen Zeitvorgaben innerhalb einer großen Institution erfolgreich zu implementieren. Hier haben sie ausnahmsweise einen Vorsprung gegenüber ihren neuen Wettbewerbern.

Die DSGVO bietet traditionellen Banken die Chance, veraltete Geschäftsprozesse zu aktualisieren und digitale Transformationsinitiativen zu unterstützen. Die große Manpower in den klassischen Finanzhäusern, die eigenen Legal-Abteilungen, sowie die Erfahrung bei der Umsetzung von Gesetzesvorgaben, unterstützen die Banken bei der Implementierung der neuen Richtlinien. Die DSGVO ist also keineswegs nur eine weitere Compliance-Herausforderung.

Im Gegenteil, sie bietet argumentativen Rückenwind, sich auf die digitale Transformation einzulassen. Dies wird sich auch positiv auf den notwendigen Kulturwandel und die Öffnung hin zu neuen Partner auswirken.

 

Weiterführende Informationen zum Unternehmen:
www.avoka.com

 

 

Unser Autor

*Christian Brüseke verantwortet als General Manager die D-A-CH-Region von Avoka.