Vorsorgen, aber richtig

In drei Schritten zur Absicherung im Alter

Hannover, März 2018. Der frühe Vogel fängt den Wurm – ähnlich verhält es sich bei der eigenen Altersvorsorge. Wer sich bereits in jungen Jahren mit Anlagemöglichkeiten beschäftigt, bereitet sich auf einen entspannten Lebensabend vor. Darüber hinaus sprechen das steigende Durchschnittsalter der Deutschen und die Anpassung der gesetzlichen Rente ebenfalls für eine vorzeitige Absicherung. Doch wie das eigene Kapital risikoarm und mit guten Renditeaussichten anlegen? „Immobilien lautet hier das Stichwort. Durch eine lange Lebenszeit bringen sie Wertstabilität und Inflationsresistenz mit sich“, weiß Patrick Holze, Vorstandsvorsitzender der DI Deutschland.Immobilien AG. Worauf potenzielle Anleger bei Zeitpunkt-, Standort- und Objektauswahl achten sollten, erläutert der Immobilien-Experte in drei Schritten.

1. Schritt: Die Erkenntnis
Früh übt sich, wer ein erfolgreicher Anleger werden will: Bereits in jungen Jahren den Vorteil von Immobilien als Kapitalanlage zu kennen, bietet genügend Zeit, um sich auf eine Investition optimal vorzubereiten. Immobilien amortisieren sich durch einen regelmäßigen Mietzins. Je eher die Immobilie also im Besitz ist, desto länger profitieren Investoren. Doch vor einem Kauf sollten Interessierte ihre finanzielle Lage überprüfen. Eine Faustregel besagt, dass bestenfalls drei Nettogehälter als liquider Notgroschen auf dem Konto liegen sollten.1 Wenn etwa die Waschmaschine kaputtgeht, steht das Geld sofort zur Verfügung. Alles darüber hinaus lässt sich sorgenfrei investieren. „Nicht nur die Finanzen sollten im Vorhinein überprüft werden, Investitionswillige müssen sich vor dem Kauf auch über Rechte und Pflichten informieren“, weiß Holze. Zu diesem Zweck bietet die DI Deutschland.Immobilien AG gemeinsam mit Partnern regelmäßig unverbindliche Informationsveranstaltungen in ganz Deutschland an.

2. Schritt: Die Entscheidung
Wer die Wahl hat, hat die Qual: Eigentumswohnung oder Anlage? Selten wissen junge Leute, wo sie den Anker werfen möchten, um sesshaft zu werden oder in den Ruhestand zu gehen – in die eigenen vier Wände zu investieren, ist daher oftmals keine Option. Stattdessen bieten Anlage-Immobilien dank des Mietzinses und der zusätzlichen Einnahmequelle im Alter eine lukrative Alternative. „Auf dem Markt der Anlage-Immobilien gibt es viele verschiedene Assetklassen, wie Pflege-, Ferien-, Mikro- oder Denkmalimmobilien – dabei besticht jedes Objekt durch eigene Vorteile“, berichtet der Experte. Vor allem Pflegeimmobilien punkten in Sachen Altersvorsorge: Mit einer Investition sichern sich Besitzer einen kontinuierlichen Mietzins, denn bei eventuellen Mietausfällen springt die Sozialkasse ein. Dort kümmert sich ein Betreiber um die Verwaltung, Vermietung und Instandhaltung eines Objekts. Außerdem stellen Pflegeimmobilien einen der letzten Wachstumsmärkte dar.

3. Schritt: Die Absicherung
In Stein gemeißelt ist der Kauf einer Immobilie erst, wenn ein Notar den Besitzerwechsel im Grundbuch dokumentiert. „Das Grundbuch ermöglicht zudem, Immobilien im Testament als Erbschaft zu vermerken, bei Schulden zu beleihen, zu verkaufen oder zu verschenken. Darüber hinaus bieten Pflegeappartements einen weiteren Vorteil: Besitzer oder deren nahe Angehörige erhalten ohne lange Wartezeiten einen Pflegeplatz in einer Einrichtung des Betreibers“, erläutert der Experte der DI Deutschland.Immobilien AG. Nicht nur der zukunftssichere Markt und der regelmäßige Mietzins, sondern auch der gesicherte Pflegeplatz überzeugen selbst junge Interessierte von den Vorzügen einer Investition.

Weitere Informationen unter: www.deutschland.immobilien

Als Gastronom den richtigen „edlen Tropfen“ finden

Ein Wein ist ein Genuss für die Sinne und vielseitig im Geschmack. Als Gastronom ist eine gute Weinkarte das A und O. Vorab ist die Beratung besonders bedeutsam, damit die edlen Tropfen bei den Gästen gerne angenommen werden. Charakteristische Nuancen verleihen Merkmale und demnach unterscheiden sich die edlen Tropfen besonders. Ein Wein bietet sich zum Genießen an und ist auch zu bestimmten Speisen eine Köstlichkeit. Daher ist bei der Wahl der edlen Tropfen auf den Geschmack, die Intensität und besonders auch auf den Serviervorschlag zu achten. Wohingegen manche Qualitätstropfen besonders gut zu Käse und Wild-Gerichte schmecken, werden andere Weinsorten ausschließlich zum Genuss verkostet. Jeder Qualitätstropfen besitzt eine eigene Facette, daher sollte grundsätzlich bei den Rotweinen, Weißweinen und Rosés auch auf den einzelnen Charakter geachtet werden.

Qualitätsweine anhand der Beschreibung wählen

Für Genießer bieten sich besonders Qualitätstropfen mit einer feinen und dezenten Nuance an. Wohingegen Weinliebhaber besonders gern auch eine prägnante Charakteristik verköstigen. Die Süße der Weine ist ebenso ein Merkmal. Grundlegend besticht jeder Qualitätswein durch eine eigene Note, welche durch die Beschreibung erfahren werden kann. Klassische Weine und auch einen verspielten Gaumengenuss; die Sparte der Tropfen ist breit. Demnach ist die Information und Beratung eine sinnvoll investierte Zeit und die Gäste können daraufhin rundum zufrieden sein. Die Auswahl sollte darauf abzielen, für jeden Geschmack einen Qualitätstropfen anbieten zu können. Die Beschreibung auf den speziellen Websites geben erweiterte Informationen, welche eine wichtige Anlaufstelle bei der Auswahl darstellen.

Passende Tropfen für das jeweilige Ambiente

Es ist von besonderer Bedeutung, dass die Auswahl auch bezüglich des Ambientes harmoniert. Eine edle Cafébar mit Weinangeboten bietet Weine für den reinen Genuss. Allgemein besonders beliebt sind außerdem edle Tropfen mit einem leichten Abgang, denn diese Weinsorten werden allgemein besonders gerne angenommen; genau der passende Wein für die gemütlichen Abendstunden im Café. Daher ist besonders die Umgebung, in der die edlen Tropfen angeboten werden ein Orientierungspunkt. Ein Restaurant mit vorrangig italienischen, griechischen oder deutschen Spezialitäten, kann ebenso auch die Weinkarte der Speisekarte und demnach dem allgemeinen Flair anpassen. So bietet sich ein griechischer Weinklassiker besonders auch zu einer griechischen Spezialität an.

Kompetente Beratung in Anspruch nehmen

Grundsätzlich gilt, auf einer Weinkarte sollten die Klassiker der Region zu finden sein. Zudem bietet sich auch die Empfehlung eines Weingutes und der speziellen Internetpräsenzen als vorzüglich an, um die Weinkarte geschmackvoll zu gestalten. Jeder Gast besitzt zwar einen eigenen Geschmack, allerdings genießen die Gäste auch gerne Empfehlungen des Hauses. Es ist daher unumgänglich und kompetent zugleich, sich von den Weinsorten auf Gasoni inspirieren zu lassen und sich umfassend über die verschiedenen Edeltropfen zu informieren. Die Internetpräsenzen bietet demnach ein breites Spektrum, um Weine aus jeglichen Regionen zu erwerben und gleichzeitig auch die Charakteristik und das Weinanbaugebiet kennenzulernen. Einen Blick in die lokale Weinhandelberatung zu werfen sollte auch unbedingt vorgenommen werden. Oftmals helfen hier auch Verköstigungen, damit man verschiedene Geschmäcker kennenlernt.

Künstliche Intelligenz unterstützt Kostenkontrolle

Dies ist ein Gastbeitrag von Jochen Werner, RVP Sales Central Europe bei Coupa Software

Künstliche Intelligenz (KI oder auch als Artificial Intelligence, AI, bekannt) ist DAS Trendthema 2018. In verschiedensten Einsatzgebieten ist der Einsatz dieser Technologie dabei unterschiedlich weit verbreitet und fortgeschritten. Speziell im Bereich der Unternehmensausgaben, des Business Spend Management, ist KI eine noch junge Disziplin. Denn erst die Kombination aus einer in den letzten Jahren stark gewachsenen Datenbasis und der heutzutage verfügbaren hohen Rechenleistung ermöglicht Lösungen, die einen echten Mehrwert für Unternehmen bieten. Basis hierfür ist ein tiefes Verständnis der zwei grundlegenden Funktionsweisen von KI – Machine Learning (ML) und Deep Learning (DL) – und auch für deren Einschränkungen.

Unterschiedliche Herangehensweisen mit einem Ziel: Automatisierung

Machine-Learning-Systeme beruhen auf der Anwendung und Einhaltung von Regeln. Diese Regeln werden dabei von den Anwendern entwickelt und im System implementiert. Dabei gilt: Je höher die Anzahl dieser Regeln ist, desto intelligenter wird das System.
Besondere Vorzüge bietet der Einsatz von ML im Business Spend Management für die Normalisierung von Datensätzen. Für diese Normalisierung stellt ein Unternehmen beispielweise Regeln auf, was geschehen soll, wenn in einem Datensatz ein Name auftaucht, der nicht als Lieferant im System hinterlegt ist. Als Beispiel sei hier IBM genannt. Allein für den Namen „IBM“ sind viele Varianten denkbar, zum Beispiel International Business Machines, Intl Bus Machines oder IBM Deutschland, alle jedoch meinen denselben Lieferanten. Um den Überblick über die gesamte Lieferantenbeziehung nicht zu verlieren, ist eine Normalisierung an sich unabdingbar, welche allerdings manuell sehr aufwändig und zeitintensiv ist. Hier kommt Machine Learning ins Spiel, das durch die Anwendung von Regeln Daten automatisiert normalisieren kann – und das wesentlich schneller als jeder Mensch.

Jochen Werner, RVP Sales Central Europe bei Coupa Software

Jochen Werner, RVP Sales Central Europe bei Coupa Software

Deep Learning geht einen anderen Weg und ist im Business Spend Management speziell für die Kategorisierung interessant. Es beruht nicht nur auf Regeln, sondern auf einem vom KI-System selbstentwickelten neuronalen Netz, das auf Wortvektoren basiert. Diese Systeme werden darauf trainiert, ganze Sätze und ihren Kontext zu verstehen. Das Prinzip ähnelt der Funktionsweise des menschlichen Gehirns.
Die Forscher von Google haben schon nahezu zwanzig Jahre damit verbracht, Milliarden von Suchvorgängen zu analysieren. Ziel des Forscherteams war es, anhand falsch-buchstabierter, vermeintlich kryptischer oder gar missverständlicher Eingaben, Rückschlüsse darauf zu ziehen, was der Suchende in Erfahrung bringen wollte. In diesem Projekt, „Word2vec“, baute Google mithilfe von Wortvektoren ein neuronales Netz auf. Word2vec kann heutzutage nicht nur die Bedeutung von Buchstaben und Wörtern ableiten, sondern auch aus ihrem Zusammenhang und ihrer Beziehung zu anderen Wörtern weitere Erkenntnisse gewinnen. Genau nach diesem Prinzip funktioniert auch Deep Learning.
Ein Beispiel aus dem Business Spend Management: Eine Rechnung erhält in der Betreffzeile „Plastik, 500ml, Evian“. Auf Basis der gesammelten Erfahrung und des Kontextes kann das intelligente Deep-Learning-System automatisch erkennen, dass es sich um Wasser in Flaschen handelt. Das lässt sich auch auf unbekannte Datensätze anwenden. Diese können so anhand bekannter und ähnlicher Wörter oder dem Abstand zu anderen Wörtern im Text korrekt und automatisiert kategorisiert werden – ohne, dass dazu eine Regel notwendig ist.

KI benötigt menschliche Hilfe

Mittlerweile verfügen moderne, KI-basierte Business-Spend-Management-Plattformen über ausreichend Wissen, dass Mitarbeiter mit Hilfe der KI-Systeme Aufgaben in nur wenigen Tagen erledigen können, die früher Monate gedauert hätten.
Doch was bedeutet das nun für den geschäftlichen Alltag? Ein durchschnittlicher Einzelhandelsbetrieb bezieht Waren und Leistungen von rund 2.000 Lieferanten. Im Extremfall müssen bis zu fünf Millionen Rechnungen pro Jahr normalisiert und kategorisiert werden. Dies ist ohne Automatisierung kaum zu bewältigen, kann nun aber durch Nutzung von KI innerhalb weniger Wochen erledigen. Das Wissen dazu hat das KI-System aus vielen manuellen Klassifizierungsprozessen erlernt. Was dennoch weiterhin vonnöten ist, ist die menschliche Intelligenz. Es bleibt die Herausforderung, beispielweise für die Mitarbeiter aus der Qualitätssicherung, die Arbeit der Maschinen zu prüfen und zu bewerten. Darüber hinaus müssen Menschen die KI weiter trainieren, denn die Variationsbreite der Sprache zur Beschreibung von Dingen auf der ganzen Welt ist beinahe unendlich. Und nur auf diese Weise kann die Maschine weiter lernen.

Leistung wächst mit Kontrolle, Daten und Erfahrung

Um nun aber echte Fortschritte zu erzielen ist ein weiterer Schritt notwendig: Es braucht Leistungsindikatoren, die in regelmäßigen Abständen gemessen werden, um so die Weiterentwicklung des KI-Systems sicherzustellen: von 50 Prozent richtiger Auswertungen zu 75, 85 und so weiter. Aus der Sicht eines Anbieters von intelligenten Systemen steigern wir bei Coupa mithilfe von künstlicher Intelligenz den Automatisierungsgrad an klassifizierten Ausgabedaten bei unseren Kunden.
KI hört aber nicht bei der Bearbeitung von Datensätzen auf. Denn jeder neu bearbeitete Datensatz wird in Wissen umgewandelt. Das System passt sich immer besser an die unternehmensinternen Richtlinien an und lernt von der kontinuierlichen Interaktion mit Anwendern und Lieferanten. Dies versetzt intelligente Systeme in die Lage, die Kommunikation mit Lieferanten teilweise „eigenständig“ zu übernehmen. Zukünftig werden sprachgesteuerte Bots Rechnungen oder Bestellungen unabhängig von menschlicher Interaktion annehmen oder fehlerhafte Liefermengen korrigieren.

KI ist keine Magie

Nach und nach wird die künstliche Intelligenz mehr und mehr Prozesse bei der Kontrolle der Ausgaben der Unternehmen optimieren können. Die Fehlerrate im Business Spend Management sinkt stetig und nachhaltig, Bearbeitungszeiten verkürzen sich automatisch. KI-Systeme werden mit steigender Erfahrung immer mehr Wissenslücken schließen, doch werden wir nie an einen Punkt kommen, an dem die Maschine alle Aufgaben erledigt.
KI ist keine Magie, aber sie kann herkömmliche Prozesse massiv beschleunigen. Doch sollte man den Aufwand nicht unterschätzen, der insbesondere zu Beginn eines KI-Projekts notwendig ist: Bei Coupa haben wir sieben Jahre gebraucht, um unsere Maschine zu trainieren. Sechs weitere Jahre waren notwendig, um genügend Daten zusammenzutragen. Doch jetzt kann das KI-System, dank Machine Learing und Deep Learning, Ausgabedaten nahezu komplett ohne menschliche Unterstützung normalisieren und kategorisieren.
Künstliche Intelligenz im Business Spend Management lohnt sich. Selbst wenn die Datenbasis noch weiterwachsen muss: Solange die Maschine Regeln bekommt und mithilfe von Feedback lernen kann, werden sich die Ausgabenprozesse bereits innerhalb eines Jahres dramatisch verbessern.

Warum die Förderung von Windkraft überdacht werden muss

Meinung: Gastbeitrag von Dr. Karl Tack, Vorsitzender der Kommission Energiepolitik des Wirtschaftsverbandes „DIE FAMILIENUNTERNEHMER“.

Wer sich für grünen Strom entscheidet, hegt oft folgenden Gedanken: Erneuerbare Energien und ihr Ausbau sind ein wichtiger Baustein für die Energiewende. Doch erstens kann diese Aussage per se bezweifelt werden und zweitens steckt hinter der Förderung der Erneuerbaren ein ganzes Konstrukt an kritikwürdigen Regelungen. Die Windkraft wird aus dem Topf der EEG-Umlage überfördert, die Strompreise bleiben auch wegen der Abgaben hoch. Dies zuzulassen ist, auch mit Hinblick auf die steigende Energiearmut in Deutschland, schlicht nicht vertretbar. Zumal die Branche nach wie vor keinen Beitrag zur Systemstabilität leistet, denn Speicher für überschüssigen Strom sind noch nicht in Sicht.

Förderung trotz Marktreife

Durch die EEG-Umlage erhalten erneuerbare Energien jährlich mehrere Milliarden Euro an Einspeisevergütung. Allein im Jahr 2016 sind laut BMWi über 24 Milliarden Euro an die Betreiber ausgeschüttet worden, für das Jahr 2018 prognostiziert das Ministerium knapp 28 Milliarden Euro1. Die Leidtragenden sind die Verbraucher und insbesondere die industriell geprägten Familienunternehmen, die dieses System über ihre Stromrechnung finanzieren. Was als Starthilfe gedacht war, verkommt heute zu einer Kostenfalle für die, die den Strom beziehen. Allein Privathaushalte zahlen ungefähr 36 Prozent des Jahresbeitrags der festen Vergütung pro Kilowattstunde an eingespeistem Strom2. Diese Vergütung existiert seit dem Jahr 2000. Windkraftanlagen mit Inbetriebnahmezeitpunkt bis Ende 2016 – und über eine Übergangsregelung im EEG 2017 sogar bis Ende 2018 – erhalten sie 20 Jahre lang über ein zweistufiges Modell. In den ersten fünf Betriebsjahren wird der Strom mit einem sogenannten Anfangswert vergütet. Ab dem sechsten hingegen erfolgt die Auszahlung über einen geringeren Grundwert, der für jede erzeugte Kilowattstunde fällig wird. Tatsache ist jedoch, dass der höhere Anfangswert unter bestimmten Voraussetzungen auch über die ersten fünf Jahre hinaus gewährt werden kann. Als Parameter dafür dient der Ertrag der Anlage in den ersten fünf Betriebsjahren. Die tatsächlich produzierte Strommenge wird dazu mit einem Referenzwert verglichen. Anhand dieser Werte wird für die Windkraftanlage die Vergütung für die nächsten 15 Jahre ermittelt. Dabei gilt: Je weiter die tatsächlich produzierte Strommenge unter dem Referenzertrag liegt, desto länger erhält die geprüfte Anlage den Anfangswert der Förderung. Und ist diese Verlängerung erst einmal gewährt, findet in der folgenden Zeitspanne keine weitere Prüfung statt. Damit fallen für bis zu 15 Jahre weitere Kosten an, die unterm Strich vom Verbraucher getragen werden. Selbst mit der Einführung des EEG 2017 reagierte der Gesetzgeber auf diesen Missstand nur halbherzig. Für alle bis 2018 errichteten Anlagen, die nicht am Ausschreibungssystem teilnehmen, wird der Standortertrag spätestens nach 10 Jahren Betrieb noch einmal mit dem Referenzertrag abgeglichen und die Vergütung gegebenenfalls auf den Grundwert reduziert. Danach erfolgt keine Überprüfung mehr.

Dr. Karl Tack ist Vorsitzender der Kommission Energiepolitik des Verbandes DIE FAMILIENUNTERNEHMER.

Dr. Karl Tack ist Vorsitzender der Kommission Energiepolitik des Verbandes DIE
FAMILIENUNTERNEHMER.

Dabei war die erhöhte Vergütung ursprünglich als Ausnahmefall gedacht, bereits 2014
bezogen sie aber fast 60 Prozent aller Windkraftanlagen über die gesamte Förderdauer3. 94 Prozent der Anlagen wurde eine Verlängerung der erhöhten Anfangsvergütung gewährt. Das schließt Windparks sowohl in windarmen wie in windreichen Regionen ein. Jüngste Beispiele aus den Ausschreibungsrunden im Jahr 2017 zeigen jedoch, dass der Betrieb von Windkraftanlagen auch ohne Subventionen auskommt. Das sind nicht die einzigen Punkte, die nachdenklich stimmen sollten. Wie sieht es zum Beispiel mit der Entwicklung von Stromspeichern aus?

Wohin mit überschüssiger Energie?

Erneuerbare Energien sind stark vom Wetter abhängig, was bis dato das Problem einer schlechten Planbarkeit mit sich bringt. Produziert ein Windpark an manchen Tagen kaum Strom, ist es an windreichen so viel, dass mehr Energie generiert wird als benötigt. Ideal wäre es, diesen Überschuss zu speichern. Fakt ist jedoch: Die produzierte Menge an Strom in privaten Haushalten ist in ihrer überschaubaren Menge speicherbar, für größere Dimensionen gilt das dagegen noch nicht. Diesbezüglich informierte der BINE Informationsdienst des Leibniz-Instituts für Informationsstruktur bereits im Jahr 2013 über damalige Untersuchungen eines interdisziplinären Forscherteams zu Möglichkeiten der Zwischenspeicherung4. Die Liste möglicher Methoden für den industriellen Gebrauch ist lang: So sind Pumpspeicherkraftwerke theoretisch in der Lage, Wasser in stromreichen Zeiten in
höher gelegene Becken zu pumpen und später über Generatoren wieder hinunterfließen zu lassen. Druckluftspeicher, die mit überschüssiger Energie Luft komprimieren und sie im Bedarfsfall wieder abgeben, sind eine weitere Alternative. Als bisher vielversprechendstes Projekt gilt das Redox-Flow-Modell, bei dem mit Polymeren gesättigtes Salzwasser Energie aufnimmt und wieder abgeben kann wie bei einer Batterie. Ebenfalls im Forschungsstadium befinden sich sogenannte Power-to-X-Technologien.

Noch keine Lösung in Sicht

Ein Mangel an Möglichkeiten zur Speicherung herrscht offensichtlich nicht. Passiert ist in den letzten Jahren trotzdem wenig. Obwohl Windkraft hoch subventioniert und jedes Jahr mit Milliarden Euro an Einspeisevergütung gefördert wird, gibt es bis heute keinerlei Anreize, überschüssige Energie zu speichern und diese somit am Markt zu verkaufen. In einigen Bundesländern verpufft sogar bis zu 20 Prozent der über Windkraftanlagen gewonnenen Energie, wenn es zu stark weht5. Um einer Überlastung der Netze zuvorzukommen, schalten die Betreiber in diesen Fällen die Windräder ab oder stellen sie gegen die Windrichtung, sodass sie sich nicht mehr drehen können. Eine Förderung erfolgt dennoch. Hinzu kommt, dass die gesicherte Leistung deutscher Windparks nach Meinung von Experten nicht mehr als 1 Prozent beträgt, sodass immer noch ein fossiler Kraftwerkspark als Back-up notwendig ist, der die gesamte Nachfrage decken kann6. Die Branche hat die Marktreife bereits erreicht, streicht trotzdem Fördergelder ein und treibt die Entwicklung von Energiespeichern nur sehr langsam voran. Es stellt sich die Frage: Wie kann das sein?

Model überdenken

DIE FAMILIENUNTERNEHMER sind der Meinung, dass Windkraftanlagen nicht überfördert werden dürfen. Sie müssen nicht nur wirtschaftlich Strom produzieren und einspeisen, sondern auch ihren Beitrag zur Systemstabilisierung, zum Beispiel zur Haltung der Netzfrequenz und Netzspannung, leisten. Obwohl Windenergie diese Systemleistungen inzwischen bieten könnte, gibt es keinerlei Anreize für Anbieter, diese Leistungen auch tatsächlich zu liefern. Auch Kosten der Systemstabilisierung werden ihnen nicht angelastet, stattdessen werden sie zusätzlich gefördert. All das zahlen die Verbraucher. Der gesetzliche Rahmen muss endlich innovative Lösungen anreizen und vor allem deren Umsetzung fordern.
Die Windkraft ist für unsere Zukunft bedeutend. Deren Überförderung und üppige Renditen der Investoren zulasten der Verbraucher sind es keinesfalls.

Über den Autor:

Dr. Karl Tack ist Vorsitzender der Kommission Energiepolitik des Verbandes DIE FAMILIENUNTERNEHMER. In dieser Position macht er sich für eine marktwirtschaftliche und technologieoffene Energiepolitik stark, die auch tatsächlich den Klimaschutz im Fokus hat. Dr. Tack war bis vor Kurzem 28 Jahre lang geschäftsführender Gesellschafter der Gebrüder Rhodius GmbH & Co. KG, eines der größten mittelständischen Unternehmens der Eifel. Im Jahr 2017 wechselte er zugunsten seiner Kinder in den Beirat. Dem Verband der Familienunternehmer gehört er seit 1990 an. Im April 2013 wurde Dr. Karl Tack in das Präsidium des Verbandes DIE FAMILIENUNTERNEHMER – ASU gewählt. Darüber hinaus wurde er im April 2015 und Mai 2017 in den Bundesvorstand des
Verbandes berufen.

 

1 BMWi, EEG in Zahlen: Vergütungen, Differenzkosten und EEG-Umlage 2000 bis 2018.

2 Statista, Zu tragende Kosten aus dem EEG in Deutschland nach Verbrauchergruppen im Jahr 2017 (in Milliarden Euro): https://de.statista.com/statistik/daten/studie/260551/umfrage/kostenanteile-aus-dem-eeg-in-deutschland-nach-verbrauchergruppen/

3 Leipziger Institut für Energie, Marktanalyse – Windenergie an im Auftrag des BMWi.

4 http://www.bine.info/publikationen/publikation/windenergie-unter-tage-speichern/

5 http://www.love-green.de/themen/energie/ueberschuessige-windkraft-nutzen-id7921.html

6 Linnemann, Thomas u. Vallana, Guido S. „Windenergie in Deutschland und Europa. Status quo, Potenziale und Herausforderungen in der Grundversorgung mit Elektrizität. Teil 1: Entwicklungen in Deutschland seit dem Jahr 2010.“ Essen 2017, Seite 70.

Vernetzte Gesundheit

Mittlerweile sind in nahezu allen Branchen die IT-Systeme immer smarter geworden. Der Gesundheitssektor bildet hier keine Ausnahme. Hier hat sich die Digitalisierung bereits einen festen Platz gesichert.

Rund 80 Prozent aller Internet-Nutzer erkundigen sich mittlerweile online über Gesundheitsthemen – das führt dazu, dass ein Fünftel aller Google-Suchanfragen in diesen Bereich fällt. Die Hälfte aller US-amerikanischen Ärzte nutzen Wikipedia für ihre Recherchen. Bis Ende 2017 werden weltweit 1,7 Milliarden Menschen Gesundheits-Apps auf ihren Smartphone nutzen. Doch auch in der Gesundheitsinfrastruktur ist ein Ansteigen der IT-Nutzung bemerkbar. Von 2013 bis 2018 wird sich die Anzahl der Patienten, die über das Netz behandelt werden verzwanzigfachen.

Dies wird von der unterschiedlichen Grundhaltung, die die jeweiligen Generationen haben, begünstigt. Sind ältere Patienten noch der Meinung, mit einem Gang zum Arzt die nötigen Schritte eingeleitet zu haben, sehen das jüngere anders. Diese sind oft im Netz aktiver nach der Lösung ihres gesundheitlichen Problems, denken vernetzter und fragen öfter nach einer zweiten medizinischen Meinung.

Steigendes Datenaufkommen

Dies generiert immer mehr medizinische und administrative Daten, die vernünftig verwaltet werden müssen. Hierzu fallen neben den Patientenstammdaten wie Adresse, Versicherungsstand oder grundlegende Informationen über die Krankheitshistorie auch laufende Vitaldaten an. Letztere sind es, die zu einer erheblichen Vermehrung der erhobenen Daten führen.

Die IT im Medizinsektor kann dabei sehr weitreichend genutzt werden. Die Nutzung von Collaboration-Plattformen sorgt für eine verbesserte Zusammenarbeit, nicht nur für die direkte Datenübermittlung zwischen Ärzten, Krankenhäusern und medizinischen Dienstleistern sondern auch der Austausch von Informationen in Fachforen und gemeinsame Forschungsarbeit. Dazu kommt der Einsatz von Netzwerken mit der Anbindung dezentraler, medizinfremder Ressourcen. Informationen aus einem Umfeld können so ohne Umwege in die Planung der Behandlung des Patienten einfließen. Ein gutes Beispiel dafür ist die Verwendung von Informationen, die im Rahmen des Smart Homes anfallen. Über im Haus des Patienten verbaute Sensoren können Ärzte und Pflegedienst zeitgenau auf die gegenwärtige Situation reagieren und auch zukünftige Pläne an die aktuelle Entwicklung anpassen. Neben dem Smart Home eignen sich auch Armbänder, die laufend Vitaldaten erheben für ein möglichst aktuelles Bild der Krankheitsentwicklung des Patienten. Die von Sensoren erhobenen Daten werden mit denen gesammelt, die bei Untersuchungen anfallen.

Strukturierung der Daten erforderlich

Alles zusammen ergibt einen Satz von Informationen über jeden einzelnen Patienten. Um aus jeder individuellen Krankengeschichte für die zukünftige Behandlung eines bestimmten Krankheitsbildes Schlüsse ziehen zu können, müssen die einzelnen Datensätze anonymisiert zusammengebracht werden, um Krankheitsmuster oder Fortschritte bei Behandlungen frühzeitig erkennen zu können. Auf herkömmlichem Weg ist dies nicht möglich, da die schiere Datenmenge jede manuelle oder halbautomatische Auswertung erschwert.

Lösungsansatz Big Data

Mit dem Einsatz von Big Data in der Medizin ist dies nun möglich. War der bisherige Ansatz eher reaktiv – der Patient kommt in die Behandlung und erst dort kann sich das medizinische Personal schrittweise der Lösung annähern – können mit der Verarbeitung von Informationen einer großen Gruppe Patienten Schlüsse gezogen werden, die eine stärkere Vorsorge ermöglicht. Alle anfallenden Datentypen, also strukturierte, halbstrukturierte und unstrukturierte, können für die Behandlung eines Patienten herangezogen werden. Hier wird eine Analyse in Echtzeit möglich, wo nach altem Muster erst Monate bis zur Auswertung vergingen. Zu einer umfassenden Betrachtung werden sämtliche relevanten Daten verwahrt, um auch in zukünftigen Fällen entweder des Patienten selbst oder ähnlich gelagerten Fällen Rückschlüsse ziehen zu können.

Bei Wahrung der Anonymität der einzelnen Patienten können diese Daten auch an Forschungsinstitutionen übermittelt werden, die diese zur Entwicklung von Medikamenten und Heilmethoden benötigen, einschließlich der Verbesserung des Gesundheitsmanagements in der Bevölkerung. Somit kann die Schaffung neuer Therapiemethoden erheblich beschleunigt werden.

Unterschiedliche Datenquellen

Die Daten können dabei aus den verschiedensten Quellen stammen. Strukturiert fallen sie bei Laboruntersuchungen, Unterlagen der Krankenkassen oder Patientenprofilen bei Ärzten und Krankenhäusern an. Teilweise strukturiert entstehen sie aus dem Schriftverkehr oder Patientenabrechnungen und unstrukturiert kommen die Informationen aus Sensoren, die Patienten an sich tragen oder mit denen sie untersucht worden sind.

Eine Big-Data-Lösung muss nun mit allen diesen Datenarten zurechtkommen. Dies bedeutet einen Paradigmenwechsel in der Art und Weise, wie der Einsatz von IT-Systemen im medizinischen Sektor vorgenommen wird. Denn schließlich wird das Datenvolumen auch in Zukunft immer weiter zunehmen.

Alle Beiträge von Christopher Rummel anzeigen

Über den Autoren

Christopher Rummel ist als Regional VP Sales für Hortonworks tätig und ist unter anderem für die Geschäftsentwicklung des Unternehmens im deutschsprachigen Raum verantwortlich. Vorher bekleidete er ähnliche Positionen bei Unternehmen wie bei EMC oder der Parametric Technology Corporation in Tokio.

Guidewire Versicherungsforum Köln 2018

Vom Gejagten zum Jäger: wie Versicherer die Herausforderungen der Digitalisierung zu ihrem Vorteil nutzen können.

Sie sind herzlich eingeladen zum Guidewire Versicherungsforum in Köln!

Aufgrund der sehr guten Resonanz für die Konferenz in 2017 veranstalten wir am 15. März 2018 unser zweites deutsches Versicherungsforum in Köln.
Die Konferenz bietet wieder Einblicke aus der Praxis von unseren Kunden aus der deutschsprachigen Region und Europa – wie setzen Versicherer Guidewire Software ein und wie geht es mit der Digitalisierung in den Unternehmen voran?
Wie spielen digitale Lösungen, Data & Analytics und Kernsysteme zusammen um echte digitale und smarte Prozesse und Nutzererfahrungen zu erzeugen?
Welche Herausforderungen ergeben sich durch den digitalen und kulturellen Wandel in den Unternehmen – können große Unternehmen agil werden?
Reservieren Sie sich Ihren Platz auf der Konferenz – melden Sie sich jetzt an!
https://success.guidewire.com/Guidewire_Versicherungsforum_Koeln_2018.htmlWo:
Frühlounge, Früh am Dom, Am Hof 12-18, 50667 Köln – in Google maps

Die Event Webseite finden Sie hier.

AGENDA

für Donnerstag, den 15. März 2017
 
10.00 – 10.15 Empfang mit Kaffee
10.15 – 10.45 Begrüßung und Keynote ‚Vom Gejagten zum Jäger: wie Versicherer die Herausforderungen der Digitalisierung zu ihrem Vorteil nutzen können‘ Niels Zijderveld, Guidewire
10.45 – 11.15 Smart Core, Predictive Analytics, CYENCE – wie Guidewire Produkte die Entwicklung der globalen Versicherungsbranche spiegeln und innovieren René Schoenauer, Guidewire
11.15 – 11.45 Von Angebot zum Vertrag in 60 Sekunden – digitale Kundenkommunikation bei der Basler Schweiz
Philippe Boog, Basler Schweiz
11.45 – 12.15 From chasing the market to leading the race – Warta’s story of claims handling revolution
Rafal Stankiewicz, Warta, Polen
12.15 – 13.30 Lunch
13.30 – 14.00 Smart Core in der Praxis – Demo
Alexander Gnodtke, Guidewire
14.00 – 14.30 FRIDAY – der Aufbau eines Digitalen Versicherers mit der weltweit schnellsten Implementierung der Guidewire InsuranceSuite Silvan Saxer, FRIDAY
14.30 – 15.00 Digitale Interaktion und Cloud Computing – wohin geht die Reise bei Guidewire? Oliver Winkenbach, Guidewire
15.00 – 15.30 Kaffeepause
15.30 – 16.00 Warum ein Proof of Concept? Erste Erfahrungen mit der Implementierung der Guidewire InsuranceSuite Wolfgang Pander, Basler Deutschland
16.00 – 16.30 Erfahrungen im agilen Projekt- und Betriebssetup anhand von „Allegro“ bei der Zurich Schweiz
Michael Maise, Zurich Schweiz
16.30 – 17.00
Wie werden große Unternehmen agil? Inspiration und Erfahrungen aus der Praxis.
Ulf Brandes, Brandes & Partners
17.00 – 17.15 Zusammenfassung Niels Zijderveld, Guidewire
ab 17.15 Get-together mit Drinks und Snacks

CPQ-Lösungen im B2B-Bereich

München, 5. März 2018 – FPX, der größte unabhängige Softwarehersteller, der sich ausschließlich auf CPQ-Lösungen im B2B-Bereich konzentriert, gibt die Partnerschaft mit Zilliant, einer führenden KI-gesteuerten SaaS-Plattform zur Optimierung des Lifetime Value von B2B-Kundenbeziehungen, bekannt. Durch den kombinierten Einsatz von Zilliant Price IQ und der CPQ-Lösung von FPX werden die organisatorischen Prozesse verbessert und es können präzise und konsistente Preisangebote für Online-Käufer erstellt werden.

B2B-Unternehmen, die FPX und Zilliant nutzen, können die Handelsgewinne über alle Vertriebskanäle hinweg durch eine genauere und konsistentere Preisgestaltung steigern. Durch die Optimierung komplexer Angebote und Prozesse wird zudem die End-to-End-User-Experience erheblich verbessert und die Kundenbindung erhöht.

Die vollständige Pressemitteilung in englischer Sprache:

FPX Partners with Zilliant to Maximize Customer Lifetime Value Across B2B Organizations

Partnership will integrate Zilliant Price IQ technology with FPX CPQ architecture for enhanced pricing capabilities for every situation and customer

Dallas, Texas – February 21, 2018 – FPX, a global leader in enterprise Configure Price Quote (CPQ) solutions, has partnered with Zilliant, a leading AI-driven SaaS platform for maximizing the lifetime value of B2B customer relationships. When combined, Zilliant Price IQ™ and FPX’s CPQ solution will improve organizational ability to efficiently provide accurate, consistent price quotes for online buyers.

As B2B commerce continues to evolve, traditional pricing solutions are failing to meet the needs of today’s business buyers. Only 15 percent (https://robertkugel.ventanaresearch.com/b2b-price-and-revenue-optimization-goes-mainstream-1) of current B2B organizations use analytics for price optimization, yet, according to the Professional Pricing Society, 95 percent of pricing professionals report a need for pricing software.

The integration of both FPX’s and Zilliant’s AI-driven platforms will empower businesses to optimize pricing based on each business buyer’s unique situation and needs. The solution delivers accurate quotes in shorter time frames, assisting sellers with real-time approvals and intelligent thresholds. Market-value and cost-aligned prices ensure business objectives are tied into customer expectations. The solution also improves the confidence of sales teams with personalized pricing guidance based on deep customer profile data.

„Pricing has been one of the most consistent challenges for B2B organizations looking to improve their digital sales channel, and our partnership with Zilliant arms these companies with the tools they need to streamline pricing for even the most complex products,” said Dave Batt, CEO at FPX. „As B2B buyer expectations continue to grow, we’re partnering with Zilliant to help our customers meet their digital transformation needs and provide the best possible experience for buyers.”

FPX and Zilliant’s combined capabilities allow B2B companies to increase deal profits across channels through more accurate and consistent pricing. By streamlining complex quotes and processes, FPX and Zilliant vastly improve the end-to-end user experience, increasing customer loyalty and boosting businesses’ bottom line.

„We’re excited to work together with FPX to enhance the commerce experience for our B2B customers,” said Zilliant Partner Network Vice President Joe Leyva. „We’re at the beginning of a huge shift in the way B2B commerce is conducted, and CPQ solutions will play a critical role in that transformation.”

Diese Cyber-Bedrohungen erwarten uns 2018

Gastbeitrag von Werner Thalmeier, Director Sales Engineering EMEA, Proofpoint

 

Nicht zuletzt durch die großen Cyberangriffe WannaCry und NotPetya im Jahr 2017 wurde das Thema Cybersicherheit in den Fokus des öffentlichen Interesses gerückt. Damals wurden bei den Attacken Sicherheitslücken im Windows-Betriebssystem ausgenutzt, für die Microsoft zuvor bereits einen Patch bereitgestellt hatte.

Jedoch hatten viele Anwender und Systemadministratoren in Unternehmen diesen Patch schlichtweg nicht (früh genug) eingespielt, was damals Cyberkriminellen Tür und Tor öffnete. Durch die Ausnutzung dieser Schwachstelle wurden daraufhin hunderttausende Computersysteme, vor allem in Unternehmen, mit einer (im Falle NotPetyas vorgeblichen) Ransomware infiziert.

Ransomware verschlüsselt wichtige Dateien und mitunter ganze Datenträger bzw. Systempartitionen ihrer Opfer, ohne dass diese von dem Prozess etwas bemerken würden. Erst wenn die Verschlüsselung abgeschlossen und eine Lösegeldforderung auf dem Bildschirm des Betroffenen erscheint, wird diesen bewusst, dass sie Opfer einer Cyberattacke geworden sind.

Doch dann ist es bereits zu spät. Ohne die Bezahlung des Lösegeldes an die Cyberkriminellen ist es oftmals unmöglich die verschlüsselten Daten wiederherzustellen. Doch auch eine Zahlung birgt Risiken, da – wie bei NotPetya – nicht sichergestellt ist, dass eine Entschlüsselung der betroffenen Daten bzw. Laufwerke überhaupt möglich ist.

Im Falle der beiden großen Cyberattacken im letzten Jahr reichte es häufig aus, dass ein ungepatchter Computer im Unternehmensnetzwerk vorhanden war, über den die Ransomware durch die Ausnutzung der Windows-Schwachstelle eine Art Brückenkopf in das Firmennetz hatte.

Dadurch wurden ganze Unternehmen tagelang lahmgelegt. Zu den bekanntesten Opfern der Attacken zählen der Konsumgüterkonzern Beiersdorf sowie die Reederei Maersk. Neben einem großen Medieninteresse und finanziellen Schäden von Unternehmen, die in die Milliarden reichen dürften, hatten die Cyberangriffe noch eine weitere Folge – eine breite Öffentlichkeit wurde darauf aufmerksam, dass das Thema Cybersicherheit in unserer immer vernetzteren Welt nicht mehr länger allzu stiefmütterlich behandelt werden dürfe.

Bedrohungen durch Schadsoftware nimmt weiter zu

Auch in diesem Jahr ist mit einem deutlichen Anwachsen der Verbreitung von Schadsoftware zu rechnen. In diesem Zusammenhang wird vornehmlich das von Unternehmen meistgenutzte Kommunikationsmittel, die E-Mail, als Verbreitungstechnologie von Malware (Ransomware, Trojaner) genutzt werden. Darüber ist eine schnelle Verbreitung von Malware innerhalb ganzer Netzwerke zu erwarten, die durch die Ausnutzung von bislang unbekannten Schwachstellen (Zero Day Exploits) begünstigt wird.

Dieses Aufdecken immer neuer Sicherheitslücken in immer kürzeren Abständen ist vor allem darauf zurückzuführen, dass immer mehr Menschen über das notwendige Know-how verfügen, derartige Lücken aufzuspüren – sei es aufgrund ihrer Profession oder Ihres privaten (zumal auch kriminellen) Interesses.

 

Erweiterte Trickkiste der Cyberkriminellen

Im Vergleich zu den letztjährigen Ransomware-Attacken kann man zudem davon ausgehen, dass Cyberkriminelle ihr Angriffsportfolio in diesem Jahr um einige Werkzeuge erweitern. Vor allem der Einsatz so genannter Coinminer, also Schadsoftware, die infizierte Rechner zum Schürfen von Krypto-Geld missbraucht, aber auch Banking-Trojaner und spezielle Phishing-Software nehmen in diesem Zusammenhang eine vorrangige Rolle ein, da sich Online-Kriminelle davon einen gesteigerten Profit erwarten.

Aber auch in Zukunft bleibt zu erwarten, dass Malware, die lediglich darauf abzielt ganze Unternehmen lahmzulegen zum Einsatz kommt. In all diesen Fällen kann man jedoch davon ausgehen, dass Angreifer zunehmend den Menschen als Einfallstor für ihre Attacken missbrauchen. Dieser Trend, der bereits in den letzten Jahren zu beobachten war, basiert auf der Erkenntnis vieler Cyberkrimineller, dass Menschen als Schwachstelle oftmals leichter auszunutzen sind, als umfangreiche Hürden in der IT-Sicherheit zu umgehen.

 

Tendenz zu direkter Monetarisierung

Ein weiterer Trend, der in den letzten drei Jahren festzustellen war, ist die Tendenz hin zu schnellerer Monetarisierung. Das bedeutet, dass egal welche Angriffsart man unter die Lupe nimmt (Diebstahl von Kredit- bzw. Bankdaten, Bankingtrojaner, Ransomware) die zu unternehmenden Schritte für Cyberkiminelle zwischen Infektion und Monetarisierung zusehends abnehmen. Die Folgen dieser Entwicklung sind ein reduziertes Entdeckungsrisiko für die Kriminellen bei gleichzeitiger Zunahme der Profite.

Vor allem die bereits erwähnten Coinminer sind dafür ein geradezu perfektes Beispiel. Sobald ein Computer mit einer derartigen Schadsoftware infiziert ist, generiert er für die Cyberkriminellen Krypto-Geld wie Bitcoin oder Monero. Da solche Krypto-Währungen keiner staatlichen Kontrolle einer Notenbank unterliegen, sind die generierten Gewinne für Justizbehörden im Regelfall nicht greifbar und führen folglich auch nicht zu Beschlagnahmungen.

Neben einer reduzierten Rechenleistung (von CPU und GPU) die dem eigentlichen Anwender dann zur Verfügung stehen, resultiert ein Schaden für die Opfer vor allem aus der höheren Leistungsaufnahme von Grafik- und Hauptprozessor, wodurch die Stromkosten in die Höhe schnellen. Selbst bei effizienten und für das Krypto-Mining optimierten Systemen fressen die Energiekosten bereits 50% der Gewinne.

 

Dies erwartet uns außerdem

Eine weitere bedeutende Entwicklung zeichnet sich bei den so genannten Social Media Bots ab. Neben ihrem Einsatz zur Beeinflussung der öffentlichen Wahrnehmung in sozialen Medien ist absehbar, dass sich Cyberkriminelle diese zunehmend zunutze machen, um mit ihrer Hilfe Einnahmen zu generieren. Vor allem die Verteilung von Malware, Links zu infizierten Webseiten und Phishing erscheinen in diesem Zusammenhang als für Cyberkriminelle interessante Einsatzmöglichkeiten.

Darüber hinaus lassen Beobachtungen den Schluss zu, dass soziale Medien auch weiterhin eine beliebte Verbreitungsmöglichkeit für fremdes geistiges Eigentum darstellen. Schon seit dem Jahresbeginn 2017 ließ sich ein Anstieg um 20 Prozent für diese Zwecke feststellen. Kriminelle nutzen raubkopierte Inhalte hauptsächlich auf Social-Media-Plattformen, um Nutzer auf die von ihnen gewünschte Webseite zu locken. Oftmals lauern dort dann Phishing-Malware oder Coinminer auf die ahnungslosen Nutzer.

Speziell für die Verwendung von Coinminern sind Streaming-Seiten besonders gut geeignet, da zum Streaming ein steter Datenfluss vonnöten ist und sich Nutzer sehr lange auf diesen Webseiten aufhalten. Das reduziert wiederum das Risiko, dass der Nutzer das illegale Mining auf seinem Rechner bemerkt und steigert durch die lange Verweildauer die Profite der Kriminellen.

Auch die Verwendung von ähnlich klingenden Domainnamen beziehungsweise die missbräuchliche Nutzung von Firmennamen bekannter Marken im Social-Media- und Online-Umfeld ist ein wachsendes Phänomen. Schon heute ist ein Anstieg um rund 20 Prozent bei verdächtigen Domainregistrierungen im Vergleich zum Vorjahreszeitraum zu verzeichnen.

 

 

Resümee

Für Unternehmen und auch Endnutzer wird Cybersicherheit im Jahr 2018 mehr denn je von hoher Bedeutung sein. Immer perfidere Angriffsmethoden und technische Werkzeuge erfordern von allen Nutzern aber auch den Anbietern von IT-Sicherheitsprodukten ein gesteigertes Maß an Wachsamkeit. Denn nur wenn der Mensch als Benutzer mit den möglichen Angriffsszenarien und den ihn schützenden Sicherheitstechnologien vertraut ist und diese optimal einsetzt, kann ein effektiver Schutz der IT gewährleistet werden.
IT-Sicherheit bedarf immer dem Zusammenspiel verschiedener Elemente innerhalb der Sicherheitsarchitektur, speziell wenn es dabei um den Schutz von Unternehmen geht.

 

Unser Autor:

Werner Thalmeier, Director Sales Engineering EMEA, Proofpoint

 

Über Proofpoint, Inc.

Proofpoint Inc. (NASDAQ: PFPT) ist ein führender Next-Generation-Sicherheits- und Compliance-Anbieter, der Cloud-basierte Lösungen für einen umfangreichen Schutz vor Bedrohungen und Incident Response vertreibt und damit sichere Kommunikation, Social-Media- und Mobile Computing-Sicherheit sowie Compliance, Archivverwaltung und Governance gewährleistet.

Weiterführende Informationen finden Sie unter:

https://www.proofpoint.com/de/

 

 

Aufmacherbild / Quelle / Lizenz
Pixabay / CCO Creative Commons

Smarte Daten in smarten Städten

Staus, verstopfte Straßen, Engpässe in Ver- und Entsorgung stellen moderne Städte vor immer größere Herausforderungen. Doch wie sollten die Städte darauf reagieren? Häufig sehen Verantwortliche in der Digitalisierung nicht nur die Abhilfe bisheriger Probleme, sondern auch einen Motor für die zukünftige Entwicklung. Innerhalb eines Smart-City-Konzeptes werden die Aufgaben der Kommune Schritt für Schritt in eine vollautomatische IT-Umgebung überführt.

 

Rascher unterwegs

Der Bereich Verkehr, in dem die Digitalisierung voranschreitet, dürfte einer der am meisten sichtbarsten sein. Zunächst fallen Verkehrsleitsysteme und die Parkraumbewirtschaftung ins Auge. Um die Verkehrsströme effizient leiten zu können – und somit Staus und die daraus resultierende Umweltbelastung durch unnötig anfallende Abgase zu vermindern – müssen viele einzelne Daten an Messstationen und Sensoren erfasst werden. Diese in großer Menge anfallenden Daten sind meist normiert und die einzelnen Datensätze recht klein. Dasselbe gilt für die Parkraumbewirtschaftung, in denen Sensoren den Belegt/Unbelegt-Status eines Parkplatzes abfragen und an die zentralen Server der Kommune zurückmelden. Letzteres wird bereits bei vielen Parkhäusern praktiziert. Nun sind diese Daten für sich alleine stehend nicht besonders aussagekräftig. Erst in der Gesamtanalyse ergibt sich das ganze Bild. Dafür stehen Big-Data-Systeme zur Verfügung, die diese großen Mengen an Informationen in Echtzeit verarbeiten und passend für eine Analyse aufbereiten, denn je älter die Information ist, umso weniger hilft sie, Verkehrsströme aktuell zu lenken.

Doch auch im Individualverkehr profitieren die Bürger. So können smarte Navigationssysteme ihre Daten sofort an eine Verkehrsleitstelle übermitteln. Diese informiert in Echtzeit über Unfälle, Staus oder Einsätze der Rettungskräfte, da Sensoren die Straßen permanent erfassen.

Flottenmanagement der Zukunft

Mit zum Bereich Verkehr gehört die Verwaltung des städtischen Flottenparks. Ob Feuerwehr, kommunale Kranken- und Sicherheitsdienste oder lediglich die gewöhnlichen Dienstwagen der städtischen Angestellten – die Übersicht über den Status über jedes einzelne Einsatzfahrzeug schont das Budget des öffentlichen Sektors. Doch auch andere Datenquellen fließen in die Stadtplanung mit ein. Der Energiesektor mit seinen intelligenten Stromzählern wäre ein weiteres Beispiel. Hier können die Verbrauchswerte von kommunalen Körperschaften als auch die der Betriebe und Privathaushalte ausgelesen werden, um eine bessere Ressourcenplanung sicherzustellen. Ein Schnittpunkt zum Bereich Verkehr ist beispielsweise die neu aufkommende elektrische Mobilität. Um diese attraktiv zu gestalten, sollten Ladestationen über die Stadt verteilt angeboten werden. Um nun die passende Menge an Energie sofort bei Bedarf bereitstellen zu können, müssten die Daten aus der Verkehrserhebung, aus dem elektrisch angetriebenen Fahrzeug selbst und aus dem Stromnetz zu einem aussagefähigen Bild verknüpft werden können.

Diese zwei Felder illustrieren, wie eine Smart City in Zukunft aussehen könnte. Da die Datenerfassung dezentral über verteilte Sensoren verläuft, kommt hier Internet of Things (IoT) zum Tragen. Diese extrem granulare Infrastruktur erfordert auf Seite der kommunalen Rechenzentren eine völlig neue Herangehensweise.

Lösungsansätze?

Ein klassisches Enterprise-Ressource-Planning-System (ERP), das vermutlich bis in jüngster Zeit die erste Wahl gewesen wäre, reicht nun nicht mehr aus. Dieses ist nicht in der Lage, eine extrem hohe Anzahl und Dichte von Informationen in Echtzeit aufzunehmen und zu verarbeiten. Auch bei Daten mit extrem unterschiedlicher Struktur kommt es rasch an seine Grenzen. Auch für eine Analyse ist es – aufgrund seiner grundlegenden Konzeption als Planungssystem für Unternehmensressourcen – nicht geeignet. Ein weiteres Problem könnte die Sicherheit der erhobenen Daten und ihrer Ergebnisse ein. Falls jede Körperschaft einer Kommune in ihren eigenen Datensilos arbeitet, führt das außerdem zu Mehrkosten, da die Daten redundant verarbeitet werden. Nicht zuletzt führt eine IT-Landschaft, in der die verschiedenen Informationen nicht zusammengefügt werden können, zu einer Inflexibilität in der die Systeme nicht mehr skaliert werden können.

Ohne Plattform geht es nicht

Zukünftig geht bei Smart City kein Weg an Big Data vorbei. Die Daten verschiedener Sensoren als auch anderer Quellen wie etwa der Dokumentation in den jeweiligen Ämtern werden gesammelt, zusammengefügt, korreliert und in Echtzeit verarbeitet – wie im Beispiel der Steuerung der Verkehrsströme im Falle eines Unfalls. Danach werden sie auf der Plattform des Big-Data-Systems gespeichert. Leistungsfähige Systeme verarbeiten ein Datenvolumen auf Petabyte-Ebene zu wesentlich geringeren Kosten als herkömmliche Lösungen. Die ihnen eigene Flexibilität kommt Big Data dabei zupass. Steigt die Datennachfrage, können zusätzliche Rechenknoten problemlos dem Server-Pool hinzugefügt werden. Neben der eigentlichen Datenerfassung und -verarbeitung ist auch die Implementierung von Sicherheitsmaßnahmen essentiell. Eine Sicherheitskomponente überprüft in Big-Data-Lösungen den Datenverkehr und warnt bei Sicherheitsrisiken beziehungsweise behebt das Problem in Echtzeit. Denn je mehr Städte und Gemeinden auf die Digitalisierung setzen, umso vitaler wird sowohl die effiziente Nutzung als auch der Schutz der Daten.

Alle Beiträge von Christopher Rummel anzeigen

Über den Autoren

Christopher Rummel ist als Regional VP Sales für Hortonworks tätig und ist unter anderem für die Geschäftsentwicklung des Unternehmens im deutschsprachigen Raum verantwortlich. Vorher bekleidete er ähnliche Positionen bei Unternehmen wie bei EMC oder der Parametric Technology Corporation in Tokio.

Auf Wachstumskurs mit Crowd-Factoring

Schweizer Startup Advanon führt Crowd-Factoring in Deutschland ein und bringt KMU so auf Wachstumskurs.

 

Pressemitteilung: Zürich/Berlin, 07. März 2018

 

Nach zwei erfolgreichen Jahren am Schweizer Markt expandiert das Startup Advanon nach Deutschland. Das Unternehmen hat mit Crowd-Factoring eine neue Kategorie der Vorfinanzierung geschaffen.

Auf der Online-Plattform können KMU ihre Rechnungen direkt hochladen und zum Verkauf anbieten, Privatleute unmittelbar investieren. Beide Seiten profitieren: KMU können sich auf ihr Wachstum konzentrieren und Investoren steht eine neue, attraktive Anlageklasse zur Verfügung.

Gerade im Mittelstand lässt sich eine steigende Nachfrage nach Factoring feststellen: 2017 lag das Umsatzvolumen fast 10 Prozent höher als im Vorjahr (1). Insgesamt belief sich der Umsatz der deutschen Factoringbranche 2016 auf knapp 217 Milliarden Euro.

Der Grund für die steigende Nachfrage ist einfach: Zeigen Kunden eine eher laxe Zahlungsmoral, gerät der Rechnungssteller in Stagnation und kann beispielsweise nötige Investitionen nicht tätigen. Diese Lücke schliesst Factoring, sorgt für Liquidität und optimiert den Cashflow.

 

Rechnung hochladen, Zinssatz festlegen und Liquidität erhalten

Phil Lojacono, CEO und Co-Founder von Advanon, kommentiert: „Kurzfristige Bankkredite haben jedoch grosse Nachteile: Es dauert lange, bis sie bewilligt werden, oft investieren Banken nur in grosse Summen und die Zinsen sind meist nicht gerade attraktiv.

Unsere Rechnungsfinanzierung funktioniert schnell, effizient und transparent, so dass sich KMU aufs Wesentliche konzentrieren können, statt sich mit Geldsorgen zu plagen.” Advanon hat das traditionelle Bankengeschäft ins 21. Jahrhundert gebracht und Crowd-Factoring erfunden.

 

Crowd-Factoring – direkt, unkompliziert, in Echtzeit

Beim Crowd-Factoring nutzen KMU die Online-Plattform von Advanon als Marktplatz, auf dem sie sich ihre offene Debitorenrechnungen von Investoren in Echtzeit finanzieren lassen können.

Advanon fungiert dabei als Vermittler zwischen den KMU und den Investoren. Bedingung ist, dass die Firma mindestens ein Jahr alt ist und die Rechnungen auf Unternehmen und nicht auf Privatpersonen ausgestellt sind. Beim Erstkontakt muss ein Bankauszug und die Bilanz des vergangenen Geschäftsjahres eingereicht werden. Nach der Registrierung erstellt Advanon ein Rating zur Kreditwürdigkeit und schon können die ersten Rechnungen hochgeladen werden.

Das Unternehmen gibt einen Zinssatz an, den es zu zahlen bereit ist und Investoren können direkt in die Finanzierung einsteigen. Beide Seiten profitieren von dieser neuen Form des Factoring: KMU erhalten die finanziellen Mittel, um weiter wachsen zu können, Investoren steht eine neue Anlageklasse zur Verfügung, mit dem sie ihr Portfolio streuen können.

 

Machine-Learning Meta-Suchmaschine Nectar als Geschäftsvorteil

Nach der Registrierung nimmt Advanon eine Prüfung vor und erstellt ein Rating. Danach kann das Unternehmen offene Rechnungen einfach über die Plattform hochladen und den Zinssatz festlegen, den es zu zahlen bereit ist. Wenn ein Investor den Zuschlag gegeben hat, wird das Geld in wenigen Stunden überwiesen.

Phil Lojacono, CEO und Co-Founder von Advanon

“Unser Rating ergibt sich unter anderem aus den Ergebnissen, die unsere eigenen Meta-Suchmaschine Nectar liefert”, erklärt Lojacono. “Nectar basiert auf Machine Learning-Technologien. Ein ganzes Team an Software-Entwicklern arbeitet an der Datenbank, die wir intern als ‘Bloomberg der KMU’ bezeichnen. Wir können damit beim Rating noch mehr Sicherheit garantieren.” Mit Nectar lassen sich sämtliche Daten von KMU in Deutschland und der Schweiz in Sekundenschnelle abrufen und auswerten.

Die vor zwei Jahren gegründete und mehrfach preisgekrönte Advanon wickelt in der Schweiz bereits das gesamte Online-Factoring-Volumen ab, welches die 50 Millionen-Grenze inzwischen überstiegen hat. Dass die Summe vor zwei Jahren noch unter einer Million Franken lag, zeigt, wie beliebt die Finanzierungsform geworden ist und dass Advanon mit Crowd-Factoring eine Marktlücke schliesst.

 

Unternehmenskultur als Asset

Innovativ ist nicht nur das Geschäftsmodell, sondern auch die Unternehmenskultur: Unlimitierte Urlaubstage, eine Rückerstattung von privaten Hotelaufenthalten und Flügen oder eine Weltreise zum Betriebsjubiläum sind nur einige der “AdvaPerks”, mit denen Advanon neue Standards setzt.

“Wir wollten von Anfang an ein modernes Unternehmen sein, bei dem der Output zählt und nicht die reine physische Anwesenheit”, sagt CEO Phil Lojacono. “Deshalb messen wir Ziele und nicht Stunden.” Dazu sollen Advanoners Leben und Beruf nicht balancieren müssen, sondern vereinbaren können.

“Bei uns gibt es jeden Morgen Frühstück, wir zelebrieren den Start ins Wochenende, jeder darf zwei Wochen im Quartal ‘remote’ arbeiten, also von überall auf der Welt aus, und bei Bedarf stellen wir einen Wäscheservice oder einen Steuerberater”, ergänzt Lojacono.

Die sogenannten AdvaPerks bestehen aus Leistungen für alle und individuellen Wahl-Angeboten wie Netflix und Spotify, eine Jahresmitgliedschaft im Fitnessstudio oder kostenlose Uber-Fahrten.
Ausserdem sind die Mitarbeiter an der Firma beteiligt: “So werden alle zu Unternehmern und jeder partizipiert direkt am Erfolg oder Misserfolg”, sagt Lojacono.

1) Pressemitteilung des “Bundesverband Factoring für den Mittelstand vom 15.2.2018 http://www.bundesverband-factoring.de/presse/pressemitteilungen/05052017/

Über Advanon

Advanon wurde 2015 von den drei ehemaligen Google-Praktikanten Phil Lojacono, Stijn Pieper und Philip Kornmann in Zürich gegründet. Advanon ist die führende Plattform zur Finanzierung von Debitorenrechnungen in der Schweiz. Sie verbindet KMU und Investoren direkt miteinander. KMU laden über das Portal ihre ausstehenden Rechnungen hoch und Investoren können die Rechnungen direkt finanzieren. Dadurch verhelfen die Investoren KMU zu einer vollständigen Ausschöpfung ihres Wachstumspotenzials und profitieren gleichzeitig von einer neuen, attraktiven Anlageklasse.

Seit dem Start der Plattform konnte das Start-up diverse strategische Partnerschaften mit bekannten Banken bekanntgeben. Zuletzt gab Advanon eine Kooperation mit AXA Winterthur bekannt. Nach einem erfolgreichen ersten Jahr schloss Advanon im Januar 2017 die zweite Finanzierungsrunde ab und sicherte sich weiteres Kapital für das stetige Wachstum. Als Aktionäre konnte Advanon unter anderem Urs Wietlisbach, u.a. Gründer der Partners Group und b-to-v,  Eric Sarasin, ehemaliger stellvertretender Chef der Privatbank J. Safra Sarasin und Business Angel sowie IT-Unternehmer Daniel Gutenberg gewinnen.

Das FinTech-Unternehmen mit Sitz in Zürich und Berlin hat bereits einige renommierte Awards gewonnen, etwa den „Working Capital Management Award“ der Postfinance in der Kategorie Innovation und den Swiss Fintech Award “Top 4 Swiss FinTech Company”. Ausserdem ist Advanon Gewinner der bekannten Swisscom Startup Challenge und zählt zu den zehn Besten der “TOP 100 Swiss Startups of 2017”. Silicon Republic zählt Advanon zu den 100 “Hottest Startups to Watch” in Europa.

 

Weiterführende Informationen finden Sie unter:

https://www.advanon.de/de

Kontakt:

Katharina Böhringer

PR and Communications Manager

Advanon AG

Hardstrasse 301

CH-8005 Zürich

Office:   +41 44 585 38 50

Aufmacherbild / Quelle / Lizenz

Pixabay / CC0 Creative Commons

Fast jeder dritte Deutsche nutzt kostenlose On-Demand-Sendungen

Vor allem Wissens- und Nachrichtenformate haben es Zuhörern und Zuschauern angetan. Das hat eine aktuelle, repräsentative Studie zum Podcast-Nutzungsverhalten der Deutschen herausgefunden.

Das Hamburger Marktforschungsinstitut SPLENDID RESEARCH hat im Januar 2018 im Rahmen einer repräsentativen Umfrage 1.022 Deutsche zwischen 18 und 69 Jahren online zur Nutzung von Podcasts befragt. Untersucht wurde dabei unter anderem, welche Sendungen am häufigsten angesehen oder angehört werden, welche Geräte dazu verwendet werden und wie die Hörer mit Werbung umgehen.

Seit über zehn Jahren schon können Nutzer viele Audio- und Videosendungen on demand abrufen – wann und wo sie wollen und meistens sogar kostenlos. Doch erst seit etwa 2016 zeichnet sich ein Trend zur breiteren Nutzung des Mediums Podcast ab. Dieser hat sich offenbar deutlich verstärkt und die Mitte der Gesellschaft erreicht, denn mittlerweile beziehen 31 Prozent der Bundesbürger regelmäßig On-Demand-Inhalte über Podcastanbieter. Die größte Zielgruppe sind Männer zwischen 18 und 29 Jahren: Sie hören Podcasts häufiger als jede andere Gruppe.

Die beliebtesten Formate sind Nachrichten, die 43 Prozent der Podcast-Hörer im Medium verfolgen, sowie Unterhaltungs- und Musiksendungen, die 41 Prozent respektive 40 Prozent gefallen. Unter den zehn populärsten Podcasts finden sich allerdings neben Tagesschau, Tatort und der Satiresendung Extra 3 gleich sieben Wissenssendungen. Bei den meistabonnierten Podcasts dominieren die öffentlich-rechtlichen Formate: In den Top 10 landen ebenfalls nicht weniger als sieben Produktionen von ARD, ZDF und den Dritten Programmen. Bemerkenswert: Wie in anderen Zuschauerstudien zeigt sich auch hier, dass die Sendung mit der Maus offenbar nicht nur Kinder als Publikum hat. Im Ranking der meistabonnierten Sendungen landet die Show mit dem orangen Nager gleich hinter Tagesschau und Quarks und Co auf Platz drei.

Das Smartphone wird von knapp zwei Drittel der Podcast-Konsumenten für das Streaming der Sendungen genutzt, einen Laptop verwendet nur noch etwa die Hälfte. Offenbar überzeugt die einfache Transportierbarkeit der Mobilgeräte auch zu Hause, denn 31 Prozent der Nutzer geben an, Podcasts am häufigsten neben anderen Tätigkeiten im Haushalt wie Essen, Putzen oder Heimwerken abzuspielen. Ein Viertel schenkt den Sendungen seine ungeteilte Aufmerksamkeit, während jeweils jeder Siebte sie vorwiegend auf dem Arbeitsweg oder zum Einschlafen hört. Bei der optimalen Dauer einer Podcast-Folge teilen sich die Bundesbürger in zwei Lager: Während 45 Prozent eine Länge von maximal 20 Minuten präferieren, sind 37 Prozent eher für Episoden von 30 Minuten oder mehr zu begeistern.

Podcasts bergen ein erhebliches Marketingpotenzial, denn sie inspirieren ihr Publikum in vielen Fällen dazu, etwas Neues zu tun. So geben 41 Prozent der Hörerschaft an, durch einen Podcast den Wunsch verspürt zu haben, ein neues Produkt auszuprobieren, 37 Prozent wollten eine neue Fähigkeit erwerben und 28 Prozent ein neues Hobby beginnen. Wirksam ist dabei sowohl Content Marketing als auch klassische Werbung: Ein Drittel der Hörer hat sich schon einmal über Produkte oder Unternehmen informiert, nachdem diese in einem Podcast besprochen wurden, ebenfalls ein Drittel gibt an, dies nach einem Werbespot in einem Podcast getan zu haben.

Die vollständige Studie gibt es kostenlos unter www.splendid-research.com/studie-podcasts

Zahl der offenen Stellen mit 1,2 Millionen auf neuem Rekordstand

Im vierten Quartal 2017 gab es bundesweit rund 1.183.000 offene Stellen auf dem deutschen Arbeitsmarkt. Damit lag die Zahl um 128.000 über dem Stand vom vierten Quartal 2016 mit 1.055.000 offenen Stellen. Gegenüber dem dritten Quartal 2017 erhöhte sich die Zahl der offenen Stellen um 85.000. Das geht aus der IAB-Stellenerhebung hervor, einer repräsentativen Betriebsbefragung des Instituts für Arbeitsmarkt- und Berufsforschung (IAB).

In Westdeutschland waren im vierten Quartal 2017 rund 918.000 offene Stellen zu vergeben, in Ostdeutschland rund 265.000.

„Am stärksten stieg die Personalnachfrage im Verarbeitenden Gewerbe und im Bausektor“, erklärte der IAB-Arbeitsmarktexperte Alexander Kubis am Dienstag in Nürnberg. So verzeichneten die Betriebe des Verarbeitenden Gewerbes im vierten Quartal 2017 rund 161.000 offene Stellen. Dies entspricht einem Zuwachs von 35 Prozent gegenüber dem vierten Quartal 2016. Im Bausektor gab es gegenüber dem Vorjahresquartal einen Anstieg um 24 Prozent auf rund 98.000 offene Stellen.

Die Arbeitslosen-Stellen-Relation sank auf 2,0 für Gesamtdeutschland. Mit durchschnittlich 194 Arbeitslosen je 100 offenen Stellen in Westdeutschland und 225 Arbeitslosen je 100 offenen Stellen in Ostdeutschland wurde in beiden Landesteilen der niedrigste Wert seit 25 Jahren erreicht. „Die Zahlen zeigen verbesserte Arbeitsmarktchancen für Bewerber, bedeuten aber auch steigende Herausforderungen für die Arbeitgeber bei der Personalrekrutierung“, so IAB-Forscher Kubis.

Das IAB untersucht mit der IAB-Stellenerhebung viermal jährlich das gesamte Stellenangebot, also auch jene Stellen, die den Arbeitsagenturen nicht gemeldet werden. Im vierten Quartal 2017 wurden Antworten von rund 15.000 Arbeitgebern aller Wirtschaftsbereiche ausgewertet. Die Zeitreihen zur Zahl der offenen Stellen auf Basis der IAB-Stellenerhebung sind unter http://www.iab.de/stellenerhebung/daten online veröffentlicht.

Künstliche Intelligenz auf dem Weg zum Mainstream

Gastbeitrag von Dr. Dorian Selz, Geschäftsführer und Mitgründer von Squirro

Auch wenn einige Unternehmen mit KI-basierten Lösungen bereits beeindruckende Ergebnisse erzielt haben, ist KI bei Weitem noch keine Mainstream-Technologie. Aber Unternehmen erkennen zunehmend das Potenzial und die KI-Nutzung steigt.

Nur sehr wenige Unternehmen bezweifeln, dass künstliche Intelligenz (KI) ein großes Potenzial für die Transformation von Geschäftsprozessen hat. Gleichzeitig nutzen aber nur sehr wenige Anwender KI in nennenswertem Umfang. Teilweise hängt dies mit Vorbehalten und falschen Einschätzungen zusammen, was KI wirklich bedeutet und wie die Technologie sich auf ein Unternehmen auswirkt.

Zunächst gibt es die Herausforderung rund um die KI-Implementierung. Einigen Unternehmen mangelt es dabei an Skills, Wissen und Ressourcen. Zudem wissen sie nicht, in welchen Bereichen sie KI einsetzen sollen und wer sie dabei unterstützen könnte. Auch ist eine gewisse Beunruhigung hinsichtlich des langfristigen Einflusses von KI erkennbar – gerade im Hinblick auf eine eventuelle Vernichtung von Arbeitsplätzen.

Dr. Dorian Selz kommentiert für TREND REPORT in monatlichen Beiträgen die aktuellen Entwicklungen rund um „künstliche Intelligenz“.

Dr. Dorian Selz kommentiert für TREND REPORT in monatlichen Beiträgen die aktuellen Entwicklungen rund um „künstliche Intelligenz“.

Ein weiterer Aspekt ist die fehlende Kontrolle. Wenn die KI-Automation für die Verarbeitung großer Datenmengen oder andere mechanische Aufgaben genutzt wird, ist sie kein Problem. Aber KI kann darüber hinausgehen und Handlungsempfehlungen auf Basis der gewonnenen Erkenntnisse geben. Hebt man die KI-Automation auf diese Stufe – also quasi als Entscheidungsinstanz – entsteht ein Kontrollverlust, weil nicht alle Schritte unbedingt transparent und nachvollziehbar sind. Viele Unternehmen haben hier noch Vorbehalte.
Schließlich ist KI bis zu einem gewissen Grad ein Schritt ins Unbekannte. Werden Aufgaben in einer bewährten Art und Weise erledigt, ist es ein Risiko, in eine neue Technologie zu investieren, die einen anderen Ansatz wählt. Die resultierende Unsicherheit kann dazu führen, dass Unternehmen KI-basierte Projekte verwerfen.

Trotz dieser Vorbehalte nimmt die KI-Nutzung zu und das Wachstum wird sich in den nächsten Jahren fortsetzen. Der Grund ist klar: Die KI-Vorteile sind umfassend. Sie reichen von der Steigerung der Mitarbeiterproduktivität über die Gewinnung neuer Business-Insights bis zur Workflow-Automation. Der immense Nutzen führt dazu, dass immer mehr Unternehmen über die mit einer KI-Einführung verbundenen Herausforderungen hinwegsehen.

Das hohe KI-Potenzial zeigt sich gerade bei der automatischen Analyse riesiger Datenmengen aus unterschiedlichen Quellen. Daten zählen zum wertvollsten Kapital eines Unternehmens – und es liegt oft brach. Erst die künstliche Intelligenz kann das Innovationspotenzial der Daten vollständig ausschöpfen. Optimal genutzt, bieten sie einen beispiellosen Einblick in Geschäftsprozesse und Kundenbeziehungen. Für viele Anwendungsszenarien in den unterschiedlichsten Branchen wird diese Nutzung bahnbrechende Auswirkungen haben. Künstliche Intelligenz generiert innovative Einsichten und liefert handlungsrelevante Prognosen, die zuvor nicht möglich waren.

Es ist zwar wahr, dass sich KI noch im Anfangsstadium befindet. Trotz des ganzen Hypes hat noch keine KI-Technologie den Turing-Test bestanden, in dem die Fähigkeit von Maschinen ermittelt wird, ein dem Menschen äquivalentes Denkvermögen zu erreichen. Wenn aber Unternehmen KI-basierte Lösungen für eine spezifische geschäftliche Aufgabe oder einen konkreten Prozess nutzen, werden sich schnell die erwarteten Ergebnisse einstellen. Das heißt, KI kann einen massiven Einfluss auf das Business haben und wird deshalb auch zunehmend Mainstream-Charakter annehmen.

Design Thinking: ein kreativer Innovationsansatz

Gastbeitrag von Roberto Busin, Partner und Leiter Manufacturing Europa, Asien und Lateinamerika und Länderverantwortlicher für die Schweiz bei Infosys Consulting.

Fast immer steht Innovation auf der Liste der langfristigen Unternehmensziele ganz oben. Doch oftmals sind Unternehmen mit diesem Thema überfordert. Diese Situation wird durch aufstrebende, kapitalkräftige Unternehmen aus dem Silicon Valley zusätzlich verschärft.

Design Thinking kann die Innovationsvorhaben von Unternehmen positiv unterstützen. Die Grundvoraussetzung hierfür ist die Fähigkeit, sich in die Bedürfnisse und Motivatoren von Kunden oder Mitarbeitern hineinzuversetzen, um so Konzepte und Lösungen zu entwickeln. Das Verfahren orientiert sich an der Arbeit von Designern, welches auf Verstehen, Beobachten, dem Finden & Testen von Ideen sowie dem Ausführen & Lernen basiert.

Was ist Design Thinking?

Design Thinking ist ein iterativer Prozess, der aus fünf Kernkomponenten besteht:

  1. VERSTEHE (Emphatize): die Aufgabenstellung, den Markt, die Zielgruppe, die Technologie, die Randbedingungen, die Restriktionen sowie die Optimierungskriterien.
  2. BEOBACHTE und ANALYSIERE (Define): das Verhalten von Menschen in realen Situationen in Bezug auf die konkrete Aufgabenstellung sowie die emotionale Grundlage ihrer Erfahrungen.
  3. VISUALISIERE (Ideate): die ersten Ideen, um diese definierten Erfahrungen zu verbessern.
  4. BEWERTE und OPTIMIERE (Prototype): die Prototypen in rasch aufeinander folgenden Wiederholungen, um weitere Probleme aufzudecken und Optimierungen herbeizuführen (beispielsweise in Form von 3D, Simulation, Prototypen, Graphiken oder Zeichnungen).
  5. TESTE & IMPLEMENTIERE (Test): das neue Konzept in der Realität, um brauchbare Lösungen umzusetzen und schlechte zu verwerfen.
Der Ansatz des Design Thinkings setzt auf die These der Abduktion. Abduktion begründet sich aus der Erkenntnistheorie, bei der die Annahme vertreten wird, dass wenn ein Fall eintritt, die Ursache für diesen Fall wahr sein muss.

Der Ansatz des Design Thinkings setzt auf die These der Abduktion. Abduktion begründet sich aus der Erkenntnistheorie, bei der die Annahme vertreten wird, dass wenn ein Fall eintritt, die Ursache für diesen Fall wahr sein muss.

Empathie als Grundvoraussetzung

Design Thinking beginnt damit, die emotionale Grundlage der ausgewählten Zielgruppe zu erörtern und sich in sie hineinzuversetzen. Welche Erfahrungen sind positiv, welche sorgen für Frustration? Wie fühlt sich die Zielgruppe bei der Nutzung von bestimmten Technologien? Bislang verließen sich viele Unternehmen auf einen Logik-basierten Business-Thinking-Ansatz, der häufig während der Produktentwicklung zum Einsatz kommt: Ein Problem wird erkannt und eine Lösung definiert, die automatisch zur Behebung des Problems führt.

Ein Beispiel:
Aus der Business-Thinking-Perspektive ist es logisch, dass durch die Installation eines Heizkörpers die Wohnung von Kunden beheizt wird. Fügt man einen Thermostat mit vielen Einstellungsoptionen hinzu, können Kunden den Heizrhythmus individuell steuern.

Ein Hersteller von Thermostaten suchte einen neuen Ansatz. Er erkannte, dass viele Kunden Stress empfanden, da sie die Übersicht über die vielen Funktionen verloren hatten oder komplizierte Heizpläne erstellen mussten, um den wechselnden Jahreszeiten oder Ferienzeiten gerecht zu werden. Deshalb entwickelte der Hersteller ein einfaches und übersichtliches Produkt, das „lernte“ und so die Vorlieben von Kunden erkennen konnte. So fühlten sich die Kunden freier, techniksicher und konnten wirtschaftlicher beheizen. Diese Lösung war nicht durch neue Schalter oder Funktionen möglich, sondern lediglich durch den Einsatz von Empathie.

Roberto Busin plädiert dafür, ein Produkt nicht mit Funktionen zu überfrachten („Business Thinking“, siehe Abbildung oben)

Roberto Busin plädiert dafür, ein Produkt nicht mit Funktionen zu überfrachten („Business Thinking“, siehe Abbildung oben)

Modellerstellung
Die emotionale Grundlage ergibt sich in erster Linie durch die Befragung oder Beobachtung der Zielgruppe. Diese Erkenntnisse bilden die Basis für die Entwicklung eines gemeinsamen, klaren und übersichtlichen Modells und den hierfür relevanten Personae und Customer Journeys. Nachdem ein Problemlösungsprozess im seltensten Fall linear verläuft, nutzen Design-Thinking-Befürworter kreative Techniken, um alle Aktivitäten innerhalb eines Ökosystems und die daraus resultierenden Antworten einzufangen. Menschen kommunizieren durch Geschichten. Kreative Design-Thinking-Modelle helfen Unternehmen, die Geschichten ihrer Kunden zu erzählen.

Prototypisieren und Lösungen testen
Aufbauend auf den generierten Modellen werden Lösungen entwickelt und getestet. Dabei geht es nicht darum, der Zielgruppe voll funktionstüchtige, ausgefeilte Lösungen zu präsentieren, sondern um einfache Prototypen, die schnell ersten Tests unterzogen werden können. So ist rasch ersichtlich, ob sich eine Lösung als positiv erweist oder sich als Fehlschlag herausstellt. Besonders wichtig dabei ist, dass die Teams unvoreingenommen an die Tests der jeweiligen Lösung herangehen und nicht den Fehler begehen, Lösungen vorab zum Scheitern zu verurteilen.

Weniger ist mehr
Gerade im Produktdesign zählt das Hinzufügen von immer mehr Funktionen zu den größten Fehlern. Oft wollen Unternehmen so keine Wünsche offenlassen. In der Praxis aber führt das zu aufgeblähten Produkten, die bei Nutzern keinen Gefallen finden. Design Thinking ermutigt Teams deshalb, sich auf die tatsächlichen Kernfunktionen zu beschränken. Getreu dem Motto „Build Functions First, Features Second.“ Das Telefonieren beispielsweise ist eine Funktion, der Wählton und die Touch-Tone-Tastatur sind Features, die verwendet werden, um die Funktion zu erreichen.

Es ist unbestritten, dass Unternehmen mit immer mehr Herausforderungen zu kämpfen haben, je weiter sie im digitalen Zeitalter fortschreiten. Mit Big Data, Design-basierten Innovationen und einer stabilen, vernetzten Plattform haben Unternehmen die Möglichkeit, Lösungen zu entwickeln, die nicht nur den eigenen unternehmerischen Erfolg garantieren, sondern auch von Mitarbeitern und Kunden positiv aufgenommen werden.

Auf Nummer sicher gehen beim 3D-Druck

Dies ist ein Gastbeitrag von Prof. Dr. Matthias Eck und Dr. Roland Wiring, Partner bei CMS Deutschland

Der 3D-Druck revolutioniert Herstellungsprozesse und eröffnet Unternehmen neue Perspektiven. Doch beim Einsatz von 3D-Druckern ist rechtlich Vorsicht geboten. Es besteht das Risiko, geistige Eigentumsrechte Dritter zu verletzen. Wie lässt sich das vermeiden, wie kann man sich als Unternehmen gegen Nachahmungen schützen und welche Haftungsrisiken wegen fehlerhafter Produkte bestehen? Die wichtigsten Kernpunkte im Überblick:

Schutz des Geistigen Eigentums

Werden mit 3D-Druckern eigene Ideen umgesetzt, sind die Risiken, Rechte Dritter zu verletzen, zunächst nicht kleiner und nicht größer, als bei Einsatz eines anderen Herstellungsverfahrens. Doch mit 3D-Druckern lassen sich Nachahmungen existierender Originalprodukte mit einer bisher nicht gekannten Leichtigkeit herstellen. 3D-Druckvorlagen für solche Nachahmungen sind im Internet und 3D-Drucker in guter Qualität und zu erschwinglichen Preisen im Handel erhältlich. Schon der Begriff Nachahmung impliziert, dass die Herstellung bereits existierender Produkte rechtlich nicht unproblematisch ist. Dabei können Rechte des geistigen Eigentums wie Urheber-, Marken-, Patent- und Designrechte der Originalanbieter oder anderer Dritter verletzt oder gegen wettbewerbsrechtliche Vorschriften verstoßen werden. Denn auch beim Einsatz von 3D-Druckern gilt: Nicht alles, was tatsächlich möglich ist, ist auch erlaubt.

Rechte Dritter können sowohl an der Druckvorlage als auch an dem Originalprodukt bestehen. In beiden Fälle stellen sich Fragen wie: Ist die Vorlage urheberrechtlich oder in sonstiger Weise geschützt? Ist das Angebot einer geschützten Vorlage im Internet schon eine Rechtsverletzung? Darf das Originalprodukt abgescannt werden, um eine neue elektronische Vorlage zu erstellen? Auch wenn viele Fragen ungeklärt sind, lässt sich generell sagen: Bestehen an einem Originalprodukt oder auch an einem Konstruktionsplan Rechte des geistigen Eigentums, ist das Anbieten der Vorlage oder der Druck des Produktes ohne die Zustimmung des Rechteinhabers rechtswidrig. Dies gilt zumindest für diejenigen, die mit dem 3D-Drucken geschäftlich oder gewerblich tätig sind.

Leider ist es durchaus schwer zu beurteilen, ob eine Druckvorlage oder das Originalprodukt urheber- oder designrechtlich geschützt ist oder nicht. Leichter lässt sich die Frage klären, ob Markenrechte bei dem Druck verletzt werden. Druckt ein Unternehmen fremde Marken ohne Zustimmung des Markeninhabers auf nachgeahmte Produkte, ist das regelmäßig unzulässig. Ob man patentrechtlich beim 3D-Druck im „grünen Bereich“ bleibt, ist durch eine Patentrecherche überprüfbar. Rein faktisch besteht die Gefahr von Patentverletzungen durch 3D-Druck allerdings nur in begrenztem Umfang, da die aktuellen Druckergenerationen noch Schwierigkeiten haben, den Aufbau von komplexen technischen Produkten nachzudrucken. In Zukunft wird aber auch dieses Thema an Bedeutung gewinnen. Besondere Vorsicht ist bei der Verwendung von Druckvorlagen von Internetplattformen geboten. Ob die Zustimmung des Rechteinhabers zur Nutzung dieser Druckvorlagen vorliegt, wird nicht immer mit ausreichender Sicherheit feststellbar sein.

Können die Anbieter von Originalprodukten in der Welt des 3D-Drucks auf die Rechte des geistigen Eigentums zählen? Begrenzt. Die Rechte des geistigen Eigentums enthalten nämlich Regelungen, die – mit vielen Unterschieden im Detail – die Herstellung von Nachahmungen im Privatbereich nicht verbieten. Da der 3D-Druck aber gerade auch Privatpersonen ermöglicht, selbst Nachahmungen von Produkten herzustellen, liegt gerade hier eine ernsthafte Problematik. Ein wichtiger Hebel für den Schutz von Originalprodukten bleiben dann die Anbieter der Druckvorlagen. Sie handeln nie privat. Dieser Hebel funktioniert allerdings nur, wenn für das Originalprodukt auch gewerbliche Schutzrechte bestehen. Was aber, wenn in Zukunft Scanner auf dem Markt erhältlich sind, die es den Privaten erlauben, auch Druckvorlagen „im Privaten“ zu erstellen. Hier steht das Recht des geistigen Eigentums vor der gewaltigen Herausforderung, mit einer modernen Interpretation der bestehenden Gesetze und eventuell neuen Regelungen den Schutz der Originalanbieter zu sichern.

Haftungsrisiken

Praktisch von hoher Relevanz ist die Frage, wer haftet, wenn ein mittels 3D-Druck hergestelltes Produkt fehlerhaft ist und dadurch ein Schaden entsteht. Ein Produktfehler kann unterschiedliche Ursachen haben: Den Konstruktionsplan, die Werkstoffe wie Kunstharz oder Granulat, den Herstellungsprozess oder aber das Produkt selbst und seine Eignung für den konkreten Einsatz.

In der unmittelbaren vertraglichen Beziehung kommt zunächst die klassische Mängelgewährleistung ist Spiel. Dafür ist zu klären, wer mit wem welche vertragliche Beziehung eingegangen ist. Bestellt der Kunde etwa lediglich einen Konstruktionsplan und druckt das Endprodukt selbst aus, kommt ein Werkvertrag in Betracht. Wird ein bereits existierender Konstruktionsplan erworben, handelt es sich typischerweise um einen Werklieferungs- oder Kaufvertrag. Der Kunde hat zunächst ein Recht auf Nachbesserung oder Neulieferung des Planes. Weitere Ansprüche, wie z.B. Wertersatz für den verbrauchten Werkstoff, Ersatz von entgangenem Gewinn oder Ersatz von Folgeschäden setzen voraus, dass der Lieferant entweder die Mangelfreiheit garantiert oder den Fehler zumindest fahrlässig verursacht hat. Wichtig: Der Fehler muss nicht unbedingt technischer Art sein. Auch ein Verstoß gegen Urheber-, Marken-, Design- oder Patentrechte kann einen Mangel des Konstruktionsplanes darstellen, der Gewährleistungsansprüche auslöst.

Ein weiterer Risikobereich ist die Produkthaftung des Herstellers gegenüber Dritten. Wird durch ein fehlerhaftes Produkt ein Mensch verletzt oder getötet oder eine privat genutzte Sache beschädigt oder zerstört, haftet der Hersteller für den Schaden. Hersteller ist dabei jeder, der das Endprodukt, einen Grundstoff oder ein Teilprodukt produziert hat oder sich durch das Anbringen seines Namens, seiner Marke oder anderen Kennzeichens als Hersteller ausgibt. Damit kommen im Regelfall – und besonders im Bereich des 3D Drucks – mehrere Unternehmen als Hersteller in Betracht. Der Geschädigte hat die Wahl, wen er in Anspruch nimmt. Wichtig aus Herstellersicht ist auch die Produktbeobachtungspflicht. Zeigen sich nach dem Inverkehrbringen Gefahren bei der Verwendung der Produkte, muss der Hersteller reagieren, um Schadensfälle zu verhindern. Das kann einen Produktrückruf einschließen. Ein solcher wird allerdings erschwert, wenn die Verbreitung der Produkte nicht durch Belieferung von Kunden erfolgt, sondern nur mittels digital bereitgestellter Konstruktionspläne.

Für Unternehmen, die sich mit 3D-Druck befassen, kommt es daher darauf an, Haftungsfälle möglichst bereits in der Entstehung zu verhindern. Dafür sind möglichst genaue Produktbeschreibungen, Spezifikationen und Definitionen der Einsatzzwecke wichtig. Schwierige Abgrenzungsfragen können innerhalb der Regresskette auftreten, wenn sich nicht einwandfrei nachweisen lässt, ob der aufgetretene Fehler im Konstruktionsplan, im Werkstoff oder im Herstellprozess seine Ursache hat und für alle drei jeweils ein anderes Unternehmen verantwortlich ist. Dabei kommt für die Nachweisbarkeit erschwerend hinzu, dass der 3D-Druck selbst häufig nicht unter kontrollierten und reproduzierbaren Bedingungen stattfindet.

Fazit

Der 3D-Druck bietet enormes Potential. Beispiele aus der Medizintechnik, dem Flugzeugbau und der Konsumgüterindustrie zeigen dies eindrucksvoll. Angesichts der vielfältigen rechtlichen Themen ist für einen Player, der in diesem dynamischen Umfeld aktiv ist wichtig, auch die rechtlichen Herausforderungen früh genug sorgfältig zu analysieren. Nur so lassen sich die Chancen des 3D-Drucks gut gewappnet ergreifen.

Über die Autoren
Dr. Roland Wiring

Dr. Roland Wiring

Prof. Dr. Matthias Eck

Prof. Dr. Matthias Eck

Prof. Dr. Matthias Eck und Dr. Roland Wiring sind Partner bei CMS Deutschland. Matthias Eck berät nationale und internationale Mandanten umfassend im gewerblichen Rechtsschutz und Wettbewerbsrecht. Roland Wiring berät und vertritt Unternehmen mit dem Sektorfokus Life Sciences, also insbesondere aus den Bereichen Pharma, Medizinprodukte, Biotech und angrenzenden Industrien.

Buchbesprechnung: Digital Work Design

Liebe Interessierte am Projekt „Digital Work Design“,

wir freuen uns sehr, dass unser Buch Digital Work Design: Die Big Five für Arbeit, Führung und Organisation im digitalen Zeitalter am 15. Februar beim Campus Verlag erschienen ist.

In diesem Buch beschreiben wir die strukturellen Voraussetzungen für die Umsetzung der digitalen Transformation. Die zentralen Thesen lauten:

 

Big Five #1: Der Umgang mit der VUCA-Welt wird zur Kernkompetenz

Big Five #2: Keine Disruption ohne (neue Arten) von Teamarbeit

Big Five #3: Organisationen müssen demokratischer werden

Big Five #4: Die Bedeutung von Beziehungen

Big Five #5: Gesundheit muss stärker in den Fokus von Organisationen rücken

Neben evidenzbasierten Handlungsempfehlungen präsentieren wir im Buch einen Selbstdiagnose-Check sowie einen 10-Punkte-Plan zur Umsetzung der aufgestellten Thesen für Mitarbeiter, Führungskräfte und Organisationen.

Das Buch kann zum Beispiel bei Amazon über den folgenden Link bestellt werden: https://www.amazon.de/Digital-Work-Design-Organisation-Book/dp/3593508516/ref=sr_1_1?ie=UTF8&qid=1518464222&sr=8-1&keywords=Digital+Work+Design

 

Herzliche Grüße,

 

Prisca Brosi, Tanja Schwarzmüller, Isabell Welpe

————————————————————————————–
Univ.-Prof. Dr. Isabell M. Welpe

Chair for Strategy and Organization

Technical University of Munich

TUM School of Management

Arcisstrasse 21 80333 Munich Germany

T: +49 (0)89 289 24824

E: welpe@tum.de

W: https://www.strategy.wi.tum.de

Follow us on Facebook: https://www.facebook.com/TUM.LSO/

Follow us on Twitter: @StratOrgScience

Visitors: Technical University of Munich · Building 5, 2nd floor · Room 2560 · Entrance: Luisenstr./Theresienstr.

 

Buchbesprechnung:

Bislang sprechen wir über Digitalisierung im Kontext von Menschen und Führungsaufgaben, aber nie in Bezug auf Organisationen. Es müssen aber auch die strukturellen Voraussetzungen gegeben sein, wenn ein Unternehmen seine Kultur ändern soll.

Das Team um Isabell Welpe hat in einem mehrjährigen Forschungsprojekt Unternehmen im Digitalisierungsprozess begleitet und analysiert. In diesem Buch präsentieren die Autorinnen erstmals die fünf Erfolgsfaktoren für den Switch zur digitalen Organisation. Zusätzlich zu den Big Five geben sie Führungskräften einen Selbstdiagnose-Check sowie einen 10-Punkte-Plan für die Praxis mit auf den Weg.

 

 

 

Data Driven Marketing – Erfolgsstrategie für Unternehmen

Gastbeitrag von Jakob Rehermann, Geschäftsführer des Softwareentwicklers datapine

Big Data, Smart Data, Data Analytics, Data Science, Data Driven Marketing – diese Liste könnte man beliebig lang fortführen. Der Begriff „Data“ ist heute aus dem Wirtschaftsleben nicht mehr wegzudenken. Studien belegen, dass die Mehrheit der wertvollsten börsennotierten Unternehmen einen gemeinsamen Nenner haben: Die intelligente Nutzung von Daten*. Das unterstreicht die Bedeutung der Daten im Hinblick auf wirtschaftlichen Erfolg und welche Rolle sie in Unternehmen spielen. Da sich laut McKinsey die Menge der verfügbaren Daten rund alle drei Jahre verdoppelt, wird sich diese Tendenz künftig noch verstärken. So wundert es nicht, dass Daten mittlerweile für beinahe alle Unternehmensbereiche und -Abteilungen relevant sind: Von der IT bis hin zum Management oder das Marketing.

Dabei geht es nicht nur um das Sammeln von Daten. Denn das allein macht Unternehmen noch nicht erfolgreicher. Die Herausforderung besteht darin, aus Big Data, Smart Data zu machen. Sprich aus den Unmengen an Daten, die tagtäglich ins Unternehmen hineinströmen, die relevanten herauszufiltern und hieraus Erkenntnisse und Informationen abzuleiten. Mit den Daten muss also etwas passieren. Intelligente Algorithmen und spezielle Analyse-Software helfen, die in den Datenmengen versteckten Informationen, teils sogar automatisiert, herauszulesen. Wie Detektive spüren diese Softwareprogramme die in den Datenmassen versteckten Informationen auf. Dafür müssen die Daten erst einmal in ein einheitliches Format gebracht werden, schließlich stammen sie aus zahlreichen unterschiedlichen Quellen, wie internen Datenbanken, Webseiten, ERP-Systemen, Social Media Plattformen oder Excel-Dateien. Erst wenn alle Daten das gleiche Format haben, können sie analysiert werden, also miteinander in Bezug gesetzt werden.

Mit konventionellen Methoden, wie Excel-Tabellen oder einzelnen Datenbanken etc., sind die Massen an Daten, denen Unternehmen heute gegenüberstehen, nicht mehr beherrsch- und interpretierbar. Daten-Visualisierungstools, die aus umfangreichen Zahlen- und Datenkolonnen übersichtliche und interpretierbare Grafiken machen, sind daher im data-driven Management nicht mehr wegzudenken. Laut BARC Trendmonitor liegt dementsprechend Data Visualization unter den Top drei Trends im Bereich Datenanalyse.
Der rasante technologische Fortschritt im Bereich Künstliche Intelligenz lässt die Analysemethoden dabei immer raffinierter und ausgeklügelter werden. Dank intelligenter und selbstlernender Algorithmen können Unternehmen aus der permanent wachsenden Datenmenge immer mehr Wissen generieren.

Es besteht kein Zweifel: Wir leben im Zeitalter der Daten und deren Analyse. Sie sind heute die wichtigste Quelle der Wertschöpfung. Das geflügelte Wort des englischen Philosophen Francis Bacon ‚Wissen ist Macht` könnte man heute wie folgt neu interpretieren: Daten sind Wissen und Wissen ist Erfolg.

Wie verändern Daten das Marketing?

Erfolg haben Unternehmen dann, wenn potenzielle Neukunden überzeugt werden und Bestandskunden loyal sind. An dieser Stelle kommt das Marketing ins Spiel, das sich um die Kundenkommunikation kümmert. Mit einer 08/15 Gießkannenkommunikation überzeugt oder gewinnt man Kunden heute nicht mehr. Die Menschen erwarten Botschaften, die für sie persönlich relevant sind und zu ihrem Leben passen. Marketing-Experten suchen daher nach Wegen, die Kundenansprache individuell und möglichst personalisiert zu gestalten. Das jedoch setzt tiefgehende Kenntnisse über die Adressaten voraus. Denn wenn man jemand nicht kennt, kann man ihn auch nicht individuell ansprechen.

Dass eine individuelle Ansprache erfolgreich ist, beweist eine IBM-Studie. Sie belegt, dass Unternehmen, die ihre Kunden gut kennen, um 60 Prozent besser performen. Ein gutes Beispiel ist der E-Commerce-Riese Amazon, der durch personalisiertes Einkaufserlebnis konkret Kaufentscheidungen auslöst. Diese Erkenntnis lässt Marketingabteilungen zunehmend datengetrieben agieren. Gartner hat gar prognostiziert, dass Marketingabteilungen künftig mehr Geld in die IT investieren, als die IT-Abteilungen selbst.

Bedingt durch eine zunehmend digitale Lebensweise, eine starke Social Media-Nutzung sowie hohe Verbreitung mobiler Endgeräte, hinterlassen Kunden heute zahlreiche Spuren im Netz und geben Informationen über sich preis. Und zwar in Form von Daten, welche den Unternehmen zugänglich sind. Wie das funktioniert kann am Beispiel einer Unternehmenswebsite einfach erklärt werden: Ein Webanalyse-Tools registriert und misst alle Besucher sowie deren Navigation und Verhalten auf der Webseite. Auf diese Weise können Unternehmen dann Rückschlüsse auf Interessen und Vorlieben ihrer Kunden ziehen.
Ziel ist dabei nicht, Konsumenten auszuspionieren. Schließlich müssen persönliche Daten anonymisiert werden. Es geht vielmehr darum, die Marketingaktionen besser an den Bedürfnissen auszurichten. Um dies zu ermöglichen, werden Daten aus allen Consumer-Touch-Points – also z.B. von Facebook, der Webseite und dem E-Commerce Shop – zusammengeführt und analysiert. So erhalten Marketingexperten ein umfassendes Bild. Hilfreich ist dies auch für die strategische Marketingplanung und das Zielgruppen-Clustering.

Heute werden Zielgruppen nicht nur nach groben demographischen Kriterien definiert. Zielführender ist es, Zielgruppen in Micro-Targets aufzugliedern. Beispielsweise nach Interessen, Vorlieben oder Kaufverhalten. In der Praxis sieht das dann so aus, dass ein technikbegeisterter Student einen anderen Newsletter oder eine Werbebotschaft erhält, als die modeinteressierte Studentin. Oder dass ehemalige Stammkunden, die seit längerer Zeit nichts gekauft haben, anders angesprochen werden, als treue Kunden. Genau das ist Data Driven Marketing. Die hierzu benötigten Daten werden durch Tracking des Kaufverhaltens, der Online-Interaktionen, des Web-Browsing-Verhaltens, des Online Suchverhalten oder auch durch direkte Befragung der Konsumenten, gesammelt.

Im Wesentlichen geht es also um das Verstehen der Kunden durch die gezielte Analyse von Daten. So können im Ergebnis Markenbotschaften insofern modifiziert werden, als diese punktgenau auf bestimmte Personengruppen passen. Aus Daten kann darüber hinaus auch herausgelesen werden, welchen Artikel ein bestimmter Kunde mit einer hohen Wahrscheinlichkeit als nächstes kauft. Je mehr Daten dem Marketing bekannt sind, desto höher ist die Trefferquote hinsichtlich dieses ‚next best offer’.

Was ist konkret der Mehrwert von Data Driven Marketing?

Data Driven Marketing bringt Unternehmen vielfältige Vorteile, die durch Studien und Umfragen belegt sind. In einer Forbes-Umfrage gaben beispielsweise 57 Prozent der Befragten an, den Return of Investment ihrer Kampagnen messbar gesteigert zu haben. Im Rahmen von Data Driven Marketing kann der Erfolg von Kampagnen nicht nur genau gemessen, sondern auch spürbar gesteigert werden. Kampagnen lassen sich optimieren und Social Media Kommunikation kann zielgruppenspezifischer erfolgen. Auch Themen und Inhalte lassen sich besser planen, denn Marketingentscheider sind durch Datenanalyse über aktuelle Trends und Entwicklungen informiert und wissen, worüber gerade im Netz gesprochen wird. Durch individuelle Angebote, können Kaufentscheidungen generiert werden und ggf. sogar Rücksendungen minimiert werden. Durch eine individuellere und personalisierte Ansprache erhöht sich die Kundenbindung und -zufriedenheit. Besonders attraktiv ist die bereits oben erwähnte Eruierung des ‚next best offer’ – also die Vorhersage, für welches Produkt der Kunde sich wahrscheinlich interessiert. Neben einer besseren Kundenbeziehung können Themenplanung und Angebote optimiert werden und so letztlich der Umsatz gesteigert werden. Das macht Data Driven Marketing für Unternehmen attraktiv und wohl auch unverzichtbar, wenn sie auch künftig wettbewerbsfähig bleiben wollen.

*Quelle: Pressemitteilung McKinsey vom 8.12.2016

Über den Autor:

Jakob Rehermann ist Geschäftsführer des in Berlin ansässigen Softwareherstellers datapine. In diesem Zusammenhang beschäftigt er sich intensiv mit der Auswertung von Daten, u.a. unter Einsatz von künstlicher Intelligenz.

Webinar: 28 mal DSGVO

Die GDPR hat die Aufgabe, die europäischen Datenschutzbestimmungen zu harmonisieren. Dennoch ist es an den einzelnen Mitgliedsstaaten, die Regelungen in nationales Recht zu überführen. Für europaweit agierende Unternehmen gilt daher: 28 mal DSGVO.

Der HR-Softwarespezialist PeopleDoc und Anwälte der international agierenden Anwaltskanzlei Morgan Lewis stellen die Besonderheiten vor und laden herzlich zu dem entsprechenden Webinar ein.

Diskutieren Sie mit PeopleDoc und Anwälten der Kanzelei Morgan Lewis über die individuellen Anforderungen, die die EU-Datenschutzgrundverordnung für international tätige Unternehmen mit sich bringt. Registrieren Sie sich gleich für das kostenfreie Webinar am 1. März 2018 um 16.00 Uhr.

Das Webinar selbst ist auf Englisch und richtet sich an HR-Verantwortliche. Die Agenda ist folgende:

  • Finale und anstehende Legislativen für UK, Frankreich und Deutschland
  • Inwiefern betreffen die neuen Regelungen die Sammlung von Mitarbeiterdaten im Kontext der GDPR
  • Mögliche Auswirkungen für HR-Verantwortliche im Kontext des bevorstehenden BREXIT
  • Wie kann die HR-Abteilung der GDPR in diesen Ländern proaktiv begegnen

Die Redner sind:

Lee Harding, Morgan Lewis

Lee Harding
Associate at Morgan, Lewis & Bockius

Lee Harding berät im Kontext von Cybersicherheit und Mitarbeitern in vielen Branchen, unter anderem für FinTech-Unternehmen. Er berät bei komplexen Situationen in die (große) Unternehmen im Kontext des Datenschutzes kommen können.

Charles Dauthier, Morgan Lewis

Charles Dauthier
Associate at Morgan, Lewis & Bockius

Charles Dauthier berät französische und international agierende Kunden zu Privatsphäre und Mitarbeiter-Belange. Er berät Unternehmen bei so genannten executive terminations, collective terminations und dem Umgang mit Mitarbeiterdaten in Situationen wie M&A, Restrukturierung und Reorganisation.

Dr. Axel Spies, Morgan Lewis

Dr. Axel Spies
Special Legal Consultant at Morgan, Lewis & Bockius

Dr. Axel Spies berät Unternehmen bei diversen grenzüberschreitenden Vorfällen wie etwa Lizenzierung, Wettbewerb, sowie neue Technologien wie etwa Cloud-Computing speziell im europäischen Kontext. Es geht um Datenschutz, Datentransfer; sein Fokus ist der Datenschutz.

 

Arnaud Gouachon PeopleDoc

Arnaud Gouachon
Chief Legal & Compliance Officer at PeopleDoc

Arnaud ist seit Januar 2016 Chief Legal Officer bei PeopleDoc. Er leitet PeopleDoc’s globale „Legal & Compliance-Organisation“. Er bringt über 10 Jahre Erfahrung in Compliance und Gesetzgebung mit sich.

 

Robin Sendrow PeopleDoc

Robin Sendrow
HR Compliance Assist Manager at PeopleDoc

Robin ist HR Compliance Assist Manager bei PeopleDoc. Sie hilft Kunden von PeopleDoc sich rechtskonform zu verhalten – auch in fremden Regelwerken im Kontext von HR.

Hier geht es zur Registrierung

 

Nicht nur fordern, sondern fördern

Dies ist ein Gastbeitrag von Liam Butler, VP Sales EMEA, SumTotal Systems:

Ganzheitliche Unternehmensstrategien zur Motivation und zum langfristigen Erhalt qualifizierter Mitarbeiter werden mit zunehmendem Fachkräftemangel immer wichtiger.

Die Bundesanstalt für Arbeitsschutz und Arbeitsmedizinschätzt die volkswirtschaftlichen Produktionsausfälle aufgrund des Krankenstands in deutschen Unternehmen auf jährlich 75 Milliarden Euro und den Ausfall an Bruttowertschöpfung auf 133 Milliarden Euro. Nachdem der Krankenstand deutscher Arbeitnehmer seit 2015 wieder ansteigt, 2016 lag die Quote laut Statistischem Bundesamt bei 4,3%, ist eine Kostenentspannung mittelfristig nicht zu erwarten.

Hinzu kommen ein steigender Druck am Arbeitsplatz durch die wachsenden Anforderungen der Digitalisierung, Personalmangel sowie Defizite beim Gesundheitsschutz in 70% der Unternehmen – so das Ergebnis einer aktuellen Befragung der Hans-Böckler-Stiftung unter 2.000 Betriebsräten. Die offenbar schlechte Vorbereitung der Unternehmen auf „Arbeit 4.0“ erhöht nicht nur die Unzufriedenheit der Mitarbeiter, sondern auch das Risiko psychischer Erkrankungen. Diese haben nach dem DAK Gesundheitsreport in den letzten Jahren stark zugenommen und liegen mit einer Quote von 17,1 % bereits auf Platz 2 der häufigsten Krankheitsgründe.

Motivationsfaktor Talent Management

Angesichts dieser Zahlen liegt die Schlussfolgerung nahe, dass ein möglichst langfristiger Erhalt der Leistungsfähigkeit von Mitarbeitern die Produktivität, Profitabilität und letztlich auch die Wettbewerbsfähigkeit eines Unternehmens maßgeblich beeinflusst.
Hier kommen zwei wichtige Faktoren ins Spiel: Motivation und Arbeitszufriedenheit. Gerade die Generation der so genannten „Millenials“, die ab 2020 immerhin die Hälfte der weltweit erwerbstätigen Bevölkerung ausmachen wird, wünscht sich mit Blick auf ihre zukünftige Arbeitsumgebung hohe Flexibilität und individuelle Entfaltungsmöglichkeiten. In Umfragen fallen in diesem Kontext immer wieder Schlagworte wie Work-Life-Balance, flexible Arbeitszeiten, persönliche Karriereperspektiven oder kontinuierliche Weiterbildung. Auch eine technologisch moderne Ausstattung, die beispielsweise ein uneingeschränkt mobiles Arbeiten ermöglicht, ist Vielen sehr wichtig.

Eine wachsende Zahl an Unternehmen führt daher Maßnahmen ein, um speziell neue Talente, aber natürlich auch erfahrenere Mitarbeiter gezielt zu fördern. Ein aktives Coaching sowie individuell abgestimmte Weiterbildungsangebote sollen sowohl Young Professionals als auch erfahrenen Mitarbeitern ermöglichen, ihre Fähigkeiten und Stärken beständig zu erweitern und sich darüber hinaus attraktive Karriereperspektiven innerhalb des Unternehmens zu eröffnen. Ziel ist es, neu hinzukommende Mitarbeiter schnell zu integrieren (Onboarding) und über Anreizsysteme möglichst lange im Unternehmen zu halten.

In diesem Zusammenhang gewinnt insbesondere die Fortbildung bei essenziellen digitalen Fähigkeiten an Bedeutung. Denn neben den Prioritäten der „Digital Natives“ haben sich – bedingt durch den digitalen Wandel – auch die Anforderungen im Jobprofil und die Art des Arbeitens branchenübergreifend verändert. Eine kontinuierliche Qualifizierung von Mitarbeitern und Führungskräften in den Bereichen Business, Leadership, IT- und Security-Skills ist daher nahezu obligatorisch.

Liam Butler ist Vice President Sales EMEA bei SumTotal Systems, eine hundertprozentige Skillsoft-Tochter.

Wie das gesamte Talent Management muss sich auch die Weiterbildung auf die individuellen Lernbelange jedes einzelnen Mitarbeiter fokussieren und so ausgerichtet sein, dass sie aktuelle sowie möglichst auch zukünftige Unternehmensanforderungen für den Job abdeckt. Darüber hinaus sollte die Form der Weiterbildung unbedingt berücksichtigt werden: viele Mitarbeiter beklagen heute uninspirierte, irrelevante e-Learning-Inhalte und fehlende Zeit zum Lernen – beides führt eher zu mehr Frustration als zu besserer Motivation.
Modernes e-Learning muss daher attraktiv präsentiert werden, wie zum Beispiel in Form von „häppchenweisen“ Micro-Learning Videos. Auch spielerische Elemente (neudeutsch: Gamification) wie Lernwettbewerbe oder Scorer-Punktesysteme sind heute im Talent Management bereits als seriöse Methode etabliert, um Mitarbeiter emotional an das Unternehmen zu binden.

Nicht zuletzt kann ein regelmäßiges und vor allen Dingen sinnvolles Feedback zu einer nachhaltig positiven Mitarbeiter-Motivation beitragen. Leider ist dieses „Kommunikationsmittel“ in vielen Organisationen noch ein stark fragmentierter und mit großem Zeitaufwand verbundener Prozess. Richtig implementiert bieten Feedbacks die Möglichkeit, individuelle Weiterbildung konsistent an den Unternehmenszielen auszurichten. Darüber hinaus erhalten Mitarbeiter durch das Führungskräfte-Feedback wertvolle Impulse, sich selbstständig weiterzubilden, um die eigene Karriere voranzutreiben.

(Frei)Räume schaffen

Aus wissenschaftlicher Sicht besteht darüber hinaus eine starke Verknüpfung zwischen Arbeitsumfeld und der Gesundheit bzw. Effektivität eines Mitarbeiters. Dieser Zusammenhang wird von vielen Unternehmen unterschätzt. Als größter Stressfaktor gilt der hohe Geräuschpegel, etwa in Großraumbüros. Er reicht häufig an die 70 Dezibel, was der Lautstärke eines (älteren) Rasenmähers entspricht. Aber auch ein Arbeiten unter permanent ungenügenden Lichtbedingungen kann nach wissenschaftlichen Erkenntnissen nicht nur die Leistungsfähigkeit von Arbeitnehmern erheblich beeinträchtigen, sondern sogar Depressionen verursachen.

Tatsächlich sähen viele Berufstätige angesichts der zunehmenden Komplexität des globalisierten Arbeitslebens einen Vorteil darin, ihr direktes Arbeitsumfeld freier, bedürfnisgerechter und persönlicher einrichten zu können. Neben einer flexibleren Einteilung von Aufgaben und Arbeitszeiten betrifft dies insbesondere die äußere Gestaltung des Arbeitsplatzes. Ein neues Design, ein höherer Anteil an natürlichem Licht in Büro-, Konferenz- und Gesellschaftsräumen sowie mehr Flexibilität bei der Gestaltung der eignen Arbeitsumgebung können das Wohlbefinden und damit die Produktivität, das Engagement sowie letztlich auch die Zufriedenheit der Mitarbeiter erheblich verbessern.

Um die richtige Arbeitsatmosphäre zu schaffen, ist es wichtig, Konzepte zu entwickeln, die das Engagement jedes Mitarbeiters, persönliche Entfaltungsmöglichkeiten sowie nicht zuletzt Teamwork und intensive Collaboration fördern. Dazu gehört das Schaffen zeitlicher Freiräume für Lernen und Weiterbildung im Rahmen der Arbeitszeit. Auch die Bereitstellung von Lernkursen für den mobilen Zugriff zum Beispiel von zu Hause aus kann dabei unterstützen, Arbeit und Lernen besser unter einen Hut zu bekommen.

Wettbewerbsvorteil „Motivierte Mitarbeiter“

Unternehmen jeder Größenordnung bietet sich eine Fülle von Möglichkeiten, ein motivierendes Arbeitsumfeld zu kreieren, in dem sich ihre Mitarbeiter wohl fühlen sowie persönliche Karriereperspektiven und Weiterbildungsbedürfnisse gefördert werden. Und sie sind gut beraten, entsprechende Maßnahmen im Rahmen eines ganzheitlichen Personalentwicklungsansatzes voranzubringen. Denn bedingt durch den demografischen Fachkräftemangel können gesunde, motivierte und loyale Mitarbeiter zu einem bedeutenden Wettbewerbsfaktor werden.
&nsbp;

Über den Autor:

Liam Butler ist Vice President Corporate Sales, EMEA, bei SumTotal Systems, einem Tochterunternehmen der Skillsoft-Gruppe und Anbieter fortschrittlicher Talent Management-Lösungen. Er verfügt über mehr als 15 Jahre Erfahrung in den Bereichen Learning und Talent Management über alle Unternehmensgrößen hinweg. Zu seinen Spezialgebieten gehören Extended Enterprise, Aviation, Manufacturing und andere stark regulierte Geschäftsfelder.

 

Bildquellen / Lizenz: Copyright by Skillsoft

4hundred : Erste Online-Community für den Energiemarkt gestartet

Bei den vielen Energieanbietern, Tarifen und Vertragsmodellen in Deutschland können Verbraucher schnell den Überblick über den Energiemarkt verlieren. Die meisten kennen weder ihre Vertragslaufzeit, ihre Kündigungsfrist oder ihren Energieverbrauch noch sind ihnen Details zu Preiserhöhungen bekannt. 4hundred, der digitale, unabhängige Energieanbieter mit Sitz in Starnberg, möchte für seine Nutzer Licht ins Dunkel bringen und gemeinsam mit ihnen den Energiemarkt revolutionieren. Am 19. Februar 2018 ist die 4hundred-Community an den Start gegangen.

Das Besondere: Die Community ist viel mehr als eine Plattform, auf der sich Mitglieder rund um das Thema Energie informieren und austauschen können. Die Nutzer können ihre eigenen Ideen und Erfahrungen einbringen und dadurch Entscheidungen von 4hundred mit beeinflussen. Somit fungiert die Community nicht nur als Ratgeber; durch die Anregungen der Mitglieder möchte das Greentech-Unternehmen sein eigenes Angebot stetig verbessern und auf die Bedürfnisse der Kunden zuschneiden. “Wir sehen in unseren Kunden weit mehr als Konsumenten. Sie informieren sich über Angebote, vergleichen Leistungen, sind kritisch und kennen den Markt. Ihre Expertise und Erfahrungen sind für uns von großem Nutzen, um unsere Produkte nah am Kunden zu entwickeln und damit Energieversorgung in Deutschland für alle einfacher und ehrlicher zu machen”, so Andrew Mack, Gründer und Geschäftsführer von 4hundred.

Ziel ist es, mit 4hundred das kundenfreundlichste Energieunternehmen des Landes aufzubauen, dessen Herzstück die Community ist, und so den Energiemarkt in Deutschland nachhaltig und im Sinne des Kunden zu verändern. Offenheit und Transparenz stehen dabei ganz oben. In der Community erhalten die Nutzer Einblicke in die internen Prozesse des Energieanbieters und können selbst entscheiden, wie tief sie darin eintauchen und inwiefern sie 4hundred und den deutschen Energiemarkt mitgestalten möchten.

Seit 2017 bietet 4hundred seinen Kunden deutschlandweit ein konstant faires, Angebot  – ohne teuren Lockbonus, Vertragsbindung und Mindestlaufzeit. Ein besseres Produkt mit besserem Service für alle, lautet die Philosophie der Starnberger. Auch Sparen funktioniert bei 4hundred anders: Verbraucht ein Kunde weniger Energie als gedacht, erhält er eine Zinsbelohnung, die einem effektiven Jahreszins von vier Prozent auf das positive Guthaben entspricht. Nach diesem Prinzip wurde auch das Unternehmen benannt: 4hundred.