Erfolgsfaktoren für Smart Cities

Frau Prof. h.c. Dr. Chirine Etezadzadeh, Vorstandsvorsitzende des Bundesverbandes Smart City e.V und Institutsleitung des SmartCity.institute erläutert im Gespräch mit der TREND-REPORT-Redaktion, die Erfolgsfaktoren für Smart Cities, und wie eine wünschenswerte urbane Transformation gelingen kann.

 

Frau Prof. Etezadzadeh, die Rolle der Städte in Bezug auf die Emissionsgesetzgebung wächst. Welche Herausforderungen müssen Großstädte und Ballungsgebiete in Zukunft meistern?

Es ist eine Errungenschaft des letzten Jahrhunderts, dass wir einen mobilen Lebensstil pflegen. Gepaart mit westlich geprägten Konsummustern führt das insbesondere im urbanen Raum zu den Emissionswerten, die uns aktuell zu schaffen machen. Städte sind nun aufgefordert, nicht nur lokal Emissionen zu reduzieren, sondern die Stadt hinsichtlich ihrer Emissionen ganzheitlich sauberer zu machen. Das dabei entstehende Spannungsfeld zwischen der Aufrechterhaltung der Lebensqualität und dem erforderlich werdenden Verzicht stellt eine zentrale Herausforderung dar. Lösungsansätze werden aus dem Bereich der Digitalisierung kommen.

Welche neuen Produkte und/oder IT-Lösungen müssen für Smart Cities entwickelt werden?

Die Digitalisierung wird in alle Lebensbereiche Einzug halten, was den gesamten urbanen Kontext determinieren wird. Smart Cities werden insbesondere ihre urbanen Infrastrukturen modernisieren müssen. Hierbei wird es vor allem darum gehen, resiliente Systeme zu schaffen. Durch die Digitalisierung realisieren wir zwar viele positive Effekte, wie eine Steigerung der Effizienz und Nachhaltigkeit, die Systeme sollten aber gleichzeitig so gestaltet werden, dass sie potenziellen Bedrohungen standhalten können und entsprechende, auch mechanische Redundanzen aufweisen, um uns nicht vulnerabler zu machen als nötig.

Welche Priorität nehmen in Zukunft für Großstädte IoT-/Cloud-Plattformen ein?

IT-Plattformen können sich unabhängig von der Größe einer Stadt zu einer Art kommunales Gehirn entwickeln. Zumindest die Infrastrukturen können über solche Plattformen in einer Weise zusammengeführt werden, die dazu beiträgt, die Funktionsfähigkeit der Stadt aufrechtzuerhalten. Je größer die Städte werden, desto komplexer wird die Aufgabe ihrer Steuerung. Die Digitalisierung und die Vernetzung der Infrastrukturen werden uns dazu befähigen, diese Aufgaben zu bewältigen. Darüber hinaus ist es vorstellbar, dass viele weitere Prozesse über solche Cloud-Lösungen abgebildet werden, wodurch neue Geschäftsmodelle entstehen werden, die die Stadt auch wirtschaftlich am Laufen halten.

Was bedeutet in diesem Kontext „Intelligente Mobilität“ für Smart Cities?

Im Mobilitätssektor werden sich nicht nur die Antriebsverfahren, sondern auch die Nutzungsweise der Verkehrsträger sowie das Mobilitätsverhalten insgesamt verändern. Dies erfordert u.a. Innovationen im Bereich des motorisierten Individualverkehrs, des öffentlichen Verkehrs sowie in der urbanen Logistik. Hierzu haben wir im SmartCity.institute eine umfassende Studie erstellt, die diese Veränderungen analysiert und herausarbeitet, welche Handlungsbedarfe daraus resultieren. Meines Erachtens wird der Durchbruch hinsichtlich der Aufrechterhaltung der Mobilität im urbanen Raum durch autonome Fahrzeuge erreicht werden. Die zuvor angesprochenen Plattformen werden die hierfür erforderlichen Grundlagen schaffen.

Welche neuen Geschäftsmodelle wären denkbar?

Aus dem Zusammenspiel innovativer Mobilitätsformen und deren digitaler Vernetzung resultieren zahllose Möglichkeiten, Geschäftsmodelle zu etablieren. Einfachste Beispiele sind Apps, die Mobilitätsmärkte schaffen, indem sie Anbieter und Nachfrager miteinander vernetzen, wie beispielsweise Ridesharing-Dienste, Carsharing-Dienste oder Travelservices. Komplexer wird es, wenn verschiedene Verkehrsträger und Dienste derart miteinander vernetzt werden sollen, dass verkehrsträgerübergreifend nahtlose Reiseerfahrungen entstehen. Wie auch immer; die Wertschöpfungspotenziale sind mannigfaltig. Einige Geschäftsmodelle, die auf der Hand liegen, werden aber bereits durch das Aufkommen der Blockchaintechnologie bedroht. Also Augen auf bei der Gründung …

Resilienz in Smart Cities ist nicht nur eine notwendige Bedingung für Nachhaltigkeit, welches Potenzial birgt dieses Arbeitsgebiet, für deutsche Lösungsanbieter?

Deutschland hat nach wie vor in zahlreichen Branchen die Technologieführerschaft inne. Leider gilt das bislang nicht für den Bereich der Digitalisierung. Wenn wir uns aber des Themas jetzt konzentriert annehmen und Produkte schaffen, die nicht nur nachhaltig sind, sondern auch deutschen Anforderungen hinsichtlich des Datenschutzes, der Informationssicherheit, der Datenintegrität und Resilienz gerecht werden, ist die Zukunft unserer Unternehmen gesichert. Ingenieure werden deutsche Lösungen schaffen können, die ihresgleichen suchen. Allerdings müssen wir dafür Sorge tragen, dass die Ausbildung nachwachsender Generationen eine entsprechende Ausrichtung erfährt.

Hat oder braucht Deutschland einen Masterplan für die Stadt der Zukunft?

Den haben wir nicht, nein. Einen generellen Masterplan, den wir allen Städten überstülpen, wird es hoffentlich auch nie geben. Jede Stadt ist individuell zu betrachten und zu gestalten, denn jede Stadt hat andere Voraussetzungen, Probleme und Möglichkeiten. Dennoch gibt es Gemeinsamkeiten: Gemeinsame Herausforderungen, die wir kollektiv angehen können und für die wir erprobte, sichere, beständige, dezentrale und in beide Richtungen skalierbare Lösungen schaffen können. Lösungen, die Interoperabilität ermöglichen und unerwünschten Machtkonzentrationen vorbeugen.

Um solche Aktivitäten zu stützen, sollte das Thema Smart City weiter an politischer Relevanz gewinnen. Wir alle sind aufgefordert, unsere Zukunft gemeinsam zu gestalten, und sollten dies nicht einigen wenigen überlassen. Um bezüglich der Dinge, die in diesem Zusammenhang passieren, Transparenz zu schaffen und aufzuklären, haben wir die Internet-Plattform SmartCityNews.global ins Leben gerufen. Hier kann sich jeder kostenlos darüber informieren, was weltweit im urbanen Raum geschieht, von eigenen Projekten und Erfahrungen berichten, sich einbringen und mitgestalten. Es wäre schön, wenn die Politik den Mehrwert eines solchen Tools erkennen würde.

Was bedeutet für Sie der Begriff Smart City und gibt es dafür ein einheitliches Verständnis?

Eine allgemeingültige Definition hat sich bislang noch nicht durchgesetzt. Für mich ist eine Smart City eine Stadt, die nicht nur auf ihren Selbsterhalt, sondern auch auf den Erhalt ihrer natürlichen Umwelt ausgerichtet ist. Sie stellt die Lebensqualität aller Bewohner, den Erhalt des Klimas und der lebendigen Umwelt in den Mittelpunkt der Stadtentwicklung.

Eine Smart City strebt nach der Festigung ihrer eigenen Identität, nach lebendiger Vielfalt, sozialer Kohäsion und umfassender Resilienz. Sie hat eine integrierte Stadtverwaltung, die effektiv und nach den Kriterien der Urban Governance arbeitet. Sie verfügt über geeignete Infrastrukturen und nutzt interoperable Techniken, die Vernetzung von Systemen sowie die Digitalisierung, um ihre Ziele zu erreichen, ohne sich technischen Innovationen jemals auszuliefern. So in etwa definieren wir eine Smart City

Was raten Sie Verantwortlichen für Stadtplanung und Bürgermeistern?

Beginnen Sie dort, wo die Probleme liegen, und schaffen Sie kundenzentrierte Lösungen, die einen erlebbaren Mehrwert bieten.

Welche Ziele verfolgt der Bundesverband Smart City e. V.?

Der Bundesverband versucht, genau solche Lösungen zu identifizieren und zu promoten, und soll zur Plattform der Smart-City-Experten in Deutschland entwickelt werden. Wir wollen die öffentliche Diskussion zum Thema Stadtentwicklung fördern und begleiten und der deutsche Ansprechpartner sein, wenn es darum geht, Know-how-Träger im facettenreichen Themenfeld Smart City zu finden. Daher laden wir alle Smart-City-Experten und Interessierten herzlich dazu ein, Mitglied zu werden und sich aktiv in den Verband einzubringen. Im Rahmen der Blisscity – der ersten deutschen Smart City Convention, werden wir den Verband für den schweizerischen und österreichischen Markt öffnen

Welche Inhalte werden auf der Konferenz „Blisscity“ vermittelt?

Die Blisscity wird die zentrale Smart-City-Veranstaltung Deutschlands. Als erste Konferenz wird sie die Teilnehmer durch zehn zentrale Infrastruktursektoren führen und aufzeigen, wo Deutschland und der deutschsprachige Raum im Bereich der smarten Stadtentwicklung heute stehen. Führende Unternehmen und Verbände werden die Sektoren vorstellen und erläutern. Die Stadtverbände aus Deutschland, Österreich und der Schweiz, werden die kommunale Sicht auf die Dinge darlegen und Städte, die als Smart-City-Pioniere in Erscheinung treten, werden ihre Erfahrungen teilen. Das SmartCity.institute und die Messe Frankfurt sorgen dafür, dass es nicht nur eine inhaltlich wertvolle, sondern auch eine sehr schöne Veranstaltung wird. Wir hoffen, auch aufgrund unserer Preisgestaltung, auf eine rege Beteiligung vonseiten der Kommunen, politischer Entscheidungsträger, der Industrie sowie von allen anderen urbanen Akteursgruppen.


Vielen Dank für das Gespräch!

 

„Blisscity“ – The Smart City Convention

SmartCity.institute

SmartCityNews.global

 

 

 

Prof. h.c. Dr. Chirine Etezadzadeh

Prof. h.c. Dr. Chirine Etezadzadeh (Volkswirtin) leitet das SmartCity.institute, SmartCityNews.global (the global smart city knowledge base) und ist Vorstandsvorsitzende des Bundesverbandes Smart City (BVSC) e.V. Während ihres Werdegangs arbeitete sie für einen deutschen Premium-Automobilhersteller, einen führenden amerikanischen Automobil-Zulieferer sowie als Unternehmensberaterin in der Energiewirtschaft. Seit dem Sommersemester 2014 hält Prof. Etezadzadeh Vorlesungen zum Thema „Produktentwicklung für Smart Cities“ and der Technischen Hochschule Köln. 2017 wurde Sie Honorary Professor der Beijing Information Science & Technology University (BISTU). Ihr Buch „Smart City – Stadt der Zukunft?“ ist im Herbst 2015 in deutscher und englischer Sprache im Springer Verlag erschienen.

 

 

 

Aufmacherbild / Quelle / Lizenz

Pixabay / CC0 Creative Commons

Innovationsindikator

Innovationsindikator 2017

Innovationen sind der Schlüssel für Wettbewerbsfähigkeit und Wachstum.

 

Deutschland gehört zu den innovationsstärksten Ländern der Welt und steht auf den ersten Blick gut da. Wirklich abheben können wir uns im internationalen Wettbewerb aber nicht.
Gleichwohl vorgerückt auf Platz vier, weist Deutschland in allen fünf Teilbereichen gute, jedoch nirgends Spitzenwerte auf.

Deutliche Ergebnisse im Innovationsindikator 2017, der im Auftrag von acatech und dem Bundesverband der Deutschen Industrie (BDI) die Innovationsstärke von 35 Volkswirtschaften hinsichtlich ihrer Fähigkeiten, Innovationen hervorzubringen und zu nutzen untersucht. Er berücksichtigt dabei sowohl Investitionen in das Innovationssystem (Input) als auch Ergebnisse innovationsorientierter Aktivitäten (Output).

Die Bundesrepublik liegt demnach deutlich hinter Spitzenreiter Schweiz, Singapur und Belgien und kann sich auch nicht von den USA, Großbritannien und Südkorea abheben. Am besten schneidet Deutschland im Bereich Wirtschaft mit Rang sieben ab, am schlechtesten im Bereich Gesellschaft mit Platz 13.

Quelle: http://www.innovationsindikator.de/2017/home/#!/deutschland-ohne-echte-spitzenwerte-vierter

Ganze Grafik

Die gute Platzierung Deutschlands im Innovationsindikator ist letztlich darauf zurückzuführen, dass es in keinem Teilsystem schlecht abschneidet.

Dies war keineswegs immer so. Noch Mitte der 2000er-Jahre lag Deutschland in den Teilbereichen Bildung und Staat in der unteren Hälfte des Länderrankings mit großem Abstand zur jeweiligen Spitzengruppe. Die Anstrengungen in der Bildung nach dem PISA-Schock sowie die Neuausrichtung der Forschungs- und Innovationspolitik mit der Hightech-Strategie haben merkliche Verbesserungen gebracht. Sie haben dazu beigetragen, dass Deutschland seit 2010 nie schlechter als auf Rang sechs platziert war.

 

Erstmals mit Digitalisierungs-Indikator

Im Fokus des diesjährigen Innovationsindikators steht die digitale Transformation.

Im erstmals erhobenen Digitalisierungs-Indikator liegt Deutschland jedoch deutlich hinter anderen Industrienationen auf Rang 17. Besonders groß ist der Abstand zu Großbritannien und den USA. Handlungsbedarf für Deutschland besteht dabei insbesondere für die Bereiche Forschung und Technologie, Bildung, Infrastruktur sowie Staat.

Um die Chancen und Innovationsmöglichkeiten der Digitalisierung nutzen zu können, müssen diese von den Akteuren der deutschen Wirtschaft, Politik und Gesellschaft aktiv gestaltet werden. Aus- und Weiterbildung, IT-Sicherheit und neue Geschäftsmodelle sind hierbei zentrale Herausforderungen. Gerade kleine und mittlere Unternehmen haben in diesem Kontext noch Nachholbedarf.

Direkteinstieg: Kapitel Digitale Transformation

 

Über den Innovationsindikator

Der Innovationsindikator ist eine regelmäßige vergleichende Studie zur Innovationsstärke und im Jahr 2000 zum ersten Mal erschienen. Er erfasst die Innovationsbedingungen am Wirtschaftsstandort Deutschland und vergleicht sie in einem Ranking in den Bereichen Wirtschaft, Wissenschaft, Bildung, Staat und Gesellschaft sowie in einem Gesamtindikator mit den weltweit führenden Industrieländern und aufstrebenden Staaten.

Auf diese Weise entsteht eine Grundlage für innovationspolitische Entscheidungen. Der Innovationsindikator ist eine Kooperation von acatech – Deutsche Akademie der Technikwissenschaften und dem BDI. Die Studie wird vom Fraunhofer Institut für System- und Innovationsforschung (ISI) in Zusammenarbeit mit dem Zentrum für Europäische Wirtschaftsforschung (ZEW) erstellt.

 

Grundprinzipien des Innovationsindikators sind:
  1. Modellgestützter Ansatz bei der Indikatorenauswahl: Jeder einzelne der 38 Indikatoren wurde auf Basis seines statistisch überprüften Erklärungswerts für die nationalen Innovationsleistungen ausgewählt. Auf diese Weise wird sowohl eine Übersichtlichkeit als auch die Relevanz der Ergebnisse sichergestellt.
  2. Unterteilung der Indikatoren nach Input/Ouput und Subsystemen (Wirtschaft, Bildung, Wissenschaft, Staat, Gesellschaft): Dies ermöglicht detaillierte Analysen der Stärken und Schwächen einzelner Länder und somit zielgerichtete Handlungsempfehlungen.

    Bildquelle: http://www.innovationsindikator.de/2017/home/#!/ueber-den-innovationsindikator

  3. Einbeziehung harter und weicher Indikatoren: Innovationstätigkeiten hängen sowohl von direkt messbaren Faktoren wie zum Beispiel den zur Verfügung stehenden finanziellen und personellen Ressourcen ab als auch von eher weichen, nicht unmittelbar messbaren Faktoren wie etwa gesellschaftlichen Einstellungen. Der Innovationsindikator sammel auch relevante Daten dieser weichen Faktoren, um Innovationssysteme in ihrer Gesamtheit abzubilden. Das unterscheidet ihn von vielen ähnlich gelagerten Indikatorensystemen.
  4. Hohe Aktualität der Ergebnisse durch Verwendung von Prognose und Hochrechnungsverfahren (Nowcasting) für die Einzelindikatoren: Alle Indikatoren beziehen sich auf 2015.

 

 

 

Die Publikation können Sie hier downloaden :
Innovationsindikator

 

Ausführliche Informationen finden Sie unter:
http://www.innovationsindikator.de

 

Weiterführende Informationen

Bundesverband der Deutschen Industrie e.V.

acatech – Deutsche Akademie der Technikwissenschaften

Smart Services

Smart Services

 

Smart Services bezeichnen eine Kombination physischer und digitaler Mehrwertdienstleistungen, die auf Smart Products aufsetzen.[1] Wesentlich geprägt, jedoch nicht abschließend definiert, wurde der Begriff durch den Arbeitskreis Smart Service Welt.[2]

Smart Services sind unternehmensübergreifende und branchenkonvergente Dienstleistungsmodelle, die sich durch ihre Nutzerzentriertheit auszeichnen.

Grundlage von Smart Services stellen große Mengen aggregierter Daten dar, die durch intelligente Produkte (Smart Products) bereitgestellt werden[3]. Sofern die allgemeinen Bandbreiten- und Latenzzeiten-Voraussetzungen erfüllt sind, sind datenbasierte Dienstleistungen extrem agil und können in Echtzeit erbracht werden.

Die zur Erbringung der Smart Services verwendeten technischen Infrastrukturen sind in der Regel sogenannte Cyber-Physische Systeme (CPS)[4]. Gehandelt werden Smart Services auf Serviceplattformen, wie Online-Marktplätzen und App-Stores, auf denen sich Anbieter zu digitalen Ökosystemen vernetzen.[5]

Bezeichnung

Die wissenschaftliche Basis für Smart Services stellt das Zukunftsprojekt „Smart Service Welt – Umsetzungsempfehlungen für das Zukunftsprojekt Internetbasierte Dienstleistungen für die Wirtschaft“ dar. Die Zielsetzung des durch das Bundesministerium für Bildung und Forschung initiierten Projekts schließt sich der Vision des Zukunftsprojekts Industrie 4.0 an.

Smart Services bilden die oberste Ebene digitaler Infrastrukturen, die durch ein Schichtenmodell beschrieben werden können. Ausgangspunkt hierfür ist eine technische Infrastruktur in Form von Smart Spaces als digitale Umgebung, in der sich die sogenannten Smart Products vernetzen können.

Smart Products

Bei Smart Products handelt es sich um intelligente und über das Internet vernetzte Geräte, die mit Sensorik ausgestattet sind und durch Software gesteuert werden. Beispiele hierfür sind sowohl Produktionsmaschinen, als auch Endverbraucherprodukte mit gleichen Eigenschaften, wie etwa Smartphones, Smart Watches, Fernseher, Küchengeräte oder Autos.
Eine zentrale Eigenschaft dieser Produkte ist die Fähigkeit, Daten zu generieren, zu sammeln und zu einer vernetzten physischen Plattform zu übertragen.

Smart Data

Die im Verlauf der Sammel- und Austauschprozesse entstehenden Daten werden als Big Data bezeichnet. Durch software-definierte Analyse, Interpretation und Verknüpfung werden diese Daten zu „Smart Data“ aufbereitet.

Aus diesen veredelten Daten können Smart-Service-Anbieter spezielle Informationen ableiten. Smart Data bildet so die Grundlage für die Entwicklung von Smart Services, die durch neue, innovative Geschäftsmodelle auf der Serviceplattform monetisiert werden können. Die Serviceplattform ist als betriebswirtschaftliche Integrationsschicht zu verstehen, auf der sich Anbieter in digitalen Ökosystemen vernetzen, Kollaborationen und Handel stattfinden und Wertschöpfung organisiert wird.[5][2]

Design architecture of cyber-physical systems-enabled manufacturing system, Behrad3d – IMSCenter.net, CC BY 3.0

Bedeutung

Die heutige Wirtschaft wird immer stärker durch die Digitalisierung sämtlicher Produkte und Prozesse geprägt. Die Verbreitung neuer anschlussfähiger und mit dem Internet verbundener Produkte resultiert in der Entstehung großer Datenmengen. Auf Grundlage dieser Daten werden branchenübergreifend zunehmend internetbasierte Dienstleistungen entwickelt und eingeführt,[6] wodurch die Verbreitung digitaler Wertschöpfungsaktivitäten an Dynamik gewinnt.[7]

Die Digitalisierung mit den Phänomenen Industrie 4.0 und Smart Services wird daher für deutsche Leitbranchen sowohl als Chance als auch als Bedrohung gesehen. Potentiale bestehen insbesondere in der Kostenersparnis durch Technologieeinsatz, der Informationsgewinnung durch umfangreiche Datenanalysen sowie einer deutlichen Aufwandsreduktion als Folge standardisierter Serviceprozesse.

Gleichzeitig wirken sich digitale Plattformen branchenübergreifend disruptiv auf etablierte Geschäftsmodelle aus.[8]

Ein gut beobachtbares Beispiel bietet die Musikindustrie: Etablierte Unternehmen sahen sich gezwungen, ihre Geschäftsmodelle anzupassen, oder sind sogar gänzlich vom Markt verschwunden. Nach dem Aufkommen der mp3, Ende der 1990er Jahre, erlebte die Musikbranche bereits den zweiten tiefgreifenden Umbruch innerhalb von 15 Jahren.

Digitale Ökosystemen

Digitale Plattformen wie spotify, die jedes beliebige Musikstück kostenfrei überall zugänglich machen, haben die CD als klassischen Tonträger weitestgehend abgelöst. In Deutschland stehen 6 Milliarden Streams von Plattformen im Jahr 2013 gegenüber 1,8 Millionen verkaufter Single-CDs.[9][5]

Weitere Beispiele, bei denen neue digitale Plattformen die bestehenden Wertschöpfungsstrukturen und Geschäftsmodelle revolutioniert haben, sind die Film- und Fernsehindustrie wie z. B. Netflix oder dem Einzelhandel mit Amazon oder Zalando.[10]

 

 

Zur langfristigen Sicherung der Wettbewerbsfähigkeit werden der Aufbau und die Gestaltung von Smart Services somit für Unternehmen relevanter.[8] Unternehmen können auf verschiedene Weise an „Digitalen Ökosystemen“ partizipieren. Kompetenzabhängig lassen sich die Rollen dabei in Data-Collector, Data-Broker, Value-Generator und Value-Integrator gliedern.[2]

Siehe auch
Literatur
  • Christian Fabry: Smart Services – Potenziale und Herausforderungen internetbasierter Dienste für die Wirtschaft. Doktorvortrag, FIR e. V. an der RWTH Aachen, 22. August 2014 (verfügbar in FIR-Bibliothek).
  • Marco Husmann, Christian Fabry, Gerhard Gudergan: Smart Services – Neue Chance für Services ‚Made in Europe‘. Fakten und Trends im Service. KVD-Service-Studie 2014. Hrsg.: Günther Schuh; Gerhard Gudergan; Marcus Schröder; Volker Stich. FIR an der RWTH Aachen 2014.
  • Henning Kagermann, Frank Riemensperger (Hrsg.): Smart Service Welt. Umsetzungsempfehlungen für das Zukunftsprojekt ‚Internetbasierte Dienste für die Wirtschaft‘. Berlin, März 2014. http://www.acatech.de/fileadmin/user_upload/Baumstruktur_nach_Website/Acatech/root/de/Projekte/Laufende_Projekte/Smart_Service_Welt/Smart_Service_Welt_2015/BerichtSmartService2015_D_lang_bf.pdf (letzter Zugriff: 15. April 2016)
  • Ralf Kreutzer, Karl-Heinz Land: Digitaler Darwinismus. Der stille Angriff auf Ihr Geschäftsmodell und Ihre Marke. Springer Gabler, Wiesbaden 2013.
  • Günther Schuh, Christian Fabry: Digitalisierung von Dienstleistungen – Potenziale und Herausforderungen. In: Dienstleistung in der digitalen Gesellschaft. Beiträge zur Dienstleistungstagung des BMBF im Wissenschaftsjahr 2014. Hrsg.: A. Boes. Campus, Frankfurt/Main 2014, S. 50–59.
  • Günther Schuh: Smart Services Neue Geschäftsmodelle für den Mittelstand. Vortrag beim 18. Aachener Dienstleistungsforum im Cluster Logistik auf dem RWTH Aachen Campus, 25. – 26. März 2015 (verfügbar in FIR-Bibliothek).
  • Volker Stich: „Digitalisierung des Services. Massive Veränderungen im beruflichen Umfeld.“ [Leitartikel von Volker Stich, Geschäftsführer des FIR e. V. an der RWTH Aachen, zum Thema ‚Service goes digital – Prozesse ändern sich‘] Service Today 29(2014)1, S. 9f.
Dokumente

Einzelnachweise

 

  • Christian Fabry: Smart Services – Potenziale und Herausforderungen internetbasierter Dienste für die Wirtschaft. Doktorvortrag, FIR e. V. an der RWTH Aachen, 22. August 2014 (verfügbar in FIR-Bibliothek).
  • Günther Schuh: Smart Services Neue Geschäftsmodelle für den Mittelstand. Vortrag beim 18. Aachener Dienstleistungsforum im Cluster Logistik auf dem RWTH Aachen Campus, 25. – 26. März 2015 (verfügbar in FIR-Bibliothek)
  • Glen Allmendinger, Ralph Lombreglia: Four strategies for the age of smart services. In: Harvard Business Review. Band 83, Nr. 10, 1. Oktober 2005, ISSN 0017-8012, S. 131–134, 136, 138 passim, PMID 16250631.
  • Smart Service — Enzyklopaedie der Wirtschaftsinformatik. In: www.enzyklopaedie-der-wirtschaftsinformatik.de. Abgerufen am 12. Januar 2017.
  • Henning Kagermann, Frank Riemensperger (Hrsg.): Smart Service Welt. Umsetzungsempfehlungen für das Zukunftsprojekt ‚Internetbasierte Dienste für die Wirtschaft‘. Berlin, März 2015. Acatech Abschlussbericht (PDF; 6,78 MB), letzter Zugriff: 15. April 2016
  • Günther Schuh, Christian Fabry: Digitalisierung von Dienstleistungen – Potenziale und Herausforderungen. In: Dienstleistung in der digitalen Gesellschaft. Beiträge zur Dienstleistungstagung des BMBF im Wissenschaftsjahr 2014. Hrsg.: A. Boes. Campus, Frankfurt/Main 2014, S. 50–59
  • Volker Stich: „Digitalisierung des Services. Massive Veränderungen im beruflichen Umfeld.“ [Leitartikel von Volker Stich, Geschäftsführer des FIR e. V. an der RWTH Aachen, zum Thema ‚Service goes digital – Prozesse ändern sich‘] Service Today 29(2014)1, S. 9f
  • Marco Husmann, Christian Fabry, Gerhard Gudergan: Smart Services – Neue Chance für Services ′Made in Europe′ . Fakten und Trends im Service. KVD-Service-Studie 2014. Hrsg.: Günther Schuh; Gerhard Gudergan; Marcus Schröder; Volker Stich. FIR an der RWTH Aachen 2014
  • Bundesverband der Musikindustrie: Jahrbuch Absatz 2013
  • Ralf Kreutzer, Karl-Heinz Land: Digitaler Darwinismus. Der stille Angriff auf Ihr Geschäftsmodell und Ihre Marke. Springer Gabler, Wiesbaden 2013

Quelle:
Wikipedia / Smart Services / CC-BY-SA (Creative Commons Namensnennung-Weitergabe unter gleichen Bedingungen 3.0 Unported)

 

Die Zukunft des Energiesparens

Gastbeitrag

Smart Metering: Die Zukunft des Energiesparens

Strom ist allgegenwärtig, immer verfügbar und damit selbstverständlich.
Wer Licht einschaltet, einen Geschirrspüler anstellt oder einen Fernseher laufen lässt, verbraucht kein knappes Gut. Im Gegenteil, wer weiß schon um den Wert und die genauen Kosten von Strom? Was kostet es, wenn eine Waschmaschine nur halbvoll, aber dafür öfter läuft? Wenn ein Licht den ganzen Tag brennt? Die Kühlschranktür nicht mehr richtig schließt? Oder Standby-Geräte über die Feiertage nicht ausgestöpselt werden? Kein Verbraucher weiß genau, wie viel Strom er damit verbraucht und wie teuer das letztendlich ist.

Könnte der einzelne Verbraucher aber genau sehen, welche Geräte im Haushalt wann wie viel Energie verbrauchen, könnten Stromfresser identifiziert, der eigene Energieverbrauch besser gesteuert und damit Geld gespart werden.

Das klingt simpel – ist es auch: Möglich machen es intelligente Stromzähler, sogenannte „Smart Meter“, die im Gegensatz zu digitalen Stromzählern den Stromverbrauch nicht nur erfassen, sondern auch senden und auswerten können.

Fresh Energy ist der erste voll digitale Stromanbieter Deutschlands und liefert hierfür eine besonders smarte Lösung: Das GreenTech bietet seinen Kunden nicht nur 100%-Ökostrom, einen kostenlosen Smart Meter, sondern auch eine intelligente App zur Live-Visualisierung des eigenen Stromverbrauchs. Denn nur, wenn die Daten verbrauchergerecht aufbereitet werden, können sie vom Kunden auch genutzt werden – etwa zur Optimierung des eigenen
Verbrauchs.

 

Was genau ist ein Smart Meter?

Ein Smart Meter ist ein intelligentes Messsystem, das aus einem digitalen Stromzähler und einem sogenannten Gateway, einem Kommunikationsmodul, besteht. Ein Smart Meter ermittelt und protokolliert den Energieverbrauch im Zeitverlauf. Über das Gateway werden die gesammelten Informationen über den
Stromkonsum verschlüsselt an den Netzbetreiber zur Abrechnung übermittelt.
Über das Gateway kann das System auch Signale empfangen: Auf diese Weise könnten in Zukunft zum Beispiel Verbraucher ihre elektrischen Geräte in einem Smart Home automatisch an- oder ausschalten.
 
 
 

Sparen durch Echtzeitkontrolle des Stromverbrauchs

Doch mit einem Smart Meter allein lässt sich noch keine Energie sparen. Erst die Visualisierung des Stromverbrauchs in Echtzeit hilft, Sparpotenziale zu nutzen.

Das Unternehmen bietet seinen Kunden dies sogar auf Haushaltsgerätelevel:
Dank dem Einsatz spezieller Software mit selbstlernenden Algorithmen, die die Stromverbrauchskurven genauestens auswerten, kann der Stromkunde mittels der App den Stromverbrauch sogar einzelner Geräte überwachen.

Ein weiteres Plus: Die Abrechnung erfolgt hierbei monatlich nach tatsächlichem Verbrauch.
Zu hoch angesetzte Abschläge, die die Haushaltskasse monatlich unnötig belasten oder ärgerliche Nachzahlungen bei der Jahresabrechnung gibt es nicht mehr. Und: Wer Strom spart, zahlt weniger. Das ist eine neue Dimension der Stromabrechnung.
 

Das Shunt-Messverfahren gewährleistet Top-Messergebnisse

Im Unterschied zu vielen anderen digitalen Stromzählern, die in der Vergangenheit in die Kritik geraten sind, erfassen die von Fresh Energy eingesetzten Smart Meter die Daten mithilfe des sogenannten Shunt-Messverfahrens.
Das Ergebnis sind exzellente Messungen, die allen Prüfungen standhalten. Selbst kompliziertere Verbrauchssituationen wie z. B. das Einschalten einer LED-Leuchte mit wenigen Watt kann hier erfasst bzw. nachvollzogen werden.

Der Stromverbrauch wird mit sehr hoher Frequenz abgetastet, sodass von Gleichströmen bis zu hohen Frequenzen korrekte Messergebnisse geliefert werden. Die verwendeten Messchips und die Messtechnik lassen behaupten, dass Fresh Energy einen der besten Smart Meter verwendet, der in der Tat Echtzeitwerte überträgt.
 

Smart Meter und Datensicherheit

Ein weiteres zentrales und oft kontrovers diskutiertes Thema bei den Smart-Meter-Technologien sind Datensicherheit und -schutz. Um höchste Datensicherheit zu gewährleisten, arbeitet Fresh Energy mit der FIRMA ISiCO, einem der erfahrensten Datenschutzexperten zusammen.

Die gesammelten Daten werden immer mit höchsten Sicherheits- und Datenschutzvorkehrungen auf einem Server in Deutschland gespeichert und für den eingeloggten User auf dem Smartphone via einer App oder einer mobilen Webseite angezeigt.

Auch gegen Hackerangriffe ist der Fresh Energy-Smart Meter optimal geschützt: Der Stromanbieter lässt seine Sicherheit regelmäßig und sogar von so genannten White-Hat-Hackern überprüfen. Außerdem verfügt der als Standard eingesetzte SLP-Stromzähler über eine unidirektionale D0-MSB-Schnittstelle, sodass eine Fernsteuerung des Zählers nicht möglich ist. Somit ist dieser Zählertyp nicht manipulierbar und es können über ihn auch keine gewollten oder ungewollten Schalthandlungen durchgeführt werden.
 

Der Smart Meter-Rollout 2017-2032

Aktuell können Kunden in Deutschland, je nach Stromkonsum, noch selber entscheiden, ob sie Smart Meter in ihrem Haushalt einsetzen möchten. Der mit dem Gesetz zur Digitalisierung der Energiewende beschlossene Smart Meter-Rollout in Deutschland legt stufenweise die Umstellung auf sogenannte moderne Messeinrichtungen (MME) und intelligente Messsysteme (IME) – also Smart Meter – bis 2032 fest.

Bis zum Jahr 2032 sollten alle Privathaushalte erstmals mit einer MME ausgestattet werden. Die MMEs unterscheiden sich von herkömmlichen Stromzählern hauptsächlich nur dadurch, dass die Anzeige des Stromverbrauchs nicht mehr über ein Zählwerk erfolgt, sondern über ein digitales Display. Sie entsprechen nicht den technischen Möglichkeiten und nutzen leider die Potenziale des Smart Meterings in keinster Weise aus.

Ab 2017 betrifft der Einbau von Smart Metern (IME) sowohl Gewerbe- und Industriekunden als auch Haushalte, die jährlich mehr als 10.000 Kilowattstunden Strom verbrauchen oder eine Strom erzeugende Anlage (etwa Photovoltaik) mit mehr als 7 Kilowattstunden Nennleistung haben. Ab dem Jahr 2020 ist dann auch eine Ausweitung des Rollouts von Smart Metern auf Verbraucher mit mehr als 6.000 kWh Jahresverbrauch vorgeschrieben.1

Zum Vergleich: Laut dem Stromspiegel 2017 verbraucht ein Zwei-Personen- Haushalt in Deutschland jährlich im Schnitt 2.300 kWh – selbst ein 5-Personen-Haushalt liegt noch bei 5.000 kWh. Bis also ein durchschnittlicher Haushalt in Deutschland unter die Smart-Meter-Pflicht fällt, werden noch viele Jahre vergehen. 2
 
 

Jetzt schon wechseln lohnt

Hauptargument für die jetzige, freiwillige Umstellung auf intelligente Stromzähler sind Flexibilisierung und Risikominimierung der jährlichen Stromabrechnung für den Verbraucher sowie Souveränität und Steuerungsmöglichkeiten beim Stromkonsum.

 

Vorteile eines Wechsels zu Fresh Energy
1. Echte Mehrwerte, die der per Gesetz einzubauende digitale Stromzähler (MME) nicht liefert (Live-Visualisierung des Stromverbrauchs, Stromfresser identifizieren, monatliche Abrechnung, keine Nachzahlung)
2. Keine Extra-Kosten für den Einbau- und Betrieb des Smart Meters
3. Keine Baumaßnahmen notwendig: Im Normalfall lassen sich Smart Meter problemlos einbauen – der Fresh Energy-Installateur übernimmt diese Aufgabe
4. Einmal eingebaut, müsste der Fresh Energy-Smart Meter nicht mehr ausgetauscht werden.
5. Im Unterschied zu vielen anderen intelligenten Stromzählern, die in der Vergangenheit in die Kritik geraten sind, erfassen die von Fresh Energy eingesetzten Smart Meter die Daten mithilfe des sogenannten Shuntmessverfahrens. Das Ergebnis sind exzellente Messungen, die allen Prüfungen standhalten.

 

Unsere Autoren:

Daniel von Gaertner und Dr. Christian Bogatu (v. l. )

Dr. Christian Bogatu

Dr.-Ing. Bogatu ist Mitgründer und CEO von Fresh Energy.
Von 2011 bis 2017 war er Mitgründer und Geschäftsführer von KIWI, dem schlüssellosen Türzugangssystem. Vor KIWI war er Mitgründer und Geschäftsführer von Kirsen Global Security im Silicon Valley und Berlin, das zu einem der Weltmarktführer für Container-sicherheit aufgestiegen ist als exklusiver Anbieter für DB Schenker. Bogatu ist aktuell im Beirat/Aufsichtsrat von KIWI und Kirsen. Bogatu hat über 5 Jahre Erfahrung als Unternehmensberater bei McKinsey. 2016 wurde er als Mitglied des innogy (vormals RWE) Digital Transformation Board berufen. 2009 wurde er in den Advisory Board des UC Berkeley Business Administration International Diploma Programs berufen. Bogatu hat an der TU Berlin promoviert, wo er zuvor auch sein Studium der Energie- und Verfahrenstechnik absolvierte.

 

Daniel von Gaertner

Daniel von Gaertner ist Mitgründer und COO von Fresh Energy.
Vor der Gründung von Fresh Energy war von Gaertner Teil des kleinen Teams, das den Innogy Innovation Hub konzipiert und entwickelt hat, um neue Geschäftsmodelle für den Versorgungs-sektor zu entwickeln. Zuvor war er in verschiedenen Funktionen im Energiesektor (RWE, dena) und E-Commerce (Otto Group) tätig. Von Gaertner hat einen Master in Strategy & Innovation der Wirtschaftsuniversität Wien und einen Bachelor in Business & Economics der Universität Witten / Herdecke.

 

Über Fresh Energy:
Fresh Energy ist der erste digitale Stromanbieter Deutschlands auf Smart-Meter-Basis.
Das Unternehmen bietet seinen Kunden 100%-Ökostrom, einen kostenlosen Smart Meter und eine intuitive Energy-App. Der Smart Meter misst den gesamten Stromverbrauch und erkennt durch selbstlernende Algorithmen die Verbrauchsmuster einzelner Geräte oder Gerätegruppen. Entsprechend kann der Geräteverbrauch einzeln ausgewiesen und für den Kunden als Live-Visualisierung in der App dargestellt werden. Fresh Energy bietet zudem monatliche Abrechnungen und es gibt garantiert keine Nachzahlungen – die Kunden zahlen monatlich nur das, was sie tatsächlich verbrauchen. So fördert Fresh Energy bewussten Energiekonsum und hilft, Sparpotenziale voll auszuschöpfen. Das GreenTech-Startup wurde im März 2017 von Dr.-Ing. Christian Bogatu (CEO) und Daniel von Gaertner (COO & CPO) in Berlin gegründet und beschäftigt aktuell dreizehn Mitarbeiter. Weitere Informationen unter:

https://www.getfresh.energy

 

 

Kontakt:
markengold PR GmbH
Katarzyna Rezza Vega / Ines Balkow
Münzstraße 18, 10178 Berlin
Tel.: (030)-219159-60, freshenergy@markengold.de

 

 

Quellenangaben:
1 Die genauen Angaben zu dem Smart Meter-Rollout in Deutschland sind zu finden unter:
https://www.bundesnetzagentur.de/DE/Sachgebiete/ElektrizitaetundGas/Verbraucher/NetzanschlussUndMessung/SmartMetering/SmartMeter_node.html
2 Quelle: http://www.die-­‐stromsparinitiative.de/stromspiegel/index.html

Unternehmen auf den Zahn gefühlt

Gastbeitrag von Ralf Geisler, Regional Manager Germany, Austria, Switzerland & Eastern Europe bei EfficientIP

Der folgende Artikel skizziert den Ablauf und die Folgen von DNS-Cyberangriffen und gibt eine Übersicht effektiver Sicherheitsvorkehrungen

Aus Hackersicht sind sensible Datenbestände von Unternehmen attraktive Ziele für Cyberattacken. Um für Netzwerksicherheit zu sorgen, sind daher effektive Vorkehrungen geboten – und bereits realisierbar: Ein hochsicheres Domain Name System (DNS) kann als Schnittstelle zum Unternehmensnetzwerk fehlerhaften und potenziell gefährlichen Datenverkehr erkennen und blockieren. Angreifern wird so der unbefugte Zutritt zum System, der anschließende Datenklau und die Kontrolle über einen Netzwerkrechner oder den gesamten Server wirksam verwehrt. Doch besteht vielerorts noch Nachholbedarf: Der Global DNS Threat Survey 2017 des internationalen Softwareherstellers EfficientIP berichtet, dass 76 Prozent aller Unternehmen und Organisationen in den vergangenen zwölf Monaten Zielscheibe von Attacken auf das DNS waren. Opfer von Datendiebstahl waren immerhin schon 28 Prozent. Die Entwicklung zeigt, dass sich entsprechende Vorfälle häufen und nach wie vor eklatante Mängel aufgedeckt werden. Denn vielerorts ist die Führungsebene betroffener Unternehmen nicht ausreichend über Hackerangriffe, Sicherheitslücken und Datenverluste informiert.

Hier gilt es Aufklärungsarbeit zu leisten und Lösungsoptionen aufzuzeigen. Denn das Management eines Unternehmens kann persönlich für Verluste verantwortlich gemacht werden und sollte daher die Aufgabe wahrnehmen, ein funktionierendes IT-Risiko- und -Sicherheitsmanagement einzurichten. Im Kern gilt es hierbei, potenzielle Gefahrenquellen zu identifizieren und geeignete Gegenmaßnahmen zu ergreifen – bevor etwas passiert. Schließlich kann ein Ausfall der IT zu irreparablen Schäden und Umsatzausfällen führen.

Mit DDI die Netzwerkperformance verbessern

Ralf Geisler, Regional Manager Germany, Austria, Switzerland & Eastern Europe bei EfficientIP schreibt über Schutzmaßnahmen gegen DNS-Angriffe.

Ralf Geisler, Regional Manager Germany, Austria, Switzerland & Eastern Europe bei EfficientIP schreibt über Schutzmaßnahmen gegen DNS-Angriffe.

Unter den existierenden Optionen, hochwertige Sicherheitseinrichtungen im Unternehmen zu verankern, nehmen Lösungen aus dem Bereich DDI (DNS, DHCP und IPAM) eine besondere Rolle ein. Denn DDI ist eine kritische Netzwerktechnologie für jede IT-Organisation, die Verfügbarkeit, Sicherheit und Leistung von Netzwerkdiensten gewährleistet. Ein DNS wird unter anderem für die Auflösung von Hostnamen und IP-Adressen verwendet, die den HTTP-Webverkehr und Netzwerkverkehr fließen lassen, während Netzwerkadministratoren über das Kommunikationsprotokoll DHCP (Dynamic Host Configuration Protocoll) die IP-Adressen im Netzwerk eines Unternehmens zentral verwalten und die Vergabe automatisieren können. IPAM (IP-Adressmanagement) unterstützt diese Technologien, indem es ein effizientes Tracking und Management der IP-Adressen innerhalb eines Netzwerks ermöglicht.

Die Rolle einer effektiven DDI-Lösung besteht darin, die Verwaltung der Beziehungen zwischen DNS, DHCP und IPAM zu vereinfachen und zu automatisieren. In der heutigen Welt ist die ständige Verfügbarkeit von Netzwerken im Front- und Back-End-Bereich ein entscheidender Faktor dafür, Wettbewerbsvorteile zu sichern. Dazu ist allerdings ein integriertes DDI-Management notwendig geworden, um das Netzwerk so reaktionsschnell zu gestalten, dass es die Zuverlässigkeit und Verfügbarkeit unternehmenskritischer Anwendungen gewährleisten und zugleich die Produktivität des Netzwerkteams verbessern kann.

Darüber hinaus ist die DNS-Sicherheitsüberwachung ein wichtiges Feature im integrierten DDI, da der vorübergehende Verlust von Netzwerkdiensten durch einen DNS-Angriff den Geschäftsbetrieb massiv beeinträchtigen kann. Eine nahtlos integrierte Infrastruktur zählt daher zu den größten Herausforderungen, mit denen Administratoren im Kontext ihrer DDI-Infrastruktur konfrontiert sind.

Sicherheitstechnische Aspekte einer vollintegrierten DDI-Lösung

Erwähnenswert ist zudem, dass DDI auch zur Verteidigung gegen DNS-Bedrohungen dienen kann. DNS-Angriffe können langfristige Schäden für Unternehmen verursachen: in Form von entgangenen Geschäftsabschlüssen, gestohlenem geistigen Eigentum und Verlust von Kundendaten. Das Risiko von Reputationsschäden und der Zeitverlust bei der Wiederherstellung nach DNS-Angriffen macht die Integration einer starken DNS-Engine in das DDI-Management erforderlich.

Schließlich besteht das Ziel einer DDI-Lösung für Unternehmen darin, die Prozesse rund um die Verwaltung der IP-Ressourcen zu vereinfachen. Lange haben Unternehmen bisher lediglich auf eine Reihe von unzusammenhängenden Lösungen vertraut, die zu einem ineffizienten und unvollständigen DDI-Management geführt haben. Demgegenüber reduziert eine integrierte Lösung redundante Aufgaben, manuelle Fehlerbehebung und die Wahrscheinlichkeit, dass das Netzwerk aufgrund unentdeckter DNS-Bedrohungen ausfällt. All diese Vorteile fördern letztendlich zwei der wichtigsten Ziele eines Unternehmens: Kontinuität und Agilität für eine kürzere Time-to-Market.

DNS/DHCP/IPAM-Dienste unterstützen bereits in vielen Unternehmen die vorhandenen Netzwerkanwendungen. Fortschrittliche IT-Dienstleister bieten schon heute ein robustes Portfolio an DDI-Lösungen für Unternehmen, die mit dem Ziel entwickelt wurden, das Geschäftsmodell zukunftssicher zu gestalten und Agilität sowie die Verfügbarkeit und Sicherheit sämtlicher Netzwerkdienste im Unternehmen zu verankern.

Laut Global DNS Threat Survey von EfficientIP gehören Angriffe auf die DNS-Infrastruktur zum "IT-Security-Alltag".

Laut Global DNS Threat Survey von EfficientIP gehören Angriffe auf die DNS-Infrastruktur zum „IT-Security-Alltag“.

Herausforderungen durch die EU-Datenschutzverordnung

Die Situation der IT-Sicherheit in Unternehmen erhält zusätzliche Dynamik, wenn am 25. Mai 2018 die europaweite Datenschutzverordnung endgültig in Kraft tritt und bindende Vorschriften für den Umgang mit sensiblen Daten schafft. Spätestens dann sollten Unternehmen die Vorgaben des neuen EU-Gesetzes möglichst lückenlos erfüllen und sich dem Risiko Datenklau via DNS stellen. Während die meisten Sicherheitstools Datenübertragungsmechanismen wie File Transfer Protocol (FTP) blockieren, sind die geläufigen Internet-Protokolle wie DNS oft ungesichert und bieten Cyberkriminellen die Möglichkeit, eine Reihe von Angriffsformen wie beispielsweise DNS-Tunneling, Registrar Hijacking, Cache Poisoning oder Typosquatting durchzuführen.

Der Hintergrund: Sicherheitslösungen wie Firewalls konzentrieren sich auf die klassischen Kommunikationswege und zwingen Angreifer, auf andere Methoden auszuweichen. Diese alternativen Kommunikationswege laufen schließlich im DNS zusammen, wo Cyberkriminelle schädliche Angriffe mit normalem Traffic verbinden, um die bisherigen Sicherheitseinrichtungen zu umgehen. Gerade angesichts des kontinuierlich zunehmenden Traffics in modernen Netzwerken und im Kontext der EU-Datenschutzverordnung ist daher ein wirkungsvoller 360-Grad-Ansatz die beste Absicherung gegen DNS-Attacken für gut vorbereitete Unternehmen.

Weitere Informationen unter:
www.efficientip.com

GDPR – Ein Praktischer Leitfaden

Buchtipps:

Die EU-Datenschutzgrundverordnung (GDPR) – Ein praktischer Leitfaden

 

Im Jahr 2016 verabschiedet, tritt die Allgemeine Datenschutzverordnung im Mai 2018 in Kraft. Sie sieht zahlreiche neue und intensivierte Datenschutzverpflichtungen sowie eine erhebliche Erhöhung der Bußgelder von bis zu 20 Millionen Euro vor. Infolgedessen müssen nicht nur Unternehmen innerhalb der Europäischen Union ihren Ansatz zur Datensicherheit ändern, Aufgrund des breiten, transnationalen Geltungsbereichs der GDPR wird sie sich auf zahlreiche Unternehmen weltweit auswirken.

 

Das Buch von Paul Voigt und Axel von dem Bussche bietet kompetente Beratung bei der praktischen Umsetzung der Allgemeinen Datenschutzverordnung der Europäischen Union (GDPR) und analysiert systematisch die verschiedenen Bestimmungen.

Beispiele, Tabellen und eine Checkliste zeigen die praktischen Konsequenzen der neuen Gesetzgebung. Das Handbuch untersucht den Geltungsbereich der GDPR, die organisatorischen und materiellen Anforderungen an den Datenschutz, die Rechte der betroffenen Personen, die Rolle der Aufsichtsbehörden, Durchsetzung und Bußgelder im Rahmen der GDPR sowie nationale Besonderheiten.

Darüber hinaus liefert es einen kurzen Ausblick auf die rechtlichen Konsequenzen für bahnbrechende Datenverarbeitungsbereiche wie Cloud Computing, Big Data und das Internet der Dinge.

 

Autoren

Paul Voigt 
Paul Voigt ist Mitglied der Practice Area Technology, Media & Telecoms. Er verfügt über ausgewiesene Expertise im IT-Vertragsrecht, im Datenschutzrecht, im IT-Sicherheitsrecht sowie im E-Commerce. Paul Voigt berät praxisnah und businessorientiert sowohl Start-Up-Unternehmen als auch Mittelständler und globale Konzerne. Seine Mandate haben meist einen internationalen Bezug: So betreut er regelmäßig Mandanten aus Übersee bei ihrem Markteintritt in Europa. Daneben unterstützt er mehrere internationale Unternehmensgruppen bei der konzernweiten Implementierung von Software und IT-Sicherheitssystemen und koordiniert hierbei die Rechtsberatung in mehr als 40 Ländern weltweit.

Dr. Axel Freiherr von dem Bussche
Axel Freiherr von dem Bussche ist Head der Practice Area Technology, Media & Telecoms und koordiniert zudem Taylor Wessings internationale US Group für Deutschland. Er ist spezialisiert auf die Technologie-Branche und den Bereich Datenschutz. Seine Beratungsschwerpunkte sind die Begleitung von Transaktionen, Software-Lizenzierung, Outsourcing, F&E-Projekte, branchenspezifische Vertragsgestaltungen, Internet- und Glücksspielrecht sowie Fragen der Regulierung. Er begleitet interne Prozesse im Bereich Konzerndatenschutz, einschließlich Verhandlungen mit Betriebsräten. Ein besonderer Schwerpunkt ist die Beratung in Angelegenheiten mit Auslandsbezug sowie die Betreuung expandierender ausländischer Mandanten in Deutschland.

Tayor Wessing Deutschland

 

Zum Buch

Hardcover
Erhältlich bei
Springer-Verlag GmbH
ISBN 978-3-319-57959-7
Weitere Informationen zum Buch unter:
http://www.springer.com/de/book/9783319579580#aboutAuthors

Der voraussichtliche Erscheinungstermin der deutschen Fassung ist März 2018.

 

IT-Plattformen für das IoT

Marktstudie »Internet of Things – IT-Plattformen für das Internet der Dinge«

 

Das Internet of Things (IoT) eröffnet eine Vielzahl von Möglichkeiten für die Entwicklung intelligenter, vernetzter Produkte und Dienstleistungen und ist damit die Grundlage für neue, disruptive Geschäftsmodelle.

Gerade auch für produzierende Unternehmen in Deutschland wird es entscheidend
sein, die Möglichkeiten des IoT zukunftsweisend einzusetzen. Dabei wird es darum
gehen, aus vorhandenen Daten Mehrwerte zu generieren sowie neue Datenquellen zu
erschließen und diese für Kunden sinnbringend einzusetzen. Laut acatech (2016)1 ist das globale Wettrennen um die Daten „voll entbrannt”, wobei Daten zum erfolgskritischen Wirtschaftsgut und digitale Plattformen zum vorherrschenden Marktplatz werden.

Internet-of-Things-Plattformen – kurz IoT-Plattformen – unterstützen die Hersteller smarter Produkte dabei, Lösungsideen in Services zu überführen und diese zu betreiben.

Techologieauswahl wird zur Herausforderung

Das aktuelle breite Spektrum an IoT-Plattformen und die hohe Dynamik des Markts macht die geeignete Auswahl für Endkunden allerdings schwierig. Viele Unternehmen stehen deshalb vor der Frage, wie der Start bzw. der Ausbau ihrer IoT-Aktivitäten einfach und zukunftssicher gestaltet werden kann.

Leser erhalten mit dieser neuen Marktstudie des Fraunhofer IAO einen guten Überblick über die wichtigsten IT-Plattformen-Anbietern für das IoT auf dem deutschen Markt. Die Autoren haben anhand konkreter Bewertungskriterien ein gutes Auswahlinstrument geschaffen, das Entscheider auf der Suche nach geeigneten IoT-Plattformen dient, die passende Lösung zu finden.

Studie schafft Transparenz

Welche Internet-of-Things-Plattformen können Unternehmen aktuell einsetzen, um smarte Produkte und Services zu entwickeln und anzubieten? Die Marktstudie ermöglicht den Vergleich von IoT-Plattformen auf dem deutschsprachigen Markt anhand eines Referenzmodells.

Zielgruppe der Marktstudie sind Geschäftsführer, IT-Leiter oder Projektleiter, die auf der Suche nach geeigneten IoT-Plattformen für ihre Unternehmen sind. Die Marktstudie gibt einen Überblick über einen Auszug an aktuell im deutschsprachigen Raum verfügbaren IoT-Plattformen.

Im Rahmen der Marktstudie wurde ein Referenzmodell entwickelt, das eine strukturierte Darstellung von Leistungsparametern und konkreten Funktionalitäten von IoT-Plattformen ermöglicht und damit Vergleichbarkeit schafft. Das Referenzmodell wurde gemeinsam mit Branchenexperten im Rahmen eines Workshops entwickelt.

Das Fraunhofer IAO erstellte einen standardisierten Online-Fragebogen für Plattform- und Komponentenanbietern, Detailfragen wurden von den Anbietern in separaten Gesprächen beantwortet. Die Ergebnisse der Befragung sind in der Studie in Übersichtstabellen und Lösungssteckbriefen aufbereitet.

 

Aufbau der Studie

Die Studie ist in vier inhaltliche Teile gegliedert:

Kapitel 2 beschreibt das Referenzmodell für IoT-Plattformen, das der vorliegenden Studie zugrunde liegt. Basierend auf diesem Referenzmodell werden die Merkmale der betrachteten IoT-Plattformen aufgenommen und dargestellt.

Kapitel 3 bietet einen tabellarischen Überblick über die wichtigsten Merkmale der betrachteten IoT-Plattformen und ermöglicht so den schnellen Vergleich der vorgestellten Plattformen sowie die Möglichkeit einer Vorauswahl der IoT-Plattform, die für einen konkreten Anwendungsfall relevant ist.

Kapitel 4 stellt in einheitlicher Form jede betrachtete Plattform auf mehreren Seiten mit allen vorhandenen Informationen vor. Dabei sind die Informationsseiten strukturell identisch aufgebaut, sodass ein schneller Vergleich der betrachteten Plattformen
möglich ist.

 

Autoren:

Tobias Krause, Oliver Strauß, Gabriele Scheffler, Dr. Holger Kett, Kristian Lehmann, Thomas Renner

 

Kostenfreier Download

Die Markstudie steht zum kostenfreien Download auf den Seiten des Fraunhofer IAO
zur Verfügung:
Marktstudie Internet of Things – IT-Plattformen für das Internet der Dinge

 

Printexemplar

Seit Oktober ist die Studie auch als Printexemplare gegen eine Gebühr von 95 Euro erhältlich.
ISBN: 978-3-8396-1231-6 / Verlag und Druck: Fraunhofer Verlag

 

 

Kontakt:

Dr. Holger Kett
Teamleiter Digital Business Services

Fraunhofer IAO / DIGITAL BUSINESS

 

 

Quelle:
1 acatech – Deutsche Akademie der Technikwissenschaften (Hg.) (2016): Smart Service Welt: Digitale Serviceplattformen – Praxiserfahrungen aus der Industrie. Best Practices. München.

Konsummodelle der Zukunft

Traditionelle Konsummodelle befinden sich im Wandel.

Im aktuellen „Consumer Barometer“ der KPMG steht das Thema Sharing bzw. „Mieten statt kaufen“ und flexible Abomodelle im Fokus.

Wenn es nach dem Willen der Konsumenten geht, haben Unternehmen der Konsumgüterbranche in Sachen Sharing Economy Nachholbedarf.

So lautet ein Ergebnis des aktuellen Consumer Barometers, demzufolge sich 41 Prozent der Befragten für die Zukunft mehr Abo- und Mietmodelle für Produkte der Konsumgüterbranche wünschen. Dabei ist der Preis für 84 Prozent der Befragten das wichtigste Kriterium gefolgt von Fragen der Sicherheit mit 75 Prozent und Flexibilität mit 71 Prozent.

Kurzstudie

Für die Kurzstudie wurden circa 500 Konsumenten repräsentativ über ein Online-Panel in Kooperation mit dem IFH – Institut für Handelsforschung Köln befragt.

 

Eruiert werden kommerzielle Sharing- bzw. Miet- und Abomodelle aus Sicht der Konsumenten.

Inwieweit nutzen Kunden sie bereits?
Wünschen sie sich solche Optionen für die Zukunft verstärkt?
In welchen Warengruppen sind derartige Angebote besonders gefragt?
Welche Faktoren sind den Konsumenten beim Mieten und bei flexiblen Abonnements besonders wichtig?

 

Bei Gebrauchsgütern geht es den Konsumenten immer stärker um Nutzen und Komfort statt klassischen Besitz. Dieser Trend ist in vielen Branchen schon heute fest verankert und das Schlagwort Sharing Economy ist vielen ein Begriff. Bekannte Beispiele gibt es schon in der Automobilbranche mit Carsharing-Angeboten sowie Carsharing-Plattformen, über die Privatpersonen Autos mieten und vermieten können.

Parallel zu der Entwicklung bei den Gebrauchsgütern gibt es auch für Verbrauchsgüter immer mehr innovative Konsummodelle wie zum Beispiel in Form von Abonnements:
HelloFresh bei Lebensmitteln und Glossybox im Bereich Kosmetik sind hier vielen ein Begriff.

 

 

Ist also Mieten das neue Kaufen?

Lediglich ein Viertel der Befragten ist der Meinung, dass der unmittelbare Besitz von Produkten und Konsumgütern für sie selbst künftig unwichtiger als noch heute sein wird. Im Umkehrschluss bedeutet das, dass Mieten und Abonnieren für den Großteil der Verbraucher künftig als zusätzliche Option bedeutsamer werden wird, das Interesse am Besitz aber nicht komplett verschwinden wird.

Für Handel und Hersteller ist eine Ausweitung der Sharing Economy daher am ehesten eine zusätzliche Option, dem Kundeninteresse stärker als bisher zu entsprechen.

 

 

Die ausführlichen Ergebnisse können Sie hier downloaden:

Consumer Barometer 3/2017: Sharing Economy und Konsummodelle der Zukunft


Das Consumer Barometer

Das Consumer Barometer von KPMG beleuchtet alle drei Monate Entwicklungen, Trends und Treiber im Handel und Konsumgütermarkt. Auf Basis vierteljährlicher, gemeinsamer Konsumentenbefragungen von KPMG und dem Kölner Institut für Handelsforschung werden Trends im Handel und Konsumentenverhalten analysiert. Die repräsentative Kurzstudie stützt sich dabei auf die Online-Befragung von rund 500 Konsumenten

 

weiterführende Informationen:
KPMG – Konsumgüter

Start-ups nehmen mit HYPERMOTION Fahrt auf

Die Hypermotion verleiht der Mobility-Szene richtungsweisende Impulse. Für Start-ups bietet sie besondere Angebote. Angesagt sind innovative Technologien, digitale Geschäftsmodelle und viel Branchen-Know-how.

 

Bewegung im Transportwesen

Autonome Fahrzeuge im Straßenverkehr, futuristisch anmutende Lieferroboter in Fußgängerzonen und selbstlernende Algorithmen in Unternehmens-Software: Die Mobilitätsbranche gibt Gas, was das Implementieren zukunftsweisender Innovationen betrifft. Angetrieben von der Digitalisierung und Dekarbonisierung erobern immer mehr integrierte und multimodale Lösungen den Markt. Die Grenzen zwischen Verkehr, Transport, Logistik und Infrastruktur verschwinden. Milliarden Daten vernetzen sich.

Um diese und kommende technologische Megatrends frühzeitig begleiten, bedienen sowie mitformen zu können, hat die Messe Frankfurt eine neue Veranstaltung ins Leben gerufen: die Hypermotion.

Inspiration für Mobilität 4.0

Die Hypermotion richtet ihren Fokus auf intelligente Systeme und Lösungen für Mobilität, Verkehr, Logistik und digitale Infrastruktur. Vom 20. bis 22. November 2017 treffen sich auf dem Frankfurter Messegelände große Konzerne, mittelständische Unternehmen, Start-ups, Vertreter aus Industrie, Wissenschaft und Politik sowie Fachbesucher, um Lösungen für die Mobilität 4.0 zu diskutieren und gemeinsam neue Ideen zu entwickeln. Die Ausstellung wird um eine Konferenzserie ergänzt, die zum Wissensaustausch und Networking einlädt.

Mit der Hypermotion wollen die Veranstalter nicht nur einen neuen Treffpunkt für die Mobility-Szene etablieren, sondern vor allem auch Start-ups zu mehr Sichtbarkeit verhelfen. Denn damit die digitale Transformation im Transportwesen gelingt, sind traditionelle und junge Unternehmen aufeinander angewiesen. Auf der Messe können sich Old und New Economy austauschen, potenzielle Partnerschaften eruieren und neue Geschäftsmodelle entwickeln.

Hackathon, Start-up Pitches und Start-up Areal für junge Unternehmen

Unter dem Motto „Next Generation Mobility“ bringt die Hypermotion die neue Generation von Soft-, Hardware- und UX-Spezialisten zusammen, die mit ihren innovativen Konzepten den Markt erobern wollen. Developer, Ingenieure und Designer können beim Hackathon mit spannender Technik experimentieren und ihre Skills unter Beweis stellen. Die Hauptsponsoren Lufthansa Cargo und Schmitz Cargobull stellen dafür Daten und spannende Technologien für IoT-, VR- und AR-Ideen bereit.

Mehr Informationen zum Hackathon ….

Außerdem bieten Start-up Pitches Entrepreneuren und Visionären die passende Bühne, um ihre innovativen Projekte und Ideen vor einer renommierten Jury aus Kapitalgebern zu präsentieren. Am 21. und 22. November wird es insgesamt vier Pitch-Sessions geben – zwei pro Messetag mit jeweils fünf Start-ups, die in fünfminütigen Pitches gegeneinander antreten. Danach stellen sie sich den Fragen der Jury und des Publikums. Am Ende jeden Tages ermittelt die Jury einen Tagessieger.

Mehr zum Pitch … 

 

Im Start-up Areal in der Ausstellung findet man deutsche und auch internationale Start-ups, die innovative neue Lösungen zeigen wie intelligente Roboter für Intralogistik, Smart Tags (IoT), Fahrgastinformationssysteme, ein Enterprise-Content-Management-System, Embedded Wireless Systems und Lösungen für Infrastrukturmanagement. Mehr Informationen zu den ausstellenden Unternehmen finden Sie in der

Ausstellersuche

 

Die neue Veranstaltung für intelligente Transportsysteme
vom 20. bis 22. November.

 

Mehr Informationen unter:
www.hypermotion-frankfurt.com

 

 

 

Aufmacherbild / Quelle / Lizenz

Pixabay / CC0 Creative Commons

 

Beitragsbild
Copyright Messe Frankfurt / Hypermotion

Immobilienaktien: Nachhaltige Gebäude

Immobilienaktien: Nachhaltige Gebäude stiften Nutzen für Umwelt und Anleger

 

Pressemitteilung

25. Oktober 2017 – Frankfurt am Main

 


Roelf Groeneveld,
Client Portfolio Manager Real Estate bei NN Investment Parters:

 

Marktkommentar:

• Auf Gebäude entfallen weltweit 30 Prozent der Kohlenstoffemissionen und 40 Prozent des Rohstoff- und Energieverbrauchs.

• Nachhaltige Gebäude und Smart Cities sollen die negativen Folgen unserer wachsenden Bevölkerung auf das lokale Umfeld und die natürliche Umwelt verringern.

• Grüne Gebäude im Durchschnitt stoßen um bis zu 35 Prozent weniger Kohlenstoffemissionen aus, der Wasser- und Energieverbrauch ist um bis zu 50 bzw. 30 Prozent niedriger.

• Eine stärker integrierte nachhaltige Lösung für Bürogebäude der nächsten Generation ist auch für Immobilienunternehmen und Investoren interessant.
 
Ein Großteil der globalen Treibhausgasemissionen geht auf Gebäude zurück. Zudem verbrauchen sie große Mengen von Wasser. Gleichzeitig findet ein umwälzender demografischer Wandel statt:
Prognosen zufolge wird die Weltbevölkerung bis 2050 auf neun Milliarden Menschen ansteigen. Davon werden 75 Prozent in Städten wohnen (Arup Foresight, 2013). Bebauung wird daher zunehmend mit Blick auf natürlichen Ressourcen beurteilt werden. Die Wende zu einer nachhaltigeren Bauweise mit dem Ziel, die negativen Folgen von Bestandsbauten und Neubebauung für die Umwelt zu reduzieren, wird immer wichtiger.

Dabei kommt börsennotierten Immobilienunternehmen eine führende Rolle zu. Solche Immobilienunternehmen, die bereit sind, die Chancen zu ergreifen, dürften sich wirtschaftliche und nicht-finanzielle Vorteile bieten. Und es gibt bereits viele erfolgsversprechende Projekte, z.B. das für Deloitte erbaute „The Edge“ in Amsterdam. Doch die Umsetzung dieser Innovationen braucht Zeit.
 

Wesentliche Merkmale eines Gebäudes der nächsten Generation

Jedes Gebäude der nächsten Generation wird sich an seinen ökologischen Vorteilen und an seinem sozialen Nutzen messen lassen müssen. Ein Gebäude, das auf diese zwei Säulen aufbaut, wird in der Konstruktionsphase zwar teurer sein, über seinen Lebenszyklus hinweg aber wirtschaftliche Vorteile bringen.

Erste Säule: Ökologischer Nutzen

Auf Gebäude entfallen weltweit 30 Prozent der Kohlenstoffemissionen sowie 40 Prozent des Rohstoff- und Ener-gieverbrauchs (Kahn, Kok und Quigley, 2014; Glaeser und Kahn, 2010). Bei Gebäuden der nächsten Generation sollten daher Verfahren zum Einsatz kommen, die ressourceneffizient sind. Und zwar nicht nur in der Bauphase, sondern über den gesamten Lebenszyklus des Gebäudes hinweg bis zum Abriss.

Virtual Reality, 3D-Druck, Biomimetik (von der Natur inspirierte Innovationen), alternative Baumaterialien, intelligente Systeme und technologisch anspruchsvolle Fassaden, Dächer und Böden ermöglichen den Entwurf und den Bau nachhaltiger Gebäude der nächsten Generation.

Doch auch klug geplante Gebäude bleiben nur dann nachhaltig, wenn sie verantwortungsbewusst genutzt und richtig gewartet werden. Alle Funktionen und Eigenschaften dieser Gebäude müssen fest in die Betriebs- und Wartungsphase integriert werden. Die „grüne Praxis“, wie Abfallvermeidung, Wasserersparnis und Luftreinhaltung, findet nämlich in dieser Phase statt. Die Studie „Costs and Financial Benefits of Green Buil-dings“ (Kats u.a., 2008) hat nachgewiesen, dass grüne Gebäude im Durchschnitt um bis zu 35 Prozent weniger Kohlenstoffemissionen ausstoßen. Der Wasser- und Energieverbrauch dieser Gebäude ist um bis zu 50 bzw. 30 Prozent niedriger, die Menge an Feststoffabfällen kann bis zu 90 Prozent reduziert werden.

Zweite Säule: Sozialer Nutzen

Die meisten Menschen verbringen durchschnittlich 90 Prozent ihrer Zeit in Räumen. Da die Qualität der Raumluft oft schlechter ist als die Luft draußen, geht der soziale Nutzen von Gebäuden der nächsten Generation über ökologische Vorteile hinaus. Die Qualität der Innenraumluft und der Fokus auf körperliche Bewegung sind für Gesundheit und Wohlbefinden der Beschäftigten von entscheidender Bedeutung. Fenster, die den Blick nach außen zulassen, Tageslicht bzw. LED-Beleuchtung, dessen Wellenlänge der des Tageslichts entspricht, sowie eine personalisierte Umgebung tragen ebenfalls maßgeblich zur Produktivität bei (vgl. Grafik).
 
LEED*-Gebäude: Nettobarwertanalyse von Betriebskosten, Produktivität & gesundheitlichen Vorteilen

Quelle: World Green Building Council, „The Business Case for Green Building“ (2013).

* Die LEED-Zertifizierung (Leadership in Energy and Environmental Design) ist ein seit 1999 zum ersten Mal veröffentlichtes und weltweit anerkanntes Rating System für nachhaltige Gebäude.
 

Immobilienaktien bieten Chancen für Anleger

Nach unserer Einschätzung sind Gebäude der nächsten Generation, die all die erwähnten Umwelt- und Sozialfaktoren in ihr Design einbeziehen, nicht nur über den gesamten Lebenszyklus preiswerter, sie tragen auch wesentlich zum gesellschaftlichen und ökologischen Wohl bei.

Vereinzelte Gebäude werden aber nicht ausreichen. Nur flächendeckende, globale Anstrengungen, um nachhaltige Gebäude und Smart Cities zu errichten und zu unterhalten, können die Umweltfolgen des Bausektors spürbar reduzieren. Hier kommt börsennotierten Immobilienunternehmen eine führende Rolle zu. Wenn sie einen langfristigen Fokus bei der Zusammenstellung der attraktivsten Portfolios haben, sind sie gut positioniert, um diese Rolle über den gesamten Lebenszyklus des Gebäudes zu erfüllen.

Neue gesetzliche Bestimmungen sowie wirtschaftliche und nicht-finanzielle Vorteile treiben die Bemühungen um Nachhaltigkeit an. Hier sind beispielsweise das französische Unternehmen Gecina und die australische Dexus Property Group zu nennen. Beide haben sich ehrgeizige Nachhaltigkeitsziele gesetzt. Entsprechend erhalten beide Immobilienunternehmen Top-Bewertungen für ihre Nachhaltigkeit, was Investoren zunehmend honorieren.

Auch NNIP integriert in die Einzeltitelauswahl seiner Real Estate Aktienstrategien ökologische und soziale Themen sowie Fragen der Unternehmensführung – nach den englischen Begriffen environmental, social und governance kurz ESG-Themen genannt. Auch wenn es noch an expliziten Zielwerten für Nachhaltigkeit fehlt, spielen ESG-Aspekte unserer Ansicht nach eine wichtige Rolle im Immobiliengeschäft. Entwicklungen wie Bürogebäude der nächsten Generation schaffen interessante Chancen, nicht nur aus gesellschaftlicher und ökologischer Sicht, sondern auch in finanzieller Hinsicht für Immobilienunternehmen und Investoren. Dabei kann das aktive Engagement der Investoren – ein integraler Bestandteil von NNIPs Anlagephilosophie – das Bewusstsein für Nachhaltigkeit bei Unternehmen schärfen und ihre Bereitschaft stärken, neue Wege zu beschreiten.

www.nnip.com

 

 

Pressekontakt
NN Investment Partners Deutschland
Christian Kronberger
-Head of PR-
T: +49 69 50 95 49 15
M: + 49 160 989 631 64
E: christian.kronberger@nnip.com
www.nnip.com

Über NN Investment Partners
NN Investment Partners (NNIP) ist der Asset Manager der NN Group N.V., einer an der Börse (Euronext Amsterdam) gehandel-ten Aktiengesellschaft. NNIP hat seinen Hauptsitz in Den Haag, in den Niederlanden und verwaltet insgesamt weltweit ca. 245 Mrd. Euro* (280 Mrd. US-Dollar.*) Assets under Management für institutionelle Kunden und Privatanleger. NNIP beschäftigt mehr als 1.200 Mitarbeiter und ist in 15 Ländern in Europa, USA, La-teinamerika, Asien und dem Nahen Osten vertreten.
NNIP ist Teil der NN Group N.V., einer an der Börse gehandelten Aktiengesellschaft.
*Stand: Q2 2017, 30. Juni 2017, 51 Mrd. Euro AuM entfallen auf Delta Lloyd Asset Management
Weitere Informationen erhalten Sie unter www.nnip.com und www.nn-group.com

 

Aufmacherbild / Quelle / Lizenz

Pixabay / CC0 Creative Commons

 

 

Rechtliche Hinweise:
Diese Publikation dient allein Informationszwecken. Sie stellt keine Anlage-, Steuer- oder Rechtsberatung dar. Insbesondere handelt es sich hierbei weder um ein Angebot oder einen Prospekt noch eine Aufforderung zum Erwerb oder Verkauf von Wertpapieren, zur Abgabe eines Angebots oder zur Teilnahme an einer bestimmten Handelsstrategie. Dieses Dokument richtet sich nur an erfahrene Anleger. Obwohl die hierin enthaltenen Informationen mit großer Sorgfalt zusammengestellt wurden, übernehmen wir keine – weder ausdrückliche noch stillschweigende – Gewähr für deren Richtigkeit oder Vollständigkeit. Wir behalten uns das Recht vor, die hierin enthaltenen Informationen jederzeit und unangekündigt zu ändern oder zu aktualisieren. Eine direkte oder indirekte Haftung der NN Investment Partners B.V., NN Investment Partners Holdings N.V. oder anderer zur NN-Gruppe gehörender Gesellschaften sowie deren Organe und Mitarbeiter für die in dieser Publikation enthaltenen Informationen und/oder Empfehlungen ist ausgeschlossen. Sie nutzen die hierin enthaltenen Informationen auf eigene Gefahr. Investitionen sind mit Risiken verbunden. Bitte beachten Sie, dass der Wert der Anlage steigen oder sinken kann und die Wertentwicklung in der Vergangenheit keine Gewähr für die zukünftige Wertentwicklung bietet. Diese Publikation und die darin enthaltenen Informationen dürfen ohne unsere schriftliche Genehmigung weder kopiert, vervielfältigt, verbreitet noch Dritten in sonstiger Weise zugänglich gemacht werden. Diese Publikation ist kein Angebot für den Kauf oder Verkauf von Wertpapieren und richtet sich nicht an Perso-nen in Ländern, in denen die Verbreitung solcher Materialien rechtlich verboten ist. Für alle Ansprüche im Zusammenhang mit diesem Haftungsausschluss ist niederländisches Recht maßgeblich.

 

Marketing Automation

 

Gastbeitrag

Relevanz statt Reichweite

Im Digitalen Zeitalter ist es für Unternehmen einfacher denn ja, ihre Kunden zu erreichen – theoretisch. Denn sie müssen deren Aufmerksamkeit mit einer Fülle von anderen Impulsen teilen. Reichweite allein ist daher kein brauchbares Kriterium für Marketing-Erfolg. Es kommt vielmehr darauf an, die Zielgruppe genau zu kennen und ihr relevante Inhalte anzubieten. Die dafür nötigen Informationen lassen sich mit intelligenten Algorithmen automatisiert aus vorhandenen Daten gewinnen. Entsprechende Tools sind bereits erfolgreich im Einsatz.

Informationsbereitstellung ist kein Differenzierungsmerkmal mehr

Die Digitalisierung hat die Voraussetzungen für die erfolgreiche Entwicklung und Vermarktung von Produkten in den letzten zehn bis 15 Jahren grundlegend umgewälzt.
Im Zeitalter der Digitalisierung sind Informationen transparent, jederzeit und überall verfügbar und damit auch ganz nahe an die Kunden herangerückt. Die Bereitstellung von Informationen ist im mobilen Zeitalter, in dem bereits mehr als drei Viertel der Bevölkerung mit Smartphone oder Tablet umgeht, kein Differenzierungsmerkmal mehr.

Im Gegenteil, die (potenziellen) Kunden sind einer ständig wachsenden Flut von Inhalten und digitalen Informationen ausgesetzt. Ihre digitalen Aktivitäten von Netflix über Chats bis zu Online-Spielen, nehmen weiterhin stark zu; die Zahl der Impulse, die aus dem Web, beispielsweise von Facebook oder WhatsApp, auf sie einprasseln wächst.

Die insgesamt zur Verfügung stehende Zeit wächst aber nicht mit – der Tag hat letztendlich weiterhin nur 24 Stunden. Also sinkt die Zeitspanne, die Kunden für einen einzelnen Impuls erübrigen können. Immer mehr Kanäle, mehr Produkte und mehr Anbieter konkurrieren um ein begrenztes Zeitbudget.

Aufmerksamkeit gewinnen

Für das Marketing bedeutet diese Entwicklung, dass es heute vergleichsweise einfach ist, die Kunden zu erreichen; es ist recht leicht, einen Newsletter aufzusetzen oder eine Bannerwerbung bei Google zu buchen, und man kann dabei beachtliche Reichweiten erzielen.

So einfach es aber ist, die Kunden zu erreichen, umso schwieriger ist es, dabei auch tatsächlich ihre Aufmerksamkeit zu gewinnen. Denn: Das stetige Mehr an Impulsen hat einen merklichen Effekt: So konnten sich Menschen laut einer Microsoft-Studie vor vier Jahren noch durchschnittlich zwölf Sekunden auf ein Thema konzentrieren, bevor der nächste Impuls die Aufmerksamkeit auf das nächste Thema lenkt – heute sind es nur noch acht.
Und in dieser Zeitspanne müssen alle Informationen und Argumente vorgebracht werden, um die Grundlage für die Entwicklung eines Kaufbedürfnisses bei der Zielgruppe zu schaffen.

Punktlandung mit dem richtigen Content

Der Schlüssel, der aus dieser Zeit-Falle herausführt, heißt Relevanz. Wer als Anbieter seine Kunden nicht kennt, nicht segmentiert und unfokussiert mit Informationen zuschüttet, hat keine Chance, ihre Aufmerksamkeit zu gewinnen. Werbung wird nur dann zum Kaufimpuls führen, wenn die Empfänger die Informationen sie in ihrer konkreten, womöglich sehr individuellen Entscheidungssituation als wichtig und nützlich empfinden.

Das werden sie aber nur, wenn Inhalt und Art der Information „passen“.
Anders formuliert: Reichweite allein führt nicht zur Konversion, ohne Relevanz ist Reichweite im digitalen Zeitalter wertlos. Content jeglicher Art muss die richtigen Personen zum richtigen Zeitpunkt, auf den richten Kanälen, mit den passenden Botschaften erreichen. Soweit nicht neu, aber im digitalen Marketing-Mix wichtiger denn je.

Daten als Rohmaterial von Relevanz

Das Marketing muss dazu über genügend und die richtigen Daten verfügen, die zu Informationen gemacht und aus denen Entscheidungen für den optimalen (individuellen) Marketing-Mix abgeleitet werden können („welches Produkt zu welchem Preis für welches Kundensegment über welchen Kanal mit welcher Kommunikation?“).
Es muss dafür alles ausgeschöpft werden, was Wissen über einen Kunden verschaffen kann, von der Kundenhistorie über Klickverhalten bis zur Auswertung der Aktivitäten anderer Kunden.

Grundsätzlich gilt hier die Devise „viel hilft viel“, aber es liegt auf der Hand, dass die Auswertung dieses Rohmaterials an Daten nur automatisiert erfolgen kann. Man muss also mit geeigneten Algorithmen analysieren – vielleicht mit Hilfe künstlicher Intelligenz, wobei es oftmals auch viel einfacher funktioniert – was denn genau vom jeweiligen Kunden beziehungsweise Segment als relevant empfunden und betrachtet wird, mit welchem Mix man einen Kunden also konkret „abholen“ kann.

Natürlich verfügen Plattformen wie Amazon längst über das entsprechende Wissen, allerdings ist klar, dass dieses vor allem im eigenen Interesse der Plattform eingesetzt wird. Es werden also nicht notwendigerweise andere Interessen als die eigenen vertreten, Produktanbieter sollten sich also schon selbst darum bemühen, intelligente Marketingprozesse aufzusetzen, also Algorithmen zu implementieren. Den Käufer zu erreichen wird zur Kernaufgabe auch der Hersteller, dem Handel kann in Zeiten der Digitalisierung diese Aufgabe alleine nicht mehr überlassen werden.

Intelligente Marketingautomatisierung in der Praxis

Wie das in der Praxis funktionieren kann, lässt sich sehr gut am Beispiel der Buch- und Verlagsbranche zeigen. Auf einer individuellen Ebene erstellt intelligente Automatisierung für jeden Kunden maßgeschneiderte Empfehlungen, die etwa vor der Auslieferung an den Handel in E-Books automatisch platziert werden können.

Automatisierung lässt sich aber auch bei der Preisgestaltung einsetzen: Werden beispielsweise zeitlich begrenzte Sonderpreise festgelegt – die der Buchpreisbindung unterliegen –, so mussten sich Verlage bisher auf das Bauchgefühl verlassen – welcher Preis ist für welches Produkt für welchen Zeitraum optimal? Marketingautomatisierung kann hier aus den Daten über das bisherige Verhalten aller Kunden die genaue Preiselastizität errechnen, also den in Hinblick auf Umsatz und Kosten richtigen Preis.

Entsprechendes gilt für die Bildung von Schlagworten, die erst für die Auffindbarkeit sorgen. Bisher werden sie intuitiv vergeben, durch Automatisierungswerkzeuge wird nicht nur Zeit gespart, sondern auch die Sichtbarkeit im Web deutlich verbessert – weil gemessen werden kann, über welche Suchbegriffe die jeweilige Zielgruppe auf den Plattformen erreicht wird. Bei Sachbüchern lassen sich so allein durch die von Algorithmen gesteuerte Verschlagwortung Umsatzsteigerungen von mehr als 30 Prozent erreichen.

Die genannten Beispiele zeigen, dass intelligente Automatisierung im Marketing keineswegs bloße Zukunftsmusik ist. Entsprechende Lösungen sind erfolgreich im Einsatz, sie sorgen dafür, dass Marketing intelligenter und erfolgreicher wird.

 

Autor:
Ralf Biesemeier, Geschäftsführer von readbox in Dortmund

 

weiterführende Informationen:
readbox

 

Aufmacherbild / Quelle / Lizenz

Pixabay / CC0 Creative Commons

Beitragsbild / Quelle

readbox CEO Ralf Biesemeier (© readbox/Willi Weber)
Ralf Biesemeier, Geschäftsführer von readbox in Dortmund

 

 

Innovatives Leasingkonzept für emissionsfreie Logistik

E-Transporter für alle: GLS Bank und COMCO Leasing GmbH kaufen 500 StreetScooter

Pressemitteilung
  • Innovatives Leasingkonzept für emissionsfreie Logistik
  • Günstige Leasingraten und flexible Verträge für Gewerbekunden
  • Post-Vorstand und StreetScooter-Verantwortlicher Gerdes: „Helfen Kunden aus den verschiedensten Branchen, auf Elektromobilität umzusteigen“

Die GLS Bank, spezialisiert auf sozial-ökologische Unternehmen, und die COMCO Leasinggruppe kaufen 500 StreetScooter.
Hierbei handelt es sich um elektrisch betriebene Nutzfahrzeuge, die die StreetScooter GmbH, ein Tochterunternehmen der Deutsche Post DHL Group, in Aachen und künftig auch in Düren produziert. Die drei Partner erarbeiteten ein innovatives Leasingkonzept, um ein starkes Signal für emissionsfreie Logistik in Deutschland zu setzen. Mit Hilfe günstiger Leasingraten und flexibler Verträge können Unternehmen aller Branchen ohne CO2-Emissionen ihre Fahrten und Transporte durchführen.

Jürgen Gerdes, Konzernvorstand Post – eCommerce – Parcel von Deutsche Post DHL Group und verantwortlich für die Post-Tochter StreetScooter GmbH, erklärt: „Wir freuen uns sehr, dass die GLS Bank und COMCO Leasing genauso überzeugt vom StreetScooter sind wie wir selbst. Gemeinsam helfen wir Kunden aus den verschiedensten Branchen, auf Elektromobilität umzusteigen. So sind wir gemeinsam nachhaltig erfolgreich und können zusätzlich die umweltschonende Logistik voranbringen.

v.l.n.r.: Jürgen Gerdes (Konzernvorstand Post – eCommerce – Parcel der Deutsche Post DHL Group), Holger Rost (Geschäftsführer von COMCO Autoleasing GmbH & Co. KG), Thomas Jorberg (Vorstandssprecher der GLS Bank) sowie Dirk Kannacher (Vorstand der GLS Bank)

Die genossenschaftliche GLS Bank aus Bochum stellt die Refinanzierung der StreetScooter-Flotte sicher. GLS Bank Vorstand Dirk Kannacher erklärt: „Wer morgens um 7 Uhr den Verkehrsfunk hört, kann erahnen, dass wir in der Zukunft eine andere Art von Mobilität benötigen als wir sie heute kennen. Wir benötigen zukunftsweisende Mobilitätskonzepte rund um das ‚Sharing‘ und saubere Antriebe zum Schutz unserer Umwelt. Die Zeit dafür ist jetzt!“

„Dies ist ein erster wichtiger Schritt, um die Städte von Feinstaub und Stickoxiden zu befreien“, ergänzt Holger Rost, der verantwortliche Geschäftsführer bei COMCO.

Der von StreetScooter entwickelte und gebaute Lieferwagen wird seit diesem Jahr auch an Dritte verkauft und ist für die Anforderungen der städtischen Logistik ideal. Das Unternehmen präsentiert mit dem StreetScooter das erste in großer Serie gebaute Elektronutzfahrzeug. Dabei steht nicht nur die Nutzung durch Postdienste im Fokus – auch andere vornehmlich in der Stadt operierende Dienste, wie zum Beispiel Handwerksbetriebe oder die Kommunen, sind Zielgruppe.

 

 

weiterführende Informationen:

COMCO Leasing
StreetScooter GmbH
GLS Bank

 

 

Aufmacherbild / Quelle

StreetScooter GmbH

Lernende Algorithmen spielen eine entscheidende Rolle

Herr Dr. Dorian Selz, CEO und Mitgründer von Squirro spricht mit der Redaktion über Squirro und die entscheidende Rolle lernender Algorithmen für KI.

 

Herr Dr. Selz, warum wurde das Unternehmen nach einem Eichhörnchen benannt?

Eichhörnchen suchen und finden Bucheckern, Eicheln, Haselnüsse sowie Kastanien und legen sich ein Lager für kalte Wintertage an. Wir gehen ähnlich vor: Wir finden und klassifizieren nützliche und vor allem wertvolle Informationen und machen sie Anwendern in dem Moment zugänglich, wo sie gebraucht werden. Die Cognitive Insights Engine von Squirro verwendet proprietäre Technologien aus dem Bereich der künstlichen Intelligenz und verwandelt Rohdaten in wirkungsvoll nutzbare Erkenntnisse und Empfehlungen, die punktgenau den richtigen Mitarbeitern zur richtigen Zeit zur Verfügung gestellt werden.

 

Wie wichtig sind „lernende Algorithmen“ bei der Zusammenführung der unterschiedlichen Repositories?

„Lernende Algorithmen“ aus dem Anwendungsgebiet der künstlichen Intelligenz spielen eine entscheidende Rolle. Die Informationen in den verschiedenen Datensilos haben meist wenig Struktur und sicher nicht dieselbe Struktur. Der Algorithmus verarbeitet Daten aus verschiedenen Quellen und baut auf dieser Basis eine Entscheidungsstruktur auf. Man spricht daher auch davon, dass der Algorithmus ,trainiert’ wird. Im weitern Verlauf kommen neue, bislang noch nicht berücksichtigte Daten hinzu, sie werden klassifiziert und es entstehen weiter ausdifferenzierte Handlungsempfehlungen. Techniken aus dem Bereich der künstlichen Intelligenz können dabei helfen, die Menge der Informationen geschickt und zielorientiert miteinander zu verknüpfen.

 

Die Folge von lernenden Algorithmen ist das Schlagwort „künstliche Intelligenz“. Wie ist Ihre Einschätzung dazu?

In der heutigen Form ist die künstliche Intelligenz nicht in der Lage, den Menschen zu ersetzen. Insbesondere der ganze Bereich der sozialen und emotionalen Intelligenz sowie die emotionalen Elemente der Sprache können mit den heute verfügbaren Methoden nur unzulänglich analysiert werden. Es gibt schnelle Computer und mächtige Algorithmen. Die Verknüpfung erschließt viele neue Anwendungsfelder im Bereich Korrelation (Correlation). Aber keiner dieser Prozesse ist tatsächlich „intelligent“, sprich kann eigenständige Schlussfolgerungen ziehen (Causation). Mit dem heutigen Stand der künstlichen Intelligenz können einzelne Prozesse, wie etwa das Autofahren, und ganze Prozessketten, wie beispielsweis die Kundenbeziehungen bezogen auf den ganzen Lebenszyklus, neu gedacht und neu geformt werden. Was darüber hinaus in Zukunft noch möglich sein wird, ist heute noch nicht absehbar.

 

Salesforce ist jüngst bei Ihnen eingestiegen. Wie wird das Squirro bezüglich Know-how-Transfer, Wachstum des Unternehmens oder Investitionen verändern?

Wir werden mit der strategischen Investition von Salesforce Teil des Ökosystems des am schnellsten wachsenden Unternehmens für Enterprise-Software. Das setzt uns selbst auf einen ganz anderen Wachstumspfad. Durch die Zusammenarbeit mit Salesforce erhalten auch unsere Mitarbeiter völlig neue Perspektiven. Gegenwärtig sind wir bereits in New York, London, München und Zürich vertreten. Wir wollen weiter wachsen und damit auch viele neue Möglichkeiten für unsere aktuellen und zukünftigen Mitarbeiter schaffen.

 

Welche Herausforderungen möchte Squirro in den nächsten Monaten angehen?

Viele Salesforce-Kunden nutzen die Software für die Pflege von Kundenbeziehungen, genauer gesagt Salesforce Sales Cloud, und den Kundendienst, nämlich die Salesforce Service Cloud. In der Kombination mit dem Lösungsportfolio von Squirro können Unternehmen nun viel umfassender intelligent auf Datenquellen außerhalb von Salesforce zugreifen, beispielsweise auf interne Produktdatenbanken, Kundenfeedbacks und Marktinformationen. Damit lassen sich schnell erhebliche Mehrwerte für den Kunden schaffen und das Unternehmen wird erfolgreicher am Markt. Dafür setzen wir uns ein.

 

Herr Dr. Selz, vielen Dank für das Gespräch!

 

Zur Person:

Dr. Dorian Selz, CEO und Mitgründer von Squirro

Dr. Dorian Selz ist CEO und Mitgründer von Squirro.

weiterführende Infos:
https://squirro.com/

 

 

 

 

 

Der Mainframe ist (k)eine Glaubensfrage

Gastbeitrag von Thomas Hellweg

 

Extrem aufwändig, hoch riskant und endlos, – die Modernisierung von Mainframe Legacy-Anwendungen gilt bislang als Horror-Projekt der IT. Eine neue Methode verspricht Abhilfe.

 

Die unter Fußball-Fans berüchtigte Glaubensfrage „Schalke oder Dortmund“, wahlweise auch „FC Bayern oder 1860 München“, lautet unter IT-Verantwortlichen sinngemäß „Mainframe oder x86“. Hier sind die Fronten ähnlich klar: Während eine eingefleischte, konservative (IBM) Fan-Gemeinde auf die unvergleichliche Zuverlässigkeit, Performance und Sicherheit des Mainframe schwört, würden die Modernisierer den Rechenzentrum-Dinosaurier lieber heute als morgen für immer in den Jurassic Park der IT verfrachten.

Und das hat seine Gründe, die allerdings mit Glaubensfragen nur wenig zu tun haben:
Zum einen steigen die Betriebs- und Wartungskosten mit jedem zusätzlichen Betriebsjahr des Mainframe immer weiter an. Laut einer IDC-Studie[1] im Auftrag von IBM setzte bereits 2015 allein das Software- und Dienstleistungs-Ökosystem rund um den Mainframe – hierzulande bestehend aus ca. 350 Partnern – pro Jahr 1,7 Milliarden Euro um, Tendenz steigend. Diese Kennzahl lässt erahnen, wie tief Unternehmen aus der Automobil- und Finanzwirtschaft, dem Gesundheitswesen und anderen Branchen heute in die Taschen greifen, um den „Alten“ am Leben zu halten.

Ein weiterer Punkt der Contra-Fraktion: nicht die Mainframes, sondern die Spezialisten, die sich mit den häufig in COBOL, PL/1 oder Assembler programmierten Legacy-Anwendungen auskennen, sterben allmählich aus. Und Nachwuchskräfte sind rar. Studienangebote für diese traditionellen Programmiersprachen gibt es kaum, oder sie werden nicht angenommen. Zu unattraktiv ist die Aussicht, komplexen Programm-Code mit einem Umfang von mehreren Millionen Zeilen in einer antiquiert anmutenden 3270-Umgebung zu entwickeln.

Rehosting bisher zu riskant

Mithin steigt der Handlungsdruck der Verantwortlichen, im Zuge des digitalen Wandels die geschäftskritischen Mainframe-Applikationen zu modernisieren, um sie beispielsweise für den Cloud-, Virtual Data Center- oder mobilen Einsatz bereitzustellen. Dabei haben Legacy-Anwendungen zwei entscheidende Nachteile: sie sind häufig technologisch veraltet, und sie lassen sich aus ihrer abgeschotteten Mainframe-Umgebung nicht in die digitalen Welt überführen.

In der Tat waren IT-Maßnahmen, wenigstens einen Teil der Legacy von der Mainframe abzutrennen und die Anwendungen in eine offene, zukunftsfähige Systemumgebung zu migrieren, bislang von geringem Erfolg gekrönt, dafür aber mit erheblichen Risiken verbunden. Dies zeigt sich an einer Vielzahl gescheiterter Projekte in der Vergangenheit mit dramatischen Laufzeitüberschreitungen und hohen Kosten ohne klar erkennbaren ROI.

Die Hauptursachen für die unbefriedigenden Projektergebnisse liegen in den bisher eher begrenzten Umsetzungsmöglichkeiten des sogenannten „Legacy Rehosting“. Denn es gab bislang lediglich zwei, relativ brachiale Migrationsoptionen: entweder ein komplettes Re-Engineering, also eine Neu-Entwicklung bestehender Legacy-Anwendungen oder die Übersetzung von Legacy Programm-Code in eine moderne Programmiersprache.

 

Der Software Defined Mainframe – das Beste aus zwei Welten

Seit einigen Jahren setzt sich jedoch, basierend auf innovativer Technologie, zunehmend ein neuer Ansatz durch: die Migration von Legacy Systemen auf einen so genannten Software Defined Mainframe (SDM). Vereinfacht gesagt handelt es sich dabei um eine Softwarelösung, die simuliert, ein Mainframe zu sein. Sie ermöglicht Anwendern einen weitgehend automatisierten 1:1 Transfer von Legacy-Applikationen – inklusive Geschäftslogik – vom Mainframe in eine offene x86-Umgebung. Dabei wird der Quellcode der Altanwendung über File Transfer mittels eines Compilers automatisch in den zeitgemäßen ASCII (American Standard Code for Information Interchange) Code übersetzt.

Der Einsatz dieser Methode ist ausgesprochen komfortabel. In erster Linie macht sie eine manuelle Anpassung des Programm-Codes überflüssig, was den Zeitaufwand enorm reduziert. Zusätzlich weist die Migrationssoftware so genannten „toten“ oder „missing“ Programmcode aus. Dies kann den Umfang der Programmcodes erheblich verschlanken. Finanzdienstleister GE Capital beispielsweise migrierte sein Portfolio Management Systems (PMS), eine typische über 30 Jahre gewachsenen Legacy-Anwendung, auf die SDM-Lösung „OpenFrame“ von TmaxSoft. So konnte das Finanzunternehmen den Programm-Code der Anwendung von 71 Millionen auf 16 Millionen Zeilen und die Kosten um 66% reduzieren.

OpenFrame-Anwendungsmodell

Die migrierten Anwendungen können sowohl von Mainframe-Spezialisten als auch von Programmierern ohne Mainframe-Kenntnisse betreut und weiterentwickelt werden. Denn moderne SDM-Lösungen stellen alle Dateien, Datenbanken, Transaktions-Monitoring und Job Entry Systeme für Mainframe-Spezialisten exakt im Look & Feel ihrer gewohnten 3270 Interface dar, während den Experten neuerer Programmiersprachen eine zusätzliche, grafische Benutzeroberfläche zur Verfügung steht. Damit verbindet der SDM zwei Entwickler-Generationen, die nun gemeinsam an der Modernisierung der Unternehmensanwendungen arbeiten können. Auch das Problem des Fachkräftemangels bei Mainframe-Spezialisten wird so entschärft.

Darüber hinaus verspricht SDM signifikante technische und wirtschaftliche Vorteile: Einerseits können sämtliche Legacy-Applikationen für die Cloud und digitale Anwendungsbereiche, zum Beispiel den Aufbau von Virtual Data Centers, erweitert werden. Zum anderen werden die Anwendungen unabhängig von der Mainframe-Infrastruktur, was erhebliche Kosteneinsparungen ermöglicht. Der dritte und vielleicht bahnbrechende Vorteil aber ist, dass die Anwendungen beim Umzug in eine moderne, offene x86 Systemumgebung die viel gerühmte Leistungsfähigkeit und Zuverlässigkeit einer Mainframe-Applikation beibehalten.

Unternehmen können, wie beim Beispiel GE Capital beschrieben, auch schrittweise nur bestimmte Applikationen, wie eine Legacy Datenbank, vom physischen auf den virtuellen Mainframe-Server zu migrieren. Fortschrittliche SDM-Lösungen bieten verfügen über Übersetzungs-Tools (Compiler), die den Quellcode bi-direktional übersetzen. So kann Programmcode auch über das GUI in JAVA bearbeitet und, sofern notwendig, wieder auf den Mainframe zurückgespielt werden. Allein die Migration von Teilbereichen der Mainframe Legacy-Anwendungen kann bereits zu enormen Leistungsverbesserungen und Kosteneinsparungen führen.

 

Open Frame: OF-Studio Programmierumgebung

Keine faulen Kompromisse in der IT-Planung

Viele Mainframe-Anwender scheuen nach wie vor das Wagnis einer teilweisen oder gänzlichen Abtrennung ihrer Legacy vom Mainframe. Mehr oder weniger notgedrungen werden die „Altlasten“ in zukunftsorientierte Digitalisierungsprojekte eingeplant. Ein technisches Oxymoron! Zudem bleibt fraglich, ob diese Entscheidung nicht lediglich eine Verlagerung von Risiken und Kosten bedeutet. Denn wie schon gesagt, Legacy-Anwendungen sind in Sachen Cloud und Virtualisierung alles andere als flexibel. Und wer soll die Modernisierung vornehmen, wenn immer mehr spezialisierte Fachkräfte fehlen?

Bestenfalls kann das Beibehalten des Altbewährten nur ein Aufschub für eine grundlegend notwendige Veränderung in der IT-Infrastruktur sein. Denn die Digitalisierung verlangt von der IT vor allen Dingen schnelle Anpassungsfähigkeit, Agilität und Flexibilität. Nur so können Unternehmen ihre Wettbewerbsfähigkeit und ihren Erfolg in der digitalen Geschäftswelt auf lange Sicht sicherstellen.

Der Software defined Mainframe ist sowohl aus technologischer wie wirtschaftlicher Sicht, vor allem aber mit Blick auf die Machbarkeit eine komfortable Alternative zur herkömmlichen Modernisierungspraxis bei Altsystemen.


weiterführende Informationen:
TmaxSoft

 

Über den Autor:

 

Thomas Hellweg

 

Thomas Hellweg ist Vice President und Geschäftsführer des Enterprise Applications Anbieters TmaxSoft und verantwortet die Expansion des Unternehmens in Deutschland, Österreich sowie in der Schweiz und Luxemburg. Er verfügt über umfassende Erfahrung im Bereich relationaler Datenbank-Managementsysteme. Vor seiner Berufung zu TmaxSoft war Hellweg u.a. bei Oracle, IBM, Insight Technology und Microsoft tätig.

 

 

 

TmaxSoft Inc. ist ein globaler Software-Innovator mit Fokus auf Cloud-, Infrastruktur- und Legacy-Modernisierung. TmaxSoft entwickelt Lösungen, die CIOs tragfähige Alternativen zur Unterstützung ihrer globalen IT-Infrastruktur bieten und damit Wettbewerbsvorteile für Unternehmen sichern. Die Legacy-Rehosting-Lösung OpenFrame ermöglicht die Migration aller Anwendungen, Ressourcen und Daten von Mainframe-Systemen auf ein kostengünstigeres, hochleistungsfähiges Open- oder Cloud-System bei minimalem Migrationsrisiko und effektiver TCO-Reduzierung. Tibero ist eine der leistungsstärksten Unternehmens-RDBMS für das Virtual Data Center. Als weltweit erster Web Application Server mit J2EE 1.4, JAVA EE 5 und JAVA EE 6 Zertifizierung bietet JEUS verbesserte Sicherheit gegenüber traditionellen Web Application Servern. TmaxSoft wurde 1997 in Südkorea gegründet und beschäftigt heute über 1.000 Mitarbeiter in 20 Strategiezentren weltweit. Der Hauptsitz des Unternehmens befindet sich in Chicago.

Aufmacherbild / Quelle / Lizenz
Network / pixybay / CC0 Creative Commons

 

 

 

 

 

Quelle:

[1] https://www.computerwoche.de/a/ibm-stellt-neue-mainframe-generation-z13-vor,3092009

Hypermotion

Messe Frankfurt etabliert neues Veranstaltungsformat für neue Geschäftsmodelle im Bereich Mobilität und Logistik

Die Fachmesse mit begleitenden Kongressen zu intelligenten Systemen und Lösungen für Verkehr, Mobilität, Logistik und digitaler Infrastruktur findet am 20. – 22. November 2017 in Frankfurt am Main statt.

Unser Verkehrssystem steht vor einem radikalen Wandel.
Angetrieben durch Digitalisierung und Dekarbonisierung fallen die Grenzen zwischen Logistik, Mobilität, Infrastruktur, Verkehr und Transport. Es entstehen neue, vernetzte, integrierte und multimodale Systeme und Lösungen.

Um diese Veränderungen abzubilden und ihre Auswirkungen auf Wirtschaft und Gesellschaft zu diskutieren, hat die Messe Frankfurt die Hypermotion ins Leben gerufen.
Damit schließt die Messe Frankfurt im Geschäftsbereich Mobility & Logistics eine Lücke im nationalen und internationalen Messemarkt:
Es entsteht die erste eigenständige Plattform für die digitale Transformation im Verkehrsbereich als übergeordnetes Leitthema. Dazu erklärt Detlef Braun, Geschäftsführer
der Messe Frankfurt: „Die aktuelle Branchenentwicklung zeigt, dass Grenzen zwischen Logistik, Mobilität, Infrastruktur, Verkehr und Transport überwunden werden müssen.

Vor diesem Hintergrund wagt die Messe Frankfurt ein völlig neues Veranstaltungsformat. Einen Mix aus Ausstellung, Konferenzen, Pitches, Talks und Hackathon. Neue Geschäftsmodelle stehen im Fokus und der Austausch und die Vernetzung aller Teilnehmer.“

 

Vielfalt an Ausstellern

Zu den Ausstellern der Hypermotion gehören etablierte Unternehmen aus der Verkehrs- und Logistikbranche genauso wie mittelständische und kleine Unternehmen wie Start-ups, Mobilitätspioniere und Entrepreneure.
Mit dabei sind Brose, Contact2Car, DB Netze, Drivee, Framo, Hamburger Hochbahn, PTV Group, Rhein-Main –Verkehrsverbund, SICK, Signon Deutschland, SSI Schäfer und Teradata.
Bosch Service Solutions, Loadfox, RWTH Aachen, UPS und TÜV Rheinland haben ebenfalls ihre Teilnahme bestätigt.
In Kooperation mit der Hessen Trade and Invest GmbH und MoWiN.net organisiert die
House of Logistics and Moblity GmbH (HOLM) einen hessischen
Gemeinschaftsstand zum Thema Digitalisierung.

Hackathon, Pitches, Talks und Messeförderung
für Start-ups

Unter dem Motto „Next Generation Mobility“ bringt die Hypermotion die neue Generation an Soft-, Hardware- und UX-Spezialisten zusammen, die mit ihren innovativen Konzepten den Markt erobern wollen. Developer, Designer und Strategen können beim Hackathon an realen
Challenges arbeiten, dabei mit modernster Technik experimentieren und ihre Skills im Wettbewerb um attraktive Preise messen.

Start-up Pitches bieten Entrepreneuren und Visionären die passende Bühne, um ihre disruptiven Ideen vor einer renommierten Jury zu präsentieren. Informative und gleichermaßen unterhaltsame Talks liefern weitere Impulse. Zusätzlich können sich junge deutsche Unternehmen auf einem Start-up Areal zu besonders günstigen Konditionen
präsentieren. Mehr Informationen zur Messeförderung finden Sie hier.

Neue digitale Geschäftsmodelle

Eine Reihe von Start-ups haben neue digitale Geschäftsmodelle entwickelt, die sie auf der Hypermotion präsentieren. Mit dabei ist z.B. das Münchner Technologie Start-up Loadfox – die Mitfahrzentrale für Fracht. Für das veränderte Konsumentenverhalten und die gestiegenen Kundenanforderungen an die Logistik wie On-Demand und Same-Day
Delivery hat Mesaic Technology GmbH eine Kommunikationsplattform entwickelt.
Das Berliner Start-up M2MGo hat sich dem Thema „einfacher und schneller Vernetzung“ verschrieben, um Rohdaten in Echtzeit zu verarbeiten und dafür ein Enterprise-Content-Management-System entwickelt.

Die Veranstaltung steht unter der Schirmherrschaft des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI) und des Landes Hessen, vertreten durch das Hessische Ministerium für Wirtschaft, Energie, Verkehr und Landesentwicklung (HMWEVL) und
wird von allen großen deutschen Verkehrs- und Mobilitätsverbänden unterstützt.

 

DAM Lab

DAM Lab – Fünf internationale Architekturbüros thematisieren die neue Mobilität, neue Wohnformen und ihre regionale Einbindung
Im Sommer 2018 wird im Deutschen Architekturmuseum (DAM) Frankfurt die Ausstellung „Living the Region“ präsentiert. Die Ausstellung fokussiert die Entwicklung der Metropolregion FrankfurtRheinMain unter der übergeordneten These ‚Gestaltung matters‘: Gute Gestaltung ist ein wesentlicher Faktor für eine erfolgreiche Integration der vielfältigen
Ansprüche an die Region. Gestalter, Architekten, Planer und Designer sind aufgefordert, anschauliche Visionen für die Metropolregion zu entwickeln.

Konkrete Zukunftsbilder für die Region werden im Herbst 2017 in einem Workshop (DAM Lab) im Rahmen der Hypermotion 2017 vorbereitet. Internationale Planer, Gestalter und
Architekten entwickeln für charakteristische Gebiete der Region integrative Visionen neuer Wohn- und Siedlungsformen in Verknüpfung mit neuen, nachhaltigen Mobilitätsformen. Mit Blick auf das Wachstum der Region drehen sich Fragen um die Integration, Stärkung und
Erweiterung von Freiräumen und besiedelten Flächen, dabei entstehen Lösungsansätze zur Entwicklung der vernetzten, hypermodalen Region von übermorgen.

Konferenzserie zu den Themen Digitalisierung, ITS und Intermodalität

Smarte Vernetzung steht nicht nur im Ausstellungsbereich der Hypermotion im Fokus: In der begleitenden Konferenzserie zu den Themen Digitalisierung, ITS (Intelligente Transport-Systeme) und Intermodalität regen mehr als 150 renommierte Redner und Partner zum
Wissensaustausch und Networking an.
Den Auftakt bildet am 20. November die etablierte 5. ZEIT Konferenz Logistik & Mobilität unter dem Titel „Digitalisierung, Disruption, Dekarbonisierung“ mit hochkarätigen Referenten wie Prof. Dr. Johann-Dietrich Wörner, Generaldirektor der Europäischen Weltraumorganisation (ESA), Dr. Frank Appel, Vorsitzender des Vorstands der Deutschen Post AG, Dr. Sigrid Evelyn Nikutta, Vorstandsvorsitzende und Vorstand Betrieb der Berliner
Verkehrsbetriebe (BVG).

Parallel dazu finden beim VISION mobility Think Tank mehrere Talkrunden zu den Themen Connectivity, Hypermodality und Smart Regions statt.

Weitere Fachkonferenzen

Weitere Fachkonferenzen finden am 21./22.11.2017 zu folgenden Themenschwerpunkten statt:

• Forum Public Mobility: Digital Challenges
• 1. ITS Deutschland Kongress
• Fraunhofer Mobility Infusion
• Logistics Digital Conference!
• Aviation Symposium
• Forum ElektroMobilität
• ‚Blisscity – The Smart City Convention‘
• Modernes Mobilitätsmanagement 4.0

Mehr Informationen zu den einzelnen Konferenzmodulen finden Sie hier.

Weiterführende Informationen für Ihre Planung und Vorbereitung finden Sie hier.

 

 

Ihr Kontakt zum Hypermotion Team

Tel. +49 69 75 75-35 49
hypermotion@messefrankfurt.com
www.hypermotion-frankfurt.com
www.messefrankfurt.com

Managed Security Services sind im Kommen

Frequenz und Komplexität von Cyber-Angriffen nehmen stetig zu. Unternehmen sind kaum mehr in der Lage, auf die verschärfte Bedrohungslage ausreichend zu reagieren. Eine gute Lösung bieten Managed Security Services (MSS), die noch zurückhaltend genutzt werden. Allerdings setzt ein Umdenken ein.

Nach wie vor geht mehr als die Hälfte der Unternehmen in Deutschland und Österreich davon aus, dass sie vor Sicherheitsvorfällen nicht ausreichend geschützt sind. 52 Prozent rechnen mit einer bevorstehenden Verletzung der Informationssicherheit. Das ergibt der aktuelle Risk:Value-Report, der jährlich vom Marktforschungsunternehmen Vanson Bourne im Auftrag von NTT Security erstellt wird und bei dem weltweit 1.350 Entscheider zum Thema IT-Sicherheit befragt werden.

Bei der Bewältigung der Herausforderungen in puncto Sicherheit lässt ein zartes Umdenken jedoch hoffen. Es zeigt sich, dass die Investitionen der Unternehmen in die IT-Sicherheit zunehmen: mit einer Steigerung zum Vorjahr von 11 Prozent auf 15 Prozent des IT-Gesamtbudgets.

Die Studie zeigt außerdem, dass Managed Services im Bereich Security im Kommen sind. Aktuell nutzen nur 3 Prozent der befragten Unternehmen in Deutschland und Österreich einen solchen Service, doch planen 44 Prozent in naher Zukunft und 25 Prozent in ferner Zukunft, auf Managed Security Services Provider (MSSP) zurückzugreifen.

Haupttreiber für die Orientierung hin zu MSSP-Lösungen sind vor allem der Zugriff auf Expertenwissen (29 Prozent) und der Mangel an ausreichend interner IT-Security-Expertise (25 Prozent). Die Nutzung rasant beschleunigen wird die ab Mai 2018 in allen EU-Mitgliedsstaaten in Kraft tretende neue Datenschutz-Grundverordnung mit den Vorgaben hinsichtlich Datenklassifikation und Datenmanagement. So wollen 42 Prozent der befragten deutschen und österreichischen Unternehmen MSS für den Bereich Datenmanagement einsetzen.

MSS bieten proaktiven Schutz

Unternehmen können heute einen umfassenden Schutz vor Cyber-Angriffen kaum völlig autark realisieren, da zum einen die Bedrohungslage zu heterogen und dynamisch und zum anderen der Kostenaufwand zu hoch ist. Die Lösung lautet: Nutzung von Managed Security Services. MSS-Anbieter betreiben Security Operations Center (SOC) als proaktive Abwehrzentren für Unternehmen, in denen unter anderem die Früherkennung von Angriffen erfolgt.

Die Plattform der NTT Security nutzt hier zum Beispiel eine hochmoderne Advanced Analytics Engine auf Basis multipler Verfahren des maschinellen Lernens und kombiniert dies mit hochperformanten Korrelationsverfahren, einer globalen Threat-Intelligence-Plattform und den Analysen der Security-Experten und Threat-Hunting-Teams in den globalen und lokalen Security Operations Centern. Durch die Verbindung von hochgradiger Automation und Expertise können Milliarden von Sicherheitsinformationen ausgewertet und die konkreten Angriffe und Bedrohungen identifiziert und proaktiv behandelt werden. Dabei ist es unerheblich, ob es sich um bekannte oder unbekannte Angriffstypen handelt – denn die Verhaltensmuster beider Typen ähneln sich – oder die Ereignisse zeitlich getrennt voneinander auftreten, die automatisierten Verhaltensmodellierungsverfahren sind in der Lage, diese zu identifizieren.

Betrachtet man die Komplexität heutiger IT-Landschaften und Raffinesse der Angreifer bei gezielten Angriffen, lässt sich mit Fug und Recht sagen: Man findet durch intelligente Managed-Security-Lösungen die Nadel im Heuhaufen – in Echtzeit, um Unternehmen in die Lage zu versetzen, rechtzeitig adäquate Gegenmaßnahmen zu initiieren.

Es ist für Unternehmen heute nahezu unmöglich, mit den global operierenden Angreifern Schritt zu halten. Die Einführung notwendiger Technologien zur Überwachung – welche Technologie ist in dem Wirrwarr an Angeboten überhaupt die richtige? –, die kontinuierliche Pflege, die zielgerichtete und zeitnahe Umsetzung sicherheitsrelevanter Konfigurationen sowie der Aufbau eines Expertenteams zur Abdeckung eines 7×24-SOC-Betriebes stellen eine Herkulesaufgabe dar. Es wundert daher nicht, dass immer mehr Unternehmen den Einsatz von externen Anbietern in Betracht ziehen.

Die zusätzlichen Anforderungen und zeitliche Kritikalität, die aus der EU-Datenschutz-Grundverordnung resultieren, erfordern zusätzliche Kapazitäten und werden ihr Übriges zur Belastung in Security-Abteilungen beitragen. All dies wird die Nachfrage nach Managed Security Services – wie in dem Risk:Value-Report erfasst – kurzfristig weiter nachhaltig erhöhen. Selbst etliche große Unternehmen mit viel IT-Know-how und Manpower haben den MSS-Weg bereits eingeschlagen. Folglich werden auch mittelständische Unternehmen kaum mehr daran vorbeikommen, es sei denn, sie nehmen entweder erhebliche Sicherheitsrisiken in Kauf oder sind bereit, über das bisherige Maß hinweg in IT-Security zu investieren.

Die Personalisierung im Blick

Marketing-Teams müssen sich voll und ganz auf den Kunden konzentrieren. Dazu müssen sie sämtliche Möglichkeiten nutzen, welche die Digitale Transformation bietet. Insbesondere auf die Personalisierung sollte Wert gelegt werden. Commanders Act verfolgt hierbei einen innovativen Ansatz, der direkt den Kunden mit dem E-Commerce-Anbieter in Relation setzt und es ermöglicht, Kundenbewegungen in Echtzeit auszuwerten. Timo von Focht ist seit Anfang 2015 für das Deutschland-Geschäft von Commanders Act zuständig. Wir haben ihn im Nachgang der dmexco zu aktuellen Herausforderungen im E-Commerce befragt.

Herr von Focht, welche Hürden müssen z.B. Online-Händler heute meistern um ein kundenzentriertes Marketing aufzubauen?
Mit über 5.000 Marketinglösungen und einer immer größer werdenden Anzahl an Kanälen wird es für Online-Händler immer schwieriger, konsistente Daten über die verschiedenen Interaktionspunkte mit einem Kunden zu sammeln, zu integrieren und in Echtzeit aktivierbar zu machen. Zudem gibt es ab 2018 verschärfte Datenschutzbestimmungen mit hohen Bußgeldern bei Nichtbeachtung, welche dazu führen werden, dass viele Händler ihre Online-Strategie sowie einen Großteil ihrer bisherigen Marketingaktivitäten neu überdenken müssen.

Was raten Sie Unternehmen, die bisher auf Massen-Marketing gesetzt haben?
Das „Gießkannenprinzip“ des vorherigen Jahrhunderts, bei dem man mit TV- und Printwerbung eine hohe Anzahl potenzieller Käufer erreichen konnte, funktioniert schon länger nicht mehr. Die Personalisierung der Nutzeransprache und kundenzentrisches Marketing sind in aller Munde. Doch trotz der nachweisbar hohen Erfolgsraten, die eine Personalisierung der Nutzeransprache nach sich zieht, findet diese Personalisierung – wenn überhaupt – nur punktuell pro Kontaktpunkt oder Kanal statt, nicht jedoch übergreifend im Kontext der gesamten Customer Journey. Diese sollte man im Blick haben. Denn was Nutzer heute an Werbung am meisten stört ist die Redundanz bzw. das Spammen mit Informationen, die für den User irrelevant sind. Gleichzeitig ist es oft eine Kostenfrage, ob man versucht, Kunden, die nicht konvertieren, weiter mit Marketing-Euros zu erreichen. Zusätzlich könnte man alle, die mit hoher Wahrscheinlichkeit etwas im Shop kaufen werden, über Retargeting-Maßnahmen ansprechen.

Timo von Focht, Country Manager bei CommandersAct: „Unsere Retail-Kunden bezeugen eine deutliche Steigerung in der Conversion.“

Timo von Focht, Country Manager bei CommandersAct: „Unsere Retail-Kunden bezeugen eine deutliche Steigerung in der Conversion.“

Wie wirkt sich die personalisierte Kundenansprache auf den Umsatz aus?
Unsere Retail-Kunden bezeugen enorme Steigerungsraten in Bezug auf Konversionen und Umsatz. So konnte zum Beispiel der Modehändler Promod die Performance der Online-Kampagnen um das Vierfache steigern. Ähnliche Verbesserungsraten erzielten auch andere Retail-Kunden in Punkto personalisierte E-Mail-Ansprache der Nutzer. Die Einführung von Personalisierungslösungen wie einer Customer Data Plattform zahlt sich also in jedem Fall aus.

Welche Schnittstellen zu den gängigen CRM-Systemen und sozialen Netzwerken bieten Sie an?
Unsere Customer Data Plattform „Data Commander“, also unsere interne Data-Management-Plattform, bietet Anbindungsmöglichkeiten zu allen gängigen CRM-Lösungen, sofern diese über eine Schnittstelle verfügen. Wir helfen unseren Kunden aktiv beim „Onboarden“, also der Zusammenführung der CRM-Daten, so dass die Daten technisch sauber und datenschutzkonform übergeben werden. Über sogenannte Data Streams können diese aggregierten Segment-Daten in Echtzeit den verschiedensten Online-Marketing, Targeting- und Marketing-Automation-Lösungen übergeben werden. Die Attributionslösung „Mix Commander“ bietet zudem Kostenimport-Schnittstellen zu allen großen sozialen Netzwerken wie Facebook, Instragram etc. an, so dass diese Kosten automatisiert in die Berechnung des ROAS (Return on Advertisement Spent) oder der Kosten-Umsatz-Relation einfließen können.

Welche Möglichkeiten bestehen zur Kampagnenauswertung?
Mit der Attributionslösung Mix Commander kann die Performance jeder digitalen Kampagne mit einer Vielzahl an Metriken und bezüglich unterschiedlichster Attributionsmodelle gemessen werden. In den Dashboards und Reportings können Analysen pro Endgerät, pro Customer Journey (auf Nutzerlevel) oder pro Conversion getätigt werden. Zudem ermöglicht die Lösung Cross-Device-Tracking und kanalübergreifende Attribution (z.B. Online-Offline) um eine 360-Grad-Sicht über jede Customer Journey zu bekommen.

Wie sieht heute eine zeitgemäße Cookie-Technologie aus und was sollte sie leisten?
An der Cookie-Technologie hat sich aus meiner Sicht in letzter Zeit nicht viel geändert – sie steht aber aktuell aufgrund der neuen ePrivacy-Richtlinie der EU, die derzeit in Brüssel diskutiert wird, auf dem Prüfstand. Man sollte seine Marketingstrategie daher nicht (nur) auf Cookies aufbauen, sondern auf Kundenprofilen und anderen Identifizierungsmerkmalen. Cookies helfen der Branche derzeit noch beim Cross-Device-Tracking, durch anonyme Cookie-IDs können Kundendaten einander geräteübergreifend zugeordnet werden. Ganz ohne Cookies kommt das Ad-Business noch nicht aus, wenn es um die personalisierte Kundenansprache geht.

Welche Trends konnten Sie auf der diesjährigen dmexco ausmachen?
Wie es scheint, sind alle Besucher inzwischen in der „Digitalen Transformation“ angekommen. Dieses Buzz-Word ist mittlerweile mehr als ein Trend. Statt neuer Entwicklungen wie Künstliche Intelligenz, Voice Interfaces oder komplexere Algorithmen war der diesjährige Tenor der Besucher eher verhalten: Erst einmal soll das umgesetzt werden, was geplant ist. Um mit der US-Konkurrenz mitzuhalten, müssen deutsche Unternehmen einige Herausforderungen meistern: Sie müssen ihre Online-Shops hinsichtlich Personalisierung und Privacy für 2018 fit machen – und das trotz begrenzter Ressourcen und komplexen internen Neustrukturierungen.

Über Timo von Focht

Timo von Focht ist seit Anfang 2015 als Country Manager DACH bei Commanders Act für den Aufbau des Münchener Büros und die deutschen Kunden zuständig. Zuvor war er Senior Enterprise Account Manager für die strategischen Kunden von Adobe in Deutschland. Weitere Stationen lagen im Bereich Website Optimierung und Analytics. Er beschäftigt sich seit 10 Jahren mit den Themen Big Data, Web Intelligence und Digital Marketing.

Kleinkredite online beantragen – pro und contra

Wenn Privatpersonen, Existenzgründer und Jungunternehmer Fremdkapital benötigen, stehen sie häufig vor der Frage: Kleinkredit oder klassischer Ratenkredit? Ein Kleinkredit bietet gegenüber Konsumenten- oder Ratenkrediten sowie auch im Vergleich zum Dispokredit entscheidende Vorteile. Bemerkenswert ist dabei vor allem das Plus an Flexibilität. Ganz gleich, ob es um kleinere Beträge geht oder um eine Kreditsumme von bis zu 5.000 Euro – bei renommierten Anbietern erhalten potenzielle Kreditnehmer meist unverzüglich eine Antwort auf ihren Kreditantrag. So erfolgt eine Zusage oder eine Ablehnung stets in Echtzeit. Zudem ist nach einer erfolgreichen Bewilligung eine Sofortauszahlung meist gewährleistet. Das angeforderte Fremdkapital ist daher noch am selben Tag auf dem Konto des Verwenders. Die kurzen Bearbeitungs- und Auszahlungsmodalitäten sprechen außerdem für sich. Positiv hervorzuheben ist die Tatsache, dass keine Vorkosten und keine Bearbeitungsgebühren in Rechnung gestellt werden. Alles gestaltet sich transparent und sehr verbraucherorientiert.

Kostenbewusste Kreditnehmer profitieren in vielerlei Hinsicht

Wer bei einer Filialbank vor Ort oder bei vielen anderen Online-Banken einen Kredit beantragt, der muss in der Regel mit einem Eintrag ins Schufa-Register rechnen. Dies wirkt sich oft nachteilig auf die Kreditwürdigkeit des Verbrauchers aus. Somit ist es meist nicht ohne Weiteres möglich, bei einer anderen Bank einen Kredit zu beantragen. Bei einem Kleinkredit profitiert der Antragsteller von dem Vorzug, dass eben keine Eintragung in das Schufa-Register erfolgt. Apropos Schufa: Selbst Personen mit mittlerer Bonität haben diesbezüglich oft die Chance, einen Kleinkredit zu erhalten. Der Anbieter Vexcash beispielsweise gewährt auf Wunsch eine so genannte 2-Raten-Option, wobei der Kunde von einer verlängerten Kreditlaufzeit von bis zu 60 Tagen profitiert. Besonders attraktiv ist das Video-Ident-Prozedere, welches eine zeitnahe Überprüfung der Personalien ermöglicht und damit den Bearbeitungsvorgang beschleunigt.

Online-Kredite für Jedermann?

Nicht jeder interessierte Kreditnehmer hat die Möglichkeit, einen Kleinkredit in Anpruch zu nehmen. Es müssen bestimmte Voraussetzungen erfüllt sein. Der Antragsteller sollte mindestens das 18. Lebensjahr vollendet haben und eine gute bis mittlere Bonität vorweisen. Ein monatliches Mindesteinkommen von 500 Euro ist eine weitere Voraussetzung. Außerdem sollte er über ein deutsches Bankkonto verfügen. Klassische Online-Kredite werden zudem vornehmlich gewährt, wenn der Interessent eine sozialversicherungsbeschäftigte Tätigkeit vorweisen kann. Liegt sogar ein Festvertrag zu Grunde, erhöht sich die Chance auf den begehrten Kredit. Fremdkapital ist nicht nur für Arbeitnehmer, sondern auch für Existenzgründer, Jungunternehmer und erfahrene Geschäftsleute ausgesprochen attraktiv. Gewerbetreibende verfügen allerdings in der Regel nicht über ein fixes Einkommen, wie es bei Angestellten üblicherweise der Fall ist. Dennoch besteht auch für diese Zielgruppe häufig die Option, einen Kleinkredit bewilligt zu bekommen.

Die Vorteile von Kleinkrediten

Bei vielen Anbietern von Kleinkrediten beträgt die kleinste mögliche Kreditsumme 100 Euro. Der Höchstbetrag in dieser Kategorie beläuft sich auf 5.000 Euro. Kleine Kreditbeträge bieten unter anderem den Vorteil, dass die damit verbundenen Zinsen gering und auch die vertraglichen Laufzeiten sehr verbraucherorientiert gestaltet werden können. Ein echtes Plus sind in dem Zusammenhang die Laufzeiten von bis zu 60 Tagen. Vexcash ermöglicht es dem Kunden, bei Bedarf die Zwei-Raten-Option zu wählen, sodass sich die Kreditlaufzeit auf 60 Tage verlängern lassen kann. Wer sich für dieses Angebot entscheidet, der kann den beantragten Kredit in drei, vier, fünf oder sechs Raten zurückzahlen. Nach Erfüllung der Rückzahlungsverpflichtungen gehören diese Belastungen der Vergangenheit an.

Buchtipp: Erfolgreicher Entrepreneur – so geht’s

Unternehmer braucht das Land!

Doch wie unterscheiden sich erfolgversprechende von weniger guten Geschäftsideen? Worauf sollten Entrepreneure bei der Markteinführung achten? Und wie kann es schließlich gelingen, ein Geschäftsmodell zu etablieren?

Das Lehrbuch „Entrepreneurship“ bietet Studenten der entsprechenden Studiengänge sowie angehenden und aktuellen Entrepreneuren reichen Stoff zum Thema.
Dabei liegt neben den theoretischen Grundlagen ein Fokus auf der praktischen Umsetzung und zahlreichen Cases.

Themenfeld

Unternehmerisches Denken, Entscheiden und Handeln in innovativen und technologieorientierten Unternehmungen – dieses Themenfeld behandelt das Schäffer-Poeschel-Lehrbuch „Entrepreneurship“ von Prof. Dr. Dietmar Grichnik, Prof. Dr. Malte Brettel, Christian Koropp und René Mauer.

Die Autoren geben einen fundierten Überblick der internationalen Forschung sowie Best-Practice-Beispiele zum Entrepreneurship. Ziel des Lehrbuchs ist es, die Befähigung zur Entwicklung neuer Geschäftsmodelle von der Geschäftsidee über die Frühphase bis zur Markteinführung und Etablierung zu vermitteln.

Lehrbuch

Das Lehrbuch kann nicht nur bei der Gründung von Unternehmen sowie für junge, wachsende Unternehmen eingesetzt werden. Es eignet sich auch in etablierten Betrieben und Non-Profit-Organisationen zur Implementierung unternehmerischer Denk- und Handlungsmuster. Vor allem Studierenden werden die Fallstudien nützlich sein, die der Leser unter Zuhilfenahme von Leitfragen selbstständig erarbeiten kann.

Das Buch berücksichtigt darüber hinaus aktuelle Themen und Methoden wie den Lean-Startup-Ansatz, Crowdfunding und -sourcing, unternehmerische Ökosysteme sowie Digitalisierung und Vernetzung.
Online stehen Buchkäufern weitere Materialien zur Verfügung.

 

 

 

 

 

Buchdetails:

Grichnik/Brettel/Koropp/Mauer
Entrepreneurship
2. Auflage 2017. 498 S. Broschur
Euro 39,95/Euro (A) 41,10
Verlag: Schäffer-Poeschel
ISBN 978-3-7910-3659-5

 

 

 

 

 

 

 

 

 

weitere Informationen und Bestellmöglichkeit unter:
Prospero GmbH
Presse-und Öffentlichkeitsarbeit
www.prospero-pr.de

 

Ansprechpartner
Carsten Beck

Tel: 089 27 33 83 15
Fax: 089 27 33 83 29
Müllerstraße 27
80469 München

Neue Fintech-Studie: Das Wachstum hält an

  • Aktuell gibt es 699 Fintech-Start-ups in Deutschland
  • 2016 kamen jede Woche drei neue Fintech-Start-ups hinzu
  • Wachstumsdynamik geringer als in den Vorjahren

Quickborn, 06.10.2017. Das Wachstum der deutschen Fintech-Szene hält an: 699 Start-ups aus dem Finanzbereich sind derzeit in der Bundesrepublik beheimatet. Das ist ein Plus von 32 Prozent seit 2015. 579 Millionen Euro konnten diese Unternehmen in den ersten neun Monaten des Jahres einsammeln. Damit liegt die Höhe des Venture Capitals bereits jetzt fast auf dem Niveau des gesamten Vorjahres (624 Millionen Euro). Zu diesen Ergebnissen kommt die aktuelle comdirect Fintech-Studie.

Die Geschwindigkeit, in der die Fintech-Branche in Deutschland wächst, nimmt jedoch deutlich ab. So wurden in 2016 insgesamt 141 Start-ups gegründet – das sind fast drei neue Start-ups pro Woche. Im Jahr davor waren es mit 170 noch deutlich mehr. In 2017 wurden bisher 30 Neugründungen registriert. Die vergleichsweise geringe Zahl hängt damit zusammen, dass viele Gründer aus Angst vor Nachahmern erst spät an die Öffentlichkeit gehen. Eine endgültige Bewertung für 2017 ist daher erst im kommenden Jahr möglich. Dennoch zeichnet sich hier ein erneuter Rückgang ab: Im Vorjahr wurden zum selben Zeitpunkt bereits 49 Gründungen registriert.

Auch beim Investitionsvolumen verringert sich die Wachstumsgeschwindigkeit. Sowohl in 2014 als auch 2015 hat sich die Höhe der Venture-Capital-Investitionen gegenüber dem Vorjahr jeweils mindestens verdoppelt. In 2016 konnten sie immerhin noch um rund 40 Prozent gegenüber dem Vorjahr zulegen. In 2017 wird der prozentuale Anstieg des Investitionsvolumens deutlich darunter bleiben. Auch der Anteil am Gesamtmarkt für Venture Capital hat leicht abgenommen. In 2017 wurde bislang jeder vierte Euro an Venture Capital in ein Fintech-Start-up investiert, im Vorjahr waren es noch 30 Prozent.

„Die große Fintech-Euphorie mag vorbei sein, ein Ende des Wachstums ist jedoch nicht in Sicht“, sagt Arno Walter, Vorstandsvorsitzender von comdirect. Für ihn ist diese Entwicklung ein Zeichen zunehmender Konsolidierung: „Der Fintech-Sektor in Deutschland normalisiert sich auf hohem Niveau.“

Beim Blick auf die einzelnen Sektoren ist der Bereich der Finanzierung nach wie vor dominierend: Die 154 Start-ups aus diesem Bereich konnten 2016 und 2017 insgesamt 28 Prozent des gesamten Fintech-Investitionsvolumens vereinnahmen. Zu diesem Sektor zählen neben Jungunternehmen aus den Bereichen Crowdfunding und Crowdinvesting auch Vergleichsplattformen. Der Bereich Proptech ist mit 178 Startups nominell zwar etwas größer, kommt aber nur auf 13 Prozent des gesamten Fintech-Venture-Capitals. Die höchste Dynamik verzeichnet der Bereich Insurtech. Hier gibt es aktuell 73 Start-ups, das ist ein Wachstum von 70 Prozent gegenüber 2015.

 

Hintergrund zur Studie
Basis der comdirect Fintech-Studie ist Barkow Consultings Fintech Money Map, Deutschlands führende und meistgenutzte Datenquelle für Fintech-Startups und Fintech-Venture Capital. Redaktionsschluss für die Analyse war Ende September 2017. Fintech-Venture Capital-Investitionen werden seit Anfang 2012 erfasst. Fintech-Startups und Gründungen wurden seit 2007 rückwirkend integriert.

Die Daten der Fintech Money Map werden durch kontinuierliche Analyse und Auswertung aller relevanten Nachrichtenquellen und Datenbanken gewonnen. Barkow Consulting setzt dabei auf eine Kombination von Mensch (ca. 3/4 der relevanten Datenpunkte) und Maschine (ca. 1/4 der Datenpunkte). Die Fintech Money Map umfasst derzeit über 700 Startups. Aktuell sind mehr als 800 Risikokapital-Investoren und über 2 Milliarden Euro Venture Capital-Investitionen in der Datenbank erfasst.

 

Ansprechpartner für diese Pressemitteilung:
Geerd Lukaßen
comdirect bank AG, Pascalkehre 15, 25451 Quickborn
Telefon: + 49 (0) 41 06 – 704 13 15
E-Mail: geerd.lukassen@comdirect.de

 

Bildlizenz Aufmacherbild: pixabay, CC0

Bildlizenz „FinTech-Profil: Deutschland“: comdirect bank AG