Innovationskraft wecken

Warum Medizintechnik in Deutschland mehr Kapital und effizientere Regeln braucht, Autorin: Reinhilde Spatscheck, Geschäftsführende Partnerin, SHS Gesellschaft für Beteiligungsmanagement 

Die Medizintechnik gilt zu Recht als wachstumsstarke Industrie und einer der größten Arbeitgeber im Land. Doch die Branche steht vor großen Herausforderungen. Kapital ist knapp, hohe Anforderungen an Zulassung und Erstattung gefährden künftige Innovationen. Die Verantwortlichen aller Seiten müssen zusammenrücken und Lösungen finden, um vor allem auch jungen, innovativen Unternehmen eine Überlebenschance zu geben.
Allein in Deutschland beschäftigt die Branche nach Angaben des Bundesverbandes Medizintechnologie derzeit rund 195.000 Menschen. Der Gesamtumsatz der produzierenden Medizintechnik-Unternehmen legte laut offizieller Wirtschaftsstatistik allein im Jahr 2014 um 3,3 Prozent auf 25,4 Milliarden Euro zu. Dabei präsentieren sich die Medizintechnik-Firmen äußerst innovativ: etwa ein Drittel des Gesamtumsatzes erzielen Unternehmen hierzulande mit Produkten und Technologien, die nicht älter als drei Jahre sind.

Warum der Bedarf steigt

Das sind gute Zahlen, doch schon heute wissen wir, der Bedarf an Gesundheitsdienstleistungen wird weiter steigen. Drei Faktoren sind dafür verantwortlich: Zum einen sind die Auswirkungen des demografischen Wandels längst spürbar. Die Menschen werden immer älter und daher anfälliger für Krankheiten. Allein die Zahl von Volkskrankheiten wie Diabetes oder Chronisch obstruktiven Lungenerkrankungen (COPD) betroffenen Patienten nimmt immer mehr zu. Zweitens lassen sich im Zuge des medizinisch-technologischen Fortschritts heute Krankheiten diagnostizieren, behandeln und heilen, für die dies vor zehn oder zwanzig Jahren noch nicht möglich war. Und schließlich, drittens, wachsen in der Bevölkerung Gesundheitsbewusstsein und das Bedürfnis nach mehr Lebensqualität. Ob Vorsorge, Fitness oder gesunde Ernährung, mit modernen Mitteln der Medizintechnik, etwa durch die große Anzahl an mobilen App-Lösungen, ist eine „Rund-um-die-Uhr“-Versorgung mit individuellen Gesundheitsdaten schon heute nahezu problemlos möglich.

Wohin die Reise geht

Die Entwicklung neuer diagnostischer und therapeutischer Ansätze folgt diesen wachsenden Bedürfnissen und profitiert von technologischen Entwicklungen: So schreitet etwa die Verschmelzung von klassischer Medizintechnik und IT, aber auch von Medizintechnik und Pharma immer schneller voran; die Grenzen der Telemedizin sind noch lange nicht ausgelotet; wir erleben die standortübergreifende Versorgung von Patienten und die Nutzung mobiler Anwendungen; Mediziner können aus der Entfernung Krankheitsverläufe und Medikationen überwachen; Patienten liefern ihre Daten über das Internet an ihre behandelnden Ärzte.

Digitalisierung und „Big Data“ halten Einzug: Moderne Software-Lösungen können Geräte warten und automatisch Ersatzteile bestellen. Es ist zunehmend möglich, große Mengen an komplexen Patientendaten zu sammeln und zu analysieren. Die Zukunft der Personalisierten Medizin rückt näher. Basierend auf der genauen Analyse des Genoms und des Metaboloms könnten künftig Risikoprofile der Patienten und zielgenaue Therapiepläne erstellt werden. Parallel greift eine zunehmende Spezialisierung um sich, vor allem in der Molekulardiagnostik und Sensorik.

Aber all diese Innovationen haben ihren Preis. Die Entwicklung und Einführung neuer Produkte erfordert immer höhere Investitionen. Steigende regulatorische Anforderungen inklusive der Generierung notwendiger klinischer Daten, der Aufbau und die Pflege eines nachhaltigen Qualitätssicherungssystems sowie der häufig lange und damit teure Weg in die Regelerstattung sind gerade für junge und innovative Unternehmen oft nicht mehr finanzierbar. Hinzu kommen große länderspezifische Unterschiede bei diesen Regelungen. So gibt es zwar mit der CE-Kennzeichnung zumindest in Europa ein einheitliches Zulassungsverfahren, aber bereits die Wege in die Regelerstattung unterscheiden sich von Land zu Land erheblich. Eine Zulassung in den USA dauert oft Jahre und kostet Millionen von Dollar und auch China nutzt zwischenzeitlich die protektionistische Wirkung von Zulassungsverfahren aus, um den eigenen Binnenmarkt stärker abzuschotten. Derartige Prozesse stellen bereits große Konzerne vor enorme finanzielle Herausforderungen; für kleinere Unternehmen sind sie kaum noch zu stemmen. Hier wäre ein international einheitlicher, transparenter und zügiger Regulierungsprozess wünschenswert. Denn wenn es um die Sicherheit von Patienten geht, sollte gerade dieser Aspekt in einer globalisierten Welt internationale ähnlich definierbar sein.

Wie wir an Fahrt gewinnen

Doch auch die sogenannten „Payor“ – in Deutschland sind dies zu 90 Prozent die Gesetzlichen Krankenversicherungen (GKV) – müssen ihre Haltung überdenken. Der Versuch, die durch Überalterung und eine Zunahme von chronischen Erkrankungen weiterhin steigenden Kosten im Gesundheitswesen durch die Pönalisierung vor allem neuer Technologien eindämmen zu wollen, erscheint kontraproduktiv. Lange und kostspielige Verfahren verbauen gerade innovativen, neuen Therapieansätzen die Chance, beim Patienten bessere Therapieerfolge zu erzielen und damit Kosten zu senken. Vor allem aber wird der Wettbewerb mit bestehenden Therapien (und Unternehmen) unterbunden. Und es scheint unstrittig, dass eingeschränkter Wettbewerb nicht zu einer besseren, sondern zu einer schlechteren Marktversorgung führt.

Woher das Kapital kommen kann

Medizintechnik-Firmen benötigen folglich immer mehr Kapital, um aufwändige Forschungs- und Entwicklungsarbeiten sowie den erhöhten Aufwand für Zulassung und Erstattung finanzieren zu können. Eine mögliche Finanzierungsquelle, der Zufluss von Venture Capital in Medtech-Start-ups, nimmt aber seit Jahren stetig ab. 2014 wurden weltweit rund 57 Milliarden US-Dollar in Start-ups finanziert, nur 5,9 Prozent davon entfielen laut einer Studie der Wirtschaftsprüfer von EY auf das Medizintechnik-Segment. Ein wesentlicher Grund liegt in der sinkenden Rendite von Medizintechnik-Investments aufgrund der steigenden Aufwendungen, bei tendenziell sinkenden Preisen. Natürlich spielen in Deutschland die im internationalen Vergleich weiterhin nicht wettbewerbsfähigen Rahmenbedingungen für die Venture-Capital-Branche auch eine Rolle, wenn auch nicht die entscheidende. Vielmehr wird es nur dann gelingen, wieder mehr Kapital für innovative Medizintechnik-Unternehmen in Deutschland und weltweit anzuziehen, wenn durch konzertierte Aktionen aller relevanten Marktteilnehmer die derzeit prohibitiv hohen Markteintrittsbarrieren gesenkt oder zumindest berechenbar gemacht werden. Dann, und nur dann, wird mehr Kapital zur Verfügung stehen, um neue Therapien zu entwickeln, die den Patienten zugutekommen, ohne Kosten explodieren zu lassen.

Hand in Hand zum Erfolg

Der Versuch, neuen Herausforderungen allein mit mehr Kapital zu begegnen, ist illusorisch. Ganz im Gegenteil: Kapital ist mobil, zwischen Anlageklassen, Ländern und Branchen. Nachhaltig schwächere Renditen eines Segments führen zu Abwanderung von Kapital.
Wie könnte also eine derartige konzertierte Aktion für die Medizintechnik aussehen, die eine nachhaltige Verbesserung der Situation junger, innovativer Medizintechnik-Firmen ermöglicht? Wesentliche Maßnahmen könnten:

  • Start-ups sollten einen gesicherten Zugang zu benannten Stellen erhalten, um die regulatorischen Prozesse zu beschleunigen. Aktuell sind Wartezeiten von sechs Monaten oder mehr durchaus üblich, und kleine Firmen stehen weiter hinten auf der Liste als große.
  • Genehmigungsprozesse für klinische Studien sollten schneller und europaweit einheitlich werden, inklusive verbindlicher Bewertungen des Studiendesigns. Lange Genehmigungszeiten des Bundesinstituts für Arzneimittel und Medizinprodukte, Entscheidungen der Ethikkommission jeder einzelnen teilnehmenden Klinik sowie nicht abgesicherte Studiendesigns machen momentan viele klinische Studien zu einem Vabanque-Spiel für Geldgeber. Hier ist Verlässlichkeit gefordert.
  • Analog zu den Verfahren der Pharmabranche sollte eine automatische und europaweite Aufnahme neuer Verfahren in die Regelerstattung möglich werden, ggf. zunächst für eine beschränkte Dauer, wie bei neuen Medikamenten.

Nur so können Ärzte sichere (CE-Zulassung) und effektive (klinische Studien) Technologien erproben, Vor- und Nachteile bewerten und den Unternehmen Hinweise für Verbesserungen geben. Die Patienten profitieren von neuen Behandlungsmethoden. Die Unternehmen generieren Umsatz und erzielen Markterfolge und bleiben damit am Markt.
Ein derartiges Maßnahmenpaket würde dazu beitragen, dass junge Unternehmen als Innovationstreiber ihre Entwicklungen finanzieren und in den Markt einführen können, was sich ansonsten nur finanzstarke Konzerne leisten können. So könnten lebensunterstützende und -erhaltende Innovationen vorangetrieben werden, im Sinne der Patienten und deren Angehörigen, aber auch im Sinne einer wettbewerbsstarken Industrie.

Weitere Informationen unter:
www.shsvc.net/shs/

Bildquelle / Lizenz: SHS Gesellschaft für Beteiligungsmanagement

Bitkom-Leitfaden Open-Source-Software 2.0

Der Bitkom hat seinen Open-Source-Leitfaden für Unternehmen und Behörden überarbeitet.

Open-Source-Software gewährt viele Freiheiten und eröffnet umfangreiche Einsatzmöglichkeiten. So ist die Nutzung von Open-Source-Software insbesondere ohne Entrichtung von Lizenzkosten möglich. Dennoch kann die Nutzung mit verschiedenen Auflagen verbunden sein, deren Nichtbeachtung ein erhebliches rechtliches Risiko darstellt.

Bild: Bitkom – Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V.)

Bild: Bitkom – Bundesverband Informationswirtschaft,
Telekommunikation und neue Medien e.V.

Der Bitkom-Leitfaden zu Open-Source-Software 2.0 stellt sowohl die möglichen Einsatzszenarien und Geschäftsmodelle als auch den rechtlichen Hintergrund einschließlich der rechtlichen Risiken von Open-Source-Software umfassend dar. Ergänzt wird dies durch einen historischen Abriss über die Entstehung der Idee von Open-Source-Software, durch eine systematische Darstellung der verschiedenen Lizenzmodelle in diesem Bereich und durch eine Abwägung von Chancen und Risiken beim Einsatz von Open-Source-Software.

Zielgruppe der Broschüre sind in erster Linie Unternehmen und Behörden.

Das Papier ist als PDF kostenlos auf der Website des Bitkom erhältlich.

 

Aufmacherbild / Lizenz: opensource.com; Veröffentlicht unter: Creative Commons

Schlechter Fahrstil wird abgestraft

Studie zeigt: Konsumenten lassen sich von unsicheren Berufsfahrern abschrecken

Jeder zweite Deutsche (53 Prozent) hat ungern mit Unternehmen zu tun, deren Fahrer eine unsichere oder rücksichtslose Fahrweise an den Tag legen. Das zeigt eine Umfrage im Auftrag von TomTom Telematics unter mehr als 1.000 Konsumenten in Deutschland(1).

Vor allem Lieferwagen-, LKW- und Sportwagenfahrer erhalten hier schlechte Noten: Nur jeweils drei Prozent der Befragten bezeichneten sie als besonders sichere oder vorsichtige Fahrer. Und den Fahrstil der Taxifahrer bewerteten gerade einmal sechs Prozent als positiv. Der Telematik-Branche bieten sich damit enorme Chancen, deutsche Unternehmen beim Verbessern der Fahrweise ihrer Mitarbeiter zu unterstützen und eine bessere öffentliche Wahrnehmung zu erreichen.

„Die Ergebnisse dieser Studie und der Umfang, in dem schlechte Fahrstandards sich auf ihr Unternehmen auswirken können, dürfte Firmeninhaber überraschen“, sagte Taco van der Leji, Vice President Marketing bei TomTom Telematics. „Hier Abhilfe zu schaffen, ist jedoch möglich. Telematik-Lösungen können eine entscheidende Rolle spielen, um Probleme bei Fahrstandards anzugehen, indem Unternehmen ihren Fahrern den Zugang zu entsprechenden Schulungen, Beratung und technischen Hilfssystemen ermöglichen.“

„Während Telematik bisher immer im Fokus von Flottenmanagern und Einsatzleitern stand, zeigt die Studie eindeutig, dass auch Marketing-Abteilungen diese Technologie auf dem Schirm haben sollten. Wenn Unternehmen dafür sorgen, dass sie auf der Straße positiver wahrgenommen werden, können sie sich als verantwortungsvolle Marke positionieren, die das Vertrauen der Konsumenten verdient hat.“

Bei der Frage nach einer höflichen und rücksichtsvollen Fahrweise schnitten die Sportwagenfahrer mit drei Prozent der Nennungen am schlechtesten ab. Und den LKW- und Lieferwagenfahrern attestierten jeweils nur vier Prozent der Befragten ein zuvorkommendes Verhalten am Steuer.

Beim Thema sichere Fahrweise liegen die Klein- und Kompaktwagen vorn: 31 Prozent der Befragten sind der Ansicht, dass sich die Fahrer dieser Fahrzeugkategorie am vorsichtigsten im Straßenverkehr bewegen. 26 Prozent attestierten vor allem Fahrern von Limousinen einen besonders sicheren Fahrstil, über die Busfahrer sagten dies 15 Prozent der Befragten. Und auch in Sachen Rücksichtnahme führen die Klein- und Kompaktwagenfahrer das Ranking an: Mehr als ein Viertel der Befragten (26 Prozent) bezeichnete sie als die höflichsten Verkehrsteilnehmer.

(1) Die Studie wurde mithilfe von TNS Ncompass, einer Internet-Umfrage, in Deutschland, Großbritannien, Frankreich und den Niederlanden vom 15. bis 19. Oktober 2015 durchgeführt. Insgesamt 3.095 Personen zwischen 16 und 64 Jahren waren aufgefordert, die Online-Fragebögen auszufüllen. Die Stichprobe wurde gewichtet, um den Anteil der erwachsenen Bevölkerung in jedem Land zur repräsentieren: 1.016 in Großbritannien, 1.050 in Deutschland, 520 in Frankreich und 509 in den Niederlanden.

 

Antwort-Übersicht
Welche Fahrzeugtypen assoziieren Sie mit besonders sicheren oder vorsichtigen Fahrern?
1. Klein- und Kompaktwagen 31%
2. Limousine 26%
3. Linien-/Reisebus 15%
4. Luxuswagen 10%
5. SUV/4×4 9%
6. Taxi 6%
7. PS-starker Wagen/Sportwagen 3%
8. Schwerlastkraftwagen/LKW 3%
9. Transporter/Lieferwagen 3%

Welche Fahrzeugtypen haben Ihrer Ansicht nach die höflichsten, zuvorkommendsten Fahrer?
1. Klein- und Kompaktwagen 26%
2. Limousine 19%
3. Linien-/Reisebus 12%
4. Taxi 7%
5. SUV/4×4 6%
6. Luxuswagen 6%
7. Schwerlastkraftwagen/LKW 4%
8. Transporter/Lieferwagen 4%
9. PS-starker Wagen/Sportwagen 3%

 

 

Weitere Informationen unter:
tomtom.com/telematics

Die ausführlichen Ergebnisse der Studie erhalten Sie auf Nachfrage an sales-de@business.tomtom.com.

„Langfristig werden Unternehmen einen Chief Transformation Officer brauchen“

Die TREND REPORT-Redaktion im Gespräch mit Stefanie Wagner-Fuhs, Chief Market Officer von Namics, zu der neuen Rolle des Chief Digital Officer in den Unternehmen.

Eine aktuelle Studie des US-Marktforschers Gartner ergab, dass sich viele CIOs von CDOs bedroht fühlen. Ist diese Angst berechtigt?
Ja, diese Bedrohung ist real. Denn heute stehen Unternehmen vor der Herausforderung, die eigene Systemlandschaft auf die neuen Anforderungen des digitalen Geschäfts auszurichten. Wer diese Aufgabe bewältigen will, braucht Marketingerfahrung. Fehlt dieses Wissen, wird sich das Aufgabengebiet des CIO in Zukunft nur noch auf die Pflege und Wartung bestehender Systeme beschränken. Die geschäftskritischen Entscheidungen über neue, digitale Lösungen wird der CDO  fällen, denn er beurteilt die anstehenden Investitionen entlang von Markt- und Kundenanforderungen. Das ist nur möglich, wenn er auf IT- und Marketing-Wissen gleichermaßen zurückgreifen kann.

Derzeit schwirren viele neue Bezeichnungen auf C-Level durch den Raum. Neben dem CIO sieht Gartner in den nächsten drei Jahren bei Zweidrittel der großen Unternehmen auch den CDO als festen Bestandteil. Als dritten Player wird von manchen nun auch ein CMTO ins Spiel gebracht. Ziemlich verwirrend, finden Sie nicht?
Verwirrend ist es nicht, da alle Begriffe eine zentrale Entwicklung ausdrücken: Die Verheiratung von Marketing und IT. Ob man es nun CMTO oder CDO nennt, spielt keine Rolle. Entscheidend ist nur die Erkenntnis der Unternehmen, dass beide Disziplinen zusammenwachsen müssen – und das idealerweise auf Vorstandsebene und bei nur einer Person.

Stefanie Wagner-Fuhs, seit August 2014 Chief Market Officer bei Namics: „Heute stehen Unternehmen vor der Herausforderung, die eigene Systemlandschaft auf neue Anforderungen des digitalen Geschäfts auszurichten. Wer diese Aufgabe bewältigen will, braucht sowohl IT-Wissen als auch Marketingerfahrung."

Stefanie Wagner-Fuhs, seit August 2014 Chief Market Officer bei Namics: „Heute stehen Unternehmen vor der Herausforderung, die eigene Systemlandschaft auf neue Anforderungen des digitalen Geschäfts auszurichten. Wer diese Aufgabe bewältigen will, braucht sowohl IT-Wissen als auch Marketingerfahrung.“

Vielleicht löst sich das Problem auch von selbst: Stefanie Waehlert, CDO bei TUI, oder die Anaylsten von PwC sehen den CDO nur als vorübergehendes Phänomen, eine temporäre Erscheinung. Der CDO fungiere als eine Art Interims Manager, der nur gebraucht wird, solange die digitale Transformation des Unternehmens stattfindet…
Digitale Transformation ist als permanenter Wandel zu verstehen. Sicherlich, viele Unternehmen werden in einigen Jahren einen gewissen digitalen Reifegrad erreicht haben, jedoch bedeutet das nicht Stillstand. Getrieben durch immer neue Technologien, wechselnde Kundenbedürfnisse und eine sich verändernde Arbeitsweise wird es immer eine Transformation der Geschäftsmodelle geben müssen, der sich Unternehmen zu stellen haben. Wer das erkannt hat, denkt nicht mehr darüber nach, einen CMTO oder CDO zu berufen, sondern gleich einen CTO, den Chief Transformation Officer. Seine Aufgabe wird es sein, den beständigen Wandel zu gestalten und im Idealfall zu antizipieren, welche Marktentwicklungen eine potentielle Bedrohung für das angestammte Geschäftsmodell bedeuten. Das interdisziplinäre Wissen aus den Bereichen Marketing, IT und Business Development werden ihm dabei helfen.

Sie selbst sind Chief Market Officer bei Namics – ein viertes CxO. Was hat es damit auf sich und warum sind Sie zum Beispiel kein CMTO?
Als CMO verantworte ich die gesamte Vermarktungskette der Full-Service-Digitalagentur. Sie umfasst die Bereiche Marketingkommunikation, Sales, Business Development sowie die Angebotsgestaltung für die digitale Transformation. Als Digital-Dienstleister entwickeln wir hoch individualisierte Lösungen für die Bedarfe unserer Kunden. Unser Kerngeschäft bildet daher das Consulting und die Umsetzung der kundenadäquaten technologischen Lösungen. Unser Geschäft findet also nicht auf digitalen Kanälen statt, sondern im persönlichen Dialog und in der unmittelbaren Zusammenarbeit im Kundenprojekt. Unabdingbar hingegen ist die Rolle des CMTO zum Beispiel im produzierenden Gewerbe, dem Handel, aber auch für B2B-Unternehmen. Unternehmen also, die über digitale Kanäle mit ihren Kunden nicht allein in Kontakt treten, sondern direkt Geschäft konvertieren. Hier ist es wichtig, das Wissen beider Disziplinen – Marketing und IT – in einer Rolle zu bündeln.

Weitere Informationen unter:
www.namics.com

 

Bildquelle / Lizenz: Stefanie Wagner Fuhs, namics AG

Bildquelle / Lizenz Aufmacher:

Datenanalyse für das Risikomanagement

Finanzdienstleister, Banken und Versicherungen sind auf die Analyse von Daten angewiesen für ihr Risikomanagement. Vamsi Chemitiganti, General Manager, Financial Services Industry von Hortonworks, zeigt im Interview verschiedene Möglichkeiten auf.

Heutzutage sind Daten entscheidend für die täglichen Geschäfte. Unternehmen bekommen jede Minute Millionen an Informationen über ihre Kunden – etwa über mobile Geräte oder andere Kanäle. Gerade für die Finanzindustrie bedeutet Betrugserkennung einen wesentlichen Teil des Risikomanagements. Auf was sollten Unternehmen, die in der Finanzbranche tätig sind, vorbereitet sein? Welche Managementrisiken können ihnen begegnen und wie helfen Sie bei der Bewältigung?
Die Banken sollten ihre IT in zwei verschiedenen Ausprägungen oder Modi betreiben: Defensiv in Bereichen wie Risiko, Betrug und Compliance und offensiv in Bereichen, die Einnahmen generieren. Banken hantieren andauernd mit Daten und Informationen und die Verfahren für Risikodaten-Aggregation, Analyse und Reporting sind sehr eng mit der IT und den Datenarchitekturen verflochten. Bereiche wie Risiko und Compliance bieten einzigartige und überzeugende Möglichkeiten, Banken Wettbewerbsvorteile zu verschaffen, die agile Datenarchitekturen aufbauen können. Das hilf ihnen am Ende dabei, regulatorische Änderungen schneller und besser als andere zu steuern.
Im Zuge von Basel III und Dodd Frank (Dodd–Frank Wall Street Reform and Consumer Protection Act) müssen Unternehmen sowohl in allen Geschäftszweigen als auch „intern“ (Finanzen, Compliance, Hauptbuchkonten (General Ledger) & Risiko) und „extern“ (Finanzmärkte, Einzelhandel, Konsumgüter, Karten etc.) in die Messung des Risikos investieren. Dies umfasst alle klassischen Risikobereiche wie: Märkte, Kredite, Operationen und Liquidität. Aus Managementsicht müssen Führungskräfte verstehen, dass Bereiche wie Risiko und Compliance Möglichkeiten für Wettbewerbsvorteile bieten.
Seit der Finanzkrise von 2008 haben Angebote von Open-Source-Software einen immensen Reifegrad erreicht und weisen hinsichtlich Skalierbarkeit und Governance überzeugende Funktionalitäten auf. Apache Hadoop, welches ein Verbund aus über 30 Projekten ist, bildet das Rückgrat jedes innovativen Datenmanagementprojekts auf Unternehmensniveau – vor allem bei Risikodaten-Aggregation und Compliance.

Vamsi Chemitiganti, General Manager, Financial Services Industry, Hortonworks, Copyright Hortonworks

Vamsi Chemitiganti, General Manager, Financial Services Industry, Hortonworks, Copyright Hortonworks

Gibt es Handlungsempfehlungen für Unternehmen, die in der Finanzbranche tätig sind, Dinge, die sie wissen sollten? Was sind die häufigsten Probleme, die es bezüglich das Risikomanagement im Finanzsektor gibt? Können Sie uns aus Ihrer Erfahrung heraus ein oder zwei Fallbeispiele nennen, wie Sie vorgehen und welche Lösungen Sie implementiert haben?
Zunehmende regulatorische Auflagen treiben obligatorische Ausgaben im Bereich Risiko und Compliance in ungeahnte Höhen. Die Leitlinien des Basler Ausschusses zu Reporting und Aggregation von Risikodaten, Dodd Frank, die Volcker-Regel sowie die Gesetzgebung zur regulatorischen Kapitaladäquanz wie CCAR sorgen dafür, dass bestehende Datenarchitekturen umgerüstet werden. Insbesondere der Einfluss der Volcker-Regel hat die Margen im Bereich der Kapitalmärkte geschmälert, da das Geschäft sich zu einem Flow-basierten Handelsmodell entwickelt, was weniger auf Eigenhandel und mehr auf der Verwaltung des Handels von Kunden beruht. Gleichzeitig benötigt man mehr Intraday-Daten für das Intraday-Management von Markt-, Kredit- und Liquiditätsrisiken.
Die IT-Umgebung im Bankwesen basiert weitestgehend auf einem Legacy-Modell aus historisch gewachsenen Systemen und Systemen von verschiedenen Anbietern, die alles regeln vom Kernbanksystem, über den Handels-Lifecycle bis hin zu den Sicherheitseinstellungen. Jedes dieser Systeme läuft in einem Datensilo mit einer eigenen Sichtweise auf das Unternehmen und sie werden alle größtenteils über Datenreplikation synchronisiert. Aktuelle Risiko-Architekturen basieren auf traditionellen RDBMS (relationales Datenbankmanagementsystem)-Architekturen mit dutzenden Einspeisungen durch Book of Record Transaction Systemen wie Handels- und Positionsdaten, Leitungsdaten, Zahlungsdaten und Transaktionsdaten. Hortonworks Data Platform (HDP) ist eine vollkommen quelloffene Apache Hadoop-Daten-Plattform, die für Unternehmen entwickelt ist. Es gibt mehrere globale Banken, die HDP als Rückgrat für ihre Risikodatenaggregation und Compliance-Projekte benutzen.

Im Finanzsektor gibt es zahlreiche Risiken denen sich Unternehmen in der Finanzbranche stellen müssen. Stellen Sie Trends in Ihrer Branche fest?
Der Basler Ausschuss und das Financial Stability Board (FSB) haben eine Ergänzung zu Basel III veröffentlicht, die als BCBS 239 (Banking Committee for Banking Supervision) bekannt ist. Diese stellt einen Leitfaden zur Verfügung, damit bankenübergreifende Risiken von den Finanzinstituten besser identifiziert und gemanagt werden können. Die BCBS 239 Leitlinien sollen nicht nur bei global systemrelevanten Banken Anwendung finden, sondern auch bei national systemrelevanten Banken. Jedes wichtige Finanzinstitut das sich als “too big to fail” erachtet, muss mit diesen Regulierungen arbeiten und eine Reihe von Ausfsichts-Mechanismen entwickeln, die den Leitfaden für Risikodaten-Aggregation und Reporting bereitstellen.

Die häufigsten Anforderungen und Trends des Regulierungssystems sind:

  1. Die Banken müssen Risiken im gesamten Unternehmen ermitteln
  2. Die gesamte Hauptrisikoermittlung muss konsistent und präzise sein, die internen und externen Bereiche sowie die unterschiedlichen Regionen und regulatorischen Zuständigkeiten umfassen. Eine 360-Grad-Sicht auf alle möglichen Risiken ist notwendig und muss ohne jedwede Abweichungen konsistent sein.
  3. Die Bereitstellung dieser Reports muss flexibel, rechtzeitig und auf einer On-Demand-Basis je nach Bedarf zur Verfügung stehen.
  4. Die Banken müssen starke Data Governance- und Eigentumsfunktionen vor Ort haben, um
  5. diese Daten über eine komplexe Organisationsstruktur zu ermitteln.

In Anbetracht all dieser Punkte ist der größte Trend aus Sicht von Risikodaten-Aggregation und Compliance, Hadoop einzuführen und den Herausforderungen mit einem Ansatz, der auf maschinellem Lernen basiert, zu begegnen.

Was empfehlen Sie, um Compliance-Vorschriften gerecht zu werden? Sind Ihre Lösungen modular aufgebaut oder Gesamtpakete? Und wie sieht es mit der Anpassung an das jeweilige Unternehmen aus?
Mittelständische bis hin zu Banken haben über die Jahre enorme Skaleneffekte über ein großes geographisches Gebiet aufgebaut. Sie besitzen starke Erstanbietervorteile im Vergleich zu neu eingestiegenen FinTechs. Der Grund dafür ist eine Reihe von Faktoren wie klar definierte Betriebsmodelle, in hohem Maße etablierte Finanzprodukte über große (und loyale) Kundenstämme hinweg, ein breites Netzwerk von Niederlassungen und Geldautomaten, zahlreiche verfügbare Datenbestände, die sich auf Kundentransaktionen und demografische Informationen beziehen.
Allerdings ist es nicht genug, die Daten nur zu besitzen. Sie müssen in der Lage sein, den Wandel durch vorhandene Denkweisen und Infrastruktur hindurch voranzutreiben. Millenials sorgen in der gesamten Industrie für Veränderungen. Die Banken kämpfen damit, sich diesem wichtigen neuen Segment anzupassen, das zunehmend mobile Endgeräte benutzt, mehr kontextbezogene Dienste fordert und eine nahtlose, einheitliche Erfahrung beim Banking möchte, ähnlich wie man es vom tagtäglichen Umgang mit dem Internet her kennt.
Dies sind die vier Schlüsselpunkte, um eine Bank zu werden, die sich auf Daten stützt und sie vorausschauend einsetzt:

  1. Regelmäßige Produktinnovationen auf Basis eines schrittweisen Ansatzes für Innovation. Entwickelt die Bank die richtigen Produkte, die sich auf eine dynamische Kundschaft ausrichten?
  2. Den Kunden dadurch die Erfahrung eines nahtlosen und einheitlichen Kanals bieten, dass mehr Transaktionen über digitale Medien durchgeführt werden.
  3. Ein unaufhörliches Vorantreiben von Automatisierung, um veraltete manuelle Prozesse durch automatisierte Betriebsprozesse sowohl im Bereich des Business als auch der IT zu ersetzen.
  4. Permanente Anregung von Innovation über die gesamte BiModale Welt (das Management von zwei getrennten IT-Modi) , insbesondere beim stabilen Kern, als auch beim neuen Randbereich durch die Integration neuester Fortschritte.

Weitere Informationen unter:
de.hortonworks.com

 

Bildquelle / Lizenz: r2hox data.path Ryoji.Ikeda – 4; flickr.com; Veröffentlicht unter: https://creativecommons.org/licenses/by-sa/2.0/

CTDI übernimmt Regenersis

Communications Test Design, Inc. (CTDI) hat den Reparatur-Dienstleistungszweig von Regenersis PLC übernommen. Die Akquisition hat ein Volumen von 96 Millionen Euro und steht für 17 Reparatur-Werkstätten in zehn Ländern.

Im Reparatur-Bereich von Regenersis arbeiten rund 4.000 Mitarbeiter. „CTDI ist sehr glücklich über die Akquisition und wir heißen unsere neuen Mitarbeiter herzlich willkommen. Mit diesem strategischen Meilenstein können wir CTDI ideal für die Zukunft positionieren und unseren globalen Fußabdruck im CPE-Geschäft weiter ausbauen“, sagt CTDI CEO und Chairman Gerald J. Parsons.

Die daraus entstehenden Synergien und Stärken beider Unternehmen, sowohl Regenersis als auch CTDI, haben sich klar wärend des Bieterprozesses gezeigt. „Mit der industrieführenden Technologie und unserer Infrastruktur können wir jetzt schon viele große Service Provider und OEMs bedienen. Mit der Akquisition treten wir nun in den Massenmarkt bei CPEs ein mit der Integration des Regenersis-Netzwerks“, führt Parsons und ergänzt: „Dies ist ein wichtiger Moment in der Firmengeschichte von CTDI und ich denke, jeder bei uns ist stolz diesen Moment mitzuerleben. Unseren neuen Mitarbeitern, die zu CTDI wechseln, möchte ich sagen, dass wir versuchen, den Prozess so reibungslos wie möglich zu gestalten und ihn in eine positive Erfahrung für uns alle münden zu lassen.“

Weitere Informationen unter:
www.ctdi.com

Bildquelle / Lizenz: flickr.com; Johan Larsson, Slidescreen; veröffentlicht unter: https://creativecommons.org/licenses/by/2.0/

Valentinstag: Zeit zu zweit

„Machen wir es uns zu Hause gemütlich, Schatz?“ Mit dieser Idee tun sich Elternpaare keinen Gefallen, denn häufig endet ein Abend auf der Couch für ein Elternteil auch kurz später auf dieser. Die meisten Eltern passen Ihr Leben dem Schlafrhythmus ihrer Kinder an. Fast die Hälfte der befragten Eltern (45,7%) wünscht sich jedoch mehr Dates mit ihrem Partner. Laut einer aktuellen Umfrage liegt bei 17,8% der Befragten mit Kindern der letzte wirklich gemeinsame Abend länger als ein Jahr zurück. Da ist der Valentinstag, der „Tag der Liebenden“, eine gute Gelegenheit für einen ausgiebigen romantischen Abend zu zweit.

 
In der Umfrage wird deutlich, was Eltern von einem Abend zu zweit erwarten: auch einmal Zeit ohne Kinder verbringen zu können (34,7%), Romantik (22,5%) und „etwas essen, das nicht ich gekocht habe“ (18,8%). Der beliebteste Ausgehort für Eltern ist mit Abstand das Restaurant (64,3%), gefolgt von Kino (34,6%) und Natur (33,9%). Über ein Drittel der befragten Paare mit Kind würde gern öfter auf Konzerte, ins Theater oder zu Comedy-Shows gehen (34,5%).
 
Knapp die Hälfte aller Paare möchte häufiger ausgehen 
Die Studienergebnisse liefern ein einheitliches Bild: Mit Kindern oder ohne, die Hälfte der Befragten ist mit der Häufigkeit der romantischen Abende zu zweit nicht zufrieden. Besonders stark empfinden junge Eltern die Zeitknappheit. Mehr als zwei Drittel der Eltern mit Kindern unter drei Jahren gaben an, öfter mit dem Partner ausgehen zu wollen. 
 
Größte Hindernisse: Babysitter, Geld, Beruf
Die aktuelle Studie gibt auch Einblicke darin, was Eltern vom gemeinsamen Ausgehen abhält: der fehlende Babysitter (23,9%), gefolgt von finanziellen Aspekten (20%) und beruflichen Verpflichtungen (15,6%). Auch hier ist laut Studie die Belastung von Eltern mit Baby am größten. 
 
Ein Drittel der Eltern der 0- bis 3 Jährigen tut sich schwer, den richtigen Babysitter zu finden. Mit steigendem Alter der Kinder fällt die Babysittersuche dann schon etwas leichter. Bei der Suche nach dem Babysitter spielen Vertrauen, aber auch die Chemie zwischen Kind und Babysitter entscheidende Rollen. 
 
Stundenlohnrechner nennt lokale Babysitterpreise
Betreut.de möchte Eltern die zeitaufwendige Suche nach einem Babysitter so einfach wie möglich machen. Sie finden dort nicht nur den richtigen Betreuer, sondern können mithilfe des praktischen Stundenlohnrechners die Betreuungskosten für das nächste Date ausrechnen. Die Kosten basieren auf den Stundenpreisen der auf Betreut.de angemeldeten Babysitter. Mit nur wenigen Klicks haben Eltern Zugriff auf ausführliche Profile und Verfügbarkeitsangaben, und können Kontakt zu den Betreuern aufnehmen, um ein Interview oder Kennenlernen zu vereinbaren. 
Zum Babysitter-Stundenlohnrechner: www.betreut.de/stundenlohn-babysitter
 
Über die Umfrage:
Eltern haben weniger Zeit zu zweit als kinderlose Paare, so zumindest das gängige Credo. Betreut.de wollte es genauer wissen. Von Oktober bis Dezember 2015 nahmen knapp 1.777 Eltern und kinderlose Paare an der standardisierten Onlineumfrage teil.

Weiterführende Informationen: www.betreut.de

 

Bildquelle / Lizenz: care.com Europe GmbH

 

Ein Wunsch wird zur Realität

Es folgt ein Statement von Konstantin Strasser, Geschäftsführer der MEP Werke GmbH im Nachgang des Weltklimagipfels.

Konstantin Strasser, MEP Werke

Konstantin Strasser: „Das Prinzip der Kreislaufwirtschaft steht für mich an erster Stelle, was nachhaltige Investitionen angeht.“

Beim Klimagipfel in Paris im letzten Jahr haben sich nahezu alle Länder auf einen Weltklimavertrag verständigt und die Vereinbarung getroffen, die Erderwärmung auf weniger als 2 °C zu begrenzen.
Schaffen wir also die Energiewende? Ich denke, ja! Seit der Pariser UN-Klimakonferenz hat man zumindest ein gemeinsames Ziel vor Augen. Doch es liegt noch viel Arbeit vor uns. Nicht die Politik setzt die Energiewende um, sondern die Bürger und die Industrie, das heißt, wir alle müssen etwas tun.

Wir müssen anfangen, uns das Ganze bewusst zu machen und begreifen, was es für unsere Nachkommen heißt, wenn wir das Ziel des Pariser Abkommens nicht erreichen. Der Klimawandel hat Auswirkungen auf die Lebensbedingungen von Milliarden Menschen, auch in Europa. Jeder Einzelne ist verpflichtet, die CO2-Einsparungen voranzutreiben, um der globalen Erwärmung entgegenzuwirken.

Wie können wir also bei der Energiewende vorankommen? Gerade was uns Unternehmer angeht?

Es bricht eine neue Ära an. Eine Ära der Eigenversorgung. Sei es mit Strom, Lebensmitteln oder anderen Produkten, die man täglich braucht. Unternehmen sollten diese Bewegung unterstützen. Gemeinsam sind wir stark und nur wir, sei es als Konsument oder in den Unternehmen, können die Erde wieder ins Gleichgewicht bringen.

Ich glaube, es ist das Bewusstsein der Menschheit und das Verständnis dafür, dass man sich kümmern muss. Nicht lange überlegen, sondern handeln ist die Devise. So sollte eine Solaranlage auf dem Dach künftig genauso selbstverständlich werden wie ein Elektroauto oder der Kauf von regionalen Lebensmitteln. Es ist nicht die Frage ob wir uns eine Solaranlage aufs Dach installieren, oder ob wir unser Haus dämmen sollten. Sondern die Frage sollte lauten: Wie schnell kann ich das umsetzen, oder wieviel Kilowattpeak soll ich mir auf mein Dach bauen?

Wenn ich einen Wunsch frei hätte, würde ich mir eine Bewegung wünschen. Jeder sollte sich als Klimabotschafter verstehen. Wir sollten alle den gleichen Weg einschlagen, zusammenhalten und das gleiche Ziel verfolgen. Das ist mein Anliegen und es sollte kein Wunsch bleiben, sondern schon bald zur Tatsache werden, daran arbeiten wir Tag für Tag. Mit jedem selbstproduzierten und eigenverbrauchten Kilowattstunde Strom wird dieser Wunsch mehr zur Realität. Ich möchte alle Bürgerinnen und Bürger aufrufen, lassen Sie uns diesen Weg gemeinsam gehen, damit wir für kommende Generationen eine nachhaltige Zukunft schaffen.

Weitere Informationen unter:
www.mep-werke.de

Bildquelle / Lizenz Aufmacher: Sharon Mollerus, Growth; Flickr; veröffentlicht unter CC-BY-SA

Bildquelle / Lizenz Konstantin Strasser: MEP Werke GmbH

Elektromobilität attraktiver machen

Der Verteilungsnetzbetreiber Stromnetz Hamburg GmbH und das IT- und Energieunternehmen LichtBlick machen in einem gemeinsamen Projekt in Hamburg vor, wie die Stromkosten für Elektroautos um rund 30 Prozent reduziert werden können. Auf diese Weise wird das elektrische Fahren im Netzgebiet Hamburg gegenüber Diesel- und Benzinautos noch preiswerter.

Grundlage des Projekts ist eine Regelung im Energiewirtschaftsgesetz (§14a EnWG). Diese Regelung sieht grundsätzlich vor, dass Netzbetreiber Elektroautos ähnlich wie Wärmepumpen und Nachtspeicherheizungen als sogenannte „steuerbare Verbrauchseinrichtungen“ behandeln können. Allerdings fehlt es derzeit noch an der erforderlichen Ausführungsbestimmung, die Rechtssicherheit für alle Beteiligten schaffen würde.

Das Hamburger Projekt zeigt nun erstmals beispielhaft, wie eine praktische Umsetzung des §14a EnWG auch bundesweit funktionieren könnte. Elektroautos können an der privaten Ladesäule von abends 21 Uhr bis morgens 6 Uhr vergünstigt Strom beziehen. Für die zeitliche Einschränkung sinken die Kosten für die Netznutzung (Netzentgelt), die in jeder Stromrechnung enthalten sind.

„So kann LichtBlick dank der Vereinbarung mit der städtischen Verteilungsnetzbetreiberin jetzt seinen Ökostromtarif für Elektroautos gegenüber dem üblichen Haushaltstarif um etwa 30 Prozent senken. Die Stromrechnung für ein Elektroauto reduziert sich damit um bis zu 200 Euro pro Jahr. Im ersten Schritt bieten wir diesen Tarif zunächst einigen Testkunden an“, sagt Gero Lücking, Geschäftsführung Energiewirtschaft bei LichtBlick.

Die gleiche Regelung wird heute bereits bei Wärmepumpen und Nachtspeicherheizungen angewendet. Viele Verbraucher profitieren deshalb von preiswerten Heizstromtarifen.

„Neben unserer wichtigen Aufgabe der Daseinsvorsorge sind wir als städtisches Unternehmen selbstverständlich dem Klimaschutz und der Energiewende verpflichtet. Der wirtschaftliche und nachhaltige Umgang mit Energie gehört zu unserem täglichen Geschäft. Die Regelung, steuerbaren Verbrauchseinrichtungen reduzierte Netzentgelte anzurechnen, ist bereits geübte Praxis und kann somit auch auf alle Verbraucher mit privater Ladeinfrastruktur gleichermaßen ausgeweitet werden“, sagt Christian Heine, kaufmännischer Geschäftsführer von Stromnetz Hamburg GmbH.

„Statt über teure Kaufprämien zu diskutieren, sollte der Gesetzgeber die vorhandenen Möglichkeiten ausschöpfen, die Elektromobilität sinnvoll zu fördern. Leider hat es die Bundesregierung bisher versäumt, einen klaren Rechtsrahmen für preiswerten Fahrstrom zu verabschieden. Das wäre schnell und einfach möglich. Dann könnten die Verbraucher ihre Elektroautos zuhause mit billigem Fahrstrom beladen – und gleichzeitig die Stromnetze entlasten“, fügt Gero Lücking hinzu.

Ohne die dringend erforderliche Ausführungsverordnung zum Energiewirtschaftsgesetz müsste ein Energieanbieter wie LichtBlick in der Praxis komplizierte Vereinbarungen mit jedem einzelnen der fast 900 Stromnetzbetreiber treffen, um bundesweit günstigen Fahrstrom für private Ladesäulen anbieten zu können. Der enorme Verwaltungsaufwand würde die Kostenersparnis wieder zunichtemachen, betont LichtBlick.

Weitere Informationen unter:
www.lichtblick.de
stromnetz-hamburg.de

Bildquelle / Lizenz: LichtBlick; bitte Urheberrechte beachten

Der digitale Drahtseilakt

Fujitsu Studie verdeutlicht Hürden und Widersprüche der Digitalisierung in Deutschland und Europa

Die Geschäftsführer von rund 650 mittleren bis großen europäischen Unternehmen sind sich sicher, dass die Digitale Transformation für ihren weiteren geschäftlichen Erfolg unverzichtbar ist. Eine von Fujitsu in Auftrag gegebene Studie, die in Deutschland, Großbritannien, Schweden und Spanien durchgeführt wurde, verdeutlicht, dass viele Firmen durchaus optimistisch sind, die Digitalisierung ihres Unternehmens erfolgreich zu gestalten. Dabei haben einige der Befragten allerdings nach wie vor keine klare Strategie, wie sie dieses Ziel erreichen wollen. Eine Mehrheit der Befragten (70 % in Deutschland) hat sogar zu Protokoll gegeben, dass der Erfolg der eigenen Digitalisierungsstrategie noch unsicher ist. Ziel der im Oktober 2015 in Auftrag gegebenen Studie war es, die digitale Reife von Unternehmen in EMEIA zu untersuchen.

Das Jahr 2016 wird von vielen Analysten und IT-Insidern als das Jahr der Digitalen Transformation beschrieben. Dabei geht es nicht mehr um eine vage Zukunftsvision, sondern darum, einen messbaren geschäftlichen Vorteil gegenüber dem  Wettbewerb zu erringen. Besonders die Ergebnisse der Umfrage für Deutschland machen deutlich, dass es eine große Diskrepanz gibt zwischen der Zuversicht, dass die eigenen Mitarbeiter einerseits die Transformation der Geschäftsprozesse bewältigen können und sie andererseits mangelndes Vertrauen in die eigenen Entscheidungen haben. Optimismus bezüglich der eigenen IT-Strategie existiert nur oberflächlich.

38757_Dr._Rolf_Werner__Head_of_Central_Europe

Dr. Rolf Werner, Head of Central Europe, Fujitsu

Dr. Rolf Werner, Head of Central Europe Fujitsu: „Es gibt immer noch viele Fallstricke und Unabwägbarkeiten beim digitalen Umbau innerhalb deutscher Unternehmen. Vor allem zeigt die Studie, dass viele Firmen, auch aufgrund der falschen Zielsetzung, durch den IT-Umbau keinen signifikanten Wettbewerbsvorteil erzielen. Aber genau das sollte doch das klare Ziel sein. Der Fokus von Fujitsu liegt aus diesem Grund auch darauf, Services und Lösungen anzubieten, die unsere Kunden auf dem Weg der Digitalisierung so erfolgreich wie möglich unterstützen und eine reibungslose Transformation ermöglichen. Um wirklich digital zu arbeiten, müssen Unternehmen durchgehend digitale Strukturen besitzen. Das funktioniert natürlich nur wenn Front-End und Back-End Infrastruktursysteme nahtlos miteinander verknüpft sind.“

Der Umbauprozess wird laut Studienergebnissen dabei allgemein als besonders wichtig erachtet, um den Wertschöpfungsprozess des eigenen Unternehmens zu verbessern. Allerdings hat die Fujitsu Studie einige Diskrepanzen aufgezeigt in Bezug darauf, wer diese Projekte intern umsetzt und wo die Prioritäten liegen.

Die wichtigsten europäischen Ergebnisse:

  • Nur jeder Dritte denkt, dass der digitale Umbau mit der Strategie des Unternehmens abgestimmt ist
  • Jeder zweite Manager ist der Meinung, dass die Digitalisierung ein Job ist, den nur die IT-Abteilung erledigen kann – hier gibt es einen großen Unterschied zu Deutschland, wo nur 37 % dieser Meinung sind
  • Jeder dritte Befragte ist der Meinung, dass seine Firma bereits jetzt schon zu viel Budget für digitale Projekte ausgegeben hat
  • Nur jeder Vierte ist sich absolut sicher, die richtigen Entscheidungen im Hinblick auf die Digitalisierung zu treffen

Die wichtigsten deutschen Ergebnisse:

  • Nur in Deutschland wird die Digitalisierung vor allem durch die Mitarbeiter getrieben und nicht durch die Geschäftsführung oder Abteilungsleiter (in Deutschland 65 %).
  • Außerdem sind die digitalen Projekte nirgends so breit auf die einzelnen Bereiche verteilt wie in Deutschland. In den anderen Ländern werden 51 % der Projekte nur von der IT-Abteilung implementiert.
  • Die befragten deutschen Geschäftsführer sehen Kundenbindung und Loyalität als größten Nutzen einer Digitalisierung (48 %), während dies insgesamt nur auf dem dritten Platz landete.
  • Die Studie ergab außerdem, dass deutsche Entscheider derzeit noch keinen signifikanten Wettbewerbsvorteil sehen durch die Digitalisierung.

 

 Über die Studie:

 

Die Studie wurde im Oktober 2015 von den unabhängigen Meinungsforschern Censuswide durchgeführt. Befragt wurden Geschäftsführer und IT-Entscheider aus Deutschland, Spanien, Schweden und Großbritannien. Insgesamt bestand die Studie aus zwei Teilen:

  1. Der quantitative Teil der Studie wurde in den Bereichen Retail, Produktion, Finanzen und im öffentlichen Dienst durchgeführt. Untersucht wurde dabei, wie die IT-Strategie umgesetzt wird und was die größten Hindernisse auf dem Weg sind.
  2. Eine Serie von qualitativen Interviews mit 16 Geschäftsführern aus allen genannten Ländern und den oben erwähnten Geschäftsfeldern.

 

Weitere Informationen:

Download Studie: Der digitale Drahtseilakt

Fujitsu

Aufmacherbild/Lizenz: Surian Soosay

Creative Commons

Studie: Shopping & Payment Trends Weihnachten 2015

Die  erste Studie, die das Weihnachtsgeschäft des Online-­und  Offline-­Handels vergleichend betrachtet – von PAYONE, B+S Card Service und Statista

Pralle Warenkörbe im Süden und Nordwesten Deutschlands und nahezu Geschenkeflaute im Osten.

  • Finanzierung auf Platz drei der beliebtesten Online-Zahlungsarten.
  • Durchschnittlicher Einkaufswert im deutschen E-Commerce höher als im stationären Einzelhandel.
  • Online werden 14 Tage früher die Weihnachtsgeschenke gekauft

 

PAYONE und B+S Card Service veröffentlichen ihre umfangreiche Studie „Shopping  & Payment im Weihnachtsgeschäft 2015 – Studie zu den saisonalen Trends im E-Commerce und  stationären  Handel“. Gemeinsam mit dem Partner Statista wurden sämtliche Facetten des umsatzstarken Weihnachtsgeschäfts 2015 betrachtet.

Erstmals beleuchten die führenden Unternehmen aus Payment und Marktforschung das stationäre und das Online-­Weihnachtsgeschäft im Vergleich. Die Zahlen des stationären Einzelhandels beziehen sich hierbei lediglich auf Kartenzahlungen.

Der genaue Betrachtungszeitraum ist der 01. November bis 31. Dezember 2015.

Zu den Aspekten, die für die Studie erhoben wurden, zählen neben der Frage, „Wie viel die Deutschen im Weihnachtsgeschäft  ausgegeben haben?“ unter anderem auch „Anteil der Käufer nach Geschlecht“ und „Um welche Uhrzeit und an welchen Tagen wird besonders viel gekauft und wann besonders wenig?“.

Alle Ergebnisse, die in der Studie aufgeführt sind, ergeben sich aus Daten von PAYONE, einem der führenden europäischen Payment Service Provider,  B+S  Card Service, einem führenden europäischen Kartenakzeptanz-­Dienstleister, HDE, des Statistischen Bundesamts, GfK, der Deutsche Bundesbank und Statista-­Analysen.

 

Von spendablen Schwaben und sparsamen Sachsen

107,60 Euro gaben die Kunden in Baden-­Württemberg und südlichen Teilen von Rheinland-­Pfalz durchschnittlich online pro Einkauf im Weihnachtsgeschäft 2015 aus, das fand die Studie von PAYONE,  B+S Card Service und Statista heraus.

Auch im stationären Einzelhandel sind sie Spitzenreiter beim Weihnachtsshopping  – dort lag der durchschnittliche Einkaufswert bei 74,58 Euro. Aber auch in Bayern, Schleswig Holstein und Hamburg sind die Warenkörbe – ob online oder offline – prall gefüllt. Im Osten Deutschlands fallen die Warenkorbwerte durchschnittlich am geringsten aus. In Sachsen und Teilen Sachsen-­Anhalts und Thüringens gaben die Deutschen im Weihnachtsgeschäft pro Einkauf durchschnittlich 88,37 Euro online und 47,34 Euro im stationären Einzelhandel aus. Die Erhebung zeigt zudem, dass die Schlusslichter in diesem Vergleich Brandenburg, Berlin und Mecklenburg Vorpommern  darstellen.

Der gesamtdeutsche Durchschnitt gibt wieder, dass  der durchschnittliche Einkaufswert im Weihnachtsgeschäft im Online-­Handel mit 95,96 Euro wesentlich höher ist als der des stationären Handels mit 59,65 Euro.

 

Einzelhandel im Weihnachtsgeschäft stärker als E‐Commerce

Obwohl der durchschnittliche Einkaufswert in Deutschland im Durchschnitt fast 40 Euro höher ausgefallen ist, als der des stationären Einzelhandels, belegt die gesamtdeutsche Hochrechnung etwas anderes. Demnach ist der Umsatz des stationären Einzelhandels mit 39,32 Milliarden Euro im November und Dezember fast um zwei Drittel höher als der des E-­Commerce mit 13,02 Milliarden Euro.  Damit fielen 18 Prozent der Jahresgesamtausgabe im stationären Einzelhandel alleine auf das Weihnachtsgeschäft  – im E-­Commerce waren es sogar 27 Prozent.

 

Geschenke auf Pump

Überraschenderweise zeigt die Payment-­Studie, dass die Finanzierung auf Platz drei der beliebtesten Zahlungsarten im E-­Commerce liegt – bei 17,5 Prozent aller Einkäufe wurde diese Zahlungsart gewählt. Für Frauen ist es sogar die zweitliebste Art, die Weihnachtseinkäufe zu bezahlen (21  Prozent), und liegt somit vor dem Platz zwei des Gesamtrankings, nach dem 20,3 Prozent der Einkäufe mit Kreditkarte bezahlt wurden. Unangefochten auf Platz eins liegt PayPal  – 30,5 Prozent der Einkäufe bezahlten die Deutschen online mit dem Wallet.

 

girocard im stationären Handel erste Wahl

Im stationären Handel bezahlten weniger als 20 Prozent  der Kunden  die  Weihnachtsgeschenke  mit  einer Kreditkarte  (Visa  9,1  Prozent  und  MasterCard  9,0  Prozent). Damit ist  sie  weit  abgeschlagen  hinter  der  girocard als bevorzugte  Zahlungsart  im  Einzelhandel  (79,4  Prozent). Das ergeben die  Ergebnisse, die  PAYONE, B+S Card Service und Statista in ihrer Studie präsentieren.

 

Nikolaus macht die Taschen auf und kurz vor knapp läuft man sich die Sohlen ab

Der kaufstärkste Tag im Weihnachtsgeschäft des  E-­Commerce 2015 war der 06. Dezember.  Allein an diesem Tag wurden 340 Millionen Euro mit Weihnachtseinkäufen   umgesetzt.

Der  große Shoppingansturm traf den stationären Einzelhandel erst am 19. Dezember.

Am Samstag vor Weihnachten ließen 1,29 Milliarden Euro die Kassen der Händler klingeln, das zeigen die Daten, die PAYONE gemeinsam mit  B+S Card Service und Statista ausgewertet hat.

 

Männer  shoppen lieber stationär

Die  ausführliche Erhebung zum Weihnachtsgeschäft  2015 ergab  zudem, dass Männer im E-­Commerce während der letzten beiden Monate des Jahres unterrepräsentiert waren.   44 Prozent der Online-­Einkäufer waren in dieser Zeit Männer, 56 Prozent hingegen waren Frauen. Allerdings verhielt es sich so, dass Männer wenn Sie im E-­Commerce die Weihnachtseinkäufe erledigten durchschnittlich 100,78  Euro ausgaben und damit ca. 8,69 Euro  mehr als Frauen.

Die vollständige Studie:

„Shopping & Payment im Weihnachtsgeschäft 2015 – Studie zu den saisonalen Trends im E-Commerce und stationären Handel“

Weiterführende Informationen:

PAYONE

B+S Card Service

Bildquelle / Lizenz: Roobertj Noordzij

Creative Commons

 

Samsung: Neues Flagschiff in Sicht?

Samsung wird mit dem neuen Galaxy S7 vorrausichtlich noch im ersten Quartal dieses Jahres sein neuestes Flagship veröffentlichen. Millionen Smartphone-Nutzer warten bereits gespannt darauf, dass das neue Smartphone in die Läden kommt. Wie vor jedem Release brodelt auch dieses Mal wieder die Gerüchteküche. Doch was sind die neuesten Gerüchte? Worauf kann man sich schon jetzt freuen? Der folgende Artikel zeigt die neuesten Gerüchte und was an ihnen dran ist.

Force Touch, 3D Touch oder ClearForce?

Auch wenn alle Systeme im Grundsatz gleich sind, wird derzeit in der Gerüchteküche heftig über die verwendete Technologie für den Touch Screen des S7 diskutiert. Schenkt man den aktuellen Quellen und deren Belegen jedoch glauben, so ist es sehr wahrscheinlich, dass Samsung sich für die ClearForce Technologie entscheiden wird. Glaubwürdige Berichte belegen, dass Samsung mit Synaptics zusammenarbeitet, um die neue ClearForce Technik des Unternehmens bereits in die Generation S7 des Samsung Flagships aufzunehmen.

Heißes Thema – Das Display

Neben der verwendeten Technik hinter dem Display ist auch die Displaygröße heftig in der Diskussion. Glaubwürdige Quellen haben von zwei verschiedenen S7 Modellen gesprochen und Beweise vorgelegt. Bei einem Model handelt es sich dabei um ein Galaxy S7 mit einem 5,5 Zoll Display, die andere Quelle hingegen hat Belege für ein Samsung Galaxy S7 mit einem 5,1 Zoll Display. Nicht geklärt ist, ob es sich bei beiden Modellen um das Galaxy S7 handelt oder vielleicht um das größere Galaxy S7+. Ebenfalls unklar ist, ob Samsung verschiedene Größen in verschiedenen Ländern plant. Letztere Version scheint jedoch mehr als unwahrscheinlich.

Interner und externer Speicher, RAM

Einig scheint sich die Gerüchteküche über den Arbeitsspeicher des Samsung Galaxy S7 zu sein. Demnach gilt es als sicher anzunehmen, dass das S7 wie sein Vorgänger, das Samsung Galaxy S6 und S6 Edge, über vier Gigabyte Arbeitsspeicher verfügen wird. Der interne Speicher wird wieder 32 Gigabyte betragen, aber wie bei dem Vorgänger wird es auch für das S7 vermutlich wieder unterschiedliche Varianten mit mehr internem Speicherplatz geben. Eine positive Überraschung, die viele Nutzer freuen wird, ist die scheinbare Rückkehr des Mirco SD Steckplatzes. Endlich können die Anwender also wieder die kleinen SD Karten nutzen, um den Speicher ihres Gerätes noch weiter zu vergrößern.

Unklarheiten beim Prozessor

Weitere Unklarheiten gibt es bei dem verwendeten Prozessor. Quellen berichten von Geräten sowohl mit Qualcomm Snapdragon 820 Prozessor als auch mit dem hauseigenen Samsung Exynos 8890. Da es sich bei beiden Prozessoren um die wohl fortschrittlichsten Modelle handelt, die es in der nächsten Zeit auf dem Markt geben wird, ist die Frage nach dem Prozessor aber wohl eher nebensächlich. Zumindest auf die Leistung des starken Galaxy S7 wird diese Wahl keinen Einfluss haben und kann daher vernachlässigt werden.

Akkulaufzeit und Ladezeit

Der größte Kritikpunkt des Galaxy S6 war die geringe Akkulaufzeit. Auch hier hat Samsung reagiert. Glaubt man den Gerüchten, so wird das neue Galaxy S7 mit einem um ein Drittel vergrößerten Akku ausgeliefert. Zudem wurden umfassende Veränderungen und Modifikationen an der Software vorgenommen. Insgesamt kann man so eine Akkulaufzeit von etwa zwei Tagen erwarten – deutlich besser, als bei dem aktuellen S6-Modellen. Gleichzeitig erhöht sich auch die Ladezeit des Telefons ein wenig. Nunmehr muss der Nutzer etwa 2,2 Stunden warten, bis das Smartphone komplett aufgeladen ist.

Sonstige Neuerungen

An weiteren Neuerungen wurde die Auflösung der Front Kamera auf fünf Megapixel erhöht. Die Hauptkamera wurde von 16 auf zwölf Megapixel korrigiert. Der Grund ist, dass bei dem S7 der neue BRITECELL Sensor zum Einsatz kommt, der mit maximal zwölf Megapixeln arbeitet. Darüber hinaus verfügt der Sensor über eine deutlich bessere Leistung bei Nacht und ist lichtempfindlicher, sodass die Bildqualität insgesamt deutlich besser und schärfer werden sollte.

Fazit

Schaut man sich die Gerüchte an, so ist das Ergebnis zwiespältig. Liefert Samsung das S7 in der Tat mit einem 5,5 Zoll Display, dann würde das S7 Plus überflüssig. Kommt das S7 hingegen mit einem 5,1 Zoll Display, dann sind die weiteren Änderungen als eher minimal anzusehen, sodass sich ein Upgrade nicht lohnt und selbst Neukunden mit dem dann deutlich günstigeren Nachfolger mindestens ebenso gut fahren würden.

Weitere Informationen unter:
www.deinhandy.de

 

Bildquelle / Lizenz: Samsung, Copyright: Samsung

Das Einmaleins der Geldanlage

Geldanlage ist gerade in der anhaltenden Niedrigzinsphase ein heikles Thema: Soll ich meine Moneten auf dem Sparbuch lassen, wo sie ganz langsam von der Inflationsrate „aufgefressen“ werden, oder doch mehr ins Risiko gehen? „Auf unerfahrene Anleger lauern viele Gefahren. Wer aber einige Regeln beachtet, kann sich absichern und guten Gewissens Entscheidungen treffen“, meint Oliver Schönfeld vom Verbraucherportal Ratgeberzentrale.de.

Elf Fragen – und Geldanlage ist kein Hexenwerk mehr

Elf Fragen sollte sich jeder Anleger vor einem Investment stellen. Formuliert wurden sie von Georg Hetz, Geschäftsführer des unabhängigen Nürnberger Finanzdienstleisters UDI. Das Unternehmen hat sich seit 1998 auf umweltfreundliche Geldanlagen im Wachstumsmarkt der erneuerbaren Energien spezialisiert – von Windrädern über Solar- und Biogasanlagen bis hin zu energieeffizienten Immobilien (www.udi.de).

  1. Wofür werde ich Geld in meinem Leben brauchen? Was will ich mit meiner Geldanlage erreichen? So unterschiedlich wie die Menschen sind auch ihre Ansprüche und Anforderungen bei der Geldanlage. Will ich ein Vermögen aufbauen oder nur mindestens den Wert des Depots erhalten? Will ich mein Risiko möglichst breit streuen oder auch spekulieren und Marktchancen wahrnehmen?
  2. Welche Bedeutung hat Nachhaltigkeit bei der Geldanlage? Anleger sollten sich fragen, wie wichtig es ihnen ist, dass das Geld nicht in Atomkraft, Waffenhandel, Kohlekraft, Massentierhaltung oder Kinderarbeit investiert wird.
  3. Wo und wie komme ich an Informationen zum Anbieter und zu Vergleichsangeboten? Der eine vertraut lieber standardisierten Methoden und einer unabhängigen Prüfung – andere setzen auf persönliche oder andere Kanäle wie der Familie, Freunden oder Foren im Internet. Generell hilft schon das „Googeln“ des Anbieters, andere nützliche Seiten sind die Verbraucherzentralen, ebenso wie finanztest.de, ecoreporter.de oder greenvalue.de für grüne Geldanlagen.
  4. Welches Risiko kann und will ich in Kauf nehmen, um höhere Renditen, etwa über eine Sachwertinvestition, zu erreichen? Was ist mir wichtiger – Rendite oder Sicherheit? Kann ich mit einem Teilverlust des angelegten Geldes leben? Kann ich mit einer geringeren oder sogar ausbleibenden Dividende beziehungsweise Ausschüttung und Zinsgutschrift leben?
  5. Wie ist mein Anlagehorizont, wie schnell kann und will ich über mein angelegtes Geld verfügen können?
  6. Welche langfristigen Ziele verfolge ich bei der Geldanlage? Welche Anlageklassen sind geeignet, diese Ziele zu erreichen, welche scheiden aus? Die Palette reicht vom sicheren, aber renditeschwachen Tages- oder Festgeld bis hin zu Immobilien, die eine hohe Rendite versprechen, bei denen aber auch sehr gute Marktkenntnisse notwendig sind.
  7. Welche Finanzprodukte passen zu meinen Vorstellungen? Wer ist der Anbieter? Welche Leistungsbilanz hat er, wie sind seine bisher angebotenen Produkte gelaufen? Gab es Ausfälle, wurden Zinsen und Kapital immer pünktlich gezahlt? Greift eine Einlagensicherung oder Staatsgarantie? Bei der Einlagensicherung bei Banken und Sparkassen etwa sind nur Konten geschützt – aber nicht die Inhalte von Depots, also keine Fonds und keine Aktien.
  8. Welche Kosten fallen bei der Geldanlage an wie etwa Gebühren, Agio, andere jährliche Kosten? Hier sollte man auf das Kleingedruckte und die Sternchen-Texte (*) achten.
  9. Vermögensstreuung: Wie viel Kapital ist schon in einer Anlagesparte gebunden? Empfehlenswert ist eine Streuung nach Laufzeiten, Risikoklassen und Investitionsobjekten.
  10. Falls ich eine Beratung nutze: Kenne ich die offenen und verdeckten Entlohnungen beziehungsweise Provisionen meines Beraters und bin ich mit deren Umfang und Verhaltensanreizen einverstanden?
  11. Und zuletzt eine ganz einfache Frage, wenn man beim Berater ist: „Warum empfehlen Sie mir eigentlich genau dieses Produkt?“

Anlageklassen im Überblick

  • Festgeld, Tagesgeld und Sparbuch tragen praktisch kein Risiko, bringen aber auch wenig Rendite.
  • Rentenfonds und Bundesanleihen haben ebenfalls eine geringe Ertragserwartung, aber auch ein geringes Risiko.
  • Aktien, Aktienfonds und Anleihen mit A-Rating haben eine höhere Ertragserwartung, aber auch ein höheres Risiko.
  • Aktien weltweit, Anleihen mit B-Rating, geschlossene Fonds und Festzinspapiere in erneuerbare Energien besitzen eine hohe Ertragserwartung und ein entsprechendes Risiko.
  • Optionsscheine und Zertikate verfügen über hohe Ertragschancen, das Risiko ist ebenfalls hoch.
  • Immobilien und andere Direktinvestments haben gute Ertragschancen je nach Objekt, genaue Marktkenntnisse sind sinnvoll, das Geld ist nicht schnell verfügbar.

Weitere Informationen unter:
www.udi.de

 

Bildquelle / Lizenz: flickr.com / Donald Townsend: Euros and cents; Veröffentlicht unter: https://creativecommons.org/licenses/by-nc-sa/2.0/

Digitalisierung im Mittelstand

Das Thema Digitalisierung im Mittelstand bewegt. Über 600 Gäste waren zum Cloud Unternehmertag der Scopevisio nach Bonn gekommen, um die Chancen neuer Technologien für ihr eigenes Unternehmen auszuloten.

„Alles was digitalisiert werden kann, wird auch digitalisiert werden“, zeigte sich Autor und Coach Karl-Heinz Land überzeugt. Mit viel größerer Macht als jeder Technologiesprung zuvor greife die digitale Revolution in das Wirtschaftsleben ein und fege bewährte Geschäftsmodelle und Jahrzehnte alte Marken von der Bildfläche – und das innerhalb kürzester Zeit. Der Mittelstand sei jetzt gefordert. Denn: „In Zeiten der Disruption werden Märkte neu aufgeteilt“, betonte Dr. Jörg Haas, Gründer der Scopevisio. Die provokanten Thesen der Redner führten zu lebhafter Beteiligung der Gäste und zu vielen Gesprächen in der begleitenden Ausstellung.

Das Thema Cloud Computing spielt bei der Digitalisierung eine besondere Rolle, denn die Cloud ist die Basis für moderne Geschäftsprozesse. Haas veranschaulichte dies an Beispiel der Unternehmenssoftware von Scopevisio, die anfangen bei Vertrieb und Marketing über die Projektsteuerung bis hin zur Buchhaltung alle wichtigen Geschäftsfelder in einer integrierten Cloud-Lösung abbildet.

Scopevisio macht auf diese Weise ein „neues Arbeiten“ möglich, wie es Frank Maenz, Marketing Manager bei Microsoft in seinem Vortrag forderte: „Wo und wie wir arbeiten, verändert sich.“ Vernetztes Wissen statt Informationssilos, dynamische Teams statt fester Hierarchien und Technologien als Treiber statt als Kostenfaktor – das ist die neue Arbeitswelt, die auch bei Microsoft selbst genau so gelebt wird.

Dass die Cloud dabei unverzichtbar ist, machte Gründer und Investor Frank Thelen deutlich und forderte: „Jedes Business gehört in die Cloud!“ Die wichtigsten Gründe dafür: ein sicherer und zentraler Ort für alle Daten sowie immer und überall aktuelle Informationen. Thelens Auftritt führte zu regen Diskussionen im Publikum – angefangen beim Thema digitale Währung bis hin zur digitalen Bildung.

Was die Digitalisierung speziell für den Berufsstand der Steuerberater aber auch für Freiberufler allgemein bedeutet, erläuterte Dr. Horst Vinken, Präsident des Bundesverbandes der Freien Berufe. In den Mittelpunkt seines Vortrages stellte Vinken die elektronische Steuerveranlagung, wobei er insbesondere auf ELSTER und E-Bilanz einging.

Den Fokus auf die Medienwelt, insbesondere auf das Radio, richtete Andy Abels, Leiter Digitale Entwicklung bei RPR1. In seiner Präsentation zeigte Abels, wie in die Grenzen zwischen Radio und Online verschwinden. Social Media und Radio ergänzen sich mehr und mehr, Moderatoren werden zu „Social Influencern“ und Redakteure zu „Content Analysten“. Abels sieht hier die Chance, das Angebot noch besser auf die Zielgruppe zuschneiden zu können.

Im Ausstellungssaal, dem Kameha Dome, war mit dem Cloud Theater ein neues, offenes Präsentationsformat gefunden worden, das viele Interessierte anzog. In Kurzpräsentationen und Praxisbeispielen wurde hier gezeigt, wie Entscheider auf flexibleres und effizienteres Arbeiten umschalten können. Die begleitende Ausstellung Cloud Expo präsentierte Produkte und Services, die dabei unterstützen. Zu den Ausstellern zählten unter anderem Fujitsu, Infas 360 und Wacom. Veranstaltungspartner des Cloud Unternehmertages 2016 waren die IHK Bonn Rhein-Sieg, der BVMW – Bundesverband mittelständische Wirtschaft und die Creditreform.

Weitere Informationen unter:
www.scopevisio.com

 

Bildquelle / Lizenz: r2hox data.path Ryoji.Ikeda – 4; flickr.com; Veröffentlicht unter: https://creativecommons.org/licenses/by-sa/2.0/

Franchise: Neue Perspektiven für Angestellte

Franchise-Systeme verzeichneten 2015 ein moderates Wachstum. Größtes Potenzial für neue Franchise-Partner bietet der Arbeitsmarkt mit seinen über vier Millionen wechselwilligen Fachkräften. Für sie kann eine Franchise-Partnerschaft vollkommen neue Karriereperspektiven schaffen.

Bonn. Die bundesweit rund 950 Franchise-Systeme sind im Jahr 2015 auf rund 117.700 Franchise-Partner (+ 1,3 Prozent) gewachsen, so der Bonner Mediendienst forum franchise und systeme in Kooperation mit dem Deutschen Franchise-Verband e.V. (DFV), Berlin. Die Zahl der Franchise-Betriebe ist um 1,7 Prozent auf über 156.600 Betriebe gewachsen. Insgesamt beschäftigen diese über 686.000 Mitarbeiter (+ 1,3 Prozent).

2015 verzeichnete die Franchise-Wirtschaft wie auch im Vorjahr ein moderates Wachstum. Aktuelle Auswertungen des DFV haben ergeben, dass 37 Prozent der Systeme ihre Ziele in Bezug auf die Gewinnung neuer Franchise-Partner erreicht haben. Laut Franchise-Monitor betrug das Wachstum durchschnittlich 1,6 Franchise-Partner pro System (netto).

Franchise_Ueberblick2015

Der Systemumsatz stieg im vergangenen Jahr um 4,3 Prozent auf 99,2 Mrd. Euro. Zurückzuführen ist dies vor allem auf die positive Entwicklung bestehender Franchise-Partner, deren Umsätze durchschnittlich um 2,6 Prozent zulegten. Auf das neue Jahr blicken die Franchise-Geber zuversichtlich und rechnen damit, dass das Wachstum wieder anzieht.

Franchise ermöglicht Quereinstieg

Größtes Potenzial, neue Franchise-Partner zu gewinnen, bieten Fachkräfte, die eine neue berufliche Herausforderung suchen. Branchenstudien zufolge trifft das auf jährlich über 4 Millionen Angestellte zu. „Viele Franchise-Systeme haben sich bisher vorwiegend auf Führungskräfte konzentriert, von denen jährlich etwa 500.000 ihren Job wechseln. Die eigentliche Zielgruppe der Fachkräfte wird heute noch nicht gezielt angesprochen“, so forum-Chef Felix Peckert, einer der führenden Unternehmensberater im Franchise. Gerade für Facharbeiter bietet Franchise jedoch eine völlig neue berufliche Perspektive. Neben einem höheren Einkommen könnten auch die weit verbreiteten Wünsche nach mehr Anerkennung und besseren Karriereperspektiven erfüllt werden. „Bisher haben Fachkräfte Franchise als Karriereoption nicht präsent“, so Peckert. Neben Engagement und kaufmännischem Verständnis benötigten sie vor allem den Willen, eigenverantwortlich zu handeln. Spezifische Branchenkenntnisse werden von den meisten Franchise-Systemen nicht verlangt. Das erforderliche Know-how erhalten Franchise-Partner vom Systemgeber.

Nachfolge antreten

Neben der Eröffnung neuer Betriebe bieten viele Franchise-Systeme auch die Möglichkeit, bereits etablierte Betriebe zu übernehmen. Etwa jedes zweite Franchise-System ist länger als zehn Jahre am Markt – mit entsprechend langjährigen Franchise-Partnerschaften. „Wie überall im Mittelstand ist die Unternehmensnachfolge auch für die Franchise-Wirtschaft ein zentrales Thema“, sagt Torben Leif Brodersen, Geschäftsführer des DFV. „Für Gründer, aber auch für bestehende Unternehmer ergeben sich dadurch attraktive Chancen.“ Nicht zuletzt könnten sie ihre Entscheidung für einen Standort auf Basis von Echtzahlen treffen und damit das eigene Erfolgspotenzial besser abschätzen.

Dienstleistungssektor vorne

Die Investition in einen Franchise-Betrieb beträgt durchschnittlich rund 50.000 Euro. Abhängig vom Unternehmenskonzept, der Standortgröße und den jeweiligen Vorlaufkosten liegt sie bei einigen Franchise-Systemen auch über 200.000 Euro. Etwa 25.000 bis 75.000 Euro werden als Eigenkapital verlangt.

Ob Fitnessstudio, Hausbau oder Gastronomie – Franchise-Konzepte gibt es in allen Branchen. An der Spitze steht unverändert der Dienstleistungsbereich mit 39 Prozent. Fast ein Drittel der Systeme (31 Prozent) fallen auf den Handel. Es folgen die Gastronomie-, Touristik-, und Freizeit-Anbieter mit einem Anteil von 20 Prozent sowie der Bereich Handwerk, Bau und Sanierung mit 10 Prozent.

Franchise-Monitor, Institut für Markenfranchise, Bonn, in Kooperation mit: Deutscher Franchise-Verband e.V., Berlin

Experten:     Felix Peckert (Facts & Trends),
Joachim Klapperich (Recht),
Dr. Patrick Giesler (Recht)

Dies ist eine Pressemitteilung des forum franchise und systeme Mediendienst für die Franchise-Wirtschaft

Für Rückfragen:
Christina Westerhorstmann

c.westerhorstmann@peckert.de

Telefon:                                                 0228-91158.52

Telefax:                                                 0228-91158.99

Rechte Bildlizenz Beitragsaufmacher: https://creativecommons.org/licenses/by/2.0/

Re:group

Digitalisierung in deutschen Krankenhäusern

Deutsche Krankenhäuser haben ein großes Interesse daran, ihr Geschäft zu digitalisieren. Verfahren zur Verwaltung elektronischer Patienten- und Fallakten sowie zur fallbezogenen Materialerfassung werden von 87 Prozent der Verantwortlichen als nützlich bewertet, da sie Abläufe beschleunigen und Kosten senken. Das geht aus einer neuen Untersuchung der auf Einkauf und Supply Chain Management spezialisierten Beratung INVERTO hervor. Diese belegt allerdings auch, dass den Häusern die Implementierung der notwendigen Technik schwerfällt: Der durchschnittliche Reifegrad der IT in den Krankenhäusern ist noch niedrig.

Nachholbedarf bei Organisation und Investitionen

Zu den wichtigsten Ursachen zählen organisatorische Mängel. So gaben 67 Prozent der befragten Führungskräfte an, die IT-Abteilung werde in ihrem Krankenhaus überwiegend als Dienstleister verstanden, der höchstens in Störungsfällen konsultiert würde. Eine gute und vor allem strategische Zusammenarbeit zwischen der IT und anderen Fachbereichen bescheinigten dagegen nur 23 Prozent der Befragten ihrem Krankenhaus.

Danach gefragt, welche weiteren Hürden und Risiken sie mit Blick auf die Einführung neuer, digitaler Technologien sehen, nannten die Befragten außerdem fehlende Mittel für Investitionen (61 Prozent bewerteten dies mit „sehr hoch“ oder „hoch“), fehlende Kapazitäten innerhalb der hauseigenen IT-Abteilung (54 Prozent), heterogene IT-Strukturen (48 Prozent), Schwierigkeiten beim Datenschutz (38 Prozent), sowie die mangelnde Bereitschaft der Mitarbeiter (31 Prozent).

Insgesamt geht die Mehrheit der Befragten jedoch davon aus, dass der Nutzen von Digitalisierungsvorhaben die damit verbundenen Schwierigkeiten bei weitem übersteigt: 87 Prozent der Befragten stimmten einer entsprechenden Aussage „voll“ bzw. „überwiegend“ zu.

Prioritäten bei der Digitalisierung variieren

INVERTO untersuchte nicht nur die grundsätzliche Haltung zur Digitalisierung bzw. deren Organisation, sondern befragte Führungskräfte auch, in welche digitalen Technologien sie investieren würden. Die Resultate zeigen Unterschiede zwischen den verschiedenen Krankenhausarten. So schätzen Universitätskliniken Verfahren zur fallbezogenen Materialerfassung oder den Einsatz von Unique Device Identification (UDI) wichtiger ein als nicht-universitäre Maximal- und Schwerpunktversorger oder als Krankenhäuser der Grund- und Regelversorgung.

Ein ähnliches Bild zeigt sich bei Auswertung der Antworten nach Kalkulationsvereinbarung: Krankenhäuser mit Vereinbarung bewerten zwar die fallbezogene Materialerfassung ebenso hoch wie Häuser ohne, messen aber dem UDI-Einsatz mehr Wert bei als Letztere.

Universitätskliniken besser vorbereitet

Beim Blick auf die Voraussetzungen der verschiedenen Krankenhäuser zur Digitalisierung, haben die beiden Gruppen erneut einen Vorsprung: Universitätskliniken verfügen häufiger (67 Prozent) über eine Schnittstelle zwischen dem Krankenhausinformationssystem (KIS) und dem Materialwirtschaftsystem (MaWi) als Maximal- und Schwerpunktversorger (50 Prozent) bzw. Grund- und Regelversorger (53 Prozent). Zudem setzen Universitätskliniken häufiger (78 Prozent) Barcode-Scanner zum Einlesen von Material- oder Geräteinformationen ein (gegenüber 54 bzw. 59 Prozent).

 

Digitalisierung in deutschen Krankenhäusern: Niedriger IT-Reifegrad erschwert die Einführung zukunftsweisender Verfahren wie fallbezogener Materialerfassung

 

Beides verschafft ihnen Vorteile in puncto Digitalisierung: Die Anwendungsintegration ist eine wesentliche Voraussetzung für die Einführung fallbezogener Materialverfolgung, die Barcode-Scanner ermöglichen die Implementierung von UDI.

Auch Krankenhäuser mit Kalkulationsvereinbarung verfügen über bessere Voraussetzungen: Sie verknüpfen das KIS und MaWi öfter als Häuser ohne Vereinbarung (72 gegenüber 36 Prozent) und planen häufiger UDI-Anwendungen einzuführen (54 gegenüber 10 Prozent).

„Damit das digital integrierte Krankenhaus Wirklichkeit werden kann, brauchen Kliniken IT-gestützte Fall- bzw. Patienteninformationen, IT-gestützte Einkaufsabläufe und IT-gestützte Material- und Geräteverfolgung. Zudem muss eine vollständige Integration der entsprechenden Systeme umgesetzt werden“, erklärt Jan-Christoph Kischkewitz, Principal bei INVERTO und Hauptverantwortlicher für die Studie. „Universitätskliniken und Krankenhäuser mit Kalkulationsvereinbarung machen vor, wie diese Voraussetzungen geschaffen werden können. Aber auch sie haben noch einige Arbeit und IT-Investitionen vor sich.“

Weitere Informationen unter:
www.inverto.de

Bildquelle / Lizenz Grafik: „obs/Inverto AG/INVERTO AG“

Bildquelle / Lizenz Aufmacher:

Digital Detox: Neustart für Körper, Geist und Seele

Digital Detox ist eine Bewegung, die den vorübergehenden Verzicht auf elektronische Geräte propagiert – als Möglichkeit, Stress zu reduzieren und wieder mit der physischen Welt zu interagieren. Die These dahinter: Nach dem vorübergehenden Verzicht auf digitale Kommunikation, steigt die Produktivität, denn die Person kommt „aufgeladen“ und mit neuer Energie zurück. Einfach: frei. Digital Detox in 1500 Meter

Kein Auto, kein Lärm, kein Stress.

Einfach nur Stille und Natur. Keine Straße führt zum Vigiljoch. Die Seilbahn ist der einzige Weg, der die Gäste in sieben Minuten von Lana auf 1500 m Meereshöhe bringt: an einen Ort voller Kraft, an dem die Natur in Einklang mit sich selbst ist. Es sind die perfekten Rahmenbedingungen für digitale Vielnutzer, die sich von der permanenten Informationsflut des alltäglichen Lebens erholen wollen. Bewusst verzichtet das Haus auf Fernsehgräte in den Zimmern und ab 23.00 Uhr wird auch das WLAN heruntergefahren. Das Haus lädt ein, eins zu werden mit dem Rhythmus der Natur. Dies ermöglicht einen freien Blick auf sich selbst und eine neue Sicht der Dinge. Alte Denkstrukturen werden über Bord geworfen und ersetzt durch neue Sichtweisen und Erfahrungen.

Perfektion der Einfachheit

Auch die Architektur des vom renommierten Architekten Matteo Thun entworfenen Hauses unterstützt die Rückbesinnung auf sich selbst. Wie ein liegender Baumstamm schmiegt es sich an die umliegende Landschaft und gibt den Blick frei auf uralte Lärchen und die einzigartige Bergkulisse der Dolomiten – unaufdringliche Architektur, in der Behaglichkeit und Design harmonisch miteinander verschmelzen. Der Bau besteht zur Gänze aus erneuerbaren Ressourcen: Holz und Glas verschaffen Wärme und erlauben gleichzeitig eine großartige Fernsicht auf die Umgebung. Großzügige Räume tun sich auf, sobald man das vigilius mountain resort betritt. Lichtdurchflutete Korridore führen zu den Zimmern, den öffentlichen Räumen und dem vigilius mountain spa. Im Mittelpunkt des Hotels steht jedoch immer der Mensch.

Wohlbefinden für Körper, Geist und Seele

Tage im vigilius mountain resort beinhalten die Zeit und die Muße, um die Aufmerksamkeit ganz auf sich selbst und das eigene körperliche und seelische Wohlbefinden zu richten. Dabei zieht das Haus bei den Spa-Behandlungen intelligente Verbindungen zwischen den Schätzen der Südtiroler Bergwelt und den Weisheiten traditioneller und fernöstlicher Heilkunst. Mit move & explore bietet das Haus ein kostenloses Sportprogramm, das die Vorzüge des Berges sinnvoll und für alle Sinne nutzt – von Wake-up-Gymnastic oder Aqua-Pilates über Bogenschießen bis hin zu Laufen oder ausgedehnten Wanderungen zu den schönsten Plätzen des Vigiljochs.

Einfach: sein.

Im vigilius mountain resort haben digitale Vielnuutzer die Gelegenheit, einfach mal loszulassen und sich ein Stück weit zu entdigitalisieren und bewusst offline zu gehen: Ruhe, Erholung, Natur und die Möglichkeit alles Alltägliche über Bord zu werfen, um die neu- und wiedergewonnene Zeit bewusst zu erleben.

 

Über vigilius mountain resort

Das vigilius mountain resort, ein nachhaltiges 5-Sterne-Designhotel in Südtirol, liegt in 1500 m Höhe auf dem Vigiljoch, dem autofreien Hausberg von Lana und ist nur über Schwebeseilbahn zu erreichen.

Nachhaltigkeit und Naturverbundenheit werden in dem Berghotel mit 41 Zimmern groß geschrieben. Dies spiegelt sich sowohl in der Architektur als auch der ökologischen Gesinnung des Hotels wider. Als erstes Klimahaus-A-Hotel in Italien arbeitet das vigilius mountain resort sparsam nur mit erneuerbaren Ressourcen. Holz, Naturstein, Lehm und Glas dominieren das Erscheinungsbild des Hotels, in den Wasserleitungen fließt mineralisches Quellwasser vom Vigiljoch, beheizt wird das Resort mit Biomasse und auch die Küche verwendet vornehmlich regionale Produkte, bevorzugt aus biologischer Landwirtschaft.

 

Pressemitteilung:  Für weitere Informationen besuchen Sie: http://www.vigilius.it/de

 

Lizenz und Bildquelle: Markus Trienke

https://creativecommons.org/licenses/by-sa/2.0/

Videokonferenzen: Mit Bild und Ton – Teil 4

Neues Jahr, neue Möglichkeiten: der Test der letzten Tage bezog sich auf die Portabilität unserer ConferenceCam die uns freundlicherweise von Logitech zur Verfügung gestellt wurde. An einem Mac Book haben wir über die Feiertage reichlich Gebrauch von der Möglichkeit gemacht, uns unterwegs von der Qualität der Kamera zu überzeugen.

Dank der langen Akkulaufzeit war eine improvisierte Videokonferenz mit der Familie auch kein Problem – einzig das Inklusiv-Datenvolumen des Tarifs muss dringend überdacht werden. Hier sollten aber auch mal die Netzbetreiber ein wenig Nachdenken über die Frage ob ihre Tarifpolitik noch zeitgemäß ist. W-LAN-Hotspots auf Raststätten gehören auch noch nicht überall zum Standard.

Aber das gehört nicht zum Test. Zum Test gehörte, wie uns das Gegenüber wahrnahm. Und das war deutlich und klar. Dank der gut verarbeiteten Optik gelang das auch unterwegs. Das komplette Videokonferenz-System kann jederzeit in diversen Büroräumen die mit W-LAN oder mit einem mobilen Hotspot ausgestattet sind medienbruchfrei betrieben werden. Gut gefallen hat uns die W-LAN und USB-Schnittstelle mit der jederzeit über ein Mobiltelefon eine Konferenzverbindung dezentral und ortsunabhängig mit guter Qualität aufgebaut werden kann. Selbst Videokonferenzen auf der Terasse oder im Garten werden so für kreative Unternehmen möglich. Frei nach dem Motto: Kommunikation jederzeit und überall. Dabei hilft auch die Fernsteuerungseinheit die designtechnisch hervorragend in die Videokonferenz-Röhre herausnehmbar integriert wurde. Das Design des Videokonferenzsystems passt sich nahtlos in Arbeitsumgebungen ein und sieht schick aus.

Die ConferenceCam justiert die Schärfe selbst nach und das sehr gut und schnell. Einige Parameter lassen sich dabei natürlich auch noch selbst nachstellen. Außerdem natürlich alles, was die jeweilige Software zulässt. Da sich die ConferenceCam mit dem von uns präferierten Skype perfekt versteht, lässt sich die Kamera auch von dort aus steuern. Aber auch die Integration in die Mac-Welt funktioniert einfach und problemlos.

 

Weitere Informationen unter:
www.logitech.com

Bildquelle / Lizenz: Logitech

Integration von Wearables im Auto

Persönliche Technik-Features und Fahrzeug-Technologien sollen immer enger zusammenwachsen – dies ist das Ziel des neuen Forschungslabors für die Integration tragbarer Geräte, sogenannter „Wearables“, das der Automobilhersteller Ford jetzt an seinem US-amerikanischen Hauptsitz in Dearborn im Bundesstaat Michigan gegründet hat. Das neue Labor trägt den Namen „Automotive Wearables Experience“ und ist innerhalb des Forschungs- und Innovationszentrums von Ford in Dearborn angesiedelt. Die Wissenschaftler und Ingenieure arbeiten dort gemeinsam an der Integration von tragbaren Gadgets und Fahrzeugen. Sie beschäftigen sich unter anderem mit der Frage, wie wichtige Gesundheitsinformationen des Fahrers mit Fahrzeug-Technologien wie beispielsweise dem „Fahrspurhalte-Assistent“ oder dem „Toter-Winkel-Assistent“ (BLIS) verknüpft werden können. Ziel ist es, die Sicherheit der Autofahrer weiter zu verbessern.

Der Fahrspurhalte-Assistent könnte beispielsweise künftig empfindlicher auf Abweichungen von der korrekten Fahrtrichtung reagieren, sobald die Smartwatch des Fahrers meldet, dass dieser in der vorigen Nacht nicht genügend Schlaf hatte. Ein anderes Beispiel: Falls sich der Puls des Fahrzeuglenkers in dichtem Verkehr beschleunigt und ein „Wearable“ dies erfasst, könnte ein System wie die Adaptive Geschwindigkeitsregelanlage automatisch eine größere Mindestdistanz zum vorausfahrenden Auto halten.

„Immer mehr Verbraucher benutzen Smartwatches, Datenbrillen und Fitness-Armbänder. Wir hoffen, dass wir zukunftsfähige Anwendungen entwickeln, die mit den elektronischen Systemen des Fahrzeugs korrespondieren und auf diese Weise die Sicherheit der Autofahrer voranbringen“, erklärte Gary Strumolo, in der Forschung und Vorausentwicklung von Ford für Fahrzeugkonstruktion und Infotronik verantwortlich. Strumulo weiter: „Die Integration moderner tragbarer Geräte und der Fahrzeugsysteme ermöglicht es, genaue biometrische Daten kontinuierlich zu streamen. Damit lassen sich Ansprech-Schwellen und Reaktionen der aktiven Sicherheitssysteme empfindlicher einstellen. Sobald der Fahrer gesundheitliche Probleme zeigt, können die Systeme noch gezielter eingreifen.“

Wearables-Anwendungen auch für das autonome Fahren sinnvoll

Funktionen wie das Erfassen der Aufmerksamkeit des Fahrers sowie von Blutdruck, Blutzuckerspiegel, Puls und anderer Werte über ein tragbares Gerät könnten künftig auch in voll-autonomen Fahrzeugen zum Zuge kommen. Das neue Forschungslabor von Ford untersucht daher, wie Passagiere eines autonom fahrenden Automobils benachrichtigt werden sollen, falls sie kurzfristig selbst das Steuer übernehmen müssen. Die Bandbreite möglicher Signale reicht vom Vibrations-Alarm am Handgelenk über Signaltöne bis hin zu Leuchtsignalen im Armaturenträger.

Sprachsteuerung für Apps sowie ganz neue Kundenerlebnisse möglich

Ein weiterer Forschungsbereich des neuen „Wearables“-Labors von Ford ist die Sprachsteuerung der Smartwatch-Version der App „MyFord Mobile“. Künftig sollen Autofahrer ihren Ford auf Wunsch auch per Smartphone oder Uhr-App starten, ver- und entriegeln sowie zuverlässig lokalisieren können.

Auch für die futuristischen Datenbrillen entwickelt das Forschungslabor automobile Ideen. Ansätze wie Augmented Reality (erweiterte Realität) sollen Kunden ganz buchstäblich neue Einblicke in die Welt von Ford ermöglichen. Entsprechend ausgestattete Datenbrillen könnten Interessenten beispielsweise durch ein Autohaus leiten und mit Informationen zum jeweils betrachteten Modell versorgen. Die Fahrzeuge im Showroom wiederum liefern über „Tags“ intelligente Features von technischen Daten bis hin zur virtuellen Testfahrt.

„Unsere Suche nach Anwendungen für wearables, also für tragbare Geräte, erstreckt sich auf die unterschiedlichsten Felder“, bestätigte Gary Strumulo. „Das Potenzial ist praktisch grenzenlos. Mit der Stärkung von Sicherheit und Gesundheit unserer Kunden am Steuer bis hin zum virtuellen Autohauserlebnis deuten wir die riesige Bandbreite der Möglichkeiten an.“

„App Challenge“ prämiert Ideen zur Erfassung von Fahrer-Gesundheitsdaten im Auto

Ford und die „Henry Ford Health System“ (HFHS)-Organisation fördern zudem einen vor kurzem gestarteten Ideenwettbewerb für App-Entwickler, der innovative Technologien zur Erfassung von Gesundheitsdaten des Fahrers im Auto hervorbringen soll. Alle Beschäftigten von Ford und HFHS können Ideen einreichen, wie Fahrzeuge und tragbare Elektronik als Komponenten eines effizienten Gesundheits- und Wellness-Programms für Kunden und Patienten unterschiedlichster Altersgruppen und Krankheitsbilder genutzt werden können. Noch bis zum 20. Januar 2016 werden Vorschläge gesammelt, im März gibt Ford dann die Finalisten bekannt. Für die siegreichen Apps sind Preisgelder von insgesamt 10.000 US-Dollar ausgeschrieben.

Innovationen rund um „Wearables“ sind Teil der Ford Smart Mobility-Strategie

Die Innovationsforschung rund um die angesagten „Wearables“ basieren wie viele weitere Initiativen von Ford auf dem Plan Ford Smart Mobility. Mit dieser Strategie will das Unternehmen in puncto Konnektivität, Mobilität, autonome Fahrzeuge, Kundenerlebnis sowie Daten und Analyse neue Maßstäbe setzen.

Ford-Werke GmbH Die Ford-Werke GmbH ist ein deutsches Automobilunternehmen mit Sitz in Köln. Das Unternehmen beschäftigt an den Standorten Köln und Saarlouis mehr als 24.000 Mitarbeiterinnen und Mitarbeiter. Seit der Gründung des Unternehmens im Jahr 1925 wurden mehr als 40 Millionen Fahrzeuge produziert.

Weitere Informationen unter:
www.ford.de

Bildquelle / Lizenz: Ford Werke GmbH; bitte Urheberrechte beachten

Industrie 4.0 funktioniert nur mit Logistik 4.0

Das Thema „Industrie 4.0“ ist derzeit in aller Munde und nimmt langsam Gestalt an. Auf dem Nationalen IT-Gipfel im November in Berlin wurde eine Online-Landkarte der Plattform Industrie 4.0 vorgestellt, auf der über 200 konkrete Anwendungsbeispiele vorgestellt werden. Davon allerdings nur 15 aus dem Bereich Logistik. Doch die Vision einer sich selbst steuernden Smart Factory im Sinne von Industrie 4.0 setzt reibungslos funktionierende Lieferketten voraus. Denn: ohne Blutzufluss kein Herzschlag. Das klingt zunächst banal. Doch angesichts der exorbitant wachsenden Datenmengen lassen sich Transportketten im internationalen Verkehr mit herkömmlichen Tracking-&-Tracing-Methoden zukünftig nicht mehr managen. Schon heute sind die an den arbeitsteiligen Prozessen beteiligten Akteure mit Herausforderungen konfrontiert, die unerwünschte Bruchstellen nach sich ziehen und unplanmäßige Kettenreaktionen auslösen können.

Terminalbetreibern stehen zum Beispiel nur begrenzt Möglichkeiten zur Verfügung, Vor- und Nachläufe zu überwachen und auf Änderungen angemessen zu reagieren. „Im Extremfall kann es passieren, dass sich erst im Augenblick der geplanten Containerverladung herausstellt, dass der dringend erwartete Lkw samt Fracht noch nicht einmal in der Nähe des Terminals ist“, sagt Geert-Jan Gorter, Geschäftsführer der Dortmunder catkin GmbH, die ein unternehmensübergreifendes Kommunikationsportal für Logistik-Aufträge in komplexen Dienstleisterstrukturen entwickelt hat. „Dann ist Warten angesagt. denn auch der Spediteur kann oftmals nicht sofort exakt Auskunft darüber geben, wo sich der Lkw aktuell gerade befindet“, berichtet Gorter aus seiner Erfahrung.

Verstärkt wird dieses Dilemma, wenn er den Transportauftrag an Dienstleister oder Subunternehmer vergeben hat. Auch der Schienengüterverkehr wird häufig durch das Zusammenwirken zahlreicher Dienstleister abgewickelt. Es mangelt an Transparenz und valider unternehmensübergreifender Information, ein Umstand, der leicht zu Instabilität in der Transportkette führen kann.

Lieferketten werden zunehmend komplexer

Um einen durchgängigen Kommunikations- und Informationsfluss sicherzustellen, der keine Wünsche unerfüllt lässt, müssen sämtliche Teilnehmer einer Lieferkette samt ihren Geschäftsprozessen elektronisch miteinander vernetzt werden. Manuelle Datenübertragungen sind zu eliminieren. Gleichzeitig sollten relevante Informationen auf allen Hierarchieebenen – vom Kunden bis zu den Dienstleistern – in Echtzeit verfügbar sein. Erst dann lassen sich in einem weiteren Schritt auch unternehmens- und verkehrsträgerübergreifende Prozesse automatisieren.

Visionär betrachtet könnte die Ladung zukünftig auch selbst mit „Intelligenz“ ausgestattet werden, um den eigenen Transport in Eigenregie zu organisieren. Partnernetzwerke dieser Prägung funktionieren jedoch nur mithilfe geeigneter Logistikplattformen. Diese wiederum setzen einheitliche Kommunikationsstandards voraus. Neue und/oder veränderte Abläufe müssen schnellstens integriert und mobile Mitarbeiter via Tablet- oder Smartphone-Apps angebunden werden können. Die Folge: Jeder Teilnehmer wird jederzeit mit allen relevanten Informationen versorgt. Dazu zählen neben Details zum jeweiligen Auftragsstatus und Checklisten auch Statusinformationen der Vorgänger und Nachfolger.

Voraussetzungen für kollaborative Prozesse

Künftige Logistikplattformen nach dem Vorbild von Industrie 4.0 müssen zudem offen, also mit keinerlei Einstiegsbarrieren verbunden sein. Jeder Teilnehmer muss die Möglichkeit haben, sich via Web oder App ad hoc beteiligen zu können. Auch vorhandene IT-Anwendungen lassen sich sukzessive integrieren. Hierbei wird ganz nebenbei das bestehende ERP-System um mobile Apps für das eigene Personal ergänzt. All dies sind nur einige, wenn auch zentrale Voraussetzungen, um kollaborative Prozesse abbilden und eine nahtlose Zusammenarbeit in einem dynamischen Partnernetzwerk realisieren zu können.
Das Auftrags- beziehungsweise Kunden- und Dienstleisterportal catkin für die Steuerung von Unternehmenstransporten ist eine solche Plattform. „Es ermöglicht eine klar strukturierte Kommunikation zwischen den Beteiligten, schafft Transparenz über den aktuellen Auftragsstatus und unterstützt die Einsatzplanung von mobilen Ressourcen auf Personal- und Maschinenebene“, berichtet Geert-Jan Gorter. Darüber hinaus helfe der Informationsaustausch in Echtzeit, Fehlerquoten in der Disposition und Kosten insgesamt zu senken.

Etwa bei interkontinentalen Transporten, an denen z.B. Verlader, Spediteure, Containerterminals, Frachtschiffe, Güterbahnen und Lkw-Unternehmen beteiligt sind. Mithilfe eines übergreifenden Transportmanagements ließen sich administrative Prozesse erheblich vereinfachen sowie physische Durchlaufzeiten beschleunigen – und das zum Vorteil aller Parteien. Zu diesem Zweck müssen anfänglich gar nicht alle Akteure eingebunden werden, ein spürbarer Effekt macht sich bereits bei zwei Beteiligten bemerkbar.

Dies wiederum impliziert, dass auch Transportaufgaben über vergleichsweise geringere Distanzen, in die nicht gleich alle denkbaren Organisationseinheiten involviert sind, wesentlich effizienter abgewickelt werden können. Natürlich gibt es in Unternehmen den einen oder anderen Mitarbeiter, der einer solchen Anwendung zunächst skeptisch gegenübersteht. Dennoch: Der Weg in eine vernetzte Zukunft, in der die reale und virtuelle Welt miteinander verschmelzen, ist längst vorgezeichnet und in Ansätzen teils schon gelebte Realität.

Fünf Funktionsbereiche von Industrie 4.0

Laut einer aktuellen Studie umfasst Industrie 4.0 fünf Funktionsbereiche, die über Unternehmen und Branchen hinweg Gültigkeit haben: Datenerfassung und -verarbeitung, Assistenzsysteme, Vernetzung und Integration, Dezentralisierung und Serviceorientierung, Selbstorganisation und Autonomie. All diese Anwendungen sind für Logistiker schon längst keine Zukunftsmusik mehr.

Dennoch werden die damit verbundenen Potenziale nur zögerlich und bei Weitem noch nicht im vollen Umfang genutzt – auch das bestätigen die Verfasser der Studie. Insbesondere der Mittelstand müsse für den Nutzen und die Vorteile, die das Ziel einer sich komplett selbst steuernden Produktion mit sich bringt, sensibilisiert werden.

Die enge Verknüpfung digitaler Systeme und Modelle mit Gegenständen und Abläufen der realen Welt über geeignete Sensoren, Aktoren, Prozessoren und Software-Komponenten bedeutet einen Paradigmenwechsel und geht weiter über das hinaus, was bisher unter dem Stichwort „Digitalisierung“ diskutiert wurde. Noch ist die Mehrzahl dieser Systeme weitgehend geschlossen und verrichtet fest vorgegebene Aufgaben in vorgegebenen Kontexten.

Aber es ist offensichtlich, dass eine Öffnung und Vernetzung ganz neuartige Interaktionen und Einsatzfunktionen erschließen wird. Und erst dann können wir tatsächlich von einer Digitalisierung von Prozessen im Sinne einer Industrie 4.0 sprechen. Und erst, wenn mit Logistik 4.0 die Vernetzung von Produkten und Prozesse nicht am virtuellen Fabrikzaun endet, entsteht wirklicher Mehrwert für die Wirtschaft.

Über den Autor

Wolfgang Müller ist freier Journalist und langjähriger Blogger mit Sitz in Düsseldorf. Der ausgebildete Ingenieur beschäftigt sich schwerpunktmäßig mit Fragen der Logistik und von Industrie 4.0.

Bildquelle / Lizenz: Container – Bildquelle: Martin Abegglen / flickr.com; Veröffentlicht unter https://creativecommons.org/licenses/by/2.0/