Future Store – Handel mit Zukunft

Die Digitalisierung und steigende Kundenerwartungen setzen den On- und Offlinehandel unter Druck. Doch mit kreativen Lösungen trotzen Händler nicht nur dieser Herausforderung, sie erschließen sich neue Marktpotenziale.

Der Kunde ist zum Experten geworden: Er kennt alle Details zur Ware, hat sich im Internet über Bewertungen informiert, weiß über den ökologischen Fußabdruck Be­scheid und nennt den besten Preis. Gekauft wird, wann und wo es beliebt. Zunehmend unterwegs per Smartphone. Mehr als 80 Prozent der Deutschen sind online, die Hälfte davon nutzt verstärkt mobile Endgeräte. Wer in dieser neuen Konsumwelt weiter traditionelle Verkaufsstrategien pflegt, hat schon verloren – verwaiste Verkaufsflächen in den Innenstädten zeugen davon. Dabei hat der stationäre Handel längst nicht ausgedient – er muss nur clever mit sämtlichen Online-Verkaufskanälen verzahnt werden. Neue Technologien lassen eine Omnichannel-Einkaufserlebniswelt entstehen, die steigende Kundenansprüche zielgruppengenau erfüllt und idealerweise mit einer herausragenden Customer-Experience übererfüllt. Nirgendwo wird der digitale Wandel erlebbarer als im Handel. Hier lassen sich etliche kreative Lösungen studieren, die branchenübergreifend relevant sein werden.

Wohin die Reise geht ist klar: „Die Verbindung zwischen online und offline wird in den nächsten Jahren immer mehr verschwimmen. Der Shop­per wird situationsbedingt entscheiden, ob er online bestellt oder sofort vor Ort kauft“, sagt Christophe Campe, VP Coun­try General Manager der Chep Deutschland GmbH. „Hier ist die große Herausforderung für den Handel. Er muss es verstehen, den Shopper vor Ort, locationabhängig und personalisiert, zu aktivieren.“

Wie das funktioniert, haben „Creative Companies“ längst begriffen. Davon zeugen die Beispiele im „Omnichannel Trendreport“ von der Trendone GmbH für eBay vom Januar dieses Jahres. Hier werden Unternehmen vorgestellt, die durch Innovationen in den Bereichen M-Commerce, Local Commerce, Ship­ping & Returns, Customer-Journey sowie Social Commerce hervorstechen. Das Verbindende der unterschiedlichen Lösungen ist, dass diverse Kommunikations- und Absatzkanäle miteinander vernetzt werden, um Kunden ein maßgeschneidertes Einkaufserlebnis bieten zu können.

Trendraum

  • Studie
    Einen spannenden Ausblick in die Zukunft des Handels gibt der „Omnichannel Trendreport“ von Trendone und eBay. Der Report stellt aktuelle E-Commerce-Trends aus den Bereichen M-Commerce, Local Commerce, Shipping & Returns, Customer-Journey so­wie Social Commerce anhand von 31 Unternehmen und ihren kreativen Geschäftsmodellen vor. presse.ebay.de
  • Crowdsourcing
    Gastbeitrag: Ines Maione stellt vor, wie Unternehmen mit Crowdsourcing stark für den internationalen Wettbewerb im Online-Handel werden. Darüber hinaus beschreibt Sie, wie mit Microtasking aktuelle Heraus­forderungen angegangen werden können.
    www.trendreport.de/clickworker

Kreative Trendsetter

Wie On- und Offlinewelten immer stär­ker verschmelzen, zeigt der „re-Button“ des deutschen IT-Unternehmens Brain­tags. Eine Lösung, mit der Lieblingsprodukte und sogar ganze Einkaufslisten mit einem Klick von zu­hause aus nachbestellt werden können. Oder: On­line-Shopper können sich per Smart Glasses durch einen echten Laden führen lassen, wo sie Verkäufer zu der gewünschten Ware führen und beraten. Das wird bereits in England praktiziert und zeigt, wie symbiotisch On- und Offlinekanäle miteinander verwachsen können und warum vorwärtsdenkende stationäre Händler eine große Zukunft vor sich haben.
Sie werden sich auch von dem mächtigen Mobile-Trend nicht abhängen lassen. So können Kunden des US-Einzelhändlers Nordstrom von unterwegs aus per SMS einkaufen. Nach der Registrierung wird per Chat geshoppt. Was auch bei beratungsintensiven Produkten funktioniert: etwa beim Schuh­kauf. Ist klar, wie der Schuh beschaffen sein und aussehen muss, um perfekt zu passen, bekommt der Shopper von Verkäufern Vorschläge per SMS aufs Handy geschickt. „Auch im lokalen Handel wählen einige Unternehmen einen spielerischen Ansatz, um Kunden zu gewinnen“, schreiben die Autoren der Studie. So veranstaltet beispiels­weise die Plattform Hypeist in New York Schnitzeljagden, um Aufmerksamkeit für exklusive Produkte zu erregen. Fotos der Schätze werden samt Hinweisen zum Fundort auf einem Instagram-Account gepostet.

Das Problem der letzten Meile bei der Zustellung löst die von DDB Brussels für den Mobilfunkprovider BASE entwickelte Anwendung „PhoneAddress“: Die Ware wird exakt dahin geliefert, wo sich der Besteller gerade aufhält. Die seinem Smartphone zugewiesene Adresse aktualisiert sich fort­laufend, wenn der Käufer seinen Standort wechselt – dann wird eben nicht nachhause, sondern ins Büro, zur Freundin oder ins Café geliefert.
Preissensible Kunden dürften sich über die E-Commerce-Plattform Greentoe freuen: Dort lässt sich der Kaufpreis individuell verhandeln. Der Nutzer gibt seinen Wunschpreis an und Greentoe leitet das Angebot an ein Netzwerk autorisierter Händler weiter. Sobald das Angebot akzeptiert wird, kann der Händler durch die auf der Plattform hinterlegten Zahlungsdetails das Produkt direkt verschicken.

Natürlich soll nach einer geglückten Transaktion der Bezahlvorgang für beide Seiten ebenso reibungslos verlaufen. Das entscheidende Stichwort hier lautet: Instant Payments. Neuen Schwung in das Thema hat die EZB mit SEPA 2.0 gebracht. Zahlungen im Internet und am Point of Sale sowie Zahlungen von Person zu Person sollen mit einem europaweit einsetzbaren neuen Zahlungsinstrument in Echt­zeit durchgeführt werden können – 24 Stunden am Tag, sieben Tage die Woche. Technische Lösungen für Instant Payment gibt es, neue werden durch diesen regulatorischen Push entstehen.

Aufmacher Tante Emma 2.0

Handel der Zukunft

Best Price per Klick

Experten gehen davon aus, dass Instant Payment die Möglichkeit bietet, neue Geschäftsmodelle zu entwickeln. Zumal Instant Payments multikanalfähig sein sollen, vor allem im Laden, wodurch sich für den Handel neue Chancen ergeben. Auch im B2B-Bereich sollen verstärkt Instant Payments eingesetzt werden, etwa für das Cash-Management über Blockchain. Das ist jene Technologie, die der Kryptowährung Bitcoin zugrunde liegt. Außerdem wurde Anfang des Jahres die sogenannte Richtlinie über Zahlungsdienste (PSD) in Kraft ge­setzt. Sie bildet die rechtliche Grundlage für die Schaffung eines EU-weiten Bin­nen­markts für den Zahlungsverkehr. Die Richtlinie sieht die Einführung moderner und umfassender Vorschriften vor, die für alle Zahlungsdienstleistungen in der EU gelten werden.Ziel ist es, dass grenzüberschreitende Zahlungen so ein­fach, effizient und sicher werden wie nationale Zahlungen innerhalb eines Mitgliedstaats. Im Rahmen der PSD 2.0 werden auch biometrische Faktoren für die Autorisierung von Zahlungstransaktionen zugelassen.

Der Online- wird zum Offline-Handel

Natürlich gibt es auch den umgekehrten Weg, dass ein klassischer Online-Shop ein Ladenlokal eröffnet. Ein prominentes Beispiel dafür ist Zalando. Der Online-Händler betreibt eigene Outlet-Stores in Frankfurt und Berlin in jeweils bester Innenstadtlage, um B-Ware und Restposten einfacher an den Kunden bringen zu können. Andere Online-Shops wie etwa Mr. Spex, der Bril­lenspezialist, oder der Surf- und Snow­board-Handel Blue Tomato betreiben ebenfalls eigene Filialen.
Und wie das Kölner Institut für Handelsforschung erwartet, werden Webshops in den nächsten fünf Jahren etwa 2 500 Läden eröffnen.
Der Einzelhandel – so wie wir ihn heute kennen – wird sich also verändern, auch wenn für viele E-Commerce-Unternehmen der Wechsel ins Offline-Geschäft sicherlich nicht einfach ist.

Bequemes Bezahlen

Somit dürfte auch einfaches und grenzüberschreitendes Bezahlen über „Near Field Communication“ (NFC) mit Smart­phones endlich einen Aufschwung erhalten. Dabei müssen zwei mit NFC ausgestattete Geräte in einen Abstand von wenigen Zentimetern zueinander gehalten werden, um die Daten für den Bezahlvorgang auszutauschen. Vorteil: Dieser geringe Abstand macht den Vorgang äußerst abhörsicher. Hierzulande akzeptiert sogar Aldi-Nord bereits diese bequeme Zahlmethode.

Jedenfalls bieten sich Shop-Betreibern, die online ins Ausland expandieren wol­len, neue Chancen. Die allerdings über­legt angegangen werden sollten: „Eine elegante Möglichkeit, um schnell und unkompliziert in einem neuen Markt präsent zu sein, ist im ersten Schritt ein englischsprachiger, EU-weiter Online-Shop“, rät Friedrich-Georg Lischke, Geschäftsführer von BFS Baur Fulfillment Solutions. „In jedem Fall muss sichergestellt sein, dass der Kundenservice in der Landessprache erfolgt, die national beliebten Zahlarten eingebun­den werden und die Logistik international ausgerichtet ist. Wird in diesem Shop für ein Land genügend Potenzial ermittelt, kann unter Berücksichtigung nationaler Präferenzen ein eigenständiger Ländershop eröffnet werden.“ Doch dabei liege die Tücke im Detail: „Denkt man zum Beispiel an grenzüberschreitende Geschäfte in der D-A-CH-Region, wird die Verzollung ein Thema, die wir im Griff haben“, sagt Lischke. BFS übernimmt nämlich auf Wunsch das gesamte Fulfillment entlang der Wertschöpfungskette – vom Kundendialog über das Warenhandling bis zum Zahlungsmanagement. Wer aus dem Onlinehandel Wettbewerbsvorteile ziehen möchte, sollte von Konkurrenten mit hoher Kundenzufriedenheit lernen. „Erstklassiger Kun­denservice schafft Differenzierung. Daneben müssen alle operativen Prozesse rund um den Online-Shop reibungslos funktionieren. Betreiben Sie Ihren Online-Shop daher nicht nur nebenbei, schenken Sie ihm Ihre volle Aufmerksamkeit“, betont Lischke. Wem das nicht möglich sei, sollte über einen E-Fulfillment-Dienstleister nach­denken.

Flickr.com / Mike Beales https://creativecommons.org/licenses/by-nd/2.0/

Flickr.com / Mike Beales
https://creativecommons.org/licenses/by-nd/2.0/

Tiefes Kundenverständnis

Erfolgreiche Trendsetter verstehen es, gekonnt auf der gesamten Marketing-Klaviatur zu spielen. Was einfacher gesagt als getan ist, wenn man bedenkt, dass auf jeden von uns täglich im Schnitt 12 000 direkte und indirekte Werbebotschaften einprasseln. Hier gilt es hervorzustechen. Was nur dem gelingt, der seine (potenziellen) Kunden genau kennt und damit präzise ansprechen kann. Der Schlüssel dazu liegt in Consumer Insights. Basis für den erfolgreichen Dialog mit dem Verbraucher sind genaue Kenntnisse der Zielgruppen, ihrer Lebenssituation und Bedürfnisse. „Customer Insights liefern dieses Kundenverständnis und schaffen so die Voraussetzung, um Marketing-Kampagnen strategisch und zielgerichtet zu planen und umzusetzen“, erklärt Dirk Kemmerer, Geschäftsführer der Solution Group Digital Marketing bei arvato. Geklärt werden müssen Fragen wie diese: Für welche Produkte interessiert sich der Konsument? In welcher Lebenssituation befindet er sich? In welchem Preissegment kauft er ein? Wie reagiert er auf Rabatte? Doch allzu oft gibt es keine Antworten darauf. Kemmerer: „Einigen Unternehmen feh­len schlichtweg wichtige Kundendaten, andere setzen diese nicht konsequent ein oder analysieren sie nicht kanal­über­greifend.“ Hürden, die überwunden werden können. „Es besteht die Möglichkeit, eigene Kundendatenbanken aufzubauen, bestehende Informationen durch externe Dienstleister mit wertvollen Informationen anzureichern oder durch die Teilnahme an Bonusprogrammen kanal- und branchenübergreifende Kundendaten zu erhalten“, erklärt der Experte. Alleine die Generierung von Kundendaten reiche allerdings nicht aus. Die Daten müssten durch umfassende Analysen, Auswertungen oder Segmentierungen in echtes Kundenwissen transformiert werden. So lassen sich Botschaften zielgenau auf jenen Kanälen platzieren, für die die jeweiligen Konsumenten affin sind. Damit ist der Weg für einen kreativen Kundendialog bereitet, der ganz im Sinne des Konsumenten durch weitere individuelle Mehrwerte wie zum Beispiel mobile Coupons oder zusätzliche Service- und Beratungsleistungen angereichert werden kann.

Den Kunden besser kennen und verstehen

Neben datengetriebenem Mar­keting ist ein weiterer Baustein für tiefe Kundeneinblicke das Monitoring für E-Shops. Software von Sevenval Technologies GmbH zeichnet unter anderem Kaufabbrüche auf, um den digitalen Einkaufsprozess der Kunden zu analysieren. Nur so lassen sich Angebote und Services verbessern. Dafür genutzt wird „Smart Data“, die datengetriebene Analyse von Frontends. Frontend Analytics (FA) bündelt alle Maßnahmen, um die Benutzerfreundlichkeit etwa von Shopping-Seiten als auch deren technische Robustheit fortlaufend zu überprüfen und zu verbessern. Bislang geschieht dies eher in einem mühsamen Prozess, der zu lange dauert, etwa indem echte oder selbsternannte Experten ihre Meinungen zu E-Commerce-Offerten abgeben – aber eben nicht Alltagsnutzer. Den Kunden besser kennenlernen muss auch der stationäre Handel, wofür es innovative Technologien gibt. Etwa, um den Erfolg von Promotions zu messen und die Randbedingungen locationabhängig zu verbessern. „Wenn wir von locationabhängig sprechen, dann meinen wir nicht nur einfach die Ladenfläche in ihrer Gesamtheit, sondern innerhalb der Ladenfläche“, sagt Christophe Campe, VP Country General Manager der Chep Deutschland GmbH, „Der Handel muss Erlebniswelten schaffen, die den Shopper in einem Gesamt­konzept ansprechen, wie Mobile, Coupons, Mehrwert-Angebote.“

Typisches Beispiel sei die Zusammenstellung von Produkten für eine Grill­party (Getränke, Deko, frisches Fleisch, vegetarische Angebote, Musik zum Herunterladen etc.) kombiniert mit Rabattaktionen. „Sozusagen vom Point of Sale zum Point of Emotions”, sagt Campe. Chep hat eine Lösung namens Promotion Tracking entwickelt, bei der Promotionspaletten mit einem smartTag ausgestattet sind. Dieser Sensor lokalisiert die Palette an ihrem Standort und erhebt etliche Umgebungsdaten, wie Position, Geschwindigkeit, Temperatur, Helligkeit und Gewicht. Für die Lokalisierung im Innenbereich wird ein zusätzlicher Router genutzt. Über ein Online-Dashboard können Kunden diese abfragen und gegebenenfalls dafür sorgen, dass die Promofläche besser positioniert wird oder Mehrwerte für den Kunden geschaffen werden. Denn wer sich in ein Ladengeschäft begibt, sucht das Erlebnis, will sich überraschen und inspirieren lassen. Eine hervorstechende Customer-Experience on- und offline ist es, mit der sich entscheidende Wettbewerbsvorteile verschaffen lassen. Das gilt künftig mehr denn je.

Autor:
Chris Löwer

Augmented Reality in Logistik und Industrie

Pokémon Go ist erst der Anfang: Augmented Reality verändert die Logistik

Der Hype um Pokémon Go rückt die Augmented-Reality-Technologie ins Blickfeld: Kommt jetzt der Durchbruch? Denn auch in Industrie und Logistik bietet AR vielfältige Anwendungsfelder.

Das neue Nintendo-Spiel Pokémon Go ist derzeit die erfolgreichste Smartphone App der Welt und die Medien schüren den Hype mit immer neuen Geschichten an. Durch den massiven Ansturm auf das mobile AR-Spiel, das in Deutschland erst seit dem 6. Juli offiziell verfügbar ist, gehen die Server des Entwicklers Niantics mittlerweile regelmäßig in die Knie.

Unter AR (Augmented Reality = erweiterte Realität) versteht man die computergestützte Erweiterung der Wirklichkeit: Die reale Umgebung verschmilzt auf dem Smartphone mit der virtuellen Welt. Deshalb findet die Jagd auf die kleinen Monster und ihre Kämpfe untereinander auf Plätzen und Straßen, an Badestränden oder auf Friedhöfen mitten in der Öffentlichkeit statt – nicht mehr am heimischen Computer oder auf der Spielkonsole.

Massenhype um Pokémon Go verändert Wahrnehmung

Faszinierend ist der Hype um Pokémon Go auch deshalb, weil er die Art und Weise verändert, wie wir auf die Welt schauen und die digitalen Möglichkeiten nutzen. Der Journalist und Berater Thomas Knüwer schreibt in seinem Blog: „In einigen Jahren wird man von der Zeit vor und nach dem 6. Juli 2016 sprechen, geht es um digitale Geschäftsmodelle, Augmented Reality oder Mobile-Anwendungen.“

Dabei ist AR nicht unbedingt etwas Neues. Einst von Boeing-Ingenieuren zur Unterstützung bei Kabelverlegungsarbeiten in Flugzeugen entwickelt, lässt sich diese Technologie heute in den unterschiedlichsten Bereichen in Industrie und Logistik einsetzen: Beispielsweise für die Produktionsplanung, in der Instandhaltung, als digitales Handbuch in Service und Wartung, in der Aus- und Weiterbildung und im Marketing sowie auf Messen. Im Zeitalter von Industrie 4.0 soll Augmented Reality einen wesentlichen Beitrag zur Entwicklung der digitalen und vernetzten Fabrik liefern.

Anwendungsfelder für Augmented Reality in Industrie und Logistik

So könnten beispielsweise in Werksbrillen direkt die nächsten Arbeitsschritte eingeblendet und Warnungen bei falschen Handgriffen angezeigt werden. Montage- und Reparaturtätigkeiten werden einfacher, fehlerfreier und nachvollziehbarer, wenn die jeweils notwendigen Maßnahmen im Sichtfeld eingeblendet sind und beispielsweise auch gleich die notwendige Passform eines Ersatzteils in der korrekten Position dargestellt wird.

Auch in der internen Logistik gibt es ein weites Einsatzfeld: Etwa wenn der Gabelstaplerfahrer im wahrsten Sinne des Wortes direkt vor seinen Augen sieht, was er genau wo abholen und wohin fahren soll. Oder wenn ein virtueller Button auf einem Werkstor platziert ist, könnte ein Fahrer es damit bei der Anfahrt mit seinem Smartphone direkt öffnen. Zufahrt erhält er aber nur, wenn er den Button durch die Handykamera mit einer userauthentifizierten App sieht und laut Arbeitsablauf zur Einfahrt berechtigt ist. Passanten ohne diese AR-App sehen nur ein geschlossenes Tor ohne Öffnungsmöglichkeit.

Um diese Technologie nutzen zu können, benötigt der Anwender einen Bildschirm auf dem die Informationen abgebildet werden können (z.B. Fernseher, Smartphone, Tablet usw.). AR-Apps für Smartphones haben den Vorteil, dass sie die Anschaffung neuer Hardware überflüssig machen. Wer allerdings will, dass seine Mitarbeiter während ihrer Tätigkeit kein zusätzliches Gerät in der Hand halten müssen, kann auch den Einsatz von Datenbrillen („Smart Glasses“) in Erwägung ziehen.

 

Lufthansa Industry Solutions mit 20 Business Cases für den AR-Einsatz

Im Innovationslabor von Lufthansa Industry Solutions wird die aktuelle AR-Technik fortlaufend auf ihre Industrietauglichkeit hin untersucht – speziell auf ihr Potenzial, Prozessabläufe zu optimieren. Insgesamt hat man etwa 20 Business Cases für den Einsatz von AR-Brillen identifiziert und beispielhaft gerechnet. Diese Wearables blenden Informationen aus dem Internet oder beliebigen IT-Systemen ins Sichtfeld der Nutzer ein. Kommissionierungskräfte bekommen beispielsweise Auftragspositionen samt Lagerort im Sichtfeld angezeigt, gesteuert werden die Brille und die darauf laufende „Aug App“ per Sprachbefehl. Die Folgen: kürzere Durchlaufzeiten beim Kommissionieren, weil die Hände frei sind, deutlich geringere Fehlerraten und weniger Bedarf an Desktop-Rechnern.

Der Logistikkonzern DB Schenker erprobt mit dem Dortmunder Fraunhofer-Institut für Materialfluss und Logistik (IML) als Teil von Logistik 4.0nicht nur autonome Roboter, Drohnen und 3D-Druck, sondern auch diverse AR-Anwendungen. Ein Kopfapparat, der aussieht wie eine zu groß geratene Taucherbrille, zeigt etwa mit farbigen Symbolen, in welches Regalfach ein Mitarbeiter greifen muss. Auch wie dieser die einzelnen Waren optimal in einem Paket verstaut, visualisiert die Brille. Eine Effizienzsteigerung von bis zu 30 Prozent erwarten die IML-Forscher damit, müssen das Gerät aber erst noch ergonomischer gestalten.

Pick-by-Vision bringt Effizienzsteigerung von 25 Prozent

Bereits Anfang vergangenen Jahres führte auch DHL in einem Distributionszentrum in den Niederlanden ein Pilotprojekt zur AR-unterstützten Kommissionierung durch. Hierbei wurden Lagerfachkräfte für drei Wochen mit Datenbrillen und einer Augmented-Reality-Anwendung ausgestattet. Das Ergebnis dieses Pick-by-Vision-Experiments: Eine Effizienzsteigerung von 25 Prozent. Mittlerweile arbeitet der Logistikkonzern schon in mehreren Lagerhallen mit den digitalen Brillen, die Produkte schneller auffinden und Wege vereinfachen. Auch ein Einsatz dieser Technologie bei Briefträgern, die in unbekannten Zustellgebieten eingesetzt werden, wird von DHL in Erwägung gezogen. Dadurch könnten sie Briefkästen oder Adressen viel einfacher finden.

DHL hat zusammen mit der Beraterfirma Z Punkt schon vor einiger Zeit den Report „Augmented Reality in Logistics“ veröffentlicht. Er nennt verschiedene bereits existierende oder auch für die Zukunft geplante Geräte, um AR besser nutzbar machen zu können. Da stationäre Geräte für die Logistikbranche eher ungeeignet sind, beschränkt sich das nutzbare Spektrum vor allem auf tragbare Geräte wie Tablets und Smartphones, Head-mounted Displays, die wie eine Art Datenhelm funktionieren und smarte Brillen wie Google Glass – oder weitere Modelle anderer Hersteller, die im Moment noch entwickelt werden.

Zahlreiche Einsatzfelder für Augmented-Reality-Anwendungen

Neben Pick-by-Vision wird auch das Ausliefern als künftiges Einsatzfeld genannt. Neben dem schnelleren Scannen von Paketen soll die neue Technologie dabei helfen, Lieferzeiten zu verkürzen, indem sie die Rolle des Navigationssystems übernimmt. Dabei könnte der Fahrer die Richtungsangaben über eine Datenbrille erhalten – oder ähnlich wie einigen Luxus-PKWs heute schon möglich –über ein auf die Frontscheibe projiziertes Display.

Neben Unternehmen können aber laut der DHL-Studie auch Privatkunden von AR-Systemen profitieren. Wie oft wurde schon gerätselt, welche Paketgröße die richtige ist, wenn etwas verschickt werden soll. Wird dann die falsche Größe besorgt, steht Ärger an, weil die Verpackungen dann nicht passen. Mit entsprechenden Apps könnten Pakete virtuell auf die Waren projiziert werden, um die Größe der Verpackung besser abschätzen zu können. Solche Apps existieren zwar noch nicht, aber der Paketassistent von DHL könnte als erstes Beispiel für die Möglichkeiten der Augmented Reality für den Versand von Paketen gelten.

Mit dem Erfolg von Pokémon Go tritt diese Technologie nun erstmals ins Massenbewusstsein. Einer Untersuchung des Fraunhofer Instituts und des Digitalverbandes Bitkom zufolge wollen deutsche Unternehmen bis zum Jahr 2020 knapp 850 Millionen Euro in Virtual und Augmented Reality investieren. Analysten des US-Finanzdienstleisters Goldman Sachs sagen bis zum Jahr 2025 bei optimaler Entwicklung einen weltweiten Jahresumsatz von 182 Milliarden Dollar voraus. Das wäre deutlich mehr, als die TV-Branche heute im Jahr umsetzt.

 

Zahlreiche Einsatzfelder für Augmented-Reality-Anwendungen in der Logistik werden im catkin-Blog vorgestellt.

catkin

weitere Informationen:

Conosco - Agentur für PR und Content

Alexander Schneider, Social Media Manager

Aufmacherbild / Lizenz / Quelle

pokemon go how to download and play pok“ (CC BY 2.0) by  brar_j 

Block Chain ?

Unter einer Block Chain (englisch für Blockkette) wird eine verteilte Datenbank verstanden, die eine erweiterbare Liste von Datensätzen enthält, und deren Integrität (Sicherung gegen nachträgliche Manipulation) durch Speicherung der (kryptografischen) Prüfsumme des vorangehenden Datensatzes im jeweils nachfolgenden gesichert ist.

Das Verfahren ist die technische Basis für sogenannte Kryptowährungen, kann aber ggf. auch darüber hinaus in verteilten Systemen zur Verbesserung/Vereinfachung der Transaktionssicherheit beitragen (gegenüber zentralen Systemen).

Die Funktionsweise ähnelt dem Journal der Buchführung. Eine Block Chain ermöglicht es, dass in einem dezentralen Netzwerk eine Einigkeit zwischen den Knoten erzielt werden kann. (Siehe auch: Byzantinischer Fehler).

Inhaltsverzeichnis

Geschichte

Das Konzept der Block Chains wurde erstmals 2008 von Satoshi Nakamoto im White Paper zu Bitcoin beschrieben.[1] Im Jahr darauf hat er die erste Implementierung der Bitcoin-Software veröffentlicht und dadurch die erste Block Chain gestartet.

Eigenschaften

Eine Block Chain besteht aus einer Reihe von Datenblöcken, in denen jeweils eine oder mehrere Transaktionen zusammengefasst und mit einer Prüfsumme versehen sind. Neue Blöcke werden in einem rechenintensiven Prozess erschaffen, der Mining genannt wird, und anschließend über das Netzwerk an die Teilnehmer verbreitet.[2] Daten, die in einer Block Chain gespeichert sind, können nicht mehr geändert oder entfernt werden. Eine wesentliche Besonderheit der Block Chain ist, dass sie Einvernehmen über geschäftliche Transaktionen herstellen kann, ohne hierzu eine zentrale Instanz oder einen vertrauenswürdigen Dritten zu benötigen.[3]

Anwendungsbeispiel Bitcoin

Die Block Chain von Bitcoin ist die älteste Block Chain. Sie startete im Januar 2009 und hat mittlerweile eine Größe von ca. 70 GB[4] und liegt derzeit auf ca. 5500 Knoten[5] redundant und öffentlich zugriffsbereit vor. (Stand: Mai 2016)

Quellen

Einzelnachweise

 

Global Bitcoin Nodes Distribution. bitnodes.21.co, abgerufen am 16. Mai 2016.

Der Beitrag stammt von wikipedia…

https://de.wikipedia.org/wiki/Block_Chain

Aufmacher Bild / Foto.. BTC Keychain

 

KMU Finanzierung: Handlungsdruck steigt

Mittelstandsfinanzierung: Der Handlungsdruck für kleinere Unternehmen nimmt weiter zu

Die kleinen und mittleren Unternehmen (KMU) schätzen ihre Finanzierungs- und Banken-Situation zum zweiten Mal in Folge schlechter ein als im Vorjahr. Dies gilt ganz besonders für die kleinen Unternehmen mit bis zu 40 Mitarbeitern und Mitarbeiterinnen. Das zeigen die Ergebnisse des „KMU-Banken-Barometer 2016“. Der Verband „Die KMU-Berater – Bundesverband freier Berater e. V.“ hat diese Umfrage unter Unternehmen jetzt zum dritten Mal durchgeführt. Alle Ergebnisse des „KMU-Banken-Barometer 2016“ ergänzt um Handlungsempfehlungen für die Unternehmen stehen im Internet unter www.banken-barometer-2016.kmu-berater.de zur Verfügung.

 

„Bei neun der zehn Standardaussagen schätzen die Unternehmen ihre Finanzierungs- und Banken-Situation schlechter ein als 2015. Bereits im Vorjahr galt das für acht Aussagen. Wir sehen dies mit Blick auf die Finanzierung der Unternehmen mit Sorge“ sagt Thomas Thier, Vorsitzender der KMU-Berater.
Die Einschätzungen der Unternehmen haben die KMU-Berater in diesem Jahr das erste Mal mit einem Punktesystem in vier „Bewertungsgruppen“ von „stark verbesserungsbedürftig“ bis „sehr gute Ausgangslage“ eingeteilt. „Das Ergebnis ist aus unserer Sicht ernüchternd: Ein Drittel der Unternehmen haben eine stark verbesserungsbedürftige Ausgangssituation und weitere 40,3 Prozent haben sich als „verbesserungsbedürftig“ eingeschätzt. Damit haben fast 75 Prozent deutlichen Handlungsbedarf, um ihre Finanzierungs- und Bankensituation zu stärken“
erläutert Carl-Dietrich Sander, Leiter der Fachgruppe Finanzierung-Rating der KMU-Berater. Die individuellen Ergebnisse haben die KMU-Berater den Unternehmen mitgeteilt, um den Handlungsbedarf aufzuzeigen.

 

Die KMU-Berater verweisen auch auf die unterschiedlichen Ergebnisse dieser Bewertung mit Blick auf die Hauptbankverbindungen der Unternehmen als ein Indikator für die Qualität der Zusammenarbeit von Kunde und Bank: „Die Kunden der Volks- und Raiffeisenbanken schneiden am besten ab, 33,8 Prozent haben in der Bewertung eine „gute oder sehr gute Ausgangslage“. Bei den Sparkassen trifft das nur auf 23,4 Prozent der Unternehmen zu, bei den Geschäftsbanken sogar lediglich auf 21,2 Prozent“ so Sander.

 

Nicolas Rädecke vom Kooperationspartner Deutsche Unternehmerbörse DUB.de weist auf die Aussage hin, die die Unternehmen in diesem Jahr als einzige besser beurteilt haben als 2015: „59,3 Prozent der Unternehmen erleben sich in der Unternehmensfinanzierung als ganz oder überwiegend unabhängig von ihrer Bank, im Vorjahr waren das erst 46,4 Prozent“. Den Weg zu einem breiteren Finanzierungs-Mix sollten alle Unternehmen verfolgen, empfiehlt Rädecke.

 

„Die schlechtere Einschätzung der Unternehmen sehen wir vor dem Hintergrund der anhaltenden Ertragsrückgänge bei Banken und Sparkassen als sehr kritisch“, betont Thier. Laut Thier werden die Kreditinstitute im Firmenkreditgeschäft künftig noch vorsichtiger und wählerischer werden müssen. Dies werde vor allem die große Zahl der Unternehmen mit mittlerer Bonität treffen. „Die Unternehmen sind auf diese negative Entwicklung ganz offensichtlich überwiegend nicht besonders gut vorbereitet“ interpretiert Thier die Ergebnisse.

 

Die KMU-Berater leiten aus den Einschätzungen der Unternehmen eine klare Aufforderung ab: „Unternehmen und Banken und Sparkassen müssen unbedingt offener und intensiver mit einander sprechen“ so Sander.

 

Das KMU-Banken-Barometer umfasste zehn jährlich wiederkehrende und zwei Sonder-Aussagen. 206 Unternehmen haben zwischen dem 18. April und dem 20. Juni 2016 an der Umfrage teilgenommen. Das waren 51 mehr als im Vorjahr.

 

Über zwei weitere Aspekte der Ergebnisse werden wir ausführlich berichten:

  • KMU-Berater: Mittelstand braucht Finanzierungsstrategien: 28.07.2016
  • Kreditentscheidungen: Mittelstand braucht mehr Informationen: 05.08.2016

 

Weitere Inormationen:
Fachgruppe Finanzierung-Rating im Bundesverband Die KMU-Berater
Carl-Dietrich Sander
02131-660413  sander@kmu-berater.de

 

Aufmacherbild / Lizenz / Quelle

Numbers And Finance“ (CC BY-SA 2.0) by  kenteegardin 

Nachhaltigkeit: Von der Kür zur Pflicht

Singapur ist ein „Living Lab für nachhaltige Entwicklung“. TREND REPORT zeigt auf, wie die Unternehmenskultur von Nachhaltigkeit profitiert und auf diese Weise Wachstum generiert.

Mit der Verabschiedung der Sustainable Development Goals (SDGs) durch die Vereinten Nationen im September 2015 ist Nachhaltigkeit zum globalen Standard geworden. Dieser muss nun mit Leben gefüllt werden. Erster Schritt ist die verbindende Einführung eines CSR-Reports im Geschäftsbericht für Unternehmen mit mehr als 500 Mitarbeitern ab 2017. Dies ist eine Chance für deutsche Unternehmen: können Sie aus dem Begriff Nachhaltigkeit für sich greifbare Werte generieren, deren Umsetzung sie jeden Tag gegenüber Mitarbeitern, Lieferanten und Kunden beweisen, sind sie langfristig unternehmerisch erfolgreicher.
Diese gelebte Identifikation kann nicht von heute auf morgen und auch nicht von oben herab verordnet werden. Auch Greenwashing führt ins Leere. Es bleibt der Weg von innen heraus; dabei macht die Unternehmensführung den Anfang. Sie muss vorleben, was gefordert ist – jeden Tag.

Themen und Inhalte:

CSR-Berichtspflicht
Wie kann der Mittelstand die ab 2017 geforderten Standards einhalten?

„Digitale Nachhaltigkeit“
Das Internet als Basis für neue Geschäftsmodelle die auf Sharing und damit auf Ressourcenschonung beruhen.

Werte schaffen, Werte leben
Für welche Werte stehen Sie?

Nachhaltigkeit und Risikomanagement
Ressourcenschonung senkt die Betriebskosten; ein Blick auf die Lieferkette und ein verfeinertes Risikomanagement bewahren vor Schäden.

Vorreiter der Branche
Best-Practices nach dem Motto: Tue Gutes und verdiene Geld damit.

Vorbildfunktion
Familienunternehmen stehen für langfristige Erfolgsstrategien statt Gewinnmaximierung.

Diversity Management
Der Mensch im Mittelpunkt

Verantwortung
Der Gesellschaft gerecht werden

Hier können Sie das vollständige Themenexposé herunterladen

Hier geht es zu unseren Mediadaten

Bildquelle / Lizenz:

Think New! 22 Erfolgsstrategien im digitalen Business

Die ökonomischen Prinzipien der Unternehmen verstehen

 

Apple, Google, Facebook und Amazon sind die Leitbilder vieler Manager wenn es darum geht, den digitalen Wandel zu gestalten. Aber nur ganz wenigen scheint es zu gelingen, den Erfolg dieser Giganten nachzubilden. Was machen Apple und Co „richtig“?

Die Autoren haben 22 Erfolgsprinzipien ermittelt, die vor allem unter den neuen und veränderten Rahmenbedingungen durch die Digitalisierung und das Internet eine große Bedeutung haben und auf denen der Erfolg dieser Unternehmen basiert.

Unter anderemgeht es um das Cut-Off-Prinzip, bei dem bestehende Prozess-Komplexität basierend auf alten Technologien gekappt und vereinfacht werden muss, um sich kompromisslos auf die Entwicklung innovativer und verbesserter Leistungen und Prozesse zu fokussieren. Alle Prinzipien, vom Glocal-Prinzip, über Functional Cracking bis hin zum Grenzenlos-Prinzip werden theoretisch fundiert und praxisorientiert dargestellt. Viele Beispiele und konkrete Tipps erleichtern den Transfer in die eigene unternehmerische Praxis.

 

Christian Hoffmeister ist geschäftsführender Gesellschafter der DCI Institute GmbH, Schwerpunkt seiner Tätigkeit ist die Beratung und Unterstützung von Unternehmen, die von Geschäftsmodell- und Technologie-Disruption betroffen sind.

Yorck von Borcke ist Professor für Medienmanagement und leitet den Bachelor Studiengang Mediamanagement sowie das Masterprogramm Mediamanagement & Entrepreneurship an der Hochschule Fresenius in Hamburg.

 

Weitere Informationen finden Sie im Internet unter www.hanser-fachbuch.de

Eine ausführliche Rezension folgt in Kürze.

 

Lizenz Aufmacherbild: Carl Hanser Verlag München

 

Buchempfehlung: Tim Cole – Digitale Transformation

Wie digitale Technologien die Zukunft vieler Unternehmen bedrohen und was heute getan werden muss, um zu den Gewinnern des Wandels zu zählen

„Künftig überleben nur die Unternehmen, die ständig in Bewegung sind. Wer dagegen an alten Geschäftsmodellen festhält, stirbt schnell.“
Sebastian Thrun, deutscher Informatiker und Gründer des Forschungslabors Google X, im Spiegel 10/2015

“Digitale Transformation” ist das Reizwort der kommenden Jahre: Wer sich ihr nicht stellt, den wird es in Zukunft nicht mehr geben.
Im 19. Jahrhundert waren es Dampfmaschinen, die die Welt veränderten. Heute ist die digitale Vernetzung dabei, ähnlich tiefgreifende Veränderungen in Wirtschaft und Gesellschaft auszulösen. Ganze Branchen müssen zusehen, wie ihr Geschäftsmodell beinah über Nacht obsolet wird, hinweggefegt von der disruptiven Kraft der digitalen Veränderung.

Tim Cole gilt als „Wanderprediger des deutschen Internets“ (Süddeutsche Zeitung). Sein Buch „Erfolgsfaktor Internet“, das 1999 bei Econ erschien, wurde zum Bestseller, weil es erstmals in einer für Manager verständlichen Sprache erklärte, warum das Internet für Unternehmen von entscheidender Bedeutung ist. Zuletzt sind von ihm bei Hanser die Bücher „Unternehmen 2020 – Das Internet war erst der Anfang“ und „Digitale Aufklärung“ erschienen. Als Kommentator schätzt man seine klaren, neutralen Analysen und seine kritische Einschätzung technologi-scher Entwicklungen sowie ihre Folgen für Wirtschaft.
Das Buch richtet sich an Führungskräfte, Unternehmer und an Interessierte Laien.

Weitere Informationen zu dem Titel finden Sie unter www.vahlen.de/14946914.

Lizenz Aufmacherbild: Verlag Franz Vahlen GmbH

 

Eine ausführliche Rezension folgt in Kürze.

Freiräume für innovative Technologien schaffen

Mit der Jahreskonferenz Power to Gas 2016 hat die Deutsche Energie-Agentur (dena) für den Einsatz von innovativen Technologien in der Energiewende geworben. Rund 200 Entscheider und Experten aus Politik, Wirtschaft, Wissenschaft und Gesellschaft kamen in Berlin zusammen, um über Rahmenbedingungen und Geschäftsmodelle für die Umwandlung von erneuerbarem Strom zu Gas (Power to Gas) zu diskutieren. Im Abschlussplenum verwies Andreas Kuhlmann, Vorsitzender der dena-Geschäftsführung, auf die bereits vorhandenen Initiativen von Unternehmen und einzelnen Bundesländern und plädierte für den Abbau von Regelungen, die die Marktentwicklung von Power to Gas behindern:

„Wir brauchen in der Energiewende mehr Freiräume für innovative Technologien. Diese Konferenz hat dafür wichtige Impulse gegeben. Die Energiewende ist ein komplexer, disruptiver Prozess, keine einfach planbare lineare Entwicklung. Wir können heute nicht wissen, welche Technologien wir in 10, 20 oder gar 30 Jahren brauchen werden. Deshalb sollten wir uns nicht von vornherein auf bestimmte Technologien festlegen und andere ausschließen, sondern Ziele definieren, die wir möglichst effizient erreichen wollen. Wenn es darum geht, das Klima zu schützen, erneuerbare Energie zu speichern und über den Stromsektor hinaus nutzen zu können, dann ist Power to Gas jedenfalls eine sehr spannende Lösung. Doch unter den aktuellen energiepolitischen Rahmenbedingungen hat dieses Multitalent keinen fairen Zugang zum Markt. Das müssen wir ändern. Mit unserem Potenzialatlas Power to Gas zeigen wir, wo wir dafür ansetzen müssen.“

Der Potenzialatlas Power to Gas wurde von der Strategieplattform Power to Gas der dena erstellt und auf der Konferenz vorgestellt. Besonders günstige Standorte für die Marktentwicklung bieten demnach die Regionen Unterelbe-Weser-Ems, Mitteldeutschland-Berlin-Brandenburg, Neckar und Rhein-Main-Ruhr. Als Maßnahmen empfiehlt der Potenzialatlas unter anderem Änderungen im Strommarkgesetz und im Erneuerbare-Energien-Gesetz, eine rasche Umsetzung der EU-Richtlinie über die Qualität von Kraftstoffen (Fuel Quality Directive) sowie eine stärkere Zusammenarbeit der verschiedenen Akteure.

Zu den Referenten der Konferenz gehörten unter anderem Enak Ferlemann, Parlamentarischer Staatssekretär beim Bundesminister für Verkehr und digitale Infrastruktur, Garrelt Duin, Energieminister von Nordrhein-Westfalen, und Robert Habeck, Energiewendeminister von Schleswig-Holstein. Hinzu kamen Vertreter von Unternehmen wie Thyssen Krupp, 50 Hertz Transmission und EnBW sowie von Verbänden, Forschungseinrichtungen und Nichtregierungsorganisationen.

Weitere Informationen unter:
http://www.powertogas.info

Bildquelle / Lizenz:

Big Data treibt die Transformation des Netzwerks

Big Data hat Auswirkungen auf viele Bereiche: Kaufentscheidungen werden mit Daten untermauert, Marktübersichten liefern mehr Details, und aus dem Feedback von Kunden können konkrete Maßnahmen abgeleitet werden. Alle diese Anwendungen sind zweifellos sehr nützlich für das Geschäft. Allerdings müssten Unternehmen nur mal einen Blick nach innen werfen, um bisher ungenutztes Potenzial aufzudecken. Ingo Schneider, Director Business Development Data Network Infrastructure bei Alcatel-Lucent Enterprise, hat sich zwei wichtige interne Abläufe angesehen, die ganz erheblich von Big Data profitieren können: das Netzwerkmanagement und die Bereitstellung von Anwendungen.

SNS Research schätzt, dass in diesem Jahr weltweit 40 Mrd. Dollar in Big Data investiert werden. So überrascht es nicht, dass das Thema aufmerksam verfolgt wird – 89% der Top-Manager sind der Meinung, dass „Big Data den Geschäftsbetrieb genauso revolutionieren wird wie seinerzeit das Internet.“

Bei Big Data geht es aber längst nicht nur darum, Geschäftsprozesse zu verfeinern. Die Netzwerkanwendungen entwickeln sich immer weiter, und Big-Data-Analysen ermöglichen ein immer intelligenteres Netzwerk- und Applikationsmanagement , das die volle Leistung der Switches nutzt, Endgeräte und den Datenfluss effizient organisiert und Unregelmäßigkeiten aufdeckt. Administratoren können Big Data also intern einsetzen, um Kosten zu sparen und das Netzwerkmanagement und die Applikationsbereitstellung zu optimieren.

Vollständige Transparenz

Schon lange ist es ein Hauptanliegen von CIOs, komplette Transparenz über ihr Netzwerk zu erlangen, und deshalb kommen ihnen die Tools zu Auswertung von Big Data gerade recht. Vorausschauende Analysen ermöglichen den Übergang von einem reaktiven zu einem proaktiven Ansatz beim Netzwerkmanagement. Und wenn immer mehr Mitarbeiter ihre eigenen Endgeräte auch beruflich nutzen  – Stichwort: Bring Your Own Device (BYOD) –,  ist es erst recht hilfreich, wenn die IT-Abteilung alle Endgeräte und Applikationen im Netzwerk sehen kann.

Transformation des Netzwerks

Bei der neuesten Generation der Switches ist es inzwischen sogar möglich, die Applikationsübersicht direkt auf dem Switch unterzubringen. Immer häufiger sind diese modernen Switche Teil eines Application Fluent Networks (AFN), das umfassende Predictive Analytics liefern kann. Und das bietet eine Vielzahl an Vorteilen. IT-Abteilungen haben die Möglichkeit, Muster für den täglichen Routine-Netzverkehr festzulegen, um Anomalien zu erkennen, die das Netzwerk beeinträchtigen könnten. Und sie können recht einfach herausfinden, was auf ihrem Netzwerk gerade los ist – Backup-Aktivitäten, Applikationen mit hoher Bandbreite oder die Installation von Anwendungen.

Es können heute mehr Aufgaben automatisiert werden als jemals zuvor, und die dynamische Reaktion auf die Anforderungen des Netzwerks und der Nutzer wird zur gängigen Praxis. So wird beispielsweise Nutzern oder Teams mit hoher Priorität, die gerade Collaboration-Tools oder datenintensive Anwendungen einsetzen, in Echtzeit die notwendige Netzwerkkapazität zur Verfügung gestellt.

Auch die Hardware profitiert von Big Data

Das Datenvolumen auf Unternehmensnetzwerken wächst ständig und stellt eine immer größere Belastung für das Netzwerk dar. Es kann erforderlich sein, zusätzliche Switches zu implementieren, um dieser Datenflut Herr zu werden. Und hier zeigt dann die Netzwerk-Fabrics, was sie kann, nämlich einen intelligenteren, flexibleren Einsatz der Hardware zu ermöglichen und so zu verhindern, dass unnütze Ausgaben für zu viel Hardware entstehen. Indem der Netzverkehr auf möglichst viele miteinander verbundene physische Leitungen aufgeteilt wird, kann man sich teure Hardware-Investitionen oft sparen.

Durch neue Entwicklungen wie  die Virtualisierung und das Software-Defined Networking (SDN) verändern sich die Unternehmensnetzwerke  rasant. Netzwerk-Administratoren müssen überlegen, wie umfangreich, flexible und leistungsfähig die eingesetzte Hardware sein muss, um den Ansturm der Big Data zu bewältigen. Denn nur wenn das Netzwerk das große Datenvolumen handhaben kann, wird es auch von der Analyse dieser Daten profitieren können.

Mehr Daten, mehr Analysen

Aktuelle Trends wie das Internet of Things, BYOD oder die Wearables sorgen dafür, dass immer mehr Endgeräte an das Unternehmensnetzwerk angeschlossen sind.  Um den steigenden Bedarf an Bandbreite und Priorisierung zu decken, ist es wichtig, die richtigen Switches an der Netzwerkperipherie zu installieren. Application Fluency hilft beim Managen der Peripherie-Switches und bei der dynamischen Anpassung der generellen Netzwerk-Performance  und stellt damit sicher, dass die richtigen Daten mit minimalen Verlusten an Datenpaketen sicher an den richtigen Endpunkt geliefert werden.

Der Anstieg an Endgeräten und Applikationen führt dazu, dass immer mehr Daten im Netzwerk vorhanden sind. Erweiterte Analytics liefern wertvolle Einblicke in das Netzwerk, indem sie diese Daten nutzen, um die normalen Betriebsbedingungen des Netzwerks und der Endgeräte als akzeptable Parameter speichern. Sie können dann als „Frühwarnsystem“ eingesetzt werden,  mit dem Probleme identifiziert und eingegrenzt werden, zum Beispiel Engpässe beim Datentransfer oder der bösartige Einsatz von Endgeräten oder Applikationen.

Verfeinertes Anwendungsmanagement

Ein effektives Applikationsmanagement hat seine besonderen Herausforderungen, zu denen auch die Anstrengung gehört, flexible, aber sichere Policies für Nutzer und Endgeräte durchzusetzen. In Bezug auf das Netzwerk stellt Big Data die Business Intelligence bereit, die für ein straffes Applikationsmanagement erforderlich ist, indem es die Datenströme, die Applikations-Performance und das Nutzerfeedback analysiert. Einblicke in die Art und Weise, in der Mitarbeiter und Partner die Applikationen nutzen, ermöglichen es der IT-Abteilung, nicht benötigte Funktionen oder selten eingesetzte Endgeräte zu identifizieren und ihren Support und die Entwicklung darauf abzustimmen.

Durch einen effektiven Ressourceneinsatz auf der Basis von Big-Data-Analysen kann der ROI maximiert werden. Denn wenn Ressourcen intelligenter genutzt werden, wird die IT schlanker und es fallen weniger Investitionen in teure Hardware und Applikationen an.

Konvergente Architekturen

Das Erfassen, Verarbeiten und Analysieren von Big Data wird weitere Fortschritte machen und sich in dem Maß weiterentwickeln, wie Unternehmen das Konzept umsetzen und der Markt wächst. Die Infrastrukturen, die heute in vielen Unternehmen installiert sind, können Big Data aber nur begrenzt nutzen. Eine konvergente Netzwerk-Infrastruktur jedoch, die eine einfache und flexible Architektur bereitstellt, zieht den größtmöglichen Nutzen aus Big Data, während sie gleichzeitig die Gesamtbetriebskosten senkt und die ROI-Erwartungen des Unternehmens erfüllt.  Von den IT-Abteilungen wird zunehmend die Erbringung von Services verlangt, also die Bereitstellung von Applikationen für die einzelnen Nutzer, und eine Vereinfachung des Bereitstellungsprozesses macht ihnen das Leben deutlich leichter.

Von der Einführung einer robusten Netzwerk-Infrastruktur profitieren Unternehmen in doppelter Hinsicht. Erstens steigt die Netzwerk-Performance durch die garantierte  niedrige Latenz und hohe Verfügbarkeit, sodass die vorhandenen Ressourcen optimal eingesetzt werden. Zweitens stellen die Unternehmen damit sicher, dass sie auch künftig  ihre Big Data optimal nutzen können. Das Aufkommen von Big Data hat die IT-Abteilungen in die Lage versetzt, ein wirklich „smartes“ Netzwerk einzurichten. Es ist nun an den Unternehmen, diese Gelegenheit zu nutzen.

Weitere Informationen unter:
http://enterprise.alcatel-lucent.de/

Bildquelle / Lizenz:

Kultur in 3D

Museumsland Deutschland: Mehr als 6.000 Museen, Kunsthallen und Ausstellungshäuser gibt es hierzulande – und diese werben ununterbrochen um Besucher und Aufmerksamkeit. Bereits 4 von 10 Bundesbürgern (39 Prozent) gehen regelmäßig ins Museum, 28 Prozent sogar zwei bis drei Mal im Jahr. Doch diese Zahl könnte viel höher sein, wenn Kultureinrichtungen mehr auf elektronische Zusatzangebote setzen würden. Das geht aus einer bevölkerungsrepräsentativen Befragung von fröbus, dem Spezialisten für 2D- und 3D-Visualisierungen, hervor. Demnach würden 57 Prozent der Deutschen öfter in ein Museum gehen, wenn das Angebot interaktive digitale Exponate zu Anschauungszwecken umfassen würde.

Museum 3.0: Neue Präsentationsformen und Wissensspeicher

Die hochauflösende 2D- und 3D-Erfassung von analogen Beständen wie Gemälden, Skulpturen und Schriftstücken macht es möglich, die gespeicherten Daten für zahlreiche Wiedergabeformate und als Wissensspeicher zu verwenden. So wird jeder Museumsbesuch zu einem wissensreichen Abenteuer mit einem hohen Unterhaltungsfaktor: Digitale Exponate lassen sich zum Sprechen bringen und können faszinierende Geschichten zu den Werken und Künstlern erzählen. Didaktisch sind neue Ansätze denkbar, um die Neugier auf Kultur zu wecken und neue Zielgruppen zu erreichen. Daher überrascht es nicht, dass Kultur in 3D auf breite Zustimmung in der Bevölkerung stößt: 76 Prozent der Deutschen würden visuell gestützte Führungen durch Ausstellungen und Sammlungen nutzen. Frei zugängliche Online-Datenbanken mit Exponaten und multimedialen Zusatzinformationen interessieren weitere 73 Prozent der Bevölkerung. 3D-Rekonstruktionen – bspw. durch Hologramme – von nicht mehr vollständig erhaltenen Gemälden oder Skulpturen begeistern 71 Prozent der Bundesbürger, während 65 Prozent Museums-Rundgänge in 3D über das Internet gern in Anspruch nehmen würden. Auch eine große Nachfrage nach digital rekonstruierten Arbeitstechniken berühmter Künstler, von der Skizze bis zum fertigen Kunstwerk (61 Prozent), sowie Virtual Reality-Installationen (56 Prozent) konnte durch die fröbus-Studie bestätigt werden.

Welche elektronischen Zusatzangebote würden Sie im Kulturbereich nutzen? (Mehrfachantworten)

  1. Visuell gestützte Führungen durch Ausstellungen und Sammlungen (76 %)
  2. Frei zugängliche Online-Datenbanken mit Exponaten und multimedialen Zusatzinformationen (73 %)
  3. 3D-Rekonstruktionen von nicht vollständig erhaltenen Werken (z. B. Skulpturen) (71 %)
  4. Museums-Rundgänge in 3D über das Internet (65 %)
  5. Mobile Info-Apps für personalisierte Rundgänge zu den kulturellen Highlights einer Stadt (63 %)
  6. Digital rekonstruierte Arbeitstechniken berühmter Künstler von der Skizze bis zum fertigen Kunstwerk für Lern- und Weiterbildungszwecke (61 %)
  7. Mobile Smartphone- und Tablet-Anwendungen im Museum (55 %)
  8. Immersion in 3D-Umwelten (Virtual reality, z. B. mit Oculus Rift) (56 %)

All das wird durch die voranschreitende technische Entwicklung der letzten Jahre möglich gemacht. Die Digitalisierung von Kulturschätzen ist heute auf einem Niveau möglich, das noch nie qualitativ so hochwertig und nachhaltig war. „Die hochauflösende Erfassung aller relevanten 3D-Daten und des technisch größtmöglichen Farbraums eines Kunstwerkes ebnet den Weg für zahlreiche Anwendungen – wie etwa originalgetreue Rekonstruktionen, hochwertige Replikate oder 3D-Drucke. Diese eröffnen den Museen faszinierende Möglichkeiten und lassen die Attraktivität der Kulturangebote enorm steigern,“ erklärt Frank Bayerl, Geschäftsführer von fröbus.

Über die Studie:
Die repräsentative Online-Befragung wurde von fröbus gemeinsam mit dem Marktforschungsinstitut Promio unter 1.000 deutschen Verbrauchern im Mai 2016 durchgeführt.

Weitere Informationen unter:
www.froebus.de

Bildquelle / Lizenz: fröbus GmbH

Big Data Analyse als Dienstleistung

Die komplexe Welt der Big Data Analyse ist keine Sache mehr ausschließlich für Eingeweihte. Um die Datenwelt auch für Unternehmen ohne eigene IT-Abteilung zugänglich und nutzbar zu machen, bieten Dienstleister ihren Service an. Die DATAlovers AG mit Sitz in Mainz ist ein solcher Dienstleister. Sie unterstützt Unternehmen bei der Erhebung von digitalen Unternehmensdaten und der Neukundengewinnung. Die TREND-REPORT-Redaktion im Gespräch mit Andreas Kulpa, DATAlovers AG, erläutert, warum Daten für den Wettbewerb, gerade auch für kleinere und mittlere Unternehmen, wichtig sind.

Warum sollten auch kleine und mittlere Unternehmen Big Data nutzen?
Grundsätzlich ist Big Data für jedes Unternehmen – gleich welcher Größe – von Nutzen. Unternehmen mit einem Umsatz unter 500.000 Euro stellen mit einer Anzahl von 1,2 Millionen gut 25 Prozent der wirtschaftlich tätigen Unternehmen in unserem Land dar und sind somit ein wichtiger Wirtschaftsfaktor. Wandel und digitale Transformation sind in diesem Segment noch viel entscheidender für die Zukunftsfähigkeit und Wettbewerbsfähigkeit dieser Unternehmen.

Wie werden kleine und mittlere Unternehmen mittels Big Data wettbewerbsfähig?
Wer eigene Daten generiert und darüber hinaus als Unternehmen aktiv in der digitalen Welt agiert, bleibt auf lange Sicht wettbewerbsfähig. So nutzen die großen „GAFA“-Player, Google Amazon und Facebook erfolgreich die Daten, die sie sammeln. Genau diese Fähigkeit, Daten zu gewinnen, zu analysieren und zu kapitalisieren brauchen Unternehmen aber selbst, um künftig Wettbewerbsvorteile zu erzielen. Unternehmen mit eigener Datenhoheit sind die Gewinner von morgen.
Durch die Verwendung von Big Data ist genau dies möglich: Daten können erhoben und neben der Neukundengewinnung auch in anderen Bereichen gewinnbringend für das Unternehmen genutzt werden. So können Unternehmen Marktforschung und Wettbewerbsanalyse betreiben, Inhalte für PR und Kommunikation generieren oder Prozesse im eigenen Unternehmen optimieren.
Nur ist es vielen Unternehmen, auch denen, deren Jahresumsatz höher liegt, aufgrund der Unternehmensstärke nicht immer gegeben, eine eigene IT-Abteilung zu beschäftigen. Die Möglichkeit für kleine und mittlere Unternehmen, dennoch das „große Datenuniversum“ zu nutzen und betriebliche Vorteile daraus zu ziehen, ist, ihnen Big Data in Form von „Software as a Service“ (SaaS) anzubieten.

Können denn fachfremde Personen mit dieser Datenflut überhaupt umgehen?
Als überzeugter „Datalover“ will ich zeigen, dass die Gewinnung und Analyse von Daten ganz einfach sein kann und insbesondere wertvoll ist für die jeweiligen Unternehmensziele. Dazu zählen beispielsweise die Umsatzerhöhung durch systematische Kundengewinnung und Erhöhung der Wettbewerbsfähigkeit durch das Entdecken neuer Marktpotentiale. Um dies zu ermöglichen, bedarf es Werkzeugen, die Mitarbeitern ohne Data Scientist-Studium „Business Data und Insights at your fingertips“ liefern. Daten und künstliche Intelligenz (KI) für jedermann nutzbar zu machen, ist damit die originäre Idee der Datalovers AG und genau das haben wir inzwischen mit der Unternehmenssuchmaschine bearch umgesetzt, die auf www.datalovers.com frei zugänglich ist.

Wie funktioniert die Dienstleistung?
Die Lösung der Datalovers AG standardisiert und automatisiert den Prozess der Datenerfassung und -analyse und ermöglicht dem Anwender über eine SaaS-Lösung die einfache Nutzung der algorithmischen Leistungen über intuitive Funktionselemente. Die Qualitätssicherung der Ergebnisse erfolgt dabei über intelligente Algorithmen.
Erhoben werden die Daten, die wichtig und vor allem aktuell sind: Datalovers liefert die für die digitale Transformation notwendigen Daten und Analysen, wie digitale Daten über die Aktivitäten und Auftritte von Unternehmen, die Wahrnehmung und Sichtbarkeit von Unternehmen und deren Akteuren, die Verflechtungen und Netzwerke zwischen Unternehmen sowie die Entwicklung von Märkten und Branchen. Diese Informationen werden gesammelt durch Crawling sämtlicher Internetauftritte von Unternehmen, öffentlichen Einrichtungen und Trägern sowie Verbänden. Dieser Crawlingprozess wird regelmäßig wiederholt, um die Aktualität der Daten zu gewährleisten. So sind die Informationen bei Abruf maximal vier Wochen alt. Die Ergebnisdaten sind so nicht nur passgenau auf das Unternehmen und die jeweilige Suche abgestimmt, sondern auch deutlich spezifischer und detaillierter als in Branchenverzeichnissen oder einer Suche bei Google.
Wie intelligent das System arbeitet, beweist die erweiterte Anwendung bearch+, Hier erhalten die Anwender mehr als einen einfachen Datensatz: Durch modernste Algorithmen sind wir in der Lage, Anfragen zu optimieren und so eine Lösung im Sinne einer Lead-Vorhersage anzubieten. Algorithmen finden neue Märkte und Kunden, weil sie von den bestehenden lernen, und sind dem Anwender so im positiven Sinn immer einen Schritt voraus: Dies stellt schon heute eine funktionierende Anwendung von maschinellen Lernen, auch künstliche Intelligenz genannt, dar. Wir als DATAlovers haben von Anfang an nicht nur an die massenhafte Speicherung von Daten = Big Data, sondern auch die intelligente Nutzung dieser gedacht. Die logische Konsequenz ist auch hier, die Anwendung von Algorithmen der künstlichen Intelligenz, für die breite Masse verfügbar zu machen. Das ist was bearch+ so erfolgreich macht.
So liefern wir neue Antworten, bevor der Nutzer überhaupt sucht – gemäß unseres Slogans: Wir kennen Ihre nächsten 1.000 Kunden!

Weitere Informationen unter:
www.datalovers.com

Bildquelle / Lizenz: Datalovers AG

Studie: Digitalisierung hakt bei Strategie und Verantwortung

Eine überwältigende Mehrheit der weltweiten Führungskräfte ist davon überzeugt, dass die Digitale Transformation eine Schlüsselrolle für die Zukunft ihres Unternehmens spielt. Dennoch sehen viele ihr Unternehmen nicht darauf vorbereitet. Zu diesem Ergebnis kommt eine aktuelle Studie des weltweit agierenden ERP-Anbieters IFS (www.IFSworld.com/de).

Für die Untersuchung befragte IFS rund 500 Führungskräfte aus über 20 Ländern. Die Studienteilnehmer setzen sich aus Verantwortlichen der C-Ebene sowie weiteren hochrangigen Managern aus verschiedenen Branchen wie Fertigungsindustrie, Bauwesen, Automotive, Energieversorgung oder Einzelhandel zusammen.

Ein zentrales Ergebnis der Studie: Bei der Frage, wer im Unternehmen federführend für die Digitale Transformation verantwortlich ist, herrscht große Uneinigkeit. Von allen Befragten nannten 40% den CIO, 39% den CEO und 35% den CFO. Nur der CTO (20%) und der CMO (6%) werden als nicht einflussreich eingeschätzt. Betrachtet man lediglich die Antworten der C-Level-Manager in der Umfrage, zeigt sich, dass diese häufig sich selbst in der Führungsrolle sehen. So nannten 69% der CFOs sich selbst, 63% der CIOs und 55% der CEOs.

IFS Infografik Digitale Transformation

IFS Infografik Digitale Transformation

Eine weitere Erkenntnis der Untersuchung: Die Führungskräfte schreiben der Digitalen Transformation zwar eine große Bedeutung zu, räumen aber ein, dass sie keinen klaren Plan dafür haben. 86% der Befragten sagten, dass die Digitale Transformation in ihrem Markt in den kommenden fünf Jahren eine Schlüsselrolle spielen wird. Gleichzeitig gaben aber 76% an, dass sie mehr Informationen darüber benötigen; und 40% sagten, dass ihnen eine klare Strategie für die Digitale Transformation fehlt.

Hinsichtlich der Verantwortlichkeiten für die Digitale Transformation im Unternehmen offenbart die Studie von IFS einige regionale Unterschiede:

  • In den USA sehen die Führungskräfte vor allem den CFO in der Pflicht (41%). Nur 30% glauben, dass der CEO verantwortlich ist – das ist der weltweit niedrigste Wert für den CEO;
  • Die skandinavischen Studienteilnehmer vertrauen bei der Digitalen Transformation vor allem auf die Führungsrolle des CIO (45%), gefolgt vom CEO (38%);
  • Die befragten Führungskräfte aus Asien sind weltweit die unsichersten bei dieser Frage. So gaben 29% von ihnen an, nicht zu wissen, wer in ihrem Unternehmen für die Digitalisierung verantwortlich zeichnet.

Darüber hinaus wurden die Studienteilnehmer gebeten, die Bedeutung verschiedener disruptiver Technologien für den digitalen Wandel auf einer Skala von 1 (unwichtig) bis 100 (sehr wichtig) zu beurteilen. Die Topwerte erreichten dabei das Internet of Things und das Cloud Computing. Die Drohnen landeten auf dem letzten Platz. Die Ergebnisse im Einzelnen:

  • Internet of Things (59);
  • Cloud Computing (59);
  • Kognitives Computing (55);
  • Maschinelles Lernen (53);
  • Wearables (48);
  • 3D-Druck (42);
  • Drohnen-Technologie (39).

„Unsere Umfrage zeigt, dass in den obersten Führungsetagen das große Potenzial der Digitalen Transformation erkannt wird. Oft gibt es aber keine Strategie, um dieses Potenzial auszuschöpfen. Außerdem scheint große Unsicherheit zu herrschen, wer denn nun verantwortlich dafür ist, die digitale Agenda im Unternehmen voranzutreiben“, sagt Mark Boulton, CMO von IFS. „Die Unternehmen müssen ihre Ziele klären und klare Strategien entwickeln, um das volle Potenzial der Digitalen Transformation auszuschöpfen.“

Weitere Informationen unter:
www.IFSworld.com/de

Die Leser wollen Tempo

Ein im April veröffentlichtes Experiment der Financial Times bestätigt: Gerade Smartphone-Nutzer bevorzugen schnell ladende Webseiten. Das IT-Team der britischen Zeitung führte folgendes Experiment durch:  Für einige Nutzer wurde die Webseite mit einer zusätzlichen, künstlichen Verzögerung von einer Sekunde angezeigt. Eine weitere Gruppe musste, neben der regulären Wartezeit, 3 Sekunden länger warten. Das Ergebnis nach sieben Tagen: Die Conversion fiel um 4,9 Prozent bzw. 7,2 Prozent für die zweite Gruppe.
Anlässlich der Ankündigung von Google Ladezeiten als Ranking-Faktor ab Mai erneut stärker zu gewichten, hat die Sevenval Technologies GmbH die Ladezeiten großer deutscher Medien gemessen. In einem zweiten Schritt wurde die firmeneigene Software Web Accelerator zur Performance-Optimierung eingesetzt. Dabei wurde gemessen, wie stark sich Ladezeiten mit der Software verkürzen lassen, wenn die zu übertragenden Dateien maximal reduziert werden, ohne dabei Qualitätsverluste hinzunehmen.
Die Tests wurden exemplarisch durchgeführt und geben einen Mittelwert über mehrere Messzeitpunkte an.

Das Ergebnis: Spiegel Online schneidet am besten ab. Mit 16,5 Sekunden Ladezeit
überschreitet das Nachrichtenmagazin die empfohlene Grenze von 3 Sekunden jedoch um ein Vielfaches. Verschiedene Studien – die bekannteste ist von Akamai –  belegen, dass die Abbruchrate bei bis zu 3 Sekunden sehr niedrig ausfällt. Konkrete Zahlen liefern Onlineshops, die nach dieser Grenze mit jeder weiteren Sekunde 7 Prozent Conversion-Verluste hinnehmen müssen.
Mit der Software Web Accelerator konnte im Test die Ladezeit von Spiegel Online auf 12,22 Sekunden gesenkt werden, dies entspricht einer Reduzierung  von knapp 26 Prozent. Dabei wurde die Größe der zu übertragenden Dateien von 2,3 MB auf 1,4 MB und damit um knapp 40 Prozent reduziert.

Schlusslicht bildet die Hamburger Morgenpost mit 45 Sekunden Ladezeit. Hier schlummert viel Potential für die Optimierung. Unsere Software konnte die Ladezeit nahezu halbieren – mit dem Web Accelerator wird die Seite in 23 Sekunden geladen.
Im Vergleich zu den anderen Testkandidaten war hier die größte Datenreduktion möglich. Unser Web Accelerator verringerte die Dateigröße von 7,6 MB auf 3,7 MB und damit um 51 Prozent.

2016-05-10-WebPerformance_ausgewahlter_deutscher_Medien_small3

Bildquelle: Sevenval

Was die Onlinehändler anhand nicht erzielter Umsätze messen können, wird auch in der Medienlandschaft konkret. Schlechte Ladezeiten führen zu Reichweitenverlusten, weil Leser abspringen und zur Konkurrenz wechseln.

Die Initiativen von Facebook (Instant Articles) und Google (Accelerated Mobile Pages) für kürzere Ladezeiten kommen nicht von ungefähr. Die Zahl der mobilen Nutzer wächst, wer diesen schnell ladende Nachrichtenartikel und Webseiten anbieten kann, ist im Vorteil.  Auch für deutsche Unternehmen ist es an der Zeit, lange Ladezeiten für mobile Nutzer als schwerwiegendes Problem zu erkennen und zu beheben.

Weitere Informationen unter:
www.sevenval.com

Bildquelle / Lizenz Grafik: Sevenval

Bildquelle / Lizenz Aufmacher:

<

Beraterverbände kooperieren zum Nutzen des Mittelstandes

Die Berufsverbände „Die KMUBerater – Bundesverband freier Berater e. V.“ und „BDVT e. V. – Der Berufsverband für Trainer, Berater und Coaches“ werden künftig eng zusammenarbeiten. In Projektgruppen sollen gemeinsame Standards festgelegt und Erfahrungen ausgetauscht werden mit dem Ziel, mittelständische Unternehmen noch effektiver zu unterstützen.

„Die Arbeitsfelder der Mitglieder unserer Verbände ergänzen sich hervorragend, so dass die Beraterinnen und Berater – und in der Zukunft auch ihre Kundinnen und Kunden – von der Zusammenarbeit in hohem Maße profitieren werden. Während die KMU‐Berater Unternehmen schwerpunktmäßig in kaufmännischen Themen durch alle Phasen eines Unternehmenslebens von Gründung bis Krise und Nachfolge begleiten und beraten, ist der Schwerpunkt der BDVT‐Mitglieder die Weiterbildung besonders in Fragen der Organisations‐ und Personalentwicklung“, sagt Thomas Thier, Vorstandsvorsitzender der KMU-Berater.

In diesem und dem kommenden Jahr werden die Verbände als Auftakt der Zusammenarbeit neun gemeinsame Projekte aufsetzen. „Wir möchten beispielsweise Standards für die Berufsbilder festlegen, unsere Methoden der Erfolgskontrolle verbessern und einen gemeinsamen Modellbaukasten für die Arbeit als Trainer, Berater oder Coach entwickeln. Zudem werden gemeinsame Treffen der Regionalgruppen die Vernetzung vor Ort optimieren und den Erfahrungsaustausch zwischen den Mitgliedern anregen und intensivieren“, so BDVT-Präsident Stephan Gingter.

Der BDVT e. V. entwickelt und aktualisiert Berufsbilder, gibt Honorar-Empfehlungen und fördert die Weiterbildung. Seine rund 650 Mitglieder treffen sich in Regional-Clubs, Berufs-, Fach- und Projektgruppen und im BDVT-Camp, um Erfahrungen auszutauschen, Kontakte zu knüpfen, berufliche Themen zu diskutieren und sich weiterzubilden.

Die etwa 160 Mitglieder des Bundesverbandes Die KMU-Berater sind spezialisiert auf die pragmatische Beratung und Betreuung von mittelständischen Unternehmen. Im Verband entwickeln sie Beratungskonzepte und Kooperationen, tauschen sich in Fachgruppen themenspezifisch und in Regionalgruppen fachübergreifend aus. Außerdem haben sich die Mitglieder verpflichtet, in ihrer Arbeit für die Unternehmen gemeinsam entwickelte Beratungsgrundsätze einzuhalten.

Weitere Informationen unter:
www.kmu-berater.de
www.bdvt.de

Bildquelle / Lizenz:

A/B-Testing für „kleine“ Websites

Dies ist ein Fachbeitrag von Frank Piotraschke, Head of Sales DACH bei Optimizely

„Ihre Website hat wenig Traffic? Dann brauchen Sie keine A/B-Tests. Verlassen Sie sich bei der Optimierung einfach auf qualitatives Feedback und ihre Intuition.“ Diese Aussage hören kleine Unternehmen häufig, und leider werden sie dadurch auf eine falsche Fährte geführt.
Denn die weitläufige Annahme, dass kleine Unternehmen auf Website-Testing verzichten können, ist falsch: Auch Websites mit geringem Traffic können bei A/B Tests aussagekräftige und statistisch signifikante Ergebnisse erzielen. Wichtig ist nur, dass Elemente getestet werden, die große Auswirkungen auf die wichtigsten Kennzahlen des Unternehmens haben. Verschaffen Sie sich zunächst einen Überblick, bevor Sie ins Detail gehen, und testen Sie bedeutende Unterschiede. Neben der Lieferung von validen Daten wirken sich solche Tests zusätzlich auch positiv auf die Unternehmenskultur aus: Mehr Mitarbeiter sind an Entscheidungen beteiligt, die auf echten Nutzerdaten basieren
Frank Piotraschke, Head of Sales DACH bei Optimizely, erklärt in sechs Tipps, wie Unternehmen mit geringem Traffic statistisch valide Daten durch A/B-Tests generieren und warum sich auch für diese Unternehmen der Einsatz von Tests lohnt.

  1. Testen Sie starke Kontraste
    Häufig lesen Sie in Case Studies, dass in einem A/B-Test mit nur kleinen Veränderungen riesige Conversion-Sprünge erzielt werden. Bei Webseiten mit hohem Traffic sind solche Auswirkungen auch bei geringeren Unterschieden der Testvarianten gut messbar. Bei niedrigem Traffic sollten Sie statt kleiner Details große Kontraste testen. Je stärker die Gegensätze zwischen dem Original und der Testvariante sind, desto höher ist die Wahrscheinlichkeit, dass Sie Auswirkungen auf die Conversion Rate feststellen können. Testen Sie also nicht fünf verschiedene Schattierungen bei der Farbe Ihres Call-to-Action Buttons, sondern beispielsweise statische Bilder gegen einen Slider und wie sich die unterschiedlichen Varianten auf die Performance auswirken.
    Es kann zwar manchmal etwas beängstigend sein, große Kontraste auf der Seite zu testen, aber was auch passiert, denken Sie immer daran, auch ein “negatives” Ergebnis verschafft Ihnen mehr Einblicke in das Verhalten Ihrer Besucher. Die Analyse Ihrer Testergebnisse hilft Ihnen bei der Konzeption und Priorisierung der nächsten A/B-Tests.
  2. Messen Sie Micro-Conversions
    Ist es das Hauptziel Ihrer Webseite, Kaufabschlüsse oder Neuanmeldungen zu maximieren? Bei einer geringen Zahl an Websitebesuchern ist es allerdings wenig sinnvoll, sich auf das Messen dieser Macro-Conversions zu fokussieren. Es würde zu lange dauern, statistisch signifikante Ergebnisse zu erhalten. Setzen Sie sich stattdessen die Messung der Micro-Conversions (Engagement, Klick auf den Call-to-Action, Anzahl der Pageviews) als Ziel.  Auf diese Weise können Sie den unmittelbaren Effekt der Veränderungen sehen und schneller zu signifikanten Ergebnissen gelangen.
  3. Testen Sie nicht erst am unteren Ende der Customer Journey
    Anstatt Conversions zu messen, die erst mehrere Schritte weiter hinten in der Customer Journey passieren, sollten Sie Ihre Daten direkt auf der getesteten Seite ermitteln. Sie sollten beispielsweise vermeiden, einen Test auf einer Produkt Listing Seite aufzusetzen. Wenn Sie die Anzahl der Bestellungen zu Ihrem Ziel machen, arbeiten Sie mit weniger Conversions, da nicht jeder Besucher die Customer Journey erfolgreich abschließt. Außerdem liegen einige Schritte zwischen der Seite, auf der der Test läuft und der Seite, auf der die Conversion stattfindet. So lernen Sie nur wenig darüber, ob die Veränderungen im A/B-Test den Ausschlag für ein geändertes Verhalten geben oder nicht. Testen Sie stattdessen, welche der Varianten mehr Besucher zum nächsten Bestellschritt bringt.
  4. Arbeiten Sie mit geringerer statistischer Signifikanz
    A/B-Testing-Lösungen erlauben Ihnen, den Wert der statistischen Signifikanz für jedes Projekt anzupassen. Statistische Signifikanz ist die Wahrscheinlichkeit, mit der Veränderungen im Benutzerverhalten auf Veränderungen in der Benutzeroberfläche zurückzuführen und nicht dem Zufall geschuldet sind. Bei einem höheren Wert für die statistische Signifikanz reduzieren Sie die Wahrscheinlichkeit für sogenannte False Positives, es dauert allerdings auch länger, bis das Testing-Tool Ergebnisse anzeigt.
  5. Finger weg von Multivariaten Tests
    Je mehr Varianten Sie testen, desto mehr Traffic benötigen Sie. Und je mehr Traffic Sie brauchen, desto länger dauert es, bis die Ergebnisse Ihres Tests statistische Validität erlangen. Konzentrieren Sie sich deshalb bei einer geringeren Zahl an Webseitenbesuchern auf A/B-Tests und lassen Sie Multivariate Tests außen vor, bis sie genug Traffic auf Ihrer Website verbuchen können.
  6. Machen Sie das Meiste aus Ihrem Traffic
    Vermeiden Sie das Testen von Seiten, die nur sehr wenig Traffic erhalten. Nutzen Sie bei dem Aufsetzen des A/B-Tests möglichst breite Segmente, um so viele vorhandene Website-Besucher wie möglich in das Testing mit einzubeziehen. Wenn Sie beispielsweise nur 20 Prozent des Traffics von Facebook erhalten und darauf testen wollen, wird es länger dauern als bei einem Test großer Kontraste gegen Ihren gesamten Traffic. Testen Sie zum Beispiel Banner, die auf der gesamten Webseite ausgespielt werden, oder Ihre Landing Page-Templates, die viel Traffic erhalten.
    Diese sechs Tipps zeigen, dass sich auch kleine Unternehmen mit geringem Traffic mit den Möglichkeiten von A/B-Testing auseinandersetzen sollten. Fokussieren Sie sich dabei einfach auf die traffic-stärksten Seiten und testen Sie so breitgefächert wie möglich. Dadurch erhalten Sie schnell statistisch valide Daten. Befolgen Sie die sechs Ratschläge und lassen Sie sich dadurch inspirieren.  A/B-Testing funktioniert – auch bei Websites mit geringem Traffic!

Über den Autor

Frank Piotraschke gilt als erfahrener Branchenexperte der digitalen Medienwelt und leitet seit November 2015 als Head of Sales DACH die Geschäfte von Optimizely in Deutschland, Österreich und der Schweiz.
Die letzten fünf Jahre verantwortete er die Geschäfte bei dem Webanalysespezialisten AT Internet für die Regionen DACH, Osteuropa & Russland. Davor war der studierte Diplomkaufmann als Head of Business Development bei AT Internet tätig und baute den neuen Standort des Unternehmens in Hamburg auf. Begonnen hat er seine Karriere als Head of Solutions und Leiter der Niederlassung Hamburg bei der Multimediaagentur Powerflasher GmbH.

Weitere Informationen unter:
https://www.optimizely.com

Bildquelle / Lizenz:
Helikopterschule in Genf; Fotograf: Schmid, Josef

Drei Trends die Netzwerke verändern werden

Von Alexandra Biebel, Director Marketing & Communications, Alcatel-Lucent Enterprise 

2015 hat es ehrgeizige Entwicklungen gegeben. Das Internet der Dinge und Big Data haben in Unternehmen, Städten und Branchen an Zugkraft gewonnen, und die „Wearables“ zeigen, wie personalisiert die Technologie inzwischen geworden ist. Unabhängig von ihrer Größe haben diese Konzepte eins gemeinsam: Sie erfordern ein zuverlässiges Netzwerk, das bis zur Peripherie rund um die Uhr zur Verfügung steht.

Zu Beginn des Jahres 2016 sehe ich drei wesentliche Trends, die sich auf die Rolle und die Leistung von Netzwerken auswirken werden: größere Interkonnektivität im Zusammenhang mit Megaprojekten wie den Smart Cities, zunehmende Automatisierung in Netzwerken mit Intelligent Fabric und eine Verlagerung der Kosten weg von Einmalinvestitionen und hin zu laufenden Gebühren, da Unternehmen immer häufiger verlangen, dass die Anbieter ihre Lösungen als Service im Abonnement bereitstellen.

Smart City: hochwertige Bürgerservices für alle

Das Netzwerk – dieses allgegenwärtige elektronische Gebilde, das Endgeräte mit den Ressourcen verbindet, die sie anfordern oder liefern – ist das Herz der digitalen Welt. Es unterstützt Leistungen im Gesundheitswesen, in der Bildung, in der Hotellerie und in vielen anderen Bereichen, und ständig kommen neue Anwendungen hinzu.

Nehmen wir beispielsweise die Smart Cities. Laut einer Gartner-Studie wird die Zahl der vernetzten “Dinge” in den Smart Cities von 1,1 Milliarden im Jahr 2015 auf 9,7 Milliarden im Jahr 2020 steigen.

Die Flexibilität von Unternehmen wird durch ihr Netzwerks bestimmt, und die digitale Transformation erfolgt schneller, als die Infrastrukturen in den Unternehmen – von der Peripherie bis zum Kern – angepasst werden können. In den Städten finden wir häufig komplexe, oft veraltete IT-Systeme, die nicht nur unzuverlässig sind, sondern auch sehr teuer im laufenden Betrieb. Sie sind einfach nicht für die heutigen Anforderungen ausgelegt und werden über kurz oder lang ersetzt werden müssen, damit die Städte mit den aktuellen Innovationen Schritt halten können.

In der Smart City kann jede Unterbrechung oder Verzögerung ernsthafte Auswirkungen auf das Funktionieren der städtischen Infrastruktur haben. Um der riesigen Datenmengen Herr zu werden, brauchen die Städte einen neuen Ansatz für das Netzwerkmanagement mit dynamischer Steuerung und Priorisierung des Datenverkehrs. Nur so kann für Endgeräte und Services, die eine hohe Priorität genießen, die nötige Servicequalität (QoS, Quality of Service) sichergestellt werden.

Durch diese Maßnahmen werden Smart Cities in die Lage versetzt, allen Bürgern Nutzen zu liefern, indem sie den ärmsten ebenso wie den reichsten Bewohnern generelle Dienste wie WLAN und verbesserte Online-Bürgerservices zur Verfügung stellen. Beispiele hierfür gibt es in Indien, wo wir in der Gujarat International Finance Tec-City das Backbone für Kommunikation und Networking aufgebaut haben.

Intelligent Fabric

Jedes Jahr hören wir, dass SDN der nächste große Trend in der Unternehmens-IT ist, aber es handelt sich immer noch um eine „aufkommende“ Technologie. Software-Defined Networking (SDN) sorgt dafür, dass sich das Netzwerk an die Applikationen anpassen kann, und bietet auf der Netzwerkebene einen Grad an Automatisierung und Flexibilität, wie wir ihn sonst nur bei den Servern finden. SDN schließt die Lücke zwischen der Anwendungssteuerung und der Netzwerksteuerung und optimiert die Applikationsbereitstellung und die Performance im gesamten Data-Center-Netzwerk und dem konvergenten Campus-LAN.

Seinen vollen Nutzen wird SDN erst künftig entfalten, aber bereits heute gibt es intelligente Application Fluent Networks, die sich dynamisch an die virtualisierten Workloads und virtuelle Maschinen (VM) anpassen. Da sie sich auf die Anwendungen einstellen, wird die Quality of Service des Applikationsflusses im Data Center und dem Netzwerk automatisch angepasst.

Mit intelligenten Netzwerk-Fabrics kann ein neues Netzwerk in Minuten statt wie bisher in Tagen eingerichtet werden, denn sie bieten standardmäßig Ende-zu-Ende-Programmierbarkeit und Selbstheilungsfunktionen. Die Verfügbarkeit und die einfache Installation werden dazu führen, dass Intelligent Fabric zunehmend eingesetzt wird und damit die Lücke schließt, die sich durch die Verzögerungen bei der Entwicklung von vollständigem SDN ergeben.

Alles als Service – Betriebskosten vs. Investitionen

Die Verlagerung der Kosten von den Einmalinvestitionen zu den laufenden Kosten ist heute attraktiver als jemals zuvor. Cloudbasierte On-Demand-Services haben bewiesen, dass sie skalierbar, sicher und funktionsreich sind und damit das bessere Modell für die Bereitstellung von IT-Services bieten.

Je mehr IT-Aufgaben die Unternehmen auslagern und je mehr Managed Services sie nutzen, umso attraktiver werden „On-Demand“-Netzwerke als Teil des Geschäftsmodells der Managed Services. Denn viele Unternehmen brauchen nicht das ganze Jahr über dieselbe Netzwerkkapazität. Man denke nur an Schulen in den Sommerferien oder das Saisongeschäft bei Hotels und Ferienclubs.

Einige Technologieanbieter nutzen bereits ein ausgeklügeltes Monitoring, um die abgerufenen Services zu messen und ihren Kunden verbrauchsabhängige Preismodelle anzubieten, die kostengünstige Alternativen zu den herkömmlichen Investitionen darstellen – und sowohl das Budget als auch das Personal der IT-Abteilung entlasten.
“Network on Demand” wird sich 2016 als gängiges und beliebtes Infrastruktur-Modell etablieren.

Volle Kraft voraus

IT-Analyst Zeus Karravala hat herausgefunden, dass bis zu 83% der Netzwerk-Budgets eingesetzt werden, um das Netzwerk „am Laufen zu halten“. IT-Abteilungen müssen also nicht nur kostengünstige Lösungen für die modernen digitalen Anforderungen – wie neue Tools, neue Applikationen und skalierbare Infrastrukturen – liefern. Mindestens genauso wichtig ist es, unnötige IT-Kosten zu streichen. Die gute Nachricht ist, dass die Unternehmen die neuen Technologien heute schon einsetzen können und dann auch schnell die Vorteile daraus ernten werden, einschließlich der Kostenvorteile. Ich bin überzeugt, dass diese Technologien sich 2016 durchsetzen und unser Leben verändern werden.

Weitere Informationen unter:
http://enterprise.alcatel-lucent.de

Bildquelle / Lizenz:

Digitalisierter Datenfluss zum Steuerberater

Gastbeitrag von Benedikt Leder

 

Standardisierte Schnittstelle optimiert die Anbindung von Cloud-Lösungen an das DATEV-System und ermöglicht den medienbruchfreien Datenfluss zum Steuerberater.

 

Strukturierte Belegdaten über die Cloud an den Steuerberater übermitteln – mit einer neuen Schnittstelle ist das jetzt möglich. Cloud-basierte ERP-Lösungen lassen sich darüber einfach und bequem verknüpfen.

Die Programmverbindung– DATEVconnect online genannt – wurde in Zusammenarbeit mit den Cloud-Lösungsanbietern Exact Software Germany GmbH, Haufe-Lexware GmbH und Scopevisio AG entwickelt. Deren Anwender können so ihre Daten effizienter und einfacher mit ihrem Steuerberater austauschen. Kernaspekt für ihren Einsatz ist die Übermittlung von digitalen Buchführungsbelegen, die in den Unternehmen oft bereits in unterschiedlichen Systemen erfasst und aufbereitet werden.

Der Datentransfer erfolgt einfach und sicher: Die in der Lösung des jeweiligen Cloud-Anbieters vorhandenen digitalen Belege werden über die Schnittstelle auf geschütztem Weg in die Belegverwaltung im DATEV-Rechenzentrum hochgeladen. Dabei werden nicht nur die reinen Belegdaten übermittelt, sondern auch strukturelle Informationen, die durch die Bearbeitung hinzugefügt wurden. In der Online-Belegverwaltung hat der Steuerberater dann Zugriff darauf und kann die Daten direkt weiterverarbeiten.

 

Sicherer Austausch von Buchführungsbelegen

 

Die Anwender in den Unternehmen stoßen die Übergabe komfortabel aus ihrer gewohnten Umgebung an. So können sie digitale Belege und Buchungsinformationen automatisiert austauschen, ohne ihre eigenen Systeme zu verlassen. Zusätzlich profitieren sie dabei von der Sicherheit des DATEV-Rechenzentrums. Alle Entwicklungspartner waren sich von Anfang an einig, dass der Datenaustausch ausschließlich über einen geschützten Weg erfolgen muss. Der Zugriff wird deshalb auf höchstem Sicherheitsniveau mit einer Anmeldung mit Besitz- und Wissenskomponenten abgesichert.

 

Dafür kommt der sogenannte SmartLogin zum Einsatz. Dieses Verfahren setzt auf das Smartphone des Nutzers als Besitzkomponente. Genau genommen virtualisiert eine spezielle App auf dem Gerät gewissermaßen die Funktionalität einer Smartcard. Bei der ersten Aktivierung wird sie fest mit dem Mobilgerät verknüpft. Danach kann bei jedem Login sichergestellt werden, dass die mobile App auf dem ursprünglich registrierten Gerät läuft und nicht modifiziert worden ist. Außerdem prüft das System die vom Anwender eingegebene PIN. So ist dieser Zugriffsschutz bei vergleichbarem Sicherheitsfaktor einfacher zu handhaben als eine Smartcard.

 

Durchgängige Prozesskette zwischen Unternehmen und Kanzlei

 

Für die beschriebene Zusammenarbeit von Berater und Unternehmen war bislang auf beiden Seiten der Einsatz von DATEV-Anwendungen notwendig. Mit der Öffnung für die Lösungen anderer Marktteilnehmer geht der IT-Dienstleister einen neuen Weg.

Ziel ist es, den Workflow auch dann zu optimieren und durchgängig digital zu gestalten, wenn das Unternehmen selbst Software eines anderen Herstellers nutzt. Damit will DATEV die weitere Digitalisierung und Synchronisierung der Geschäftsprozesse zwischen Unternehmen und ihren Steuerberatern fördern, die eine wichtige Voraussetzung für den weiteren Fortschritt der digitalen Transformation sind. Schließlich werden im Zuge der Digitalisierung die Prozessketten immer engmaschiger miteinander verknüpft. Das reicht auch über Unternehmensgrenzen hinwegund gilt insbesondere in der Zusammenarbeit von Unternehmen mit ihren Steuerberatern.

 

Um die Vernetzung von betriebswirtschaftlichen Prozessen im Unternehmen voranzubringen, gilt es also, heterogene Systeme, Datenquellen und Prozesse medienbruchfrei zu verbinden. Dafür sind Offenheit und Integrationsfähigkeit ein wichtiges Element. DATEVconnect online will hier bestehende Schranken abbauen und möglichst viele in den Unternehmen bereits digital vorhandene Daten reibungslos für die Bearbeitung in der Steuerberatungskanzlei verfügbar machen. Standardisierte Abläufe sollen in den Betrieben wie auch in den Kanzleien dazu beitragen, die Erledigung administrativer Aufgaben zu vereinfachen, und neue Möglichkeiten der Zusammenarbeit eröffnen.

 

Konzept mit großem Potenzial

 

Da der Nutzer im Unternehmen für den Datentransfer via DATEVconnect online seine gewohnte Umgebung nicht verlassen muss, ergibt sich für beide Seiten eine medienbruchfreie Verlängerung der Prozesskette, die durchgängig abgebildet wird. Unternehmen wie auch deren Steuerberater werden so über die Standardisierung der Daten, die der Einsatz der Schnittstelle bewirkt, in gleichem Maße von unproduktiven Erfassungs- beziehungsweise Konvertierungstätigkeiten entlastet.

 

Auch wenn sich der beschriebene reibungslose Datentransfer bislang noch auf Anwender beschränkt, die eine cloud-basierte ERP-Lösung eines der Entwicklungspartner einsetzen, ist dies erst der Anfang. Die standardisierte Schnittstelle ist offen konzipiert und wird auch von weiteren Software-Herstellern implementiert werden. Die Nachfrage seitens weiterer Cloud-Anbieter ist bereits groß, ihre Lösungen ebenfalls an das System anzubinden. DATEV prüft die Voraussetzungen bei den Interessenten sukzessive und wird sie beratend bei der Implementierung unterstützen.

 

Benedikt Leder, DATEV eG

 

DATEV eG

 

Aufmacherbild / Lizenz / Quelle

„3D Cloud Computing“ (CC BY 2.0) by StockMonkeys.com

Mit dem Industrial Data Space die Digitalisierung sicher gestalten

Von Geert-Jan Gorter, catkin GmbH

Cyberphysische Systeme in Form intelligenter Container und anderer Behälter sowie ihre Vernetzung zählen zu den wichtigsten Trends der Logistik 4.0. Voraussetzung für smarte Services, innovative Leistungsangebote und automatisierte Geschäftsprozesse sind aber ein sicherer Austausch und die einfache Kombination von Daten in Wertschöpfungsnetzwerken – ohne dabei die Souveränität über die eigenen Daten zu verlieren.

Auf einen Blick

1 Wissenschaft, Politik und Unternehmen ergreifen die Initiative

2 Sich selbstorganisierende Behälter und Läger

3 Neutrale Plattformen schaffen mehr Transparenz

4 Nützliche Links

Wissenschaft, Politik und Unternehmen ergreifen die Initiative

Die Initiative „Industrial Data Space“, an der mit Unterstützung des Bundesministeriums für Bildung und Forschung 12 Fraunhofer-Institute in Deutschland gemeinsam mit Vertretern namhafter Unternehmen unterschiedlichster Branchen und Größen arbeiten, will dafür die Voraussetzungen schaffen. Sie zielt darauf ab, einen sicheren Datenraum zu schaffen, der Unternehmen die souveräne Bewirtschaftung ihrer Datengüter ermöglicht.

„Die Hochzeit cyberphysischer Systeme mit dem Industrial Data Space lassen das Internet der Dinge nicht nur in der Theorie Wirklichkeit werden. Sie öffnen das Tor zur selbstorganisierenden Logistik», ist Prof. Michael ten Hompel, geschäftsführender Institutsleiter des Fraunhofer IML in Dortmund, überzeugt. Er koordiniert die Initiative und hat kürzlich zusammen mit Bosch eine zielgerichtet entwickelte Hardware mit Blick auf den derzeit entstehenden sicheren Datenraum vorgestellt.

Sich selbstorganisierende Behälter und Läger

Jeder Ladungsträger, jedes Transportmittel, jedes Ding in der Logistik könne mit dieser Technologie ausgerüstet zum cyberphysischen System werden. Doch ten Hompel denkt dabei schon einen Schritt weiter: Heute würden sich die Behälter selbst organisieren, doch bald dürfte man selbstorganisierende Läger sehen.

Ähnliches erwartet auch Andreas Reutter, Executive Vice President Logistics bei Robert Bosch: „Grundlage für die von uns angestrebte Connected Supply Chain ist die Digitalisierung logistischer Objekte. Ihre Vernetzung schafft neue Voraussetzungen für die Weiterentwicklung der Logistik.“ Als erstes Produkt will das Unternehmen im nächsten Jahr den intelligenten Behälter „TraQ“ auf den Markt bringen. Er verfügt über Sensoren und ist in der Lage, sich sicher über das Internet mit anderen cyberphysischen Systemen auszutauschen. Die Sensorplattform speichert und analysiert Umgebungsvariablen.

GPS zum weltweiten Tracking ist ebenso an Bord wie eine 4G-Datenübertragung ohne SIM-Karte und Sensoren für die Erfassung von Temperatur und Beschleunigung, zum Beispiel zur Unfallerkennung, aber auch zur Analyse des Flug- und Bodentransports. Damit ist er in der Lage, jederzeit Daten über seinen Zustand an andere cyberphysische Systeme zu kommunizieren und ermöglicht entlang der Supply Chain automatische Reaktionen auf Verspätungen, Temperaturerhöhungen usw.

Neutrale Plattformen schaffen mehr Transparenz

In Verbindung mit neutralen Plattformen als „Datendrehscheibe“ wird Logistik 4.0 für Dienstleistungsunternehmen zur Realität. Maxime hierbei ist es, durch schnelle, flexible und wirksame Vernetzung von Auftraggebern und Auftragnehmern die Effizienz in der Auftragsabwicklung zu erhöhen und Kosten zu senken. Angesichts der rasant wachsenden Zahl von Hackerangriffen steht natürlich auch stets die Frage nach Datensicherheit im Raum. Deshalb sollte sichergestellt werden, dass die sensiblen Daten nicht in irgendeiner Cloud unterwegs sind, sondern sich im Schutz eines modernen deutschen Rechenzentrums befinden.

Modernste Verschlüsselung und ausgefeilte Autorisierungsfunktionen können unerwünschte Zugriffe verhindern. Und mit dem Referenzarchitekturmodell der Initiative „Industrial Data Space“ existiert inzwischen eine Blaupause für den sicheren Austausch in einer „förderalen Cloud“ und die effiziente Kombination von Daten. Es kann für den Einzelfall konfiguriert werden und bietet so die Grundlage für verschiedene Implementierungen im Rahmen von Industrie 4.0 – auch für den sicheren Austausch der Daten entlang der gesamten „Data Supply Chain“.

Nützliche Links

 

Geert-Jan Gorter machte sich im August 2004 nach einem Physik-Studium an der Universität Twente in Enschede (NL) und mehreren Jahren als Projektleiter in der Softwareentwicklung mit der proLOGiT GmbH in Dortmund selbstständig. Das Unternehmen entwickelt Lösungen für die Logistikbranche insbesondere für Eisenbahnverkehrsunternehmen. 2013 gründete Gorter mit Christian Krüger die catkin GmbH in Dortmund, die ein unternehmensübergreifendes Kommunikationsportal für Logistik-Aufträge in komplexen Dienstleisterstrukturen anbietet.

 

Aufmacherbild Lizenz:DSC00448“ (CC BY 2.0) by  Helge V. Keitel 

CGI will 400 neue Mitarbeiter in Deutschland einstellen

CGI will weiter kräftig wachsen und in Deutschland in den nächsten zwölf Monaten insgesamt 400 neue Mitarbeiter einstellen, die sich je zur Hälfte auf Berufseinsteiger und Mitarbeiter mit Berufserfahrung im Bereich der Digitalen Transformation verteilen. CGI unterstreicht damit seine Ausrichtung auf den digitalen Wandel, bei dem Unternehmen ihre Wettbewerbs- und Zukunftsfähigkeit stärken. Die Digitale Transformation rückt den Kunden in den Mittelpunkt, für ihn werden Schnelligkeit, Personalisierung und erstklassiger Service zur Selbstverständlichkeit. Um diese Erwartungen erfüllen zu können, bedarf es neuer intelligenter Produkte und Prozessinnovationen. Einen Erfolgsfaktor dafür liefert die optimale Unterstützung durch Informationstechnologien.

Absolventen mit Hochschulabschluss haben bei CGI in Deutschland ausgezeichnete Zukunftsperspektiven. Allein in diesem Jahr sind 150 Neueinstellungen aus diesem Bereich geplant, davon zirka 70 Absolventen aus den dualen Masterstudiengängen, die sie fit für den digitalen Wandel machen. CGI kooperiert bei den dualen Masterstudiengängen mit der HS Reutlingen und der Provadis School of International Management and Technology AG. Die Bandbreite relevanter Inhalte umfasst unter anderem die Gestaltung digitaler Strategien, die Prozessanalyse und das Prozessmanagement, neue Softwaretechnologien, Enterprise Architecture Management, Social Media, das Internet der Dinge und ein effizientes Change Management. Hochschulabgänger haben sehr gute Perspektiven für eine individuelle Karriere bei CGI.

„In Gesprächen mit Unternehmen aus vielen Branchen im hiesigen Markt stellen wir immer wieder fest, dass sie großen Wert auf eine Zusammenarbeit mit Partnern legen, die über umfangreiche Erfahrungen bei der Digitalen Transformation verfügen – insbesondere dann, wenn die Unternehmen selbst keine eigene Strategie definiert haben“, sagt Torsten Straß, Senior Vice President von CGI in Deutschland.

Gefragt sind auch Software-Experten aus dem Umfeld agiler Methoden und Enterprise Architecture. Hier will CGI bis zu 40 neue Mitarbeiter gewinnen. Zudem baut CGI sein SAP-Know-how weiter aus und wird in diesem Jahr in Süddeutschland bis zu 30 neue SAP-Positionen – unter anderem mit dem Schwerpunkt auf SAP HANA – schaffen. Darüber hinaus investiert CGI in IT-Sicherheit und sucht aktuell 40 Spezialisten für Cyber Security, die Kunden dabei unterstützen, ihr Business wirksam vor unerwünschten externen Zugriffen zu schützen.

Zurzeit hat CGI 2.300 Mitarbeiter in Deutschland und zeichnet sich durch eine mitarbeiterorientierte Unternehmenskultur sowie ein kooperatives und modernes Arbeitsumfeld aus. Dazu gehören die individuelle Gestaltung des Arbeitsumfeldes, flexible Arbeitszeiten, eine ausgewogene Work-Life-Balance und eine umfassende Verantwortung für Projekte. Da Erfolg kein Zufallsprodukt ist, investiert CGI konsequent in die Aus- und Weiterbildung von Berufseinsteigern genauso wie in die beständige Entwicklung der Fachexperten. Das Unternehmen bringt Menschen, Prozesse und Technologie mit dem Ziel zusammen, Kunden bei der Digitalen Transformation zu beraten und zu begleiten. CGI unterstützt Unternehmen dabei, ihre Kosten zur Aufrechterhaltung des laufenden IT-Betriebs (Keep-up) zu reduzieren, um die damit eingesparten Gelder in innovative, die Digitale Transformation unterstützende Projekte (Step-up) investieren zu können.

„Die Mitarbeiter der Generation Y erwarten Freiraum, um individuell ihre Karriere bestimmen zu können. Karriere-Silos, die keine Möglichkeiten zur Entfaltung bieten, oder Titel und feste Stellen sind nicht mehr gefragt. Die Mitarbeiter wollen ihren eigenen Weg finden und ihn auch gehen können“, sagt Sabine Weinheimer-Hoepermans, HR Director bei CGI in Deutschland. „Wir bieten unseren Mitarbeitern daher Rahmenbedingungen, die eine digitale Interaktion auf allen Ebenen schaffen und den konstanten, themenübergreifenden Austausch und die persönliche Weiterentwicklung ermöglichen.“

Weitere Informationen unter:
http://www.de.cgi.com/karriere

Bildquelle / Lizenz:

Altersvorsorge im Zinstief

Das Nullzins­umfeld erfordert mehr Eigeninitiative, Finanzmarktwissen und Besonnenheit, um rentabel und nachhaltig Vor­sorge zu betreiben.

Im Vergleich zu den 70er-Jahren lebt der männliche Durch­schnittsrentner heute sechs Jahre länger. Durch die Entwicklungen in der Medizin befinden sich Frauen sogar acht Jahre länger im Ruhestand. Böse Zungen könn­ten meinen, es läge am ausbleibenden Stress durch die Kindererziehung. Noch kommen auf einen Rentner drei erwerbsfähige Erwachsene. 2030 werden es nur noch zwei sein. Ein Jahr später erst gehen die Babyboomer in Rente.
Selbst Politiker werfen angesichts dieser Zahlen mit Blick auf die staatliche Altersvorsorge das Handtuch. CSU-Chef Horst Seehofer sprach kürzlich das aus, was viele denken: Die Riester-Rente ist gescheitert. Die Altersvorsorge-Einrich­tungen leiden unter der Frage, wie sicher die staatlichen Renten unter der Folge des Null- oder Negativzinses noch sind. Und so werden bereits zahlreiche alternative Konzepte – wie die Lebensleistungsrente und die Deutschland-Rente – diskutiert. In die „Deutschland-Rente“ als zusätzlichem Baustein für die Altersversorgung sollten Plänen zufolge alle Arbeitnehmer einzahlen, die einer Beitragszahlung nicht dezidiert widersprechen. Die Leis­tung des Arbeitnehmers soll den Plänen zufolge um eine staatliche Zulage aufgestockt werden. Das Angebot richtet sich vor allem an untere Einkommensgruppen und Beschäftigte kleiner Firmen, die keine betriebliche Altersvorsorge anbieten. Das Land Hessen hat eine entsprechende Gesetzesinitiative geplant.

Die Rente ist sicher – oder?

Besonders hart könnten die Folgen des Nullzinsumfeldes für „Otto Normalverbraucher“, also für die arbeitende Be­völkerung und Rentner, sein. Die staatlich geförderten Altersvorsorgesysteme haben allesamt Schwächen. Generell ist z.B. die Rendite im Zinstief zu niedrig. Geförderte Produkte der Versicherer sind oftmals teurer als nicht geförderte. Zudem sind die Nutzer extrem gebunden. Bei der Riester-Rente ist während der Einzahlungsphase nur in Ausnahmefällen eine Entnahme möglich. Bei den Rürup-Produkten kommt der Nutzer selbst in der Rentenphase nicht immer an sein ganzes Geld heran. Oftmals haben die Verträge Stolpersteine und sind für Nutzer nur schwer verständlich. Das Zinstief fordert also seine Opfer – die Finanz­welt ist auf den Kopf gestellt. Dort, wo Staatsanleihen in den Depots von Kapitalanlegern über Dekaden hinweg als „sichere Bank“ gesehen wurden und über einen langen Zeitraum hinweg Renditen von fünf bis knapp 12 Prozent flossen, hat sich die Situation dank Mario Draghi und der EZB dramatisch verschärft. In den vergangenen Tagen war­fen deutsche Staatsanleihen zum ersten Mal über­haupt negative Renditen ab. Sparen lohnt sich nicht mehr. „Wer spart, verliert“, heißt es heute. Offene Briefe an EZB-Chef Mario Draghi mit dem darin unterbreiteten Vorschlag, die Zen­tralbank solle nicht mehr den Banken billiges Geld geben, sondern EU-Bürgern Geld-Geschenke unterbreiten, blie­ben unbeantwortet. Die Bürger, so der Vorschlag, sollten dieses mit einem Ver­fallsdatum von zwei Jahren versehene Geld ausschließlich für den Konsum einsetzen.

Helikoptergeld

Quinn Dombrowski Euro; flickr.com; https://flic.kr/p/4VBm7h; Veröffentlicht unter: https://creativecommons.org/licenses/by-sa/2.0/Der Ausdruck Helikoptergeld wurde erstmals 1969 von Milton Fridman verwendet. Er beschreibt bildhaft ein geldpolitisches Konzept. Dabei wird das neu geschaffene Zentralbankgeld nicht an Banken gegen Anleihen, sondern direkt an Staat oder Bürger ausgezahlt. 2002 empfahl der ehemalige US-Notenbankchef Ben Bernanke Japan die Einführung zur Bekämpfung der Deflation. Seitdem der Leitzins durch die EZB im März auf null Prozent gesenkt wurde, taucht der Begriff auch hier immer häufiger in der medialen Diskussion auf.
Ausführliche Informationen erhalten Sie auf: www.trendreport.de/helikoptergeld

Doch nicht nur die staatliche Rente wankt, sondern auch große Teile der betrieblichen Altersvorsorge. Wenn sich z. B. die BaFin öffentlich ungewöhnlich kritisch zu diesem Thema äußert, dann ist Gefahr im Verzug. Das Ganze hatte bereits Folgen; denn die Neue Leben Pensionskasse (eine Tochter des Talanx-Konzerns) hat als erste Pensionskasse jüngst den Garantiezins reduziert und drastische Leistungskürzungen angekündigt.

Solche Meldungen dürften das Vertrauen in die betrieblichen Altersvorsorgesysteme nicht gerade stärken. Selbst wenn die geförderte Altersvorsorge generell besser ist als die medialen Meldungen derzeit vermuten lassen, so dürfte die Säule der privaten Vorsorge immer wichtiger werden. Doch auch hier drückt der Niedrigzins. Die Garantien der Lebensversicherungen sind in den letzten Jahren immer weiter zurückgegangen und gleichen nicht mehr die Inflation aus. Kapitalmarktanlagen scheinen zumindest bei einem längeren Anlagehorizont die bessere Alternative zu sein (siehe nebenstehende Grafik). Wer sein Geld (was zu empfehlen ist) lieber selbst anlegt, sollte einen Teil in Exchange Traded Funds (ETFs) anlegen. Diese Fonds bilden in hoher Vielfalt zu vergleichsweise niedrigen Kosten einen Index nach. Das Angebot ist breit und bunt und seit der Premiere im Jahr 1970 kontinuierlich gewachsen. Dag Rodewald von UBS weist in diesem Kontext darauf hin, dass es in Europa rund 1 600 verschiedene ETFs gibt. Es gibt praktisch kein Thema, in das nicht über ETFs investiert werden kann. „Neben Exchange Traded Funds für die Kernmärkte im Aktienbereich und im Anleiheuniversum umfasst das Angebot zahlreiche Themen wie Nachhaltigkeit und währungsgesicherte ETFs“, ergänzt er. In diesem Fall spricht man von „passiven Investments“, weil sich der Anleger z.B. auf einen Aktienindex fokussiert, wobei er selbst keine Aktienauswahl vornimmt.

Weitere Möglichkeiten entstehen durch Smart-Beta-ETFs, bei denen die Vorteile des passiven Investments mit denen des aktiven Investments kombiniert werden. In den Indizes werden die Aktien einzelner Gesellschaften auf Basis ihrer Bedeutung und ihrer Marktkapitalisierung gewichtet. Die Wertentwicklung solcher Indizes und solcher Fonds wird also maßgeblich von den Aktien der größten Unternehmen dominiert. Smart-Beta-ETFs nutzen sowohl diesen passiven Index-Ansatz als gleichzeitig auch einen aktiven Ansatz, bei dem die Gewichtung einzelner Aktien nicht unbedingt an der Marktkapitalisierung ausgerichtet ist. Darüber hinaus ist das Thema ETF-Investing durch sogenannte „Factor ETFs“ ergänzt worden, bei denen die Gewichtung des ETFs an bestimmten Faktoren ausgerichtet wird. „Investoren sollten sich mit der jeweils zugrunde liegenden Indexmethodik intensiv beschäftigen, um beurteilen zu können, ob ein ETF die Präferenz abbildet. Das ist besonders bei Indizes wichtig, die nicht klassisch nach Markt­kapitalisierung gewichtet sind“, empfiehlt Rodewald.

Nach 15 Jahren machte der MSCI World bisher immer Gewinn. Der Garantiezins der Lebensversicherer fällt seit etwa 15 Jahren kontinuierlich.

Nach 15 Jahren machte der MSCI World bisher immer Gewinn. Der Garantiezins der Lebensversicherer fällt seit etwa 15 Jahren kontinuierlich.

Digitalisierung hält Einzug

Im dynamischen Bereich FinTech haben sogenannte Robo-Advisors das Ziel, Dienstleistungen traditioneller Finanzberater nicht nur zu digitalisieren, sondern in der Folge auch zu automatisieren. Die Akteure stützen ihre Strategie bei der Kapitalanlage auf regelbasierte Modelle, mit denen Portfolien zusammengestellt werden, die automatisch überwacht und im Fall der Fälle dann auch angepasst werden. „Die Versprechungen aktiver Fondsmanager, gegen Gebühr den Markt zu schlagen, wurden in der Vergangenheit permanent widerlegt. Dennoch verspricht Ihnen jeder besser als der passive Markt zu sein. Das ist schon rein logisch nicht möglich. Genauso wenig, wie jeder bundesdeutsche Autofahrer behaupten kann, überdurchschnittlich gut Auto fahren zu können,“ erläutert Prof. Dr. Dr. h. c. Martin Weber, Entwickler des Arero-Konzepts der Prof. Weber GmbH. Als ein großer Vorteil wird dabei immer wieder auf die „emotionslose“ – also rein nüchterne, auf Zahlen, Daten und Fakten beruhende – Umsetzung von Anlagestrategien durch Computer bzw. durch Software-Programme hingewiesen. Ignoriert werden können die Produkte der Versicherer nicht. Grund: Das sind die einzigen Produkte, die Garantien bieten. Auch die Versicherer haben sich mittlerweile allerdings auf den Nied­rig- oder Negativzins eingestellt. „Der Markt bei Rentenversicherungen ist in den vergangenen Jahren bunter geworden. Verbraucher können wählen zwischen klassischen Tarifen mit Garantiezins, der neuen Klassik mit eingeschränkten Garantien oder aber der fondsgebundenen Versicherung“, sagt Ingo Weber vom Verbraucherportal Verivox. „Je nach Risikoneigung des Sparers kann jede Form die passende sein.“ Darüber hinaus weist der Experte auf zahlreiche Produkt-Variationen hin. Allgemein ist festzuhalten, dass es für den Versicherten von entscheidender Bedeutung ist, Angebote zu vergleichen und dann Anbieter auszuwählen, die bei einer hohen Sicherheit eine möglichst hohe Rente zahlen.

Jeder Arbeitnehmer ist aufgefordert, sich mehr Finanzmarkt-Wissen anzueignen.

Sachwerte bieten Substanz

Sachwerte dürfen in einem ausgewogenen Depot nicht fehlen. Denn die Vergangenheit hat gelehrt, dass „synthetische“ – also künstlich erzeugte – Finanz­produkte wie z.B. Derivate oder auch ETFs in ruhigen Börsenphasen und bei entsprechend stabilen Emittenten zwar durchaus ihren Reiz haben. Doch gerade die 2008er-Krise hat gezeigt, dass es beim Zusammenbruch von Fi­nanzhäu­sern zu einem Domino-Effekt kommen kann und andere Finanzhäuser dann mit in den Abgrund gerissen werden. Sachwerte – Immobilien, Grund­stücke, Forst- und Waldinvestments so­wie Rohstoffe und Wasser – bieten dem Anleger einen „wahren Wert“, also Sub­stanz. Vor allem Gold und andere Edel­metalle üben auf Anleger derzeit einen enormen Reiz aus. Gleiches gilt auch für den Energiebereich.
Ergo: Das Nullzinsumfeld erschwert die Altersvorsorge – Regierungen und EZB stehen am Scheideweg. Jeder Arbeitnehmer ist aufgefordert, mehr eigene Verantwortung in Finanzfragen zu übernehmen und eigene Strategien zu entwerfen. Das aber setzt voraus, dass sich Arbeitnehmer und Anleger ein besseres Finanzmarkt-Wissen aneignen und mehr Durchhaltevermögen beweisen. Wer sich eigenverantwortlich ernsthaft mit der Thematik auseinandersetzt, muss sich um den Ruhestand keine Sorgen machen.  Nach dem Motto „Lege nicht alle Eier in einen Korb“ ist eine breite Diversifizierung des Geldes besonders wichtig, wie Markus Ross vom Frankfurter Finanzdienstleister Ceros erklärt.
Anleger sollten ihr Kapital über verschiedene Länder hinweg in möglichst liquide Asset-Classes (Aktien, Cash, Devisen und Rohstoffe) investieren und über diese Maßnahmen das Risiko senken. Der Faktor Risikobereitschaft spielt bei jüngeren Investoren eine größere Rolle als bei älteren Menschen, weist Dag Rodewald von UBS auf den Alters-Faktor hin. „Anleger sollten in schlechten Zeiten zudem eine ruhige Hand bewahren“, rät Arero-Entwickler Prof. Dr. Dr. h. c. Martin Weber von der Prof. Weber GmbH bei Wertpapier­anlagen in Krisenphasen zur Besonnenheit. „Die Devise lautet: langfristig und diszipliniert sparen. Auf lange Sicht gleichen sich Schwankungen aus und Sie können eine Risikoprämie verdienen, die Ihnen wenige Vorsorgealternativen bieten können.“

von Udo Rettberg
u.rettberg@trendreport.de

Bildquelle / Lizenz: