Mehr Rendite, mehr Rente

„Ich habe einen ganz einfachen Geschmack: Ich bin immer mit dem Besten zufrieden.“ Oscar Wilde, der irische Schriftsteller und Lebemann, dachte bei seinem Ausspruch sicher nicht an die Altersvorsorge. Dennoch passt diese Strategie auch für die Rentenplanung.

Ingo Weber, Geschäftsführer des unabhängigen Verbraucherportals Verivox, rechnet vor: „Wer sein Geld bei den besten Festgeld-Angeboten für zwei Jahre anlegt, bekommt 1,4 bis 1,8 Prozent Rendite. Bei einer durchschnittlichen Bank sind es 0,2 Prozent.“
Dieser Renditeunterschied läppert sich – bei einer Festgeld-Anlage von 10 000 Euro auf über 300 Euro nach zwei Jahren und 6 500 Euro nach 30 Jahren. Die Strategie, nach den besten Renditen zu suchen, zahlt sich also aus. Bei Verivox vergleichen Sparer die Angebote von rund 800 Banken.

Festgeldkonten eignen sich als Beimischung zur Altersvorsorge. Bis 100 000 Euro sind in der Europäischen Union bei einer Bankenpleite abgesichert. Verantwortlich ist dann der Rettungsschirm des Landes, in dem die Bank sitzt. Sicherheitsbewusste Sparer suchen deshalb nach Banken aus krisenfesten Ländern.

Ingo Weber empfiehlt, sich derzeit nur zwei Jahre zu binden und dann neu anzulegen. Denn wenn die Zinsen wieder steigen, sollte der Anleger nicht in einem 10-jährigen Festgeld gefangen sein.

Keine Scheu vor Aktienfonds

Allein mit Festgeldern klappt es jedoch nicht mit der satten Zusatzrente. „Die Deutschen sollten ihre Scheu vor Aktienfonds ablegen“, so Finanzexperte Ingo Weber. „Bei einer guten Altersvorsorge ist das Risiko breit gestreut. So können Sparer ihr Risiko minimieren und die Erträge maximieren. Und in diesen Mix gehören Fonds.“ Fast sechs Prozent jährliche Rendite haben seit 1996 die Fonds erzielt, die in internationale Aktien investieren. Das zeigen Zahlen des Branchenverbandes BVI. Und wer langfristig spart, senkt das Risiko von Verlusten.

 „Die Deutschen sollten ihre Scheu vor Aktienfonds ablegen“, rät Finanzexperte Ingo Weber.

„Die Deutschen sollten ihre Scheu vor Aktienfonds ablegen“, rät Finanzexperte Ingo Weber.

In großen Märkten wie Europa oder Amerika sind börsen-gehandelte Indexfonds oft die beste Wahl, weil das Risko breit gestreut ist. Sparpläne gibt es ab 50 Euro im Monat. Um bei den Gebühren für den Fondskauf nicht in die Falle zu tappen, empfiehlt sich ein Vergleich der Depotbanken. Direktbanken spielen dabei ihre Stärke aus. Sie haben niedrige Kosten und den Sparern bleibt mehr Rendite.

Versicherungen sind ein Klassiker der Altersvorsorge. Auch hier gibt es enorme Renditeunterschie­de. Die Rating-Agentur Assekurata hat klassische Rententarife ana­lysiert. Bei einem Mustervertrag verspricht der beste Versicherer eine Verzinsung von 3,7 Prozent auf jeden eingezahlten Euro, der schlechteste 1,6 Prozent. Im Verivox-Vergleich für Rentenversicherungen sehen Sparer, wie sich diese Unterschiede auf ihre Rente auswirken.
„Rentenversicherungen bleiben für die Altersvorsorge wichtig, denn nur sie zahlen garantiert bis zum Lebensende einen festen Betrag. Ein Auszahlplan von der Bank oder der Fonds­gesellschaft lässt sich nicht so optimieren“, sagt Ingo Weber.

Weitere Informationen unter:
www.verivox.de

Bildquelle / Lizenz: Verivox GmbH

Wege zur agilen Organisation

Organisationen der Zukunft erfolgreich gestalten

Gastbeitrag:

André Häusling, Geschäftsführer HR Pioneers GmbH und Esther Römer, Innovation Designer

 

Agilität und Selbstorganisation werden als branchenübergreifende Management- und Führungsansätze vermehrt eingesetzt, um der konstant wachsenden Komplexität und Schnelligkeit des Marktes sowie dem Bedarf an Innovationskraft gerecht zu werden. Unternehmen müssen dynamisches, flexibles Anpassen und eine kontinuierliche Weiterentwicklung als Teile ihrer DNA verstehen und leben. Um agil zu werden, müssen sich klassische, starre und hierarchiebasierte Unternehmen neuen Herausforderungen stellen, denn Agilität fordert ein neues Wertegerüst, ein geändertes kunden- und mitarbeiterorientiertes Führungsverständnis sowie die Anwendung und Weiterentwicklung völlig neuer innovativer Personalinstrumente.

 

  1. Megatrends der modernen Arbeitswelt – Externe Herausforderungen im Markumfeld treffen auf interne Gegebenheiten in Unternehmen

Aktuelle Entwicklungen zeigen, dass sich die Marktbedingungen für Unternehmen radikal verändern. Innovationszyklen werden immer kürzer, Geschäftsmodelle werden immer digitaler, knapper werdende Ressourcen und die Globalisierung verstärken komplexe Marktbedingungen. Das hat deutliche Konsequenzen für Unternehmen: Die durchschnittliche Lebenserwartung eines Unternehmens ist in den letzten 50 Jahren von 75 auf heute 15 Jahre gesunken. (s. Deloitte in seiner Shift-Index-Serie zu Fortune-500-Unternehmen*).

changes-ahead-8504887233_e10a7b9549_o

Zu diesen Herausforderungen am Markt kommen weitere zahlreiche Rahmenbedingungen hinzu, die eine flexible Anpassungsfähigkeit fordern: demographische Veränderungen, ein steigender Fachkräftemangel und der mit den Generationen Y an Z einhergehende Wertewandel. Die Digital Natives fordern einerseits mehr Selbstverantwortung, Autonomie und Individualisierung, andererseits eine steigende Corporate Responsibility und eine konsequente Nachhaltigkeit in den unternehmerischen Entscheidungen. Dies macht ein Umdenken in Bezug auf produktive, kundenorientierte Arbeit, die sich durch einen enormen Fokus auf Wissen und Wissenstransfer auszeichnet, dringend notwendig: Das höchste Gut stellt hierbei die Expertise der Mitarbeiter dar.

Und spätestens hier fangen die Probleme an: Die neue Generation, die Dynamik des Marktes trifft auf unbewegliche und hierarchisch geprägte Strukturen in Unternehmen. Das führt zu langen top-down Entscheidungen und cost-of-delay. Das weit verbreitete Silo-Denken bewirkt, dass sich die Unternehmen nur mit sich selber beschäftigen anstatt das Wesentliche in den Fokus zu nehmen: ihren Kunden.  Hinzu kommt, dass Personalabteilungen oftmals in ihrer administrativen Rolle stecken bleiben und mit veralteten Instrumenten wie z.B. jährlichen Zielvereinbarungsgesprächen operieren. Damit verlieren die Unternehmen nicht nur an Geschwindigkeit und Flexibilität, sie verlieren auch ihre Kunden aus dem Blick und demotivieren ihre Mitarbeiter.

Diese internen und externen Herausforderungen inklusive der oben beschriebenen Megatrends stellen nur einen kleinen Ausschnitt der aktuellen Bedingungen dar, zeigen aber sehr eindringlich, welche Anpassungsfähigkeit gefordert wird und warum ein Umdenken möglichst schnell einsetzen sollte.

  1. Wie gelingt die Transformation zum agilen Unternehmen?

    Sechs Dimensionen der Agilität – das Pioneers Trafo-ModellTM

16HRPioneers TRAFO Grafiken RGB

Wenn Unternehmen also überleben und erfolgreich sein wollen, können sie es sich nicht leisten, träge zu sein. Sie müssen sich anpassen und agil werden. So ist für viele das Thema Agilität nicht neu. Die Notwendigkeit für eine gesteigerte Agilität von Unternehmen wird in der Praxis von vielen Unternehmensführungen erkannt. Aber die ungelöste Frage bleibt häufig: Wie können wir als Organisation agiler werden?

Um das Gelingen agiler Transformationen besser
erklärbar zu machen, haben wir das Pioneers Trafo-ModellTM entwickelt. Wir haben sechs Dimensionen identifiziert, innerhalb derer Unternehmen die agile Transformation angehen müssen, um sich von klassischen zu agilen Unternehmen zu entwickeln.

 

 

  • Erste Dimension: Das Entwickeln eines agilen Zielbilds des Unternehmens

Traditionelle Organisation fokussieren sich sehr stark auf sich selbst. Agile Unternehmen hingegen richten ihre Strategie an dem Kunden aus und streben eine Maximierung des Kundennutzens an. Dies bedeutet, dass Sie beginnen ihr Unternehmen konsequent in allen Bereichen vom Kunden her zu denken. Hierfür ist es notwendig, ein agiles Zielbild bzw. eine Vision für das Thema Agilität im Unternehmen zu haben. Diese sollte verschiedene Komponenten beinhalten, z.B. ein Zielbild agiler Organisationsstrukturen, einer agilen Unternehmenskultur und auch eines agilen Führungsverständnisses. Es wird deutlich, wo sich die Organisation verändern muss, um sich schneller an Marktgegebenheiten anzupassen.

 

  • Zweite Dimension: Die Entwicklung einer kundenorientierten Organisationsstruktur

Unternehmen benötigen Organisationsstrukturen, die eine Anpassungsfähigkeit ermöglichen und fördern. Während in traditionellen Organisationen in Pyramiden und Silos gedacht sowie gearbeitet wird, sehen wir in agilen Organisationen eine deutliche Ausrichtung auf den Kunden. In der Praxis entwickeln agile Organisationen netzwerkartige Strukturen oder bringen die Ablauforganisation mit Hilfe von cross-funktionalen Teams in Richtung Kunde in den Mittelpunkt des Denkens und Handelns der Organisation. Die Aufbauorganisation rückt in den Hintergrund, weil dort keine unmittelbare Wertschöpfung stattfindet. Sie wird nun als Befähiger der Ablauforganisation verstanden. Dies setzt in der Praxis aber ein großes Umdenken im Selbstverständnis und der Haltung der Linienführungskräfte voraus.

self-organized-6416285937_e49c907472_o

  • Dritte Dimension: Das Einführen iterativer Prozesslandschaften

Bisher ist es in traditionellen Organisationen üblich, Projekte und Produkte wasserfallartig zu planen. Fünf-Jahrespläne führen zu „erzwungenen Lügen“, weil noch keiner weiß, was wirklich passieren wird. Es wird viel Zeit auf das Planen und konzipieren verwendet, bis schließlich nach Monaten erste Ergebnisse präsentiert werden. In agilen Organisationen sehen wir bei den Prozessen einen zentralen Platz des Kunden. Um die Kundenbedürfnisse möglichst rasch bedienen zu können, setzen agile Unternehmen auf ein iteratives Vorgehen und das Liefern in Inkrementen, also kurzfristigen Ergebnissen. Hierfür nutzen sie häufig Vorgehensmodelle wie Scrum. Dadurch können dem Kunden sehr schnell Produkte bzw. Ergebnisse präsentiert und entsprechend auf das Feedback des Kunden eingegangen werden. Die Teams arbeiten so eng am Kunden, dass ein entsprechend hoher Grad an Selbstverpflichtung herrscht und sie sich gegenüber dem Kunden als ergebnisverantwortlich zeigen. Dies führt zu einer ausgeprägten Selbstverantwortung der Mitarbeiter.

 

Die IT wird geschäftsentscheidend

Dominik Neumann, Head of Digital Transformation bei CGI, definiert im Ge­spräch mit der TREND-REPORT-Redaktion den 360°-Blick des Unternehmens auf die digitale Transformation.

Warum ist die Digitalisierung entscheidend für die Zukunft eines Unternehmens?
Die Digitale Transformation geht einher mit einem Paradigmenwechsel, der möglicherweise die Grundfeste unserer Wirtschaft auf den Prüfstand stellt, also wie wir produzieren, arbeiten, mit unseren Kunden interagieren, aber auch unser Wertesystem und unsere Führungskultur. Die Informationstechnologie entpuppt sich als alles entscheidender Treiber für umwälzende Veränderungen, deren Geschwindigkeit nicht linear zunimmt, was eine kontinuierliche Anpassung nur noch schwer möglich macht. Technologien und Trends verstärken sich untereinander und sorgen so für Potenzeffekte.
Ich möchte die Wichtigkeit an einem Beispiel aus der Fertigungsindustrie verdeutlichen: Da wir uns immer mehr von einem Angebots- zu einem Nachfragemarkt entwickeln, wird die kundenindividuelle Fertigung zum Standard. Durch Omni-Channel-Lösungen werden Kunden in Zukunft ihr Produkt über das Internet, mit geeigneten Apps oder mit Hilfe virtueller Realität konfigurieren und digital erleben. Diese Konfiguration wird direkt in eine vollautomatisierte Produktion, durch die Möglichkeiten der Industrie 4.0, eingespeist und löst über die ganze Lieferkette hinweg Beschaffungs- und Fertigungsprozesse aus. Der Produktionsprozess ist dann für den Kunden zu jeder Zeit transparent und er kann bis zum letzten Moment Änderungen vornehmen. Das gefertigte Produkt existiert dann einmal physisch und einmal digital. Nach der Auslieferung an den Kunden wird sich das Produkt mittels IoT während der Nutzung über das Internet mit seinem digitalen Zwilling verbinden und sämtliche Nutzungsdaten bis zum Ende seines Lebenszyklus übermitteln. Durch Big Data und Data Analytics wird es schließlich möglich, dem Kunden, aufbauend auf den Nutzungsdaten, Mehrwertdienste zur Laufzeit oder als Upgrade in neuen, noch nicht bekannten, Geschäftsmodellen anzubieten.
In unserer jährlichen Kundenbefragung wurde sehr deutlich, dass alle unsere Kunden ihre digitale Transformation als ihren wichtigsten Evolutionsschritt ansehen, um sich neu zu erfinden, und dass sie dabei alle Facetten – von Omni-Channel über Industrie 4.0 und IoT bis hin zu  Data Analytics – ganzheitlich betrachten.

 

„Letztendlich darf es nur eine IT mit einer Geschwindigkeit geben, die agil und flexibel ist“, betont Dominik Neumann von CGI Deutschland.

„Letztendlich darf es nur eine IT mit einer Geschwindigkeit geben, die agil und flexibel ist“, betont Dominik Neumann von CGI Deutschland.

Warum geht es nicht so schnell voran, wie es sollte?
Wir haben gelernt, der ungeheuren Komplexität unserer Welt mit Spezialisierung zu begegnen. Das schränkt den Blick auf das Ganze ein. Digitale Transformation fordert aber einen ganzheitlichen Ansatz, wie das obige Beispiel demonstriert. Gerade die IT wurde jedoch in den letzten Jahren hochgradig spezialisiert und zudem kosteneffizient aufgestellt. Kreative Freiräume, Flexibilität und Innovationskultur blieben dabei auf der Strecke. Das haben auch unsere Kunden erkannt und betonen jetzt den wachsenden Bedarf nach Innovation in der IT, um dem steigenden Wettbewerbsdruck etwas entgegenzuhalten.
Weitere Hürden bei der digitalen Transformation sind neben dem Silodenken sicherlich auch die damit verbundenen Kosten. Ein Unternehmen wie Uber hat auf dem Kapitalmarkt viel günstigere Voraussetzungen zur Kapitalbeschaffung, während die klassischen Unternehmen das Investitionskapital aus dem Bestandsgeschäft generieren müssen.  Dazu kommen noch Unwissenheit über den Nutzen und die Anwendbarkeit neuer Technologien sowie die chronisch ungeklärten Verantwortlichkeiten: Ist nun der CIO, der CTO oder gar der CDO für die digitale Transformation verantwortlich?

Wie geht man am besten vor? Wie muss die IT organisiert werden?
Unsere strategische Empfehlung lautet, Produkte und Dienstleistungen konsequent vom Kunden her zu denken und dabei Technologie und insbesondere IT nicht als einschränkende Rahmenbedingung zu sehen, sondern als geschäftsentscheidend. Damit sollte auch die IT so aufgestellt werden, dass sie diesem Ziel gerecht werden kann.
Das Marktforschungsunternehmen Gartner schlägt hierzu vor, die IT bimodal aufzustellen. Eine IT, die organisatorisch in zwei Geschwindigkeiten agiert und damit sowohl Agilität und Flexibilität als auch Stabilität und Sicherheit gewährleisten soll, ist sicherlich ein erster Denkanstoß. Dieser müsste dann aber konsequent weitergedacht werden.
Meiner Meinung nach macht eine Zweiklassengesellschaft in der IT auf Dauer wenig Sinn. Sie sorgt für zusätzliche Spezialisierung und schafft damit künstlich mehr Komplexität, die uns davon abhält, die digitale Transformation als Ganzes zu betrachten.

Die IT muss fähig sein, sehr schnell auf neue Anforderungen zu reagieren und das praktisch überall in der Wertschöpfungskette.

Wenn wir einmal den Blick des Kunden einnehmen, dann sehen wir, dass der digitale Wettbewerb Mehrwertdienste anbietet, die als digitale Produkte einen Ausschnitt der Wertschöpfungskette abbilden und hier zusätzlichen Nutzen generieren. Dieser Nutzen hängt direkt von den Gewohnheiten des Kunden ab, welche sich in einem durch Technologie getriebenen Veränderungsprozess befinden. Die IT muss also fähig sein, sehr schnell auf neue Anforderungen zu reagieren und das praktisch überall in der Wertschöpfungskette. Damit kann die ganze IT betroffen sein. Um das mit einem bimodalen Ansatz meistern zu können, müsste man die IT ständig neu schneiden.
Letztendlich darf es nur eine IT mit einer Geschwindigkeit geben, die agil und flexibel ist. Alles andere schafft zusätzliche Komplexität und lenkt vom eigentlichen Problem ab: der Notwendigkeit einer kundenzentrierten IT, die sich an die stetig ändernden Anforderungen des Marktes immer wieder schnell anpasst. Und damit blieben nur zwei Alternativen übrig: Entweder die IT trennt sich von allen Legacy-Anwendungen oder sie schafft es auch die Legacy-Anwendungen agil und flexibel zu gestalten.
Verkrustungen und Stolpersteine wie Kulturbrüche, mangelndes Changemanagement, in Wasserfallmodellen denkende Einkaufsorganisationen und die latente Nichtbereitschaft Verantwortung abzugeben, müssen überwunden werden.

Der technologische Wandel ist teuer. Wie kann man ihn am besten finanzieren?
CGI hat in einer Kundenumfrage unter 1.200 Kunden herausgefunden, dass über 80 Prozent der Unternehmen neue Wege suchen, um aus dem Kosten-Dilemma zwischen Stabilität des Betriebs und Investition in Innovation auszubrechen. Dafür hat CGI eine strategische Vorgehensweise entwickelt, die wir „Keep-Up, Step-Up“ nennen. Dabei helfen wir unseren Kunden, Potenziale aus dem „Run the Business“ zu heben und in das „Change the Business“ zu investieren.
Auf der einen Seite setzen wir konsequent auf IT-Modernisierung, Cloud-Lösungen sowie mittelstandskonforme Sourcing-Modelle, basierend auf Near- und Offshore und gepaart mit einer strategischen Untersuchung der IT entlang der Wertschöpfungskette. Damit können wir den Unternehmen helfen, sämtliche Legacy- Anwendungen entweder konsequent zu modernisieren oder Betrieb und Weiterentwicklung mit Hilfe unserer eigens darauf abgestimmten Methodik ProAction und unter Zuhilfenahme von DevOps zu beschleunigen. In vielen Kundenprojekten konnten so Einsparpotenziale zwischen 20 und 40 Prozent erzielt werden.
Auf der anderen Seite helfen wir unseren Kunden durch Innovationsteams mit Agilität, Flexibilität und kreativem Denken, getreu dem Motto: „Nicht abwarten, bis einen die Zukunft einholt!“

Welche Herausforderung haben heutzutage mittelständische Unternehmen, die ihren digitalen Reifegrad erhöhen wollen?
Zwar leiden mittelständische Unternehmen nicht an übermäßiger Bürokratisierung der IT. Sie haben also gegenüber den Konzernen einen Agilitätsvorteil. Jedoch fehlt dem Mittelstand oft die digitale Vision, die notwendigen Finanz- und Kapazitätsreserven sowie das breite, aber auch das spezifische IT Knowhow, das heute für die Digitalisierung ganzheitlich notwendig ist.
Eine weitere Herausforderung, der wir immer wieder begegnen, ist, dass zur Erschließung digitaler Geschäftsfelder die Verantwortlichkeiten vom klassischen Geschäft getrennt werden. Damit wird der Kunde klassisch und digital mit unterschiedlicher Verantwortlichkeit und unterschiedlicher Zielstellung angesprochen. Es wird also nicht konsequent vom Kunden her gedacht, es entsteht ein Kompetenzgerangel auf der Fachseite und in der IT ein Systemwildwuchs.
Zudem sollten auch mittelständische Unternehmen zusammen mit Kunden eine neue Art der Fehlerkultur entwickeln. Gerade bei der digitalen Transformation kann sich ein Kunde – so er damit einverstanden ist – als Betatester engagieren und ist damit direkt am Innovationsprozess beteiligt. Kunden können so eigene Ideen in den Produktentwicklungsprozess des Lieferanten mit einbringen, während dieser Fehler machen darf.

Fehler machen heißt: daraus zu lernen, sich zu verbessern und neu zu erfinden.

Bringen Sie auch IT-Innovationen in die Unternehmen? Und wenn ja, wie kreativ sind Sie dabei?
Natürlich bringt CGI auch IT-Innovationen in die Unternehmen. Allerdings steht bei uns immer ein konkreter Bedarf im Vordergrund. Wir betreiben keine Forschung um des Forschens Willen, sondern konzentrieren uns auf Nischen in der Wertschöpfungskette unserer Kunden. So haben wir zum Beispiel erkannt, dass viele Unternehmen erst im Forderungsmanagement mit ihren Kunden in Kontakt treten und haben hierzu ein innovatives Produkt entworfen (Collections360), das unseren Kunden ermöglicht das Forderungsmanagement in einem prozessgesteuerten Omni-Channel Ansatz zu vollziehen.
Eine andere Innovation ist unsere Cloud-Management-Lösung Unify 360. Wir sind überzeugt davon, unseren Kunden bei der Verwaltung ihrer in der Cloud betriebenen Anwendungen helfen zu können. Cloud-Technologie ermöglicht nämlich jeder Fachabteilung – unabhängig von der IT – Anwendungen außerhalb des Unternehmens zu betreiben und das fast schon mit einem Klick. Damit wird einer neuen Intransparenz Tür und Tor geöffnet und Unternehmen sehen sich bald mit mission-kritischen Anwendungen in der Cloud konfrontiert, die die IT gar nicht mehr kennt. Das betrifft dann Daten und Prozesse. So haben im letzten Jahrzehnt viele Unternehmen sehr viel Geld investiert, um die Flut von geschäftskritischen in Excel und Lotus Notes entwickelten Anwendungen wieder einzufangen und in Standards zu überführen. Dasselbe wird uns nun mit in der Cloud betriebenen und nicht gemanagten Applikationen blühen.

Wer treibt eigentlich wen: die Technologie die Unternehmen oder die Unternehmen die Technologie?
Diese Fragestellung ist nicht wirklich neu und es gibt darauf keine einfache Antwort. Die Antwort ist sogar analog zur Frage, ob es zuerst das Ei gab oder zuerst die Henne da war.
Jedes Unternehmen befindet sich immer in einer Wettbewerbs- und Innovationsspirale. Kann ein Unternehmen einen zusätzlichen Kundennutzen identifizieren und erstellt dafür ein Produkt mit einer neuen, dafür geeigneten Technologie, entsteht daraus eine Innovation. Dann hat dieses Unternehmen eine Technologie getrieben. Der Wettbewerb wird dann versuchen, durch Kopieren, Nachbauen oder Adaptieren gleichzuziehen. Damit werden alle anderen Unternehmen zu Getriebenen der neu etablierten Technologie, solange bis die Produkte auf dem Markt wieder vergleichbar sind. Weil jetzt alle Produkte ähnlich sind, beginnt eine Phase, in der die  Unternehmen versuchen, durch Effizienzsteigerungen Wettbewerbsvorteile zu erlangen. Und dieser Prozess dauert solange an, bis ein erstes Unternehmen die nächste Produktinnovation auf den Markt bringt.

In welchem Kontext stehen Innovationen mit der digitalen Transformation?
Innovationen waren immer schon neue Lösungen für ungelöste Probleme.
Die digitale Transformation steht für den Übergang von der analogen zur digitalen Welt. Dabei wollen wir durch den gezielten Einsatz von IT Innovationen schaffen. Das ist möglich, weil die Informationstechnologie eine ungeheure Reife erreicht hat. Jedes Problem, das gelöst ist, eröffnet wiederum viele neue Potenziale und Herausforderungen. Das ist schon seit jeher so. Die Erfindung der Schrift hat irgendwann zur Erfindung des Buchdrucks geführt und heute haben wir Wikipedia.
Meiner Ansicht nach ist die digitale Transformation sowohl eine Antwort als auch eine Momentaufnahme in einer immer komplexeren Welt. Diese wirft immer mehr neue Fragen auf und fordert damit wiederum Innovationen ein – eine evolutionäre Spirale, die sich immer weiter entwickelt.

Weitere Informationen unter:
www.de.cgi.com

Bildquelle / Lizenz: CGI Deutschland

Mission Mitarbeiter

Von der Digitalen Transformation zur Mission Mitarbeiter

Gastautor Heiner Bruns, Client Solutions SalesDirector bei Dell in
Frankfurt

 

Damals und heute

Schon einmal hat die IT die Arbeitswelt massiv und dauerhaft verändert. Vor rund drei Jahrzehnten übernahm die IT, die damals noch EDV hieß, im Zuge der „Erfindung“ des PC in großem Umfang manuelle Arbeitsprozesse, die sie erheblich effizienter durchführen konnte. Dabei verschwanden ganze Berufsbilder – wo gibt es noch die damals allgegenwärtige „Schreibkraft“? Auf der anderen Seite schuf die IT nicht nur neue Berufe, nach und nach hat sie nahezu alle Berufe verändert: Ob Ärzte, Piloten, Buchhalter oder Designer, irgendwann mussten sich alle an den Bildschirm gewöhnen.

Das war damals. Heute stehen wir vor keiner geringeren Herausforderung. Die Digitale Transformation, diese umfassende, weltweite Vernetzung intelligenter Systeme, ist gerade dabei, Wirtschaft und Gesellschaft erneut umzuwälzen – und auch jetzt wird dadurch die Arbeitswelt grundlegend verändert. Um uns herum werden faszinierende Innovationen realisiert: Autos, die autonom fahren, Drucker die reale Gegenstände erzeugen, Maschinen, die noch im Einsatz mit dem Hersteller kommunizieren, Einzelhandelslösungen, die dem Kunden jedem Wunsch buchstäblich von den Augen ablesen, Logistiksysteme, die sich selbst optimieren, und schließlich vernetzte Wertschöpfungsketten, die von Lieferanten bis zum Kunden reichen.

Im Mittelpunkt: Der Mensch

Die Digitalisierung mit Themen wie Internet der Dinge, Big Data, Cloud Computing, Industrie 4.0 und Mobility hat mancherorts fast schon eine neue Technikeuphorie ausgelöst, die man in einer angeblich so „technikfeind­lichen“ Welt kaum mehr für möglich gehalten hätte. Doch so aufregend diese Entwicklungen auch sein mögen, sie werden hauptsächlich technisch diskutiert. Allzu oft gerät dabei aus dem Fokus, dass auch diese hochtechnischen Innovationen von Menschen umgesetzt, bewältigt und verarbeitet werden. Digitalisierung im Unternehmen ist nicht ein abstrakter Prozess, sondern hängt ganz wesentlich vom Know-how und dem Engagement der Mitarbeiter ab.

Diese sind ganz persönlich und massiv von der Digitalisierung betroffen. Es verändern sich ja nicht nur ihre Arbeitsabläufe; gleichzeitig wird mühevoll erworbenes Wissen überflüssig, langjährige Erfahrung obsolet und hart erkämpfte Positionen müssen aufgegeben werden. Für Arbeitnehmer bedeutet die Digitalisierung eine Flexibilität in neuen Dimensionen. Der dadurch erforderliche Anpassungsaufwand ist erheblich, und man kann nicht erwarten, dass das ohne Reibungsverluste zu bewältigen ist. Das bedeutet aber auch, dass sich das gesamte Mitarbeitergefüge und lange bewährte Strukturen und Hierarchien verschieben werden. Wir werden in zehn Jahren nicht nur die Jobs, sondern auch die Unternehmen nicht mehr wiedererkennen.

Wettbewerbsfaktor Mitarbeiter

Als wären das noch nicht genug Herausforderungen, sind Unternehmen zugleich noch mit einer ganz anderen Entwicklung konfrontiert: Im Zuge der demographischen Transformation, also einer tendenziell rückläufigen Bevölkerung, und einer darauf nur wenig abgestimm­ten Bildungspolitik, werden eben diese Mitarbeiter, auf die es doch so sehr ankommt, langfristig zu einem knappen Gut. Sie bilden absehbar einen Engpass für die Realisierung all der schönen Innovationen der Digitalen Welt. Was sich in einigen Sektoren und in spezifischen Berufsfeldern als „Fachkräftemangel“ ankündigt, wird absehbar Normalzustand des Arbeitsmarktes sein.

Doch gerade in der Digitalen Transformation sind qualifizierte Mitarbeiter aber ein kaum zu ersetzender Wettbewerbsfaktor. Sie verbinden Know-how und Kreativität und schaffen so die anspruchsvollen Innovationen. Als Folge werden Unternehmen künftig hart um diese Mitarbeiter kämpfen müssen. Sie werden zum einen erhebliche Anstrengungen unternehmen müssen, um die entsprechenden Mitarbeiter nicht an Wettbewerber zu verlieren. Zum anderen sind die Zeiten vorbei, in denen Unternehmen bei der Auswahl der Mitarbeiter aus dem Vollen schöpfen konnten. Auch wenn die Vorstellung für manchen altgedienten Personalvorstand etwas von einem Horrorszenario haben mag: Unternehmen werden sich in Zukunft um die besten Köpfe bewerben müssen, nicht mehr umgekehrt.

Neue Unternehmenskultur

In diesem Wettbewerb können Unternehmen jedoch nicht mit ihren jahrzehntelang bewährten Methoden fortfahren. Sie müssen ganz neue Ansätze wagen und sich neuen Ideen öffnen. Natürlich wird das Gehalt auch in Zukunft ein wichtiger Parameter sein, schließlich arbeiten die Mitarbeiter primär, um ihren Lebensunterhalt zu bestreiten. Doch daneben treten zunehmend neue Aspekte: Entfaltung am Arbeitsplatz, ein selbstbestimmtes, eigenverantwortliches Arbeiten, spannende Themen und Herausforderungen oder das Einbringen der eigenen Kreativität.

Der Arbeitsplatz der Zukunft ist flexibel und an keinen festen Ort gebunden

Der Arbeitsplatz der Zukunft ist flexibel und an keinen festen Ort gebunden

Ganz wichtig sind daher alternative und flexible Arbeitsplatz-, Arbeitszeit- und Lebenszeitmodelle, die den Mitarbeitern Freiräume für eine individuelle Lebensgestaltung bieten. Die einen wollen vielleicht eine Familie gründen, andere pflegen Angehörige, wieder andere verfolgen ein ganz individuelles Projekt oder wollen sich sozial engagieren. Gerade junge, kreative Mitarbeiter sehen solche Vorhaben nicht als Gegensatz zur Arbeitswelt, sondern wollen beides: individuelle Entfaltung und einen anspruchsvollen Beruf. Hier müssen Unternehmen die passenden Modelle anbieten.

Unternehmen, die Flexibilität von ihren Mitarbeitern nur einfordern, die selbst aber Flexibilität nicht „leben“ wollen oder können, werden es daher auf dem Arbeitsmarkt schwer haben. Sie werden den Wettbewerb um die besten Köpfe – den „War for Talents“- verlieren. Nicht trotz, sondern gerade wegen der anstehenden Digitalisierung.

Mission Mitarbeiter

Dell hat sich als Arbeitgeber dieser Entwicklungfrühzeitig gestellt und im Plan 2020, in dem das Unternehmen seine Stellung in Umwelt und Gesellschaft definiert hat, dem Verhältnis zu den Mitarbeiterneinen besonderen Platz eingeräumt. Der Begriff „Mission Mitarbeiter“ drückt sehr gut aus, wie dieses Verhältnis heute gesehen wird. Konkret geht es darum, ein attraktives und interessantes Arbeitsumfeld zu schaffen, in dem alle Teammitglieder ihr Potenzial entfalten, ihre Karriereziele erreichen und dabei auch Spaß haben können. Dazu gehört zum Beispiel auch, als Unternehmen Mitarbeiter zu unterstützen und zu fördern, die sich als Bürger in ihrem jeweiligen gesellschaftlichen Umfeld engagieren. Wer nämlich engagierte, verantwortungsvolle Mitarbeiter sucht, sollte sich darüber im klaren sein, dass sich gerade diese Haltung nicht auf die Arbeitszeit beschränken lässt.

Wie die Digitale Transformation stellt auch die „Mission Mitarbeiter“ für die Unternehmen einen Paradigmenwechsel dar. Das Vorhaben tangiert letztlich die gesamte Unternehmenskultur und ist natürlich nicht einfach mal nebenbei, vielleicht gar per Mausklick, zu erledigen. Wie man diesen Paradigmenwechsel mit möglichst wenig Friktionen bewältigen kann, erklärtdas neue Buch „Herzenssache Mitarbeiter“, verfasst von Edgar K. Geffroy, Coach, Unternehmer und Business-Motivator, und Co-Autorin Doris Albiez, VicePresident und General Manager von Dell in Deutschland. Unterstützt wurden die Autoren vom Bundesverband mittelständische Wirtschaft BVMW, denn die „Mission Mitarbeiter“ stellt für den Mittelstand eine ganz besondere Herausforderung dar.

 


Weiterer interessanter Input:

Meet the Experts: Mission Mitarbeiter

Veröffentlicht am 03.06.2016
Expertenrunde mit Edgar K. Geffroy (Autor & Business Neudenker), Markus Klups (Gründer und CEO Zukunftsagenten GmbH), Markus Albers (Geschäftsführer rethink GmbH), Svenja Hofert (Karrierecoach & Autorin), Heiner Bruns (Client Solutions Director Dell Deutschland) zum Thema Mission: Mitarbeiter und Arbeitsplatz der Zukunft.


Aufmacherbild / Videos / Quellen / Lizenzen

Dell GmbH

FinTech

FinTech ist kurz für Finanztechnologie. Im engeren Sinn versteht man darunter moderne Formen der Finanztechnologie, die durch den digitalen Wandel ermöglicht werden.

Links zur Erklärung gängiger Begriffe aus dem FinTech-Bereich hat die TREND-REPORT-Redaktion für Sie zusammengestellt:

Crowdfunding

Crowdinvesting

Crowdlending

Crowdsourcing

Kryptowährung

Mobile-Banking

Social Trading

 

Aufmacherbild Lizenz:

Agenda 2030

Mit der Agenda 2030 verbinden die Vereinten Nationen die Klimaschutzziele, die Ende 2015 in Paris beschlossen wurden. Erstmalig konnten sich die Teilnehmer auf Maßnahmen zum Klimaschutz einigen.

Doch das ist nur ein erster Schritt. Damit die Ratifizierung gelingt, bedarf es eines „unermüdlichen Werbens“ für den Klimaschutz und die Anerkennung dafür, dass wir als Menschheit eben doch einen Einfluss auf das Klima haben. Das ist die Aufgabe des UNEP („United Nations Environmental Programme“).

Die Ziele der so genannten „Post-2015-Ära“ sind, Wirtschaft und Nachhaltigkeit zusammenzubringen. Das gelingt nur über Bildung, die ihrerseits zu Wohlstand beiträgt. In der Ausgabe Juni 2016 in TREND REPORT beschreiben wir daher auch ausführlich die „Digitale Nachhaltigkeit“.

Im Jahr 2030, so ist es das Ziel, ist eine Vollbeschäftigung und ein nachhaltiges Wirtschaften möglich. Sie bedeutet einen fundamentalen Wandel von der heutigen, wachstumsbasierten Ökonomie hin zu einer auf nachhatigen Kriterien basierenden Wirtschaft. Diese soll alle Menschen einschließen und die heutige, Ressourcen verschlingende Ökonomie Schritt für Schritt ersetzen. Zentral dabei ist das Verständnis dafür, dass eine gesunde, gut funktionierenden „Ressource Umwelt“ entscheidend für die Menschheit ist.

Weitere Informationen dazu finden Sie hier:
http://web.unep.org/post2015/

 

Bildquelle / Lizenz:

Helikoptergeld

Helikoptergeld ist die bildhafte Bezeichnung für ein geldpolitisches Konzept. Es betrifft einen besonderen Fall der Ausweitung der Geldmenge durch Geldschöpfung. Dabei wird das neu geschaffene Zentralbankgeld nicht wie bei der Quantitativen Lockerung an die Banken gegen Anleihen, sondern direkt an Staat oder Bürger ausgezahlt. Ziel dieser extremen Form expansiver Geldpolitik ist es, durch vermehrte Konsumausgaben die Wirtschaft anzukurbeln, ein angestrebtes Inflationsziel zu erreichen beziehungsweise Deflation zu vermeiden oder zu vermindern. Das Konzept hat historische Vorläufer die teilweise auch praktisch umgesetzt wurden. Es wurde ab 2015 international intensiv und sehr kontrovers diskutiert.

Von Quantitativer Lockerung unterscheidet sich der direkte Transfer von Zentralgeld an Bürger oder Staat beim Helikoptergeld dadurch, dass das Helikoptergeld die Bilanz der Zentralbank nicht vergrößert. Bei Quantitativer Lockerung dagegen wechselt ein Wertpapier von der Geschäftsbank zur Zentralbank als Gegenleistung für das von der Zentralbank geschaffene und der Bank zur Verfügung gestellte Geld. Die Bilanz der Zentralbank wird also um den ausgegeben Betrag auf der Sollseite und den entsprechenden Gegenwert des Wertpapiers in der Zentralbank auf der Habenseite vergrößert.

„Helikoptergeld“ im Gedankenexperiment Friedmans 1969

Der Ausdruck „Helikoptergeld“ wurde erstmals 1969 von Milton Friedman verwendet. In seinem modellhaften Gedankenexperiment zur Illustration der Grundprinzipien seiner monetären Theorie des Geldes stellte Milton Friedman die Frage, was geschehen würde, wenn eine Zentralbank das von ihr gedruckte Geld in einen Helikopter laden und über den Bürgern einer Modell-Gemeinde abwerfen würden:

„Lasst uns annehmen, dass eines Tages ein Hubschrauber über diese Gemeinde fliegt und zusätzliche 1000 Dollar in Form von Geldscheinen abwirft, die natürlich von den Bewohnern hastig eingesammelt werden. Setzen wir weiter voraus, dass jeder überzeugt ist, dass dies ein einmaliges Ereignis sei, das niemals wiederholt wird.“

Im Unterschied zu den verbreiteten Interpretationen illustriert dieses Beispiel und sein Effekt bei Friedman nur die Neutralität der Geldmengenerhöhung, also gerade keine Anreizfunktion für den Konsum. Friedman setzte in seinem Beispiel zunächst außerdem voraus, dass jeder Mensch dieser Modell-Gemeinde nun doppelt soviel Geld habe wie vorher, nahm aber auch Vollbeschäftigung und Auslastung der Produktion an. Durch die Verdopplung der Geldmenge entstünde nach Friedmans Beispiel lediglich eine Verdopplung der Preise, weiter nichts.Friedman illustrierte damit Hauptprinzipien seiner monetären Theorie, wichtigster Punkt ist die Quantitätstheorie Friedmans: Es gibt ein stabiles Niveau von Geldmenge und Preisen. Die Geldmenge hat seiner Theorie nach keinen Einfluss auf die Realwirtschaft.

Das Konzept von Helikoptergeld ist hier also ein akademisches Gedankenexperiment, das ähnlich einer Parabel der Erläuterung des Funktionierens seiner monetären Theorie des Geldes dient. Später wurde das didaktische Beispiel Friedmans in eine Metapher für eine gezielte zins- und kreditlose Ausweitung der Geldmenge durch Transferzahlungen an Bürger zur Ankurbelung der Nachfrage oder zur Inflationssteigerung uminterpretiert.

Geschichte

Vorstellungen einer direkten Transferzahlung an Bürger oder einer Ausweitung der Geldmenge zur Staatsfinanzierung wurden schon vor der Diskussion um „Helikoptergeld“ von Major Douglas, dem Social Credit Movement und Silvio Gsell in seiner Freiwirtschaftslehre vertreten. Diese Konzepte wurden teilweise aufgrund der angeblichen Verbindungen oder Übereinstimmungen mit der Geldschöpfungspraxis sozialistischer oder faschistischer Regierungssysteme kritisiert.

Die erfolgreiche Wirtschaftspolitik Korekiyo Takahashis, des „japanischen Keynes“, während der Weltwirtschaftskrise beruhte auf monetärer Staatsfinanzierung zur Ankurbelung der Wirtschaft und Abwertung des Außenwertes der Währung. Es gelang Takahashi, die schwere Depression Japans in den 30er Jahren durch Abkopplung der Währung vom Goldstandard und direkte Finanzierung der Staatsausgaben ohne erhebliche inflatorische Wirkung zu bewältigen.

John Maynard Keynes hatte in seinem Werk Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes vorgeschlagen, Geld in ungenutzten Bergwerken zu vergraben, wo es von Arbeitslosen ausgegraben werden könnte. Der Effekt wäre derselbe wie bei einer Zunahme der Goldgewinnung in einer Goldmine.

Anatole Kaletsky bezeichnete die Ausgabe von Geldgeschenken an die Bürger als “quantitative easing for the people”, ein Konzept, das 2014 auch von John Muellbauer unterstützt wurde.

Zur Bekämpfung der Finanzkrise ab 2007 sowie der darauffolgenden Eurokrise gingen viele Notenbanken zu einer stark expansiven Geldpolitik über. Als diese Maßnahmen nicht die gewünschte stimulierende Wirkung auf die Konjunktur zeigten, starteten verschiedene Notenbanken von reichen Ländern sogenannte Quantitative Lockerungs-Programme (oder QE, von englisch quantitative easing) und kauften im großen Stil private Anleihen und/oder Staatsanleihen auf. Da auch diese Maßnahmen noch nicht den gewünschten Wirtschaftsaufschwung brachten, führten mehrere Notenbanken Negativzinsen ein. Die Ausgabe von Helikoptergeld wäre eine weitergehende Maßnahme nach dem eingestandenen Scheitern aller bisher getroffenen Maßnahmen.

Eine Einführung von direktem Transfer von Zentralgeld wird am ehesten für Japan empfohlen und erwartet.

Rechtlicher Rahmen

Die Neue Zürcher Zeitung bezeichnete direkte Transferzahlungen von Zentralbankgeld in den meisten Ländern als illegal. „Wer die Idee deswegen aber als Hirngespinst abtut, unterschätzt die Biegsamkeit von Gesetzen und vergisst, dass vor zehn Jahren auch die Vorstellung negativer Zinsen bestenfalls als Scherz am Rand eines kalten Buffets taugte. Helikoptergeld, von der Financial Times bereits aktiv propagiert, dürfte manchem Geldpolitiker nicht mehr nur als surreales Gedankenexperiment erscheinen“. In der Zeit wurde dargestellt, dass die gegenwärtigen Regelungen der EU Helikoptergeld nicht zulassen. Es handele sich hier um die in Artikel 123,1 des EU-Vertrags von Lissabon verbotene monetäre Staatsfinanzierung. Sie ist verboten, weil sie zur Inflation beiträgt. Ein direkter Geldtransfer der Zentralbank an Bürger ist jedoch nicht explizit verboten. Experten wie etwa Jens Weidmann beurteilen dies jedoch als Kompetenzüberschreitung der Zentralbank, da diese keine Wirtschaftspolitik betreiben dürfe. Außerdem wäre nach Artikel 20 der EZB-Statuten eine Zwei-Drittel-Mehrheit im Rat notwendig.

Studie der Deutschen Bank

In einer Studie untersuchte ein Experten-Team der Deutschen Bank die Realisierbarkeit und die vermutlichen Effekte der Einführung des direkten Zentralgeldtransfers. Im geschichtlichen Teil der Studie wird aufgezeigt, dass die monetäre Staatsfinanzierung, also die Finanzierung von Staatsausgaben durch „Gelddrucken“, in der Geschichte ein häufiger Vorgang gewesen ist. Auch die dabei teilweise ausgelöste Inflation war vielfach die beabsichtigte oder eine in Kauf genommene Wirkung der Vergrößerung der Geldmenge. Ziele waren etwa die Reduktion von Schulden, der Nachweis der Zahlungsunfähigkeit angesichts von Reparationsforderungen (Weimarer Republik), die Finanzierung von Kriegskosten (1. und 2. Weltkrieg) und die Ankurbelung der Wirtschaft durch erhöhte Staatsausgaben (Japan 30er Jahre).

Die Ökonomen der Deutschen Bank halten das Konzept für ein wirksames Mittel bei Rezession und Deflation, wirksamer als die bisher eingesetzten Instrumente der Geldpolitik. Trotz der rechtlichen Schranken sehen sie Hintertüren für „Helikoptergeld“: Die EZB könne beispielsweise extrem langfristige Anleihen öffentlicher Kreditgeber wie der Europäischen Investitionsbank (EIB) zu einem Zins bei Null kaufen, um öffentliche Investitionen zu finanzieren. Zudem seien direkte Geldtransfers an Bürger und Unternehmen unter Umgehung des Staates möglich. „Ironischerweise“, so die Studie, „sei diese besonders unkonventionelle Variante des Helikoptergeldes rechtlich leichter durchzusetzen“.

Mediale Aufmerksamkeit

In den Medien tauchte der Begriff des Helikoptergeldes erstmals 2002 auf, nachdem der damalige Chef der US-Notenbank Fed, Ben Bernanke, in einer Ansprache Japan Helikoptergeld zur Bekämpfung seiner zähen Deflation empfohlen hatte.

In einer breiteren Öffentlichkeit wurde die Idee ab 2012 diskutiert, als deutlich wurde, dass die Wirtschaft stagnierte und die Konjunktur nicht in Gang gebracht werden konnte.

Über 1,5 Bio. Euro wurden durch Quantitative Easing in den Geldmarkt gepumpt, aber das neugeschaffene Geld wurde nur gespart, nicht ausgegeben. Das Geld sickerte nicht, wie beabsichtigt, in die Realwirtschaft ein, es gab weder mehr Konsum noch verstärkte Investitionen. Die Maßnahmen verpuffen bei den Banken und Finanzmärkten und schaffen eine Finanzblase. Die Welt stellt in einer Infografik dar, dass die Inflationsrate der Euro-Zone nahe bei O verharrt, obwohl sich die Bilanzsumme der Zentralbank extrem erhöht.

Im März 2015 unterschrieben 19 Hochschullehrer, darunter viele Ökonomen, einen Brief und veröffentlichten ihn in der Financial Times. Unter den Professoren waren Robert Skidelsky, David Graeber, Anne Pettifor, Richard A. Werner, Guy Standing, Joseph Huber, Helge Peukert, Steve Keen und Nigel Dodd. Die Fakten zeigten klar, schrieben sie, dass die bisherigen Maßnahmen des “quantitative easing” kein geeignetes Mittel für die Steigerung der Beschäftigung oder des BIP seien. Die Maßnahmen dienten nur den Wohlhabenden, die von Vermögenswerten profitierten. Die traditionelle Geldpolitik sei nicht länger wirksam. Neugeschaffenes Geld müsse direkt in die Wirtschaft „injiziert“ werden.

„Anstatt in die Finanzmärkte zu investieren, sollte das neue Zentralbankgeld besser für Regierungsausgaben (zum Beispiel für Investitionen in die Infrastruktur) verwendet werden; alternativ könnte man jedem EU-Bürger 19 Monate lang jeweils 175 Euro pro Monat überweisen, Geld, das man für Schuldentilgung oder Konsum einsetzen könnte. Durch die direkte Förderung von Ausgaben und Beschäftigung würde jeder dieser Wege mehr zum Erreichen der Ziele der EZB beitragen als das konventionelle QE.“

Während einer Pressekonferenz wurde Mario Draghi, Präsident der Europäischen Zentralbank EZF, im März 2016 auf Helikoptergeld angesprochen. Gemäß Draghi habe man im Zentralbankrat bisher nicht darüber nachgedacht oder gesprochen. Er sprach jedoch auch von einem „sehr interessanten Konzept“, das derzeit unter anderem unter akademischen Ökonomen diskutiert werde und auch „viele verschiedene Dinge“ bedeuten könne.

Seit März 2016 gab es nach Angaben der Welt 10 bis 30 Nachrichten täglich zu dem früher völlig unbeachteten Thema. In einer Grafik stellt die Welt den deutlichen Zusammenhang zwischen niedriger Inflationserwartung und Häufigkeit des Themas in den Medien von April 2015 bis April 2016 dar.

Formen des Transfers

Das durch Geldschöpfung erzeugte Zentralbankgeld kann den Bürgern direkt überwiesen werden. Eine andere Möglichkeit besteht darin, dass Regierungen mit dem erzeugten Geld die Steuern senken oder den Bürgern Steuern gutschreiben. Auch eine Reduktion von Krankenkassenprämien ist denkbar. Statt direkt an die Bürger können die Notenbanken das Geld auch an den jeweiligen Staat für den Haushalt überweisen. Dieser würde dann das Geld in Straßen oder andere Großprojekte investieren und so die Wirtschaft ankurbeln. Bei der Direktüberweisung an Bürger wäre das Problem zu lösen, wie man Informationen über 338 Millionen Bankkonten zentral erfasst und wie Bürger ohne Girokonto berücksichtigt werden können.

Der Guardian schlug vor, Maßnahmen gegen den Kilmawandel über zinslose Klima-Anleihen mit einer Laufzeit von 100 Jahren zu finanzieren. Die Zentralbank würde dem UN Green Climate Fund diese Anleihen abkaufen und ihm auf diese Weise praktisch nicht rückzahlbares Geld zur Verfügung stellen.

Beurteilung durch Ökonomen und Politiker

Ablehnung

Besonders in Deutschland sind viele Ökonomen und Politiker gegenüber Helikoptergeld skeptisch eingestellt. Helikoptergeld könne gefährliche politische Präzedenzfälle schaffen und die Illusion nähren, Notenbanken könnten für die Bürger und Regierungen einfach immer mehr Geld drucken und damit die Probleme lösen.

Strikt gegen die Ausgabe von Helikoptergeld ist Jens Weidmann, Präsident der Deutschen Bundesbank. Laut Weidmann ist Geldpolitik kein Allheilmittel, es ersetze nicht notwendige Reformen in einzelnen Ländern und löse auch nicht die Wachstumsprobleme Europas. Außerdem seien Geldgeschenke an die Bürger „eine hochpolitische Entscheidung“, die Regierungen und Parlamente fällen müssten. „Die Notenbanken haben dazu kein Mandat, auch weil damit eine massive Umverteilung verbunden wäre“, sagte Weidmann.

Die Ausgabe von Helikoptergeld birgt nach Darstellung der Kritiker große Gefahren. Die Bürger könnten sich daran gewöhnen, dass sie Geld nicht mehr durch Arbeit verdienen müssten. Bei einer nächsten Krise würden Wähler oder Politiker fordern, dass die Zentralbank erneut Helikoptergeld herausgibt. Die Menschen und Wirtschaft eines Landes würden stark verunsichert über die künftige Inflation mit womöglich dramatischen Folgen für Ersparnisse, Investitionen und Wachstumsaussichten. Das Vertrauen der Bürger in die Geldordnung und die Notenbanken ginge verloren.

Befürwortung

Es gibt jedoch auch maßgebliche Fürsprecher für das Konzept Helikoptergeld, so Adair Turner, ehemaliger Chef der britischen Finanzmarktaufsicht FSA und Lawrence Summers, ehemaliger US-Finanzminister unter Bill Clinton. Hauptgrund der Befürworter ist, dass die bisherigen Möglichkeiten der Geldpolitik ausgereizt seien, sodass als letztes Mittel der direkte Transfer übrig bleibe.

John Muellbauer begründete eine Ausweitung der Geldmenge durch Transferzahlungen an Bürger am 23. Dezember 2014 mit den Erfahrungen aus den Steuernachlässen der USA in den Jahren 2001 und 2008. Zwischen 20 und 40 % des Geldes wurde 2001 zum großen Teil in einem halben Jahr für kurzfristige Konsumgüter ausgegeben, 2008 dagegen ein Großteil für langlebige wie Autos. Die Besorgnis, dieses Geld würde nur gespart werden und nicht den Wirtschaftskreislauf in Gang bringen, habe sich nicht erfüllt. Der stimulierende Effekt auf die Wirtschaft sei besonders im zweiten Fall sehr deutlich ausgefallen. Den Effekt eines Transfers von 500 Euro pro Haushalt berechnet Muellbauer auf 1,1 % bis 2 % des BSP für Länder wie Spanien, Portugal und Griechenland. Wegen der hohen Sparquote in Deutschland würde hier nur ein Wachstum von 0,5 % ausgelöst. Eine solche Maßnahme der direkten finanziellen Förderung würde außerdem die Zustimmung der Bürger zu Europa vor allem in den wirtschaftlich angeschlagenen und sozial besonders stark getroffenen Ländern verstärken.

Die Geldschöpfung würde außerdem den Staatshaushalt nicht durch weitere Schuldenaufnahme belasten, wie dies bei kreditfinanzierten Konjunkturprogrammen der Fall war, die die Staatsverschuldung in unbezahlbare Höhen getrieben haben, da Tilgung und Zins über höhere Steuern oder Kürzungen des Haushalts bezahlt werden müssten.

Wirtschaftswissenschaftler weisen außerdem darauf hin, dass die Ausweitung der Geldmenge im Effekt durch Transferzahlungen oder durch Kauf von Anleihen gleich sei. Beim Transfer an die Bürger würde jedoch der Konsum direkt angekurbelt, während die Kapitalvergrößerung der Banken nur das Angebot von Krediten erhöhe. Diese Bankkredite stünden für Investitionen, aber kaum für Konsum zur Verfügung. Es fehle der jetzigen Wirtschaft aber nicht an der Ausweitung der Produktion durch Investitionen, sondern an der Ausweitung der Konsumnachfrage. Die Verbilligung von Krediten, die nicht abgerufen würden, schaffe letztlich nur eine Geldblase, während ein Transfer von zinslosem Geld an die Bürger den Konsum direkt ankurbeln würde.

Das Argument, diese Maßnahme würde das Vertrauen in die Währung erschüttern, weisen Befürworter zurück, da im Gegenteil das Erreichen des Inflationsziels gegenüber der gegenwärtigen Deflation und der Wirtschaftsstagnation erst wieder Vertrauen schaffe. Die Deflation drücke gerade den Vertrauensverlust aus.

Auch der Anreiz, durch Arbeit Geld zu verdienen, ginge nicht verloren, denn Arbeitslosigkeit sei nicht die Folge von Arbeitsscheu, sondern vom Mangel an Arbeitsplätzen.

Es sei auch nicht unethisch, Arme auf diese Weise zu unterstützen, weil die bisherige Währungspolitik eher die Reichen gefördert habe.

Prof. Marcel Fratzscher, Deutsches Institut für Wirtschaftsforschung, schließt Helikoptergeld in die Maßnahmen ein, die unter Umständen zu berücksichtigen seien, damit die Krise in Europa überwunden werden könne, hält sie aber für praktisch schwer umzusetzen.

Kritik auf der geldtheoretischen Ebene

Während Kritiker wie Otmar Issing die Debatte zum Helikoptergeld für „verheerend“ und eine „totale Geistesverwirrung“ halten, für eine „Bankrotterklärung der Geldpolitik“,äußert Thomas Mayer Zweifel am bisherigen Geldsystem. Ökonomen wie Mayer fordern die Überwindung des bisherigen theoretischen Rahmens der Geldpolitik und der Geldtheorie. Das Geldsystem sei in der bestehenden Form nicht mehr lebensfähig und schaffe nur neue Blasen auf den Finanzmärkten. Während bisher Geld nur als Schuldgeld aufgefasst worden sei, müsse Geld als „Reputationsgeld“ interpretiert werden. Helikoptergeld etwa werde nicht gegen eine neue Forderung produziert wie bisheriges Geld. Sein Wert hänge ganz allein davon ab, ob der Nutzer erwarte, das Geld gegen andere Dinge eintauschen zu können. Auch Gold sei in diesem Sinne Reputationsgeld. Diese Geldform diene nicht politischen Zwecken wie einer angestrebten Inflationsrate, sondern mache Geld – wie früher das Gold – gerade wieder zu einem aufgrund seiner Knappheit begehrten und geschätzten Aufbewahrungs- und Tauschmittel.

 

Textlizenz:

Dieser Artikel basiert auf dem Artikel Helikoptergeld aus der freien Enzyklopädie Wikipedia und steht unter der Lizenz Creative Commons CC-BY-SA 3.0 Unported (Kurzfassung (de)). In der Wikipedia ist eine Liste der Autoren verfügbar.

 

Lizenz Aufmacherbild:

Konfliktmineralien

Als Konfliktmineralien werden Mineralien bezeichnet, die in Konfliktregionen angebaut oder gefördert werden. Herstellung oder Abbau dieser Stoffe findet illegal und außerhalb staatlicher Kontrolle statt, etwa durch Rebellen oder Milizen. Für die Gewinnung der umkämpften Stoffe werden systematische Menschen- und Völkerrechtsverletzungen begangen.

Durch den Export von leicht abbaubaren und transportierbaren Rohstoffen verschaffen sich bewaffnete Gruppen in einem rohstoffreichen Land ohne ausreichende staatliche Kontrolle eine finanzielle Basis. Mit den erzielten Gewinnen werden Kämpfer und Waffen finanziert, wodurch sich der Konflikt verlängert und sich gegebenenfalls weiter ausbreitet. Die Lieferketten der Mineralien laufen nach ihrem Export transnational über viele Mittelsmänner.

Zu den konfliktmineralien gehören neben Diamanten vor allem Kassiterit (Zinnerz), Coltan (Tantalerz), Gold und Wolframit (Wolframerz) – also Mineralien, die für die Produktion von Laptops und Mobiltelefonen essentiell sind.

In Konfliktregionen sind die Siedlungen nahe der Kleinminen einer erhöhten Gefahr ausgesetzt. Bei der Besetzung der Rohstoffquelle kommt es zu Zwangsabgaben und Zwangsarbeit (darunter auch Kinderarbeit), Erpressung, Plünderungen und Vergewaltigungen. Oft besteht ein hohes Risiko für Mineneinstürze. Eine weitere mitunter auftretende Problematik ist der Raubbau und die damit verbundenen Umweltschäden.

Zu den Konfliktregionen, in denen die Kontrolle von Ressourcen ein zentrales Element darstellt, gehören vor allem der Osten des Kongo und die angrenzenden Länder (Ruanda, Uganda und Burundi). Aber auch Kolumbien, wo die FARC-Guerille neben dem Drogenhandel auch den Goldabbau zur Finanzierung ihrer Waffen nutzt.

Um den Abbau von Konfliktmineralien zu unterbinden ist Seit 2003 der Kimberley-Prozess offiziell in Kraft. Demanch dürfen nur solche Diamanten gehandelt werden, für die offizielle Herkunftszertifikate des jeweiligen Ursprungslandes vorliegen. Inzwischen beteiligen sich 54 Länder (die Staaten der Europäischen Union als eines gerechnet), darunter sämtliche afrikanischen Diamantenproduzenten, am Kimberley-Prozess. Ein internationales Gremium ist eingerichtet worden, das prüft, ob die teilnehmenden Staaten die Zertifikate korrekt ausstellen.

Seit 2010 gilt in den USA der  Dodd–Frank Act, welcher Unternehmen verpflichtet, auf Rohstoffe aus Konfliktregionen zu verzichten. US-Unternehmen, die ein Konfliktmineral verwenden, müssen seitdem einen gesonderten Unternehmensbericht über die Herkunft abliefern, was zuvor nicht verpflichtend war. Als Konfliktmineral im Sinne des Gesetzes gelten Zinnstein, Coltan, Wolframit sowie Gold.

Auf EU-Ebene erarbeitet man zurzeit eine ähnliche Gesetzesinitiative, die noch vor der Sommerpause genaue Gestalt annehmen soll.

 

Textlizenz:

Dieser Artikel basiert auf dem Artikel Konfliktrohstoff aus der freien Enzyklopädie Wikipedia und steht unter der Lizenz Creative Commons CC-BY-SA 3.0 Unported (Kurzfassung (de)). In der Wikipedia ist eine Liste der Autoren verfügbar.

 

Lizenz Aufmacherbild:

Nachhaltig Investieren: kommt bei Privatanlegern und institutionellen Investoren an

Nachhaltige Geldanlagen sind weit mehr als nur ein Trend. Seit Jahren verzeichnen Investments, bei denen neben den klassischen Finanzkriterien Liquidität, Sicherheit und Rendite auch ökologische und soziale Aspekte Berücksichtigung finden, hohe Wachstumsraten. Dies zeigen die Jahresstatistiken des Fachverbands Forum Nachhaltige Geldanlagen e.V. (FNG).

Allein bei nachhaltigen Fonds und Mandaten – einem meist von institutionellen Investoren genutzten Investment-Vehikel – liegt die durchschnittliche jährliche Wachstumsrate in Deutschland im vergangenen Jahrzehnt bei stattlichen 30 Prozent. Zum Ende des Jahres 2015 summierten sich diese beiden Produktklassen zusammen auf 69 Milliarden Euro – was immerhin knapp drei Prozent des Marktes ausmacht. Ein geringer Wert – mag manch einer meinen. Jedoch ist zu beachten, dass der nachhaltige Anlagemarkt regelmäßig stärker wächst als sein konventionelles Pendant. 2010 noch lag der Marktanteil unter einem Prozent.

Streumunition und Antipersonen-Minen bei 1,8 Billionen Euro ausgeschlossen

Auch umfassen so genannte verantwortliche Investments oder auch nachhaltige Geldanlagen im weiteren Sinne weitaus höhere Volumina. Hier werden im Gegensatz zu nachhaltigen Geldanlagen (im engeren Sinne) lediglich einzelne nachhaltige Anlagestrategien und Ausschlusskriterien angewendet. Beispielsweise waren Ende 2015 bei Anlagen in Höhe von 1,8 Billionen Euro Unternehmen ausgeschlossen, die in irgendeiner Form an der Produktion von Streumunition oder Antipersonen-Minen beteiligt sind. Dieser Wert übersteigt das Volumen der nachhaltigen Fonds und Mandate in etwa um den Faktor 26.
Ob nachhaltige Geldanlagen im engeren oder weiteren Sinne – der Markt entwickelt sich überaus dynamisch. Während die Angebotsseite bei den nachhaltigen Anlagemöglichkeiten kontinuierlich für ein Mehr an Quantität, Qualität und Vielfalt sorgt, wachsen bei den Anlegern stetig Interesse und Nachfrage. So liegt die durchschnittliche jährliche Wachstumsrate bei den institutionellen Investoren seit 2010 – in Deutschland sind dies vor allem öffentliche Pensionsfonds, kirchliche Einrichtungen und Wohlfahrtsorganisationen sowie Stiftungen – bei 36 Prozent (siehe Grafik 1).

tr_2016_02_fng_grafik1

Motive für nachhaltiges Anlegen: Rendite, Risiko-Management, Reputation und Verantwortung

Gesa Vögele, Forum Nachhaltige Geldanlagen e.V.

Gesa Vögele, Forum Nachhaltige Geldanlagen e.V.

Warum institutionelle Anleger zunehmend auf nachhaltige Geldanlagen setzen, kann durch unterschiedliche Gründe erklärt werden. Zum einen dringt die bereits seit langem durch zahlreiche wissenschaftliche Studien und Meta-Studien nachgewiesene Erkenntnis, dass Nachhaltigkeit in der Geldanlage entgegen hartnäckiger Vorurteile nicht mit Performance-Einbußen einhergeht, langsam zu den Anlegern und Vermögensverwaltern durch. In diesem Zusammenhang sei nur kurz auf eine jüngst veröffentlichte Studie von Prof. Alexander Bassen (Universität Hamburg) zum Thema „Nachhaltige Finanzwirtschaft und finanzieller Erfolg“ verwiesen. Zum anderen setzt sich zunehmend die Überzeugung durch, dass die Berücksichtigung von Nachhaltigkeit ein unverzichtbarer Teil eines umfassenden Risiko-Managements sein muss. Beispielsweise können Investitionen in kohlenstoffintensive Branchen und Unternehmen angesichts der Folgen des Klimawandels und der politischen Gegenmaßnahmen Risiken bergen, die im Extremfall zum Totalverlust führen.
Daneben kann Nachhaltigkeit bei der Geldanlage auch mit Blick auf die Reputation wichtig sein. So scheint es für eine Stiftung, die sich um den Umwelt- und Klimaschutz kümmert, schwer vereinbar, ihr Anlagevermögen in Unternehmen mit hohen CO2-Emissionen oder ökologisch schädlichen Aktivitäten zu investieren. Ganz grundlegend geht es aber sicher vielen Investoren zu allererst darum, ihrer Verantwortung gegenüber jetzigen und nachfolgenden Generationen gerecht zu werden. In der Umfrage zur FNG-Jahresstatistik, dem Marktbericht Nachhaltige Geldanlagen, war dies sogar das wichtigste Motiv für die Umsetzung von Klimastrategien.

Immer mehr Privatanleger investieren ihr Geld nachhaltig

Die Motivlage dürfte sich bei Privatanlegern in weiten Teilen ähnlich gestalten. Dass großes Interesse besteht, belegen zumindest seit langem Studien. Beispielsweise hat gerade Anfang dieses Jahres die Verbraucherzentrale Nordrhein-Westfalen in einer repräsentativen Umfrage herausgefunden, dass es eine hohe Investitionsbereitschaft der Bürger für nachhaltige Geldanlagen gibt. Diesen Befund bestätigen auch die FNG-Statistiken: Seit 2010 haben die nachhaltigen Investments von Privatanlegern stetig an Volumen hinzugewonnen. Im Durchschnitt sind sie in diesem Zeitraum jedes Jahr um 22 Prozent angewachsen (siehe Grafik 2).

tr_2016_02_fng_grafik2

Allerdings entfällt auf die Privatanleger immer noch ein deutlich geringerer Marktanteil als auf die institutionellen Investoren. So vereinten letztere im vergangenen Jahr 85 Prozent auf sich, und Privatanleger lediglich 15 Prozent. Allerdings liegt die Quote der Privatanleger deutlich über dem europaweiten Durchschnitt mit rund drei Prozent – was Rückschlüsse auf ein relativ hohes Engagement diese Anlegergruppe in Deutschland erlaubt. Dennoch muss die Frage gestellt werden, mit welche besonderen Hürden Privatanleger zu kämpfen haben, wenn es um nachhaltige Geldanlagen geht.

Informationskosten durch Transparenzhilfen und Qualitätsstandards senken

Simon Dittrich, Forum Nachhaltige Geldanlagen e.V.

Simon Dittrich, Forum Nachhaltige Geldanlagen e.V.

Sicherlich ist es für Privatanleger deutlich schwieriger und aufwendiger als für institutionelle Investoren, die geeigneten Informationen zu finden, einschätzen und auswerten zu können sowie Vergleiche zwischen verschiedenen Angeboten zu ziehen. Um diesen Aufwand zu minimieren, also die Informationskosten zu senken, sind natürlich an allererster Stelle Finanzberater mit Expertise im Bereich der nachhaltigen Geldanlagen zu empfehlen. Einen wichtigen Beitrag leisten aber auch Transparenzhilfen. So gibt es einen öffentlich zugänglichen Transparenz Kodex für nachhaltige Publikumsfonds, der aktuell für etwa 200 im deutschsprachigen Raum zum Vertrieb zugelassenen Fonds verfügbar ist. Darin ist die nachhaltige Anlagestrategie jedes Fonds ausführlich dargelegt.

Wer kurze und bündige Informationen bevorzugt, dem sei das FNG-Nachhaltigkeitsprofil empfohlen, das aktuell für rund 190 Fonds kostenlos im Internet eingesehen werden kann. Es fasst auf zwei DIN A4-Seiten die wichtigsten Nachhaltigkeitskriterien des jeweiligen Fonds zusammen. Einen Vergleich dieser Fonds erlaubt die FNG-Matrix, die alle Informationen aus den Nachhaltigkeitsprofilen in einem Dokument auflistet. Noch einen Schritte weiter geht das Qualitätssiegel für nachhaltige Geldanlagen. Das FNG-Siegel ist das Erste seiner Art für den deutschsprachigen Raum. Es definiert einen Standard für nachhaltige Geldanlagen, der insbesondere Privatanlegern, aber auch institutionellen Investoren eine Orientierung gibt, welche Fonds Mindestanforderungen zu Nachhaltigkeit erfüllen.

Erhöhte Aufmerksamkeit für nachhaltige Geldanlagen in der Öffentlichkeit

Dass gerade in der letzten Zeit das Thema Nachhaltigkeit und Finanzmarkt stärkere Präsenz in der Öffentlichkeit erfährt, ist jedoch wahrscheinlich zu einem geringeren Teil direkt auf die wichtigen und notwendigen Transparenz- und Orientierungshilfen zurückzuführen. Vielmehr spielt den Verfechtern der nachhaltigen Geldanlage – zu denen das FNG als Fachverband für dieses Thema zweifellos zählt – auch die Klimadebatte in die Hände. Aktuell gibt es eine Bewegung mit dem Ziel, institutionelle Investoren wie Versicherungen, Städte oder Universitäten zu motivieren, sich von Titeln kohlenstoffintensiver Unternehmen zu trennen. Divestment heißt hier das Stichwort, das es in viele große Wochen- und Tageszeitungen geschafft hat und damit auch Aufmerksamkeit für einen wichtigen Zusammenhang schafft: Über den Finanzmarkt kann viel für eine im sozialen, ökologischen und ökonomischen Sinne nachhaltige Wirtschaft erreicht werden. Dabei sind die Mittel und Wege, dies zu erreichen, vielfältig und weisen weit über das Instrument des Divestments hinaus.

 

Autoren:

 

Simon Dittrich und Gesa Vögele leiten seit mehreren Jahren die Studie zum FNG-Marktbericht Nachhaltige Geldanlagen – der zentrale Jahrespublikation für nachhaltige Investments in Deutschland, Österreich und der Schweiz.

Bildquelle / Lizenz Grafiken und Portraits: Forum Nachhaltige Geldanlagen e.V.

Qualitätsstandard für nachhaltige Publikumsfonds: FNG-Siegel bietet Orientierung

Gastbeitrag von Bernhard Engl, Mitglied des Vorstandes Forum Nachhaltige Geldanlagen e.V.

In den meisten Lebensbereichen sind Nachhaltigkeitslabels oder Biosiegel – wie das europaweite Biosiegel im Lebensmittelmarkt – längst Standard. Bei nachhaltigen Fonds fehlte bisher eine solche Orientierungshilfe. Das FNG-Siegel für nachhaltige Publikumsfonds bietet Verbrauchern, institutionellen Anlegern und Vertriebsorganisationen erstmals einen nachvollziehbaren Standard für Fonds, die eine konsequente und stringente Nachhaltigkeitsstrategie verfolgen. Es basiert auf Mindestanforderungen nach international anerkannten Normen und gewährleistet die Prüfung durch einen unabhängigen Auditor.

Eine allgemein gültige Definition von Nachhaltigkeit zu erstellen und diese zu bewerten war und ist ein schwieriges Unterfangen. Nicht zuletzt weil sich moralische Vorstellungen und Normen kulturell unterscheiden und von Gesellschaft zu Gesellschaft verschieden sind. Dies lässt sich alleine schon beim Thema Atomkraft aufzeigen. Während hierzulande der Atomausstieg beschlossene Sache ist, sieht das in einigen unserer Nachbarländer anders aus, wie in Frankreich beispielsweise.

Unterschiede zeigen sich auch in der Art der nachhaltigen Geldanlage. Während im deutschsprachigen Raum Ausschlüsse, etwa von Kernkraft oder Waffen, als die mit Abstand häufigste Anlagestrategie genutzt wird, spielt in Frankreich das Engagement – also langfristig angelegte Unternehmens-Dialoge mit dem Ziel, deren Nachhaltigkeitsverhalten zu verbessern, eine größere Rolle. Auch im angelsächsischen Raum sind die beiden Anlagestrategien Integration von Nachhaltigkeitskriterien in die Finanzanalyse und Engagement präsenter als hierzulande.

tr_2016_02_fng_engl2

Bernhard Engl: „Der Prozess zur Entwicklung des FNG-Siegels war komplex und anspruchsvoll.“

Der Prozess zur Entwicklung des FNG-Siegels war komplex und anspruchsvoll, weswegen er auch einen Zeitraum von drei Jahren in Anspruch genommen hat. Neben Finanzfachleuten waren in die Konsultationen auch Vertreter von Nichtregierungsorganisationen und Verbänden sowie Wissenschaftler eingebunden. Entstanden ist ein Nachhaltigkeits-Siegel, das als Einstiegsschwelle folgende Mindestanforderungen definiert: Den Ausschluss von Waffen und Atomkraft sowie die vier Bereiche des UN Global Compact, also Menschen‐ und Arbeitsrechte, Umweltschutz und die Bekämpfung von Korruption und Bestechung. Das FNG-Siegel bietet damit erstmals einen Qualitätsstandard für nachhaltige Geldanlagen im deutschsprachigen Raum.

Fonds mit einer besonders anspruchsvollen Nachhaltigkeitsstrategie haben zudem die Möglichkeit, für Engagement über die Mindestanforderungen hinaus bis zu drei Sterne zu erhalten. Hierzu werden die Bereiche institutionelle Glaubwürdigkeit, Produktstandards sowie Auswahl‐ und Dialogstrategien analysiert und bewertet.

Die Prüfung und Bewertung der Fonds übernimmt das unabhängige Forschungszentrum Novethic, das für seine Erfahrung mit der Zertifizierung von nachhaltigen Fonds international anerkannt ist.

Um ein Höchstmaß an Transparenz und Glaubwürdigkeit zu schaffen, werden die Fondsberichte des Auditors Novethic von einem unabhängigen Komitee stichprobenhaft geprüft. Das Komitee setzt sich aus Repräsentanten privater Anleger, der Wissenschaft, der Kirche und der Zivilgesellschaft zusammen. Das Fachgremium ist auch für die kontinuierliche Weiterentwicklung der Siegelmethodik zuständig. Ziel ist es, den Wettbewerb zwischen Anbietern nachhaltiger Fonds und die Verbreitung nachhaltiger Investmentansätze im Finanzmarkt voran zu treiben.

Das FNG-Siegel bietet der Öffentlichkeit eine optische und inhaltliche Orientierungshilfe beim Kauf von Fonds und im Gespräch mit Bank- und Finanzberatern. Zudem verringert es den Zeit- und Kostenaufwand für Anleger, weil es hilft die Nachhaltigkeit eines Publikumsfonds (Aktienfonds, Mischfonds, oder Rentenfonds) besser einschätzen zu können.
Derzeit tragen 35 Publikumsfonds das FNG-Siegel was knapp 10% der Fonds die sich als nachhaltig bezeichnen ausmacht.

Weitere Informationen und alle ausgezeichneten Fonds finden Sie unter www.fng-siegel.org.

Bildquelle / Lizenz: Forum Nachhaltige Geldanlagen

Agile Unternehmenskultur

TREND REPORT im Gespräch mit Frau Christiane Leonhardt, Mitgründerin von SLSplus und Expertin für Kommunikation, über neue Unternehmenskulturen im Zuge der digitalen Transformation.

 

Frau Leonhardt, im Rahmen der zunehmenden Digitalisierung wird sich auch die Unternehmenskultur ändern. Wie können Unternehmen die notwendige Agilität in ihren gewachsenen Strukturen schaffen?
Während Start-ups auf neue Einflüsse und Entwicklungen flexibel reagieren können, erscheinen Unternehmen mit herkömmlichen Organisationsstrukturen inflexibel, mitunter behäbig bis schläfrig. Eine Möglichkeit, einen Wandel herbeizuführen, ist ein digitales Lab. Diese Einheit im Unternehmen entwickelt in Internet-Geschwindigkeit Produkte und Services. Dabei gehört es zum Prinzip, dass diese Unit bei der Produktentwicklung mit limitierten Ressourcen schnell herausfindet, was am Markt funktioniert. Eine solche Einheit kann man beispielsweise mit digital-affinen Menschen aus unterschiedlichen Geschäftsbereichen eines Unternehmens zusammenstellen. Dieses Team erhält ein Budget und den Freiraum, Lösungen zur Verbesserung der Kommunikation und Zusammenarbeit im Unternehmen zu erarbeiten. Die Ergebnisse können dann die Basis für eine schrittweise stattfindende Veränderung darstellen. In kleinen Schritten digital werden – nicht gleich einen riesigen Masterplan entwerfen, sondern nach und nach einzelne Prozesse optimieren. Die Führungsspitze muss dabei den Wandel vorleben und gute Ideen, die schnell umgesetzt werden sollten, belohnen. Besonders wichtig ist das Sozialkapital. Empathie, Vertrauen in die Fähigkeiten der Mitarbeiter und die Wertschätzung ihrer Leistung gewinnen an Bedeutung. Denn schließlich müssen Arbeitgeber die demographische Situation auf dem Arbeitsmarkt berücksichtigen. Schon jetzt verlassen mehr Menschen altersbedingt den Arbeitsmarkt als junge Menschen nachfolgen. Während die Unternehmen sich früher die Besten unter den Bewerbern aussuchten, sucht sich die Generation Y heute das beste Unternehmen aus. Daher müssen sich Unternehmen als attraktive Arbeitgebermarke positionieren und Arbeitsbedingungen schaffen, die den Bedürfnissen und Werten der Menschen entsprechen. Die Generation Y lebt nach dem Prinzip „You only live once“ – Lebenszeit sinnvoll einsetzen, indem man nur das tut, was den eigenen Werten entspricht. Im Fokus stehen für die Generation Y Unternehmen, die über ein nachhaltig profitables und langfristig ausgerichtetes Geschäftsmodell verfügen, das die Herausforderungen im Umwelt-, Gesellschafts- und Governance-Bereich zum integralen Bestandteil von Unternehmensstrategie und -kultur werden lässt. Es wird für Unternehmen daher immer wichtiger diese Kultur des Integrated Thinking auch nach außen durch mehr Transparenz in der Berichterstattung, wie beispielsweise über das Integrated Reporting zu dokumentieren.

 

Lohnt in diesem Kontext ein Blick auf Start-ups? Was genau könnte etwa ein Mittelständler hier lernen oder adaptieren?
Alle Unternehmen, unabhängig von der Größe, tragen auf ihre Weise zur digitalen Transformation bei. Daher können alle voneinander lernen. Innovationen kommen überwiegend von Start-ups, die mit der Gründung schon auf Digitalisierung setzen. Sie verfügen nun einmal nicht über gewachsene Strukturen, die unter Umständen bedeuten, dass Milliarden von Euro als Kapital in Form von Maschinen und Standorten gebunden sind. Start-ups wirbeln die Branche mit kalkuliertem Regelbruch und neuen, digitalen Ansätzen durcheinander. Auf diesem Weg bieten sie besseren Service, neue Produkte, höhere Geschwindigkeit und bessere Preise. Und für die Generation Y machen sie sich mit ihrer Innovationskraft, ihren flexiblen Strukturen und flachen Hierarchien interessant.

Große und mittelständische Unternehmen verfügen in der Regel über mehr Marktmacht, Erfahrung und eine finanzielle sowie organisatorische Stabilität. Demgegenüber sind sie durch ihre Größe und klassischen Strukturen natürlich langsamer. Grundsätzlich treiben aber auch diese Unternehmen das Thema stark voran. Beispielsweise errichten sie mit einem separaten Campus oder Innovationszentrum neben den klassischen Strukturen kleine unabhängige Gründerzellen, um Freiräume für Marktanpassungen zu schaffen. Andere Unternehmen holen sich das Know-how aus dem Markt, indem sie einfach ein Start-up kaufen. Oder sie kooperieren, wie Zalando und Telekom, um gemeinsam die digitalen Arbeitsplätze der Zukunft zu schaffen.

 

Würden Sie heute die HR-Abteilung eines größeren Mittelständlers leiten, welches Selbstverständnis würden Sie dieser Abteilung mitgeben wollen?
Durch die Verknappung auf Talentseite muss sich der Personalbereich von Unternehmen völlig neu ausrichten und vor allem die Anpassung der Organisationsstrukturen initiieren. Dazu gehört, dass die Arbeitszeit- und Arbeitsortgestaltung so verändert werden, dass Arbeitszeit zur Lebenszeit wird und sich ein Gleichgewicht aus privaten und beruflichen Zielen einstellen kann. Die Personalarbeit muss in der geschäftlichen Planung deutlich aufsteigen. Die Mitarbeitergewinnung wird deutlich schwieriger und die Fluktuation steigen. Mitarbeiterbindung erfordert eine ganzheitliche Strategie und die Bereiche Mitarbeitergewinnung und –bindung eigene Verantwortliche mit entsprechenden Kompetenzen. Das wiederum bedingt höhere Budgets als bisher.

Christiane Leonhardt, SLS PLUS GmbH

Christiane Leonhardt, SLSplus GmbH

Der Begriff „Human Resources“ passt nicht mehr, weil die Generation Y nicht als Ressource gesehen werden möchte, sondern als gleichwertiger Partner. Eine HR-Abteilung hat dabei nach meinem Verständnis die Rolle des Treibers und Gestalters der neuen Arbeitswelt. Nicht mehr Verwalter – sondern Innovator und Partner.

 

Auf den Mittelstand kommt in den nächsten Jahren eine große Welle an Unternehmensübergaben zu. Kann die Digitalisierung in diesem Hinblick vielleicht eine Chance sein, etwa für einen radikalen Führungsumbau?
Die digitale Transformation kann einen Konfliktpunkt zwischen den Generationen bilden. Nach einer Kienbaum-Studie ist noch nicht einmal die Hälfte der nächsten Generation davon überzeugt, dass ihre Digitalstrategie das Geschäftsmodell optimal unterstützt und fühlen sich auch entsprechend frustriert, wenn es darum geht, die Elterngeneration von neuen Ideen zu überzeugen. Warum dann nicht die Übergabe mit einem Umbau verbinden? Natürlich wie bereits erwähnt, in entsprechend kleinen Schritten – und mit Mitarbeitern, die bereits sind, den Wandel herbeizuführen und vorzuleben.

Vielfach liest man, dass neu in das Berufsleben einsteigende Mitarbeiter, die Millennials etwa, den Beruf wieder mehr als „Berufung“ wahrnehmen und etwas Sinnvolles in ihrer Tätigkeit sehen wollen. Auf alle Fälle sind diese Mitarbeiter in ihrer Denkweise und Kommunikation stark vernetzt und benötigen neue Führungsmethoden. Könnte es ein Weg sein, neue Führungsmodelle in unternehmenseigenen Start-ups zu testen?
Mit Sicherheit eignen sich die unternehmenseigenen Start-ups nicht nur dazu, digitale Strategien zu testen, sondern auch digitale Unternehmenskultur, wobei neue Führungsmethoden und –modelle eine entscheidende Rolle spielen. Die Menschen, die in solchen Organisationen arbeiten, brauchen ein entsprechendes Umfeld, um Innovationen und neue Ideen voranzutreiben. Die Abschaffung strenger Hierarchien hat meines Erachtens den Vorteil, dass innovative Impulse und Wissenstransfer in alle Richtungen stattfinden können. Jeder profitiert von jedem. Zukünftige Modelle sehen den Mitarbeiter eines Unternehmens als Teilhaber oder Teil eines Netzwerks. Netzwerke bestehen aus Menschen mit sehr unterschiedlichen, individuellen Fähigkeiten und Stärken. Die Mitarbeiter wollen eingebunden werden. Wenn sie das Gefühl haben, dass sie etwas mitgestalten, sind sie entsprechend motiviert. In einer solchen Einheit kann dann das flexible Arbeiten getestet werden, mit einer Mischung aus Home-Office und Anwesenheit. Die Digitalisierung ermöglicht es, Dokumente auf allen möglichen Geräten, zu jeder Tageszeit und an jedem beliebigen Ort zu bearbeiten. Videokonferenzen, Chats und Gespräche befreien ebenfalls von einem festen Ort. Doch eine fixe Anlaufstelle halte ich trotz aller flexiblen Strukturen für wichtig – persönliche Ansprechpartner und Betreuung brauchen alle Generationen, auch die Millennials.

 

Frau Leonhardt, vielen Dank für das Gespräch!

SLSplus GmbH

Aufmacherbild / Lizenz / Quelle

turn page“ (CC BY-SA 2.0) by  andy.brandon50 

Arbeiten 4.0: Paradigmenwechsel

Es gilt neue Seiten zu beschreiben: Thomas Sattelberger im Dialog mit der Redaktion zum Paradigmenwechsel in der Arbeitswelt.

 

Was verstehen Sie denn eigentlich unter Arbeiten 4.0?
Was Arbeiten 4.0 mit all seinen Folgen einmal bedeuten wird, können wir heute nur schwer beantworten. Arbeiten 4.0 lässt sich auch nicht per Knopfdruck herbeiführen. Es ist ein Paradigmenwechsel, der sich über einen Zeitraum von Jahrzehnten vollziehen wird.
Es sind unterschiedliche Entwicklungen denkbar. Arbeiten 4.0 kann zu einer „Amazonisierung“ der Arbeit führen. Das bedeutet: Wer die Arbeit am günstigsten und effizientesten erledigt, erhält den Zuschlag für den Auftrag. Die Folge wäre ein modernes Söldnertum an Clickworkern, deren Arbeitskraft man ordert wie bei einem großen Internetversandhaus. Diese Form der Arbeit gibt es schon in der „Realwelt der Dinge“ und wird auch im digitalen Zeitalter kaum zu verhindern sein.
Auf der anderen Seite kann Arbeiten 4.0 aber auch für Viele ein großes Maß an Freiheit, eine größere Arbeitssouveränität, mehr Experimentiermöglichkeiten und auch mehr Demokratie bedeuten. Letztlich können wir nur durch unser heutiges Handeln der Zukunft Richtung geben.

Thomas Sattelberger, Themenbotschafter in der Initiative "Neue Qualität der Arbeit".

Thomas Sattelberger: „Letztlich können wir nur durch unser heutiges Handeln der Zukunft Richtung geben.“

 

Wie wird sich die Arbeitswelt im Zuge der Transformation verändern?
Für den einzelnen werden Freiheit und Risiko zunehmen. Diese neue Freiheit kann begeisternd, aber auch beängstigend sein, besonders für Menschen, die bisher nur in vorgegebenen Strukturen gelernt und gearbeitet haben. Arbeiten 4.0 setzt eine neue Qualität von Selbstorganisation und Selbststeuerung voraus.
In der Arbeitswelt insgesamt wird es eine größere Vielfalt an Arbeits- und Geschäftsmodellen geben. „Söldnerorganisationen“, die kurzfristig anheuern, wie patriarchalisch geprägte Mittelständler werden nicht verschwinden. Es wird auch hybride Organisationsformen geben, wie man es bei einigen Internetgiganten beobachten kann: Sie sind an der Spitze beinahe plutokratisch und im „Unternehmensbauch“ fast basisdemokratisch organisiert. Organisationen, die höhere Freiheitsgrade einräumen, werden, vor allem in der Kreativ- und Wissensbranche, den größeren Raum einnehmen. Die Welt der Unternehmen wird buntscheckiger, der Anteil der Freiheitsliebenden wird wachsen.

 

Wie müssen Gewerkschaften und Arbeitgeber darauf reagieren?
In der digitalen Welt ist es mehr denn je sinnvoll, das Subsidiaritätsprinzip zu stärken. Das bedeutet: Die Dinge, die vor Ort geregelt werden können, sollten auch vor Ort geregelt werden. Die erste Ebene, das sind Führungskräfte und Mitarbeiter, dann als zweite Ebene die Unternehmensleitung und der Betriebsrat. Die dritte Ebene sind die Tarifpartner und dann gibt es noch als letzte Ebene die staatliche Ordnungspolitik.
Die Stärkung des Subsidiaritätsprinzips hat Konsequenzen. Wenn die Mitarbeiter selbstbestimmt und mit größerer Souveränität ihre Belange vertreten, muss man sie stärker als Unternehmensbürger betrachten und dies wirft Fragen zur guten Führung in den Unternehmen auf. Ein Beispiel: Haben Mitarbeiter im Unternehmen, also Unternehmensbürger, das Recht auf freie Meinungsäußerung? Und wie geht gute Führung damit um? In Deutschland gibt es kein Gesetz, dass dieses Recht sichert und die Debatte, ob Bürgerrechte auch im digitalen Zeitalter vor den Bürotürmen und Fabriktoren Halt machen dürfen, steht erst am Anfang.

 

Welche Vorteile kann ein demokratischer Führungsstil in Zeiten der Digitalisierung bringen?
Den einen demokratischen Führungsstil gibt es nicht. Es gibt viele Varianten mit unterschiedlichen Freiheits- und Partizipationsgraden bis hin zu jungen Unternehmen, die Führung komplett abschaffen wollen. Wir sollten das nicht normieren, sondern viele Optionen ermöglichen.
Wichtige Merkmale eines demokratischen Führungsstils sind Fairness, zum Beispiel bei der Beförderung von Menschen, und ein großes Maß an Beteiligung. Ein Beispiel: Bei der Lufthansa hatten wir nach dem 11. September einen extrem hohen Krankenstand. Unsere Mitarbeiter hatten einfach Angst. Was tut man da? Den Druck erhöhen und auf den Arbeitsvertrag pochen, wie ich es anfangs wollte? Mein Team forderte eine andere Richtung. Wir haben bei jedem unserer Mitarbeiter angerufen und alle wichtigen Details für den nächsten Einsatz durchgesprochen. Unser Signal an die Mitarbeiter: Wir hören zu und kümmern uns. Der Erfolg war für mich ein Schlüsselmoment in Sachen Führung.

 

Schattenseiten der Digitalisierung: Wie können Arbeitgeber ihren Mitarbeitern hier Sicherheiten vermitteln?
In unsicheren Zeiten Sicherheit zu vermitteln, ist paradox. „Wir müssen alle mitnehmen.“ – Das ist ein Satz zur Kosmetik. Man kann es versuchen, aber wir wissen, dass das schon in der Vergangenheit nicht geglückt ist. Diese Beschwörungsformeln taugen nichts. Ehrlicher ist es, auf die Chancen und Risiken hinzuweisen. Die Mitarbeiter haben viele Möglichkeiten, um mit Risiken und Chancen umzugehen. Was sie brauchen, sind Neugier und Lernbereitschaft – das ist ihre Verantwortung. Rahmenbedingungen schaffen, in denen Verlern- und Neulernprozesse möglich sind – das ist die Führungsaufgabe des Unternehmens. Das ist ein fairer Deal, der die Menschen als Erwachsene ernst nimmt und sie nicht wie Kinder behandelt, die man an die Hand nehmen muss. Wohlwissend, dass es ab und an in die Hose geht. Veränderung ist immer eine schwierige Sache und Friktionen sind unvermeidbar.

 

Welche Rolle kommt in diesem Zusammenhang auf das Betriebliche Gesundheitsmanagement zu?
Das BGM fristet in vielen Unternehmen ein Dasein im Hinterhof. Das beklagen selbst viele Gesundheitsexperten. Man kann das BGM nicht losgelöst von Führung und Betriebskultur betrachten – das sind zentrale Faktoren für die Gesundheit des Individuums. Das traditionelle BGM hat aber nichts mit Führung zu tun. Und hier liegt das Problem: Die Gesundheit der Mitarbeiter steht in unmittelbarem Zusammenhang zur Führung. Wenn die Führungskultur komplett ausgeblendet wird – das muss ich in aller Deutlichkeit sagen – dann ist der Rest eine Alibiveranstaltung. Denn im Gesundheitsbereich wurden unglaublich viele Maßnahmen entwickelt, die im Unternehmensalltag nur eine kleine bis gar keine Rolle spielen. Wenn die Führungskräfte nicht mitziehen und auf den Menschen achten, läuft die Umsetzung von gesundheitsfördernden Maßnahmen ins Leere oder findet gar nicht statt. Deshalb muss man auch hier ansetzen: Das betriebliche Gesundheitsmanagement ist Teilaufgabe der Führung.

 

Herr Sattelberger, vielen Dank für das Gespräch!

 

Personenfoto / Quelle: INQA /Thomas Sattelberger ist Themenbotschafter in der Inititative „Neue Qualität der Arbeit“.

Aufmacherbild / Lizenz / Quelle

empty pages 2“ (CC BY-SA 2.0) by  ardenswayoflife 

Massive Open Online Course

Digitalisierung braucht Qualifizierung. Qualifizierung braucht Bildung.
Das geht uns alle an.

Eine effiziente und zukunftsfähige Möglichkeit für besseres Lernen mittels digitalen Technologien sind MOOC´s!

Überwiegend gibt es keine formellen Vorbedingungen oder Einschränkungen für die Teilnahme an den Kursen.

Viele Kurse sind frei, kostenlos und zugänglich für alle!

Thumps up vom TREND REPORT-Team!

Hier haben wir einige, wie wir finden, hochinteressante Kurse für euch zusammengestellt.

Kursportfolio für Unternehmen mit Themen zum digitalen Wandel

iversity

 

openHPI – die MOOC-Plattform des HPI

openHPI

 

TUM -Die TUM bietet kostenlose und weltweit zugängliche Online-Kurse an

TUM

 

Uni St. Gallen

HSG

 

Coursera – re­nom­mier­ter ame­ri­kan­isch­er Anbieter

Coursera

 

Deutscher Bildungsserver – Übersicht weltweiter Anbieter neben Kursen aus Deutschland und Europa

Bildungsserver

 

 

Bleibt nur noch zu sagen: Auf geht´s! Werdet

top of the class

Bild/ Lizenz / Quelle

top of the class“ (CC BY 2.0) by  Sean MacEntee 

Aufmacherbild / Lizenz / Quelle

 

 

Unternehmen müssen sich öffnen

Kollaboration im Fokus der „perspectives 2016“ von Infraserv Höchst: Experten verschiedener Industriezweige diskutieren „die neue Offenheit“ am Chemie- und Pharmastandort Deutschland

Wie können Unternehmen die eigene Innovationskultur fördern? Welche inneren Widerstände und äußeren Barrieren behindern eine erfolgreiche Transformation von Unternehmen und Geschäftsmodellen? Ausnahmslos alle Referenten der „perspectives“, des Top-Events für den Chemie- und Pharmastandort Deutschland, machten sich für kollaborative Konzepte über organisatorische Grenzen hinweg stark. Unter dem Motto „Die neue Offenheit?“ hatte Infraserv Höchst in den „Squaire“ am Frankfurter Flughafen eingeladen um zu diskutieren, wie sich neue Konzepte der Zusammenarbeit in Forschung und Entwicklung, Produktion und Lieferketten-Management entwickeln lassen. Rund 180 Besucher hörten konkrete Fallbeispiele aus der Industrie und beteiligten sich an einer kontroversen Diskussion. Dabei zeigten sich deutliche Unterschiede in der Einschätzung, wie weit eine Öffnung – insbesondere über Unternehmensgrenzen hinweg – führen darf.

Transformationsprozesse im Fokus der Veranstaltungsreihe

Die zielgerichtete Transformation von Chemie- und Pharmaunternehmen steht im Mittelpunkt jeder „perspectives“-Veranstaltung. Infraserv Höchst verfügt als Betreiber des größten Chemie- und Pharmastandortes in Europa über viel Erfahrung im Umgang mit Transformationsprozessen. „Wir sehen uns als führender Standortentwickler und Dienstleistungspartner der Branche in der Verantwortung, dem Dialog um die Zukunft des Standortes Deutschland eine Plattform zu bieten“, sagte Jürgen Vormann, Vorsitzender der Geschäftsführung von Infraserv Höchst, der die Teilnehmer gemeinsam mit seinem Geschäftsführungskollegen Dr. Joachim Kreysing begrüßte. „Für Transformationsprozesse gibt es nicht eine einzige richtige Lösung, daher will die „perspectives“ unterschiedliche Sichtweisen auf ein konkretes Thema anbieten“, so Vormann. Die Frage nach der „neuen Offenheit“ ergab sich als Thema aus den Vorträgen der vergangenen Veranstaltungen. Zudem ist Offenheit auch für Infraserv Höchst ein wichtiges Thema, wie Dr. Joachim Kreysing erläuterte. „Wir arbeiten sehr intensiv mit unseren Kunden zusammen, die uns teilweise die Verantwortung für sehr sensible Prozesse übertragen haben. Dies erfordert einen sehr offenen Umgang miteinander und verschiebt nicht selten die Grenzen, die ein Unternehmen für sich zieht“, sagte Dr. Joachim Kreysing.

Neue Impulse aus anderen Industrie-Branchen

Aus der neuen Offenheit folgen notwendigerweise Grenzverschiebungen und Grenzüberschreitungen. Konsequent hatte Infraserv Höchst daher auch erfahrene Führungskräfte aus anderen Industriezweigen eingeladen, aus dem Autobau und der Elektronikindustrie, um die Diskussion in der Chemie- und Pharmabranche zu bereichern.

Dr. Fred van Ommen, ehemaliger Senior Vice President Innovation bei Philips, betonte in seiner Key Note, dass erfolgreiche Innovationen auch psychologische Faktoren des Kunden berücksichtigen müsse. Neue Technologien verlangen vom Nutzer eine Verhaltensänderung oder eine Änderung seiner Einstellung. Als Beispiel aus der Praxis führte der Niederländer einen eigenen Misserfolg an: Jeder Mensch schätzt automatische Defibrillatoren in öffentlichen Gebäuden als sinnvoll ein. Im eigenen Haus, wo sich die meisten Herzanfälle ereignen, möchte jedoch niemand täglich an die Möglichkeit eines Notfalls erinnert werden. Um Fehlschlägen vorzubeugen, müssten Innovationen stets vom Kundenwunsch ausgehend entwickelt werden. Dies könne auch in kollaborativen Modellen funktionieren, ohne einen Verlust von eigenen Geschäftsgeheimnissen fürchten zu müssen. Um die Kundenbedürfnisse zu definieren, müsse man kein technisches Spezialwissen austauschen.

Nachhaltige Innovation im Unternehmen verankern

Innovationen brauchen passende Geschäftsmodelle, diese Meinung teilte auch Dr. Georg F. L. Wießmeier, Chief Technology and Innovation Officer (CTO) der Sibelco Group. Der international erfahrene Innovationsmanager erläuterte, wie die Grenzen des eigenen Unternehmens mit seinen Organisationsstrukturen neu definiert werden können. Offenheit könne im Unternehmen nicht einfach verordnet werden, es sei vielmehr eine langfristige Führungsaufgabe.
Nachhaltige Innovationsprozesse können im Unternehmen nur etabliert werden, wenn die „imaginären Wände“ zwischen Abteilungen, die als „Silodenken“ und Konkurrenzverhalten den Gedankenaustausch behindern, überwunden werden. Interne Programme für „Innovation Leaders“ könnten das dafür notwendige Vertrauen schaffen. In einem zweiten und dritten Schritt könnten sich die Unternehmen von innen nach außen öffnen, um ihr Wissen mit den Kunden zu teilen und auch die eigenen Mitarbeiter darauf vorzubereiten, externes Wissen zu nutzen.

Ein löchriger Trichter als Forschungsmodell

Bei einer zu starken Fokussierung auf die angestammten Zielmärkte geht in Forschung und Entwicklung Potenzial verloren, erläuterte Dr. Willem Huisman, Präsident von Dow Deutschland. Der Niederländer verdeutlichte anhand eines Trichtermodells, welche verschiedenen Wege neue Ideen in der Forschung nehmen können. Durch den klassischen Trichter führt nur ein Weg, die enge Öffnung mündet bei einem definierten Zielmarkt. Hingegen eröffnet ein löchriger Trichter verschiedene Wege, die auch Abkürzungen zu alternativen Märkten bieten. Beispielsweise werden so auch frühzeitig Lizensierungen geprüft.

Kooperation und Geheimhaltung

Das Spannungsfeld von enger Kooperation und strenger Geheimhaltung beleuchtete Dr. Martin Wienkenhöver, Aufsichtsrat des Chemieunternehmens CABB. Bei der Auftragsproduktion für die eigenen Kunden müsse auf allen Ebenen unbedingte Vertraulichkeit gelten. Bei Exklusiv-Synthesen ist Geheimhaltung strikt einzuhalten – eine Öffnung verbietet sich. Anders sei es bei den eigenen Sekundärprozessen, die nicht zum Kerngeschäft gehören. Hier sei eine Zusammenarbeit mit Industriedienstleistern wie Infraserv Höchst, die sich beispielsweise um die Ver- und Entsorgung sowie die Logistik kümmern, bereits lange üblich und erfolgreich.

Transformationsziel: Ausgründung

Wie die Ausgründung eines Unternehmens aus einem Konzern funktioniert, beschrieb Dr. Klaus Jaeger, Leiter des Standortverbunds NRW von Covestro.
Die ehemalige Bayer MaterialScience konnte die Ausgliederung und den Börsengang in kurzer Zeit meistern. Entscheidend für die Transformation waren die Köpfe im Unternehmen. Nur mit großer Transparenz, mit klarer Kommunikation der unternehmerischen Ziele konnten die Mitarbeiter diesen Weg mitgehen. Offenheit in der Kommunikation nach Innen und Außen ist für Dr. Klaus Jaeger ein Erfolgsrezept, um in einem Marktumfeld mit immer schnelleren Produktzyklen Schritt halten zu können.

Die Infraserv-Geschäftsführer Jürgen Vormann (rechts) und Dr. Joachim Kreysing begrüßten die Teilnehmer der „perspectives“. © Infraserv Höchst

Die Infraserv-Geschäftsführer Jürgen Vormann (rechts) und Dr. Joachim Kreysing begrüßten die Teilnehmer der „perspectives“. © Infraserv Höchst

Startups in der Automobil-Industrie: Fluch oder Segen?

Können große Unternehmen überhaupt Neues denken, wenn Startups zwei Drittel aller marktverändernden Innovationen schaffen? Diese provokante Frage stellte Dr. Matthias Meyer, Gründer der BMW Startup Garage. Sind Startups für die Großen nun Fluch oder Segen?
Dr. Matthias Meyer rät zu einer Kooperation unter strategischen Gesichtspunkten, wenn dem Unternehmen der Erfolg des Startups bei der Verwirklichung der eigenen unternehmerischen Ziele hilft. Beispielsweise gehören für Automobilhersteller Elektromobile zum Kerngeschäft, doch die Entwicklung der flächendeckenden Ladeinfrastruktur nicht. Auch Startups, die für Metropolen wie New York City eine Parkinfrastruktur entwickeln, können den Absatz von Autos in Städten fördern, in denen Parkplätze teurer als Leasingraten sind.

Die neue Offenheit bietet viele Möglichkeiten, die eigenen Geschäftsmodelle weiter zu entwickeln, lautet die Botschaft der „perspectives“.
Zur Umsetzung gibt es viele Wege, doch kein Patentrezept. Doch die „perspectives“ hat auch in der vierten Auflage den Anspruch eingelöst, Impulse zu geben und Perspektiven zu eröffnen, um den Herausforderungen im Change- und Innovationsmanagement zu begegnen.
Weitere Informationen und einen Kurzfilm der Veranstaltung wird es auf der Website perspectives geben. Das „perspectives“-Magazin erscheint im Januar 2017, bevor die nächste „perspectives“ am 29. Juni 2017 erneut Transformationsprozesse in den Fokus rückt.

Weitere Informationen unter:
www.infraserv.com

Bildquelle / Lizenz: Infraserv Höchst

Umweltschutz im Büro

Am 22. April jährte sich zum 46. Mal der „Earth Day“. An diesem Tag werden weltweit all die umweltpolitischen Bemühungen ins Bewusstsein gerufen, die dem Schutz unseres Planeten dienen. Des Weiteren sensibilisiert der „Earth Day“ für weitergehende und zukünftige Maßnahmen in Sachen Nachhaltigkeit.

Seinen Anfang nahm der „Earth Day“ als sogenannte „Grassroot- bzw. Basisbewegung im Jahre 1970. Damals war die Welt noch eine andere: Der erste tragbare elektronische Taschenrechner kam gerade auf den Markt und ein Jahr später sollte der allererste Einzelchip-Mikroprozessor das Licht der Welt erblicken. Seitdem hat sich die Technologie in einem atemberaubenden Tempo weiterentwickelt: Inzwischen gibt es Computer, die intelligenter sein können als ein Mensch.

Einer der wichtigsten Aufgaben der Menschheit besteht nun darin, sicherzustellen, dass unsere Maßnahmen in Sachen Nachhaltigkeit und Umweltschutz mit dem rasanten Fortschritt stets gleich auf sind. Forscher schätzen, dass wir im Jahr 2030 theoretisch zwei Planeten brauchen werden, um mit unserer derzeitigen Ressourcenverbrauchsrate mitzuhalten, inklusive der Absorptionskapazität für Kohlenstoff. Es muss sich also etwas ändern.

Umweltschutz geht uns alle etwas an. In jedem Lebensbereich. Zuhause ist Recycling zur Routine geworden. Aber auch im Büro gibt es viele Möglichkeiten, umweltbewusst zu handeln. Eine davon ist so einfach wie wirkungsvoll: weniger Papier verwenden. Weltweit ist der Papierverbrauch seit 1980 um fast die Hälfte angestiegen und heute werden im Durchschnitt pro Arbeitskraft im Büro 10.000 Seiten Kopierpaper im Jahr verbraucht. Dem kann aber mit einfachen Maßnahmen gegengesteuert werden: So spart beidseitiges Drucken Papier und reduziert auch das Abfallaufkommen erheblich. Und jeder sollte sich stets überlegen, ob man wirklich jede Seite ausdrucken muss: Eine von sieben am Arbeitsplatz ausgedruckten Seiten wird nie benutzt

Auch der Stromverbrauch von Drucker, PC und Co. verdient eine kritische Betrachtung. Dieser kann aber mit ein paar einfachen Änderungen an den Einstellungen von Computern und Druckern minimiert werden.

Immer mehr Firmen weltweit bieten Produkte und Dienstleistungen an, die Menschen und Unternehmen helfen, ihre CO2-Bilanz zu optimieren. Lexmark hat beispielsweise die Energieeffizienz seiner Geräte mit der neuesten Serie von Farbdruckern auf eine Leistung von weniger als 3,5 Watt im Ruhemodus optimiert. Zudem hat das Unternehmen als Teil seiner Entwicklung von linearer Wirtschaft hin zu Kreislaufwirtschaft Sammel- und Recycling-Programme für Druckkassetten eingeführt. Das Lexmark Druckkassetten-Rückführungsprogramm macht es möglich, leere Druckkassetten an Lexmark zurück zu schicken, damit sie nachhaltig recycelt oder wiederaufbereitet werden. So wird der ökologische Fußabdruck der Druckernutzung durch den Verbraucher selbst minimiert.

Die Welt um uns herum verändert sich rapide. Ökologische Herausforderungen, wie extreme Wetterphänomene, Klimaveränderungen und Umweltverschmutzung, zeigen deutlich ihre Spuren. Sie werden immer mehr zu einem Problem für die Gesellschaft. Umweltschutz wird daher immer wichtiger, nicht nur für Unternehmen, sondern auch für deren Kunden. Wir haben es in der Hand, die Möglichkeiten und die Innovationskraft der Kreislaufwirtschaft zu nutzen, um einen neuen Weg zu finden, verantwortungsvoll und nachhaltig mit den Ressourcen unseres Planeten umzugehen.

Weitere Informationen unter:
www.lexmark.com

Bildquelle / Lizenz:

Eine sichere Bank?

Mehr als 50 Prozent der Finanzdienstleister sind (noch) nicht bereit für die digitale Transformation

Die Führungskräfte der europäischen Finanzbranche kennen die erfolgskritische Bedeutung der digitalen Transformation genau. Dennoch, so zeigt eine von Fujitsu initiierte Studie „Der digitale Drahtseilakt“, vertraut weniger als die Hälfte der Befragten den Kompetenzen des eigenen Unternehmens im Hinblick auf anspruchsvolle digitale Projekte. Vor allem an der Strategie hapert es: Viele Unternehmen verfügen über keinen klaren strategischen Ansatz – und für eine nicht unerhebliche Anzahl funktioniert die Digitalisierung derzeit mehr oder weniger nach dem Zufallsprinzip.

 

Mancher mag gerade die Finanzindustrie als Vorreiter bei der digitalen Transformation gesehen haben. Die Realität sieht jedoch etwas anders aus: Zwei von drei (64 Prozent) der befragten Personen räumen Probleme bei der Einschätzung ein, welche Entscheidungen jetzt getroffen werden müssen, um die Digitalisierung voranzutreiben. Im Zusammenhang mit den fehlenden Kompetenzen und der mangelnden Systematik beim Management entsprechender Projekte wird deutlich, dass die Risiken für die einzelnen Unternehmen insgesamt recht hoch sind. Positiv wird allerdings bewertet, dass trotz des hohen Risikos eines solchen Projekts der Erfolg immens sein kann.

 

Allgemein herrscht ein gewisser Optimismus vor. Bei den Anbietern von Finanzdienstleistern werden – anders als beispielsweise beim Handel, der produzierenden Industrie oder der öffentlichen Hand – die wichtigen Entscheidungen auf Führungsebene getroffen, oft vom CEO persönlich. Aus gutem Grund: Die Folgen der Entscheidungen wirken sich unmittelbar auf die Wertschöpfung und die entsprechenden Kanäle aus. Insgesamt 43 Prozent der Studienteilnehmer führen dies als Hauptmotivation für Digitalisierungs-Projekte an. Knapp zwei Drittel sind überzeugt, dass ein sorgfältig ausbalancierter Ansatz bei der Gewichtung von Mitteln für die digitale Transformation und das IT-Tagesgeschäft erheblich zum Unternehmenserfolg beiträgt.

 

39451_Ravi_Krishnamoorthi__Senior_VP___Head_of_Business_Applications_Services__BAS___Fujitsu_EMEIA_

Dazu Ravi Krishnamoorthi, Senior Vice President & Head of Business Applications Services, EMEIA, Fujitsu: „Die Studienergebnisse decken sich mit den Erfahrungswerten aus der täglichen Arbeit mit Finanzdienstleistern: Die Digitalisierung ist zur Chefsache geworden. Fujitsu hat sich dabei als zuverlässiger Partner erwiesen, der über wertvolle Erfahrungen sowohl im Hinblick auf den Wissenstransfer als auch auf Compliance verfügt. Damit können wir nicht nur den ‘Skills-Gap’ schließen. Wir tragen auch entscheidend dazu bei, die Balance zwischen IT-Systemen zu halten, die das Unternehmen verändern, und solchen, die für das Tagesgeschäft unverzichtbar sind.“

 

Bald schon werden neue digitale Technologien dazu führen, dass Innovationsinitiativen zu einem völlig eigenständigen Bereich auf oberster Ebene werden. Gerade die CEOs der großen Unternehmen werden erhebliche Anstrengungen unternehmen, den Erwartungen der Kunden mithilfe disruptiver Technologien gerecht zu werden.

 

Der Druck, der in dieser Hinsicht auf der Finanzbranche lastet, ist nicht gering. Die traditionellen Kanäle wie etwa Filialen aber auch Geldautomaten müssen soweit weiterentwickelt werden, dass sie eine praxisgerechte Ergänzung zu digitalen Kanälen, insbesondere dem Mobile Banking, bilden können.

 

„Wir unterstützen Banken bei der digitalen Transformation mit einer differenzierten Strategie. Die IT soll einerseits schnell und flexibel reagieren, andererseits sollen die vorhandenen Strukturen kontinuierlich modernisiert werden. Nur wer beides bieten kann, behält im Wettbewerb die Nase vorne. Bei diesem Spagat zwischen „Fast IT“ und “Robust IT” steht Fujitsu als starker Partner zur Seite, indem wir bestehende Daten und Prozesse optimieren, Cloud-Lösungen von Fujitsu und anderen Anbietern integrieren und alles gemeinsam mit On-Premise IT managen. Wer diese Kür beherrscht, schafft auch die digitale Transformation als Finanzdienstleister”,

 

sagt Dr. Rolf Werner, Vorsitzender der Geschäftsführung Deutschland und Head of Central Europe bei Fujitsu.

 

Fujitsu definiert Transformation als zukunftskritische Verbindung bislang noch separater Bereiche durch die nahtlose Integration neuer Front-End-Elemente mit Prozessen und Informationen auf dem Core Operational Level. Die Identifikation der bestmöglichen Kombination ist für jedes Unternehmen unterschiedlich. In keinem Fall zielführend ist jedoch eine strikt lineare Umsetzung von Maßnahmen oder auch eine mehr oder weniger erratische Dynamik. Zu einer erfolgreichen Digitalisierung gehört vielmehr die Fähigkeit, ein digitales Ende-zu-Ende-Konzept umzusetzen – durch neue, digitale Front-End-Erfahrungen in enger Verbindung mit passenden Back-End-Systemen und der entsprechenden Infrastruktur.

 

Alle weiteren Informationen zur Studie mit lokalen Ergebnissen aus Deutschland finden sie hier: Fujitsu – Hintergründe zur Studie

 

Pressekontakt:

Fujitsu Central Europe

Michael Erhard

Tel.: +49(0) 89 307686 237

michael.erhard@ts.fujitsu.com

 

FleishmanHillard Germany GmbH

Enno Hennrichs

Tel.: + 49 (0) 89 23031-627

Fujitsu-PR@fleishmaneurope.com

Quellen / Lizenz / Bilder im Beitrag

Fujitsu Media Portal / Copyright Fujitsu MediaPortal / Ravi Krishnamoorthi / Dr. Rolf Werner

Aufmacherbild / Lizenz / Quelle

Finance District“ (CC BY 2.0) by  Jo@net 

Agil werden – Warum und Wie?

 

Agile Programmierung, Entwicklung, agiles Management, agiles Business.

 

Renato Quedas, VicePresident Solution Strategy beimTestportfolio von Micro Focus erklärt, was hinter dem Kultbegriff steckt und warum gerade Software-Testing der richtige Bereich ist, um agil loszulegen.

Entscheider in der Technikbranche mussten immer ganz vorne auf der Welle ihrer Zeit surfen. Die Tidenwelle der heutigen, komplexen und digitalisierten Welt heißt Geschwindigkeit. Unternehmen versuchen sich täglich gegenseitig darin zu überbieten, ihre Softwareproduktion konsistenter, vorhersehbarer, zuverlässiger und vor allem schneller auf den Markt zu bringen. Dafür müssen sie eine Voraussetzung erfüllen: Agilität.

Im Februar 2001 trafen sich siebzehn erfahrene Software-Experten in einem Ski-Resort in den verschneiten Bergen von Utah, um sich über schlankere Entwicklungsmethoden auszutauschen. Heraus kam das Manifest für Agile Softwareentwicklung. Diese Tatsache wirft eine entscheidende Frage auf: Wenn Softwareentwickler schon seit mehr als 15 Jahren an agile Prinzipien glauben und danach trachten, sie umzusetzen – warum sind Unternehmen erst jetzt auf die Idee gekommen, dass es genau diese Prinzipien sind, die ihnen dabei helfen sollen, bessere Anwendungen schneller auf den Markt zu bringen?

 

Die Generation Y übernimmt das Steuer

Die junge Generation,auch Gen Y oder „Millenials“ genannt, besetzt nun nach und nach die führenden Positionen in Unternehmen. Sie haben die großen technischen Umwälzungen des Internets und des Mobilfunks nicht miterlebt. Sie kennen kein Leben davor. Diese Generation wurde in eine Welt hineingeboren, in der jede Information überall und ständig abrufbar ist.

Diese Millenials übernehmen nun Unternehmen aller Größen und bringen ihre Erwartungen an die technische Welt in die Welt der Unternehmensführung. Sie sind an eine Welt des On-Demand gewöhnt und erwarten von Unternehmen, nach denselben Gesetzmäßigkeiten zu funktionieren. Anders gesagt ist aus ihrer Sicht Agilität eine Grundkonstante des Lebens, nicht ein Ziel der fernen Zukunft.

Eine ebensolche Konstante im Unternehmen ist die Software. Sie hilft dabei, neue Produkte und Dienstleistungen anzubieten, mit denen sich ein Unternehmen den wichtigen Wettbewerbsvorteil über die Konkurrenz sichert. Doch heute gilt auch das Motto „Jedes Unternehmen ist ein Software-Unternehmen“ und die geringe Schwelle, die jedem den Einstieg leicht macht, schafft auch eine große Konkurrenz in einem Markt, in dem sofort eine schnellere, billigere und bessere Alternative zum eigenen Angebot auftauchen kann.

 

Geräte, Geräte und noch mehr Geräte

Nicht nur der Markt hat sich verändert, auch die Kundenerwartungen sind durch das Internet und den alltäglichen Umgang mit Software in Geräten aller Art geprägt. Desktop-Rechner, Mobilgeräte, Wearables und Sensoren im Internet der Dinge – Konsumenten nutzen Geräte und Softwareplattformen aller Art im täglichen Leben. Die Anforderungen an die einzelnen Software-Lösungen und Dienstleistungen steigen entsprechend an.

Eine Möglichkeit, um diesen Herausforderungen zu begegnen, ist das Modell der ContinousDelivery. Dabei wird Software in kurzen Zyklen produziert. Somit soll sichergestellt werden, dass die Software jederzeit in zuverlässiger Qualität ausgeliefert werden kann – damit quasi kontinuierlich. ContinousDelivery ist in diesem Sinne eine agile Methode, denn die Software wird somit schneller und häufiger zusammengebaut, getestet und veröffentlicht.

Der Knackpunkt dabei ist die zuverlässige Qualität der Software. Wie erwähnt ist die Erwartungshaltung der Kunden derart angewachsen, dass Agilität, also die Anpassung an neue Anforderungen, bereits kein Feature mehr ist, sondern eine Standardvoraussetzung. Ebenso ist die Geschwindigkeit, die das Entwicklungsteam an den Tag legt und neue Versionen in Sprint nach Sprint veröffentlicht, heute schon normal. Bei all dem Tempo hängt auch die agile Methodik letztlich an der Qualität – wenn etwas zwar schneller ausgeliefert werden kann, aber nur auf Kosten einer bisher funktionierenden Ware, so ist das kein erstrebenswertes Ziel.

 

Testen und Kommunizieren

Kein Unternehmen kann Software zuverlässig auf den Markt bringen, ohne sie auf funktionale Anforderungen ebenso wie auf nichtfunktionale zu testen. Diese Testvorgänge müssen dabei automatisiert sein und sich durch den gesamten Lebenszyklus einer Software ziehen. Dies führt analog zur ContinuousDelivery zum ContinousTesting.

Dies sind bereits zwei Anwendungen der agilen Prinzipien. Hinzu kommt eine weitere Konstante: Kommunikation. Ein Unternehmen, das sich auf agile Software-Entwicklung einstellen will, sollte darauf achten, dass die Transparenz eines Projekts und die regelmäßige Kommunikation mit sämtlichen Projektbeteiligten stets gewährleistet werden. Dies ist entscheidend für den Erfolg des Entwicklerteams und soll Unternehmen ermöglichen, besser auf Veränderungen zu reagieren.

Unternehmen müssen nachvollziehen können, wie Verbraucher ihre Geräte und die enthaltene Software benutzen, in welchem Kontext und mit welchen spezifischen Anforderungen. So können Unternehmen ihren Entwicklern etwa klare Anweisungen geben, welche Plattformen mit welcher Priorität behandelt und weiterentwickelt werden sollen. Obwohl der Kunde keine identische Anwendungserfahrung auf allen Plattformen benötigt, muss ihm dennoch jede einzelne als harmonisch und qualitativ hochwertig erscheinen.

Die Erwartungen der Kunden zu erfüllen kann jedoch bei einer unzureichenden Kommunikation verschiedener Teams untereinander oder mit wichtigen Projektbeteiligten zu Schwierigkeiten führen. Die Zusammenarbeit ist daher entscheidend, wenn Entwicklungsprojekte kurzen Fristen gerecht werden, die benötigte Nutzererfahrung bieten und Software früh und effizient bereitstellen sollen.

 

Fazit: Jetzt auf Agilität setzen

Unternehmen müssen mit wachsendem Druck von außen rechnen: Mehr Geräte, auf denen ihre Software eingesetzt wird, mehr mögliche Konfigurationen, die getestet werden müssen; zugleich steigt die Kundenerwartung an Geschwindigkeit und Qualität ständig weiter an. Unternehmen können diesem Druck nur standhalten, wenn sie agile Methoden einsetzen – im Unternehmen allgemein, aber vor allem im Software-Testing, gepaart mit intelligenter Automatisierung ihrer Prozesse.

In den letzten zehn Jahren haben die Prinzipien des Agilen Manifests stetig an Bedeutung gewonnen. Heute führt kein Weg mehr an ihnen vorbei. Sie werden auch in den nächsten Jahren weiter dafür sorgen, dass die Geschäfts- und die Entwicklerseite des Unternehmens enger zusammenwachsen.

Nur wer ein Entwicklerteam hat, das schnell auf Änderungen am volatilen Markt und Kursanpassungen im Business reagieren kann, erreicht am Ende das Ziel eines agilen Unternehmens. Anders gesagt gibt es kein agiles Business ohne agile Entwicklung und keine agile Entwicklung ohne agile Testmethoden. Die gute Nachricht: die meisten Entwicklerteams setzen diese Methoden bereits ein oder sind dabei, sie einzuführen. Nun ist es am Management, sie dabei zu unterstützen.

Weiterführende Informationen:

Micro Focus

 

Aufmacherbild / Lizenz / Quelle

Agile development“ (CC BY-ND 2.0) by  dgray_xplane 

High-Tech Gründerfonds III

Staatssekretär Machnig gibt Startschuss für Investorenaufruf zum High-Tech Gründerfonds III – Zielvolumen 300 Millionen Euro

Der Staatssekretär im Bundeswirtschaftsministerium, Matthias Machnig, startet heute zusammen mit Herrn Dr. Michael Brandkamp (Geschäftsführer High-Tech Gründerfonds), Herrn Dr. Martin Wansleben (Hauptgeschäftsführer DIHK) und Herrn Dr. Carsten Bether (Gründer und Geschäftsführer des Start-ups Kiwigrid) den Investorenaufruf für den High-Tech Gründerfonds III (HTGF III). Ab sofort sind mittelständische und Großunternehmen, die über Start-ups einen Zugang sowohl zu disruptiven Innovationen als auch zu den neuesten Technologien und Geschäftsmodellen suchen, aufgerufen, eine Beteiligung am HTGF III einzugehen.

Staatssekretär Machnig:

Matthias Machnig, Beamteter Staatssekretär © Michael Voigt

Matthias Machnig, Beamteter Staatssekretär
© Michael Voigt

„Der High-Tech Gründerfonds ist eine Erfolgsgeschichte. Er investiert seit 2005 in deutsche Start-ups und ist heute der zahlenmäßig aktivste Frühphasenfonds in Europa. Seit Beginn wurden mehr als 10.000 Businesspläne gesichert, mehr als 440 Start-ups haben eine erste Finanzierung erhalten. Das Markenzeichen des Fonds ist die öffentlich-private Partnerschaft. So sind im High-Tech Gründerfonds Fonds II neben dem Bundeswirtschaftsministerium und der KfW 18 Investoren aus Industrie und Wirtschaft – Mittelständler wie Großunternehmen – beteiligt. Diese erfolgreiche Zusammenarbeit wollen wir auch künftig mit dem High-Tech Gründerfonds III fortsetzen und sogar noch ausbauen. Deshalb starten wir heute gemeinsam den Aufruf für Investoren. Durch den neuen Fonds sollen jährlich bis zu vierzig Start-ups finanziert werden. Ziel ist ein Fondsvolumen von 300 Millionen Euro und ein Industrieanteil von 30 %.“

Dr. Michael Brandkamp, Geschäftsführer High-Tech Gründerfonds: „Die positiven Evaluierungsergebnisse des Fonds II zeigen, dass der HTGF den Seedmarkt nachhaltig belebt hat. In über 900 Anschlussfinanzierungsrunden konnten darüber hinaus insgesamt über 1 Milliarde Euro überwiegend privates Kapital mobilisiert werden. Wir fühlen uns in unserer Aufgabe bestätigt, den Technologiegründern nicht nur mit finanziellen Mitteln, sondern auch mit Know-how und umfangreichen nationalen und internationalen Netzwerken zur Seite zu stehen. Für den HTGF III laden wir alle Stakeholder ein, weiterhin mit uns zusammen die deutsche Start-up Szene zu stärken.“

Dr. Martin Wansleben, Hauptgeschäftsführer DIHK: „Wir brauchen mehr Zukunftsinvestitionen – auch um die Chancen der Digitalisierung zu nutzen. Hier leistet der High-Tech Gründerfonds III einen wichtigen Beitrag. Der Fonds gibt vielen Start-ups die Chance, sich am Markt zu beweisen. Von solchen Impulsen profitiert die gesamte Wirtschaft in Deutschland.“

Dr. Carsten Bether, Gründer und Geschäftsführer des Start-ups Kiwigrid: „Zum Aufbau des Unternehmens war es für uns enorm wichtig, dass wir bereits in der Seed-Phase einen starken Partner von unserem zukunftsweisenden technischen Konzept und dem Potenzial unserer Energy IoT Platform überzeugen konnten. Die erfahrenen Investment Manager unterstützen uns mit Rat und Tat bis heute, das Netzwerk des HTGF hilft uns bei Industriekontakten. Dies hilft uns gerade zur Zeit im Rahmen unserer Internationalisierung weiter.“

Der High-Tech Gründerfonds investiert seit September 2005 in deutsche Start-ups. Der High-Tech Gründerfonds I hat ein Volumen von 272 Millionen Euro. Der im November 2011 aufgelegte High-Tech Gründerfonds II umfasst 304 Millionen Euro (davon 220 Millionen Euro BMWi, 40 Mio. Euro KfW, 44 Millionen Euro aus der privaten Wirtschaft). Der dritte High-Tech Gründerfonds soll im ersten Halbjahr 2017 starten. Ziel ist ein Fondsvolumen von 300 Millionen Euro.

Kennzeichned ist die Ausgestaltung als öffentlich-private Partnerschaft. Hiervon profitieren alle Beteiligten: Den Start-ups wird leichter die Tür zu etablierten Unternehmen geöffnet. Der High-Tech Gründerfonds zieht Vorteile aus der zusätzlichen Professionalität und dem Know-How der Wirtschaft. Aber vor allem profitieren die etablierten Unternehmen selbst: Denn als Fondsinvestoren erhalten sie einen breiten Überblick über das Innovationsgeschehen und die Start-up-Szene in Deutschland. Zudem ergeben sich Möglichkeiten zur Kooperation und zur Beteiligung an den Portfoliounternehmen des Fonds.

 

Fakten zum High-Tech Gründerfonds (HTGF) (PDF: 208,3 KB)

High-Tech Gründerfonds Zahlen – Daten – Fakten (PDF: 943,2 KB)

Evaluation des High-Tech Gründerfonds (Veröffentlichung im Juli 2016 (PDF: 59,6 KB)

 

Text / Lizenz:

Pressemitteilung BMWI / Creative Commons Namensnennung-Keine Bearbeitung 3.0 Deutschland Lizenz

Aufmacherbild / Bild / Quellen / Lizenzen

Making Money“ (CC BY-SA 2.0) by  401(K) 2013 

Bild: Matthias Machnig, Beamteter Staatssekretär / © Michael Voigt

Haben Laptops ausgedient? Der Aufstieg der Chromebook Desktops

Als der produktorientierte Geschäftsansatz eine serviceorientierte Richtung nahm, rechneten IT-Experten mit tiefgreifenden Änderungen im Software-Bereich. Interessanterweise verändert sich auch die IT-Hardware. Ein bezeichnendes Beispiel dafür ist die zunehmende Beliebtheit von cloudbasierten Chromebooks. Testen Sie auf Ihren Browsern wie sich Windows-Anwendungen auf Chromebooks anwenden lassen.

Chromebook – was ist das?

Ein Chromebook ist ein kostengünstiger Laptop mit einem cloudbasierten Android-Betriebssystem von Google. Dieser einfache und schnelle Internet-unabhängige Laptop wurde entwickelt, weil die Anwender browsen wollten.

Chromebooks haben 2-4 GB Arbeitsspeicher, 16 GB Speicherplatz, einen Einstiegsprozessor und eine Bildschirmgröße von 11,6 bis 15 Zoll. Es gibt nur eine native App – Google Chrome. Alle anderen Anwendungen und Daten befinden sich in der Cloud. Dieser Laptop bootet in weniger als acht Sekunden. Zudem ist er günstig mit Preisen ab 199 $. Die Ausnahme ist Google Pixel, das preislich bei 1.299 $ aufwärts liegt. Chromebooks sind in neun Modellen von HP, Acer, Toshiba und Samsung erhältlich.

Chromebooks laufen mit einem Google-Betriebssystem und basieren deswegen meist auf der Google Application Suite. Sie können sich zwar als Gast anmelden, allerdings steht Ihnen das vollständige Angebot erst bei einem Login mit Ihrem Google-Account bereit.

Vorteile und Nachteile von Chromebooks

Zunächst einmal sind Chromebooks extrem preisgünstig. Der Einstiegspreis liegt bei nur 199 $. Zweitens bieten sie ein unkompliziertes und blitzschnelles Arbeiten. In weniger als 8 Sekunden können Sie mit Ihren Apps starten.

Drittens stellen Chromebooks Ihre Ressourcen jederzeit und überall bereit. Alle Daten und Anwendungen befinden sich in der Cloud, somit können Sie von überall auf Ihre Daten zugreifen. Selbst wenn das Chromebook abstürzt, sind Ihre Daten sicher und geschützt in der Cloud. Viertens erfolgen Daten-Backups und Sicherheitsupdates in der Cloud automatisch. System-Updates und Sicherheitspatches erfolgen bei jedem Start Ihres Laptops. Im Browser ist eine mehrstufige Security integriert, daher brauchen Sie kein Antivirus-Programm. Endanwender, die Laptops größtenteils zum Browsen im Internet verwenden, liegen bei Chromebooks goldrichtig.

Andererseits benötigen Chromebooks immer eine Internet-Verbindung. Außer auf Offline-Dokumente und E-Mails können Sie auf keine anderen Anwendungen zugreifen. Ein weiterer Nachteil ist die eingeschränkte Funktionalität. Sie können nicht mit MS Office und anderen komplexen Grafik- und Videoprogrammen arbeiten. Zudem ist Skype nicht verfügbar. Es gibt keine optischen Laufwerke. Die Verbindung mit lokalen Druckern ist nicht möglich, Sie können jedoch aus der Google-Cloud drucken. Es gibt keine Lösung für Anwender, die Desktop-ähnliche Features und Anwendungen benötigen.

Hat der Laptop in Unternehmen ausgedient?

Durch die Cloud-Revolution müssen Unternehmen zwangsläufig alles in die Cloud verlagern. Chromebooks können die richtige Wahl für Unternehmen sein, da alle Daten und Anwendungen in der Cloud liegen. Sie sind schnell und einfach zu bedienen, haben ein geringes Gewicht, sind extrem preiswert – was wollen Unternehmen mit immer kleineren IT-Budgets mehr? Betrachtet man die enormen Möglichkeiten von Chromebook Desktops, haben Unternehmen Wege gefunden, ihre Einschränkungen zu überwinden.

Heute gibt es fast überall auf der Welt eine lückenlose Internetverbindung, also ist die Internetversorgung nicht das Problem. Die einzige Herausforderung ist die eingeschränkte Funktionalität. Chromebook-Anwender können MS Office und andere native Programme nicht verwenden. Das ist ein großes Problem angesichts der nach wie vor führenden Position von Microsoft bei der Software. Allerdings bietet die Desktop-Virtualisierung eine einfache Antwort auf dieses Problem. Mit einer Software für Anwendungsbereitstellung wie Parallels Remote Application Server, Vmware Horizon View oder Citrix XenApp können Sie aus einem Chromebook ein leistungsfähiges Gerät machen. Sie können problemlos Windows Desktops auf Chromebook Desktops ausführen und jede Anwendung einschließlich MS Office, Photoshop oder Skype verwenden. Durch die Virtualisierung von Desktops und Anwendungen lassen sich nicht nur die Beschränkungen von Chromebooks überwinden, sondern machen sie auch zu einem leistungsstarken und kostengünstigen Thin Client für Unternehmen.

Chromebook-Trends

Google ist seit über einem Jahrzehnt ein Begriff und jedes Produkt von Google erzeugt Aufmerksamkeit. Chromebooks sind da keine Ausnahme. 2015 war das Jahr der Chromebooks. 2014 machten Chromebooks 14% der Laptop-Verkäufe aus, wie BetaNews berichtete. Gegenüber 2013 war das ein Anstieg von 8%. Als Google 2014 ankündigte, dass Käufer zwei Jahre lang 1 TB Speicher kostenlos bekommen, hatten Chromebooks einen weiteren großen Auftritt. Überraschenderweise waren vier Chromebook-Modelle unter den 10 Amazon-Bestsellern, mit dem Samsung Chromebook an der Spitze. Chromebook-Verkäufe werden sicherlich noch weiter steigen, da nun die Beschränkungen wegfallen.

Thin Clients-Verkäufe auf 5-Jahres-Tief

Der Thin-Client-Markt in der EMEA-Region befindet sich auf dem tiefsten Stand seit fünf Jahren. Laut IDC sind die Verkäufe im 2. Quartal 2015 um 17,7% im Vergleich zum Vorjahr gesunken (385.000 ausgelieferte Geräte). Das ist die niedrigste Zahl seit fünf Jahren. Das schwache Wirtschaftswachstum und der niedrige Ölpreis in der Eurozone haben zu diesem Wandel beigetragen und die Unternehmen konnten bei Käufen oder Upgrades kein Budget für IT-Hardware bereitstellen. Bei immer kleineren IT-Budgets können die kostengünstigen Chromebooks zum großen Vorteil für Unternehmen werden. Beim niedrigen Preis von 199 $ können Unternehmen ohne Weiteres hunderte Thin Clients für Desktop-Virtualisierung verwenden, damit Kosten optimieren und einen höheren ROI erreichen. Angesichts der Vielzahl von Tablets, Mobiltelefonen und nun Chromebooks mit virtuellen Desktops und Remote-Anwendungen können die Tage der Laptops gezählt sein.

Chancen für Reseller

Chromebook Desktops als Thin Clients bieten Resellern eine interessante Möglichkeit, die Bereitstellung von gehosteten Workspace Services kostengünstig anzubieten. Als Managed Service Provider können Sie einzigartige und kostengünstige Virtualisierungslösungen anbieten, die Ihr Unternehmen zu neuen Erfolgen führen. Durch die Partnerschaft mit einem zuverlässigen Anbieter von Software für Anwendungsbereitstellung können Sie Ihre Services profilieren und ein verlässliches und umfassendes Nutzererlebnis auf einer breiten Palette von Geräten wie PCs, Laptops, Mobiltelefone, Chromebooks, Linux und Macs anbieten. Mit erstklassigen Lösungen zu einem unschlagbaren Preis können sich Reseller im Wettbewerb durchsetzen.

Mit Chromebook Desktop, das innerhalb von acht Sekunden startet und eine Hochgeschwindigkeitsverbindung bietet, können Sie SLAs verbessern und eine dauerhafte Geschäftsbeziehung zu Ihren Kunden aufbauen. Mit dem vereinfachten IT-Management können Sie die gesamte Infrastruktur leicht überwachen und verwalten. Bei der Vielzahl von Tablets, Mobiltelefonen und jetzt Chromebooks mit virtuellen Desktops und Remote-Anwendungen können die Tage der Laptops gezählt sein. Wenn Sie diesen brandaktuellen Markt ignorieren, würden Sie ihn nur Ihren Wettbewerbern überlassen.

Chancen mit Parallels Remote Application Server

Parallels ist der perfekte Partner für Reseller und Managed Service Provider, die ihren Kunden einzigartige Cloud-Lösungen anbieten möchten. Parallels bietet seinen MSPs drei wichtige Vorteile, mit denen sie auf dem Markt unschlagbar sind.

Erstens ist Parallels Remote Application Server die beste plattformübergreifende Lösung der Welt. Damit können Sie eine stabile und zuverlässige virtuelle Infrastruktur für die Anwendungs- und Desktopbereitstellung für alle Geräte und Betriebsplattformen von einem zentralen Ort anbieten. Parallels RAS unterstützt eine Vielzahl von Geräten einschließlich aller Geräte von Windows, Android, iOS, Chromebooks und Raspberry Pi. Zudem ermöglicht es der HTML5 Client den Kunden, mit HTML5-fähigen Browsern zu arbeiten.

Zweitens bietet Parallels RAS ein vereinfachtes IT-Management-System. Das Werkzeug lässt sich einfach einrichten und verwalten. Im Gegensatz zu Citrix und VMware brauchen Sie keine zertifizierten Spezialisten für Einrichtung und Konfiguration der Infrastruktur. Alle wichtigen Features werden standardmäßig automatisch konfiguriert. Damit brauchen Sie weniger in technische Aspekte und können dafür mehr in das Unternehmenswachstum investieren.

Drittens ist Parallels RAS für einen Bruchteil des Preises erhältlich, den die Wettbewerber verlangen. In Verbindung mit Chromebook-Thin Clients ist der RAS unschlagbar. Zugleich müssen Sie bei Performance oder Features keine Kompromisse eingehen. Parallels RAS ist ein umfassendes Virtualisierungstool, das eine Vielzahl von Features in einer Standard-Edition anbietet. Der RAS ist einfach zu überwachen und zu verwalten, so dass sich Installation und Wartung intern durchführen lassen und weniger Outsourcing sowie geringere Arbeitskosten anfallen. Mit der stabilen Virtualisierungsinfrastruktur und Parallels RAS am Steuer können Sie kostengünstige Services für Anwendungs- und Desktopbereitstellung anbieten, die konkurrenzlos sind.

Erschließen Sie sich neue Märkte mit Parallels RAS und Chromebook Desktop und erweitern Sie Ihr Service-Portfolio, um den besten ROI zu erzielen und im Wettbewerb den entscheidenden Vorsprung zu haben.

Autor: Sean Bianco

Weitere Informationen unter:
www.parallels.com

Literatur

Chromebook desktop: WHAT’S A CHROMEBOOK, ANYWAY? – http://www.digitaltrends.com/computing/what-is-a-chromebook-anyway/
Chromebook desktop: The Pros and Cons of Using a Chromebook as Your Primary Work Computer – http://quickbooks.intuit.com/r/money/the-pros-and-cons-of-using-a-chromebook-as-your-primary-work-computer/
Chromebook desktop: Should I Buy a Chromebook? Buying Guide and Advice – http://www.laptopmag.com/articles/chromebook-buying-advice
Chromebook desktop: Chromebook 2014: Pros and cons of Google’s low-price laptop – http://www.christiantoday.com/article/google.chromebook.2014.pros.cons.googles.laptop/43457.htm
Chromebook desktop: EMEA thin client market hits five-year low – http://www.channelnomics.eu/channelnomics-eu/news/2425827/emea-thin-client-market-hits-five-year-low
Chromebook desktop: 2015 is year of the Chromebook – http://betanews.com/2015/02/24/2015-is-year-of-the-chromebook/

EU- und G7-Staaten setzen auf Open Science

Am 27.5 hat der Rat für Wettbewerbsfähigkeit („Competitiveness Council“) der Europäischen Union seine „Council Conclusions on the Transition towards an Open Science System“ verabschiedet (PDF).

In einer Pressemitteilung der niederländischen Ratspräsidentschaft, unter dem Titel „Europa entscheidet sich für Open Access“, wird der Kern der europäischen Open-Science-Strategie deutlich: „Ab 2020 müssen alle wissenschaftlichen Publikationen zu Ergebnissen öffentlich finanzierter Forschungsarbeiten frei zugänglich sein.“

Über diese klare Richtungsentscheidung hinaus sollen, so der Rat, auch die „Beurteilungskriterien für wissenschaftliche Arbeiten angepasst werden. Es sollte nicht mehr vorrangig darum gehen, wie viele Publikationen ein Wissenschaftler vorweisen kann und wie oft er in anderen Arbeiten zitiert wird. Vielmehr sollten die gesellschaftlichen Auswirkungen einer Forschungsarbeit eine viel größere Rolle spielen.“

Zur offen Zugänglichkeit und Nachnutzung von Forschungsdaten unterstreicht der Rat in seinen „Conclusions“: „That research data originating from publicly funded research projects could be considered as a public good, and encourages the Member States, the Commission and stakeholders to set optimal reuse of research data as the point of departure, whilst recognising the needs for different access regimes because of Intellectual Property Rights, personal data protection and confidentiality, security concerns, as well as global economic competitiveness and other legitimate interests. Therefore, the underlying principle for the optimal reuse of research data should be: ‚as open as possible, as closed as necessary‘.“

Amsterdam Call for Action on Open Science

Amsterdam Call for Action on Open ScienceIn den „Conclusions“ werden auch einige Maßnahmen des lesenswerten „Amsterdam Call for Action on Open Science“ (PDF) aufgegriffen, der im April im Rahmen der niederländischen Ratspräsidentschaft veröffentlicht wurde.

Dieser „Call“ benennt zentrale Maßnahmen zur Förderung von Open Science auf. U. a. gibt es eine Aufforderung an die wissenschaftlichen Einrichtungen in Europa zukünftig auf Vertraulichkeitsvereinbarungen mit Verlagen zu verzichten.

Zur weiteren Begleitung des Prozesses hin zu Open Science hat Carlos Moedas, EU-Kommissar für Forschung, Wissenschaft und Innovation, Mitglieder für die „European Open Science Policy Platform“ (OSPP) nominiert (PDF).

European Open Science Cloud

Bereits am 26.5. hat der Rat „Conclusions“ zum „Digital Single Market“ veröffentlicht (PDF). In diesen wird u. a. die Bedeutung der „European Open Science Cloud“ (EOSC) betont. Mit Hilfe dieser „Europäische Dateninfrastruktur“ sollen Forschungsdaten „über Fachgebiete und Grenzen hinweg“ ausgetauscht werden können. Carlos Moedas, erklärte im April in einer Pressemitteilung das Anliegen der EOSC: „Unser Ziel ist die Schaffung einer Europäischen Cloud für offene Wissenschaft – einer zuverlässigen Umgebung, die es über Technologien, Fachgebiete und Grenzen hinweg Millionen von Forschern ermöglicht, Forschungsdaten auszutauschen und zu analysieren, um so die Effizienz und Produktivität in der Wissenschaft zu erhöhen. Wir haben den Appell der Wissenschaftler, eine Infrastruktur für offene Wissenschaft aufzubauen, gehört und einen umfangreichen Plan entwickelt, mit dem wir uns nun an die Arbeit machen können. Der Nutzen der offenen Daten für Europas Wissenschaft, Wirtschaft und Gesellschaft wird enorm sein.“

G7 –  Tsukuba Communiqué

Auch die G7-Wissenschaftsministerinnen und -minister befassten sich Mitte Mai im japanischen Tsukuba mit dem Thema Open Science. In dem dort verabschiedeten „Tsukuba Communiqué“ (PDF) heißt es: „We recognized a growing need to share common international principles for open science and to put these principles into practice through open access to scholarly publications and open data. Furthermore, we recognized the importance of stronger foundations for the support of open science, such as incentives for researchers and institutions, support systems and human resources. We recognize the need to promote access, taking into consideration privacy, security, and legitimate proprietary rights, and different legal and ethical regimes, as well as global economic competitiveness and other legitimate interests.“

Weiter kündigen die G7-Wissenschaftsministerinnen und -minister in dem „Communiqué“ die Einsetzung einer Arbeitsgruppe an, die sich u. a. mit Praktiken und Anreizen für Open Science befassen soll.

Passend zu diesen Entwicklungen hat die EU-Kommission am 27.5. das Zukunftskonzept  „Open Innovation, Open Science, Open to the World – a vision for Europe“ veröffentlicht – natürlich frei zugänglich (PDF).

 

Bildlizenzen: Heinz Pampel unter CC By 3.0