Digital Workplace Management

Die TREND-REPORT-Redaktion sprach mit Holger Fischer, Vertriebsleiter für den deutschsprachigen Raum bei Ivanti. Holger Fischer verfügt über mehr als 20 Jahre Führungserfahrung in verschiedenen Sales- und Marketingpositionen. Zuletzt war er Area Director EMEA Central bei LANDESK. Davor zeichnete er als Director Sales eines Mitbewerbers für den Vertrieb in Deutschland und Österreich verantwortlich. Für seine Tätigkeit als Vertriebschef bei Ivanti hat sich Holger Fischer zum Ziel gesetzt, die Marktposition des Softwareherstellers gemeinsam mit seinem Team kontinuierlich weiter auszubauen. Bereits in 2016 gelang es ihm, gemeinsam mit seinem Team bei LANDESK über 100 neue Kunden zu gewinnen.

Herr Fischer, was bedeutet für Sie der Digital Workspace?
Der Digital Workspace stellt den modernen IT-Arbeitsplatz dar, der den Mitarbeiter in den Fokus stellt und die wichtigsten IT-Trends unterstützt. Ivanti hat es sich zur Aufgabe gemacht, diesen Digital Workspace, der in erster Linie von den agilen Anforderungen und Methoden der heutigen Arbeitswelt geprägt wird, hoch automatisiert und sicher bereitzustellen. Dies wird durch unser umfangreiches und integriertes Lösungsportfolio erst möglich. Als einer der führenden UEM-Hersteller unterstützen wir nicht nur die Applikationsbereitstellung aller Plattformen und Gerätetypen, sondern setzen zusätzliche Schwerpunkte auf ITSM, Security, und Asset Management inklusive Lizenzmanagement.

Auf welche Erfahrungen kann Ivanti mit Blick auf das Thema Security-Solutions zurückgreifen?
Im Bereich Endpoint Security ist Ivanti zum Beispiel Marktführer für zentrales Patch Management – und das für Betriebssysteme und Third-Party-Anwendungen. Nach der Akquisition der Produkte Shavlik und kürzlich Lumension und PatchLink haben wir eine hohe Kundendichte in diesem Umfeld und können nicht nur alle Desktop-PCs patchen, sondern auch Server. Ergänzend zum Patch Management ist unsere Inventarisierungskompetenz eine wichtige Betriebskomponente, um autorisierte Soft- oder Hardware von unautorisierter Soft- oder Hardware zu unterscheiden und auf dieser Grundlage eventueller „Schadware“ im Unternehmen mit den richtigen Mitteln zu begegnen. Mit unseren Managementlösungen für Anwendungskontrolle und Administrationsrechte ergänzen wir die klassische Virenschutz-Software um die wichtigsten Instrumente. Dadurch versetzen wir IT-Abteilungen in die Lage, den Schutz des Unternehmens sicherzustellen und dabei gleichzeitig die Produktivität der Mitarbeiter zu unterstützen.

Was sind die Alleinstellungsmerkmale Ihrer Unified-Endpoint-Management(UEM)-Lösung?
Wir unterstützen und managen alle Client-Plattformen inklusive mobiler Geräte aus einer Lösung heraus und verzahnen UEM mit wichtigen Disziplinen wie zum Beispiel IT Service Management. Unser Ziel ist es, den Endanwender in den Mittelpunkt eines benutzerzentrierten Unified Endpoint Management zu stellen. Erst wenn der Mitarbeiter eines Unternehmens etwa den Migrationszeitpunkt für seinen Windows10-Rollout selbst bestimmen kann, ist sichergestellt, dass dieser ihn nicht in einem wichtigen Meeting überraschend ereilt, sondern die Migration von ihm als positive Erfahrung mit der IT erlebt wird. Moderne, flexible und mobile Mitarbeiter benötigen eine hohe Verfügbarkeit von IT-Services, die wir beispielsweise über einen Self-Service-Katalog ermöglichen. Und bei aller Agilität und Flexibilität von Anwendern ist es für Unternehmen extrem wichtig, Compliance-relevante Themen wie Lizenzmanagement für Endpoint- und Serversoftware direkt in die IT-Business-Prozesse zu integrieren. Gerade durch die Verzahnung von UEM mit den Bereichen ITSM, Security und Asset Management bieten wir ein einzigartiges Portfolio und lassen den Digital Workspace automatisiert und sicher werden. Diese direkte Verknüpfung von Sicherheitsaspekten und IT-Betrieb bezeichnen wir auch als Operational Security.

Mit integrierten Lösungen automatisiert und sichert Ivanti den Digital Workplace.

Welche strategische Ausrichtung steckt hinter Ihrem Merger?
Durch den Merger kommen die Talente von zwei etablierten Anbietern im Bereich Workplace Management zusammen und bündeln ihre Kompetenzen. Nachdem wir Jahre lang im Wettbewerb standen, können nun Entwickler und Produktstrategen an den gleichen Themen arbeiten und nach dem „Best-of-Both-Prinzip“ die Stabilität und Zukunftssicherheit all unserer Lösungen stärken. Wir arbeiten außerdem fortwährend daran, den dynamischen Entwicklungen des Marktes und den damit einhergehenden Anforderungen von Endanwendern und Unternehmen immer einen Schritt voraus zu sein, damit auch unsere Kunden ihre IT kontinuierlich weiterentwickeln und einen höheren Reifegrad erreichen können. Diesen Reifeprozess unterstützen wir mit Lösungen, die in allen drei Bereichen die notwendigen Automatisierungen anbieten: Discover, Provide Insight, Take Action.

Welche Potenziale sehen Sie für die Zukunft?
Wir sind heute schon der drittgrößte Anbieter von ITSM-Lösungen weltweit und wollen unsere Marktposition auch in den anderen Disziplinen rund um den Digital Workspace weiter ausbauen. Weltweit gesehen haben wir derzeit circa eine halbe Milliarde Umsatz und wollen unser Wachstum sowohl organisch als auch anorganisch weiter fortsetzen. Da hilft uns die Tatsache, dass die Komplexität in der IT stetig zunimmt und Unternehmen immer mehr vom Best-of-Breed-Ansatz zu integrierten Lösungen wechseln, um die Reibungsverluste bei Schnittstellenerstellung und –pflege zu vermeiden. Geschwindigkeit und Agilität werden immer mehr zum Gradmesser für den Erfolg von Unternehmen, und gerade dabei unterstützen wir unsere Kunden mit Lösungen, die ihnen helfen, ihre IT vom Service-Center zum Business-Treiber weiterzuentwickeln.

Holger Fischer, Area Vice President EMEA Central für den Vertrieb von Ivanti

Welche virtuellen Arbeitsplatztypen können sie ausrollen und welche Vorteile bringt die Bereitstellung aus der Cloud?
Desktop- oder Anwendungsvirtualisierungen werden durch die Technologie von Ivanti unterstützt, auch wenn wir selbst keine Virtualisierungslösung anbieten. Der Vorteil unserer Technologien ist der nahtlose Wechsel oder die gleichzeitige Benutzung von Geräten unterschiedlicher Plattformen (z.B. die simultane Nutzung von Notebook und ThinClient – mit genau denselben benutzerdefinierten Einstellungen und Daten). Desktops aus der Cloud sind hochgradig agil und gleichzeitig schnell bereitzustellen. Damit werden die Kosten für Bereitstellung- und Betrieb vorhersehbar und völlig transparent. Zentrale Vorgaben und Updates sind bei Cloud-basierten Arbeitsplätzen mit geringstem Aufwand realisierbar.

Welchen Rat geben Sie Unternehmen, die jetzt auf neue Software-Umgebungen migrieren?
Schritt für Schritt vorgehen! Das heißt, ein umfassendes Workplace-Konzept entwerfen, das kein Big-Bang-Upgrade erfordert, sondern den langsamen Wechsel von unterschiedlichen Benutzergruppen ermöglicht. Unternehmen sollten außerdem auf möglichst einheitliche Bereitstellungsmethoden für unterschiedliche Benutzer- und Gerätetypen achten. Die Austauschbarkeit der Workplace-Plattform wird in Zukunft immer wichtiger, um in der IT agil und damit wettbewerbsfähig zu bleiben. Wir empfehlen Unternehmen außerdem, eine zentrale Verwaltung ihrer Workplaces anzustreben. Dies ist vor allem in kritischen Business-Situationen wie zum Beispiel Fusionen, Akquisitionen, neuen Standorten oder bei In- bzw. Out-Sourcing von entscheidendem Vorteil.

Der Merger zwischen LANDESK und HEAT Software ist noch keine 100 Tage alt. In den letzten fünf Jahren kamen insgesamt acht unterschiedliche Unternehmen zusammen, die heute alle Ivanti heißen und unseren Kunden und Interessenten ein umfassendes Lösungsportfolio für die wichtigsten Herausforderungen der Arbeitsplatzbereitstellung bieten. Um die Fragen, die sich aus den Neuerungen und Veränderungen ergeben, zu beantworten, steht das Unternehmen jederzeit für den persönlichen Dialog zur Verfügung. Mit über 100 Mitarbeitern in der Region und 1.700 weltweit bietet Ivanti Unternehmen die nötige Schlagkraft, um Projekte rund um den Digital Workspace in großen Schritten voranzutreiben. Die CeBIT ist die ideale Gelegenheit, Ivanti besser kennenzulernen. In Halle 3, Stand E 06 stellt sich das Unternehmen vor.

 

www.ivanti.de/de-DE/

Ivanti erstmals mit neuem Namen auf der CeBIT 2017

Discover – Provide Insight – Take Action.

Mit diesem Dreiklang präsentiert Ivanti auf der CeBIT 2017 sein komplettes Lösungsportfolio, mit dem Unternehmen die Bereiche  IT Service Management, Asset Management, Unified Endpoint Management und Security ganzheitlich adressieren können.

Im Zuge der Digitalisierung gewinnt die IT in Unternehmen einen immer größeren Stellenwert und mausert sich von der bloßen Serviceabteilung zum Katalysator für den Geschäftserfolg. Innovative IT-Lösungen sorgen dafür, dass Prozesse automatisiert und dadurch schlanker, effizienter und sicherer werden. Dies setzt Ressourcen frei, die an anderer Stelle genutzt werden können. Für die Mitarbeiter im Unternehmen wird die IT darüber hinaus zum Garant für Flexibilität und Mobilität, wie sie die heutige Arbeitswelt erfordert.

Ivanti ist im Januar aus dem Zusammenschluss von HEAT Software und LANDESK entstanden und präsentiert sich auf der CeBIT erstmals in neuem Gewand. In Halle 03, Stand E06 stellt der Softwarehersteller die komplette Bandbreite seiner Lösungen vor, mit denen Unternehmen sämtliche IT-Management- und IT-Security-Aufgaben aus einer Hand adressieren können.

 

Besuchen Sie Ivanti vom 20. – 24. März 2017 auf der CeBIT 2017

 

Discover, Provide Insight, Take Action

„Mit Hilfe unserer Lösungen können Unternehmen beispielsweise alle IT-Assets in ihrem Netzwerk inventarisieren. Integrierte Dashboards liefern Einblick in den jeweiligen Status der IT-Umgebung oder den Fortschritt von Updates oder Deployments“, erklärt Holger Fischer, der als Area Vice President EMEA Central für den Vertrieb von Ivanti im deutschsprachigen Raum verantwortlich zeichnet. „Die so gewonnene Transparenz ist für IT-Verantwortliche entscheidend, um proaktiv agieren und im richtigen Moment die richtigen Maßnahmen ergreifen zu können. Genau das ist mit Discover, Provide Insight und Take Action gemeint“, so Fischer weiter.

Keynote zum Thema Operational Security

Auch im Bereich Security hat Ivanti durch die Zusammenführung der Lösungen, Expertise und Talente von HEAT Software und LANDESK sowie sechs weiteren Unternehmen in den letzten fünf Jahren eine beispiellose Produkttiefe erlangt.
Im Rahmen der CeBIT-Veranstaltungsreihe Business Security Stage erklärt
Bernhard Steiner, Director PreSales EMEA Central von Ivanti, warum Unternehmen Sicherheitsaspekte direkt innerhalb des IT-Betriebs verankern sollten und wie durch Automatisierung bereits beim Ausrollen von Software und Konfigurationen sichere Grundlagen geschaffen werden. Die Keynote mit dem Titel „Effektiver Schutz des IT-Betriebs durch Operational Security“ findet am Montag, von 11:30 – 12:00 Uhr in Halle 6, an Stand J48 statt.

Besuchen Sie Ivanti auf der CeBIT

„Uns ist bewusst“, so Holger Fischer, „dass durch die vielen Neuerungen und Veränderungen natürlich auch Fragen offenbleiben. Deshalb möchten wir Kunden und Interessenten ganz herzlich einladen, auf der CeBIT persönlich mit uns in Dialog zu treten. Die CeBIT ist die ideale Gelegenheit, um Ivanti kennenzulernen. Und ganz nebenbei finden Interessierte bei uns auch Antworten auf die drängendsten Fragen zum Thema Ransomware, Windows-10-Migration oder Software-Audits.“

Ivanti und seine Mitarbeiter stehen bereit für Sie:

Vom 20. – 24. März 2017 auf der CeBIT 2017 in Halle 3, Stand E06 und Halle 6, Stand J48.

Weiterführende Informationen zum Unternehmen Ivanti

Weiterführende Informationen zur CeBIT

Interaktiver Gelände- und Hallenplan

 

Aufmacherbild / Lizenz / Quelle:
http://www.cebit.de/de/teilnahme-planung/fuer-journalisten/bilddatenbank/

 

Vom E-Learning zur digitalen Transformation der Weiterbildung

Gastbeitrag von Wolfgang Hanfstein, Pink University

E-Learning war lange Zeit das ungeliebte Stiefkind der betrieblichen Weiterbildung. Auch heute noch werden viele Mitarbeiter mit E-Learnings eher bedroht als gefördert. Das liegt vor allem an den nicht ganz zu Unrecht als „Klickmaschinen“ verspotteten WBTs, den Web Based Trainings. Doch die aus dem Web 1.0-Zeitalter stammenden Relikte werden zunehmend ersetzt durch multimediale, videobasierte Lernmedien, die sich anschicken, Präsenztrainings überflüssig zu machen.

Schnell durch Technik

Technikgestütztes Lernen kann inzwischen auf eine lange Tradition zurückblicken. Einen großen Schub erhielt das Thema mit der Durchsetzung von Computern zunächst im Unternehmensumfeld und dann immer mehr auch im Massenmarkt. „CBTs“, also Computer Based Trainings, nutzten die technischen Möglichkeiten, um Inhalte zu vermitteln und vor allem automatische Lernkontrollen zu installieren. Das brachte den Unternehmen zunächst im Bereich der Mandatory Trainings (Sicherheit, Compliance, Regulatorik …) große Effizienzgewinne. Mit der Verbreitung des Internets wurden aus den CBTs dann schnell WBTs. Noch schnellere Distribution der Schulungen, noch einfachere Änderungs- und Aktualisierungsmöglichkeiten, noch schnelleres Ergebnisfeedback.

Wissen abfragen und Kompetenz aufbauen sind zweierlei

Der Fokus auf die Ergebniskontrolle erwies sich aber sehr schnell als zweischneidiges Schwert. Zwar konnten Unternehmen jetzt relativ schnell und einfach nachweisen, dass ihre Mitarbeiter gesetzlich vorgeschriebene Schulungsmaßnahmen absolviert hatten. Auf der anderen Seite blieb den Mitarbeitern diese Ergebnisorientierung auch nicht verborgen. Sie setzten sich deshalb weniger mit den Inhalten auseinander, sondern versuchten viel mehr, die ungeliebten WBTs so schnell wie möglich hinter sich zu bringen. Kompetenzentwicklung ist so nicht zu haben.

Die Innovation kommt nicht aus F&E sondern aus dem Wohnzimmer

Heute stehen die Unternehmen unter Zugzwang. Besonders im Bereich der Kommunikation und des Lernens kommen die Innovationen nicht mehr aus den Unternehmen. Statt dessen bringen die Mitarbeiter ihre digitalen Konsumentenerfahrungen und zum Teil auch die Devices in die Unternehmen mit – und erwarten dort im Hinblick auf Hardware, Software und User Experience die gleich hohe Qualität, die sie von ihrer privaten Webnutzung kennen. Das hat besonders im Bereich des betrieblichen Lernens erhebliche Konsequenzen, denn Mitarbeiter, die sich privat mit Online-Videos und Tutorials neue Fertigkeiten aneignen, erwarten auch im Unternehmen im Sinne der Lerner hochwertige und sofort verfügbare Wissensressourcen.

Es geht darum, Lernerfahrungen zu ermöglichen

In der betrieblichen Aus- und Weiterbildung sind vor allem zwei Bereiche betroffen: Die Systeme für die Bereitstellung von Lerninhalten und die Lerninhalte selbst. Noch heute sind viele Lern-Management-Systeme, also die Systeme, in denen Mitarbeiter „E-Learnings“ finden und bearbeiten, Lichtjahre hinter Consumer-Anwendungen zurück. Immer noch dominieren Systeme, die in unendlich untergliederten Ordnersystemen auf einzelne Elemente verweisen. Standard heute muss es aber sein, durch intuitive Userinterfaces positive Lernerfahrungen zu ermöglichen.

Interaktion statt Dokumentation

Grund die Rückständigkeit der Lern-Management-Systeme ist deren Entwicklungsgeschichte. Sie wurden zunächst für die Verwaltung von Präsenzveranstaltungen, für die Zuweisung von WBTs und für die Dokumentation der Lerner und der Lernhistorien gebraucht – und sind entsprechend organisiert und strukturiert. Die Herausforderung derzeit besteht darin, Lernumgebungen oder „Lernwelten“ zu schaffen, die all diese Features innerhalb eines nutzerfreundlichen Kontextes integrieren und darüber hinaus vielfältige Rückkopplungs- und Vernetzungsangebote schaffen: Für die Kommunikation der Lernenden untereinander, für die Kommunikation der Lernenden mit Tutoren und auch für die Interaktion mit den Lerninhalten. Also weg von der Organisation des Lernens hin zum Lernen selbst.

Lernressourcen plattformübergreifend nutzen

Ein zukunftsweisendes Lernmanagementsystem erinnert deshalb weniger an Systeme wie Windows XP sondern vielmehr an Consumer-Angebote wie Spotify oder Facebook. Damit einher geht die Anforderung an die von Endgeräten unabhängige Nutzung. Das heißt, die Lernwelt muss nicht nur mit dem Bürorechner erreichbar sein, sondern bei Bedarf auch mit dem Smartphone und dem Tablet. Und mehr noch müssen die Lernwelten offen sein für die Integration, Verarbeitung und Auswertung für Lernressourcen, die außerhalb des LMS im World Wide Web liegen. Mit der Tin CAN API sind die technischen Voraussetzungen bereits geschaffen, um diese Ressourcenvielfalt auch organisatorisch abzubilden. Bis der derzeitige SCORM Standard aber abgelöst wird, dürfte es noch lange dauern.

Videobasierte Schulungsmedien öffnen neue Wege

Auch im Bereich der Lerninhalte tut sich vieles – und muss sich noch vieles tun. Wichtige Impulse kamen im Lauf der letzten zehn Jahre aus branchenfernen Unternehmen und Start-ups, die für die Vermittlung und den Aufbau von Wissen schwerpunktmäßig auf Video setzen. Dazu gehören Player wie Udemy und Udacity aus den USA oder Pink University und Lecturio aus Deutschland. Mit videobasierten Formaten ist es zum ersten Mal möglich, Online-Lernmedien zur selbstgesteuerten Kompetenzentwicklung zu nutzen. Und damit rücken erstmals Online-Trainings als Alternative oder gar als Ersatz für Präsenztrainings in den Blickpunkt. Unter dem Stichwort „Digitale Transformation der Weiterbildung“ wird derzeit in vielen großen Unternehmen die betriebliche Aus- und Weiterbildung von Grund auf neu konzipiert. E-Learning ist jetzt nicht mehr ein additives Format zum Präsenzlehrgang, sondern zentraler Bestandteil des Lernprozesses, eingebettet in eine komfortable Lernwelt.

How-to geht auch im Self-Made-Modus

Ein Bereich, der mit Autorentools und einfachen Erklärfilmen schon jetzt sehr gut abgedeckt ist, ist der Bereich „How-to“, also Videos, die ganz konkrete Anleitungen und Handlungsempfehlungen geben. Hier kommen vom selbstgedrehten Video per Smartphone bis zur Studioproduktion alle Medien in Frage – und es muss nicht immer Video sein – manchmal reicht auch eine einfache, schnell zu erfassende Skizze oder Darstellungen als pdf. Schwerpunkt dieser Medien ist die schnelle Hilfe bei Fragen und die Unterstützung bei der täglichen Arbeit, sogenannter Performance Support. Inwiefern hier kollaborativ angelegte Wissensdatenbanken entstehen können und wie sinnvoll sie wären, hängt auch von den rechtlichen Konsequenzen und Rahmenbedingungen ab. Von nutzergesteuertem, unkontrollierten Upload von How-to-Videos ist in betrieblichen Kontexten auf jeden Fall abzuraten.

Kompetenzentwicklung erfordert Brain

Ganz anders sieht es aus, wenn mit den digitalen Lernmedien Wissen aufgebaut und nachhaltig verankert werden soll oder wenn sie zur selbstgesteuerten Kompetenzentwicklung eingesetzt werden sollen. Zwar bieten viele LMS- und auch externe Anbieter heute sogenannte Autorentools – das Problem ist hier aber weniger die Technik, als vielmehr das „Brain“. Mit anderen Worten: Die Erstellung von Lernmedien ist im Kern eine „analoge“, nicht digitalisierbare Arbeit. Um zum Beispiel ein Präsenztraining zum Thema „Umgang mit Konflikten“ in ein Online-Format umzuwandeln, muss das Thema von Grund auf entwickelt und neu konzipiert werden. Schauspielszenen zur Veranschaulichung und zur Dramatisierung wären hier ein Muss, ebenso wie interaktive Elemente, um die eigene Konfliktfähigkeit zu testen und zu verbessern. All das muss so „verpackt“ werden, dass es in den unterschiedlichsten LMS problemlos ausgespielt werden kann. Für die Transformation eines Präsenztrainings sind deshalb eine Vielzahl von Gewerken nötig – vom Redakteur über den Kameramann bis zum Instructional Designer. Aber die Investitionen lohnen sich, denn der Hebel ist gewaltig. Je nach Anzahl der Teilnehmer ist der ROI eines „transformierten“ Trainings bereits nach wenigen Wochen erreicht.

„Sofort“ ist eine lernförderliche Kategorie

Im Bereich der Entwicklung von Online Schulungsmedien für nachhaltiges Lernen sind in den nächsten Jahren deshalbs erhebliche Investitionen seitens der Unternehmen zu erwarten. Auch, weil Online-Medien bezogen auf den Lerneffekt einen weiteren entscheidenden Vorteil haben: sie stehen immer zur Verfügung. Das ist so entscheidend, weil der einzige wirklich relevante Lernmotivator der Lernbedarf ist. Je schneller die Mitarbeiter am „Point of Need“ Lernmedien zur Verfügung haben, desto größer der Lernerfolg. Dass „sofort“ eine entscheidende Kategorie ist, hat Amazon schon lange erkannt. Auch die HR-Abteilungen kommen um diese Erkenntnis nicht herum.

Weitere Informationen unter:
http://www.pinkuniversity.de/

Über den Autor

Wolfgang Hanfstein leitet den Bereich Corporate Digital Learning der Pink University. Die Pink University ist spezialisiert auf die Herstellung von Standard-E-Learnings für die Mitarbeiterentwicklung und die Herstellung hochwertiger Individualproduktionen. In seinem Gastbeitrag zeigt er auf, was die Transformation der Weiterbildung bedeutet und zeigt die Technologien, die „State-of-the-Art“ sind.

Dauerhaftes Zinstief: Wie Sparer trotzdem hohe Renditen erwirtschaften

– ANZEIGE – Die Europäische Zentralbank (EZB) sorgt durch den dauerhaft niedrigen Leitzins dafür, dass Sparer auf den Kapitalmärkten das Nachsehen haben. Obwohl das Kreditinstitut beteuert, damit nur eine zum Ziel gesetzte Inflation von rund 2 % erreichen zu wollen, haben Fachleute einen ganz anderen Verdacht: Durch die Geldschwemme der EZB würde aktive Wirtschaftspolitik betrieben – womit die Kompetenz der Bank eigentlich überschritten wäre. Das Jahresgutachten der Wirtschaftsweisen sieht sogar die Finanzmarktstabilität als solches gefährdet. In jedem Fall sind sich Ökonomen allerdings einig darüber, dass der aktuell niedrige Zinssatz sich kurzfristig kaum erholen wird. Sparer sind deshalb dazu gezwungen, nach renditestarken und gleichzeitig sicheren Alternativen zu suchen.

Investition in Sachwerte erscheint ratsam

Finanzfachleute wie Markus Zschaber, Chef der V.M.Z. Vermögensverwaltung, empfiehlt die Investition in Sachwerte wie Aktien, wenn mit konventionellen Kapitalanlagen keine angemessenen Zinsen mehr erzielt werden. Tatsächlich hängt deren Kursentwicklung vom wirtschaftlichen Werdegang des Unternehmens ab – und ist damit von der generellen Zinsentwicklung am Kapitalmarkt vollkommen abgekoppelt. Denn anders als die Zinsentwicklung verlaufen die Wachstumszyklen in der Weltwirtschaft vollkommen normal, sodass auch die üblichen Renditen zu erwarten wären.

Tages- und Festgeld: Auch künftig nur schmale Rendite zu erwarten

Auch die Deutsche Bank stellt ihre Kunden darauf ein, dass konventionelle Anlagen wie Tages- oder Festgeld nicht mehr die erhofften Zinsen lieferten. Stattdessen empfiehlt das Unternehmen den Anlegern, sich Anleihen mit hoher Rendite zu suchen. Darunter fallen nicht nur Staaten, die dringend Fremdkapital benötigen, sondern auch Unternehmen. Der Vorteil von Anleihen gegenüber konventionellen Wertpapieren: Wie bei Festgeld ist die Verzinsung festgeschrieben, sodass der Kapitalgeber sich auf planbare Erträge verlassen kann. Voraussetzung hierfür ist natürlich, dass der Kreditnehmer, der sogenannte Emittent, auch zahlungsfähig bleibt. Der Maßstab für die Rendite ist also in diesem Fall die Kreditwürdigkeit des Emittenten – wodurch sich wieder einmal recht deutlich der Zusammenhang zwischen Erträgen und Risiken zeigt. Experten raten auch hier zu einer breiten Streuung des Portfolios, um die Risiken zu minimieren. Als besonders sicher gelten derzeit Anleihen aus Deutschland, dafür müssen Anleger sogar einen negativen Zins in Kauf nehmen – selbst in Zeiten der historisch Niedrigzinsen erscheint das als schlechte Wahl.

Deutsche Bank kombiniert unterschiedliche Finanzprodukte

Eine Möglichkeit der Streuung eigener Investitionen liegt in einem interessanten Kombi-Angebot der Deutschen Bank: Kombiniert werden hier Fonds und planbare Zinsanlagen wie beispielsweise Festgeld oder Anleihen. Gegenüber konventionellen Sparanlagen liegt der Zinssatz deutlich höher, gleichzeitig erscheint das Risiko kalkulierbar. In Anbetracht der Verlustmöglichkeit wäre es auch keinesfalls ratsam, das gesamte Kapital in Investmentfonds anzulegen. Die Deutsche Bank senkt dieses Risiko durch das Angebot von sogenannten Multi-Asset-Fonds, bei denen verschiedene Anlageklassen und Wertpapiere gemischt werden. Dadurch erfolgt eine breite Risikostreuung, sodass eventuelle Schwankungen in einzelnen Anlageklassen aufgefangen werden. Diese Kompensation des Risikos sorgt dafür, dass solche Geldanlagen auch beispielsweise für die Altersvorsorge als durchaus ratsam einzustufen sind.

Investitionen in Immobilien sinnvoll

Weiterhin gibt es Kreditinstitut zu bedenken, dass insbesondere in Zeiten eines niedrigen Zinsumfeldes auch die Investition in der sogenannte „Betongold“ eine ausgezeichnete Alternative darstellen kann: Wer neben den eigenen vier Wänden noch in weitere Immobilien investiert, kann auf ganz andere Weise von den niedrigen Zinsen profitieren. Denn während der Wert der Investition je nach Region ganz erheblich steigen kann, ist eine Finanzierung preiswert möglich. Zudem sorgen beispielsweise Mieteinnahmen von Bürohäusern für kalkulierbare Einkünfte. Die Bank rät aber auch in diesem Zusammenhang zu einer Streuung des Risikos. Denn wie hoch die zu erzielenden Mieteinnahmen sind ist insbesondere bei Gewerbeimmobilien abhängig von der Konjunktur. Ratsam erscheint es deshalb, auch hier eine breite Streuung vorzunehmen und sowohl in verschiedenen Regionen wie auch Nutzungsart zu investieren. Immobilienfonds erlauben sogar dann eine Investition, wenn kaum Kapital vorhanden ist. Der Online-Ratgeber der Deutschen Bank informiert umfangreich über Anlagestrategien, mit der sich die aktuelle Zinsperiode meistern lässt.

Baugeld: Lange Zinsbindung vereinbaren

Wer allerdings kein überschüssiges Kapital investiert, sollte so gut es geht von den niedrigen Zinsen profitieren – und sich diese Konditionen so lange wie möglich sichern. Konkret bedeutet dies, dass bei sämtlichen Kreditverträgen eine möglichst langfristige Zinsbindung vereinbart werden sollte. Fachleute gehen davon aus, dass Immobilienkredite in zehn Jahren kaum zu vergleichbaren Zinsen abgeschossen werden können. Bei den meisten Darlehen für den Hausherrn ist eine Umschuldung nach zehn Jahren allerdings üblich. Wer also derzeit den Bau eines Hauses oder den Kauf einer Eigentumswohnung plant, sollte eine Laufzeit von mindestens 20 Jahren vereinbaren – selbst wenn der Zinssatz dann etwas höher ausfällt. Ebenso könnte es sinnvoll sein, bestehende Ratenkredite um zu schulden, sofern die Verträge eine sofortige Ablöse zulassen. Am Ende beweisen die Finanzexperten der Deutschen Bank: Auch ein eigentlich für Sparer ungünstiges Zinsumfeld lässt sich zum eigenen Vorteil nutzen.

Weitere Informationen:
http://www.faz.net/aktuell/wirtschaft/wirtschaftspolitik/sachverstaendigenrat-kritisiert-ezb-14507550.html
https://www.welt.de/finanzen/geldanlage/article132269956/Warum-Aktien-derzeit-eine-gute-Wahl-sind.html

 

Bildquelle / Lizenz: https://pixabay.com/de/euro-scheine-geld-finanzen-870757/; veröffentlicht unter CC0

DevOps – Teil einer nachhaltigen Geschäftsstrategie

Der DevOps-Evangelist bei CloudBees, Brian Dawson, erläutert im Interview, warum DevOps keine Modeerscheinung ist, sondern Teil einer langfristigen und nachhaltigen Geschäftsstrategie!

Ist DevOps eher eine Technologie oder ein Ansatz?

Bereits seit den frühesten Anfängen von DevOps debattiert man darüber, was DevOps eigentlich ist. In den letzten Jahren beobachten wir, dass es einen wachsenden Konsens darüber gibt, dass DevOps in erster Linie eine Organisationskultur darstellt.

Das bedeutet, dass die DevOp-Kultur auf einer Reihe von Prinzipien basiert, die Unternehmen zunächst anstreben, um sich schließlich daran zu halten. Es handelt sich um einen fortwährenden Prozess und Unternehmen, die sich diese Kultur zu Eigen machen, stehen in der Regel den Aspekten Zusammenarbeit, Experimentier- und Lernprozessen positiv gegenüber. Alle Beteiligtendes Software Delivery Lifecycles (nicht nur Entwicklung und Betrieb) verpflichten sich dem Ziel einer schnellen Bereitstellung stabiler, qualitativ hochwertiger Software vom Anfang bis zur finalen Auslieferung an den Kunden.

Im Hinblick auf den technologischen Charakter, welcher in einer Unternehmenskultur nicht direkt erkennbar ist, lässt sich sagen, dass die Automatisierung der Software-Entwicklung, das Testen und die Bereitstellung durch Continuous Delivery weitgehend als die Wegbereiter für DevOps anerkannt sind. Mit Hilfe von Continuous Delivery sind Unternehmen in der Lage, Software schneller zu liefern, bei gleichzeitiger Sicherstellung des Einsatzes vertrauter Komponenten, was den Kunden die erforderliche Qualität, Stabilität und Sicherheit garantiert.

Was bringt DevOps für den Unternehmer in Zeiten der Digitalisierung?

Die Digitalisierung stellt sich als ein Thema für Unternehmen dar, dessen Einfluss sich in den unterschiedlichsten Ausprägungen zeigt und auch zukünftig noch zeigen wird.
In Bezug auf das Thema DevOps stellen wir fest, dass diese Entwicklung mehr und mehr Best Practice für die Softwareentwicklung wird. Folgen Unternehmen den DevOps-Prinzipien wird sich das in Form der Erreichung signifikanter Wettbewerbsvorteile auszahlen, wie beispielsweise die schnellere Realisierung von Innovationen.

Durch die Annahme einer DevOps-Kultur haben diese Unternehmen alle Beteiligten
– von den Entwicklungs- und Operations-Teams bis hin zum Management und
darüber hinaus –  auf das gemeinsame Ziel ausgerichtet, qualitativ hochwertige Software schnell und zuverlässig zu liefern.

Wenn man sich Unternehmen wie Netflix, Amazon oder auch Facebook anschaut, so kann man an diesen prominenten Beispielen sehr gut sehen, inwieweit sich die Verinnerlichung der DevOps-Prinzipien auszahlen und die Teams befähigen, hochwertige Qualitäts-Software schneller zu liefern, was zu Wettbewerbsvorteilen aber auch wichtigen Differenzierungsmerkmalen führt.
In Zeiten der Digitalisierung sind genau diese Punkte wesentliche Aspekte, um sich bei der Vielzahl an Angeboten, die auf jedem Markt herrschen, hervorzuheben. DevOps hat bewiesener Maßen das Potential ganze Wirtschaftszweige zu verändern und auf ein neues Level zu bringen. Siehe hierzu das oben genannte Beispiel des UnternehmensNetflix und dessen Einfluss auf die Kabel- und TV-Industrie.

 

DevOps vereint zwei IT-Bereiche: Development und Administration/Operations. Doch Produktivität, kann sich erst dann entfalten, wenn Verantwortliche beider Bereiche miteinander kommunizieren und zusammen arbeiten.

Wer profitiert von DevOps?

Unternehmen, deren Ziel es ist, qualitativ hochwertige Software zu liefern, kommen an einer näheren Beschäftigung mit DevOps nicht vorbei. Dazu gehört aus meiner Sicht ebenso der Einsatz von Continuous Delivery, was die kontinuierliche Erstellung, das Testen und die schlussendliche Bereitstellung von Software mit häufigen, inkrementellen Versionen ermöglicht.

Ein anderer Aspekt, der nicht weniger wichtig ist, ist die organisatorische und soziale Sichtweise. Viele Software-Unternehmen haben leider das Problem, dass ihre Mitarbeiter sich auf „Feuerwehr-Einsätzen“ befinden und damit keine effiziente und produktive Arbeitsweise ermöglicht werden kann. Dies führt häufig zu Demotivation und kann nicht im Sinne eines Unternehmens sein.

Agile Methoden und Continuous Delivery Verfahren schaffen hier Abhilfe und stärken die Zufriedenheit aller am Entwicklungsprozess beteiligten Mitarbeiter.
Selbst die Employer-Brand, also die Arbeitgebermarke, erhält durch die Verwendung moderner Praktiken einen starken positiven Anstrich bei der jeweiligen Zielgruppe. Mitarbeiter müssen keine mühevollen Aufgaben mehr von Hand erledigen, sondern können sich den wirklich wichtigen Themen widmen und das Unternehmen mit neuen Innovationen nach vorne bringen.Und genau das ist es, was am Ende zählt.

 

Wie ist Ihre Einschätzung zum Thema DevOps – wird dieses Thema dauerhaft von Nöten sein oder ist es nur eine Modeerscheinung?

In Zeiten der Digitalisierung haben wir gefühlt kontinuierlich mit neuen Entwicklungen zu tun, jedoch stellen sich viele von diesen langfristig nicht als nachhaltig heraus. Wir müssen für die Relevanz von DevOps nur unser eigenes Konsumverhalten betrachten. Die Art und Weise wie wir heute Software kaufen und auch verwenden hat sich in den letzten Jahren geändert. Wir alle erwarten Apps, die kontinuierlich optimiert werden und Unternehmen vertrauen heute auf Webseiten als einen der stärksten Vertriebskanäle für ihr Business.

Office-Anwendungen zum Beispiel haben als eingeschweißte Version nahezu ausgedient. Unternehmen kaufen diese mehrheitlich nur noch über die Webseite und laden sich ihre benötigte Version herunter. Aus diesem Grund musste sich die Software wandeln, von einem schwergewichtigen Wasserfall-Prozess hin zu den agilen Methoden und Continuous Delivery Verfahren, auf denen DevOps basiert.

Die Themen Agilität und Flexibilität sind Themen, die alle Unternehmen, die erfolgreich und langfristig am Markt sein wollen, in ihre Unternehmens-DNA verinnerlichen sollten. Das beweist das DevOps keine Modeerscheinung ist, sondern Teil einer langfristigen und nachhaltigen Geschäftsstrategie. Schaut man sich in der Industrie um, wird man feststellen, dass nicht alle über die gleiche Sache sprechen, wenn es um das Thema DevOps geht.

DevOps kann nicht „gemacht werden“ oder mit einer Software und einem Klick in das Unternehmen implementiert werden. Ziel muss es sein, dass sich eine konsistente Definition von DevOps durchsetzt, um den Ziel der Agilität und Flexibilität näher zu kommen und damit schlussendlich den Bedürfnissen der Entwicklerteams und Endanwender im höchsten Maße gerecht zu werden.

 

 

 

Ausblick

DevOps wird uns noch lange beschäftigen, weil das Streben nach effizienten und produktiven Prozessen nicht weniger wird, sondern sich immer weiter verstärkt. Um relevant zu bleiben oder nicht die Vorteile dieser Entwicklung zu verpassen, sind Unternehmen gut darin beraten, sich schnellstens mit dieser Thematik auseinanderzusetzen, um entweder mit dem Wettbewerb gleichzuziehen oder durch entstehende Innovationen zu überholen. Entwickler-Teams wollen ihre Unternehmen voranbringen und etwas Neues erschaffen. Dafür benötigen sie den nötigen Freiraum und die nötige Sicherheit, nicht von Brand zu Brand hechten zu müssen.

 

 

CloudBees

 

 

Bild / Quelle / Lizenz:
Aufmacherbild: Copyright, Brian Dawson, CloudBees

Beitragsbild:
This file is licensed under the Creative Commons Attribution-Share Alike 4.0 International license.

IoT in den Unternehmen bleibt auch 2017 auf Kurs

Dies ist ein Gastbeitrag von Lis Strenger, Senior Product Marketing Manager IoT bei Red Hat

Im Jahr 2015 führte Red Hat erstmals eine Studie zum Einsatz von IoT in Unternehmen durch und kam zum Schluss, dass sich der Einsatz von IoT in Unternehmen am besten mit dem Adjektiv „wohlüberlegt“ beschreiben lässt. Zwei Jahre später, im Januar 2017, hat sich an dieser grundsätzlichen Einstellung der Firmen wenig geändert, denn es wird ganz bewusst investiert. Das belegt eine Umfrage, die das Marktforschungsunternehmen TechValidate im Auftrag von Red Hat unter 200 IT-Entscheidern und -Fachleuten aus den unterschiedlichsten großen Unternehmen durchführte. Auch wenn das Interesse an IoT zugenommen hat, zeigt die Studie, dass die tatsächlichen Rollouts eher dem in der Unternehmens-IT verbreiteten Motto der „reiflichen Überlegung“ folgen.

Für 55 Prozent der Befragten ist IoT wichtig für ihr Unternehmen; das entspricht einem Anstieg um 12 Prozent gegenüber 2015. Auch wenn die Unternehmen die Bedeutung erkennen, haben dennoch erst weniger als ein Viertel der Befragten tatsächlich ein IoT-Projekt geplant, einen Prototypen entworfen oder ein Projekt umgesetzt.
Im Hinblick auf den Technologiemix setzt der überwältigende Teil der Befragten (89 Prozent) in IoT-Projekten auf Open Source. Middleware ist für 22 Prozent einer der wichtigsten Bestandteile des dazu eingesetzten Softwarespektrums. Das verdeutlicht, wie wichtig diese Technologien für die IoT-Integration in die vorhandene Unternehmenslandschaft sind.

Über die Technologie hinaus betonten die Befragten auch, dass Partner eine bedeutende Rolle bei der Umsetzung von IoT-Projekten spielen. Als wichtige Kooperationspartner für eine erfolgreiche Umsetzung von Projekten wurden Systemintegratoren (43 Prozent), IoT-Plattformanbieter (43 Prozent) und Kommunikationsspezialisten (31 Prozent) genannt. Für die große Mehrheit der Befragten (58 Prozent) bietet IoT eine Möglichkeit, neue Marktpotenziale zu erschließen, anstatt nur vorhandene Prozesse effizienter zu gestalten.

Was aber bedeuten die Antworten der Befragten bezüglich möglicher Entwicklungen für IoT in den Unternehmen im Jahr 2017? Wir denken, dass sich die Prognosen aus dem Jahr 2015 bewahrheiten: Unternehmen gehen wohlüberlegt beim Einsatz neuer Technologien vor – und IoT bildet da keine Ausnahme. Open Source befindet sich in einer guten Ausgangsposition, um zur dominierenden Technologie zu werden und Partner sind für den Projekterfolg entscheidend. Nicht zuletzt interessieren sich Unternehmen für IoT, um damit neue Umsatzpotenziale zu erschließen und nicht, um Kosten zu senken oder ihre vorhandenen Technologien weiter auszubauen.

Weitere Informationen unter:
www.redhat.com

Bildquelle / Lizenz:

Docker im Hinblick auf DevOps

Definition DevOps

Für die Definition des Begriffs DevOps werden unterschiedliche Definitionen benannt, die jedoch selbe Ziele verfolgen. DevOps beschreibt prinzipiell den Ansatz der Zusammenführung zweier Begrifflichkeit bzw. Abteilungen, die innerhalb der zunehmenden Vernetzung in prozessgetriebenen Unternehmen immer mehr verschmelzen. Dieser setzt sich aus der Softwareentwicklung (dem Development) und der Systemadministration (den Operations) zusammen. Hintergrund ist die steigende Notwendigkeit, den immer kürzer werdenden Entwicklungszyklen innerhalb der Softwareentwicklung bei gleichzeitiger Erhaltung des Qualitätsstandards gerecht zu werden.[3]

DevOps wird häufig in Zusammenhang mit agiler Softwareentwicklung gebracht, die einen Wandel innerhalb der Art und Weise der Software Entwicklung darstellt. Der Begriff beschreibt jedoch auch Veränderungen innerhalb der Unternehmenskultur sowie der Rollenverteilung bzw. den Deployment Chains, die durch diesen Ansatz resultieren [4].
Mit Deployment Chains wird ein Deploymentzyklus beschrieben, der alle notwendigen Schritte von der Anforderungsdefinition bis hin zum Deployment in das Produktivsystem beinhaltet.

Der entstehende Zielkonflikt innerhalb der Zusammenführung beider Abteilungen wurde vom belgischen Systemadministrator Patrick Debois erkannt, der durch grundlegende Ansätze und Maßnahmen den Grundstein für die 2009 erstmalig stattfindende DevOpsDays-Konferenz in Ghent legte. Hier wurden grundlegende Anregungen erstmalig öffentlich geäußert.

Zusammenfassend versucht der Ansatz von DevOps, entstehende Zielkonflikte innerhalb der Zusammenführung von Entwicklung (Development) und Administration (Operations) zu lösen, und stellt hierfür Anregungen und Tools zur Verfügung.

Ziele von DevOps:

  • effektivere Zusammenarbeit zwischen Development, Operations und dem Qualitätsmanagement
  • Erhöhung der Softwarequalität, durch Nutzung von Dev-Ops Tools wie z.B. Docker oder Vagrant, oder auch automatisierter Tests (Erfüllung hoher Sicherheitsstandards, Funktionalität und Usability) [7]
  • Erhöhung der Geschwindigkeit innerhalb der Entwicklung, begünstig durch Tools wie z.B. Docker, sowie automatisierte Build und Deployment-Prozesse durch z.B. Jenkins
    • Basic Development (Deployment von Neu-Code)
    • Deploying Code in Production [8]
  • Minimieren der Komplexität innerhalb des Deployments und der Builds durch bereits definierte DevOps-Tools [9]
Bild:DevOps life cycle processes small.png

Abb. 1 Prozesse innerhalb des DevOps Lebenszyklus

 

Definition Docker

Docker wurde erstmalig im März 2013 im Hause dotCloud veröffentlicht. Docker macht es möglich, Anwendungen in Containern zu betreiben und damit voneinander zu kapseln.
Während dies grundsätzlich auch mit jeder beliebigen Virtualisierungstechnologie (VMWare, KVM, Hyper-V) möglich ist, so bringt Docker entscheidende Vorteile mit.

Virtualisierungen in Virtual Machines (VMs) haben grundsätzlich den Nachteil, dass jede VM auch ein eigenes Gastbetriebssystem mitbringt, was neben erhöhtem CPU und Arbeitsspeicher-Verbrauch in einem großen Image resultiert. Es ist daher nicht so einfach, eine VM mit jemandem zu teilen.

 

 

Abb. 2 Funktionsweise VM

Abb. 2 Funktionsweise VM

 

 

 

 

 

 

Dieses Problem löst Docker dadurch, dass sich alle Container einen Kernel teilen und daher lediglich die Anwendung Teil des Containers ist.

 

 

Abb. 3 Funktionsweise Docker

Abb. 3 Funktionsweise Docker

 

 

 

 

 

 

 

Grundkonzept Docker

“Docker is an open platform for developing, shipping, and running applications” [10]

Docker ermöglicht es nun, die eigentliche Applikation von der Infrastruktur zu separieren und diese wie eine Managed Application zu behandeln. Das eigentliche DevOps Ziel, schnellere Entwicklungszyklen zu ermöglichen, wird durch Docker ermöglicht. Durch den definierten Einsatzzweck den Code schneller zu delivern, ermöglicht es ein schnelleres, automatisiertes Testing, ein schnelleres deployment und verkürzt somit den Zyklus zwischen der Entwicklung und Implementierung im Produktivsystem.[11]

 

Ein weiteres Ziel Dockers ist es, eine Plattform zu schaffen, die es ermöglicht, in einer einheitlichen Entwicklungsumgebung, unabhängig vom verwendeten Endsystem, zu arbeiten. Dies verringert die umgebungsbedingte Fehleranfälligkeit beim deploy in Produktivsysteme, sowie die Einarbeitungszeit neuer Entwickler. Somit wird eine einheitliche Umgebung für alle beteiligten geschaffen, deren Wartung und Weiterentwicklung zentralisiert erfolgt.[11]

Des Weiteren soll der Austausch zwischen bereits fertiggestellten Teilapplikationen gefördert werden. Diese fertigen Container können über Docker Hub geteilt werden. Hierzu wird zunächst ein Image erzeugt, dass wiederum zur Verteilung bereitgestellt wird. Dies ermöglicht es, Ressourcen wiederzuverwenden und den Austausch einmalig erzeugter Container zu fördern. [11]

 

Lösungskonzepte zu Skalierbarkeit, Sicherheit, Employee Onboarding und Plattform-unabhängigkeit

 

Docker zielt darauf ab, vorgehend im Detail erläuterte Probleme durch einen „Build – Ship – Run“-Approach zu lösen, und dadurch vor allem das Risiko sowie den Arbeitsaufwand von Deployments zu verringern [24].

Ein wichtiger Kern von Docker basiert darauf, dass Container sich nicht selbst verändern, und damit stateless sind. Daten, die in einer bestimmten Session generiert werden und für den Betrieb notwendig sind (zB. der Upload eines Fotos) dürfen nicht direkt im Container gespeichert werden[25]. Dies hat den Vorteil, dass Container jederzeit zerstört und neu erstellt werden können, ohne dass Laufzeitänderungen verloren gehen.

Sollte es notwendig sein, bestimmte Daten sessionübergreifend zu speichern, so sollten Data Volumes genutzt werden[25].

Einige der Lösungskonzepte, die durch Funktionalitäten und Tools von Docker abgedeckt werden, sind im folgenden durch die Verwendung von Beispielen in alltäglichen Szenarien näher dargestellt bzw. erläutert, um den Einsatzzweck bzw. die Notwendigkeit darzustellen.

 

Skalierbarkeit

1 Szenario

Die Firma Moebel123 GmbH ist der Möbelbranche tätig und betreibt einen Webshop zum Verkauf ihrer Möbel im Internet. Als Software wird ein bekanntes Shopsystem verwendet und als Produktivserver werden zwei Linuxserver, mit einem LoadBalancer zur Lastverteilung, genutzt. In letzter Zeit schaltet Firma Moebel123 Werbung im Fernsehen und die Besucherzahlen ihres Webshop steigen kurzzeitig in beachtliche Höhen. Die Besucherzahlen steigen teilweise auch so außergewöhnlich hoch, dass die zwei Linuxserver die Zugriffe nicht bearbeiten können und es zu ausbleibenden Responses kommt. Der IT Betrieb will reagiert auf diese Gegebenheit der Werbeschaltungen und hängt kurzfristig neue Server an das System. Dadurch wird eine höhere Rechnerleistung gewährleistet, was die gleichzeitige Bearbeitung mehrerer Besucher ermöglicht. Um Serverkosten zu sparen, soll der Betriebszeitraum jedoch so gering wie möglich gehalten werden. Das Problem dabei ist, dass bei jeder Werbeschaltung mindestens ein Mitarbeiter einen oder mehrere Server konfigurieren, mit an das Netz hängt und somit einen hohen personellen Aufwand verursacht.

1 Lösung

Innerhalb dieses Szenarios können mit der Nutzung eines Loadbalancers und Docker die verfügbaren Resourcen kurzfristig erhöht werden. Ein weiteren Vorteil kann ein Verwaltungssystem bieten, indem es bei einer hohen Auslastung die Docker-Maschinen automatisch startet (zum Beispiel bei einer Auslastung von 80%) und nach Abfall der Besucherzahlen wieder stoppt. Der personelle Aufwand entfällt komplett, da lediglich weitere Container gestartet werden müssen.

Da jeder Container nach dem Docker-Prinzip „immutable“, also unveränderbar, sein sollte, ist sog. Autoscaling relativ einfach zu realisieren, da beim Skalieren, abgesehen von dem sich auf der Registry befindlichen Image, keine weiteren laufzeitgenerierten Daten übertragen werden müssen. Es müssen lediglich ein Loadbalancer, sowie ein Verwaltungssystem eingesetzt werden. Der Loadbalancer reicht den Traffic an X Instanzen weiter, während das Verwaltungssystem die Last auf den einzelnen Docker-Maschinen überwacht und dann je nach Auslastung der Instanzen Container startet oder stoppt.

Zur Registrierung der Worker-Instanzen am Load-Balancer gibt es verschiedene Service-Registration Ansätze:

Entweder der Container registriert sich beim Start vollautomatisch am Load Balancer und steht ihm damit zur Verfügung (und de-registriert sich beim Stop), oder aber die Registrierung wird von der Verwaltungsinstanz übernommen, welche den Start des Containers initiiert.

Des weiteren existieren sogenannte Container Clouds die, begünstigt durch den Einsatz von Docker Swarm, einfach zu implementieren sind. Zahlreiche große Anbieter bieten zur einfacheren Verwendung solche Container Clouds, darunter sind, unteranderem:

  • AWS Elastic Container Cloud
  • Google Container Engine
  • Carina by Rackspace
  • Kubernetes

Durch die weitere Abstrahierung ist es somit jedem Entwickler möglich, komplett ohne Administrationskentnisse eine automatisch skalierende Umgebung aufzubauen.

Am Beispiel von GCE (Google Container Engine, basierend auf Kubernetes) wird einfach ein Load Balancer sowie ein Container Cluster angelegt. Um Kubernetes die Skalierung des Clusters zu übergeben wird einfach Autoscaling aktiviert, sowie min/max Anzahl der Container konfiguriert. Kubernetes übernimmt dann das automatische Starten und Stoppen von Containern basierend auf bspw. dem CPU Auslastung der Container [29]. Auch das zero-Downtime Deployment wird von Kubernetes abstrahiert, in dem bei einem Update ein Container nach dem anderen auf das neue Image aktualisiert wird [30].

Sicherheit

1 Szenario

Die Firma Hosting123 GmbH ist in der Hostingbranche tätig und betreibt verschiedene Contentmanagement- und Shopsysteme für mehrere Kunden. Um an Serverkosten zu sparen, sind auf einem Server immer mehrere Systeme installiert und auf verschiedene Ordner verteilt. Bei einem neuen Software Release der Systeme erneuert ein Mitarbeiter die jeweiligen Versionen der Systeme manuell auf dem Server.

Wenn nun ein sogenannter Exploit, also eine Sicherheitslücke, veröffentlicht wird und damit Dritte Zugriff auf das Dateisystem des Servers bekommen, sind bei der Firma Hosting123 GmbH alle Systeme, die auf dem gleichen Server installiert sind, nicht mehr sicher und sensible Daten könnten gelöscht bzw. ausgelesen werden. Somit ist die Sicherheit aller Kunden auf dem gleichen befindlichen Server nicht mehr gewährleistet und die Firma Hosting123 GmbH kann nicht für eine 100% Sicherheit der Systeme garantieren.

1 Lösung

An dieser Stelle ist es ratsam die Systeme auf den Servern in Docker Container auszulagern, um alle Systeme sauber voneinander zu trennen und eine hohe Sicherheit zu gewährleisten. Denn durch die Docker Container sind die Systeme so kapselt, dass von einem Container nicht auf den ausführenden Server und Services zugegriffen werden kann. Zusätzlich ist es möglich die Resourcen der Kunden so zu beschränken, dass Überlastungen eines einzelnen Kunden andere Kunden nicht betreffen.

Docker Container nutzen die Kernel Namespace Features und starten jeden Container in seinem eigenen Namespace. Dadurch kann ein Container weder Prozesse eines anderen sehen noch verändern. Jeder Container erhält seinen eigenen Netzwerkstack, und kann nur bei entsprechender Konfiguration mit anderen Containern kommunizieren. Ein weiteres Kern-Feature in Bezug auf die Sicherheit sind Control Groups, welches es ermöglichen verfügbare Resourcen wie CPU, Memory und Disk I/O pro Container zu limitieren. Gegen Übergriffe unter verschiedenen Containern ist Docker damit ähnlich gut geschützt wie virtuelle Maschinen – lediglich Kernel-Exploits könnten hier einen Ausbruch ermöglichen. Die mit Abstand größte Gefährdung geht jedoch von Diensten auf dem Hostsystem aus, da von dort aus über den Docker Daemon Zugriff auf alle Container besteht. Es ist daher ratsam, auf dem Hostsystem ausschließlich den Docker Daemon sowie einen SSH-Server zu betreiben und sämtliche anderen Dienste in Container zu verlagern [31].

 Employee Onboarding

1 Szenario

Die Firma Apps123 GmbH ist spezialisiert auf verschiedenste Applikationen für mehrere Betriebssysteme. Die Apps123 GmbH führt die zu erstellenden Applikationen immer in Projekten durch und ist dafür bekannt die vorgegebenen Anforderungen schnell durchzuführen. Dementsprechend sind während der Projektphase viele Arbeitskräfte nötig, um die Applikationen in der vorgegebenen Zeit umzusetzen. Die Agentur ist auf Freiberufler angewiesen und muss somit immer neue Mitarbeiter in die Entwicklungsumgebung integrieren. Durch die Konfiguration entsteht viel Zeitaufwand, da die Entwicklungsumgebung erst erklärt und aufgesetzt werden muss. Zu Projektbeginn ist deshalb ein Systemadministrator pro Freiberufler circa 2 Stunden beschäftigt.

1 Lösung

Die Firma Apps123 kann in diesem Szenario durch den Einsatz von Docker die Zeit des Employee Onboardings sehr stark minimieren. Durch die Verwendung von Docker können neue Mitarbeiter schnell und einfach in Projekte integriert werden, ohne viel Zeit mit der Konfiguration zu verbringen.

Docker unterstützt das Employee Onboarding von Programmierern dadurch, dass keine aufwändige Konfiguration von allen Services notwendig ist, sondern nur der Docker Daemon installiert werden und anschließend Container gestartet werden müssen. Sofern das Livesystem auch auf Docker basiert, so sollten die Livecontainer auch zur Entwicklung genutzt werden, so dass das Auftreten des „works-on-my-machine“-Problem auf ein Minimum reduziert werden kann. Inkonsistenzen zwischen dem Entwicklungs- und Livesystem gehören damit der Vergangenheit an. [32]

Platformunabhängigkeit

1 Szenario

Die Firma Software123 GmbH entwickelt Softwarekomponenten für verschiedene Großkunden. Die Kunden brauchen für ihre Systeme Softwarelösungen, die in kleine Komponenten aufgeteilt sind. Die Software123 GmbH entwickelt diese auf ihren Entwicklungsystemen und stellt diese dann dem Kunden bereit, der diese integriert. Getestet wird sowohl auf den lokalen Entwicklungsumgebungen, als auch auf einem Entwicklungsystem. Dadurch, dass auf den Endgeräten der Mitarbeiter aber verschiedene Betriebssysteme installiert sind, lässt sich nicht überall eine produktionssystemnahe Software erstellen. Die Komponenten werden zwar fertig entwickelt, bei der Integration in das Produktivsystem entstehen jedoch Fehler, die während der Entwicklung nicht aufgetreten sind und somit dort nicht reproduziert werden können.

1 Lösung

Mithilfe von Docker kann bei diesem Szenarien sehr viel Zeit beim Integrieren der Softwarekomponenten gespart werden. Docker bietet die Möglichkeit, dass innerhalb der Entwicklung die gleichen Systemvorraussetzungen vorhanden sind wie in dem Produktionssystem. Des Weiteren können automatisierte Tests in einer Umgebung gestartet werden, die auf Basis der Container des Livesystems erstellt wird. Damit lassen sich auch Differenzen zwischen Staging- und Liveumgebung minimieren.

Zur Erleichterung der Benutzung von Docker auf Hostsystemen, die die Anforderungen aus 4.1 nicht direkt erfüllen, stellt Docker mit „docker-machine“ ein Tool bereit, welches den Setup-Prozess einer entsprechend vorkonfigurierten VM in Virtualbox komplett automatisiert. [33]

Docker-Machine provisioniert dazu im Grunde nur eine VM mit vorinstallierter Docker Engine und stellt anschließend sicher, dass alle vom Docker Client benötigten Umgebungsvariablen korrekt gesetzt sind und auf den von der Engine bereitgestellten Daemon in der VM zeigen[33].

Da der Docker Client ausschließlich über eine HTTP API mit dem Daemon kommuniziert, ist es über docker-machine aber nicht nur möglich, einen lokal-virtualisierte Docker Daemon bereitzustellen. Es kann analog auch dazu genutzt werden, den docker Client mit einem Daemon auf einem remote verfügbaren Server zu verknüpfen. Durch die HTTP-Verbindung muss hier sichergestellt sein, dass der remote Daemon die notwendigen Ports bereitstellt[33].

 

Zusammenfassung

 

Der Einsatz von DevOps ist mittlerweile in Betrieben, die einen Entwicklungs- und einen Betriebsbereich haben, unverzichtbar. Die Methoden und Tools, die die DevOps für die Koordination und das Deployment benutzen sind sehr hilfreich bei der Zusammenarbeit von Teams und der Veröffentlichung von neuer Software.

Die Analyse von Docker im Bezug auf DevOps hat ergeben, dass Docker verschiedene Probleme wie Skalierbarkeit, Sicherheit und Plattformunabhängigkeit beseitigen kann und somit ein interessante und empfehlenswerte Software für DevOps darstellt. Auch die Automatisierung und die Konfiguration von Serverkomponenten kann optimal mit Docker abgebildet werden. Da Docker schnell und einfach benutzt werden kann ist es eine Software, die bereits in vielen Unternehmen zum Einsatz kommt und durchaus zu empfehlen ist.

Docker ist eine Software, die durch ihre große Community profitiert. Es werden regelmäßig Sicherheitsupdate erstellt und die Software wird kontinuierlich weiterentwickelt. Dadurch lässt sich abschließend sagen, dass die Software in der Zukunft immer mehr an Bedeutung gewinnen und durch die Weiterentwicklung vermutlich noch mehr Themengebiete abdecken wird.

Schlussendlich ist Docker aber nur eines von vielen Tools, dass den DevOps dabei hilft die Teams bei der Entwicklung und im Betrieb zu unterstützen. Docker allein ist nicht die vollkommene Lösung für den optimalen Deploymentprozess, es werden weitere Tools wie Jenkins und Vagrant empfohlen um die Veröffentlichung von Software Releases zu erhöhen und zu beschleunigen.

 

Dieser Artikel ist nur eine kurze Zusammenstellung. Ausführliche und detaillierte Informationen zu dem Thema finden Sie unter folgenden Links!

Lizenz:
GNU Free Documentation License 1.2.
Quelle:
http://winfwiki.wi-fom.de/index.php/Analyse_von_Docker_im_Hinblick_auf_DevOps#Zusammenfassung

 

Aufmacherbild / Lizenz / Quelle

Docker by xmodulo, on Flickr
Docker“ (CC BY 2.0) by xmodulo

Open Source fördert Agilität, Flexibilität, Innovation und Sicherheit

 

Interview mit Lars Herrmann, General Manager Integrated Solutions und Container Strategy bei Red Hat

 

 

Mit welchen Services und Dienstleistungen unterstützt Red Hat die Anwender im Unternehmens-Umfeld?

 
Open-Source-Lösungen sind

– unterstützt durch einen umfassenden Mission-Critical-Support, Schulungen und Consulting-Services, wie sie Red Hat für seine Betriebssystemumgebungen, Storage-, Middleware-, Management-, mobilen und Open-Hybrid-Cloud-Lösungen bietet –

heute in Unternehmen aller Größe auf breiter Front im Einsatz.
 
 
Im Unterschied zu UNIX-Umgebungen bietet der Einsatz von offenen Lösungen die Möglichkeit, auf kostengünstigere, standardbasierte Hardware zu migrieren. Auch die anfallenden Lizenz- und Subskriptionskosten sind deutlich geringer. Viele Unternehmen aus allen Branchen haben sich daher inzwischen von UNIX zugunsten von offenen Lösungen für den gesamten Lösungs-Stack, angefangen von der IT-Infrastruktur über die Applikationsentwicklung und das Betriebsmanagement bis hin zu DevOps- sowie Private- und Public-Cloud-Umgebungen, verabschiedet und einen hohen Return on Investment erzielt.

Hunderte von unabhängigen Software- (Independent Software Vendors, ISVs) und Hardwarehersteller entwickeln beispielsweise in enger Zusammenarbeit mit Red Hat ein umfangreiches Portfolio einsatzbereiter und zertifizierter Infrastruktur- und Cloud-Lösungen. Open-Source-Lösungen haben sich heute als führende Plattform für Innovationen etabliert. Cloud, Storage und Big Data sind drei Beispiele für Technologien, die zunächst mit Linux entwickelt und auf den Markt gebracht wurden.

 

Bitte erklären Sie uns den Begriff „Containerisierung“ im Kontext Ihrer Open-Source-Linux-Enterprise-Distribution.Wieviel Agilität kann durch die Container-Technologie erreicht werden?

 
Die Containerisierung definiert ein effizienteres Modell zur Bereitstellung von Applikationen. Das gilt insbesondere dann, wenn Unternehmen im Rahmen der Digitalen Transformation neue Geschäftsprozesse und -modelle implementieren und viele sich von einem Produkt- zu einem Service-orientierten Unternehmen wandeln.

Die Containerisierung trennt Applikations- und damit verbundene Service-Aktivitäten von den zugrundeliegenden Infrastruktur-Services. Im Kern geht es bei Containern um die Kapselung und Isolierung von Applikationen mit allen benötigten Betriebssystemkomponenten und Konfigurationseinstellungen in einem Paket.
Der Vorteil: Anwendungen lassen sich damit schnell, einfach und vollständig konfiguriert bereitstellen. Container zeichnen sich durch eine hohe Agilität, einen geringen Ressourcenbedarf und ein einfaches Management aus. Die Standardisierung und die Automationsfunktionalitäten leistungsstarker Container-Plattformen ermöglichen die Etablierung von DevOps-Prozessen, die eine enge Verzahnung von Entwicklung und Betrieb ermöglichen.

Das Ergebnis ist eine beschleunigte Auslieferung von Applikationen, mit der Unternehmen zentrale Vorgaben der Digitalen Transformation umsetzen können: Der Einsatz von Container-Plattformen ermöglicht Unternehmen die schnelle Entwicklung von Anwendungen in hoher Qualität und die zügige Bereitstellung von Updates und neuen Funktionalitäten.

 

Welche Wettbewerbsvorteile können Unternehmen mit der Container-Technologie generieren?

 
Unternehmen, die ihre Wettbewerbsfähigkeit festigen und ausbauen wollen, müssen innovative Produkte und Services schnell, flexibel und zuverlässig auf den Markt bringen. Die Schnelligkeit – oder besser die Agilität – beschreibt die zügige Geschwindigkeit der Entwicklung, Bereitstellung und Erweiterung von Applikationen.

Flexibilität bedeutet, dass die Container-Technologie ein breites Spektrum von Middleware, Application Frameworks und Cloud-Umgebungen unterstützt. Zudem können Unternehmen durch den Einsatz von Container-Technologien und -Plattformen die Effizienz in der Applikationsentwicklung und dem Betrieb steigern, etwa durch Automation, Standardisierung, ContinuousDeliveryund analytisch fundierter Entscheidungen.

 

Welche Flexibilität muss ein Betriebssystem heute mitbringen, um die Digitale Transformation im Unternehmen zu meistern?

 
In einem digitalen Unternehmen übernimmt das Betriebssystem eine zentrale Rolle. Es ist zuständig für den zuverlässigen Betrieb der Infrastruktur-Services und der Container-Plattform. Zudem stellt es den Applikationen die Laufzeitumgebung und die Frameworks bereit, mit denen die Container und die Cloud-Services arbeiten.

Das Betriebssystem ist ein kritischer Erfolgsfaktor für die Sicherheit der gesamten Digitalisierungslösung. Hier geht es um den Einsatz vertrauenswürdiger Hosts, vertrauenswürdiger Laufzeitumgebungen und vertrauenswürdiger Updates.
Vier Maßnahmen tragen entscheidend zu mehr Container-Sicherheit bei:

Erstens erhöht eine Zertifizierung, beispielsweise in Form einer digitalen Signatur, das Sicherheitsniveau; sie belegt, wer den Applikations-Container für welchen Zweck erzeugt hat.

Zweitens sollten neben der Verifizierung der Herkunft eines Applikations-Containers auch die Inhalte überprüft werden.

Drittens ist sicherzustellen, dass sich die auf demselben Host laufenden Container-Images nicht gegenseitig beeinträchtigen. Flankierend dazu ist es entscheidend, das Host-Betriebssystem regelmäßig mit den neuesten Sicherheitsupdates zu aktualisieren. Zudem sollte der Kernel des Betriebssystems über Funktionalitäten für die Isolation verfügen, wie sie etwa SELinux bietet.

Viertens schließlich ist Container-Sicherheit, ebenso wie die IT-Security im Allgemeinen, eine permanente Aufgabe. Das Linux-Container-Portfolio von Red Hat umfasst ein gehärtetes und zuverlässiges Linux-Container-Betriebssystem mit Red Hat Enterprise Linux und Red Hat Enterprise Linux Atomic Host, das speziell für Linux-Container entwickelt wurde und nur die Betriebssystemkomponenten enthält, die für den Betrieb von Container-Applikationen benötigt werden.

Moderne Container-Umgebungen wie Red Hat OpenShift Container Platformstellen eine Art verteiltes Betriebssystem mit Rechen-, Netzwerk-, Speicher- und Security-Services für Container bereit.

 

Inwieweit ist eine Investitionssicherheit durch die Implementierung eines Open-Source-Betriebssystems abgedeckt?

 
Open-Source-Software ist äußerst sicher. So sind beispielsweise Cloud-Provider von einer hohen Open-Source-Investitions- und IT-Sicherheit überzeugt. Die große Mehrheit vertraut auf Open-Source-Software und nutzt Linux als Kernstück ihrer IT-Infrastruktur.
In Umgebungen, in denen hohe Verfügbarkeit und IT-Sicherheit gefragt sind, stellt Open Source die grundlegenden Fundamente bereit.

Entscheidend für die hohe Softwaresicherheit von Open Source ist der offene Umgang mit Sicherheitsfragen. Wenn es um die Beseitigung von Schwachstellen, Fehlerbehebungen, Erweiterungen, Ergänzungen und Verbesserungen geht, kommt der umfangreiche Erfahrungsschatz der großen Zahl engagierter Open-Source-Entwickler aus der Community und den Unternehmen zum Tragen. Viele Einzelpersonen und Unternehmen steuern Beiträge zu Open-Source-Projekten bei, da sie den Multiplikatoreffekt der Community von Entwicklern schätzen und gleichzeitig davon profitieren können.

Auf dem Gebiet der IT-Sicherheit bietet der Open-Source-Ansatz ein breites Spektrum von Möglichkeiten, Sicherheitsrisiken frühzeitig zu erkennen und Lösungen zu entwickeln.
Dem letzten Product Security Risk Report zufolge hat Red Hat für 96 Prozent der als kritisch eingestuften Schwachstellen in Red Hat Enterprise Linux noch am gleichen oder am nächsten Tag ein Patch veröffentlicht. Maximal eine Woche nach Bekanntwerden hat Red Hat 99 Prozent aller kritischen Sicherheitsschwachstellen in den Produkten geschlossen (1).

Investitionssicherheit beinhaltet auch einen langfristigen Support. So bietet Red Hat zehn Jahre Support sowie Updates und Security Fixes für die Versionsfamilien 5, 6 und 7 von Red Hat Enterprise Linux. Dazu zählen unter anderem „Critical and Important Security Errata Advisories“ und Security Fixes.
Unternehmen, die einen Extended Lifecycle Support bei Red Hat buchen erhalten weitere drei Jahre Support, das heißt insgesamt 13 Jahre.

 

Inwiefern kann Ihr Open-Source-Betriebssystem im Kontext der IT-Agilität eine offene Unternehmenskultur unterstützen und fördern?

 
Die Digitale Transformation erfasst nahezu jede Branche. Die IT muss daher zusätzliche Aufgaben übernehmen. Traditionelle IT-Praktiken, statische Prozesse und ein Silodenken aufgrund von fragmentierten IT-Landschaften sind in diesem Zusammenhang nicht förderlich.
Bei der Digitalen Transformation geht es um die Digitalisierung aktueller und der Etablierung neuer, innovativer Geschäftsprozesse und -modelle, verbunden mit dem Ziel, schneller, agiler und flexibler zu werden.

Gefragt sind neue, offene Unternehmenskulturen, die sich vielfach an den Grundprinzipien der Open-Source-Community orientieren: Kollaboration, Austausch und Transparenz. Ein Beispiel dafür ist die Einrichtung von Self-Service-Portalen, über die Anwender aus den Fachabteilungenschnell und flexibel die benötigten IT-Ressourcen beziehen können.
Damit lassen sich innovative Ideen sehr agil in den Fachbereichen umsetzen. Etliche Unternehmen haben die bisherigen starren Strukturen zwischen der IT- und den Fachabteilungen aufgebrochen.
Exemplarisch zeigt sich dieser Wandel am DevOps-Modell, das zunehmend Verbreitung findet.

Die organisatorischen Veränderungen im Zuge des Einsatzes interdisziplinärer Teams führen auch zu einem kulturellen Wandel innerhalb eines Unternehmens. Die Mitglieder aus der IT- und den Fachabteilungen treffen sich regelmäßig, teilen ihr Wissen und pflegen eine offene Feedback-Kultur, vor allem aber arbeiten sie gemeinsam daran, die Digitalisierung und Innovationen voranzutreiben.

 

Sehr geehrter Herr Herrmann, vielen Dank für das Gespräch!

 

 

Aufmacherbild / Lizenz / Quelle:

Lars Herrmann, General Manager Integrated Solutions und Container Strategy bei Red Hat

Das Bild unterliegt gesonderten Urheberrechten!

www.redhat.com

(1) Quelle: https://www.redhat.com/de/resources/product-security-risk-report-2015

Absatzfinanzierung 4.0

Digitalisierung und Industrie 4.0 verändern die Unternehmens- und Absatzfinanzierung 

Gastbeitrag von Gabriele Romeike-Fänger

 

Mit schnellen Schritten greifen große Umwälzungen im Finanzierungsmarkt. Unternehmen müssen ihre Strategien verändern, wenn sie nicht Liquidität oder Geschäftsanteile verlieren wollen.

 

Das Vertrauen, also die Basis jeglichen Geschäfts, durchlebt gerade im Bereich der Banken einen radikalen Wertewandel. Wer diese unabwendbare Tatsache akzeptiert, kennt kein Liquiditätsproblem mehr, muss jedoch die Transformation von der alten in die neue Welt meistern.

 

Der Mittelbau der Unternehmensfinanzierungen ist unter Druck. Die digitalisierten Produkte verdrängen im Standard, der Handel mit Geschäftsanteilen wird aus den Investment-Abteilungen der Banken forciert.


Bilder-Dreiecke

 

 

 

Wird das Unternehmen bereits als Restrukturierungsfall eingestuft – aus welcher Ursache heraus auch immer – ist es für den Neuaufbau der Finanzierungsstruktur noch lange nicht zu spät. Sicherheitenpools und Konsortialfinanzierungen können in vielen Fällen mithilfe von digitalisierten Produkten aufgehoben und/oder vermieden werden. Je frühzeitiger die Transformation in die digitalisierte Welt vollzogen wird, desto sicherer können die Verträge hinsichtlich aller Bedingungen zum Vorteil des Unternehmens mit Nicht-Banken verhandelt werden.

 

Konsequenz in der Umsetzung zeigen

 

Die Lösungen sind immer individuell und werden maßgeblich von den bestehenden Finanzierungsstrukturen und den damit verbundenen Verträgen und gegebenen Sicherheiten vorbestimmt. Je zeitiger die Erfassung der individuellen Vertragssituation erfolgt, desto klarer kann die Zielstruktur sofort oder Zug um Zug umgesetzt werden.

 

Industrie 4.0 bringt die güterwirtschaftliche und die geldwirtschaftliche Seite der Unternehmen zusammen und zwar nicht mehr im Sinne einer strukturpolitisch notwendigen Verbindung zwischen Banken und Unternehmen, sondern als Teil eines neuen Algorithmus, der sich von Kreditgebern – und vor allem von Banken – abkoppelt.

 

Berater, Marken und Experten werden zunehmend durch Assistenzsysteme ersetzt. Es werden nur zwei große Marktbereiche im Finanzierungsgeschäft verbleiben können: der Economy- und der Premiumbereich. Die Zeiten, in denen Firmenkundenbetreuer von einer Bank beauftragt werden, nach risiko- und preisadäquatem Geschäft in den Unternehmen zu suchen, werden bald vorbei sein – auch weil die Leistungsfähigkeit der Banken von den Unternehmen nicht mehr akzeptiert werden wird. Damit wird das Standardsegment schrumpfen, in dem die meisten der Unternehmen bisher finanziert sind. Die aktuellen Entlassungswellen bei Commerzbank und Deutsche Bank und die Entmachtung der Berater am Kunden zeigen die Richtung.

 

„Wer seine Finanzierungsstrukturen nicht rechtzeitig den neuen Möglichkeiten angepasst hat, vernachlässigt nicht nur seine Risikopositionen sondern auch seine Produktqualität.“

 

Die finanzielle Schlagkraft eines Unternehmens, Skonti, Zahlungsziele und Maschinenüberlassungen gewähren zu können, tritt in den unmittelbaren Wettbewerb zur güterwirtschaftlichen Seite des Produktes und wird zum integralen Bestandteil des Produktes selbst.

 

Was für den Export von Maschinen und Anlagen selbstverständlich ist, nämlich die Finanzierung des Abnehmers in seinen Angeboten zu berücksichtigen, wird Bestandteil jeden Geschäftes. Derjenige, der über ausgezeichnete Finanzmittel verfügt, organisiert sich mit eigenen Finanzierungsinstituten für seine jeweilige Assetklasse. Alle anderen müssen Partnerschaften eingehen.

Der Übergang von einer Bankenfinanzierungswelt mit Übersicherungen, Bankenpools und Konsortialkreditverträgen ist unter Berücksichtigung bestehender Verträge deshalb zügig abzuschließen.

 

Derjenige, der Kredit nachfragt, bietet seine bilanziellen Assetklassen (Immobilien, Warenlager, Maschinen und Anlagen, Forderungen) zur Finanzierung bei den Instituten an, die auf Basis vorhandener IT von den Aufsichtsbehörden berechtigt wurden, Auszahlungen bis zu 100 Prozent der Anschaffungswerte zu finanzieren. Die Banken scheiden mangels moderner IT-Systeme aus dem Kreis der Anbieter aus – es sei denn, sie haben leistungsfähige Tochtergesellschaften deren Refinanzierung verbleibt.

 

 

Unternehmen als Anbieter von Assetklassen, die zur Finanzierung freigegeben werden

 

Finanzierungsmittel werden im Ausschreibungsverfahren nachgefragt – Cloud-Dienste und intelligente, eingebettete Systeme beschleunigen Rückkopplung und Entscheidungsfindung.

Der Kreditnehmer bestimmt nunmehr selbst, welche Sicherheiten/Assetklassen er dem Finanzierungsmarkt zur Verfügung stellt und wählt zwischen den Finanzierungsanbietern innerhalb der Assetklassen nach angebotenem Auszahlungsvolumen, Preis und Handling aus.

Analog zum Onlinehandel werden die Preise danach ausgestaltet, mit welchem Profil der Netzzugang erfolgt. Preisdifferenzierung im B2B-Geschäft bleibt erlaubt. Die Bindung an starke Makler bringt konditionell und vertraglich Vorteile. Diese müssen in enger Abstimmung mit dem Kunden die Sicherheit der sensiblen Bonitätsdaten bewerkstelligen. Online-Anfragen sollten aus Datensicherheitsgründen wohl überlegt sein, weil die BaFin-konformen Genehmigungsprozesse intransparent bleiben.

 

Als Anbieter im Premium-Segment des Corporate Finance und des Vendor Finance verbinden wir Prozesse und Produkte mit der Logik der Digitalisierung. Die Vorteile von digitalen und intelligenten Assistenzsystemen leiten wir an unsere Kunden unmittelbar durch. Apps zur Nutzung im Maschinen- und Fahrzeugvertrieb und die Möglichkeit, Investitionen auf unserer Website online zu kalkulieren, sind Neuheiten, die für den investierenden Unternehmer Transparenz und erheblich Zeit ersparende Dienstleistungen bieten und erst den Anfang einer umfassenden Veränderung im Finanzierungsmarkt bilden.

 

Ganz unabhängig vom Lebenszyklus des Unternehmens stellen sich identische Fragen:

Wer wird beauftragt, die Finanzierungs-Alternativen aufzuzeigen? Kommt die Transformation in die digitalen Finanzierungsformen rechtzeitig? Wie ist es um die Unabhängigkeit der Akteure bestellt? Welche Zielfinanzierungsstruktur sichert die Liquidität auch für die Zwischenzeit bis zum Abschluss aller Maßnahmen?Wem kann der Unternehmer vertrauen?

 

Bei der Umsetzung vieler einzelner Maßnahmen kommt es auf die Synchronisation und damit auf gutes, auf Erfahrung basierendes Handwerk an.

 

Unsere Autorin

Gabriele Romeike-Fänger, Diplom-Volkswirtin, Gesellschafterin und Geschäftsführerin, Financial Projects

Gabriele Romeike-Fänger, Diplom-Volkswirtin, Gesellschafterin und Geschäftsführerin, Financial Projects

 

 

 

 

 

 

 

 

 

 

 

 

 

weitere Informationen finden Sie unter:

www.financialprojects-services.de

 

Aufmacherbild / Quelle / Lizenz

CC0 Public Domain

Open Access: ESA

 

 

Open Access: ESA bekräftigt Strategie des offenen Zugangs für Bilder, Videos und Daten
Pressemitteilung: 20 Februar 2017

Die ESA hat heute die Einführung einer Open Access-Strategie für Bild- und Videomaterial sowie ausgewählte Datensätze mitgeteilt.

Seit über 20 Jahren stellt die ESA Wissenschaftlern, der Industrie, den Medien und der breiten Öffentlichkeit über digitale Plattformen wie dem World Wide Web und sozialen Medien eine Fülle an Informationen, Bildmaterial und Daten zur Verfügung. Mit der Weiterentwicklung der Informationsmanagementstrategie der ESA erweitern sich auch hier die entsprechenden Möglichkeiten.

So wird nun insbesondere dank einer neuen Open-Access-Strategie für Informationsmaterial und Daten der ESA die umfassende und regelmäßige Nutzung dieses Materials durch die breite Öffentlichkeit, die Medien, den Bildungssektor, Partner und andere Interessierte erleichtert.

„Diese Entwicklung hin zur Öffnung des Zugangs zu Bild- und Informationsmaterial sowie dem Wissensschatz der ESA ist ein wichtiger Baustein für die Erreichung unseres Ziels, im Rahmen unseres ‚Space 4.0’-Ansatzes zu informieren, Innovation zu schaffen, zu interagieren und zu inspirieren“, so ESA-Generaldirektor Jan Wörner. „Sie stellt eine logische Weiterführung der bereits von uns verfolgten Strategie eines freien und offenen Datenzugangs dar, trägt dem zunehmenden Interesse der breiten Öffentlichkeit Rechnung und verschafft den Steuerzahlern in den Mitgliedstaaten, die die ESA finanzieren, bessere Erkenntnisse über unsere Arbeit.“

 

Die ESA, andere internationale Organisationen und Creative Commons

Gemeinsam mit zahlreichen anderen zwischenstaatlichen Organisationen wie der Organisation der Vereinten Nationen für Bildung, Wissenschaft und Kultur (UNESCO), der Weltorganisation für geistiges Eigentum (WIPO) und der Weltgesundheitsorganisation (WHO), die jüngst ähnliche Open-Access-Strategien verabschiedet haben, hat ESA entschieden, weitere Inhalte unter die Open Access-kompatible Lizenz „Creative Commons Namensnennung –Weitergabe unter gleichen Bedingungen 3.0 IGO“, kurz,CC BY-SA 3.0 IGO, zu veröffentlichen. Es handelt sich hierbei um spezielle, für die Nutzung durch zwischenstaatliche Organisationen entworfene Lizenzversionen, die bspw. im Fall der CC-BY-SA-IGO-Lizenzen die umfassende Nutzung von Bildmaterial in Wikipedia und dessen Mediendatenbank Wikimedia Commons ermöglichen.

In den vergangenen zwei Jahren hat die ESA die Nutzung der CC-BY-SA-IGO-Lizenzen bereits getestet und Aufnahmen der bekannten Kometenmission Rosetta, hochauflösende Bilder des Mars sowie anderes Bildmaterial veröffentlicht.

Creative Commons ist eine gemeinnützige Organisation, die über die Bereitstellung freier Rechtsinstrumente die gemeinsame Nutzung und Wiederverwendung von kreativen Inhalten und Wissen ermöglicht und ein wichtiger Partner der ESA und anderer internationaler Organisationen ist, indem sie eine Unterstützung bei der Nutzung und Weiterentwicklung dieser Lizenzen bereitstellt.

Marco Trovatello, der bei der ESA für dieses Projekt zuständig ist, vertritt die Auffassung, dass „ein freier und offener Zugang zu Wissen, Informationen und Daten der ESA einen Eckpfeiler für die Beziehungen zur breiten Öffentlichkeit und zu den Nutzergemeinden darstellt und somit von großem gesellschaftlichem Nutzen ist.“

 

Die digitale Agenda der ESA

Günther Kohlhammer, der als Chief Digital Officer (CDO) für die Digitale Agenda und die Informationsmanagementpolitik der ESA verantwortlich zeichnet – zwei große Vorhaben, die die ESA auf eine komplett digitale Zukunft vorbereiten – erklärt: „Die Anerkennung des Werts, den die von der ESA im Namen ihrer Mitgliedstaaten verwahrten Informationen besitzen, sowie deren sachgemäße Verwaltung sind Schlüsselinstrumente des ESA-Konzepts Space 4.0 zur Stärkung der Zusammenarbeit mit Industrie, Wissenschaft und Mitgliedstaaten.“

 

Warum wird nur ein Teil der Inhalte freigegeben?

Ein großer Teil der Bilder, Videos und anderen Inhalte der ESA entsteht in Zusammenarbeit mit Partnern aus Wissenschaft und Industrie. In der Open-Access Anfangsphase wird demjenigen Material der Vorrang eingeräumt, das entweder vollständig der ESA gehört oder für das bereits die Rechte Dritter geklärt wurden.

 

Was ist Open Access?

Ganz allgemein steht Open Access für den freien, unbegrenzten Zugang zu Forschungsergebnissen. Oft werden über Nutzungsrechte über Creative-Commons-Lizenzen eingeräumt. Es existieren mehrere Erklärungen und Definitionen zum offenen Zugang wie die „Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen“, die Erklärung der Budapest Open Access Initiative oder das Bethesda Statement on Open Access Publishing.

 

Weitere Informationen

Die Website http://open.esa.int enthält Verweise auf bereits verfügbare Open Access-Inhalte, Antworten auf häufig gestellte Fragen und weitere Hintergrundinformationen.

Nähere Informationen über die digitale Agenda der ESA für die Raumfahrt sind unter http://www.esa.int/digital abrufbar.

Über die ESA

Die Europäische Weltraumorganisation (ESA), Europas Tor zum Weltraum, ist eine 1975 gegründete zwischenstaatliche Organisation, deren Aufgabe darin besteht, europäische Raumfahrtkapazitäten zu entwickeln und sicherzustellen, dass die Investitionen in die Raumfahrt den Bürgern in Europa und anderswo zugutekommen.

Die ESA hat 22 Mitgliedstaaten: Belgien, Dänemark, Deutschland, Estland, Finnland, Frankreich, Griechenland, Irland, Italien, Luxemburg, die Niederlande, Norwegen, Österreich, Polen, Portugal, Rumänien, Schweden, die Schweiz, Spanien, die Tschechische Republik, Ungarn und das Vereinigte Königreich. Slowenien ist assoziierter Mitgliedstaat.

Außerdem arbeitet die ESA förmlich mit sechs EU-Mitgliedstaaten zusammen. Im Rahmen eines Kooperationsabkommens nimmt auch Kanada an bestimmten ESA-Programmen teil.

Dank der Koordinierung der Finanzressourcen und Kompetenzen ihrer Mitgliedstaaten kann die ESA Programme und Tätigkeiten durchführen, die weit über die Möglichkeiten eines einzelnen europäischen Landes hinausgehen. Des Weiteren arbeitet sie eng mit der EU bei der Verwirklichung der Programme Galileo und Copernicus und mit EUMETSAT bei der Entwicklung von Meteorologiemissionen zusammen.

Die ESA entwickelt Raumfahrzeugträger, Satelliten und Bodenanlagen, um sicherzustellen, dass Europa bei Raumfahrtvorhaben weltweit an der Spitze bleibt.

Sie entwickelt und startet Erdbeobachtungs-, Navigations-, Telekommunikations- und Astronomiesatelliten, schickt Raumsonden in entlegene Regionen des Sonnensystems und beteiligt sich an der bemannten Exploration des Weltraums. Außerdem führt sie ein umfangreiches Anwendungsprogramm zur Entwicklung von Erdbeobachtungs-, Navigations- und Telekommunikationsdiensten durch.

 

Nähere Auskunft erteilt:

ESA-Referat Medienbeziehungen

Tel.: +33 (0)1 53 69 72 99

E-Mail: media@esa.int

 

Marco Trovatello

Tél. : +33 1 53 69 81 68

E-Mail: marco.trovatello at esa.int

 

Aufmacherbild / Lizenz / Quelle

„Open“ (CC BY 2.0) by tribalicious

IoT: Turbolader für die Wirtschaft

Das Internet der Dinge ist Realität, Cyber-Physical-Systems seine Treiber. Die Digitalisierung schafft neue Geschäftsmodelle in denen sich Technologien gegenseitig beschleunigen.

Intelligenz und Kreativität sind die Treiber hinter dem Internet of Things (IoT): „Dinge“ bekommen ihren digitalen Zwilling, der mit innovativen und digitalen Geschäftsmodellen neue Wertschöpfungsketten entstehen lässt. Wir schildern, wie das traditionelle Produkt mehr und mehr zur Dienstleistung und das Kaufen zur „Subscription Economy“ wird. Die Chancen liegen in der klugen Kombination von Pro-dukt, Vertrieb und smartem Service hinter Ware, Dienstleistung oder Innovation. Der Mensch ist also die treibende Kraft – wenn er die Technologien zu nutzen weiß. Das erfordert Mut und den Willen, neues zu probieren – neben dem Kerngeschäft. Dadurch verändern sich Arbeit und Unternehmenskultur: sie werden datengetriebener, intelligenter und flexibler, aber auch volatiler. Wir thematisieren die aktuellen Technologien und Chancen, die durch die Kreativität entstehen in Form von Fallbeispielen, Gastbeiträgen und Interviews.

Themen und Inhalte

Sicher produzieren
Ohne Sicherheit keine Industrie 4.0

Der Mensch steht im Mittelpunkt?
Arbeits-, Kreativ- und Konsumprozesse verschmelzen

Digitaler Mehrwert
Alle Daten der Wertschöpfungskette zu digitalen Geschäftsmodellen kombinieren

Smart Services
Cyber-Physical-Systems sind die Grundlage für kluge, digitale Geschäftsmodelle.  

Reshoring
3D-Druck und neue Produktionstechnologien machen den Standort D von Neuem attraktiv.

Fragen Sie die Cloud
Die Antwort steckt in den Daten, gewonnen wird sie durch Big Data, Semantik und KI.

Agil, schlank und intuitiv
Die Fabrik der Zukunft produziert selbstständig und die Ware findet autonom zum Konsument.

HannoverMesse 2017
Leistungsschau der intelligenten Produktion

Hier können Sie das vollständige Themenexposé herunterladen

Hier geht es zu den Mediadaten

Von Health Innovation bis Robotik

Die Geschwindigkeit, mit der gegenwärtig ganze Branchen von exponentieller Technologie überrollt werden, wird von einem Großteil der deutschen Wirtschaft noch immer massiv unterschätzt. Ein Fehler: „Führungskräfte müssen die Macht der disruptiven Geschäftsmodelle jetzt verstehen und nutzen, bevor sie sich selbst in deren Visier wiederfinden“, ruft Stephan Balzer, Managing Director SingularityU Germany, die deutsche Wirtschaft zum Umdenken auf. Und damit sind nicht nur die großen DAX-Unternehmen gemeint: „Gerade für Start-ups und beweglich gebliebene KMUs bietet sich hier und jetzt eine große Chance, mit Hilfe exponentieller Technologien in eine erfolgreiche Zukunft durchzustarten“, so Balzer. Das dafür notwendige Know-how erhalten deutsche Führungskräfte aus Unternehmen aller Größen auf dem SingularityU Germany Summit am 3. und 4. Mai 2017 in Berlin. Für zwei Tage kommen die wichtigsten Vordenker aus dem Silicon Valley nach Deutschland, um die neuesten Trends, Treiber und Zukunftsperspektiven aus den Bereichen Mobilität in 2025, exponentielle Unternehmen, zukünftiges Arbeiten, die Finanzwelt von morgen, 3D-Druck & -Produktion, Networking & Computing, künstliche Intelligenz, Robotik sowie Bio- & Medizintechnologie zu diskutieren.

High-Tech-Größen setzen die disruptive Kraft exponentieller Technologien frei

Exponentielle Technologien verstehen und nutzen, die größten globalen Herausforderungen in Angriff nehmen, die Zukunft gestalten – das sind die zentralen Aufgaben, denen sich die Singularity University (SU) aus dem Silicon Valley verschrieben hat. Eine Mission, für die der SingularityU Gemany Summit die führenden Köpfe der internationalen High-Tech-Industrie in Deutschland zusammenbringt. Zum Line-up 2017 gehören u. a. die Robotik-Experten Andra Keay und Maarten Steinbuch, John Hagel mit seinem Vortrag zur „Future of Work“, Nanotechnologe Andrew Hessel, „Exponential Organizations“-Koryphäe Salim Ismail und Sicherheitsspezialist Marc Goodman. Zu den weiteren Top-Speakern des SingularityU Germany Summit 2017 zählen Ramez Naam (Global Grad Challenges, Energy), Dr. Zayna Khayat (Digital Health), Amin Toufani (Exponential Economics), Pascal Finette (Intro into Exponentials), Lin Sebastian Kayser (3D Printing & Manufacturing) und Anju Patwardhan (Finance of Tomorrow). Die aktuelle Speaker-Übersicht des SingularityU Germany Summit 2017 findet sich unter http://www.singularityugermanysummit.org/#speakers.

„Deutsche Unternehmen benötigen dringend ein neues Mind-Set zur Digitalisierung und Innovation. Insbesondere im Mittelstand, dem Rückgrat der deutschen Wirtschaft, herrscht dringender Handlungsbedarf. Es mehren sich die Anzeichen, dass der Innovationsgeist als klassisches Erfolgsmodell des deutschen Mittelstands in eine Krise geraten könnte, sofern nicht zeitnah entgegengesteuert wird. Jetzt müssen Taten folgen, um beim exponentiellen Wandel Schritt zu halten bzw. auf internationalem Parkett die Avantgarde zu bilden“, so Stephan Balzer.

Eines der Unternehmen, die die zwingende Notwendigkeit zum exponentiellen Wandel bereits erkannt haben, ist SingularityU Germany Summit Partner Deloitte:
„Das Thema Digitalisierung hat bei Deloitte höchste Priorität, sowohl international als auch regional. Wir wollen unsere Kunden und unsere eigenen Führungskräfte und Mitarbeiter weiter für die technologischen Veränderungen und ihre Implikationen auf Wirtschaft und Gesellschaft sensibilisieren. Nach unserer sehr positiven Erfahrung mit dem letzten SingularityU Germany Summit im April 2016 freuen wir uns, auch dieses Jahr wieder als Partner dabei zu sein”, so Nicolai Andersen – Partner und Leiter Innovation bei Deloitte.

Weitere Informationen unter:
www.singularityugermanysummit.org

 

Bildquelle / Lizenz: r2hox data.path Ryoji.Ikeda – 4; flickr.com; Veröffentlicht unter: https://creativecommons.org/licenses/by-sa/2.0/

Grundlagen von DevOps

Moderne Unternehmen der heutigen Welt sind auf den Einsatz von zuverlässiger Software angewiesen. Diese stellt eine Schnittstelle zur Lösung der alltäglichen Probleme dar und trägt daher essentiell zum Erfolg der Unternehmung bei. Daher muss das perfekte Zusammenspiel von Soft- und Hardware gegeben sein. Um dies zu erreichen müssen die Entwicklung (Development) und der Betrieb (Operations) schon früh im Entwicklungsprozess neuer Software zusammenarbeiten. Oftmals arbeiten die beiden Abteilungen aber eher gegeneinander und verlangsamen so den ganzen Entwicklungsprozess als auch die Bereitstellung der neuen Software.

Dies kostet dem Unternehmen oftmals viel Zeit und Geld und kann dazu führen, dass das Unternehmen den Vorteil gegenüber einem Mitbewerber verliert. Zusätzlich dazu steht während der Entwicklung auch bereits die Qualitätssicherung im Fokus. Daher müssen diese drei Bereiche von Anfang an zusammenarbeiten Dadurch wird die erforderliche Agilität und Stabilität der neuen Software erreicht und durch die kontinuierliche Zusammenarbeit mit dem Betrieb und der Qualitätssicherung kann die Software nach der Fertigstellung schneller veröffentlicht werden. Diese neue Art der Softwareentwicklung wird DevOps genannt und stellt das Zusammenspiel von Entwicklung, Qualitätssicherung und Betrieb dar. Es müssen daher bestimmte Prozesse im Unternehmen mit Hilfe von Teams umgesetzt werden, um DevOps im eigenen Unternehmen erfolgreich einsetzen zu können.

Zielsetzung

Das Ziel dieser Arbeit ist es dem Leser die Grundlagen von DevOps näherzubringen. Es wird dargestellt was wichtig ist um DevOps in einem Unternehmen einzuführen und wie ein erfolgreiches DevOps-Team erstellt wird. Außerdem wird aufgezeigt, welche Prozesse es im Rahmen von DevOps gibt und welche Tools zur Umsetzung der Entwicklung nach DevOps genutzt werden können.

Aufbau

Als erstes wird die grundlegende Idee von DevOps erklärt und wie diese entstanden ist. Anschließend wird erklärt was gegeben sein muss um DevOps im Unternehmen einsetzen zu können und mit welchen Prozessen dies dann umgesetzt werden kann. Abschließend werden noch einige Tools erläutert die zur Entwicklung nach DevOps eingesetzt werden können.

Definition DevOps

Entstehung

Als in den 1960ern die ersten Computer in den Unternehmen eingesetzt wurden, wusste niemand, wie diese das Arbeitsleben begleiten sollten. Zu dieser Zeit „[…]dachten wenige über Prozessmodelle, arbeitsteilige Organisationsstrukturen oder aufwändige Governance-Modelle nach“[1]. Nach und nach sollten immer mehr kleinere Probleme mit Software gelöst werden, um bestimmte Funktionen des Geschäftsprozesses zu vereinfachen. Mit Hilfe der Fachabteilung wurde versucht dieses Problem mit entsprechender Software zu lösen. Da diese meist sehr komplex sein musste, führte es dazu dass Software bald teurer wurde als die Hardware. Auch nahm die Entwicklung dieser Software meist viel Zeit in Anspruch, sodass die Anfragen des Unternehmens bald die Leistungsfähigkeit der Fachabteilung überschritten. So hatte sich Mitte der 60er Jahre die Softwarekrise entwickelt. Dazu kam es aber auch, da es zu dieser Zeit wenig Personal gab, welches die benötigte Software konstruieren konnte. Und das geschah schon weit vor der Umsetzung ganzer Geschäftsprozesse, was demzufolge die nächste große Hürde darstellte[2].

Auf einer NATO-Konferenz im Jahre 1968 wurde die Problematik der Softwarekrise thematisiert und diskutiert. Als Resultat dieser Diskussion kann Software Engineering gesehen werden. Dies soll fortan ein Entwurfsmodell für die Softwareentwicklung sein. Dennoch steht zu dem Zeitpunkt noch nicht fest, wie dieses Modell wirklich aussehen soll. Die Erfinder des Software Engineerings einigen sich darauf, sich an einem bereits gelösten Problem vom Anfang des 20. Jahrhunderts zu orientieren. Henry Ford hatte zu der Zeit ein Muster entwickelt, um die Produktion von Autos enorm zu beschleunigen. Durch sein Muster konnte er die Produktion um bedeutsame Größenordnungen steigern, was dazu verhalf den Bedarf des großen Marktes zu decken. Einhergehend damit wurde die Produktion auch kosteneffizienter umgesetzt. Das Muster sah vor, den Produktionsprozess in kleinere Schritte zu spalten und diese dann von Spezialisten auf dem Gebiet ausführen zu lassen. Diese kleinen Schritte erfolgten an einem Fließband, welche alle Schritte der Produktion verband. Dadurch entstand ein Prozess, der beliebig erweitert oder gekürzt werden konnte. Die Kosten der Produktion wurden rapide gesenkt, zum einen wegen der Losgrößeneffekte und zum anderen war es nicht mehr nötig teure Experten einzustellen die das Auto komplett verstehen und zusammenbauen konnten. Es waren nun ausreichend Arbeitskräfte zu beschäftigen, die einen bestimmten Teil der Produktion gezeigt bekommen und diesen immer wieder ausführten. Diese grundlegenden Ideen nahmen die Erfinder des Software Engineerings auf und entwickelten so das nicht vorhandene Modell[2]. „Diese Ideen griffen die Begründer des Software-Engineerings auf und damit hielten Prozessmodelle, Arbeitsteilung und Spezialisierung Einzug in die IT: Es wurde zwischen Analyse, Design, Implementierung, Test, Inbetriebnahme und Betrieb unterschieden und man begann, die einzelnen Disziplinen weiter auszuarbeiten und zu spezialisieren.“[1]

Das Konzept wurde mit den wachsenden Herausforderungen in der IT- Branche über die Jahre immer weiterentwickelt und neu konzipiert. Aber die Softwarekrise wurde nie für überstanden erklärt, was sie genaugenommen auch nicht ist. Der Anspruch an neue Software ist immer weitergewachsen und so wurden auch immer neue Ziele von Software deklariert, die zunächst nicht umgesetzt werden können. Zum Beispiel darf die Entwicklung aufgrund der Schnelllebigkeit der Branche nicht zu lange dauern und muss wegen des großen Marktes zu einem günstigen Preis angeboten werden[4]. Laut Friedrichsen wurde dieser Zustand nach über 20 Jahren aber als normal angesehen[5]. Auch wegen der Schnelllebigkeit der Branche müssen diese Konzepte immer neu überdacht werden. So trug der Wandel des PCs vom Luxusgut hinüber zum Alltagsgegenstand in den frühen 90er Jahren unter anderem dazu bei, dass das Modell wieder angepasst werden musste. Mit hinzu kommt, dass die Systeme der Unternehmen immer vernetzter wurden und es somit notwendig war, Software für ganze Geschäftsprozesse zu entwickeln. Die IT hat sich heute so weit entwickelt, dass sie für ein Unternehmen essentiell geworden ist und ohne sie ein normaler Betrieb des Unternehmens nicht mehr denkbar ist. Für diese erneute Überarbeitung ist größtenteils die in den 1990ern entstandene agile Bewegung verantwortlich, die besser zu den veränderten Anforderungen an Software passt und die aus heutiger Sicht besser zu dem Aufbau der Unternehmen passt. Dabei geht die agile Bewegung laut Friedrichsen unter anderem auf folgende Punkte der Softwareentwicklung ein[5]:

  • Es hat eine Rückbesinnung von Verfahren auf den Geschäftswert stattgefunden
  • Entsprechend wurden Verantwortlichkeiten neu aufgeteilt, z.B. in Form eines Product Owners bei Scrum anstelle von Projekt- und Produktmanagern
  • Die Entwicklungszyklen sind deutlich kürzer geworden
  • Das flexible Reagieren auf geänderte Anforderungen wurde deutlich verbessert
  • Die Prozessmodelle wurden verschlankt
  • Die Hierarchien sind in der Regel flacher geworden
  • Routinetätigkeiten wurden stärker automatisiert, um mit den schnelleren Entwicklungszyklen besser umzugehen
  • Zusammen mit einer intensivierten Testautomatisierung führte dies zu einer besseren Softwarequalität
  • Alle Ansätze basieren auf einem Wertesystem, bei dem – im Unterschied zum Taylorismus – Menschen und Interaktionen im Vordergrund stehen

Aber auch diese Form der Softwareentwicklung beachtet eine grundlegende Eigenschaft der IT-Abteilung noch nicht: Die IT-Abteilung besteht meist aus zwei Fachrichtungen, der Entwicklung und dem Betrieb. Die agilen Prinzipien beziehen sich bislang aber nur auf den Bereich der Entwicklung. Dadurch sind die beiden Bereiche bei der Softwareentwicklung noch getrennt. Das heißt, dass in der Entwicklung bereits schnell und flexibel nach den Methoden der agilen Bewegung gearbeitet wird aber der Betrieb noch in den alten Strukturen des Software- Engineerings festhängt. Dadurch werden die Vorteile der agilen Entwicklung hinfällig, da ein Softwarerelease mit den herkömmlichen Methoden immer noch monatelang dauern kann. Des Weiteren ist es möglich, dass Bestandteile der Entwicklung, wie z.B. die Überwachbarkeit, in Folge der unterschiedlichen Arbeitsweisen auf der Strecke bleiben. Natürlich kann der Betrieb anhand dessen die Inbetriebnahme der neuen Software absichtlich verzögern. Aufgrund dieser Problematik hat der Belgier Patrick Debois im Jahre 2009 die sog. „DevOpsDays“ in Belgien abgehalten. Ziel dieser Konferenz sollte es sein, eine Methodik zu entwickeln die Entwicklung und Betrieb weiter zusammenbringt. Daraus ist der Begriff „DevOps“ entstanden, welcher aus Dev (engl. für Development – Entwicklung) und Ops (engl. für Operations – IT-Betrieb) besteht und seitdem für diese neue Methodik steht[5].

Der Beitrag steht im Original auf Winfwiki zur Verfügung http://winfwiki.wi-fom.de/index.php/Grundlagen_von_DevOps

Quellen:

1,0 1,1 Friedrichsen & Wolf, S.10
2,0 2,1 vgl. Friedrichsen & Wolf, S.10
vgl. Friedrichsen & Wolf, S. 10
Friedrichsen & Wolf, S. 10f
5,0 5,1 5,2 vgl. Friedrichsen & Wolf, S. 11

Bildquelle / Lizenz:

IT-Security: Proaktiv agieren

Reportage: Das Thema »IT-Security« muss bei allen IT-Projekten – von der Applikation bis hin zur Infrastruktur – ganz oben auf der Prioritätenliste mit Top-Management Attention stehen!

Laut aktueller Cisco Security Studie mussten 29 Prozent der von einem Cyberangriff betroffenen Betriebe Umsatzeinbußen beklagen, ein Drittel davon sogar mehr als ein Fünftel des Umsatzes. IT-Sicherheitsverantwortliche stehen dabei im Kreuzfeuer zwischen Hacker-Attacken und IT-Compliance – durch Ransomware, Identitätsdiebstähle, Datenschutz-Grundverordnung, IT-Sicherheits-gesetz & Co. Die größten Risikofaktoren sind nach Expertenansicht Mobile Devices, Daten in Public Clouds und Cloud-Infrastrukturen sowie der unvorsichtige User.
Im Rahmen einer eigenständigen Reportage gibt die TREND REPORT-Redaktion in Fallbeispielen, Interviews und Expertenbeiträgen dem Thema „IT-Security“ Raum und vermittelt einen Überblick über die wichtigsten Trends.

Themen und Inhalte:

Digitalisierung vs. IT-Security?
Ganzheitliche Security-Strategien gegen
Cyber-Kriminalität

Compliance
IT-Sicherheit im Spannungsfeld von Datenschutz, Unternehmenskultur und Digitalisierung

Mobile Security
Proaktiv agieren – Transparenz, Kontrolle und Sicherheit für alle Devices, Apps und Anwendungen

Einbruch 4.0
Die nächste Welle der industriellen Revolution birgt einen Tsunami an Gefahren.

Sicher kommunizieren
DLP-Lösungen, Verschlüsselungstechnologien und Co. schützen Sie und ihre Daten.

Cloud Security
Sensible Daten und Public Clouds

Identity- und Access-Management
Intelligente Lösungen für steigende Sicherheitsanforderungen

 

Lizenz Aufmacherbild:

Transformation und internationale Kooperation

Audio-Spezialist Sennheiser unterstützt mit passender Geräte-Strategie

 

Betriebliche Transformationsprozesse und eine globalere Ausrichtung von Unternehmen benötigen die richtige Geräte-Strategie – Andy Niemann, Director of Business Communication bei Sennheiser, erklärt wie moderne Technologie Kommunikation- und Kollaboration fördern kann.

 

Ob es der Wechsel zu einer neuen Büroumgebung ist, eine Neuordnung der Standorte oder die Einführung einer neuen UC-Infrastruktur – Unternehmen, die Transformationsprozesse durchleben oder hin zu einerglobalen Unternehmensstruktur expandieren, erleben täglich Herausforderungen in ihren Arbeitsprozessen.

 

„Die richtige Mischung aus Kommunikationsgeräten kann sehr zum Erfolg einer Reorganisation beitragen”, so Andy Niemann. „Grundsätzlich kann man sagen, dass jede Transformation auch eine große Chance bietet, Prozesse und die interne Aufstellung zu optimieren. Die Geräte-Strategie eines Unternehmens spielt dabei eine absolute Schlüsselrolle.“

 

Andy Niemann_Director Business Communication

Andy Niemann, Director of Business Communication

„Überall dort im Unternehmen wo eine größere Veränderung der Infrastruktur geplant ist, gilt es zu evaluieren, ob die aktuelle Gerätestrategie von ihrer Struktur optimal auf die neuen Bedingungen abgestimmt ist“, erklärt Niemann. „In den allermeisten Fällen kann neue, zukunftssicherere Ausrüstung neue Geschäftsgelegenheiten eröffnen und die Zusammenarbeit und Produktivität der Mitarbeiter zusätzlich steigern.“

 

„Wenn eine Firma beispielsweise einen neuen Standort eröffnet, kann eine hochqualitative, mobile Ausrüstung für Online-Meetings, wie etwa TeamConnect Wireless von Sennheiser, die Kooperation zwischen den Standorten signifikant verbessern. Mit einer solchen Lösung können Meetings mit bis zu 24 Teilnehmern ad-hoc aufgesetzt werden.“

 

4397B_TeamConnect_Wireless_Tray_Tisch_200416

TeamConnect Wireless / Lizenz: All rights owned by Sennheiser

 

Andere Herausforderungen wie zum Beispiel Platzmangel in Büros können ebenfalls mit technischen Geräten gelöst werden: „Als mobile Lösung kann TeamConnect Wireless jeden Raum innerhalb von Sekunden in einen Konferenzraum verwandeln“, sagt Niemann.

 

„Die richtige Geräte-Strategie macht den Transformationsprozess nicht nur einfacher, sondern bietet auch grundlegend neue Möglichkeiten für Kooperationen am Arbeitsplatz. Es gibt nur eine grundlegende Regel: Alle Benutzeroberflächen in einer Büroumgebung müssen so einfach wie möglich ausgelegt sein – schließlich soll Technologie es uns ermöglichen, unsere Ziele so schnell wie möglich zu erreichen.“

 

weitere Informationen: Sennheiser

 

Pressekontakt:

Local Contact                                                                      

 

Stefan Peters

stefan.peters@sennheiser.com

T +49 (0) 5130 600 1026

M +49 (0) 172  519 7001

 

Aufmacherbild / Lizenz / Quelle

Lizenz: All rights owned by Sennheiser

Industrie 4.0: Die Produktion von morgen

Durch Industrie 4.0 sind allein in sechs volkswirtschaftlich wichtigen Branchen bis zum Jahr 2025 Produktivitätssteigerungen in Höhe von rund 78 Milliarden Euro möglich. Dies legt eine Studie des Fraunhofer IAO und des BITKOM nahe.

Durch die gezielte Vernetzung von Produktionsdaten werden Fehler schneller erkannt und Stillstandszeiten halbiert. Hochkomplexe Kleinserienfertigungen gelingen durch ausgeklügelte automatisierte Produktion. Neue Funkstandards wie etwa 5G ermöglichen die Anbindung von weit mehr als nur Produktionsstandorten und sorgen dafür, dass sich Material-, Güter- und Informationsflüsse zukünftig komplett selbst steuern. 3D-Druck und digitale Geschäftsmodelle ermöglichen eine rentable Produktion in Deutschland. Auf die Mitarbeiter kommen in jedem Fall große Herausforderungen zu. Wir thematisieren die aktuellen Technologien in Form von Fallbeispielen, Gastbeiträgen und Interviews.

Themen und Inhalte:

Sicher produzieren
Ohne Sicherheit keine Industrie 4.0

Der Mensch steht im Mittelpunkt?
Arbeits-, Kreativ- und Konsumprozesse verschmelzen

Digitaler Mehrwert
Alle Daten der Wertschöpfungskette zu digitalen Geschäftsmodellen rund um das Produkt kombinieren

Cyber-Physische-Systeme
Virtuell und reell verschmelzen – zum Wohle des Verbrauchers?

Reshoring
Industrie 4.0 und neue Produktionstech-nologien machen die Produktion hier attraktiv

Semantik, Big Data und KI
Wie die Forschung und Unternehmen das Thema voran treiben

Agil, schlank und intuitiv
Die Fabrik der Zukunft produziert selbstständig und die Ware findet autonom zum Konsument.

HannoverMesse 2017
Leistungsschau der intelligenten Produktion

 

Nachhaltigkeit in Lieferketten: Wie können Unternehmen ihre Zusammenarbeit mit Zulieferern verbessern?

Ein Gastbeitrag von Melanie Wilneder, Key Account Manager, South Pole Group

Auch wenn die Berichterstattung zu Nachhaltigkeitsthemen immer differenzierter wird, bleibt ein blinder Fleck bestehen: die Lieferkette. Der überwiegende Teil der Umweltauswirkungen entsteht in der nachgeschalteten Lieferkette, genau dort, wo belastbare Daten und zuverlässige Berichtspraktiken schwer zu finden sind. Wie können globale Unternehmen sich besser mit ihren Zulieferern vernetzen, um eine Lösung für diese Herausforderung zu finden?

Über 90% der „Global 250“-Unternehmen, der oberen Hälfte der „Fortune Global 500“, berichten über unternehmerische Verantwortung an verschiedene Stakeholder-Gruppen. Dazu gehören unter anderem Investoren, B2B-Kunden und Regulierungsbehörden. Die Berichterstattung über Initiativen wie GRI, CDP und den Dow Jones Sustainability Index gehört mittlerweile zum Standard und ist weit verbreitet. Im Rahmen der ökologischen Nachhaltigkeit berichten Unternehmen zunehmend über ihre Treibhausgasemissionen sowie über Risiken, denen sie aufgrund ihrer Ressourcennutzung ausgesetzt sind, zum Beispiel hinsichtlich Abholzung und Wasserverbrauch.

Um ihre Bilanzen langfristig zu schützen und ihre Zukunftsfähigkeit zu sichern, streben Unternehmen eine kontinuierliche Verbesserung der Nachhaltigkeit ihrer Lieferketten an. Einige Softwareanbieter und NGOs, die Unternehmen bereits in ihrer eigenen Berichterstattung unterstützen, weiten ihr Angebot auf die Lieferkette aus und ermöglichen es damit Unternehmen, relevante Daten direkt von ihren Lieferanten zu sammeln. Spezifische Lösungen kombinieren Selbstbewertungen und Audits zur Lieferkette, die sowohl ökologische als auch soziale Aspekte der Nachhaltigkeit berücksichtigen.

Allerdings ist die Mehrheit der Umweltauswirkungen oftmals in nachgeschalteten Bereichen der Lieferkette zu finden, z.B. bei Tier-3 oder Tier-4 Lieferanten: Pumas Gewinn- und Verlustrechnung (GuV) beispielsweise zeigt, dass 57% der Umweltauswirkungen bei Tier-4 Zulieferern entstehen, verglichen mit 6% im eigenen Betrieb, und 9% bei direkten Lieferanten (Tier-1). Konkret bedeutet dies, dass über die Hälfte der Umweltauswirkungen der Lieferkette weit außerhalb des direkten Einflussbereiches von verbraucherorientierten Unternehmen liegen.

Eine weitere Herausforderung besteht darin, dass Lieferanten oft weniger in der Lage – oder bereit – sind, die benötigten Daten zur Verfügung zu stellen, da ihre Nachhaltigkeitsabteilungen oft nicht so gut aufgestellt und finanziert sind wie die der großen internationalen Markenunternehmen. Vor einem globalen Hintergrund ist dies mehr als beunruhigend: In westlichen Ländern sinken die Treibhausgasemissionen oder haben ihren Höchststand erreicht, da emissionsintensive Herstellungsprozesse zunehmend an nachgeschaltete Lieferanten in Schwellenländer ausgegliedert werden. Dies geht oft mit insgesamt niedrigeren regulatorischen Berichterstattungs- und Transparenzanforderungen in diesen Ländern einher.

Wie können globale Unternehmen sich stärker mit ihren Lieferanten vernetzen, um ihre Verantwortung gegenüber Endkunden wahrzunehmen?

Ein solides Management von Wasser, Waldressourcen und Energie ist ein wichtiger Prozess, um die Lieferketten von Konsumgüterfirmen nachhaltig auszurichten. Die drei wichtigsten Schritte umfassen die Identifizierung von Risiken, die mit natürlichen Ressourcen verbunden sind, die Umstellung auf eine erneuerbare Energieversorgung und die Kompensation von Emissionen, die unvermeidbar sind. Eine enge Zusammenarbeit mit Lieferanten in diesen Bereichen ist entscheidend.

1) Risiken von Ressourcen und Rohstoffen identifizieren

Um Rohstoffrisiken entlang der Lieferkette zu identifizieren, müssen Unternehmen nur die Geokoordinaten ihrer Rohstoffverarbeitung kennen, unabhängig davon, wie weit hinten sie in der Lieferkette gelagert sind.

Mit anspruchsvollen Werkzeugen, die auf geographischen Informationssystemen (GIS) basieren, wie etwa dem „Big Chain Tool“ der South Pole Group, kann ein Unternehmen herausfinden, ob die Rohstoffbeschaffung und -verarbeitung zur Entwaldung an einem bestimmten Ort beiträgt, oder ob Wasserrisiken vorhanden sein können. Häufig mangelt es jedoch noch an Transparenz und Unternehmen können die ökologischen Auswirkungen ihrer Lieferkette nicht vollständig nachvollziehen. In der Folge können globale Markenunternehmen mit Umweltkampagnen konfrontiert werden, ohne angemessene Kommunikations- oder Unternehmensrichtlinien als Antwort zu haben. Darüber hinaus verhindern zerstörte Ökosysteme langfristig effiziente Produktionsprozesse. Nur ein nachhaltiges Management der natürlichen Ressourcen kann eine Fortführung der Geschäftsaktivitäten in der Zukunft sicherstellen.

Wenn ein Rohstoff mit Abholzung in Verbindung gebracht wird, können Unternehmensrichtlinien formuliert, umgesetzt und überwacht werden, um dies in Zukunft zu vermeiden. Fortschritte können an Stakeholder berichtet werden, die zunehmend Nachweise für konkrete Nachhaltigkeitsmaßnahmen verlangen. Aus gutem Grund: Das kürzlich von der South Pole Group und CDP veröffentlichte Unternehmens-Scoring zum Bereich Waldressourcen zeigt, dass nur 30% der an CDP berichtenden Unternehmen den Ursprung von Rohstoffen bestimmen kann, die mit Abholzung in Verbindung gebracht werden. Gleichzeitig hängen Unternehmensumsätze von bis zu 906 Milliarden US-Dollar von Rohstoffen ab, die den Großteil der weltweiten Abholzung der tropischen Regenwälder verantworten.

Sobald Probleme mit Rohstoffen oder natürlichen Ressourcen identifiziert sind, kann ein nächster Schritt eine Verpflichtung zur Vermeidung von Entwaldung sein.
Verpflichtungen zu „Zero Deforestation“ entwickeln sich immer mehr zu Best Practices, wie der Anstieg um 30% gegenüber dem Vorjahr seit 2009 und die Beschleunigung auf 80% zwischen 2013 und 2014 zeigt.

2) Umstellung der Produktion auf erneuerbare Energie

Auch die negativen Umweltauswirkungen von Produktion und Fertigung können signifikant reduziert werden. Dank Initiativen wie RE100 oder den „Renewable Energy Buyers’ Principles” haben viele große Unternehmen sich zeitliche Ziele gesetzt, um 100% erneuerbare Energien zu erreichen.

Nicht nur die CSR-Abteilungen sind in großen Unternehmen weiter fortgeschritten als ihre Lieferanten, dies trifft meistens auch auf ihre Beschaffungsabteilungen zu. Energieeinkäufer arbeiten mit CSR-Abteilungen zusammen, um sicherzustellen, dass die richtige Menge und Qualität erneuerbarer Energie eingekauft wird, angefangen von nationalen Grünstromtarifen bis hin zu Power Purchase Agreements (PPAs) für große eigene Produktionsanlagen und Herkunftsnachweisen (Renewable Energy Certificates, RECs) für den Stromverbrauch von Niederlassungen und Einzelhandelsgeschäften mit geringem Energieverbrauch, die ihren Stromanbieter nicht direkt auswählen können.

Produzierende Hersteller sollten diesem Beispiel folgen: Sie können davon profitieren, dass große Markenunternehmen eine Vorreiterrolle einnehmen und die Nachfrage nach erneuerbaren Energien ankurbeln, während die Kosten für Erneuerbare Energien weiter sinken. Gleichzeitig können Unternehmen produzierende Lieferanten bei ihrer Energiestrategie unterstützen. Sie können ihre Expertise in Bezug auf die Beschaffung von erneuerbaren Energien teilen und finanzielle Unterstützung zur Verfügung stellen, um PPAs vor Ort oder in der Nähe von Produktionsanlagen umzusetzen.

3) Die Kompensation unvermeidbarer Emissionen

Viele große Unternehmen kompensieren bereits ihre eigenen unvermeidbaren Treibhausgasemissionen. Emissionen, die in ihrer Lieferkette entstehen, z.B. in der Logistik oder Rohstoffbeschaffung, werden hingegen oftmals nicht kompensiert.

Unternehmen können ihre Rohstofflieferanten in Projekte zur Reduktion von Emissionen entlang der Lieferkette einbinden, durch das sogenannte „Insetting“. Dabei werden Klimaschutzprojekte, die CO2 vermeiden, direkt innerhalb der Wertschöpfungskette eines Unternehmens entwickelt. Der Fokus liegt auf der Quantifizierung aller relevanten Auswirkungen über CO2 hinaus, einschließlich der lokalen Gemeinschaften, Mitarbeiter und anderer natürliche Ressourcen. Je nach Unternehmensanforderungen wenden die Projekte den am besten geeigneten Monitoring-, Reporting- und Verifizierungs- / Auditstandard an, einschließlich des Goldstandards, des Verified Carbon Standards, des Plan Vivo, des GHG-Protokolls, des CCB-Standards usw.

Der Druck auf Unternehmen steigt, ihre Auswirkungen und Risiken entlang der Wertschöpfungsketten offenzulegen – ein Bereich, der zum Hauptfokus von Nachhaltigkeitsmaßnahmen wird. Dank der zunehmenden Verfügbarkeit und Transparenz von relevanten Daten wird die Nachhaltigkeitsberichterstattung zunehmend ermöglicht.

Dennoch können dauerhafte positive Auswirkungen entlang der Wertschöpfungskette nur gewährleistet werden, wenn Unternehmen mit ihren Hauptzulieferern zusammenarbeiten. Die Kaufkraft von großen Konsumgüterunternehmen ermöglicht ihnen einen entscheidenden Einfluss auf die Geschäftsaktivitäten ihrer Zulieferer. Letztlich können große Unternehmen ihre eigenen Nachhaltigkeitsziele nur erreichen, wenn sie hohe Standards für die Leistung ihrer Zulieferer setzen. Die langfristige Zusammenarbeit mit Zulieferern ist vor diesem Hintergrund die nächste große Herausforderung – und ein entscheidender Schritt, um die schädlichen Auswirkungen des Klimawandels einzudämmen.

Autorin:

Melanie Wilneder_SPGMelanie Wilneder, Key Account Manager, South Pole Group

 

 

 

 

Weitere Informationen unter:
http://www.thesouthpolegroup.com/

Bildquelle / Lizenz:

Sicherheit gewinnt durch die Digitalisierung an Brisanz

Bei der Digitalisierung wachsen Unternehmensbereiche zusammen, die vorher getrennt waren. Maschinen werden durch die Digitalisierung bequem über das Internet steuerbar – aber auch angreifbar. Michael Hohl, Vice President beim IT-Dienstleister transtec in Reutlingen, stellt die Rolle von Sicherheitstechnologien für die Digitalisierung ganz oben an.

Erleben Sie in Ihrem Beratungsalltag Sicherheitsbedenken als „Digitalisierungs-Verhinderer“?
Die Bedenken orientieren sich unserer Erfahrung nach in der Hauptsache daran, wie das Thema Sicherheit im Unternehmen gehandhabt wird. Firmen, die zu den kritischen Infrastrukturen zählen – etwa Energieversorger – stehen der Digitalisierung aus Sicherheitsgründen viel skeptischer gegenüber als der Werkzeughersteller oder der Heizungsbauer um die Ecke. Für Unternehmen mit hohem Sicherheitsbedürfnis stellen sich vor allem folgende Fragen: Wie lässt sich die Digitalisierung umsetzen? Funktionieren Prozesse dann noch? In den meisten Fällen ist es uns möglich, ihnen zu zeigen, dass sich die bestehenden Prozesse durch Anpassung in das neue digitalisierte Modell einbetten lassen. Nur in den seltensten Fällen ist ein komplettes Re-Design der Prozesse nötig.

Wie schätzen Sie hier das Bewusstsein für die Chancen aber auch Risiken ein?
Digitalisierung macht Unternehmen in vielen Bereichen schneller, produktiver und verschafft ihnen Wettbewerbsvorteile. Doch mit ihr gewinnt auch das Thema IT-Sicherheit an Brisanz. Der Grund liegt auf der Hand: bei der Digitalisierung wachsen Bereiche zusammen, die zuvor noch getrennt waren, beispielsweise IT und Produktion. Das bedeutet, dass die Produktionssysteme jetzt auch über das Internet ansprechbar und so angreifbar sind. Eine Cyberattacke könnte dann der Grund dafür sein, dass die Maschine das Loch in einem Werkstück ein paar Millimeter versetzt bohrt oder das Mischungsverhältnis einer Chemikalie nicht mehr stimmt. So ein Vorfall führt zu Imageverlust und möglicherweise auch zu Schadensersatzzahlungen. Es reicht nicht mehr aus, einfach nur die IT abzusichern. Die Sicherheits-Lösungen müssen ganzheitlich ausgelegt sein und beispielsweise auch Bussysteme und Protokolle berücksichtigen, über die die Maschinen kommunizieren.

Sie haben IT-Sicherheitsberatung als neuen Zweig in Ihr Beratungsportfolio mit aufgenommen. Von welchem Erfahrungsschatz können Ihre Kunden profitieren?
Wir begleiten seit Jahren verschiedene Kunden aus unterschiedlichen Branchen. Unter ihnen befinden sich auch eine Vielzahl aus den kritischen Infrastrukturen wie Energieversorger oder Forschungseinrichtungen, und genauso aus dem militärischen Bereich. Ohne die nötige Expertise wäre eine Zusammenarbeit mit ihnen nicht möglich, denn die Sicherheit ist ein fester Bestandteil der Verträge, die wir mit ihnen abschließen. Wir wissen daher ganz genau, welche Standards der Gesetzgeber vorschreibt, und welche Maßnahmen nötig sind, Systeme sowohl technisch als auch organisatorisch sicher zu machen. Auch ist transtec bereits seit Jahren nach ISO 27001 zertifiziert. Dadurch gehört Sicherheit zu unserer gelebten Praxis.
Hinzu kommt, dass wir über weitreichende Erfahrungen im Bereich Smart Business verfügen, da er seit über einem Jahr in unserem Fokus steht. Hier gibt es bislang keine einheitlichen Standards und es ist viel Fingerspitzengefühl nötig, um die oft heterogenen Systeme sicher zu machen. Wichtig ist dabei vor allem, einen ganzheitlichen Ansatz zu verfolgen und nicht nur die funktionale Umsetzung zu betrachten. Ein wirksamer Schutz lässt sich nur implementieren, wenn man die Prozesse und die Abhängigkeiten im Unternehmen detailliert analysiert. Erst dann ist eine realistische Einschätzung der nötigen Maßnahmen möglich.

Vollständige Sicherheit kann es nicht geben. Welchen Beratungsansatz verfolgen Sie?
Da muss ich zustimmen, ein absolut sicheres System gibt es nicht. Zwar ließe sich die Sicherheit drastisch erhöhen, beispielsweise indem man das System von allen externen Kommunikationskanälen trennt, doch dadurch würde die Produktivität eines Unternehmens gegen Null sinken. Das kann nicht das Ziel sein. Um wirtschaftlich zu bleiben, muss man vielmehr Kompromisse eingehen. Wir verfolgen daher einen Ansatz, der einen Mittelweg beschreitet. Dazu analysieren wir das bestehende Sicherheitskonzept und erweitern es Schritt für Schritt nach realistischen, erreichbaren Zielen. Der kontinuierliche Verbesserungsprozess, der in vielen Bereichen des Unternehmens ein fester Bestandteil ist, wird in der Folge auch auf den Sicherheitsbereich übertragen.

Wie nehmen Sie die Belegschaft Ihrer Kunden bei diesem wichtigen Thema mit?
Neben dem klassischen IT-Consulting übernehmen wir für Unternehmen auch die Aufgabe des externen Datenschutzbeauftragten. Die EU-Datenschutz-Grundverordnung schreibt Unternehmen, die personenbezogene Daten von EU-Bürgern verarbeiten, vor, einen Datenschutzbeauftragten zu bestellen. Im Rahmen dieser Aufgabe überprüfen wir, ob alle Anforderungen erfüllt sind und machen Vorschläge, wenn nachgebessert werden muss. Zum Leistungsumfang gehört es auch, die Mitarbeiter regelmäßig zu schulen und sie für aktuelle Sicherheits-Bedrohungen sensibel zu machen. Wenn sie mit kritischen Daten umgehen, sorgen spezielle Schulungen, die auf ihren Arbeitsbereich zugeschnitten sind, für das nötige Sicherheitsbewusstsein. Alle Maßnahmen zusammen realisieren im Unternehmen eine Art von gelebter Sicherheit.

Sie bieten ein überdurchschnittlich integriertes Portfolio. Ausgehend vom Thema Sicherheit: welche Entwicklungen können wir in den nächsten Monaten von Ihrer Seite aus erwarten?
Das Thema IT-Sicherheit hat in den letzten Jahren immer mehr an Bedeutung zugenommen – nicht zuletzt durch die EU-Datenschutz-Grundverordnung, die im Mai 2018 vollständig in Kraft tritt. Viele Unternehmen wissen noch gar nicht, was auf sie zukommt und was es bedeutet, einen Verstoß zu riskieren. Aufgrund der hohen Strafen ist es geradezu fahrlässig, wenn ein Unternehmen nicht jetzt schon Maßnahmen ergreift und seine Prozesse entsprechend optimiert.
Unser Portfolio ist bezüglich Sicherheit und Datenschutz sehr gut ausgerichtet, weswegen eine Erweiterung auf anderen Gebieten nicht nötig ist. Aufgrund der hohen Nachfrage werden wir uns aber in nächster Zeit auf die Services konzentrieren, die wir bereits im Angebot haben und dort die Leistungen weiter ausbauen. Um dem wachsenden Bedarf gerecht zu werden, planen wir beispielsweise uns intern personell zu vergrößern, um alle Aspekte der Anforderungen noch besser zu erfüllen – sowohl auf der Beratungsseite als auch in technischer Hinsicht. So können wir auf die Wünsche unserer Kunden noch besser eingehen.

Weitere Informationen unter:
www.transtec.de

Bildquelle / Lizenz: transtec AG

Fachkräftemangel kostet dem Mittelstand knapp 50 Milliarden!

Fachkräftemangel im Mittelstand spitzt sich zu – Umsatzeinbußen von knapp 50 Milliarden Euro

 

  • EY Mittelstandsbarometer: 59 Prozent der Mittelständler uneingeschränkt zufrieden mit Geschäftslage – höchster Wert seit 2004
  • Ein Drittel will neue Jobs schaffen – aber 78 Prozent haben Probleme bei der Mitarbeitersuche
  • Fast 50 Milliarden Euro entgangene Umsätze wegen fehlender Fachkräfte im deutschen Mittelstand
  • Jeder sechste Mittelständler beschäftigt Flüchtlinge – größte Barriere ist die Sprache

Stuttgart, 26. Januar 2017. Trotz wirtschaftlicher und politischer Turbulenzen innerhalb und außerhalb Europas: Die Geschäfte im deutschen Mittelstand laufen so gut wie seit Jahren nicht. Mehr als jeder zweite Mittelständler (59 Prozent) ist derzeit uneingeschränkt zufrieden mit der Geschäftslage – das ist der höchste Wert seit dem Jahr 2004, als die Studie erstmals durchgeführt wurde. Auch der Ausblick ist optimistisch: 38 Prozent erwarten, dass sich die eigene Geschäftslage in den kommenden sechs Monaten verbessert, nur sieben Prozent rechnen mit sinkenden Umsätzen.

Doch vor allem der Fachkräftemangel trübt die Stimmung: 78 Prozent der Unternehmen geben an, dass es ihnen schwer falle, ausreichend qualifizierte Mitarbeiter zu finden – vor einem Jahr lag der Anteil noch bei 69 Prozent, Anfang 2015 bei 67 Prozent. Besonders zwei deutsche Vorzeigebranchen – der Kraftfahrzeugbau und die Elektrotechnik – berichten von Problemen bei der Rekrutierung qualifizierter Mitarbeiter: In diesen Branchen fällt es 89 bzw. 84 Prozent der Unternehmen schwer, offene Stellen adäquat zu besetzen. Zudem wird der Fachkräftemangel von den mittelständischen Unternehmen derzeit als das größte Risiko für das eigene Unternehmen gesehen – noch vor einer möglichen Konjunkturabschwächung, Hackerangriffen oder zunehmenden geopolitischen Spannungen.

Der Mangel an qualifizierten Arbeitskräften macht sich bereits ganz konkret in den Büchern der Unternehmen bemerkbar: Gut jeder zweite Mittelständler (53 Prozent; Vorjahr: 49 Prozent) beklagt, dass er Aufträge nicht annehmen kann, weil ihm geeignete Fachkräfte fehlen – jeder neunte beklagt sogar erhebliche Umsatzausfälle von mehr als fünf Prozent. Insgesamt dürfte sich der Schaden, der dem deutschen Mittelstand durch derartige entgangene Umsätze entsteht, nach EY-Berechnung auf jährlich gut 49 Milliarden Euro belaufen.

Grundsätzlich ist dabei die Bereitschaft, zusätzliche Mitarbeiter einzustellen, so hoch wie seit Jahren nicht: 33 Prozent der Mittelständler planen, die Zahl der Mitarbeiter in Deutschland zu erhöhen – der höchste Wert seit zehn Jahren.

Das sind Ergebnisse des Mittelstandsbarometers der Prüfungs- und Beratungsgesellschaft EY (Ernst & Young), für das 3.000 mittelständische Unternehmen in Deutschland befragt wurden.

 

Vorsitzender der Geschäftsführung | Country Managing Partner von EY Deutschland

Vorsitzender der Geschäftsführung | Country Managing Partner von EY Deutschland

„Der deutsche Mittelstand macht derzeit beste Geschäfte – trotz der schwierigen wirtschaftlichen und politischen Großwetterlage“, kommentiert Hubert Barth, Vorsitzender der Geschäftsführung von EY in Deutschland, die Umfrageergebnisse. „Dabei profitieren die Unternehmen vor allem von der Konsumlaune der Verbraucher, aber auch von der steigenden Nachfrage aus dem europäischen Ausland. Allerdings geraten die Unternehmen zunehmend an Grenzen – denn ihnen fehlt das Personal, um weiter zu wachsen.“

 

 

 

„Viele Unternehmen suchen händeringend nach hoch qualifizierten Mitarbeitern“, ergänzt Peter Englisch, Partner bei EY. „In manchen Regionen ist der Arbeitsmarkt leer gefegt. Größere Unternehmen suchen daher zunehmend im Ausland nach Mitarbeitern oder bauen entsprechende Funktionen außerhalb Deutschlands aus.“

 

Beschäftigungsdynamik auf 6-Jahres-Hoch – Ingenieure und Vertriebler gefragt

Während in den kommenden sechs Monaten ein Drittel der Unternehmen Personal aufbauen will, soll die Mitarbeiterzahl nur bei elf Prozent sinken – der Saldo liegt mit 22 Punkten auf dem höchsten Stand seit sechs Jahren.

Besonders gesucht sind Fachkräfte in den Bereichen Produktion – hier berichten 50 Prozent der Unternehmen von zahlreichen offenen Stellen – und Vertrieb/Kundendienst (25 Prozent). Über zahlreiche Vakanzen im IT-Bereich berichten 15 Prozent der Unternehmen – zukünftig dürfte dieser Anteil aber deutlich steigen, erwartet Barth: „Die Digitalisierung erfasst immer mehr Branchen, auch in bislang IT-fremden Bereichen werden zunehmend Softwarespezialisten gesucht.
Während einfache Tätigkeiten zukünftig dank der zunehmenden Automatisierung und Digitalisierung in Produktion und Logistik immer seltener nachgefragt werden, wird in den kommenden Jahren die Nachfrage nach Softwareexperten erheblich steigen. Wenn aber die entsprechenden Stellen nicht besetzt werden können, weil nicht genug Fachkräfte zur Verfügung stehen, werden die Unternehmen an Wettbewerbsfähigkeit verlieren.“

Im Wettbewerb etwa um solche Digitalisierungsexperten sieht Englisch den Mittelstand im Nachteil: „Gerade kleinere Unternehmen in ländlicheren Regionen, deren Produkte in der breiten Bevölkerung wenig bekannt sind, werden es tendenziell immer schwerer haben, qualifizierte Mitarbeiter zu finden.“

 

ey-infografik-mittelstandsbarometer-2017

Jeder sechste Mittelständler beschäftigt Flüchtlinge

Können Flüchtlinge dazu beitragen, den Fachkräftemangel in Deutschland zu mildern? Im vergangenen Jahr waren noch 55 Prozent dieser Meinung, in diesem Jahr nur noch 45 Prozent. Immerhin aber beschäftigen derzeit 16 Prozent der Unternehmen Flüchtlinge – weitere 59 Prozent wären grundsätzlich bereit, Flüchtlinge einzustellen.

Als größte Hürde für eine erfolgreiche Integration von Flüchtlingen in den deutschen Arbeitsmarkt nennen vier von fünf Mittelständlern mangelnde Deutschkenntnisse; fehlende Qualifikationen sieht wie im Vorjahr knapp jeder zweite Befragte (46 Prozent). Deutlich weniger Schwierigkeiten als Anfang 2016 bereitet offenbar die Bürokratie: Vor einem Jahr sahen noch 58 Prozent der Unternehmern die unklare Gesetzeslage während laufender Asylverfahren als Problem – inzwischen sind es nur noch 34 Prozent. Und der Anteil der Mittelständler, die die fehlende Planungssicherheit – etwa die Gefahr der Abschiebung – beklagen, hat sich binnen Jahresfrist von 52 auf 25 Prozent mehr als halbiert.

Obendrein scheinen sich auch die Möglichkeiten für Unternehmen, Flüchtlinge als Arbeitskräfte zu rekrutieren, verbessert zu haben: Vor einem Jahr bezeichneten noch 43 Prozent den Zugang für Betriebe zu qualifizierten Flüchtlingen als schwierig, derzeit sehen dies nur noch 23 Prozent als Problem an.

„Die Integration der Flüchtlinge in den Arbeitsmarkt ist derzeit eine der vordringlichsten Herausforderungen für Deutschland – sowohl gesellschaftlich als auch wirtschaftlich“, betont Barth. „Und zu diesem Kraftakt können und wollen die mittelständischen Unternehmen einen Beitrag leisten – zumal viele als Ausbildungsbetriebe über entsprechende Erfahrungen verfügen und gerade jungen Flüchtlingen eine Perspektive geben können.
Die Menschen, die zu uns kommen, müssen so schnell wie möglich die deutsche Sprache lernen – das ist die wichtigste Voraussetzung für eine gelungene Integration in die Arbeitswelt und in die Gesellschaft.“ Dazu seien allerdings erhebliche weitere Anstrengungen und Investitionen im Bereich der Bildung und Ausbildung notwendig.

 

Download: EY Mittelstandsbarometer 2017

 

 

Pressekontakt:
Ernst & Young GmbH
Wirtschaftsprüfungsgesellschaft
Dag-Stefan Rittmeister
Flughafenstraße 61
70629 Stuttgart
Telefon +49 (711) 988 11 59 80
E-Mail Dag-Stefan Rittmeister

Ernst & Young GmbH

Lebensmittel online – immer mehr folgen dem Trend

Rund jeder vierte Deutsche hat im vergangenen Jahr mindestens einmal Lebensmittel online bestellt, wie eine aktuelle Bitkom-Umfrage belegt. Mehr als 15 Millionen Menschen haben also von der Möglichkeit Gebrauch gemacht, bequem zuhause vom Computer aus nicht nur Handelswaren, sondern auch Lebensmittel zu bestellen und sich so den Gang zum Supermarkt zu ersparen. Doch hat der Online-Einkauf für den täglichen Gebrauch Zukunft? Kann alles schon bequem vor die Haustür geliefert werden? Und kann man auch frische Lebensmittel wie Gemüse oder Fleisch risikolos online bestellen?

Zahlreiche Angebote

Anbieter wie Allyouneed Fresh bieten mittlerweile ein umfangreiches Angebot im Online-Supermarkt an. Die Waren werden dabei zeitnah nach Hause geliefert, können aber auch nach der Online-Bestellung direkt im Markt abgeholt werden. Gerade für Berufstätige ein verlockendes Angebot. Denn wer will schon nach einem arbeitsreichen Tag noch alles, was man braucht, im Markt zusammensuchen, um sich dann lange nach Feierabend an der Supermarktkasse anzustellen. Sowohl das Liefer- als auch das Abholservice sparen wertvolle Freizeit und bringen ein deutliches Mehr an Lebensqualität. Wohl einer der ganz wichtigen Gründe, warum die Onlinekäufe nicht nur bei Technik und Mode, sondern mittlerweile auch bei Lebensmitteln boomen.

Lieferzeit und Frische

Dabei stellt sich aber natürlich die Frage: Wann bekomme ich meine bestellten Lebensmittel? Kann ich auch Frischeprodukte, wie Milch, Fleisch, Obst, Wurst, Käse oder Gemüse sicher liefern lassen? Dafür haben die Anbieter schon eine optimale Antwort: Die Kühlbox. In der isolierenden Styropor-Verpackung bleiben Lebensmittel bis zu 24 Stunden frisch und erfüllen alle gesetzlichen Vorschriften zur Kühlkette und Hygiene. Dennoch kann diese Art der Lieferung außerhalb der Ballungszentren problematisch werden – oft wird da nämlich die 24-Stunden-Frist überschritten. Die Waren kommen zwar gesundheitstechnisch einwandfrei, aber oft unansehnlich an – besonders betrifft das frisches Obst und Gemüse.

Spezialangebote wie Bio und vegan

Besonders attraktiv ist die Möglichkeit der Online-Bestellung für Kunden, die spezielle Interessen oder Bedürfnisse haben. Gluten- oder laktosefreie Produkte etwa ebenso wie eine rein vegane Produktpalette. Hier steht dem Käufer oft eine wahre Supermarkt-Odyssee bevor, bis alle notwendigen Produkte in der gewünschten Qualität gefunden sind. Online gibt es hier keine Probleme. Gerade Spartenanbieter wie regionale Bio-Erzeuger oder auf Veganer spezialisierte Händler liefern vorzugsweise online. Was natürlich gerade bei Trockenprodukten wie Mehl, Soja, Nudeln oder Müsli kein Problem darstellt. Man kann sich hier bequem einen Monatsvorrat online bestellen und nach Hause liefern lassen. Bei Obst und Gemüse oder gar Fleisch sei aber der regionale Händler empfohlen, der zeitnah und zum gewünschten Zeitpunkt liefern kann, um eine Unterbrechung der Kühlkette zu vermeiden.

Online-Anteil beim Lebensmittelkauf soll sich verdoppeln

Trotz einer breit vorhandenen Skepsis gegenüber dem Onlinekauf von Lebensmitteln – vor allem von Frischware – prognostiziert eine Studie der GfK eine Verdoppelung des Anteils von Food- und Drogerieartikeln am Onlinehandel von heute acht auf 16 % bis ins Jahr 2025. Die stationären Märkte selbst wird das nicht treffen. Denn der Onlinehandel ist nur ein Zusatzangebot etwa für Berufstätige. Diese begeben sich am Wochenende aber auch sehr gerne selbst in die Märkte, um entspannt zu shoppen.

Bildquelle / Lizenz: