Checkliste: Data Science als strategisches Projekt

Dies ist ein Gastbeitrag von Gery Zollinger, Head of Data Science & Analytics bei Avaloq

Wenn Finanzinstitute ihre Daten sinnvoll nutzen, können sie ihr Geschäft transformieren und sich einen wichtigen Wettbewerbsvorteil verschaffen. Neueste Analysetechnologien und KI-Lösungen werden für Privatbanken und Vermögensverwalter unverzichtbar, um ihre Zukunftsfähigkeit zu sichern. Einer aktuellen Umfrage von Avaloq unter 208 Vermögensberatern von 110 führenden Finanzdienstleistern in Zürich, Singapur, London und Frankfurt zufolge sehen 55 Prozent der Befragten Künstliche Intelligenz und Datenanalyse als wichtige Technologien für ihre Zukunft. Gleichzeitig hat eine informelle Umfrage auf den Avaloq Community Conferences aber ergeben, dass Wealth Manager erst ungefähr 35 Prozent der Daten, die ihnen zur Verfügung stehen, tatsächlich nutzen und auswerten. Der Handlungsbedarf in Sachen KI und fortgeschrittener Analysemethoden ist den meisten in der Branche offenbar bewusst, nur mangelt es an der Umsetzung. Allerdings hilft es wenig, sich blauäugig in sein Data Science-Projekt zu stürzen – und zu hoffen, früher oder später werde es schon die erhofften Ergebnisse liefern. Data Science ist eine Aufgabe von strategischer Relevanz, die Finanzinstitute entsprechend planvoll angehen sollten. Die folgende Checkliste hilft, die gängigsten Fehler zu vermeiden.

  1. Data Science-Projekte entscheiden über Zukunftsfähigkeit
    Banking und Wealth Management ist zwar ein Geschäft, bei dem große Datenmengen anfallen, aber zugleich arbeiten viele Finanzinstitute auf sehr traditionelle Weise. In solchen Organisationen einen modernen, datengetriebenen Ansatz zu vermitteln, ist nicht ganz einfach. Data Science ist eben nicht nur ein Experiment oder das jüngste Marketing-Schlagwort. Um im Wettbewerbsumfeld der Zukunft zu bestehen, ist sie überlebenswichtig. Ein Data Science-Projekt braucht darum die Unterstützung von ganz oben: ein klares strategisches Commitment auf Vorstandsebene.
  2.  Priorität für die gesamte Organisation
    Das Engagement des Vorstands ist das eine, das der gesamten Organisation aber das andere. Der Erfolg eines Datenanalyse-Projekts hängt darum ebenso von einem wirkungsvollen Change Management ab. Es braucht das Verständnis und die Zustimmung in der gesamten Organisation, vom Relationship Manager im Front Office bis zum Legal Officer im Back Office. Der Wandel zu einer datengetriebenen Organisation ist eine Frage der Unternehmensstrategie und der Unternehmenskultur. Er muss in den Köpfen ankommen.
  3. Agiles Vorgehen in abteilungsübergreifende Teams
    Ein agiler organisatorischer Rahmen kann darum ein wesentlicher Bestandteil des Projekterfolgs sein. Wenn engagierte Mitarbeiter mit unterschiedlichen Fähigkeiten in gemischt besetzten Teams zusammenarbeiten, um in einer Kette von Sprints und auf iterative Weise neue Produkte zu entwickeln, führt dies nicht nur schneller und effektiver zum Ziel. Ein agiler Ansatz kann auch die Mitarbeiter ganz anders involvieren und dank der gemischten Teams besser in die Organisation hineinwirken. Partizipation ist eine wichtige Voraussetzung für effektiven Wandel.
  4. Die strategische KI-Roadmap
    Mit großen Datenmengen umzugehen und aus ihnen durch geeignete Analysen wertvolle Erkenntnisse abzuleiten, ist keine triviale Aufgabe. Ein Data Science-Projekt braucht einiges an Ressourcen und Investitionen. Ohne eine passende Strategie und einen sinnvollen Fahrplan werden die großen Datenmengen, die zu verarbeiten sind, für die Organisation eher zur Belastung als zur Chance. Besonders effektiv ist es, nutzerzentriert von Anwendungsfällen auszugehen und diese in verschiedenen Geschäftsbereichen zu bündeln. Dies lässt sich mit einem vielfältigen Portfolio an KI-Projekten kombinieren, von Wachstumsinitiativen für das Front Office bis hin zu Projekten für die Risikominimierung oder die Effizienzsteigerung im Back Office.
  5. Technologische Komplexität in den Griff bekommen
    Die Tools und die Hardware für ein Data Science-Projekt erfordern nicht nur ein initiales Investment, sondern benötigen auch noch erhebliche Ressourcen, nachdem sie eingerichtet sind. Schon allein dem beachtlichen Speicherbedarf für all die Daten zu genügen und eine Daten-Infrastruktur zu schaffen, die den Bedarf in Zukunft noch erfüllt, ist eine erhebliche Aufgabe. Dies gilt nicht zuletzt vor dem Hintergrund, dass der Platz in den Data-Centern vieler Finanzinstitute recht beschränkt ist. Es ist eben nicht damit getan, einen hochqualifizierten Datenwissenschaftler mit Doktortitel einzustellen und die moderne große Datensoftware zu implementieren. Data Science-Projekte haben einen anhaltend hohen Bedarf an Infrastruktur-Ressourcen. Zudem entfalten sie disruptives Potenzial und stellen besondere Anforderungen an Sicherheit, Datenschutz und Verfügbarkeit.
  6. Saubere Daten als unverzichtbare Grundlage
    Für den reibungslosen Workflow in Data Science-Prozessen stellt es oft die größte Herausforderung dar, unvollständige und unsaubere Datensätze aufzubereiten. Schon die Informationen aus einem Klientenprofil weisen oft erhebliche Lücken auf. Dass hier Daten fehlen, ist keine Seltenheit, besonders dann, wenn Informationen im Free-Text-Format erfasst sind. Größere Organisationen, auch im Bereich der Finanzdienstleistung, haben darum in den vergangenen Jahren oft schon erheblich investiert, um Datensilos aufzulösen, Systeme zu konsolidieren und Daten aus verschiedensten Quellen sinnvoll zusammenzuführen. Innovative Technologie kann hier entscheidend helfen und die Datenqualität sichern. So dienen Methoden des Machine Learnings dazu, Entitäten auf effiziente Weise aufzulösen und Datensätze miteinander zu verknüpfen.
  7. Machine Learning im Branchenmaßstab
    Um gute Ergebnisse zu bringen, benötigen Machine Learning-Technologien wie Deep Learning bzw. tiefe neuronale Netze oft sehr viele verschiedene Trainingsdaten. Ein Open-Banking-Ansatz und ein großes Ökosystem können wesentlich dabei helfen, die Prognosefähigkeiten von Machine Learning zu steigern. Denn ein relativ neues Konzept namens Federated (bzw. Collaborative) Learning, das auch Technologiegiganten wie Google und Apple nutzen, ermöglicht es, Algorithmen auf einer großen Basis von Trainingsdaten zu verbessern – ohne dabei den Erfordernissen des Datenschutzes zu widersprechen.

Weiterführende Informationen rund um KI und Machine Learning hat Avaloq in seinem Whitepaper „Wealth management redefined using artificial intelligence“ zusammengestellt, das zum kostenfreien Download hier (http://www.avaloq.link/WM-AI) verfügbar ist.

Über den Autor

Gery Zollinger ist Head of Data Science & Analytics bei Avaloq (www.avaloq.com), ein Anbieter von digitalen Banking-Lösungen, Kernbankensoftware und Vermögensverwaltungstechnologie. Er verfügt über mehr als acht Jahre Erfahrung im Bereich Analytics und quantitative Modellierung. Bevor er 2019 zu Avaloq stieß, arbeitete er bei Credit Suisse im globalen Credit Risk Analytics Team und war für die Kreditrisikomodellierung innerhalb der Sparten Private Banking und Investment Banking verantwortlich. Zudem hat er dort ein globales Data Scientist Team im Bereich Compliance Analytics aufgebaut und geleitet. Gery Zollinger verfügt über Abschlüsse in Wirtschaft & Statistik der Universität Zürich (Schweiz), der Universität Lausanne (Schweiz) und der NHH Bergen (Norwegen) sowie einen Abschluss in Informatik der ETH Zürich (Schweiz).

Weitere Informationen unter:
www.avaloq.com

Die Blockchain revolutioniert den Energiemarkt

Dies ist ein Gastbeitrag von Dr. Tom Kraus. Er ist wissenschaftlicher Mitarbeiter in der Begleitforschung des Technologieprogramms Smart Service Welten, das vom Bundesministerium für Wirtschaft und Energie gefördert wird.

Der Anteil erneuerbarer Energien an der Stromerzeugung steigt seit Jahren und lag 2019 bei über 40 Prozent. Damit dieser Anteil auch in den kommenden Jahren wächst, bedarf es eines Umdenkens auf dem Energiemarkt: Denn die Erzeugung von Sonnen- und Windenergie ist wetterabhängig und kann somit stark schwanken. Der etablierte Großhandelsmarkt für Energie stößt dadurch zunehmend an seine Grenzen. Lokaler Stromhandel und Versorgungsnetzwerke bis hinunter auf Nachbarschaftsebene können dazu beitragen, den Ökostrom effizienter als bisher zu nutzen. Die Blockchain-Technologie bietet dafür zahlreiche Möglichkeiten.

Der traditionelle Großhandelsmarkt für Energie setzt auf die Nutzung von konventionellen Großkraftwerken, die mit Kohle, Gas oder Kernkraft jeweils genau die Menge an Strom erzeugen, die über den Handel verkauft bzw. gekauft werden. 2018 waren in Deutschland noch 480 konventionelle Großkraftwerke in Betrieb. Demgegenüber standen im gleichen Jahr bereits 1,7 Millionen Anlagen für erneuerbare Energie. Viele von diesen Anlagen werden von sogenannten „Prosumern“ betrieben. Damit gemeint sind vor allem Eigenheimbesitzer, die mit Photovoltaik-Anlagen Strom produzieren und überschüssigen Strom ins Netz einspeisen, aus dem sie zugleich bei Bedarf auch Strom beziehen.

Mit der Vielzahl solcher Akteure wächst der Koordinierungsbedarf. Und das aktuell gleich in zweifacher Hinsicht.

  1. Ab 2021 müssen für Betreiber von erneuerbaren Erzeugungsanlagen dringend neue Vermarktungswege geschaffen werden, da die Förderung für die ersten Anlagen nach dem Erneuerbaren-Energien-Gesetz (EEG) dann ausläuft. Somit lohnt sich ein Weiterbetrieb aus betriebswirtschaftlicher Sicht in vielen Fällen nicht mehr und der Anreiz, den erzeugten Strom nur noch für die Deckung des eigenen Stromverbrauchs zu nutzen, steigt. Dies würde – genau wie der massenhafte Abbau dieser Anlagen – zu einem Rückgang des Anteils der Erneuerbaren an der Stromerzeugung führen.
  2. Mit der zunehmend schwankenden Stromerzeugung aus Sonne und Wind sowie der wachsenden Zahl von Anlagen und Betreibern erhöht sich fortlaufend der Aufwand, um die Netzstabilität zu gewährleisten.

Als Lösung für beide Herausforderungen bietet es sich an, lokale Energiemärkte und lokale Versorgungsnetzwerke zu schaffen. Wird Energie auf lokaler Ebene getauscht, entlastet das die Netze auf höheren Ebenen. Zudem entstehen neue Vermarktungsmöglichkeiten – sodass es sich lohnt, Anlagen auch nach dem Auslaufen der staatlich garantierten Einspeisevergütung zu betreiben.

Vier Projekte des vom Bundesministerium für Wirtschaft und Energie (BMWi) geförderten Technologieprogramms Smart Service Welten erarbeiten Lösungswege für einen lokalen Energiehandel bzw. -austausch. In allen vier Projekten spielt die Blockchain eine zentrale Rolle. Sie wird dabei zur Schaffung dezentraler Strukturen zum Austausch von Energie eingesetzt, um digitale Herkunftsnachweise zu erbringen oder auch um eine faire Strom-speicherbewirtschaftung in lokalen Communities zu ermöglichen.

Die Blockchain ermöglicht neue Formen des lokalen Energiehandels

Der lokale Energiehandel lässt sich auf unterschiedliche Weise realisieren. Eine Möglichkeit ist der blockchainbasierte Peer-to-Peer-Handel, wie er vom Projekt pebbles entwickelt wird. Jeder Teilnehmer kann dabei sowohl Anbieter als auch Käufer von Strom sein. Damit Erzeuger und Verbraucher sich im Sinne der Netzstabilität verhalten, stattet pebbles den lokalen Energiemarkt mit entsprechenden Anreizen aus: Dafür wurde eine Plattform sowie ein Energiemanagementsystem entwickelt, über die der Energiehandel weitgehend automatisiert erfolgt. Auf diese Weise können Unternehmen oder Privatkunden ihre Stromlasten soweit möglich verschieben und so energieintensive Geräte wie etwa die Waschmaschine dann starten, wenn absehbar auch besonders viel Strom aus erneuerbaren Quellen zur Verfügung steht. Die Teilnehmer haben dabei die Möglichkeit, individuelle Präferenzen für den sogenannten „Day-Ahead“-Handel festzulegen. Basierend darauf und unter Berücksichtigung der Netzbeschränkungen werden die verfügbaren Stromlieferanten so zugeordnet, dass entsprechend der gesetzlichen Abgaben und Netzentgeltregelungen am nächsten Tag immer möglichst wenige Kosten anfallen.

Die vollständige Publikation kann online abgerufen werden.

Einen anderen Akzent für lokalen Energiehandel setzt das Projekt ETIBLOGG: Es ermög-licht einen regionalen, echtzeitnahen Handel auf Peer-to-Peer-Basis in Intervallen von jeweils 15 Minuten und schafft damit die Voraussetzung, sehr schnell zwischen Angebot und Nachfrage zu vermitteln. Der Vorteil dieses börsenähnlichen, sogenannten „Intra-Day-Handels“ besteht darin, dass der Energiemarkt sich auch im Verlauf eines Tages unmittelbar an geänderte Witterungsbedingungen anpassen kann. Das Modell ist vor allem für stromproduzierende Gewerbe- und Kleingewerbebetriebe sowie Nachbarn interessant. Durch den Echtzeitenergiehandel mittels maßgeschneiderter Blockchain-Lösung lohnen sich Kauf und Verkauf selbst bei geringen Strommengen. Der dafür zum Einsatz gebrachte smarte Handelsassistent ist individuell zu konfigurieren und übernimmt den Handel automatisiert, sodass keine Vorkenntnisse für den Stromhandel notwendig sind.

Virtuelle Stromspeicher und regionaler Markenstrom

Ein Schlüsselelement zur Stärkung lokaler Energieversorgungsnetzwerke sind lokale Stromspeicher. Wie diese Stromspeicher durch eine gemeinschaftliche Bewirtschaftung effizienter genutzt werden können, zeigt das Projekt BloGPV eindrucksvoll. So wird hier demonstriert, dass durch den Einsatz der Blockchain-Technologie ein virtueller Großspeicher etabliert werden kann, dessen Unterhaltung für alle Teilnehmer gleichermaßen wirtschaftlich lohnend ist. Im Projekt BloGPV schließen sich dafür private Solaranlagenbetreiber zu einer lokalen Energie-Community zusammen. Produzieren die Teilnehmer Strom, den sie selbst nicht verbrauchen oder einspeichern können, wird dieser in den Stromspei-chern der Nachbarschaft verteilt. Umgekehrt können Teilnehmer dann wiederum zu redu-zierten Tarifen Strom abrufen, wenn dieser in großem Umfang in der Community verfüg-bar ist. Solche Energie-Communities können ihren Mitgliedern damit zu einer höheren Flexibilität verhelfen, außerdem die Stromerzeugung und den Verbrauch lokal besser in Einklang bringen und damit zugleich die Netzstabilität stärken.

Auch im Projekt SMECS stehen lokale Energie-Communities im Mittelpunkt. Bei SMECS schließen sich dafür Erzeuger und Verbraucher über eine Plattform zusammen, über die sie Strom untereinander auszutauschen. SMECS nutzt dabei die Möglichkeit der Blockchain, einen sicheren Herkunftsnachweis für Strom zu liefern. Wer Strom aus diesen Communities bezieht, kann sich daher sicher sein, dass der Strom auch tatsächlich aus seiner Region stammt. Strom lässt sich damit als Markenprodukt mit lokalem Bezug ver-kaufen, was ein zusätzliches Kriterium schafft, sich bewusst für regenerativ erzeugten Strom aus der Region zu entscheiden.

Alle vier Projekte nutzen derzeitige geltende Abgaben- und Netzentgeltregelungen, um die Stromkosten für die Beteiligten zu minimieren. So sind beispielsweise nicht EEG-geförderte Anlagen mit geringer Kapazität von der Stromsteuer befreit, wenn sie ihren Strom regional in einem Umkreis von 4,5 km um die Erzeugeranlage direkt vermarkten. Um die Energiewende auch in Zukunft voranzutreiben, sollten jedoch unbedingt mehr solcher Anreize geschaffen werden. Vor allem die gezielte Förderung von Lokalstrom sowie die Flexibilisierung des Netzentgeltsystems wäre mit Blick auf die in den Projekten gemachten Erfahrungen wünschenswert.

Mehr Informationen über die vier Energieprojekte der Smart Service Welten sind in der aktuellen Publikation „Energierevolution – getrieben durch Blockchain“ enthalten. Die Publikation aus der wissenschaftlichen Begleitforschung des Technologieprogramms kann auf der Website heruntergeladen werden: www.smartservicewelten.de.

Künstliche Intelligenz in der Praxis

Drei Pfeiler einer gelungenen Strategie

Das Thema Künstliche Intelligenz hat das Hype-Stadium längst verlassen. Jetzt geht es darum, welche Unternehmen die zugrundeliegenden Technologien am Schnellsten sinnvoll einsetzen und sich damit einen Vorsprung verschaffen können. Die Grundlage für erfolgreiche KI-Projekte ist eine optimal aufgestellte Organisation. Die Experten von Applied AI zeigen im ersten von zwei Beiträgen die drei zentralen Aspekte einer KI-Strategie auf.

Die Einführung einer neuen Technologie führt nicht zwingend zu einer Verbesserung. Oft sind auch organisatorische Veränderungen erforderlich, damit diese ihr volles Potential entfalten kann. Unternehmen, die künstliche Intelligenz einführen wollen, müssen von bisherigen Routinen abweichen, um die revolutionären Möglichkeiten von KI auch in handfeste Erfolge zu verwandeln.

Es gibt leider kein Patentrezept und jede Firma hat andere Anforderungen, wenn es um die Implementierung von KI geht. Allerdings gibt es drei zentrale Prinzipien, an die sich Führungskräfte halten können: KI wie ein Produkt behandeln, die richtige Balance zwischen Zentralisierung und Dezentralisierung finden sowie ausreichende Unterstützung durch eine Führungsetage sicherstellen, die selbst bereits Wissen zum Thema aufgebaut hat.

Ein Produkt, kein Projekt

Klassische Tools aus dem Projekt-Management reichen bei der Einführung von KI und Machine Learning (ML) nicht aus. Ein Projekt hat normalerweise einen Beginn, einen klar definierten Ergebnishorizont, ein festes Budget und einen Endpunkt. Bei KI und ML sind die Gegebenheiten so, dass man zu Beginn höchstens grob abschätzen kann, was am Ende dabei herauskommt. Das verhält sich ähnlich wie mit einem Produkt, das neu auf den Markt kommt.

Wie viele Produkte sind auch KI-Lösungen nie wirklich fertig, sondern werden konstant weiterentwickelt. Sie benötigen einen gewissen Wartungs- und Pflegeaufwand, um optimale Ergebnisse zu liefern. Um das zu gewährleisten sollten Unternehmen für bestimmte KI-Produkte jeweils ein spezifisches Team abstellen. Dieses Team kümmert sich dann um die Entwicklung und die unternehmensweite Integration dieses Produkts.

Probleme treten üblicherweise dann auf, wenn neue Daten verarbeitet werden sollen. In dieser Situation ist das Produktteam verantwortlich, Fehler zu erkennen und Anpassungen vorzunehmen. Bei einem projektbasierten Ansatz bestünde dagegen die Gefahr, dass sich nach Ablauf des Projektzeitraums niemand mehr verantwortlich fühlt.

Der richtige Grad an (De-) Zentralismus

Es gibt einen breiten Konsens, dass bestimmte KI-Aktivitäten am besten von zentraler Stelle aus koordiniert werden sollten. Die zentrale Steuerung sorgt beispielsweise dafür, dass vermeidbare Fehler nicht zweimal gemacht werden. Erfolgreiche Teams sollten ihr erworbenes Wissen auch auf einer höheren Ebene teilen können. Um diese Zusammenarbeit zu fördern ist es nötig, dass Unternehmen bestimmte Teilbereiche, wie Bilderkennung oder Natural Language Processing, zentralisieren.

Ein zentralistischer Ansatz fördert Effizienz und Effektivität durch Best Practices für bestimmte KI-Tools, Benchmarking für einzelne Lösungen, zentrale Datenbanken für Trainings- und Testdatensätze. Außerdem hilft Zentralisierung dabei, eine übergeordnete KI-Strategie zu verfolgen und die werthaltigsten Projekte zu priorisieren.

Allerdings ist Zentralisierung alleine noch kein Erfolgsgarant. Fasst man alle Aktivitäten in einem Team zusammen, besteht die Gefahr, dass dieses isoliert und am eigentlichen Kerngeschäft vorbei arbeitet. Stattdessen sollte ein hybrider Ansatz verfolgt werden. Nach Use Cases sollte man zum Beispiel dort suchen, wo die Mitarbeiter engen Kundenkontakt haben und vor allem das Tagesgeschäft genau verstehen. Darauf aufbauend können einzelne Bottom-Up-Initiativen entstehen. Gleichzeitig muss die Geschäftsführung aber den Überblick behalten und wichtige Ressourcen zentral bereitstellen.

KI nicht automatisch CIO-Aufgabe

KI-Initiativen haben das Potenzial, Geschäftsmodelle von Unternehmen zu transformieren. Deshalb ist die Frage, welche Rolle nun letztlich Hauptverantwortlicher sein soll, nicht so leicht beantworten. Die Antwort kann von Unternehmen zu Unternehmen variieren.

„KI gleich IT gleich Projekt des CIOs oder CTOs“ – diese Doppelgleichung geht in vielen Fällen nicht auf. KI ist keine reine „Enabler-Technologie“ wie Cloud oder IT-Security, welche normalerweise vom technischen Personal verantwortet und bereitgestellt werden. KI kann das Geschäftsmodell oder zentrale Prozesse im Unternehmen grundlegend verändern. Je nachdem, welche Aspekte sich ein Unternehmen im Rahmen eines KI-Programms vornimmt, machen auch unterschiedliche Verortungen der Verantwortung Sinn.

Konzentrieren sich die KI-Bemühungen hauptsächlich auf Prozessoptimierung und Effizienzsteigerung, könnte die Verantwortung dafür beim CFO oder COO liegen. Soll KI vornehmlich der Förderung von Produktinnovationen dienen, sind eher CTO oder CPO die richtige Wahl. Geht es um eine tiefergehende Transformation, die eventuell die Ausrichtung des gesamten Unternehmens betrifft, sind CDO oder CEO die richtigen Führungskräfte, um diese anspruchsvolle Aufgabe zu übernehmen.

Die Anforderungen an die verantwortliche Position sind hoch: Zum einen sollte die entsprechende Person KI auf technischer Ebene verstehen, zum anderen braucht sie ein tiefes Verständnis des Kerngeschäftes sowie der relevanten Prozesse. Der oder die KI-Verantwortliche muss zudem in der Lage sein, andere von Änderungen an Produkten, Prozessen und letztlich sogar Geschäftsmodellen zu überzeugen.

Soweit zu den drei Kernelementen der KI-Organisation. In einem zweiten Beitrag werden wir auf eine zentrale Organisationseinheit, das „KI Center of Excellence“ eingehen und uns die Aufgaben dieser federführenden Stelle genauer ansehen. 

Über die Autoren

Philipp Hartmann ist Director of AI Strategy bei Applied AI. Vorher war er vier Jahre bei McKinsey & Company als Strategieberater tätig und hat an der Technischen Universität München zu Wettbewerbsfaktoren beim Einsatz von künstlicher Intelligenz promoviert.

Maria Schamberger ist Senior AI Strategist bei Applied AI und beschäftigt sich vor allem mit Fragestellungen zu Organisation & Governance. Ihr bisheriger Werdegang umfasst unter anderem Stationen im Allianz Konzern als Vice President und Research- und Beratungserfahrung bei McKinsey & Company. Maria hat Corporate Innovation an der Stanford University und Banking an der Frankfurt School of Finance & Management studiert.

Weitere Informationen unter:
https://appliedai.de

Kapitalanlage 2020

Immer mehr unvorhersehbare Ereignisse folgen in immer kürzerer Zeit aufeinander und hinterlassen tiefe Furchen in den Börsencharts. Verbraucher bangen um ihr Erspartes. Wohin jetzt noch mit dem Geld?

Zeit für berufliche Weiterbildung

Der Krise stand halten und Chancen nutzen: Mit staatlicher Förderung und mit passender Unterstützung kann die Zeit jetzt gezielt zur digitalen Weiterbildung genutzt werden.

Mehr denn je verändert die Digitalisierung die Arbeitswelt. Für Management und Mitarbeiter gilt gleichermaßen: Wer mithalten will, muss sich bewegen. Denn langfristig ist die einzige wirkungsvolle Strategie das lebenslange Lernen.

Doch dieser Anspruch kann kleine und mittlere Unternehmen genauso wie Arbeitnehmer schnell an die finanzielle Belastungsgrenze führen. Der Staat bietet daher verschiedene Fördermöglichkeiten wie das neue Qualifizierungschancengesetz.

Der technologische Fortschritt setzt Unternehmen und Mitarbeiter unter Anpassungsdruck: Für Arbeitnehmer gibt es keine Garantie mehr, den einmal erlernten Beruf bis zum Eintritt in die Rente auszuüben. Es gibt immer mehr Berufe, die durch den digitalen Strukturwandel verschwinden werden und insbesondere für Geringqualifizierte besteht die Gefahr, dass sie durch Automatisierung ihren Arbeitsplatz verlieren. Und Unternehmen bleiben im globalen Wettbewerb nur dann konkurrenzfähig, wenn die Qualifikation ihrer Mitarbeiter dem Stand der technologischen Entwicklung entspricht. In der Berufspraxis ist die Arbeitsbelastung jedoch oft so groß, dass die Zeit für regelmäßige Weiterbildung fehlt. Und Qualifizierung kostet Geld. Dabei ist sie bitter nötig, denn Arbeitnehmer aus Deutschland sind im weltweiten Vergleich nur durchschnittlich gut auf die Anforderungen der Digitalisierung vorbereitet. Zu diesem Ergebnis kommt die OECD in ihrem aktuellen „Skills Outlook 2019“. Entscheidend für eine erfolgreiche Anpassung an die Veränderungen sei es, das lebenslange Lernen zu stärken, so die OECD.

Weiterbildungen werden oft privat finanziert

Ganz oben auf der Bildungswunschliste stehen Fachthemen wie Künstliche Intelligenz oder Automatisierung, so die Ergebnisse der Studie „Digital-fit im Job?“ der Beratungsgesellschaft EY. Im Zusammenhang mit neuen Technologien werden zudem insbesondere Fertigkeiten im Bereich Informations- und Kommunikationstechnologie wichtiger. 74 Prozent der befragten Mitarbeiter und Führungskräfte gaben an, ihr Tätigkeitsprofil habe sich aufgrund der Digitalisierung bereits stark oder in Teilen verändert. Ebenso viele erwarten künftig weitere Veränderungen durch neue Technologien wie intelligente Software und Roboter. Die Ergebnisse zeigen auch, dass die meisten Menschen den Ernst der Lage erkannt haben: So sind 56 Prozent der Fachkräfte bereit, sich in der Freizeit weiterzubilden, 44 Prozent würden sich finanziell beteiligen oder haben bereits eigenes Geld in Qualifizierungen investiert. Dies ist jedoch nicht immer nötig, denn es gibt Möglichkeiten, sich eine Weiterbildung staatlich fördern zu lassen. Die Bundesagentur für Arbeit hat 2018 Weiterbildungen mit knapp 1,8 Milliarden Euro gefördert. Das sei etwa doppelt so viel wie zwölf Jahre zuvor, so das IW Köln. Die wichtigsten Fördermöglichkeiten sind das neue Qualifizierungschancengesetz, der Bildungsgutschein (BGS) und der Aktivierungs- und Vermittlungsgutschein (AVGS).

Das Qualifizierungschancengesetz fördert die betriebliche Weiterbildung

Das neue Qualifizierungschancengesetz ist ein Förderinstrument für die betriebliche Weiterbildung, das Unternehmen und Arbeitnehmern zugute kommen soll: „Gerade  für  Beschäftigte,  deren  Tätigkeit  bedingt  durch  Strukturwandel  oder technologischen  Fortschritt  von  betrieblichen  Substituierungs-  und  Rationalisierungsmaßnahmen  bedroht  ist,  haben  Arbeitgeber  wenig  Anreiz  und  Interesse,  sich  im  Vorfeld  freiwillig  an  beruflichen  Weiterbildungsmaßnahmen  zu beteiligen,  um  beispielsweise  vorbeugend  gegen  deren  Arbeitslosigkeit  aktiv zu  werden“, wie es in einer Empfehlung des Bundesrates heißt. Auf Grundlage des Gesetzes können Unternehmen eine Qualifizierungsberatung bei der Arbeitsagentur in Anspruch nehmen und die Arbeitnehmer erhalten eine Weiterbildungsberatung.

Die Idee: Der Staat möchte Arbeitnehmer bereits während ihrer Beschäftigung fördern, um ihre Qualifizierung zu erweitern – besonders im Hinblick auf den digitalen Strukturwandel. Und das unabhängig von Ausbildung, Lebensalter und Betriebsgröße. Eine Förderung können Angestellte erhalten, deren Berufsabschluss mehr als vier Jahre zurückliegt und die in den vergangenen vier Jahren nicht an einer entsprechenden Weiterbildung teilgenommen haben. Darüber hinaus muss die Maßnahme Fertigkeiten, Kenntnisse und Fähigkeiten vermitteln, die über ausschließlich arbeitsplatzbezogene kurzfristige Anpassungsfortbildungen hinausgehen. Und: Der Arbeitgeber muss sich „in angemessenem Umfang an den Lehrgangskosten“ beteiligen. Beantragen können interessierte Unternehmen die Förderung direkt beim Arbeitgeberservice der örtlich zuständigen Arbeitsagentur.

Der digitale Strukturwandel kann Chancen bieten

Viele zertifizierte Weiterbildungsanbieter haben auf die neuen Anforderungen auf dem Arbeitsmarkt und auf die hohe Nachfrage reagiert. Bildungsinteressierte finden zahlreiche Angebote, die sie fit für den Arbeitsmarkt von heute und morgen machen und die von den Arbeitsagenturen und Jobcentern gefördert werden können. Dazu gehören vierwöchige Weiterbildungen, die wichtige aktuelle Qualifikationen vermitteln: Vom Basiswissen wie Computerführerscheinen für Office-Anwendungen, Kenntnissen für den Aufbau von Websites, das Online Marketing, die Suchmaschinenoptimierung und die objektorientierte Programmierung mit PHP über spezialisierte Kenntnisse wie Agiles Projektmanagement, Screendesign und User Interface Design, App-Entwicklung, Cloud Computing, SEA-Marketing oder UX/UI-Design.

Die Fördermöglichkeiten sind da. Es liegt jetzt an jedem einzelnen Arbeitgeber und Arbeitnehmer, die bestehenden Möglichkeiten zu nutzen. Dann muss der digitale Strukturwandel nicht in eine Sackgasse führen, sondern kann eine herausfordernde Chance bieten, die neue Perspektiven eröffnet und den Horizont erweitert.


Autorin: Fanny Kabelström-Stefani


Fanny Kabelström-Stefani ist Geschäftsführerin der cimdata Bildungsakademie GmbH. Die cimdata Bildungsakademie GmbH ist seit 1983 in der Erwachsenenbildung aktiv und bietet geförderte Weiterbildungen und Umschulungen, Ausbildungen, Firmenschulungen und Coaching an. Fanny Kabelström-Stefani ist unter anderem für die Produktentwicklung und die strategische und operative Steuerung der Bildungsmaßnahmen verantwortlich.

Weiterführende Informationen:
cimdata Bildungsakademie

Pressekontakt
Sabrina Ortmann Kommunikation
Sabrina Ortmann
Tel: +49 30 549 092 40
E-Mail: presse@cimdata.de

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Standort Deutschland

Deutschland im Ausnahmezustand. Mehr denn je sind Agilität und Kreativität gefordert.

Welttag des Buches

Indem sie sich für Bücher und Urheberrechte engagiert, tritt die UNESCO für Kreativität, Vielfalt und gleichberechtigten Zugang zu Wissen ein.

Sorglos in die Multi-Cloud

Unternehmen nutzen in immer größerem Umfang Cloud-Services. Um Sicherheitsgefahren auszuschließen, müssen sie dabei vor allem die Zugangsdaten zu Cloud-Managementkonsolen adäquat verwalten, sichern und überwachen.

Gastbeitrag von Christian Goetz

Die Cloud-Nutzung findet sich in unterschiedlichster Ausprägung. Einige Unternehmen nutzen nach wie vor primär eine On-Premises-Infrastruktur, beziehen aber zusätzliche Services aus der Cloud. Andere wiederum greifen für den regionsübergreifenden Einsatz auf unterschiedliche Provider wie Amazons AWS oder Microsoft Azure zurück. Und manche Unternehmen verlagern einen Großteil der IT oder sogar die gesamte IT in die Cloud. 

Dabei setzen Unternehmen unter der Prämisse „Best-of Breed“ verstärkt auf Multi-Cloud-Modelle, das heißt, sie nutzen Dienste von mehreren Providern. So erfolgt zum Beispiel in Microsoft Azure die Benutzerverwaltung, das Management von Zugriffsberechtigungen und die Steuerung von Services, die aus anderen Clouds bezogen werden. Dass damit die Komplexität des Cloud-Managements zunimmt und auch die Anforderungen an die Sicherheit steigen, liegt auf der Hand.

Doch welche elementaren Sicherheitsmaßnahmen muss ein Unternehmen ergreifen? Zunächst sollten die Empfehlungen der „Shared Responsibility“ nahezu aller Cloud-Provider berücksichtigt werden (1). Eine zentrale Vorgabe zum Schutz der Zugangsdaten lautet dabei „Etablierung einer Multifaktor-Authentifizierung“. Wichtig sind darüber hinaus folgende Aspekte: ein stringentes Berechtigungsmanagement mit Rollen- und Rechtekonzept und eine sichere Verwahrung von Zugangsdaten.

Sicherung von Zugangsdaten und API-Schlüsseln ist absolutes Muss

Vor allem der letzte Punkt ist entscheidend: Für die Nutzung von Zugangsdaten (Credentials) zur Verwaltung der Cloud-Ressourcen über Cloud-Managementkonsolen und -portale müssen klare Richtlinien existieren. Bei einer Single-Cloud-Lösung können prinzipiell die Key Management Stores (KMS) in der jeweiligen Cloud selbst genutzt werden. Komplexer ist die Situation aber bei Multi-Cloud-Lösungen. Hier empfiehlt sich die Nutzung einer externen Secrets-Management-Lösung, die zentral und separat den Bezug von Anmeldeinformationen regelt. Mit einer solchen Lösung kann ein Unternehmen alle Zugriffspfade auf Managementkonsolen sichern und überwachen, auch die Root-Accounts, die bei der initialen Einrichtung eines Cloud-Zugangs angelegt werden. Über diese Accounts ist ein uneingeschränkter Zugriff auf die Managementkonsole und damit auf die gesamte Cloud-Infrastruktur möglich.

Quelle CyberArk

Ebenso wichtig ist die Sicherung der API-Zugriffsschlüssel, die programmatisch von Anwendungen und Diensten genutzt werden. Zu den zentralen Cloud-Vorteilen gehört der hohe Automatisierungsgrad, der eine maximale Dynamik und Flexibilität bietet. Klassisches Beispiel sind die Lambda-Funktionen in AWS, die ein ereignisgesteuertes Initiieren von Aktionen ermöglichen. Automatisierung bedeutet immer auch den Einsatz von Skripten, Orchestrierungsservern und Automationstools, die API-Zugriffsschlüssel zur Zugriffsvalidierung nutzen. Mit ihnen werden Änderungen in der Cloud-Umgebung vorgenommen, etwa das Stoppen oder Starten eines Servers, die Provisionierung eines Containers oder das Bereinigen einer Datenbank. Insbesondere mit API-Zugriffschlüsseln ist ein hohes Sicherheitsrisiko verbunden, denn sobald ein Angreifer in ihren Besitz gelangt, hat er im Zweifel freien Zugang zur gesamten Cloud-Umgebung. API-Keys können zwar für bestimmte Zwecke erstellt und mit beschränkten Rechten versehen sein. Nicht mit jedem API-Key wird man deshalb zum Root-User in einer Cloud-Instanz. Aber er ist ein Einstieg und Einfallsportal. Da leider oftmals zu viele Rechte vergeben werden, können die Auswirkungen des Missbrauchs dieser API-Keys verheerend sein.

Für die Speicherung und Verwaltung von Zugangsdaten und API-Schlüsseln bietet sich ein digitaler Datentresor (Vault) an, also ein speziell „gehärteter“ Server, der mit mehreren unterschiedlichen Security-Layern zuverlässigen Schutz vor unbefugten Zugriffen bietet.

Privileged Session Recording bringt Sicherheitsplus

Zusätzliche Sicherheit bringt ein erweitertes Privileged Session Management für die Cloud-Nutzung, bei dem die Inhalte und Aktionen administrativer Anmeldungen protokolliert und aufgezeichnet werden. Zum einen wird damit eine retrospektive Betrachtung von privilegierten Aktivitäten möglich, sodass einschlägige Audit- und Compliance-Anforderungen erfüllt werden. Zum anderen unterstützt eine solche Lösung die Steuerung und Überwachung eines Zugriffs und Verbindungsaufbaus. Durch die Isolation privilegierter Cloud-Sessions von Administratoren oder Business-Anwendern kann sichergestellt werden, dass Zugangsdaten niemals offengelegt und nur für den Aufbau sicherer Sessions genutzt werden. Das heißt, der Administrator greift auf Cloud-Services mittels Zugangsdaten zu, die er aus einem Vault beziehungsweise Credential-Store bezieht. Die Zugangsdaten selbst kennt er aber nicht. Damit kann ein Unternehmen zum Beispiel sicherstellen, dass ein Zugang zu Cloud-Managementkonsolen nur standortbezogen in einem bestimmten Netzwerk möglich ist und keine externen Zugriffe über beliebige Endgeräte unterstützt werden.

Unbestritten ist, dass die Verlagerung von IT-Workloads in die Cloud Unternehmen erhebliche Vorteile wie Reduzierung von Kosten oder Erhöhung von Flexibilität und Skalierbarkeit bringen kann. Und auch die Sicherheit muss dabei nicht zu kurz kommen. Eine elementare Voraussetzung ist allerdings, dass die privilegierten Anmeldedaten für den Zugriff auf Managementkonsolen, die Bereitstellung und Ausführung von Cloud-Workloads und die Verwaltung von Cloud-Anwendungen und -Ressourcen zuverlässig gesichert werden.


Quellen:
(1) vgl.: https://docs.microsoft.com/de-de/azure/security/fundamentals/shared-responsibility oder https://aws.amazon.com/de/compliance/shared-responsibility-model/

Über den Autor


Christian Goetz ist Director of Presales – DACH bei CyberArk



Weiterführende Informationen zum Unternehmen:
https://www.cyberark.com/de/

Aufmacherbild / Quelle / Lizenz
Bild von ambercoin auf Pixabay

IT-Security

Etliche Unternehmen setzen zum Schutz der Mitarbeiter auf Homeoffice, doch hier lauern andere Viren.

New Work: Vielfalt der Arbeit

Die Zukunft der Arbeit ist nicht nur vielfältig, sondern auch herausfordernd.

Mit KI gegen die Klimakatastrophe

Auch wenn er vorerst vielleicht in den Hintergrund getreten ist, hat der Klimanotstand nichts von seiner Dringlichkeit verloren. So ist es erst wenige Monaten her, da verursachten schreckliche Überschwemmungen in Venedig Schäden an Häusern, Geschäften und historischen Stätten in Milliardenhöhe.

Homeoffice neu gedacht

Wie Benefits auch von zu Hause genutzt werden können

Arbeitnehmer auch in Krisenzeiten zu unterstützen ist aktuell ein brennendes Thema. Die Herausforderungen für deutsche Unternehmen sind in den letzten Wochen hoch: Viele Arbeitgeber waren gezwungen, ihre Mitarbeiter ins Homeoffice zu schicken.
Im Gastbeitrag schildert Patrick Löffler, CEO und Gründer von givve eine Möglichkeit, rechtssicher Mitarbeiter im Homeoffice zu unterstützen: Benefits, die auch für eine verstärkte Mitarbeiterbindung sorgen können.

Wie bleibt man trotz räumlicher Trennung mit seinen Mitarbeitern verbunden? 

Neben sozialen Problemen, wie Einsamkeit, fehlendem Austausch mit Kollegen oder dem Zusammentreffen von Familie, Partnern oder Mitbewohnern und Arbeit, ist auch die Ausstattung des Arbeitsplatzes nicht unbedeutend. Adäquate Kommunikationstechnologien müssen zur Verfügung stehen und die richtigen Programme genutzt werden. Denn auch Arbeitgeber für die Homeoffice bisher nicht denkbar war, wurden durch die aktuelle Situation zum Umdenken gezwungen. Es zeigt sich, dass mehr möglich ist, als gedacht und die Mitarbeiter sehen neue Optionen, die nicht jeder mit dem Ende der vorgeschriebenen Heimarbeit wieder aufgeben möchte. 

Um trotz Homeoffice weiterhin eng mit seinen Mitarbeitern in Kontakt bleiben zu können, kommen digitale Strukturen ins Spiel: Telefonieren, Videokonferenzen und gute Kommunikation. Es bietet sich an, Mitarbeiter mit Benefits zu unterstützen, um als Unternehmen auch jetzt präsent zu bleiben. 

So bleibt der positive Eindruck auch zu Hause, während Benefits belohnen und motivieren. 

Arbeitnehmerunterstützung in Krisenzeiten, z.B. durch Bezuschussung von Internetkosten oder dem Essenszuschuss etc. zeigt, dass man füreinander da ist. Und auch Steuervorteile bei Sachbezügen sind Anreiz für Unternehmen und Arbeitnehmer.

Produkte, wie beispielsweise die Sachbezugskarte givve Card, welche vom Arbeitgeber monatlich mit bis zu 44 Euro steuerfrei beladen werden kann, können hier unterstützen. Die Karte ermöglicht Mitarbeitern Zahlungen sowohl online, als auch im stationären Handel. Beladung und Nutzung erfolgen digital, was in Zeiten von Kontaktbeschränkungen und Ansteckungsgefahr ein großer Vorteil ist. 

Das Unternehmen givve® hat es sich zur Aufgabe gemacht die Administration so zu optimieren, dass sich die Kartenverwaltung leicht in bestehende Unternehmensprozesse integrieren lässt. Die Karten werden nach der Bestellung, mit sämtlichen wichtigen Informationen für den Kartennutzer, bereitgestellt. Mit dem integrierten Business Portal kann der interne Verwaltungsaufwand erheblich reduziert werden. Über das Portal werden Karten bestellt und aufgeladen. Das ist sowohl händisch als auch über das Hochladen von Kartenbestell- und Ladelisten möglich. Eine API Schnittstelle lässt eigene Anwendungsprogrammierungen zu und gibt  die Chance, alle wichtigen Vorgänge 100% automatisiert vorzunehmen. Zum Beispiel Kartenbestellungen, Kartenladungen oder die Aktivierung/Sperrung von Karten.

Auch ein digitaler Essenszuschuss ist im Homeoffice nutzbar. 

Patrick Löffler gibt im Interview Einblicke in die Lösung givve

Er ist uneingeschränkt für das Mittagessen vom Lieferdienst oder aus dem Supermarkt einsetzbar. Ohne ins Büro zu kommen kann er mit Apps, wie givve Lunch, umgesetzt werden. Mit der App lassen sich die Essensbelege einscannen, diese werden dann von givve überprüft. Der Arbeitgeber erhält am Ende des Monats eine Übersicht der zu zahlenden Zuschüsse, die direkt in die Lohnbuchhaltung integriert werden kann. So bekommt der Mitarbeiter seinen Essenszuschuss von bis zu 6,50 € am Tag mit dem Gehalt des Folgemonats ausgezahlt.

Vor allem in Zeiten der räumlichen Trennung ist es wichtig mit seinen Mitarbeitern in Verbindung zu bleiben, gute Kommunikation zu ermöglichen und Wertschätzung auszudrücken, um die Motivation aufrecht zu erhalten. Mit der 100-prozentigen Automatisierung der Prozesse durch die Sachbezugskarte ändert sich also diesbezüglich auch im Homeoffice nichts für die Mitarbeiter. Der Sachbezug, der vor allem in der aktuellen Situation ein Benefit ist, seinen Arbeitnehmern Wertschätzung zu zeigen, kann weiterhin problemlos ausgezahlt und vor allem genutzt werden. Mit dem digitalen Essenszuschuss kann auch weiterhin das Mittagessen gezahlt werden – auch wenn die Kantine aus dem Homeoffice nicht nutzbar ist. Mit der Brandingoption der Karte bleiben Unternehmen auch haptisch bei ihren Mitarbeitern im Gedächtnis, wodurch sinnvolles Employer Branding möglich ist. Markus Hendel, Leiter Personal bei der Mercateo service AG fasst zusammen: „Bei Mercateo nutzen wir die givve® Card als Bindungs- und Motivationsinstrument für unsere Auszubildenden und Studierenden im Unternehmen. Wir setzen sie gern als Anerkennung für geleistete Projekte ein, die über den Ausbildungsalltag hinausgehen. “

Weitere Informationen unter:
www.givve.com

Über den Autor

Als Geschäftsführer (CEO) vertritt Patrick Löffler givve® nach außen hin und leitet die strategische Orientierung des Unternehmens. Bevor er 2010 givve® gegründet hat war Löffler Geschäftsführer der Anschlusstor Vermarktungs GmbH, Deutschlands größter unabhängiger Vermarktungsplattform für den Vereinssport. Löffler studierte an der Munich Business School Business Administration and Management und ist Diplom EU Betriebswirt.

Bildquellen / Lizenzen: givve

Covid-19 läutet neue Ära in der Arbeitswelt ein

Foto: Christian Krinninger

Der Weg zurück in die Normalität wird Mitarbeiter und Unternehmen vor größere Herausforderungen stellen. Das „neue Normal“ wird ein anderes sein als vor der Corona-Krise. Die Ausnahmesituation schafft einen Paradigmenwechsel sowohl für Mitarbeiter als auch für Unternehmen. Beide Seiten werden mit neuen Abläufen konfrontiert, die innerhalb kürzester Zeit adaptiert werden müssen. Diese Notsituation ruft beim Thema New Work eine völlig neue Dynamik hervor und eröffnet die Chance, tradierte Prozesse zu überprüfen, und die Arbeitswelt den aktuellen Bedürfnissen und Zielen anzupassen. Potenziale erkennen und nach der Krise für das Unternehmen zu nutzen –lautet die Devise. Einige signifikante Veränderungen lassen sich dem New-Work-Experten CSMM zufolge bereits erkennen. Das Architektur- und Beratungsunternehmen stellt sieben Thesen auf:

These 1: Enormer Digitalisierungsschub

Die Corona-Pandemie hat in vielen Unternehmen notgedrungen für einen enormen Digitalisierungsschub gesorgt. Firmen, die sich bisher gescheut haben, den nächsten Digitalisierungschritt zu gehen, oder bei denen die Dringlichkeit zur Digitalisierung branchenbezogen nicht gegeben war, sind nun gezwungen, sich ernsthaft mit dem Einsatz digitaler Hilfsmittel auseinander zu setzen. Bislang ungenutzte Potenziale – ob bei Prozessen, in der Arbeitsverteilung aber auch in der Kommunikation – werden derzeit aufgezeigt und im Optimalfall zukunftsgerichtet überdacht. Die dadurch in Gang gesetzte Dynamik wird in den kommenden Monaten und Jahren eine Vielzahl an Branchen in eine Umbruch- und Aufbruchstimmung versetzen. Sie bekommen so die Chance, teils festgefahrene Abläufe und Strukturen effizienter oder zielgerichteter zu gestalten. Covid-19 fungiert vielfach als Testlauf für eine neue Ära der Digitalisierung.

These 2: Virtual Meeting versus Face-to-Face

Die Krise zeigt einmal mehr, dass Meeting nicht gleich Meeting ist. In der Praxis lässt sich gerade deutlich erkennen, für welche Art an Besprechungen zwingend von Angesicht zu Angesicht treffen sollte und welche durchaus virtuell stattfinden können. Auch hier ergeben sich wiederum Chancen, welche die Unternehmen nach der Krise aktiv nutzen können. Sie sollten Besprechungen ernsthaft auf den Prüfstand stellen und differenzieren. Dazu zählt auch die Frage, inwiefern es zielführend ist, zu jeder Routinebesprechung diverse Parteien von unterschiedlichen Standorten an einen Besprechungsort zu schicken. Kosteneffizienz und Zeiteinsparung sprechen für sich. In Bezug auf die Umwelt sind virtuelle Meetings zudem gelebter Klimaschutz. Besprechungen dagegen, die kreative Prozesse im Team freisetzen sollen, stoßen in Zeiten von Home Office meist an ihre Grenzen. Hier sind Meetings vor Ort die eindeutig bessere Wahl. Die Zusammenarbeit von Angesicht zu Angesicht ist bei kreativen Prozessen, aber auch in vielen anderen Bereichen, unumgänglich und sollte nicht durch digitale Lösungen substituiert werden. Der persönliche Austausch und die Interaktion bei Treffen vor Ort haben das Potenzial, erheblichen Mehrwert für alle Beteiligten zu schaffen. Diese Begegnungen werden nach der Corona-Krise vermutliche einen höheren Stellenwert erfahren und im besten Fall effektiver ausgeschöpft.

These 3: Home Office hat seine Grenzen

Home Office öffnet vielen Unternehmen die Tür in eine neue Ära des Arbeitens. Unternehmen, die agiles Arbeiten aufgrund der bestehenden Prozesse bisher nicht in Betracht gezogen haben, wurden durch die Umstellung auf das mobile Arbeiten von zu Hause mit neuen Möglichkeiten konfrontiert. Jedoch stößt das Heimbüro als eine der vielen Facetten des agilen Arbeitens unweigerlich an seine Grenzen und muss nicht per se in dieser Form weitergeführt werden. Essentielle Aspekte wie die informelle Kommunikation und die persönliche Interaktion brechen bei dieser Variante meist gänzlich weg. Daher sollte Homeoffice als eine von zahlreichen Optionen des agilen Arbeitens gesehen werden, die noch nicht genutzte Potenziale des Unternehmens freisetzen kann. Es gilt nun, eine Bilanz aus den neugewonnenen Erkenntnissen zu ziehen und Chancen individuell für jede Firma zu adaptieren.

These 4: Das Büro als Hub & Home

Nach einigen Wochen der Einschränkung und Isolation ist ersichtlicher denn je, wie wichtig das Büro als sozialer Knotenpunkt für den Austausch und als Plattform der Kreativität und Innovation ist. Bei aller Unabhängigkeit, die die Digitalisierung mit sich bringt, suchen Menschen weiterhin Stabilität und Nähe. Der Mensch als soziales Wesen sehnt sich auch in der Arbeitswelt nach einem Ort, der Identifikation stiftet. Eine inspirierende Arbeitsumgebung dient als emotionales Bindemittel zum Unternehmen und steigert das Wohlbefinden. Der Trend zur Hybridisierung, also zur Schaffung einer Mischform der vorher getrennten Systeme „Hub“ (sozialer Knotenpunkt Büro) und „Home“ (Heim), wird fortschreiten, sodass das Büro zunehmend auch den Bedarf an Zugehörigkeit erfüllen muss. Mitarbeiter werden das Büro – und hier insbesondere die Begegnungs- und Kommunikationsflächen – neu entdecken und neu bewerten. Die These ist in einer Forschungskooperation mit CSMM und dem ISF – Institut für Sozialwissenschaftliche Forschung entstanden.

These 5: Möglichkeitsraum statt Einzelzelle

Auch wenn derzeit Vereinzelung und Abstandhalten das allgemeine Bild prägen – die bisherige Entwicklung in Richtung Großraumbüro als Möglichkeitsraum, also als Raum der Entfaltung, der Begegnung und der Teamarbeit, wird sich fortsetzen. Eine Rückkehr zum Einzelbüro ist sehr unwahrscheinlich und auch nicht zielführend in Bezug auf Wohlbefinden, Identifikation und Produktivität der Mitarbeiter. Was jetzt gefragt ist, ist die Förderung von Teamgeist und Innovationsfähigkeit. Unternehmen, die marktfähig bleiben wollen, benötigen Raum für Empathie, Kreativität und Erfindergeist und keine Einzelzellen zum Abarbeiten.

These 6: Downsizing des Arbeitsplatzes stößt an seine Grenzen

Das mit der Corona-Krise einhergehende Social Distancing wird auch in Bezug auf die Größe des Arbeitsplatzes Einfluss haben. Die kontinuierliche Reduktion der Fläche pro Mitarbeiter wird vorerst einen radikalen Stopp erfahren. Viele Unternehmen werden zu enge oder zu dicht besetzte Büros überdenken. Im Hinblick auf künftige Krisen werden viele Unternehmen die Anzahl der Mitarbeiter in einem Raum verringern beziehungsweise die Abstände zwischen ihnen vergrößern. Aber nicht nur das Abstandsthema wird die Planung neuer Büros maßgeblich beeinflussen. Auch das Thema Hygiene wird ein Aspekt sein, der neu in die Bürogestaltung einfließen wird.

These 7: Bewährungsprobe für Co-Working und Desk-Sharing

Eine Vielzahl an Geschäftsmodellen – Auto, Wohnung, Arbeitsplatz – ist über die letzten Jahre auf gemeinschaftliche Nutzung ausgelegt worden. In der aktuellen Krisensituation kommen diese Modelle ins Wanken. Kürzlich noch gehypte Co-Working-Flächen bekommen einen bitteren Beigeschmack. Die Idee des Co-Working, eine dynamische und flexible Fläche zu schaffen, bei der fremde Personen einen Raum teilen, wird bei der Rückkehr aus dem Homeoffice auf eine Bewährungsprobe gestellt werden.  Auch die innerbetriebliche Variante des Desk-Sharing wird eine neue Legitimation im Unternehmen durchlaufen müssen. Nichtsdestoweniger eröffnen sich durch die flexibel nutzbaren Co-Working-Angebote den Unternehmen neue Möglichkeiten: Sie könnten Ergänzungsflächen anmieten, um ihre Mitarbeiter aus den jetzt zu dicht besetzten bisherigen Büros zu verteilen.

Über den Autor

Seit über 17 Jahren leitet Firmengründer Timo Brehme als geschäftsführender Gesellschafter das preisgekrönte Consulting- und Architekturbüro CSMM. In der Funktion als multidisziplinäre New-Work Experten bearbeitet CSMM Aufträge sowohl von Mieterseite als auch von Seiten der Entwickler und Eigentümer. Das Unternehmen begleitet den Kunden bei Bedarf
entlang der gesamten Wertschöpfungskette einer Gewerbeimmobilie.
Verteilt auf die vier Standorte München, Berlin, Frankfurt und Düsseldorf bearbeitet das über 60-köpfige Team die Projekte
büroübergreifend.

Weitere Informationen unter:
https://www.cs-mm.com/

Connected Packaging

von Rafi Albo

Produktverpackung einzigartig erleben

Die Zeiten, in denen Sie beim Scannen eines Produkts mit Ihrem Smartphone nur eine Homepage aufgerufen haben, sind vorbei! Die Kombination von Print mit anderen Medien wie Online ist nichts Neues mehr – aber die neuesten Entwicklungen ermöglichen eine völlig neue Dimension der Verbindung zwischen beiden Welten.

Kunden heute zu begeistern bedeutet Interaktion und Individualität. Um sie aus den Socken zu reißen, möchten Marken mit ihren Produkten einzigartige Erlebnisse bieten.

Eine faszinierende Geschichte, Interaktion und ein persönlicher Ansatz sind der Schlüssel, um den Umsatz zu steigern und die Bindung zwischen Marke und Verbraucher zu stärken. Mit den neuesten Augmented-Reality-Lösungen können Sie jedem, der Ihre Produkte kauft, einzigartige Erlebnisse bieten – sei es eine Weltreise, ein Konzert, die Möglichkeit, einen eigenen Avatar für ein Spiel zu erstellen, oder sogar eine persönliche Version der Verpackung.

Dank cloudbasierter Technologie ist der Zugriff auf 360 ° -Videos und Spiele in Sekundenschnelle möglich. Das Etikett Ihres Produkts kann zum Leben erweckt oder mit der virtuellen Realität verschmelzen.

Die Arilyn-App ermöglicht nicht nur die bequeme Erstellung und Verwendung der Inhalte für ein Augmented-Reality-Erlebnis, sondern bietet auch Analysen und einfache Anpassungen, um das Potenzial der Kampagne zu maximieren.

Egal, welche Geschichte Sie mit Ihren Verbrauchern teilen möchten – CCL Label verfügt über die Fähigkeiten und die Erfahrung, um Ihnen die ideale Dekorationslösung und -technologie anzubieten.

Kunden heute zu begeistern bedeutet Interaktion und Individualität.

Rafi Albo

Willkommen in der digitalen Welt

Verpackung und Dekoration haben nicht nur den Schritt in die digitale Welt getan, indem sie winzige Antennen und elektrische Schaltkreise (RFID & NFC) integriert haben oder durch die Kamera von Smartphones zum Leben erweckt wurden (Augmented Reality). Die Digitaldrucktechnologie hat auch eine ganz neue Welt der Möglichkeiten eröffnet.

Was einst eine Traumvorstellung war, wurde jetzt Realität. Jedem Verbraucher kann ein einzigartiges und individuelles Produkt angeboten werden. Die Liste der erfolgreichen Personalisierungsaktionen ist beeindruckend und wird mit den neuen Möglichkeiten weiterwachsen.

Jedes Produkt kann individuell gestaltet und variable Daten einfach integriert werden. Die Mosaik-Software ermöglicht die Personalisierung beliebiger Auflagen mit Bildern, Texten und Designs, um eine maximale Wirkung zu erzielen. Es generiert automatisch Hunderte, Tausende und sogar Millionen von einzigartigen Grafiken.

Markenbotschaften werden in die Welt getragen

Verpackung ist eine der wichtigsten Komponenten für die Präsentation der Identität einer Marke. Als einziges Medium neben dem Produkt selbst, das immer in direktem Kontakt mit dem Verbraucher steht, spielt es eine entscheidende Rolle, um die Markenbotschaft effektiv in die Welt zu tragen.

Es gibt viele verschiedene Situationen, in denen sich Verbraucher für den Kauf entscheiden müssen. Egal ob vor einem Supermarktregal oder an einer Bar – überraschende Eigenschaften und ein herausragendes Erscheinungsbild eines Produkts haben in jedem Fall einen immensen Einfluss auf die Entscheidung. Die Schaffung einzigartiger Markenerlebnisse ist daher zu einem der Hauptziele führender Marken weltweit geworden. Egal, ob es sich um eine Personalisierung handelt oder um noch nie dagewesene Effekte und Verzierungen, das Ziel geht über den Blick des Verbrauchers hinaus:
Es geht darum, eine Verbindung herzustellen, ein positives Gefühl zu vermitteln und die Beziehung zwischen Marke und Verbraucher aufzubauen oder zu stärken.


Autor Rafi Albo

Rafi Albo ist Gründer und CEO von SEGMARKETING, einer führenden Agentur, die auf 1to1-Marketing, Augmented, Virtual und Mixed Reality spezialisiert ist. Während seiner 20-jährigen Berufserfahrung hat er erfolgreich Print und Online kombiniert und Hunderte von innovativen Anwendungen für das 1-zu-1-Marketing entwickelt. SEGMARKETING hat sowohl geschäftliche als auch kollegiale Beziehungen zu verschiedenen Marken, Technologieplattformen und Start-ups auf der ganzen Welt aufgebaut und ist nun ein Teil der CCL-Gruppe. Rafi verfügt über einzigartige Erfahrungen und Einblicke in die sich entwickelnden Trends und spezifischen Bedürfnisse internationaler Unternehmen.

„Ich arbeite seit vielen Jahren mit unterschiedlichen Marken auf der ganzen Welt zusammen, unterhalte mich mit ihnen und erfahre mehr über ihre Bedürfnisse und die Herausforderungen für ihr Geschäft. Für sie werden emotionale Verbindungen und der Austausch von immersiven Erfahrungen und / oder zusätzlichen Produktinformationen und Schulungen immer wichtiger. Dies eröffnet Global Playern vielfältige Möglichkeiten bei der Integration neuer Online-Technologien und neuer Ideen. Ich bin der festen Überzeugung, dass die Kombination von Verpackung mit Online-Technologien einen echten Mehrwert bietet. “

Weiterführende Informationen finden Sie unter:
www.ccllabel.com
und unter
https://ccllabel.com/portfolios/promotions-connected-packaging/

Lizenz
Text und Bild: CCL Label
Aufmacherbild : freepik

In Krisenzeiten ist Kommunikation noch wichtiger

Dies ist ein Gastbeitrag von Roland Abel, Head of Growth & Strategy – Employee Experience (EX) DACH bei Qualtrics

Krisensituationen stellen die Arbeitswelt auf den Kopf. Wenn Arbeitsplätze gefährdet sind oder verschwinden, nehmen Angst und Stress täglich zu. Viele Mitarbeiter müssen plötzlich im Homeoffice arbeiten und sich mental wie technisch auf die neue Situation einstellen.

Menschen können sich anpassen, haben dabei aber mit Schwierigkeiten zu kämpfen. Für Arbeitgeber kommt es jetzt darauf an, ihre Angestellten zu unterstützen, damit keine Abwärtsspirale entsteht. Ein Rechenbeispiel aus einem fiktiven Unternehmen, das zwei Milliarden Euro Jahresumsatz generiert: Wendet man studienbasierte Annahmen über die Auswirkungen von Mitarbeitermotivation auf die Produktivität an, dann führt bereits ein Prozentpunkt weniger motivierter Mitarbeiter je Quartal zu ungefähr einer halben Million Euro Umsatzverlust. Von den wegbrechenden Aufträgen mal ganz zu schweigen.

Die richtigen Fragen stellen und Maßnahmen starten

Eine kürzlich durchgeführte Studie zur Mitarbeiterzufriedenheit in Unternehmen*, gerade vor Beginn der Pandemie, hat gezeigt, dass nur etwa die Hälfte der deutschen Arbeitgeber ihre Mitarbeiter zu den Arbeitsbedingungen und dem Erleben ihrer Arbeit befragt. 66 Prozent derer, die ihrem Arbeitgeber ihr Feedback geben dürfen, sind mit ihrer Employee Experience zufrieden. Haben die Beschäftigten hingegen keine Möglichkeit, Rückmeldung zu geben, sinkt die Zahl der Zufriedenen auf 40 Prozent. Wichtig ist: Nur Fragen reicht nicht. Es müssen die richtigen Fragen sein. Nur jeder zweite deutsche Arbeitnehmer (53 Prozent) findet, dass die meisten in Mitarbeiterbefragungen gestellten Fragen für seine Arbeitssituation relevant sind. Mit der Folge, dass sie sich nicht verstanden fühlen. Außerdem sollten Sie auf die Antworten reagieren und konkrete Maßnahmen starten. Setzen Sie das Feedback nicht in eine verbesserte Employee Experience um, ist es doppelt so wahrscheinlich, dass Mitarbeiter innerhalb von zwei Jahren aus dem Unternehmen ausscheiden.

Der entscheidende Faktor ist ein glaubwürdiges, echtes Interesse an der Meinung der Mitarbeiter. Genau hieran sollten Sie als Arbeitgeber anknüpfen. Jetzt mehr denn je: Als Führungskraft tragen Sie in Krisen eine größere Verantwortung als sonst, und die persönliche Verbindung zu den Mitarbeitern wird stärker. Das, was Sie sagen und fragen, ist wichtig für viele Menschen. Intensivieren Sie deshalb den Dialog mit Ihrem Personal. Mitarbeiter, die um ihr Feedback gebeten werden, sind wesentlich engagierter als Mitarbeiter, die nicht befragt werden. Außerdem möchten Angestellte gerade in schwierigen Zeiten Rückmeldung geben. Beginnen Sie mit essenziellen Fragen: Was macht Ihnen zu schaffen? Haben Sie, was Sie brauchen? Wie können wir Ihnen helfen, erfolgreich zu sein?

Aber denken Sie daran: Die Situation und die daraus resultierenden Folgen werden für jedes Land, jede Region und jede Branche unterschiedlich sein und wahrscheinlich jede Woche anders. Achten Sie auf Ihre Fragen, diese können von Firma zu Firma und von Job zu Job variieren. Für jeden Menschen gestaltet sich eine Krise anders: Viele arbeiten zum ersten Mal zu Hause und müssen sich auch noch um die Kinder und den Haushalt kümmern. Viele fürchten, dass ihre Arbeit deshalb nicht gut genug ist.

Die Tech-Experience im Unternehmen verbessern

Viele Angestellte arbeiten im Büro zwar am PC, sind es aber nicht gewöhnt, sich selbstständig in neue Techniken einzuarbeiten. Hierzu gehören digitale Kommunikations- und Sharing-Plattformen, um im Team virtuell Inhalte auszutauschen oder sich per Video zu unterhalten. Viele sind im Umgang mit neuen IT-Systemen überfordert oder frustriert und melden sich nicht beim IT-Support, da dieser oft weitere Fragen aufwirft oder lange für eine Antwort braucht. Dies trübt die Stimmung der Angestellten, wird von Unternehmen jedoch kaum aktiv erfasst.

Deshalb müssen sich die Erfahrungen im Umgang mit Technologien im Arbeitsumfeld und dem IT-Support (Tech-Experience) der Belegschaft verbessern. Beansprucht ein Mitarbeiter beispielsweise den IT-Support, sollte er danach um sein Feedback gebeten werden. Die Antworten sollten dem jeweiligen Support-Agenten direkt in sein Dashboard eingespielt werden, damit dieser sofort reagieren und seinen Support verbessern kann.

Kommunizieren Sie!

Es gibt zudem Themen, die Unternehmen trotz Krise nicht vernachlässigen und per Mitarbeiterumfrage erfassen sollten:

  • Der Kundenfokus darf nicht verloren gehen. Hören Sie Ihren Frontline-Mitarbeitern, die im direkten Kundenkontakt stehen, in dieser Zeit besonders zu?
  • Bieten Sie sowohl „Always-on-Formate“ als auch die Möglichkeit zur gegenseitigen Wertschätzung unter den Mitarbeitern an, zum Beispiel durch digitales Lob.
  • Arbeitspensum: Übersehen Sie nicht die Mitarbeiter, die zu viel arbeiten – Pausen müssen sein!
  • Die psychische Gefährdung verändert sich enorm – bleiben Sie nah dran und vermeiden Sie das Risiko einer mentalen Überlastung.
  • Behalten Sie im Auge, ob sich Ihre Mitarbeiter auf sinnvolle Aufgaben konzentrieren, auch zur Vorbereitung auf die Zeiten nach der Krise. Oder flüchten sich die meisten in Aktionismus?

*Qualtrics, Anbieter von Experience-Management-Software und Pionier im Bereich Experience Management (XM), befragte im März 2020 500 vollbeschäftigte Arbeitnehmer zu ihrer Employee Experience und Arbeitsmotivation.

Über den Autor

Dr. Roland Abel ist Head of Growth & Strategy – Employee Experience (EX) DACH von Qualtrics und unterstützt Qualtrics-Kunden bei der Erhebung von Experience-Daten.
Er blickt auf über zwölf Jahre Erfahrung im Bereich Employee Experience zurück. Bei einer großen HR-Beratung führte er als Practice Head Employee Insights Germany & Austria multinationale Mitarbeiterbefragungen für internationale Konzerne in der DACH-Region durch. Dabei kümmerte er sich um die Konzeption und Auswertung der Umfragen, die Besprechung der Ergebnisse mit der Führungsebene und um die Planung von

Aufmacherbild zur Verfügung gestellt von Qualtrics

Der Cloud Act ist eine ganz reale Gefahr

Dies ist ein Kommentar von Christian Schmitz, Chief Strategy & Innovation Officer bei ownCloud in Nürnberg

US-Anbieter lassen verlauten, der US Cloud Act sei nur eine „hypothetische Möglichkeit“. Wer’s glaubt, wird selig.

Christian Schmitz, Chief Strategy &
Innovation Officer bei ownCloud in Nürnberg

Der US Cloud Act ist eine immense Bedrohung für unseren gesamteuropäischen Wirtschaftsraum. Auf seiner Grundlage können US-amerikanische Behörden von Cloud-Providern aus den USA die Herausgabe sämtlicher Daten einer Person oder eines Unternehmens verlangen. Das gilt selbst dann, wenn sie sich auf Servern befinden, die in Deutschland oder der EU stehen – DSGVO-Hoheitsgebiet hin oder her. Häufig wird hier der Begriff „regionale Datenhaltung“ verwendet, um deutsches Datenschutzrecht zu suggerieren – freilich ohne dabei das Durchgriffsrecht der US-Regierung zu benennen.

Und da bei den meisten Unternehmen und Behörden in Europa heute oft nichts mehr ohne US-amerikanische Cloud-Dienste geht, ist unsere Wirtschaft und Verwaltung diesem Gesetz de facto ausgeliefert. Solange das so ist, können wir uns Datenschutz und Datensouveränität abschminken. Der US Cloud Act steht nämlich nicht nur europäischen Datenschutzgesetzen wie der DSGVO diametral entgegen; er öffnet auch Wirtschafts- und sonstiger Spionage Tür und Tor. 

Diese Erkenntnis setzt sich derzeit im öffentlichen Bewusstsein immer stärker durch. Die US-amerikanischen Internetgiganten sehen deshalb anscheinend ihre Felle davonschwimmen und versuchen zu beschwichtigen. So ließ etwa ein Vertreter von Amazon Web Services jüngst verlauten, der US Cloud Act sei doch nur eine „sehr hypothetische Möglichkeit“. Nur merkwürdig, dass Microsoft gegen den Cloud Act Einspruch erhoben hat – und damit scheiterte. So hypothetisch scheint er also doch nicht zu sein.

Deshalb: Wer’s glaubt, wird selig. Es gibt keinen berechtigten Zweifel daran, dass die USA die Möglichkeiten dieses Gesetzes zu ihrem Vorteil nutzen, wo es nur geht. Die Snowden-Enthüllungen haben schließlich schon vor Jahren gezeigt, dass sie systematisch Daten aus jeglichen IT-Systemen abgreifen. Mit Präsident Donald Trump an der Spitze, seinem ,America First’-Wahn und den von ihm angezettelten Handelskriegen dürften nun auch noch die allerletzten Hemmungen gefallen sein.

Beispiele dafür, wie die USA unter Trump ihre Marktmacht über die IT- und Dateninfrastrukturen zu ihrem Vorteil ausnutzen, gibt es schließlich genug: siehe etwa den Android-Boykott gegen Huawei. Zudem setzen die USA von der breiten Öffentlichkeit unbemerkt ihre Macht über DNS-Server in ihrer Auseinandersetzung mit dem Iran dazu ein, um dort die Verfügbarkeit von Services einzuschränken. Zu glauben, sie würden den Cloud Act nicht dazu verwenden, um sich etwa in einem Handelsstreit mit der deutschen Automobilindustrie Erpressungspotenzial zu verschaffen, wäre einfach nur naiv. Genauso naiv, wie es vor Jahren war anzunehmen, die USA würden unsere Kanzlerin nicht abhören, weil man so etwas unter Freunden schließlich nicht macht.

Deshalb: nein, der Cloud Act ist keine rein hypothetische Möglichkeit. 

Er ist eine ganz reale Gefahr.

Weitere Informationen unter:
www.owncloud.org

Exponentielles Datenwachstum

Der Erfindungsgeist bei Chip- und Speichertechnik allein wird das Datenwachstum nicht bändigen

Die Ideen von Universitäten und Storage-Anbietern, mehr Datenspeicher auf weniger Raum zu schaffen, rangieren von radikalen Ansätzen wie DNA- oder Wasserspeichern bis hin zu komplexen dreidimensionalen Chipdesigns. Ihr Ziel: das Mooresche Gesetz soll weiter gelten. Aber all das wird nicht reichen, um das exponentielle Datenwachstum zu bändigen. Anwender müssen anfangen, endlich Daten zu löschen, anstatt immer mehr speichern zu wollen. Aber wie löscht man richtig?

In den eigenen Daten ertrinken – was bisher metaphorisch galt, ist dank der University of Washington und Microsoft nun real. Forscher beider Organisationen haben gemeinsam einen ersten DNA-Speicher entwickelt, der Informationen vollautomatisiert in Binärcode und anschließend in DNA-Sequenzen und Desoxyribonukleinsäure umwandelt. Daten werden flüssig. Forscher um Julian Koch von der ETH Zürich haben einen Silikat-umhüllten DNA-Speicher entwickelt, den sie in beliebige Alltagsobjekte integrieren. Sie tauften diese Technik „DNA der Dinge“ – analog zum „Internet der Dinge“. „In dieser Speicherarchitektur werden DNA-Moleküle in funktionelle Materialien integriert, um Objekte mit unveränderbarer Erinnerung zu erschaffen“, erklären die Wissenschaftler dem Portal Scinexx.

Andere arbeiten daran, bekannte Konzepte weiter zu verbessern. Im August vergangenen Jahres hat ein Team am Massachusetts Institute of Technology (MIT) in Cambridge einen Computerchip aus Kohlenstoff-Nanoröhren gebaut, der mit 16 Bit arbeitet. Die Kohlenstoff-Nanoröhren sind Graphen mit der Dicke eines Atoms und leiten Strom viel effizienter und schneller weiter als Silicon. Die Industrie und Wissenschaft hofft, mit diesem Material die physikalischen Grenzen des Mooreschen Gesetzes stärker auszureizen.

Kraftanstrengungen auf bekanntem Terrain

Bis solch völlig neue Formen des Speichers oder Chipdesigns marktreif und tauglich für die Massenfertigung sind, werden noch mehrere Jahre vergehen. Daher wird an klassischen Technologien weiter intensiv geforscht, um mit neuen schnelleren Chips und Designs die wachsende Datenmenge einfacher, kompakter, schneller und vor allem energieeffizienter verarbeiten und speichern zu können. Forscher an der Universität von Lancaster haben vergangenen Sommer einen neuen Speichertyp patentiert, der nur 1 Prozent der Energie von DRAM – und 0,1 Prozent der Energie von Flashspeicher braucht, bei einer Baugröße von 20nm.

Der Riese bei der Chipproduktion, das taiwanesische Unternehmen TSMC, hat als erster Hersteller Chips mit der Baugröße von 5nm in die Massenfertigung gebracht. Und Philip Wong, Forschungschef von TSMC, glaubt fest daran, das Mooresche Gesetz bis zum Jahr 2050 einzuhalten. Neben neuen Materialien wie Graphen will der Marktführer in der Chipfertigung das Chipdesign dreidimensional anlegen. Die Idee stammt von den Herstellern von Flash-Speichern, die bereits seit Jahren mehrere Schichten aufeinanderstapeln.

Sie sparen nicht nur Patz, sondern können die Ebenen untereinander verbinden und so mehr Leistung aus dem Chipdesign holen. Auch Intel und ARM setzen auf solche Chiplet-Designs, die sich flexibel miteinander kombinieren lassen. Bei den Chiplets handelt es sich um einzelne Module, die beispielsweise mehrere CPU-Kerne, Grafikeinheiten und andere Bestandteile des gesamten Chips mitbringen. Diese können dann je nach Bedarf miteinander kombiniert werden.

Die Physik legt die Grenzen für das Mooresche Gesetz fest
Gordon Moore ist Computer-Pionier und Intel-Mitgründer. Er sagte bereits 1965 voraus, dass sich binnen zehn Jahren die Zahl der Schaltkreise auf einem Computerchip jährlich verdoppeln würde.

Tatsächlich hat die Industrie diese Gesetzmäßigkeit bis heute halten können – über mehr als 55 Jahre. Fortgeschrittene Schaltkreise seien heutzutage nur rund 5 Nanometer groß und die Industrie will in Größenbereiche von 2 bis 3 Nanometern vorstoßen. Diese winzigsten Strukturen umfassen dann nur noch zehn Atome – damit stößt die Siliziumtechnologie an ihr Limit. In den derzeitigen Mikroprozessoren fließen Elektronen. Der Wissenschaftspublizist Dr. Michael Springer erklärt, dass spätestens bei diesen Größen Quanteneffekte ins Spiel kommen, genauer gesagt die heisenbergsche Unbestimmtheit des Elektronenverhaltens. Die Teilchen verhalten sich unberechenbar, die Transistoren würden Fehler produzieren und wären unbrauchbar.

Aufgrund des elektrischen Widerstands heizen die Elektronen den Chip zudem auf. Ab einem gewissen Punkt versagen die Chips einfach, da die Wärme nicht mehr abgeführt werden kann. Das verhindere auch eine weitere Geschwindigkeitssteigerung der Bauteile.

Mit einem Fuß On-premises, mit dem anderen in der Cloud

Diese außergewöhnlichen Beispiele zeugen vom Erfindungsgeist, mit dem Universitäten und Industrie Platz für die wachsende Datenmenge schaffen, um in diesem Wettlauf Schritt zu halten. Denn die Menge der Daten weltweit wächst exponentiell und verdoppelt sich jedes Jahr. IDC spricht von 175 Zetabyte weltweit in fünf Jahren. Interessant an der IDC-Prognose ist aber etwas anderes: Gerade der Anteil der Daten, der von Unternehmen erzeugt und verwaltet wird, soll signifikant steigen. Während dieser Anteil 2015 noch bei gerade einmal 30 Prozent lag, erwarten die Experten für 2025 etwa 60 Prozent. Unternehmen werden es also 2025 mit etwa 105 Zettabytes zu tun haben, gegenüber 12 Zettabytes zehn Jahre zuvor. Das Datenwachstum hängt die technische Entwicklung ab. Es wird befeuert von der niemals endenden Generierung von Daten durch das Internet, die durch neue Technologien wie 5G, IoT, AI und Kryptowährungen und -verfahren wie Blockchain weiter befeuert wird.

Die Unternehmen und Cloud-Storage-Provider werden mehr Platz schaffen müssen für die Daten. Sie werden hierzu schnelle, skalierbare Flash-Speicher einsetzen, um die Daten für fortschrittliche Analysen auzuwerten oder hochperformante Storage-Plattformen per schnellem Backup zu sichern. Analysten gehen davon aus, dass die Preise für SSD-Speicher dieses Jahr weiter fallen werden, weil einige Hersteller beispielsweise 128-Layer-4D-NAND-Flash fertigen und mit hohen Volumina anbieten.

Die meisten Unternehmen werden ihre IT im Mischbetrieb fahren und Teile ihrer Workloads On-premises, andere in der Cloud betreiben. Die Storage-Systeme sollten solche Mischformen skalierbar und simpel abbilden können. Der Speicher wird selbst im Hyper-Converged-Modus arbeiten und sowohl mit der alten Storage-Infrastruktur als auch den Cloud-Storage-Ressourcen interagieren müssen.

Der Zwang zu einfachen, schnell aufsetzbaren Storage-Architekturen wird Konzepte auf Basis einer Software-Defined-Architektur weiter vorantreiben. Simple Standard-Hardware wird hierbei durch kluge und hochskalierbare Software zu einem virtuellen Ressourcenpool vereint. Automatische Prozesse weisen den neuen Speicher dynamisch nach Bedarf zu, ohne dass ein Mensch eingreifen muss.

Fleißaufgabe Datenhygiene

Jeden Tag wird neue Speicher-Infrastruktur aufgesetzt und von Daten geflutet. Dies ist aus ökonomischer und ökologischer Sicht irgendwann problematisch. Noch rechnet es sich, die Daten ungefiltert und unkategorisiert einfach auf günstigen Speichern abzulegen. Gartner spricht hierbei von Dark Data oder Informationen, die Firmen im Geschäftsalltag zwar sammeln, bearbeiten und speichern, die aber nicht verwendet werden.

Ähnlich wie bei dunkler Materie in der Physik gehört der Großteil aller Firmendaten in die Kategorie Dark Data. Studien von Veritas zeigen, dass im Schnitt weltweit 52 Prozent aller von Firmen gespeicherten Daten so genannte Dark Data sind. Diese Daten zu speichern und zu sichern bindet mehr Ressourcen, ohne dass irgendein Wert aus den Daten gezogen wurde.

Anwender müssen anfangen, den Inhalt solcher Daten automatisiert zu untersuchen und nach Geschäftswert zu klassifizieren. Automatische Data-Management-Werkzeuge nutzen hierfür Algorithmen aus den Bereichen Machine Learning und Artificial Intelligence und kombinieren dieses Wissen mit vordefinierten Filtern und länderspezifischen Regeln und gesetzlichen Vorgaben. Ziel ist es, so wenig Fehler wie möglich bei der Klassifizierung zu produzieren und so wenig menschliche Interaktion wie möglich auszulösen.

Diese Form der automatischen Datenklassifizierung ist der erste Schritt zur Datenhygiene. Das zweite wichtige Element ist der Gesamtüberblick über die Auslastung aller Speicher im Unternehmen, ob in der Cloud, hyperconverged oder klassisch On-premises. Erst dieser holistische Überblick über die Speicher und die darin abgelegten Daten liefert den Unternehmen das essenzielle Wissen, um eine der wichtigsten Fragen im Datenmanagement absolut zuverlässig zu beantworten: „Kann diese Datei ohne Geschäftsrisiko gelöscht werden?“

Wer den Anteil von Dark Data im Unternehmen durch Klassifizierung kontinuierlich reduziert, wird übrigens oft redundante Daten finden können – beispielsweise E-Mail-Archive auf Storage in Außenstellen, die längst an anderer Stelle zusammengefasst wurden. So lassen sich schnell bestehende Speicher freiräumen.

Wenn Unternehmen ein solches Datenmanagement als Teil ihrer alltäglichen IT-Aufgaben begreifen, werden sie den Wert der Daten auch bei der Einführung moderner digitaler Konzepte wie IoT oder Industry 4.0 gleich zu Anfang diskutieren und entscheiden, welche Daten sie speichern müssen. Und welche sie risikofrei löschen oder verfallen lassen können.


Über den Autor:


Sascha Oehl hilft Unternehmen als Director Technical Sales für Zentraleuropa bei Veritas Technologies, ihr Geschäft auf ein digitales Betriebsmodell umzustellen, in dem Daten Wettbewerbsvorteile liefern. Oehl unterstützt Kunden, Daten in Multi-Cloud-Umgebungen zu sichern, Speicherkosten zu senken und die IT insgesamt hochverfügbar zu betreiben.

Text: Veritas Technologies
Aufmacherbild / Quelle / Lizenz
Bild von PixxlTeufel auf Pixabay

Handbuch digitaler Mittelstand – Im Spannungsfeld des digitalen Wandels

Autoren aus Wissenschaft und Wirtschaft bieten im Open-Content-Werk „Handbuch digitaler Mittelstand“ Lösungs- und Denkansätze, die helfen, das Potenzial rund um Datenanalyse, künstliche Intelligenz und das IoT gewinnbringend zu nutzen sowie neue Geschäftsmodelle zu entwickeln.

Führung nach Corona: Was ändert sich eigentlich?

Das Coronavirus stellt viele Führungskräfte vor ungeahnte Herausforderungen. Während die einen mit den neuen Gegebenheiten schneller zurechtkommen, sind andere schlicht überfordert. Inmitten der Krise wird deutlich: Der klassische Führungsstil hat ausgedient.

Im folgenden Gastbeitrag gibt Dr. Katja Nagel, Gründerin und Inhaberin der Unternehmensberatung cetacea, Führungskräften wertvolle Tipps zum derzeit notwendigen Feedback und zur Selbstreflektion.

Über die Prinzipien klassischer Führung wurde schon lange bevor Corona diskutiert. Dass das Virus jetzt als eine Art Katalysator wirkt und ein großes Problem für diejenigen darstellt, die bis zuletzt an alten Traditionen festgehalten und ihr Selbstverständnis von Führung verteidigt haben, steht außer Frage. Führungsarbeit muss jetzt das leben, was schon so lange diskutiert wird: Kein Platz mehr für Ewiggestrige. Nicht jedem behagt das Hinterfragen des eigenen Führungsverhaltens – insbesondere in der ohnehin angespannten Krise durch Corona. Aber ganz sicher braucht wirkliche Autorität und Souveränität keine Tradition, sondern Veränderung, die bei einem selbst anfängt. Aber was macht Führung überhaupt aus?

Führung bedeutet: Leistungsfähigkeit, Leistungsbereitschaft und Leistung aufrecht zu erhalten. Wie geht das? Das geht über Engagement, Empowerment und Support, Leistungskontrolle, Coaching, Kommunikation und Teaming Up sowie Vorbildfunktion (Ethical Leadership). Führung nach Corona bedeutet, das alles auf Distanz zu bewerkstelligen. Führung hat viel mit Intuition zu tun. Wir führen, wie wir unsere Umgebung erfühlen und verstehen. Wir agieren in unserem Umfeld und reagieren auf unser Umfeld. Was tun, wenn dieses Umfeld viel leiser ist als sonst, viel weniger Signale sendet, die der Kurskorrektur dienen können?

  1. Engagement: Menschen über die Bildschirme zu motivieren ist ungleich schwerer als bei persönlicher Präsenz. Bei letzterer korrigiere ich meine Interaktion in Abhängigkeit von der Resonanz, die ich erzeuge – jetzt spreche ich ins Off. Motivation ist also virtuell viel schwieriger zu bewerkstelligen, es braucht viel mehr Videotelefonie, aber auch viel mehr explizite Kommunikation. Kopfnicken kann man am Telefon nicht sehen. Die ganze non-verbale Kommunikation fällt weg bzw. ist deutlich reduziert. Das Gesicht wird viel wichtiger, denn meistens ist nur das zu sehen (wenn überhaupt, zumeist gibt es „Folienschlachten“ mit Stimmen). Mimik wird zur allumfassenden Körpersprache. Folien sind unemotional. Emotion muss stärker transportiert werden durch die Person selbst, durch den Manager. Ebenfalls braucht es auch mehr Dialog, mehr Interaktion. Und nicht zuletzt gibt es jetzt nicht mehr die Motivation aus dem Team heraus, dieses Mitgerissen werden durch andere, die begeistert sind – oder diszipliniert. Insbesondere muss man sich jetzt mehr Zeit dafür lassen, mehr Raum dem „Mitnehmen“ der Mitarbeiter zu geben.  
    Als Führungskraft muss man sich jetzt selbst hinterfragen: Motiviere ich meine Mitarbeiter und Kollegen sowohl sachlich als auch emotional?
  2. Empowerment und Support: Unterstützung ohne persönliche Nähe lässt sich schwerer erfühlen. Unterstützung kann man jetzt also nicht mehr fühlen, die Überforderung anderer beim Videotelefonieren nicht unbedingt ansehen und in der Stimme am Telefon erst recht nicht. Stille spricht nicht. Jetzt ist die Führungskraft gefragt, die mit Empathie nachfragt, zuhört, Unterstützung aktiv anbietet und sich bei der Lösungsfindung anbietet. Wer sich gut kennt, ist jetzt klar im Vorteil. Wer als Führungskraft bereits Vertrauen aufgebaut hat, dem wird man sich auch jetzt leichter anvertrauen.
    Als Führungskraft muss man sich jetzt selbst hinterfragen: Gebe ich genug Unterstützung?
  3. Leistungskontrolle: Leistungskontrolle findet oft im Austausch miteinander statt und persönliche Nähe entkrampft so einen Dialog. Eigentlich umfasst die Leistungskontrolle nicht nur das Ergebnis, sondern auch den Weg und die Dauer. Denn: Leistung = Arbeit/Zeit. Genau das kann man als Führungskraft jetzt kaum mehr wahrnehmen. Kontrolle fällt jetzt besonders schwer. Wie ließe sich aus der Distanz erfühlen, ob jemand fleißig seine Arbeit macht? Leistungskontrolle muss ersetzt werden durch Vertrauen. Eine positive Erwartungshaltung an die Mitarbeiter motiviert. Arbeitsergebnisse werden fast zum einzigen verlässlichen Leistungskontrollinstrument. Führung über Präsenz hat ausgedient, das Ergebnis zählt. Command & Control funktioniert nicht mehr. Leistungskontrolle umfasst aber auch das Erreichen von Meilensteinen. Hier ist eine Möglichkeit, frühzeitig zu erkennen, ob Leistung erbracht wird.
    Als Führungskraft muss man sich jetzt selbst hinterfragen: Frage ich Meilensteine und Zwischenergebnisse ab, prüfe ich Lösungsweg und Ergebnisse?
  4. Coaching: Coaching basiert auf Vertrauen, auf intensivem Austausch, letztlich auf Nähe. Ohne direkten Kontakt ist auch das Coaching erschwert. Nähe aufzubauen über das Telefon dauert länger, erfordert Geduld und mehr Feingefühl. Empathie wird zum kritischen Erfolgsfaktor der Führung. Womöglich muss man auch seinen Mitarbeitern helfen, Routinen aufzubauen, einen festen Arbeitsrhythmus aufrecht zu erhalten – sie also coachen bei dem neuen Arbeiten von zu Hause aus – umso mehr, als nicht jeder ideale Bedingungen für das Arbeiten im häuslichen Umfeld vorfindet. Vergessen wir nicht: auch die Mitarbeiter haben sich Homeoffice in diesem Ausmaß nicht ausgesucht – und so nicht vorgestellt. Unterstützung kann es also auch bei der Installation eines häuslichen Arbeitsplatzes brauchen.
    Als Führungskraft muss man sich jetzt selbst hinterfragen: Gebe ich genug Hilfe zur Selbsthilfe, kümmere ich mich um meine Mitarbeiter, wie sie besser werden können?
  5. Kommunikation und Teaming Up: Kommunikation ist Interaktion. Führungskräfte, aber auch Mitarbeiter müssen üben, mehr am Bildschirm als im Präsenzmeeting zu kommunizieren. Es ist ermüdend, ohne wechselnde, lebendige und nahe Eindrücke der Kollegen auszukommen. Führungskräfte müssen versuchen, das auszugleichen, selbst lebendig kommunizieren, auch Smalltalk muss jetzt virtuell funktionieren. Die Frage „Wie geht es Dir?“ darf dem virtuellen Arbeitsplatz nicht zum Opfer fallen. Menschen müssen über ihre objektive berufliche Verwendbarkeit hinweg wertgeschätzt werden – und es fühlen. Schwierig ist aber auch, dass Menschen sich in Gruppen wohl fühlen und Sinnhaftigkeit auch aus dem Miteinander beziehen, das ebenfalls deutlich reduziert ist. Darum ist es jetzt besonders wichtig, auch größere Team-Meetings virtuell zu gestalten, um dieses Wir-Gefühl nicht zu verlieren.
    Als Führungskraft muss man sich jetzt selbst hinterfragen: Kommuniziere ich genug, erzeuge ich genug Sichtbarkeit des ganzen Teams?
  6. Vorbildfunktion: Eigentlich zählt ja immer, was man von seiner Führungskraft sieht – viel mehr als was man hört. Jetzt sieht man aber viel weniger. Gleichzeitig wird in einer Krise jeder dünnhäutiger, es wird auch viel mehr interpretiert. Insofern muss diese Vorbildrolle viel expliziter gelebt und kommuniziert werden, klargemacht werden, sozusagen über Kommunikation sichtbar werden.
    Als Führungskraft muss man sich jetzt selbst hinterfragen: Bin ich genug Vorbild? Und wenn ich es bin, zeige ich es auch deutlich genug?

Wie die Trendwende gelingen kann

In Schieflage geratenen Unternehmen, gerade auch mittelständischen, helfen nun neue Leitlinien für Kultur und Führung. Diskussionen mit den Führungskreisen und die Auseinandersetzung mit akuten Herausforderungen, womöglich auch Checklisten für die Führungskräfte und natürlich die richtigen Kommunikations-Tools zur Unterstützung. Nur indem man darüber spricht, kann man eine bewusste Veränderung in die Wege leiten. Und das Vorleben startet hier bei den Top-Managern des Unternehmens.

Stark konservativ denkende Führungskräfte haben es jetzt besonders schwer. Sie müssen sich neu zurechtfinden. Übrigens viele Mitarbeiter auch. Es geht um viel mehr explizite Führung, explizite Zusammenarbeit auf Augenhöhe, mit Respekt und Integrität, mit Kommunikation, mit viel mehr Vertrauensvorschuss, mit weniger Kontrolle im bisherigen Sinn. Es geht – kurz gesagt – um mittelbare Führung. Eigentlich hilft nur eines, wie immer in Zeiten schneller und massiver Veränderungen: Sich darauf einlassen und sich helfen lassen.

Über die Autorin

Dr. Katja Nagel ist Gründerin und Inhaberin der Unternehmensberatung cetacea und berät in dieser Funktion Top-Manager in Krisenzeiten. Sie hat mehr als zwanzig Jahre Erfahrung in Unternehmen und Beratung, insbesondere in den Bereichen Unternehmensentwicklung, Strategie, Marketing und Kommunikation. Als Geschäftsführerin von cetacea hat sie mehrere Transformations- und Restrukturierungsprogramme internationaler Konzerne mitgestaltet sowie Rebranding- und Employer Branding-Projekte geleitet.

Weitere Informationen unter:
https://www.cetacea-gmbh.de/

Bildquelle / Lizenz Aufmacher: Kalender Foto erstellt von pressfoto – de.freepik.com

Bildquelle / Lizenz Portrait: cetacea / Autorin