Zeit für berufliche Weiterbildung

Der Krise stand halten und Chancen nutzen: Mit staatlicher Förderung und mit passender Unterstützung kann die Zeit jetzt gezielt zur digitalen Weiterbildung genutzt werden.

Mehr denn je verändert die Digitalisierung die Arbeitswelt. Für Management und Mitarbeiter gilt gleichermaßen: Wer mithalten will, muss sich bewegen. Denn langfristig ist die einzige wirkungsvolle Strategie das lebenslange Lernen.

Doch dieser Anspruch kann kleine und mittlere Unternehmen genauso wie Arbeitnehmer schnell an die finanzielle Belastungsgrenze führen. Der Staat bietet daher verschiedene Fördermöglichkeiten wie das neue Qualifizierungschancengesetz.

Der technologische Fortschritt setzt Unternehmen und Mitarbeiter unter Anpassungsdruck: Für Arbeitnehmer gibt es keine Garantie mehr, den einmal erlernten Beruf bis zum Eintritt in die Rente auszuüben. Es gibt immer mehr Berufe, die durch den digitalen Strukturwandel verschwinden werden und insbesondere für Geringqualifizierte besteht die Gefahr, dass sie durch Automatisierung ihren Arbeitsplatz verlieren. Und Unternehmen bleiben im globalen Wettbewerb nur dann konkurrenzfähig, wenn die Qualifikation ihrer Mitarbeiter dem Stand der technologischen Entwicklung entspricht. In der Berufspraxis ist die Arbeitsbelastung jedoch oft so groß, dass die Zeit für regelmäßige Weiterbildung fehlt. Und Qualifizierung kostet Geld. Dabei ist sie bitter nötig, denn Arbeitnehmer aus Deutschland sind im weltweiten Vergleich nur durchschnittlich gut auf die Anforderungen der Digitalisierung vorbereitet. Zu diesem Ergebnis kommt die OECD in ihrem aktuellen „Skills Outlook 2019“. Entscheidend für eine erfolgreiche Anpassung an die Veränderungen sei es, das lebenslange Lernen zu stärken, so die OECD.

Weiterbildungen werden oft privat finanziert

Ganz oben auf der Bildungswunschliste stehen Fachthemen wie Künstliche Intelligenz oder Automatisierung, so die Ergebnisse der Studie „Digital-fit im Job?“ der Beratungsgesellschaft EY. Im Zusammenhang mit neuen Technologien werden zudem insbesondere Fertigkeiten im Bereich Informations- und Kommunikationstechnologie wichtiger. 74 Prozent der befragten Mitarbeiter und Führungskräfte gaben an, ihr Tätigkeitsprofil habe sich aufgrund der Digitalisierung bereits stark oder in Teilen verändert. Ebenso viele erwarten künftig weitere Veränderungen durch neue Technologien wie intelligente Software und Roboter. Die Ergebnisse zeigen auch, dass die meisten Menschen den Ernst der Lage erkannt haben: So sind 56 Prozent der Fachkräfte bereit, sich in der Freizeit weiterzubilden, 44 Prozent würden sich finanziell beteiligen oder haben bereits eigenes Geld in Qualifizierungen investiert. Dies ist jedoch nicht immer nötig, denn es gibt Möglichkeiten, sich eine Weiterbildung staatlich fördern zu lassen. Die Bundesagentur für Arbeit hat 2018 Weiterbildungen mit knapp 1,8 Milliarden Euro gefördert. Das sei etwa doppelt so viel wie zwölf Jahre zuvor, so das IW Köln. Die wichtigsten Fördermöglichkeiten sind das neue Qualifizierungschancengesetz, der Bildungsgutschein (BGS) und der Aktivierungs- und Vermittlungsgutschein (AVGS).

Das Qualifizierungschancengesetz fördert die betriebliche Weiterbildung

Das neue Qualifizierungschancengesetz ist ein Förderinstrument für die betriebliche Weiterbildung, das Unternehmen und Arbeitnehmern zugute kommen soll: „Gerade  für  Beschäftigte,  deren  Tätigkeit  bedingt  durch  Strukturwandel  oder technologischen  Fortschritt  von  betrieblichen  Substituierungs-  und  Rationalisierungsmaßnahmen  bedroht  ist,  haben  Arbeitgeber  wenig  Anreiz  und  Interesse,  sich  im  Vorfeld  freiwillig  an  beruflichen  Weiterbildungsmaßnahmen  zu beteiligen,  um  beispielsweise  vorbeugend  gegen  deren  Arbeitslosigkeit  aktiv zu  werden“, wie es in einer Empfehlung des Bundesrates heißt. Auf Grundlage des Gesetzes können Unternehmen eine Qualifizierungsberatung bei der Arbeitsagentur in Anspruch nehmen und die Arbeitnehmer erhalten eine Weiterbildungsberatung.

Die Idee: Der Staat möchte Arbeitnehmer bereits während ihrer Beschäftigung fördern, um ihre Qualifizierung zu erweitern – besonders im Hinblick auf den digitalen Strukturwandel. Und das unabhängig von Ausbildung, Lebensalter und Betriebsgröße. Eine Förderung können Angestellte erhalten, deren Berufsabschluss mehr als vier Jahre zurückliegt und die in den vergangenen vier Jahren nicht an einer entsprechenden Weiterbildung teilgenommen haben. Darüber hinaus muss die Maßnahme Fertigkeiten, Kenntnisse und Fähigkeiten vermitteln, die über ausschließlich arbeitsplatzbezogene kurzfristige Anpassungsfortbildungen hinausgehen. Und: Der Arbeitgeber muss sich „in angemessenem Umfang an den Lehrgangskosten“ beteiligen. Beantragen können interessierte Unternehmen die Förderung direkt beim Arbeitgeberservice der örtlich zuständigen Arbeitsagentur.

Der digitale Strukturwandel kann Chancen bieten

Viele zertifizierte Weiterbildungsanbieter haben auf die neuen Anforderungen auf dem Arbeitsmarkt und auf die hohe Nachfrage reagiert. Bildungsinteressierte finden zahlreiche Angebote, die sie fit für den Arbeitsmarkt von heute und morgen machen und die von den Arbeitsagenturen und Jobcentern gefördert werden können. Dazu gehören vierwöchige Weiterbildungen, die wichtige aktuelle Qualifikationen vermitteln: Vom Basiswissen wie Computerführerscheinen für Office-Anwendungen, Kenntnissen für den Aufbau von Websites, das Online Marketing, die Suchmaschinenoptimierung und die objektorientierte Programmierung mit PHP über spezialisierte Kenntnisse wie Agiles Projektmanagement, Screendesign und User Interface Design, App-Entwicklung, Cloud Computing, SEA-Marketing oder UX/UI-Design.

Die Fördermöglichkeiten sind da. Es liegt jetzt an jedem einzelnen Arbeitgeber und Arbeitnehmer, die bestehenden Möglichkeiten zu nutzen. Dann muss der digitale Strukturwandel nicht in eine Sackgasse führen, sondern kann eine herausfordernde Chance bieten, die neue Perspektiven eröffnet und den Horizont erweitert.


Autorin: Fanny Kabelström-Stefani


Fanny Kabelström-Stefani ist Geschäftsführerin der cimdata Bildungsakademie GmbH. Die cimdata Bildungsakademie GmbH ist seit 1983 in der Erwachsenenbildung aktiv und bietet geförderte Weiterbildungen und Umschulungen, Ausbildungen, Firmenschulungen und Coaching an. Fanny Kabelström-Stefani ist unter anderem für die Produktentwicklung und die strategische und operative Steuerung der Bildungsmaßnahmen verantwortlich.

Weiterführende Informationen:
cimdata Bildungsakademie

Pressekontakt
Sabrina Ortmann Kommunikation
Sabrina Ortmann
Tel: +49 30 549 092 40
E-Mail: presse@cimdata.de

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Standort Deutschland

Deutschland im Ausnahmezustand. Mehr denn je sind Agilität und Kreativität gefordert.

Welttag des Buches

Indem sie sich für Bücher und Urheberrechte engagiert, tritt die UNESCO für Kreativität, Vielfalt und gleichberechtigten Zugang zu Wissen ein.

Sorglos in die Multi-Cloud

Unternehmen nutzen in immer größerem Umfang Cloud-Services. Um Sicherheitsgefahren auszuschließen, müssen sie dabei vor allem die Zugangsdaten zu Cloud-Managementkonsolen adäquat verwalten, sichern und überwachen.

Gastbeitrag von Christian Goetz

Die Cloud-Nutzung findet sich in unterschiedlichster Ausprägung. Einige Unternehmen nutzen nach wie vor primär eine On-Premises-Infrastruktur, beziehen aber zusätzliche Services aus der Cloud. Andere wiederum greifen für den regionsübergreifenden Einsatz auf unterschiedliche Provider wie Amazons AWS oder Microsoft Azure zurück. Und manche Unternehmen verlagern einen Großteil der IT oder sogar die gesamte IT in die Cloud. 

Dabei setzen Unternehmen unter der Prämisse „Best-of Breed“ verstärkt auf Multi-Cloud-Modelle, das heißt, sie nutzen Dienste von mehreren Providern. So erfolgt zum Beispiel in Microsoft Azure die Benutzerverwaltung, das Management von Zugriffsberechtigungen und die Steuerung von Services, die aus anderen Clouds bezogen werden. Dass damit die Komplexität des Cloud-Managements zunimmt und auch die Anforderungen an die Sicherheit steigen, liegt auf der Hand.

Doch welche elementaren Sicherheitsmaßnahmen muss ein Unternehmen ergreifen? Zunächst sollten die Empfehlungen der „Shared Responsibility“ nahezu aller Cloud-Provider berücksichtigt werden (1). Eine zentrale Vorgabe zum Schutz der Zugangsdaten lautet dabei „Etablierung einer Multifaktor-Authentifizierung“. Wichtig sind darüber hinaus folgende Aspekte: ein stringentes Berechtigungsmanagement mit Rollen- und Rechtekonzept und eine sichere Verwahrung von Zugangsdaten.

Sicherung von Zugangsdaten und API-Schlüsseln ist absolutes Muss

Vor allem der letzte Punkt ist entscheidend: Für die Nutzung von Zugangsdaten (Credentials) zur Verwaltung der Cloud-Ressourcen über Cloud-Managementkonsolen und -portale müssen klare Richtlinien existieren. Bei einer Single-Cloud-Lösung können prinzipiell die Key Management Stores (KMS) in der jeweiligen Cloud selbst genutzt werden. Komplexer ist die Situation aber bei Multi-Cloud-Lösungen. Hier empfiehlt sich die Nutzung einer externen Secrets-Management-Lösung, die zentral und separat den Bezug von Anmeldeinformationen regelt. Mit einer solchen Lösung kann ein Unternehmen alle Zugriffspfade auf Managementkonsolen sichern und überwachen, auch die Root-Accounts, die bei der initialen Einrichtung eines Cloud-Zugangs angelegt werden. Über diese Accounts ist ein uneingeschränkter Zugriff auf die Managementkonsole und damit auf die gesamte Cloud-Infrastruktur möglich.

Quelle CyberArk

Ebenso wichtig ist die Sicherung der API-Zugriffsschlüssel, die programmatisch von Anwendungen und Diensten genutzt werden. Zu den zentralen Cloud-Vorteilen gehört der hohe Automatisierungsgrad, der eine maximale Dynamik und Flexibilität bietet. Klassisches Beispiel sind die Lambda-Funktionen in AWS, die ein ereignisgesteuertes Initiieren von Aktionen ermöglichen. Automatisierung bedeutet immer auch den Einsatz von Skripten, Orchestrierungsservern und Automationstools, die API-Zugriffsschlüssel zur Zugriffsvalidierung nutzen. Mit ihnen werden Änderungen in der Cloud-Umgebung vorgenommen, etwa das Stoppen oder Starten eines Servers, die Provisionierung eines Containers oder das Bereinigen einer Datenbank. Insbesondere mit API-Zugriffschlüsseln ist ein hohes Sicherheitsrisiko verbunden, denn sobald ein Angreifer in ihren Besitz gelangt, hat er im Zweifel freien Zugang zur gesamten Cloud-Umgebung. API-Keys können zwar für bestimmte Zwecke erstellt und mit beschränkten Rechten versehen sein. Nicht mit jedem API-Key wird man deshalb zum Root-User in einer Cloud-Instanz. Aber er ist ein Einstieg und Einfallsportal. Da leider oftmals zu viele Rechte vergeben werden, können die Auswirkungen des Missbrauchs dieser API-Keys verheerend sein.

Für die Speicherung und Verwaltung von Zugangsdaten und API-Schlüsseln bietet sich ein digitaler Datentresor (Vault) an, also ein speziell „gehärteter“ Server, der mit mehreren unterschiedlichen Security-Layern zuverlässigen Schutz vor unbefugten Zugriffen bietet.

Privileged Session Recording bringt Sicherheitsplus

Zusätzliche Sicherheit bringt ein erweitertes Privileged Session Management für die Cloud-Nutzung, bei dem die Inhalte und Aktionen administrativer Anmeldungen protokolliert und aufgezeichnet werden. Zum einen wird damit eine retrospektive Betrachtung von privilegierten Aktivitäten möglich, sodass einschlägige Audit- und Compliance-Anforderungen erfüllt werden. Zum anderen unterstützt eine solche Lösung die Steuerung und Überwachung eines Zugriffs und Verbindungsaufbaus. Durch die Isolation privilegierter Cloud-Sessions von Administratoren oder Business-Anwendern kann sichergestellt werden, dass Zugangsdaten niemals offengelegt und nur für den Aufbau sicherer Sessions genutzt werden. Das heißt, der Administrator greift auf Cloud-Services mittels Zugangsdaten zu, die er aus einem Vault beziehungsweise Credential-Store bezieht. Die Zugangsdaten selbst kennt er aber nicht. Damit kann ein Unternehmen zum Beispiel sicherstellen, dass ein Zugang zu Cloud-Managementkonsolen nur standortbezogen in einem bestimmten Netzwerk möglich ist und keine externen Zugriffe über beliebige Endgeräte unterstützt werden.

Unbestritten ist, dass die Verlagerung von IT-Workloads in die Cloud Unternehmen erhebliche Vorteile wie Reduzierung von Kosten oder Erhöhung von Flexibilität und Skalierbarkeit bringen kann. Und auch die Sicherheit muss dabei nicht zu kurz kommen. Eine elementare Voraussetzung ist allerdings, dass die privilegierten Anmeldedaten für den Zugriff auf Managementkonsolen, die Bereitstellung und Ausführung von Cloud-Workloads und die Verwaltung von Cloud-Anwendungen und -Ressourcen zuverlässig gesichert werden.


Quellen:
(1) vgl.: https://docs.microsoft.com/de-de/azure/security/fundamentals/shared-responsibility oder https://aws.amazon.com/de/compliance/shared-responsibility-model/

Über den Autor


Christian Goetz ist Director of Presales – DACH bei CyberArk



Weiterführende Informationen zum Unternehmen:
https://www.cyberark.com/de/

Aufmacherbild / Quelle / Lizenz
Bild von ambercoin auf Pixabay

IT-Security

Etliche Unternehmen setzen zum Schutz der Mitarbeiter auf Homeoffice, doch hier lauern andere Viren.

New Work: Vielfalt der Arbeit

Die Zukunft der Arbeit ist nicht nur vielfältig, sondern auch herausfordernd.

Mit KI gegen die Klimakatastrophe

Auch wenn er vorerst vielleicht in den Hintergrund getreten ist, hat der Klimanotstand nichts von seiner Dringlichkeit verloren. So ist es erst wenige Monaten her, da verursachten schreckliche Überschwemmungen in Venedig Schäden an Häusern, Geschäften und historischen Stätten in Milliardenhöhe.

Homeoffice neu gedacht

Wie Benefits auch von zu Hause genutzt werden können

Arbeitnehmer auch in Krisenzeiten zu unterstützen ist aktuell ein brennendes Thema. Die Herausforderungen für deutsche Unternehmen sind in den letzten Wochen hoch: Viele Arbeitgeber waren gezwungen, ihre Mitarbeiter ins Homeoffice zu schicken.
Im Gastbeitrag schildert Patrick Löffler, CEO und Gründer von givve eine Möglichkeit, rechtssicher Mitarbeiter im Homeoffice zu unterstützen: Benefits, die auch für eine verstärkte Mitarbeiterbindung sorgen können.

Wie bleibt man trotz räumlicher Trennung mit seinen Mitarbeitern verbunden? 

Neben sozialen Problemen, wie Einsamkeit, fehlendem Austausch mit Kollegen oder dem Zusammentreffen von Familie, Partnern oder Mitbewohnern und Arbeit, ist auch die Ausstattung des Arbeitsplatzes nicht unbedeutend. Adäquate Kommunikationstechnologien müssen zur Verfügung stehen und die richtigen Programme genutzt werden. Denn auch Arbeitgeber für die Homeoffice bisher nicht denkbar war, wurden durch die aktuelle Situation zum Umdenken gezwungen. Es zeigt sich, dass mehr möglich ist, als gedacht und die Mitarbeiter sehen neue Optionen, die nicht jeder mit dem Ende der vorgeschriebenen Heimarbeit wieder aufgeben möchte. 

Um trotz Homeoffice weiterhin eng mit seinen Mitarbeitern in Kontakt bleiben zu können, kommen digitale Strukturen ins Spiel: Telefonieren, Videokonferenzen und gute Kommunikation. Es bietet sich an, Mitarbeiter mit Benefits zu unterstützen, um als Unternehmen auch jetzt präsent zu bleiben. 

So bleibt der positive Eindruck auch zu Hause, während Benefits belohnen und motivieren. 

Arbeitnehmerunterstützung in Krisenzeiten, z.B. durch Bezuschussung von Internetkosten oder dem Essenszuschuss etc. zeigt, dass man füreinander da ist. Und auch Steuervorteile bei Sachbezügen sind Anreiz für Unternehmen und Arbeitnehmer.

Produkte, wie beispielsweise die Sachbezugskarte givve Card, welche vom Arbeitgeber monatlich mit bis zu 44 Euro steuerfrei beladen werden kann, können hier unterstützen. Die Karte ermöglicht Mitarbeitern Zahlungen sowohl online, als auch im stationären Handel. Beladung und Nutzung erfolgen digital, was in Zeiten von Kontaktbeschränkungen und Ansteckungsgefahr ein großer Vorteil ist. 

Das Unternehmen givve® hat es sich zur Aufgabe gemacht die Administration so zu optimieren, dass sich die Kartenverwaltung leicht in bestehende Unternehmensprozesse integrieren lässt. Die Karten werden nach der Bestellung, mit sämtlichen wichtigen Informationen für den Kartennutzer, bereitgestellt. Mit dem integrierten Business Portal kann der interne Verwaltungsaufwand erheblich reduziert werden. Über das Portal werden Karten bestellt und aufgeladen. Das ist sowohl händisch als auch über das Hochladen von Kartenbestell- und Ladelisten möglich. Eine API Schnittstelle lässt eigene Anwendungsprogrammierungen zu und gibt  die Chance, alle wichtigen Vorgänge 100% automatisiert vorzunehmen. Zum Beispiel Kartenbestellungen, Kartenladungen oder die Aktivierung/Sperrung von Karten.

Auch ein digitaler Essenszuschuss ist im Homeoffice nutzbar. 

Patrick Löffler gibt im Interview Einblicke in die Lösung givve

Er ist uneingeschränkt für das Mittagessen vom Lieferdienst oder aus dem Supermarkt einsetzbar. Ohne ins Büro zu kommen kann er mit Apps, wie givve Lunch, umgesetzt werden. Mit der App lassen sich die Essensbelege einscannen, diese werden dann von givve überprüft. Der Arbeitgeber erhält am Ende des Monats eine Übersicht der zu zahlenden Zuschüsse, die direkt in die Lohnbuchhaltung integriert werden kann. So bekommt der Mitarbeiter seinen Essenszuschuss von bis zu 6,50 € am Tag mit dem Gehalt des Folgemonats ausgezahlt.

Vor allem in Zeiten der räumlichen Trennung ist es wichtig mit seinen Mitarbeitern in Verbindung zu bleiben, gute Kommunikation zu ermöglichen und Wertschätzung auszudrücken, um die Motivation aufrecht zu erhalten. Mit der 100-prozentigen Automatisierung der Prozesse durch die Sachbezugskarte ändert sich also diesbezüglich auch im Homeoffice nichts für die Mitarbeiter. Der Sachbezug, der vor allem in der aktuellen Situation ein Benefit ist, seinen Arbeitnehmern Wertschätzung zu zeigen, kann weiterhin problemlos ausgezahlt und vor allem genutzt werden. Mit dem digitalen Essenszuschuss kann auch weiterhin das Mittagessen gezahlt werden – auch wenn die Kantine aus dem Homeoffice nicht nutzbar ist. Mit der Brandingoption der Karte bleiben Unternehmen auch haptisch bei ihren Mitarbeitern im Gedächtnis, wodurch sinnvolles Employer Branding möglich ist. Markus Hendel, Leiter Personal bei der Mercateo service AG fasst zusammen: „Bei Mercateo nutzen wir die givve® Card als Bindungs- und Motivationsinstrument für unsere Auszubildenden und Studierenden im Unternehmen. Wir setzen sie gern als Anerkennung für geleistete Projekte ein, die über den Ausbildungsalltag hinausgehen. “

Weitere Informationen unter:
www.givve.com

Über den Autor

Als Geschäftsführer (CEO) vertritt Patrick Löffler givve® nach außen hin und leitet die strategische Orientierung des Unternehmens. Bevor er 2010 givve® gegründet hat war Löffler Geschäftsführer der Anschlusstor Vermarktungs GmbH, Deutschlands größter unabhängiger Vermarktungsplattform für den Vereinssport. Löffler studierte an der Munich Business School Business Administration and Management und ist Diplom EU Betriebswirt.

Bildquellen / Lizenzen: givve

Covid-19 läutet neue Ära in der Arbeitswelt ein

Foto: Christian Krinninger

Der Weg zurück in die Normalität wird Mitarbeiter und Unternehmen vor größere Herausforderungen stellen. Das „neue Normal“ wird ein anderes sein als vor der Corona-Krise. Die Ausnahmesituation schafft einen Paradigmenwechsel sowohl für Mitarbeiter als auch für Unternehmen. Beide Seiten werden mit neuen Abläufen konfrontiert, die innerhalb kürzester Zeit adaptiert werden müssen. Diese Notsituation ruft beim Thema New Work eine völlig neue Dynamik hervor und eröffnet die Chance, tradierte Prozesse zu überprüfen, und die Arbeitswelt den aktuellen Bedürfnissen und Zielen anzupassen. Potenziale erkennen und nach der Krise für das Unternehmen zu nutzen –lautet die Devise. Einige signifikante Veränderungen lassen sich dem New-Work-Experten CSMM zufolge bereits erkennen. Das Architektur- und Beratungsunternehmen stellt sieben Thesen auf:

These 1: Enormer Digitalisierungsschub

Die Corona-Pandemie hat in vielen Unternehmen notgedrungen für einen enormen Digitalisierungsschub gesorgt. Firmen, die sich bisher gescheut haben, den nächsten Digitalisierungschritt zu gehen, oder bei denen die Dringlichkeit zur Digitalisierung branchenbezogen nicht gegeben war, sind nun gezwungen, sich ernsthaft mit dem Einsatz digitaler Hilfsmittel auseinander zu setzen. Bislang ungenutzte Potenziale – ob bei Prozessen, in der Arbeitsverteilung aber auch in der Kommunikation – werden derzeit aufgezeigt und im Optimalfall zukunftsgerichtet überdacht. Die dadurch in Gang gesetzte Dynamik wird in den kommenden Monaten und Jahren eine Vielzahl an Branchen in eine Umbruch- und Aufbruchstimmung versetzen. Sie bekommen so die Chance, teils festgefahrene Abläufe und Strukturen effizienter oder zielgerichteter zu gestalten. Covid-19 fungiert vielfach als Testlauf für eine neue Ära der Digitalisierung.

These 2: Virtual Meeting versus Face-to-Face

Die Krise zeigt einmal mehr, dass Meeting nicht gleich Meeting ist. In der Praxis lässt sich gerade deutlich erkennen, für welche Art an Besprechungen zwingend von Angesicht zu Angesicht treffen sollte und welche durchaus virtuell stattfinden können. Auch hier ergeben sich wiederum Chancen, welche die Unternehmen nach der Krise aktiv nutzen können. Sie sollten Besprechungen ernsthaft auf den Prüfstand stellen und differenzieren. Dazu zählt auch die Frage, inwiefern es zielführend ist, zu jeder Routinebesprechung diverse Parteien von unterschiedlichen Standorten an einen Besprechungsort zu schicken. Kosteneffizienz und Zeiteinsparung sprechen für sich. In Bezug auf die Umwelt sind virtuelle Meetings zudem gelebter Klimaschutz. Besprechungen dagegen, die kreative Prozesse im Team freisetzen sollen, stoßen in Zeiten von Home Office meist an ihre Grenzen. Hier sind Meetings vor Ort die eindeutig bessere Wahl. Die Zusammenarbeit von Angesicht zu Angesicht ist bei kreativen Prozessen, aber auch in vielen anderen Bereichen, unumgänglich und sollte nicht durch digitale Lösungen substituiert werden. Der persönliche Austausch und die Interaktion bei Treffen vor Ort haben das Potenzial, erheblichen Mehrwert für alle Beteiligten zu schaffen. Diese Begegnungen werden nach der Corona-Krise vermutliche einen höheren Stellenwert erfahren und im besten Fall effektiver ausgeschöpft.

These 3: Home Office hat seine Grenzen

Home Office öffnet vielen Unternehmen die Tür in eine neue Ära des Arbeitens. Unternehmen, die agiles Arbeiten aufgrund der bestehenden Prozesse bisher nicht in Betracht gezogen haben, wurden durch die Umstellung auf das mobile Arbeiten von zu Hause mit neuen Möglichkeiten konfrontiert. Jedoch stößt das Heimbüro als eine der vielen Facetten des agilen Arbeitens unweigerlich an seine Grenzen und muss nicht per se in dieser Form weitergeführt werden. Essentielle Aspekte wie die informelle Kommunikation und die persönliche Interaktion brechen bei dieser Variante meist gänzlich weg. Daher sollte Homeoffice als eine von zahlreichen Optionen des agilen Arbeitens gesehen werden, die noch nicht genutzte Potenziale des Unternehmens freisetzen kann. Es gilt nun, eine Bilanz aus den neugewonnenen Erkenntnissen zu ziehen und Chancen individuell für jede Firma zu adaptieren.

These 4: Das Büro als Hub & Home

Nach einigen Wochen der Einschränkung und Isolation ist ersichtlicher denn je, wie wichtig das Büro als sozialer Knotenpunkt für den Austausch und als Plattform der Kreativität und Innovation ist. Bei aller Unabhängigkeit, die die Digitalisierung mit sich bringt, suchen Menschen weiterhin Stabilität und Nähe. Der Mensch als soziales Wesen sehnt sich auch in der Arbeitswelt nach einem Ort, der Identifikation stiftet. Eine inspirierende Arbeitsumgebung dient als emotionales Bindemittel zum Unternehmen und steigert das Wohlbefinden. Der Trend zur Hybridisierung, also zur Schaffung einer Mischform der vorher getrennten Systeme „Hub“ (sozialer Knotenpunkt Büro) und „Home“ (Heim), wird fortschreiten, sodass das Büro zunehmend auch den Bedarf an Zugehörigkeit erfüllen muss. Mitarbeiter werden das Büro – und hier insbesondere die Begegnungs- und Kommunikationsflächen – neu entdecken und neu bewerten. Die These ist in einer Forschungskooperation mit CSMM und dem ISF – Institut für Sozialwissenschaftliche Forschung entstanden.

These 5: Möglichkeitsraum statt Einzelzelle

Auch wenn derzeit Vereinzelung und Abstandhalten das allgemeine Bild prägen – die bisherige Entwicklung in Richtung Großraumbüro als Möglichkeitsraum, also als Raum der Entfaltung, der Begegnung und der Teamarbeit, wird sich fortsetzen. Eine Rückkehr zum Einzelbüro ist sehr unwahrscheinlich und auch nicht zielführend in Bezug auf Wohlbefinden, Identifikation und Produktivität der Mitarbeiter. Was jetzt gefragt ist, ist die Förderung von Teamgeist und Innovationsfähigkeit. Unternehmen, die marktfähig bleiben wollen, benötigen Raum für Empathie, Kreativität und Erfindergeist und keine Einzelzellen zum Abarbeiten.

These 6: Downsizing des Arbeitsplatzes stößt an seine Grenzen

Das mit der Corona-Krise einhergehende Social Distancing wird auch in Bezug auf die Größe des Arbeitsplatzes Einfluss haben. Die kontinuierliche Reduktion der Fläche pro Mitarbeiter wird vorerst einen radikalen Stopp erfahren. Viele Unternehmen werden zu enge oder zu dicht besetzte Büros überdenken. Im Hinblick auf künftige Krisen werden viele Unternehmen die Anzahl der Mitarbeiter in einem Raum verringern beziehungsweise die Abstände zwischen ihnen vergrößern. Aber nicht nur das Abstandsthema wird die Planung neuer Büros maßgeblich beeinflussen. Auch das Thema Hygiene wird ein Aspekt sein, der neu in die Bürogestaltung einfließen wird.

These 7: Bewährungsprobe für Co-Working und Desk-Sharing

Eine Vielzahl an Geschäftsmodellen – Auto, Wohnung, Arbeitsplatz – ist über die letzten Jahre auf gemeinschaftliche Nutzung ausgelegt worden. In der aktuellen Krisensituation kommen diese Modelle ins Wanken. Kürzlich noch gehypte Co-Working-Flächen bekommen einen bitteren Beigeschmack. Die Idee des Co-Working, eine dynamische und flexible Fläche zu schaffen, bei der fremde Personen einen Raum teilen, wird bei der Rückkehr aus dem Homeoffice auf eine Bewährungsprobe gestellt werden.  Auch die innerbetriebliche Variante des Desk-Sharing wird eine neue Legitimation im Unternehmen durchlaufen müssen. Nichtsdestoweniger eröffnen sich durch die flexibel nutzbaren Co-Working-Angebote den Unternehmen neue Möglichkeiten: Sie könnten Ergänzungsflächen anmieten, um ihre Mitarbeiter aus den jetzt zu dicht besetzten bisherigen Büros zu verteilen.

Über den Autor

Seit über 17 Jahren leitet Firmengründer Timo Brehme als geschäftsführender Gesellschafter das preisgekrönte Consulting- und Architekturbüro CSMM. In der Funktion als multidisziplinäre New-Work Experten bearbeitet CSMM Aufträge sowohl von Mieterseite als auch von Seiten der Entwickler und Eigentümer. Das Unternehmen begleitet den Kunden bei Bedarf
entlang der gesamten Wertschöpfungskette einer Gewerbeimmobilie.
Verteilt auf die vier Standorte München, Berlin, Frankfurt und Düsseldorf bearbeitet das über 60-köpfige Team die Projekte
büroübergreifend.

Weitere Informationen unter:
https://www.cs-mm.com/

Connected Packaging

von Rafi Albo

Produktverpackung einzigartig erleben

Die Zeiten, in denen Sie beim Scannen eines Produkts mit Ihrem Smartphone nur eine Homepage aufgerufen haben, sind vorbei! Die Kombination von Print mit anderen Medien wie Online ist nichts Neues mehr – aber die neuesten Entwicklungen ermöglichen eine völlig neue Dimension der Verbindung zwischen beiden Welten.

Kunden heute zu begeistern bedeutet Interaktion und Individualität. Um sie aus den Socken zu reißen, möchten Marken mit ihren Produkten einzigartige Erlebnisse bieten.

Eine faszinierende Geschichte, Interaktion und ein persönlicher Ansatz sind der Schlüssel, um den Umsatz zu steigern und die Bindung zwischen Marke und Verbraucher zu stärken. Mit den neuesten Augmented-Reality-Lösungen können Sie jedem, der Ihre Produkte kauft, einzigartige Erlebnisse bieten – sei es eine Weltreise, ein Konzert, die Möglichkeit, einen eigenen Avatar für ein Spiel zu erstellen, oder sogar eine persönliche Version der Verpackung.

Dank cloudbasierter Technologie ist der Zugriff auf 360 ° -Videos und Spiele in Sekundenschnelle möglich. Das Etikett Ihres Produkts kann zum Leben erweckt oder mit der virtuellen Realität verschmelzen.

Die Arilyn-App ermöglicht nicht nur die bequeme Erstellung und Verwendung der Inhalte für ein Augmented-Reality-Erlebnis, sondern bietet auch Analysen und einfache Anpassungen, um das Potenzial der Kampagne zu maximieren.

Egal, welche Geschichte Sie mit Ihren Verbrauchern teilen möchten – CCL Label verfügt über die Fähigkeiten und die Erfahrung, um Ihnen die ideale Dekorationslösung und -technologie anzubieten.

Kunden heute zu begeistern bedeutet Interaktion und Individualität.

Rafi Albo

Willkommen in der digitalen Welt

Verpackung und Dekoration haben nicht nur den Schritt in die digitale Welt getan, indem sie winzige Antennen und elektrische Schaltkreise (RFID & NFC) integriert haben oder durch die Kamera von Smartphones zum Leben erweckt wurden (Augmented Reality). Die Digitaldrucktechnologie hat auch eine ganz neue Welt der Möglichkeiten eröffnet.

Was einst eine Traumvorstellung war, wurde jetzt Realität. Jedem Verbraucher kann ein einzigartiges und individuelles Produkt angeboten werden. Die Liste der erfolgreichen Personalisierungsaktionen ist beeindruckend und wird mit den neuen Möglichkeiten weiterwachsen.

Jedes Produkt kann individuell gestaltet und variable Daten einfach integriert werden. Die Mosaik-Software ermöglicht die Personalisierung beliebiger Auflagen mit Bildern, Texten und Designs, um eine maximale Wirkung zu erzielen. Es generiert automatisch Hunderte, Tausende und sogar Millionen von einzigartigen Grafiken.

Markenbotschaften werden in die Welt getragen

Verpackung ist eine der wichtigsten Komponenten für die Präsentation der Identität einer Marke. Als einziges Medium neben dem Produkt selbst, das immer in direktem Kontakt mit dem Verbraucher steht, spielt es eine entscheidende Rolle, um die Markenbotschaft effektiv in die Welt zu tragen.

Es gibt viele verschiedene Situationen, in denen sich Verbraucher für den Kauf entscheiden müssen. Egal ob vor einem Supermarktregal oder an einer Bar – überraschende Eigenschaften und ein herausragendes Erscheinungsbild eines Produkts haben in jedem Fall einen immensen Einfluss auf die Entscheidung. Die Schaffung einzigartiger Markenerlebnisse ist daher zu einem der Hauptziele führender Marken weltweit geworden. Egal, ob es sich um eine Personalisierung handelt oder um noch nie dagewesene Effekte und Verzierungen, das Ziel geht über den Blick des Verbrauchers hinaus:
Es geht darum, eine Verbindung herzustellen, ein positives Gefühl zu vermitteln und die Beziehung zwischen Marke und Verbraucher aufzubauen oder zu stärken.


Autor Rafi Albo

Rafi Albo ist Gründer und CEO von SEGMARKETING, einer führenden Agentur, die auf 1to1-Marketing, Augmented, Virtual und Mixed Reality spezialisiert ist. Während seiner 20-jährigen Berufserfahrung hat er erfolgreich Print und Online kombiniert und Hunderte von innovativen Anwendungen für das 1-zu-1-Marketing entwickelt. SEGMARKETING hat sowohl geschäftliche als auch kollegiale Beziehungen zu verschiedenen Marken, Technologieplattformen und Start-ups auf der ganzen Welt aufgebaut und ist nun ein Teil der CCL-Gruppe. Rafi verfügt über einzigartige Erfahrungen und Einblicke in die sich entwickelnden Trends und spezifischen Bedürfnisse internationaler Unternehmen.

„Ich arbeite seit vielen Jahren mit unterschiedlichen Marken auf der ganzen Welt zusammen, unterhalte mich mit ihnen und erfahre mehr über ihre Bedürfnisse und die Herausforderungen für ihr Geschäft. Für sie werden emotionale Verbindungen und der Austausch von immersiven Erfahrungen und / oder zusätzlichen Produktinformationen und Schulungen immer wichtiger. Dies eröffnet Global Playern vielfältige Möglichkeiten bei der Integration neuer Online-Technologien und neuer Ideen. Ich bin der festen Überzeugung, dass die Kombination von Verpackung mit Online-Technologien einen echten Mehrwert bietet. “

Weiterführende Informationen finden Sie unter:
www.ccllabel.com
und unter
https://ccllabel.com/portfolios/promotions-connected-packaging/

Lizenz
Text und Bild: CCL Label
Aufmacherbild : freepik

In Krisenzeiten ist Kommunikation noch wichtiger

Dies ist ein Gastbeitrag von Roland Abel, Head of Growth & Strategy – Employee Experience (EX) DACH bei Qualtrics

Krisensituationen stellen die Arbeitswelt auf den Kopf. Wenn Arbeitsplätze gefährdet sind oder verschwinden, nehmen Angst und Stress täglich zu. Viele Mitarbeiter müssen plötzlich im Homeoffice arbeiten und sich mental wie technisch auf die neue Situation einstellen.

Menschen können sich anpassen, haben dabei aber mit Schwierigkeiten zu kämpfen. Für Arbeitgeber kommt es jetzt darauf an, ihre Angestellten zu unterstützen, damit keine Abwärtsspirale entsteht. Ein Rechenbeispiel aus einem fiktiven Unternehmen, das zwei Milliarden Euro Jahresumsatz generiert: Wendet man studienbasierte Annahmen über die Auswirkungen von Mitarbeitermotivation auf die Produktivität an, dann führt bereits ein Prozentpunkt weniger motivierter Mitarbeiter je Quartal zu ungefähr einer halben Million Euro Umsatzverlust. Von den wegbrechenden Aufträgen mal ganz zu schweigen.

Die richtigen Fragen stellen und Maßnahmen starten

Eine kürzlich durchgeführte Studie zur Mitarbeiterzufriedenheit in Unternehmen*, gerade vor Beginn der Pandemie, hat gezeigt, dass nur etwa die Hälfte der deutschen Arbeitgeber ihre Mitarbeiter zu den Arbeitsbedingungen und dem Erleben ihrer Arbeit befragt. 66 Prozent derer, die ihrem Arbeitgeber ihr Feedback geben dürfen, sind mit ihrer Employee Experience zufrieden. Haben die Beschäftigten hingegen keine Möglichkeit, Rückmeldung zu geben, sinkt die Zahl der Zufriedenen auf 40 Prozent. Wichtig ist: Nur Fragen reicht nicht. Es müssen die richtigen Fragen sein. Nur jeder zweite deutsche Arbeitnehmer (53 Prozent) findet, dass die meisten in Mitarbeiterbefragungen gestellten Fragen für seine Arbeitssituation relevant sind. Mit der Folge, dass sie sich nicht verstanden fühlen. Außerdem sollten Sie auf die Antworten reagieren und konkrete Maßnahmen starten. Setzen Sie das Feedback nicht in eine verbesserte Employee Experience um, ist es doppelt so wahrscheinlich, dass Mitarbeiter innerhalb von zwei Jahren aus dem Unternehmen ausscheiden.

Der entscheidende Faktor ist ein glaubwürdiges, echtes Interesse an der Meinung der Mitarbeiter. Genau hieran sollten Sie als Arbeitgeber anknüpfen. Jetzt mehr denn je: Als Führungskraft tragen Sie in Krisen eine größere Verantwortung als sonst, und die persönliche Verbindung zu den Mitarbeitern wird stärker. Das, was Sie sagen und fragen, ist wichtig für viele Menschen. Intensivieren Sie deshalb den Dialog mit Ihrem Personal. Mitarbeiter, die um ihr Feedback gebeten werden, sind wesentlich engagierter als Mitarbeiter, die nicht befragt werden. Außerdem möchten Angestellte gerade in schwierigen Zeiten Rückmeldung geben. Beginnen Sie mit essenziellen Fragen: Was macht Ihnen zu schaffen? Haben Sie, was Sie brauchen? Wie können wir Ihnen helfen, erfolgreich zu sein?

Aber denken Sie daran: Die Situation und die daraus resultierenden Folgen werden für jedes Land, jede Region und jede Branche unterschiedlich sein und wahrscheinlich jede Woche anders. Achten Sie auf Ihre Fragen, diese können von Firma zu Firma und von Job zu Job variieren. Für jeden Menschen gestaltet sich eine Krise anders: Viele arbeiten zum ersten Mal zu Hause und müssen sich auch noch um die Kinder und den Haushalt kümmern. Viele fürchten, dass ihre Arbeit deshalb nicht gut genug ist.

Die Tech-Experience im Unternehmen verbessern

Viele Angestellte arbeiten im Büro zwar am PC, sind es aber nicht gewöhnt, sich selbstständig in neue Techniken einzuarbeiten. Hierzu gehören digitale Kommunikations- und Sharing-Plattformen, um im Team virtuell Inhalte auszutauschen oder sich per Video zu unterhalten. Viele sind im Umgang mit neuen IT-Systemen überfordert oder frustriert und melden sich nicht beim IT-Support, da dieser oft weitere Fragen aufwirft oder lange für eine Antwort braucht. Dies trübt die Stimmung der Angestellten, wird von Unternehmen jedoch kaum aktiv erfasst.

Deshalb müssen sich die Erfahrungen im Umgang mit Technologien im Arbeitsumfeld und dem IT-Support (Tech-Experience) der Belegschaft verbessern. Beansprucht ein Mitarbeiter beispielsweise den IT-Support, sollte er danach um sein Feedback gebeten werden. Die Antworten sollten dem jeweiligen Support-Agenten direkt in sein Dashboard eingespielt werden, damit dieser sofort reagieren und seinen Support verbessern kann.

Kommunizieren Sie!

Es gibt zudem Themen, die Unternehmen trotz Krise nicht vernachlässigen und per Mitarbeiterumfrage erfassen sollten:

  • Der Kundenfokus darf nicht verloren gehen. Hören Sie Ihren Frontline-Mitarbeitern, die im direkten Kundenkontakt stehen, in dieser Zeit besonders zu?
  • Bieten Sie sowohl „Always-on-Formate“ als auch die Möglichkeit zur gegenseitigen Wertschätzung unter den Mitarbeitern an, zum Beispiel durch digitales Lob.
  • Arbeitspensum: Übersehen Sie nicht die Mitarbeiter, die zu viel arbeiten – Pausen müssen sein!
  • Die psychische Gefährdung verändert sich enorm – bleiben Sie nah dran und vermeiden Sie das Risiko einer mentalen Überlastung.
  • Behalten Sie im Auge, ob sich Ihre Mitarbeiter auf sinnvolle Aufgaben konzentrieren, auch zur Vorbereitung auf die Zeiten nach der Krise. Oder flüchten sich die meisten in Aktionismus?

*Qualtrics, Anbieter von Experience-Management-Software und Pionier im Bereich Experience Management (XM), befragte im März 2020 500 vollbeschäftigte Arbeitnehmer zu ihrer Employee Experience und Arbeitsmotivation.

Über den Autor

Dr. Roland Abel ist Head of Growth & Strategy – Employee Experience (EX) DACH von Qualtrics und unterstützt Qualtrics-Kunden bei der Erhebung von Experience-Daten.
Er blickt auf über zwölf Jahre Erfahrung im Bereich Employee Experience zurück. Bei einer großen HR-Beratung führte er als Practice Head Employee Insights Germany & Austria multinationale Mitarbeiterbefragungen für internationale Konzerne in der DACH-Region durch. Dabei kümmerte er sich um die Konzeption und Auswertung der Umfragen, die Besprechung der Ergebnisse mit der Führungsebene und um die Planung von

Aufmacherbild zur Verfügung gestellt von Qualtrics

Der Cloud Act ist eine ganz reale Gefahr

Dies ist ein Kommentar von Christian Schmitz, Chief Strategy & Innovation Officer bei ownCloud in Nürnberg

US-Anbieter lassen verlauten, der US Cloud Act sei nur eine „hypothetische Möglichkeit“. Wer’s glaubt, wird selig.

Christian Schmitz, Chief Strategy &
Innovation Officer bei ownCloud in Nürnberg

Der US Cloud Act ist eine immense Bedrohung für unseren gesamteuropäischen Wirtschaftsraum. Auf seiner Grundlage können US-amerikanische Behörden von Cloud-Providern aus den USA die Herausgabe sämtlicher Daten einer Person oder eines Unternehmens verlangen. Das gilt selbst dann, wenn sie sich auf Servern befinden, die in Deutschland oder der EU stehen – DSGVO-Hoheitsgebiet hin oder her. Häufig wird hier der Begriff „regionale Datenhaltung“ verwendet, um deutsches Datenschutzrecht zu suggerieren – freilich ohne dabei das Durchgriffsrecht der US-Regierung zu benennen.

Und da bei den meisten Unternehmen und Behörden in Europa heute oft nichts mehr ohne US-amerikanische Cloud-Dienste geht, ist unsere Wirtschaft und Verwaltung diesem Gesetz de facto ausgeliefert. Solange das so ist, können wir uns Datenschutz und Datensouveränität abschminken. Der US Cloud Act steht nämlich nicht nur europäischen Datenschutzgesetzen wie der DSGVO diametral entgegen; er öffnet auch Wirtschafts- und sonstiger Spionage Tür und Tor. 

Diese Erkenntnis setzt sich derzeit im öffentlichen Bewusstsein immer stärker durch. Die US-amerikanischen Internetgiganten sehen deshalb anscheinend ihre Felle davonschwimmen und versuchen zu beschwichtigen. So ließ etwa ein Vertreter von Amazon Web Services jüngst verlauten, der US Cloud Act sei doch nur eine „sehr hypothetische Möglichkeit“. Nur merkwürdig, dass Microsoft gegen den Cloud Act Einspruch erhoben hat – und damit scheiterte. So hypothetisch scheint er also doch nicht zu sein.

Deshalb: Wer’s glaubt, wird selig. Es gibt keinen berechtigten Zweifel daran, dass die USA die Möglichkeiten dieses Gesetzes zu ihrem Vorteil nutzen, wo es nur geht. Die Snowden-Enthüllungen haben schließlich schon vor Jahren gezeigt, dass sie systematisch Daten aus jeglichen IT-Systemen abgreifen. Mit Präsident Donald Trump an der Spitze, seinem ,America First’-Wahn und den von ihm angezettelten Handelskriegen dürften nun auch noch die allerletzten Hemmungen gefallen sein.

Beispiele dafür, wie die USA unter Trump ihre Marktmacht über die IT- und Dateninfrastrukturen zu ihrem Vorteil ausnutzen, gibt es schließlich genug: siehe etwa den Android-Boykott gegen Huawei. Zudem setzen die USA von der breiten Öffentlichkeit unbemerkt ihre Macht über DNS-Server in ihrer Auseinandersetzung mit dem Iran dazu ein, um dort die Verfügbarkeit von Services einzuschränken. Zu glauben, sie würden den Cloud Act nicht dazu verwenden, um sich etwa in einem Handelsstreit mit der deutschen Automobilindustrie Erpressungspotenzial zu verschaffen, wäre einfach nur naiv. Genauso naiv, wie es vor Jahren war anzunehmen, die USA würden unsere Kanzlerin nicht abhören, weil man so etwas unter Freunden schließlich nicht macht.

Deshalb: nein, der Cloud Act ist keine rein hypothetische Möglichkeit. 

Er ist eine ganz reale Gefahr.

Weitere Informationen unter:
www.owncloud.org

Exponentielles Datenwachstum

Der Erfindungsgeist bei Chip- und Speichertechnik allein wird das Datenwachstum nicht bändigen

Die Ideen von Universitäten und Storage-Anbietern, mehr Datenspeicher auf weniger Raum zu schaffen, rangieren von radikalen Ansätzen wie DNA- oder Wasserspeichern bis hin zu komplexen dreidimensionalen Chipdesigns. Ihr Ziel: das Mooresche Gesetz soll weiter gelten. Aber all das wird nicht reichen, um das exponentielle Datenwachstum zu bändigen. Anwender müssen anfangen, endlich Daten zu löschen, anstatt immer mehr speichern zu wollen. Aber wie löscht man richtig?

In den eigenen Daten ertrinken – was bisher metaphorisch galt, ist dank der University of Washington und Microsoft nun real. Forscher beider Organisationen haben gemeinsam einen ersten DNA-Speicher entwickelt, der Informationen vollautomatisiert in Binärcode und anschließend in DNA-Sequenzen und Desoxyribonukleinsäure umwandelt. Daten werden flüssig. Forscher um Julian Koch von der ETH Zürich haben einen Silikat-umhüllten DNA-Speicher entwickelt, den sie in beliebige Alltagsobjekte integrieren. Sie tauften diese Technik „DNA der Dinge“ – analog zum „Internet der Dinge“. „In dieser Speicherarchitektur werden DNA-Moleküle in funktionelle Materialien integriert, um Objekte mit unveränderbarer Erinnerung zu erschaffen“, erklären die Wissenschaftler dem Portal Scinexx.

Andere arbeiten daran, bekannte Konzepte weiter zu verbessern. Im August vergangenen Jahres hat ein Team am Massachusetts Institute of Technology (MIT) in Cambridge einen Computerchip aus Kohlenstoff-Nanoröhren gebaut, der mit 16 Bit arbeitet. Die Kohlenstoff-Nanoröhren sind Graphen mit der Dicke eines Atoms und leiten Strom viel effizienter und schneller weiter als Silicon. Die Industrie und Wissenschaft hofft, mit diesem Material die physikalischen Grenzen des Mooreschen Gesetzes stärker auszureizen.

Kraftanstrengungen auf bekanntem Terrain

Bis solch völlig neue Formen des Speichers oder Chipdesigns marktreif und tauglich für die Massenfertigung sind, werden noch mehrere Jahre vergehen. Daher wird an klassischen Technologien weiter intensiv geforscht, um mit neuen schnelleren Chips und Designs die wachsende Datenmenge einfacher, kompakter, schneller und vor allem energieeffizienter verarbeiten und speichern zu können. Forscher an der Universität von Lancaster haben vergangenen Sommer einen neuen Speichertyp patentiert, der nur 1 Prozent der Energie von DRAM – und 0,1 Prozent der Energie von Flashspeicher braucht, bei einer Baugröße von 20nm.

Der Riese bei der Chipproduktion, das taiwanesische Unternehmen TSMC, hat als erster Hersteller Chips mit der Baugröße von 5nm in die Massenfertigung gebracht. Und Philip Wong, Forschungschef von TSMC, glaubt fest daran, das Mooresche Gesetz bis zum Jahr 2050 einzuhalten. Neben neuen Materialien wie Graphen will der Marktführer in der Chipfertigung das Chipdesign dreidimensional anlegen. Die Idee stammt von den Herstellern von Flash-Speichern, die bereits seit Jahren mehrere Schichten aufeinanderstapeln.

Sie sparen nicht nur Patz, sondern können die Ebenen untereinander verbinden und so mehr Leistung aus dem Chipdesign holen. Auch Intel und ARM setzen auf solche Chiplet-Designs, die sich flexibel miteinander kombinieren lassen. Bei den Chiplets handelt es sich um einzelne Module, die beispielsweise mehrere CPU-Kerne, Grafikeinheiten und andere Bestandteile des gesamten Chips mitbringen. Diese können dann je nach Bedarf miteinander kombiniert werden.

Die Physik legt die Grenzen für das Mooresche Gesetz fest
Gordon Moore ist Computer-Pionier und Intel-Mitgründer. Er sagte bereits 1965 voraus, dass sich binnen zehn Jahren die Zahl der Schaltkreise auf einem Computerchip jährlich verdoppeln würde.

Tatsächlich hat die Industrie diese Gesetzmäßigkeit bis heute halten können – über mehr als 55 Jahre. Fortgeschrittene Schaltkreise seien heutzutage nur rund 5 Nanometer groß und die Industrie will in Größenbereiche von 2 bis 3 Nanometern vorstoßen. Diese winzigsten Strukturen umfassen dann nur noch zehn Atome – damit stößt die Siliziumtechnologie an ihr Limit. In den derzeitigen Mikroprozessoren fließen Elektronen. Der Wissenschaftspublizist Dr. Michael Springer erklärt, dass spätestens bei diesen Größen Quanteneffekte ins Spiel kommen, genauer gesagt die heisenbergsche Unbestimmtheit des Elektronenverhaltens. Die Teilchen verhalten sich unberechenbar, die Transistoren würden Fehler produzieren und wären unbrauchbar.

Aufgrund des elektrischen Widerstands heizen die Elektronen den Chip zudem auf. Ab einem gewissen Punkt versagen die Chips einfach, da die Wärme nicht mehr abgeführt werden kann. Das verhindere auch eine weitere Geschwindigkeitssteigerung der Bauteile.

Mit einem Fuß On-premises, mit dem anderen in der Cloud

Diese außergewöhnlichen Beispiele zeugen vom Erfindungsgeist, mit dem Universitäten und Industrie Platz für die wachsende Datenmenge schaffen, um in diesem Wettlauf Schritt zu halten. Denn die Menge der Daten weltweit wächst exponentiell und verdoppelt sich jedes Jahr. IDC spricht von 175 Zetabyte weltweit in fünf Jahren. Interessant an der IDC-Prognose ist aber etwas anderes: Gerade der Anteil der Daten, der von Unternehmen erzeugt und verwaltet wird, soll signifikant steigen. Während dieser Anteil 2015 noch bei gerade einmal 30 Prozent lag, erwarten die Experten für 2025 etwa 60 Prozent. Unternehmen werden es also 2025 mit etwa 105 Zettabytes zu tun haben, gegenüber 12 Zettabytes zehn Jahre zuvor. Das Datenwachstum hängt die technische Entwicklung ab. Es wird befeuert von der niemals endenden Generierung von Daten durch das Internet, die durch neue Technologien wie 5G, IoT, AI und Kryptowährungen und -verfahren wie Blockchain weiter befeuert wird.

Die Unternehmen und Cloud-Storage-Provider werden mehr Platz schaffen müssen für die Daten. Sie werden hierzu schnelle, skalierbare Flash-Speicher einsetzen, um die Daten für fortschrittliche Analysen auzuwerten oder hochperformante Storage-Plattformen per schnellem Backup zu sichern. Analysten gehen davon aus, dass die Preise für SSD-Speicher dieses Jahr weiter fallen werden, weil einige Hersteller beispielsweise 128-Layer-4D-NAND-Flash fertigen und mit hohen Volumina anbieten.

Die meisten Unternehmen werden ihre IT im Mischbetrieb fahren und Teile ihrer Workloads On-premises, andere in der Cloud betreiben. Die Storage-Systeme sollten solche Mischformen skalierbar und simpel abbilden können. Der Speicher wird selbst im Hyper-Converged-Modus arbeiten und sowohl mit der alten Storage-Infrastruktur als auch den Cloud-Storage-Ressourcen interagieren müssen.

Der Zwang zu einfachen, schnell aufsetzbaren Storage-Architekturen wird Konzepte auf Basis einer Software-Defined-Architektur weiter vorantreiben. Simple Standard-Hardware wird hierbei durch kluge und hochskalierbare Software zu einem virtuellen Ressourcenpool vereint. Automatische Prozesse weisen den neuen Speicher dynamisch nach Bedarf zu, ohne dass ein Mensch eingreifen muss.

Fleißaufgabe Datenhygiene

Jeden Tag wird neue Speicher-Infrastruktur aufgesetzt und von Daten geflutet. Dies ist aus ökonomischer und ökologischer Sicht irgendwann problematisch. Noch rechnet es sich, die Daten ungefiltert und unkategorisiert einfach auf günstigen Speichern abzulegen. Gartner spricht hierbei von Dark Data oder Informationen, die Firmen im Geschäftsalltag zwar sammeln, bearbeiten und speichern, die aber nicht verwendet werden.

Ähnlich wie bei dunkler Materie in der Physik gehört der Großteil aller Firmendaten in die Kategorie Dark Data. Studien von Veritas zeigen, dass im Schnitt weltweit 52 Prozent aller von Firmen gespeicherten Daten so genannte Dark Data sind. Diese Daten zu speichern und zu sichern bindet mehr Ressourcen, ohne dass irgendein Wert aus den Daten gezogen wurde.

Anwender müssen anfangen, den Inhalt solcher Daten automatisiert zu untersuchen und nach Geschäftswert zu klassifizieren. Automatische Data-Management-Werkzeuge nutzen hierfür Algorithmen aus den Bereichen Machine Learning und Artificial Intelligence und kombinieren dieses Wissen mit vordefinierten Filtern und länderspezifischen Regeln und gesetzlichen Vorgaben. Ziel ist es, so wenig Fehler wie möglich bei der Klassifizierung zu produzieren und so wenig menschliche Interaktion wie möglich auszulösen.

Diese Form der automatischen Datenklassifizierung ist der erste Schritt zur Datenhygiene. Das zweite wichtige Element ist der Gesamtüberblick über die Auslastung aller Speicher im Unternehmen, ob in der Cloud, hyperconverged oder klassisch On-premises. Erst dieser holistische Überblick über die Speicher und die darin abgelegten Daten liefert den Unternehmen das essenzielle Wissen, um eine der wichtigsten Fragen im Datenmanagement absolut zuverlässig zu beantworten: „Kann diese Datei ohne Geschäftsrisiko gelöscht werden?“

Wer den Anteil von Dark Data im Unternehmen durch Klassifizierung kontinuierlich reduziert, wird übrigens oft redundante Daten finden können – beispielsweise E-Mail-Archive auf Storage in Außenstellen, die längst an anderer Stelle zusammengefasst wurden. So lassen sich schnell bestehende Speicher freiräumen.

Wenn Unternehmen ein solches Datenmanagement als Teil ihrer alltäglichen IT-Aufgaben begreifen, werden sie den Wert der Daten auch bei der Einführung moderner digitaler Konzepte wie IoT oder Industry 4.0 gleich zu Anfang diskutieren und entscheiden, welche Daten sie speichern müssen. Und welche sie risikofrei löschen oder verfallen lassen können.


Über den Autor:


Sascha Oehl hilft Unternehmen als Director Technical Sales für Zentraleuropa bei Veritas Technologies, ihr Geschäft auf ein digitales Betriebsmodell umzustellen, in dem Daten Wettbewerbsvorteile liefern. Oehl unterstützt Kunden, Daten in Multi-Cloud-Umgebungen zu sichern, Speicherkosten zu senken und die IT insgesamt hochverfügbar zu betreiben.

Text: Veritas Technologies
Aufmacherbild / Quelle / Lizenz
Bild von PixxlTeufel auf Pixabay

Handbuch digitaler Mittelstand – Im Spannungsfeld des digitalen Wandels

Autoren aus Wissenschaft und Wirtschaft bieten im Open-Content-Werk „Handbuch digitaler Mittelstand“ Lösungs- und Denkansätze, die helfen, das Potenzial rund um Datenanalyse, künstliche Intelligenz und das IoT gewinnbringend zu nutzen sowie neue Geschäftsmodelle zu entwickeln.

Führung nach Corona: Was ändert sich eigentlich?

Das Coronavirus stellt viele Führungskräfte vor ungeahnte Herausforderungen. Während die einen mit den neuen Gegebenheiten schneller zurechtkommen, sind andere schlicht überfordert. Inmitten der Krise wird deutlich: Der klassische Führungsstil hat ausgedient.

Im folgenden Gastbeitrag gibt Dr. Katja Nagel, Gründerin und Inhaberin der Unternehmensberatung cetacea, Führungskräften wertvolle Tipps zum derzeit notwendigen Feedback und zur Selbstreflektion.

Über die Prinzipien klassischer Führung wurde schon lange bevor Corona diskutiert. Dass das Virus jetzt als eine Art Katalysator wirkt und ein großes Problem für diejenigen darstellt, die bis zuletzt an alten Traditionen festgehalten und ihr Selbstverständnis von Führung verteidigt haben, steht außer Frage. Führungsarbeit muss jetzt das leben, was schon so lange diskutiert wird: Kein Platz mehr für Ewiggestrige. Nicht jedem behagt das Hinterfragen des eigenen Führungsverhaltens – insbesondere in der ohnehin angespannten Krise durch Corona. Aber ganz sicher braucht wirkliche Autorität und Souveränität keine Tradition, sondern Veränderung, die bei einem selbst anfängt. Aber was macht Führung überhaupt aus?

Führung bedeutet: Leistungsfähigkeit, Leistungsbereitschaft und Leistung aufrecht zu erhalten. Wie geht das? Das geht über Engagement, Empowerment und Support, Leistungskontrolle, Coaching, Kommunikation und Teaming Up sowie Vorbildfunktion (Ethical Leadership). Führung nach Corona bedeutet, das alles auf Distanz zu bewerkstelligen. Führung hat viel mit Intuition zu tun. Wir führen, wie wir unsere Umgebung erfühlen und verstehen. Wir agieren in unserem Umfeld und reagieren auf unser Umfeld. Was tun, wenn dieses Umfeld viel leiser ist als sonst, viel weniger Signale sendet, die der Kurskorrektur dienen können?

  1. Engagement: Menschen über die Bildschirme zu motivieren ist ungleich schwerer als bei persönlicher Präsenz. Bei letzterer korrigiere ich meine Interaktion in Abhängigkeit von der Resonanz, die ich erzeuge – jetzt spreche ich ins Off. Motivation ist also virtuell viel schwieriger zu bewerkstelligen, es braucht viel mehr Videotelefonie, aber auch viel mehr explizite Kommunikation. Kopfnicken kann man am Telefon nicht sehen. Die ganze non-verbale Kommunikation fällt weg bzw. ist deutlich reduziert. Das Gesicht wird viel wichtiger, denn meistens ist nur das zu sehen (wenn überhaupt, zumeist gibt es „Folienschlachten“ mit Stimmen). Mimik wird zur allumfassenden Körpersprache. Folien sind unemotional. Emotion muss stärker transportiert werden durch die Person selbst, durch den Manager. Ebenfalls braucht es auch mehr Dialog, mehr Interaktion. Und nicht zuletzt gibt es jetzt nicht mehr die Motivation aus dem Team heraus, dieses Mitgerissen werden durch andere, die begeistert sind – oder diszipliniert. Insbesondere muss man sich jetzt mehr Zeit dafür lassen, mehr Raum dem „Mitnehmen“ der Mitarbeiter zu geben.  
    Als Führungskraft muss man sich jetzt selbst hinterfragen: Motiviere ich meine Mitarbeiter und Kollegen sowohl sachlich als auch emotional?
  2. Empowerment und Support: Unterstützung ohne persönliche Nähe lässt sich schwerer erfühlen. Unterstützung kann man jetzt also nicht mehr fühlen, die Überforderung anderer beim Videotelefonieren nicht unbedingt ansehen und in der Stimme am Telefon erst recht nicht. Stille spricht nicht. Jetzt ist die Führungskraft gefragt, die mit Empathie nachfragt, zuhört, Unterstützung aktiv anbietet und sich bei der Lösungsfindung anbietet. Wer sich gut kennt, ist jetzt klar im Vorteil. Wer als Führungskraft bereits Vertrauen aufgebaut hat, dem wird man sich auch jetzt leichter anvertrauen.
    Als Führungskraft muss man sich jetzt selbst hinterfragen: Gebe ich genug Unterstützung?
  3. Leistungskontrolle: Leistungskontrolle findet oft im Austausch miteinander statt und persönliche Nähe entkrampft so einen Dialog. Eigentlich umfasst die Leistungskontrolle nicht nur das Ergebnis, sondern auch den Weg und die Dauer. Denn: Leistung = Arbeit/Zeit. Genau das kann man als Führungskraft jetzt kaum mehr wahrnehmen. Kontrolle fällt jetzt besonders schwer. Wie ließe sich aus der Distanz erfühlen, ob jemand fleißig seine Arbeit macht? Leistungskontrolle muss ersetzt werden durch Vertrauen. Eine positive Erwartungshaltung an die Mitarbeiter motiviert. Arbeitsergebnisse werden fast zum einzigen verlässlichen Leistungskontrollinstrument. Führung über Präsenz hat ausgedient, das Ergebnis zählt. Command & Control funktioniert nicht mehr. Leistungskontrolle umfasst aber auch das Erreichen von Meilensteinen. Hier ist eine Möglichkeit, frühzeitig zu erkennen, ob Leistung erbracht wird.
    Als Führungskraft muss man sich jetzt selbst hinterfragen: Frage ich Meilensteine und Zwischenergebnisse ab, prüfe ich Lösungsweg und Ergebnisse?
  4. Coaching: Coaching basiert auf Vertrauen, auf intensivem Austausch, letztlich auf Nähe. Ohne direkten Kontakt ist auch das Coaching erschwert. Nähe aufzubauen über das Telefon dauert länger, erfordert Geduld und mehr Feingefühl. Empathie wird zum kritischen Erfolgsfaktor der Führung. Womöglich muss man auch seinen Mitarbeitern helfen, Routinen aufzubauen, einen festen Arbeitsrhythmus aufrecht zu erhalten – sie also coachen bei dem neuen Arbeiten von zu Hause aus – umso mehr, als nicht jeder ideale Bedingungen für das Arbeiten im häuslichen Umfeld vorfindet. Vergessen wir nicht: auch die Mitarbeiter haben sich Homeoffice in diesem Ausmaß nicht ausgesucht – und so nicht vorgestellt. Unterstützung kann es also auch bei der Installation eines häuslichen Arbeitsplatzes brauchen.
    Als Führungskraft muss man sich jetzt selbst hinterfragen: Gebe ich genug Hilfe zur Selbsthilfe, kümmere ich mich um meine Mitarbeiter, wie sie besser werden können?
  5. Kommunikation und Teaming Up: Kommunikation ist Interaktion. Führungskräfte, aber auch Mitarbeiter müssen üben, mehr am Bildschirm als im Präsenzmeeting zu kommunizieren. Es ist ermüdend, ohne wechselnde, lebendige und nahe Eindrücke der Kollegen auszukommen. Führungskräfte müssen versuchen, das auszugleichen, selbst lebendig kommunizieren, auch Smalltalk muss jetzt virtuell funktionieren. Die Frage „Wie geht es Dir?“ darf dem virtuellen Arbeitsplatz nicht zum Opfer fallen. Menschen müssen über ihre objektive berufliche Verwendbarkeit hinweg wertgeschätzt werden – und es fühlen. Schwierig ist aber auch, dass Menschen sich in Gruppen wohl fühlen und Sinnhaftigkeit auch aus dem Miteinander beziehen, das ebenfalls deutlich reduziert ist. Darum ist es jetzt besonders wichtig, auch größere Team-Meetings virtuell zu gestalten, um dieses Wir-Gefühl nicht zu verlieren.
    Als Führungskraft muss man sich jetzt selbst hinterfragen: Kommuniziere ich genug, erzeuge ich genug Sichtbarkeit des ganzen Teams?
  6. Vorbildfunktion: Eigentlich zählt ja immer, was man von seiner Führungskraft sieht – viel mehr als was man hört. Jetzt sieht man aber viel weniger. Gleichzeitig wird in einer Krise jeder dünnhäutiger, es wird auch viel mehr interpretiert. Insofern muss diese Vorbildrolle viel expliziter gelebt und kommuniziert werden, klargemacht werden, sozusagen über Kommunikation sichtbar werden.
    Als Führungskraft muss man sich jetzt selbst hinterfragen: Bin ich genug Vorbild? Und wenn ich es bin, zeige ich es auch deutlich genug?

Wie die Trendwende gelingen kann

In Schieflage geratenen Unternehmen, gerade auch mittelständischen, helfen nun neue Leitlinien für Kultur und Führung. Diskussionen mit den Führungskreisen und die Auseinandersetzung mit akuten Herausforderungen, womöglich auch Checklisten für die Führungskräfte und natürlich die richtigen Kommunikations-Tools zur Unterstützung. Nur indem man darüber spricht, kann man eine bewusste Veränderung in die Wege leiten. Und das Vorleben startet hier bei den Top-Managern des Unternehmens.

Stark konservativ denkende Führungskräfte haben es jetzt besonders schwer. Sie müssen sich neu zurechtfinden. Übrigens viele Mitarbeiter auch. Es geht um viel mehr explizite Führung, explizite Zusammenarbeit auf Augenhöhe, mit Respekt und Integrität, mit Kommunikation, mit viel mehr Vertrauensvorschuss, mit weniger Kontrolle im bisherigen Sinn. Es geht – kurz gesagt – um mittelbare Führung. Eigentlich hilft nur eines, wie immer in Zeiten schneller und massiver Veränderungen: Sich darauf einlassen und sich helfen lassen.

Über die Autorin

Dr. Katja Nagel ist Gründerin und Inhaberin der Unternehmensberatung cetacea und berät in dieser Funktion Top-Manager in Krisenzeiten. Sie hat mehr als zwanzig Jahre Erfahrung in Unternehmen und Beratung, insbesondere in den Bereichen Unternehmensentwicklung, Strategie, Marketing und Kommunikation. Als Geschäftsführerin von cetacea hat sie mehrere Transformations- und Restrukturierungsprogramme internationaler Konzerne mitgestaltet sowie Rebranding- und Employer Branding-Projekte geleitet.

Weitere Informationen unter:
https://www.cetacea-gmbh.de/

Bildquelle / Lizenz Aufmacher: Kalender Foto erstellt von pressfoto – de.freepik.com

Bildquelle / Lizenz Portrait: cetacea / Autorin

KI-Security by Design

Durch künstliche Intelligenz bieten sich der Wirtschaft enorme Potenziale. Auch ganz neue Geschäftsmodelle werden Einzug halten. Aber wie immer in der Informatik besteht auch Missbrauchspotenzial. Am Fraunhofer Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) wird dazu umfassend geforscht. Als Partner der Unternehmen bietet das Institut Hilfestellung bei der Härtung von Lösungen und z.B. im Erkennen und Manipulationen. Nicholas Müller berichtet im Interview quasi von der Schnittstelle zwischen IT-Sicherheit und maschinellem Lernen.

Nicholas Müller, Mitarbeiter am Fraunhofer AISEC

Herr Müller, geben Sie uns doch bitte einen kurzen Einblick in Ihre Arbeit.
Als wissenschaftlicher Mitarbeiter am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC arbeite ich in der Abteilung Cognitive Security Technologies, in der wir uns mit der Schnittstelle IT-Sicherheit und Maschinelles Lernen (Künstliche Intelligenz, KI) beschäftigen. Das heißt, dass ich einerseits Probleme in der IT-Sicherheit mithilfe von KI löse. Beispielsweise kann KI als eine Art »Polizist« eingesetzt werden, um Cyberkriminelle (Hacker, Malware) aufzuspüren und kritische Infrastruktur vor ihnen zu schützen.
Andererseits beschäftige ich mich aber auch mit der Verlässlichkeit und Robustheit von KI. Ich überprüfe hier, ob der Polizist auch tatsächlich »unbestechlich« ist und ob er sich auch in Problemsituationen korrekt verhält. Nehmen wir ein autonomes Auto als Beispiel, welches mithilfe von KI fährt. Wie stellen wir sicher, dass die Fahrzeug-KI nicht so manipuliert werden kann, dass sie in eine Menschenmenge fährt?
Eine solche Manipulation kann bereits durch ein paar farbige Sticker auf einem Verkehrsschild erfolgen [1]. Mit diesen Fragen des sogenannten »Adversarial Machine Learning« beschäftigen wir uns. 

Das heißt, so wie konventionelle Computersysteme gesichert werden müssen, so muss auch KI überprüft und getestet werden?
Ganz genau. Auch die KI selbst kann angegriffen werden und sich dann nicht so verhalten, wie es eigentlich vorgesehen ist. Der Angreifer kann durch spezielle Angriffe das Verhalten der KI steuern, so dass sie sich – ich anthropomorphisiere – gegen ihren Schöpfer stellt.

Dass KI nicht nur zum Guten eingesetzt werden kann, zeigt auch die aktuelle Debatte um »Deepfakes«. Was hat es damit auf sich?
Deepfakes sind durch KI manipulierte digitale Medieninhalte, wie Video- oder Audiodateien. Durch fortgeschrittene Methoden (Stichwort: Generative Adversarial Networks) können beispielsweise Videosequenzen komplett gefälscht werden. Der Fälscher verwendet dabei bereits existierendes Videomaterial des Opfers (etwa eines Politikers), und trainiert ein KI-System, um weiteres Videomaterial künstlich herzustellen. Das KI-System lernt dabei konkret, das Gesicht des Opfers mit dem einer Zielperson auszutauschen. Somit ist das Resultat unter der vollen Kontrolle des Angreifers, denn dieser kann mit einem Statisten das »Hintergrundmaterial« erstellen, und dann das Gesicht des Opfers darauflegen. Auch die Stimme kann auf ähnliche Art passgenau gefälscht werden.
Das Ergebnis sind Videos von Personen, die Dinge tun oder sagen, die nie so gesagt oder getan worden sind. Politiker, die ihre Rivalen gutheißen, sind eines der harmloseren Beispiele [2]. Frauenverachtende oder rassistische Inhalte werden leider ebenso von derartigen KI-Systemen erstellt.

Wir können Videomaterial in Zukunft also nicht mehr uneingeschränkt vertrauen?
Genau. Die Qualität der Fälschungen ist jetzt schon beachtlich, und wird sicher noch besser werden. Dies wird Vertrauen erodieren; Fake-News werden immer glaubwürdiger. Aus diesem Grund forschen wir bereits jetzt an der Erkennung von Deepfakes. Denkbar ist etwa, Videos aus zweifelhafter Quelle durch Prüftools analysieren zu lassen, die in der Lage sind, manipulierte Videos zu erkennen. Diese Erkennung funktioniert unter anderem durch tiefe Neuronale Netze: sie sind in der Lage, kleinste Spuren bzw. Indizien in den Videos zu finden, auszuwerten und dadurch Fakes von echten Videos zu unterscheiden. Des Weiteren forschen wir an Tools, die KI-Systeme generell robuster und verlässlicher machen [3].

Welche Bedrohungen entstehen dadurch für Unternehmen und wie bereiten sie sich auf diese Bedrohungen vor?
Für Unternehmen sind vor allem Adversarial Attacks und die Verteidigung gegen diese relevant. Zur Erinnerung: Adversarial Attacks können in KI-Systemen zu gezielt indiziertem Fehlverhalten im Produktiveinsatz führen: beim Beispiel autonomes Auto wäre das etwa, eine rote Ampel zu überfahren. Wir haben deshalb viele Industriepartner, mit denen wir diese Herausforderungen gemeinsam angehen. Gemeinsam entwickeln wir Prüfverfahren, um Neuronale Netzwerke bezüglich ihres »Sicherheitsniveaus« einschätzen und bewerten zu können.
Mit wieder anderen Partnern evaluieren wir Deepfakes und forschen, auf welche Weise diese erkannt werden können. Aber auch eher klassische Anwendungen von KI – z.B. in der Anomalieerkennung – sind weiterhin gefragt. Außerdem spielt Datenschutz und DSGVO-Compliance eine zunehmend wichtige Rolle. Auch hier forschen wir aktiv, um unsere Industriepartner unterstützen zu können [4]. 

Weitere Informationen unter:
https://www.aisec.fraunhofer.de/

Quellen und weitere Ressourcen

[1] https://arxiv.org/pdf/1707.08945.pdf

[2] https://www.youtube.com/watch?v=gHbF-4anWbE

[3] ]https://arxiv.org/pdf/1912.05283.pdf

[4] https://www.springerprofessional.de/en/on-gdpr-compliance-of-companies-privacy-policies/17127232

Herausforderungen einer Hybrid-Cloud-Umgebung

Gastbeitrag von Neil Miles, Hybrid IT Management von Micro Focus.

Hohe Flexibilität, Skalierbarkeit und geringere Kosten – die Vorteile eines Hybrid-Cloud-Ansatzes sind vielfältig. Sie lassen sich allerdings nur voll ausschöpfen, wenn sich Unternehmen angemessen auf die damit verbundene Komplexität vorbereiten. Denn eine hybride Cloud-Umgebung stellt Unternehmen vor einen hohen administrativen Aufwand und verschiedene Herausforderungen, die nicht unterschätzt werden dürfen.

Hybrid-Cloud-Lösungen erfreuen sich zunehmender Beliebtheit, weil sie die Vorteile der Public und der Private Cloud vereinen. Die schnellen, leicht verfügbaren öffentlichen Ressourcen der Public Cloud lassen sich mit den sicheren, proprietären Umgebungen der Private Cloud kombinieren und somit bedarfsweise an die individuellen Anforderungen und spezielle Use Cases anpassen. Damit diese Vorteile allerdings vollumfänglich nutzbar sind und häufige Gefahren umgangen werden können, müssen sich Unternehmen über die wesentlichen Herausforderungen im Klaren sein, die eine hybride IT mit sich bringt.

Komplexe und mitunter unübersichtliche IT-Infrastrukturen

Eine Hybrid-Cloud-Umgebung bringt ein großes Netzwerk verschiedener Verbindungspunkte mit sich. Die eigene Private Cloud wird mit den Public-Cloud-Angeboten großer Anbieter wie Amazon oder Microsoft kombiniert. Das führt zwangsläufig dazu, dass ein übergreifendes Management über Cloud-Silos mit verschiedenen miteinander verknüpften Tools nötig wird, deren Administration Zeit und Ressourcen im IT-Team bindet.

Diese Infrastruktur erschwert die Entwicklung und den Einsatz von Umgebungen, die auf die individuellen Anforderungen des jeweiligen Unternehmens zugeschnitten sind. Die Automatisierung des Deployments gemäß Nutzerranforderungen wird somit erschwert. Im besten Fall beschränkt sich die Automatisierung dann auf Standard-Benutzeranforderungen, während die Automatisierung von darüberhinausgehenden Anforderungen zu einem neuen, eigenständigen Projekt wird. Oftmals ist manuelle Arbeit erforderlich. In jedem Fall schränkt das die Flexibilität ein.

Die Konsequenz dieser Umgebungen ist ebenfalls, dass Unternehmen verschiedene Management-Toolsets und Teams einsetzen, die getrennt voneinander arbeiten um den unterschiedlichen Umgebungen (Private Cloud, Public Cloud und On-Premise) gerecht zu werden. Das bewirkt, dass neben zusätzlicher Zeit auch mehr unterschiedliche Mitarbeiter benötigt werden, deren Arbeit sich teilweise überschneidet, was in der Summe zu unnötigen Kosten führt.

Data Governance

Die zunehmende Anzahl an Datenschutzregulierungen legt genau fest, wie und wo Unternehmen Kundendaten erheben und speichern dürfen. Die DSGVO schreibt beispielsweise unmissverständlich vor, dass Daten von EU-Bürgern auch nur innerhalb der Europäischen Union lagern dürfen. Zusätzlich müssen die Daten auf mehreren Ebenen gesichert werden, um den Vorschriften zu entsprechen. Der Hybrid-Cloud-Ansatz stellt Unternehmen nun datenschutzrechtlich vor ein Risiko, denn beim Einsatz von Public-Cloud-Diensten kann es dazu kommen, dass personenbezogene, oder andere kritische Daten, versehentlich in andere geografische Regionen transferiert werden oder Daten auf andere Art und Weise falsch behandelt werden.

Einfluss auf Geschäftsprozesse

Das Rückgrat digitaler Geschäfte sind die zugrundeliegenden IT-Services. Sie sind so gestaltet, dass sie effiziente Abläufe ermöglichen und das Geschäft am Laufen halten. Darüber hinaus gewährleisten sie, dass sich Unternehmen von anderen am Markt abheben können. Die Anforderungen an Schnelligkeit, Kosteneffizienz und Compliance müssen gleichermaßen berücksichtigt werden und erfordern durchdachte Entscheidungen von der IT-Abteilung, wenn sie die unterschiedlichen Datensätze analysieren, die innerhalb der Organisation und in öffentlichen Cloud-Diensten lagern.

Die genaue Klassifizierung in kritische und weniger kritische Daten macht es zudem unumgänglich, die Geschäftsprozesse einer genauen Analyse zu unterziehen. Unternehmen müssen sich darüber im Klaren sein, wo sie persönliche Daten verarbeiten oder wo geschäftskritische Daten involviert sind, denn die deutlich bessere Wahl wäre es, diese in einer Private Cloud ablaufen zu lassen. Große Mengen an nicht-persönlichen Daten lassen sich hingegen eher auf die skalierbaren Public-Cloud-Infrastrukturen verlagern.

Hybrid-Cloud-Management für übergreifende Kontrolle

Wenn in Unternehmen hybride Cloud-Automatisierungsprogramme entwickelt werden, entstehen im Laufe der Zeit oft getrennte Strukturen – eine für die private und eine für die Public Cloud. So ist es jedoch schwierig, alle daraus resultierenden Vorteile voll auszuschöpfen und dabei gleichzeitig den Kostenrahmen einzuhalten.

Ein passendes, zentrales Tool, wie Micro Focus Hybrid Cloud Management, bietet Flexibilität in einer komplexen hybriden, mehrstufigen Cloud-Umgebung. Automatisierung mit Optionen ermöglicht die Einrichtung von maßgeschneiderten, auf das Unternehmen abgestimmten Cloud-Umgebungen, die das Beste aus der öffentlichen und privaten Cloud vereinen, um die IT-Infrastruktur optimal zu nutzen. Mit einer effektiven hybriden Cloud-Management-Lösung verfügen Unternehmen über ein Werkzeug, das ein zentrales Steuerungssystem für alle hybriden Ressourcen bildet. Alle Informationen laufen hier zusammen, und die IT erhält richtlinienbasierte Verwaltungs-, Berichts- und Analysefunktionen an die Hand. Diese helfen der IT-Abteilung nicht nur dabei, zu überwachen, wo sich bestimmte Unternehmensinformationen befinden, sondern geben ihr auch die Möglichkeit, einzelne Bereiche ihrer IT-Ressourcen schnell und flexibel neu zu gestalten oder zu verschieben, um die Effizienz zu steigern oder zum Beispiel gesetzliche Vorgaben zu erfüllen.

Fazit:

Eine flexible, aber leistungsstarke Hybrid-Cloud-Plattform ist eine sinnvolle Investition, um eine hybride Multi-Cloud-IT-Umgebung effizient zu verwalten und die On-Demand-Bereitstellung von IT-Umgebungen und IT-Services für die Nutzer innerhalb des Unternehmens zu automatisieren.


Über den Autor

Neil Miles ist Senior Global Product Marketing Manager für Hybrid IT Management bei Micro Focus. Er arbeitet seit 20 Jahren in der IT-Management-Softwarebranche und spricht regelmäßig über die Notwendigkeit von Multi-Cloud- und Hybrid-IT-Management zur Unterstützung von Initiativen zur digitalen Transformation in Unternehmen. Neil arbeitet mit IT-Teams auf der ganzen Welt zusammen, um den geschäftlichen Nutzen und die Kapitalrendite zu ermitteln, die sich aus der effektiven Nutzung der Automatisierung des IT-Managements ergeben.



Weiterführende Informationen:
www.microfocus.com

Aufmacherbild / Quelle / Lizenz
Bild von Pete Linforth auf Pixabay

KI-basierte Trendforschung formt Kosmetikmarke

Case Study: Die Beauty-Innovationsmarke Dr. Severin nutzt ihre eigenentwickelte Trend-Engine Pythia als E-Commerce Booster.

Mit einem interdisziplinären Team entwickelte Peter Hart, Gründer der Hart Limes GmbH und ihrer jungen Kosmetikmarke Dr. Severin, Pythia, eine Trend-Engine auf Basis künstlicher Intelligenz, die Konsumenten-Suchanfragen über Google, Amazon und andere Quellen auswertet.

Zu Beginn fokussierte sich das Marketing auf Social Media Marketing, insbesondere YouTube, und Influencer Marketing via Instagram sowie Produktplatzierungen auf Ratgeberseiten für Wirkungskosmetik.

Den Jungunternehmern spielt in die Karten, dass sie von den kommunizierten Werten und der Geschäftsidee viel eher Start-up als tradierter Kosmetikhersteller sind. „Über die Hälfte unserer Kunden finden uns über Weiterempfehlung von Freunden und über Kundenbewertungen“, so Valentin Bohnhardt, CEO der Hart Limes GmbH. Der Kosmetikmarkt steckt im Wandel und Konsumenten möchten die Geschichten hinter den Produkten kennenlernen. „Wir widmen unsere Energie und unser Investment der Entwicklung und dem Kundenservice, nicht aber teuren Werbekampagnen“, lautet das Credo der Pioniere für Wirkkosmetik.

E-Commerce-Fokus

Der Vertriebsfokus lag von Anfang an auf Amazon und dem eigenen Online-Shop. Im Internet zu Hause, hat sich das Start-up von Beginn an streng an der Nachfrage des Online-Marktes orientiert. Das Team entwickelte Artikel weiter, die insbesondere auf Amazon stark nachgefragt wurden, und produzierte sie nach eigenen Qualitätskriterien.

Auch heute besteht ein wichtiger Teil der täglichen Arbeit für die Mitarbeiter darin, das auf Amazon existierende Online-Angebot zu beobachten. Eine wichtige Rolle spielten dabei nicht nur die tatsächlichen Produkte und Inhaltsstoffe, sondern auch die verwendeten Wirkungsaussagen und Claims. So analysiert das Marketing-Team, auf welche Weise die angebotenen Produkte beworben werden und welche Suchbegriffe zu erfolgreichen Bestellungen führen. 2015 entscheid sich das Team, die Analysen zu automatisieren – die Geburtsstunde der Trend-Engine Pythia.

Einsatz von Pythia

Die Trend-Engine arbeitet mit künstlicher Intelligenz, indem sie Keywords auf ihr zukünftiges Suchvolumen hin untersucht. Auf Grundlage von Suchfrequenzen der letzten fünf Jahre erstellt sie eine Prognose für die kommenden 18 Monate und visualisiert sie grafisch. Dr. Severin erhält so Auswertungen eigener Keywords sowie eine KI-generierte Auswahl weiterer branchenrelevanter Begriffe, die zur Kategorie passen und deren Trendkurve mit hoher Wahrscheinlichkeit positiv verlaufen wird.

Kunden möchten zunehmend Produkte mit immer neuen Inhaltsstoffe in ihren Badezimmerregalen sehen. Diese inhalts- und wirkstofffokussierte Sensibilität wirkt sich wie ein Turbo auf den Markt aus: Welche Wirkstoffkombination erzielt den besten Anti-Aging-Effekt? Welche Vitamine braucht die Haut und welche Pflanzen liefern die besten Nährstoffe? Der Zyklus, in dem bestimmte Wirkstoffe vom Kunden nachgefragt werden, verkürzt sich zunehmend. An dieser Stelle nutzt das Unternehmen künstliche Intelligenz, um schon heute zu wissen, was morgen trendet.

Die KI von Pythia prognostiziert das zukünftige Suchvolumen zu Keywords für 18 Monate. Dabei markiert die orange Linie den voraussichtlichen Trendverlauf, der dunkelgrüne Bereich die 67-prozentige Wahrscheinlichkeit der Entwicklung und der hellgrüne eine 95-prozentige.

Bevor Pythia an die Arbeit geht, muss sie mit Daten gefüttert werden. Auf die Keywords hin durchleuchtet die KI, die auf dem neuesten Stand der Forschung arbeitet, Google und große Plattformen wie Amazon. Dazu untersucht der Algorithmus Abfrageverläufe auf markante Punkte und vergleicht sie mit bereits vorhandenen Daten. Ähnlichkeiten werden erkannt, Prognoseverläufe abgesichert. Von diesem Konzept profitieren alle Bereiche in Research, Produktentwicklung, Marketing und E-Commerce.

Basierend auf diesen Trendprognosen hat sich die Produktpalette deutlich erweitert. Aktuelle Kernprodukte bilden neben dem After Shave ein Vitamin C Hyaluron Serum sowie ein hauseigenes Retinol Serum.

Markenstrategie und Umsatzentwicklung

Insbesondere der Topseller Vitamin C Hyaluron Serum fungiert als Motor für einen Markt, der an Tempo und Neuheiten-Druck stetig gewinnt. Die KI erkannte früh, dass sich die Inhaltsstoffe Vitamin C und Hyaluron zunehmender Beliebtheit erfreuen und so konnte das Start-up als erster Hersteller weltweit ein Produkt mit dieser Kombination auf den Markt bringen. Die Verbindung aus frühem Wissen und einer agilen Unternehmensstruktur ermöglichte dem Produkt einen schnellen Marktstart. Es war verkaufsbereit, bevor größere Marken das Potenzial erkannten und produzieren konnten.

Peter Hart trackte hierfür im Vorfeld die Begriffskombinationen Kosmetik, Beauty, Anti-Age und Falten. Im Rahmen der Analysen dieser Suchbegriffe tauchten die Wirkstoffe Vitamin C und Hyaluron sowie das Wort Serum mit starkem Trendscore auf. Hieraus resultiert das Produkt.

Der Markenkern

Im Markenkern und in der Philosophie des Anbieters nimmt die Aktualität des Produktangebotes von Anfang an eine zentrale Rolle ein. Dabei herrscht stets die Gefahr, dass ein größerer Mitbewerber eine Produktidee adaptiert und zu günstigeren Preisen anbietet. Auch das Vermarktungskonzept baut daher auf schnelle Umsetzung neuer Trends sowie auf Agilität des Unternehmens.

Die Verkaufsentwicklung des Dr. Severin Vitamin C Hyaluron Serums vom Verkaufsstart 2017 an.

Nach der Markteinführung des Vitamin C Serums 2017 steigerte das Unternehmen seinen Umsatz um 40 Prozent. Der Grund: Das Unternehmen agiert nah an den Bedürfnissen seiner Kunden und weist explizite E-Commerce-Fokussierung auf. Alleine auf Amazon verkaufte sich das Produkt bis August 2019 46.000 Mal und wurde von fast 400 Kunden bewertet.


Über Peter Hart und Pythia

Pythia ist ein Produkt der Swarm Marketing Research AI GmbH. Das Start-Up aus Frankfurt am Main wurde im Januar 2019 von Peter Hart (CEO) und Raphael Kneer (Co-CEO) gegründet. Peter Hart ist ein erfahrener Gründer, der unter anderem die Marken Dr. Severin, Nutree und Alpensocken führt. Mitgründer Raphael Kneer ist Rechtsanwalt mit Schwerpunkt auf Steuerrecht und Start-Ups. Er blickt zudem auf Arbeitserfahrungen im deutschen Bundestag und Auswärtigen Amt zurück. 25 Prozent der Swarm Market Research AI hält die Rossmann Beteiligungs GmbH.

Weitere Informationen finden Interessierte unter
https://www.pythiaai.de/

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Digitaler Wandel für die Gesellschaft

Der Mensch im Fokus der Digitalisierung

von Kai Grunwitz, Geschäftsführer der NTT Ltd. in Deutschland

Im vergangenen Jahr hat NTT seine weltweit 28 Tochtergesellschaften zusammengeführt. Wir können jetzt Unternehmen Komplettlösungen von der Infrastruktur bis zur Applikation anbieten, und wir tun das mit eigener Konnektivität und eigenen Netzen. Für mich als Geschäftsführer von NTT Deutschland bedeutet diese Umstrukturierung, im Zentrum eines großen Wandels zu stehen. Und gleichzeitig die Verantwortung zu haben, den digitalen Wandel in der Gesellschaft zu unterstützen. Denn dass wir den digitalen Wandel brauchen, zeigt sich in der aktuellen Corona-Krise. Auch wenn es uns schon immer bewusst war, dass die Digitalisierung voranschreitet – jetzt sehen wir dringender als zuvor den enormen Bedarf.

Kai Grunwitz

Auch wenn Cyber-Security nach wie vor mein Steckenpferd ist, werden die Themen meines Blogs den neuen Aufgabenbereich widerspiegeln. Denn die Geschwindigkeit, mit der sich Algorithmen, Künstliche Intelligenz, Maschinelles Lernen und ihre Anwendungsmöglichkeiten weiterentwickeln, ist extrem hoch und stellt Unternehmen wie auch jeden einzelnen Menschen in seinem Alltag vor Herausforderungen.

Gerade die gesellschaftliche Akzeptanz ist die Grundvoraussetzung, um die sogenannte Society 5.0 erfolgreich zu gestalten. Unsere bisherige Technologiegetriebenheit ist der falsche Ansatz, so lässt sich kein Vertrauen in die Möglichkeiten digitaler Lösungen herstellen. Vielmehr muss der Mensch bei der Diskussion um das Für und Wider rund um neue Technologien in den Mittelpunkt gerückt werden. Nur wenn Risiken offen angesprochen und noch stärker der Nutzen von intelligenten End-to-End-Prozessen für jeden einzelnen in den Mittelpunkt gestellt wird, können Unkenntnis, Unentschlossenheit und Unbehagen aus dem Weg geräumt werden und die Digitalisierung in Deutschland nimmt endlich an Fahrt auf.

Ein gutes Beispiel dafür ist das Gesundheitswesen, neue Verfahren können die Medizin besser und effizienter machen: So verhindern elektronische Patientenakten Doppeluntersuchungen und gefährliche Wechselwirkungen von Arzneimitteln, verbindet Telemedizin Patienten ortsunabhängig mit medizinischen Experten, unterstützen Gesundheits-Apps chronisch Kranke, hilft KI bei der Auswertung medizinischer Bilder, von Gen-Sequenzen oder Gewebeproben und übernehmen vielleicht irgendwann Roboter die Pflege demenzkranker Patienten. Der Alltag in deutschen Praxen und Kliniken ist allerdings bislang ein ganz anderer: Informationen werden überwiegend auf Papier ausgetauscht, nur wenige Patienten profitieren von digitalen Ansätzen.

Das liegt an zögerlichen Umsetzungen seitens Politik und Industrie, aber auch an einem fehlenden Vertrauen in den Schutz der eigenen Daten und in die Entscheidungsgewalt von Robotern. Society 5.0 bedeutet zunächst einmal, dass erhebliche Mengen persönlicher Informationen erhoben und systemübergreifend geteilt werden. Das Ergreifen adäquater Sicherheitsmaßnahmen ist hier ein absolutes Muss. Nur so kann das Vertrauen der Menschen in die Einhaltung des Datenschutzes und der Wahrung der Datenintegrität gestärkt werden.

Auf dem Weg zur vollständigen Umsetzung einer Society 5.0 sind zwar noch etliche Hürden zu überwinden, aber die Weiterentwicklung zu einem Gesellschaftsmodell, das den Menschen in den Mittelpunkt stellt, wird unumgänglich sein, um künftige soziale und ökonomische Herausforderungen zu bewältigen

Kai Grunwitz

Gleichzeitig braucht es für mehr Akzeptanz ethische Richtlinien. Durch Algorithmen, die zunehmend komplexere Entscheidungen treffen und deren Entscheidungsfindung nicht immer transparent ist, ergeben sich etliche Fragen, auf die schnell Antworten gefunden werden müssen: Vertraut man der Maschine? Welche Entscheidungskompetenz räumt man ihr ein? Wann ist ein menschliches Eingreifen erforderlich?

Auf dem Weg zur vollständigen Umsetzung einer Society 5.0 sind zwar noch etliche Hürden zu überwinden, aber die Weiterentwicklung zu einem Gesellschaftsmodell, das den Menschen in den Mittelpunkt stellt, wird unumgänglich sein, um künftige soziale und ökonomische Herausforderungen zu bewältigen. Das schließt die Politik mit ein, die nicht in Überregulierung verharren darf, wenn Deutschland nicht den Anschluss verpassen soll. Es beinhaltet den Aufbau von Vertrauen, dass einerseits persönliche Daten sicher sind und andererseits alles getan wird, um Arbeitsplätze, die durch KI wegfallen, zu ersetzen. Folglich werden Fortbildungen und Umschulungen sowie die Weiterentwicklung digitaler Skills auf Mitarbeiterseite unumgänglich.

Unternehmen wiederum müssen sich an die Herausforderungen, die die digitale Transformation mit sich bringt, anpassen. Alles zusammen lebt davon, dass man vertrauensvolle Infrastrukturen aufsetzt. Und hier schließt sich der Kreis: Eine digitale Transformation lebt von Daten, die Bereitstellung von Daten erfordert Vertrauen, weshalb Digitalisierung ohne einen End-to-End-Ansatz in der Cyber-Sicherheit nicht funktioniert. Sie werden also an dieser Stelle immer wieder auch zu Themen rund um Security lesen.

Weiterführende Informationen
www.hello.global.ntt