IoT-Plattform als Whitelabel

Das Unternehmen Lexmark kennen die meisten sicher als Hersteller von Druckern und Multifunktionsgeräten. Über die Jahre hat sich im Konzern viel Know-how zur Vernetzung, Wartung und Steuerung von Geräten angesammelt. Was liegt also näher, als eine IoT-Plattform aus dem Know-how zu bauen und diese für Kunden zur Verfügung zu stellen, damit diese eigene Geschäftsmodelle verwirklichen können? Vermutlich einiges, denn wie Phil Carter, der das neue IoT-Programm von den USA heraus verantwortet, war der Weg dahin nicht ganz trivial.

Herr Carter, welches Potenzial steckt für Ihr Haus in der IoT-Plattform und welchen Stellenwert nimmt das Thema im Konzern ein?
Die COVID-19-Pandemie hat Unternehmen weltweit vor Herausforderungen gestellt. Vor allem wurde die Notwendigkeit, die digitale Transformation weiter zu beschleunigen, um effizienter zu arbeiten – sei es in Hinblick auf Lieferkette, Logistik, Produktion oder anderswo – noch deutlicher. Wir bei Lexmark nutzen bereits seit vielen Jahren eine IoT-Plattform für unsere Managed Print Services. Die Entwicklungen der vergangenen Monate hat uns darin bestärkt, unsere eigene, lang erprobte IoT-Lösung auf den Markt zu bringen, damit unsere Kunden künftig von denselben Vorteilen profitieren können wie wir selbst. Der Launch unserer Lexmark Optra IoT-Plattform war ein logischer nächster Schritt – eine Erweiterung unseres Portfolios auf eine natürliche Art und Weise. Für uns ist dies ein Meilenstein in unserer 30-jährigen Geschichte, der Lexmark nachhaltig prägen wird. Weltweit suchen Unternehmen gerade nach Möglichkeiten, die Vorteile des IoT zu nutzen, um ihr Geschäft digital zu transformieren. Unsere Plattform ist zwar neu auf dem Markt, aber sie basiert auf unseren langjährigen Erfahrungen in diesem technologischen Feld. Wir nutzen genau diese Lösung für uns und unsere Kunden bereits seit vielen Jahren und erzielen messbare Vorteile. Mit der Plattform können wir unsere Kunden dabei unterstützen, den Wert des IoT für sich zu erschließen, ihre digitale Transformation zu beschleunigen und bessere Geschäftsergebnisse zu erzielen. Durch unser Know-how als Hersteller vernetzter Geräte sowie durch unsere Expertise in den Bereichen Cloud, Konnektivität und Managed Services verstehen wir unser neues IoT-Angebot als Erweiterung unseres Portfolios, Druck und Imaging bilden aber weiterhin unser Kerngeschäft.



Wir sind am Beginn des „datengetriebenen Zeitalters“. Was bedeutet das für Sie und die Plattfom? Wie kam es überhaupt zu diesem Angebot?
Die Unternehmensberatung McKinsey schätzt, dass 84 Prozent der Unternehmen, die an IoT-Lösungen arbeiten, immer noch im „Pilotmodus“ feststecken. Das macht deutlich, welche große Herausforderung es sein kann, aus den teilweise enormen Datenmengen, die bisher in Silos über Geschäftsanwendungen hinweg existieren, verwertbare Erkenntnisse zu gewinnen. Diese Hürden im Umgang mit großen Datenmengen kennen wir genau wie andere Hersteller vernetzter Produkte aus erster Hand. Wir arbeiten seit vielen Jahren an der Perfektionierung unserer Optra IoT-Plattform, um eine optimale Schnittstelle zwischen zentralen Geschäftssystemen zu schaffen. Das Ergebnis ist ein flexibles, skalierbares Modell, mit dem sich große Datenmengen erfassen und analysieren lassen und das als eigenständige Lösung oder in Kombination mit bestehenden Systemen eingesetzt werden kann. Im Zusammenspiel mit unseren Managed Services hat sich diese Technologie bewährt: Heute können wir z.B. 70 Prozent der Serviceprobleme bereits im Fernzugriff lösen. Durch eine optimierte Auslastung unserer Hardware konnten wir zudem die Rentabilität unserer Druckerumgebungen um 25 Prozent und ihre Effizienz um 30 Prozent steigern. Das sind überzeugende Ergebnisse. Ein weiterer Vorteil: Unsere Lexmark Optra IoT-Plattform ist als bewährte Lösung sofort einsatzbereit. Wir selbst nutzen Sie bereits zur Vernetzung von mehr als einer Million Drucker und Geräte an über 200.000 Standorten auf der ganzen Welt.

An wen wenden Sie sich mit der nun neu aufgebauten Plattform und wie helfen Sie Ihren Kunden bei der Umsetzung eigener IoT-Vorhaben?
Unsere Zielkunden sind Hersteller vernetzter Geräte, die ähnlich wie Lexmark aufgestellt sind. Darüber hinaus gibt es noch einige weitere Kriterien hinsichtlich der Größe, des Jahresumsatzes und der Art der Konnektivität der Geräte. Mit der Plattform lässt sich mit jeder Art von IoT-Gerät vergleichbare Ergebnisse erzielen wie die, die wir mit unseren IoT-Druckern erreicht haben: Kosteneinsparungen, Effizienz und eine höhere Kundenzufriedenheit. Die Optra IoT-Plattform versetzt Unternehmen in die Lage, neue Wege zur Optimierung ihres Geschäfts zu entdecken.
Die Vorteile unserer vollständigen und intuitiven Lösung liegen auf der Hand: Die Plattform setzt führende Technologien ein, mit der Hersteller Daten aus vernetzten Geräten, die bisher nicht genutzt werden konnten, mit Daten aus ihren zentralen Geschäftssystemen vernetzen und so operationalisieren können. Eine Suite an Möglichkeiten, von Algorithmen über Modelle für maschinelles Lernen und künstliche Intelligenz bis hin zu Reporting-Dashboards und Geschäftsprozessvorlagen ermöglichen neue Erkenntnisse und Effizienzsteigerungen. Sie beschleunigen auch die Implementierung, um schnell geschäftlichen Nutzen zu realisieren. Zusätzlich unterstützt ein Experten-Team unsere Kunden, damit diese den vollen Mehrwert ihrer Investition ausschöpfen und maximal von der IoT-Technologie profitieren können.

Wie können vor allem kleinere Unternehmen davon profitieren?
Das Internet der Dinge ist tatsächlich ein kostspieliges Unterfangen und als solches – offen gesagt – für die meisten kleineren Unternehmen branchenübergreifend vermutlich einfach unerschwinglich. Viele KMU können es sich kosten- und ressourcentechnisch nicht leisten, über Jahre hinweg eine komplette IoT-Lösung aufzubauen. Die Optra-Plattform ermöglicht allerdings auch kleinen Unternehmen den Weg ins IoT und sorgt damit gewissermaßen für eine Chancengleichheit. Wir bieten KMU die für ihren IoT-Erfolg notwendigen technischen Schulungen und Beratungen an. Unsere Kunden profitieren von einer echten All-in-One-Lösung, für die wir unser umfassendes Know-how mit wettbewerbsfähigen Preise und maßgeschneiderte Optionen kombiniert haben.

Welche Unterstützung für die Konzepte des IoT und des IIoT erwarten Sie von einer neuen Bundesregierung?
Die künftige Bundesregierung hat sich die digitale Transformation als einen Kernbereich auf die Fahnen geschrieben. Deshalb sind wir zuversichtlich, dass der Themenkomplex in den kommenden Jahren einen deutlichen Schub erfahren wird. Wir hoffen und bauen auf ein Klima, das Innovationen fördert – insbesondere in Bezug auf neue Technologien wie IoT, KI oder Cloud. Auch sind wir dahingehend positiv gestimmt, dass die künftige Regierung Unternehmen unterstützt wird, die in diese Technologien investieren. Letzteres dürfte sich wiederum positiv auf die Digitalisierungsinitiativen der KMU auswirken. Das Timing der Einführung unserer Optra-Lösung in den deutschen Markt, einen unserer Schlüsselmärkte, könnte also im Grunde nicht besser sein.

Weitere Informationen unter:
https://www.lexmark.com/de_de.html

Follow the Food: Die Kohlenstoff-Herausforderung

Wie wir Pflanzen anpassen können, um unseren Planeten zu retten

Von James Wong, Ethnobotaniker und Moderator der BBC-Serie Follow the Food.

Während der Dreharbeiten zu den beiden jüngsten Sondersendungen von Follow the Food habe ich mehrere Bauernhöfe auf der ganzen Welt besucht, die, zumindest oberflächlich betrachtet, wie jeder andere Bauernhof auf diesem Planeten aussehen. Aber bei genauer Betrachtung entdeckte ich einige bemerkenswerte Dinge.

Die Landwirte und Wissenschaftler, mit denen ich gesprochen habe, versuchen, ein sehr wichtiges Problem zu lösen: Wie kann die Landwirtschaft ihre Auswirkungen auf die Umwelt verringern und vielleicht sogar eines Tages dazu beitragen, den Klimawandel aufzuhalten?

Wenn man sich die Dimension der Agrarindustrie vor Augen hält, die 1,5 Milliarden Hektar (5,8 Millionen Quadratmeilen) der Erdoberfläche bedeckt, verliert man manchmal den Blick für das, was ihr Herzstück ist: Pflanzen.

Die Abholzung von Regenwäldern und das Abgraben von Torfmooren zur Schaffung von neuem Ackerland ist zwar eine wichtige Ursache für den Klimawandel und muss gestoppt werden, aber die Innovation bei den Nutzpflanzen kann dazu beitragen, einen Teil dieses Problems zu mildern.

Wie alle Pflanzen entziehen auch Nutzpflanzen der Atmosphäre während des Prozesses der Photosynthese Kohlendioxid (CO2), das sie nutzen, um aus Sonnenlicht Energie zu gewinnen. Ein Teil dieses Kohlenstoffs wird im Boden gebunden, wo er verbleibt, wenn er nicht angetastet wird. Pflanzen sind Teil eines Systems, das einst im Gleichgewicht war und in dem Kohlenstoff in natürlichen Reservoirs im Boden, im Meer, in der Atmosphäre und in Lebewesen ein- und ausging. Könnten die Landwirte also das Gleichgewicht wiederherstellen, indem sie die riesigen Anbauflächen, die für unsere Ernährung benötigt werden, als Kohlenstoffsenken nutzen, die den Kohlenstoff im Boden auffangen und speichern?

Ich habe Paul Hawken, den Autor von Project Drawdown, der die 100 wichtigsten Lösungen zur Umkehrung der globalen Erwärmung modelliert hat, gefragt, warum wir den Kohlenstoffkreislauf neu überdenken müssen. Er sagt, es sei ein Missverständnis, Kohlenstoff als Verschmutzung zu betrachten – vielmehr sei er Teil eines Kreislaufs, der aus dem Gleichgewicht geraten ist.

Der auf der Erde gespeicherte Kohlenstoff überwiegt bei weitem den Kohlenstoff in unserer Atmosphäre. Es gibt mehr als drei Billionen Tonnen Kohlenstoff in Ackerland, Grasland, Wäldern, Mangroven und Feuchtgebieten – das ist viermal so viel Kohlenstoff wie in der Atmosphäre, sagte mir Hawken und fügte hinzu, dass, wenn es uns gelänge, den auf der Erde gespeicherten Kohlenstoff um neun Prozent zu erhöhen, allein auf dem Land, wir den gesamten Kohlenstoff, den die Menschen seit 1800 ausgestoßen haben, gebunden hätten. Hawken spricht einen interessanten Punkt an: Begriffe wie “Kohlenstoffausgleich“ und „Netto-Null“ werden häufig verwendet, aber um die Auswirkungen des Klimawandels umzukehren, müssen wir darüber hinausgehen und mehr Kohlenstoff speichern, als wir in die Atmosphäre emittieren.



Und dabei ist der in marinen und aquatischen Systemen gespeicherte Kohlenstoff noch gar nicht berücksichtigt. Bei einem Besuch in Portugal sah ich einen anderen Innovator, der Seetangwälder anpflanzt, um Kohlenstoff zu speichern und vielleicht eines Tages als Nahrungsquelle zu dienen. Kelp, die größte Seetangart, ist eine Art photosynthetisierende Alge und keine Pflanze.

Durch Aufschneiden von Teilen ihrer Blätter können Kelpsporen geerntet, getrocknet, gekühlt und auf Kies gesprüht werden, der dann ins Meer geworfen wird. Diese mit Kelpsporen bedeckten Steine bilden dann einen Unterwasserwald, der nur wenige Monate braucht, um zu wachsen, und der schnell dazu beiträgt, Kohlenstoff auf dem Meeresboden zu binden.

Kelp ist außerdem eine bedrohte Art, so dass diese Arbeit auch zum Schutz der biologischen Vielfalt beiträgt. Kelpwälder sehen vielleicht etwas anders aus als herkömmliche Farmen, aber Seetang ist eine natürliche Quelle für die wichtigen Omega-3-Fettsäuren EPA und DHA, die sonst nur in Tieren vorkommen. Kelp könnte eines Tages eine sehr wichtige Quelle für eine klimaschonende Ernährung sein.

Ich hatte auch das Privileg, Forscher des Ripe-Projekts der Universität von Illinois zu besuchen, die mit der Art und Weise experimentieren, wie Pflanzen wachsen. Die Photosynthese ist ein Prozess, der sich über Millionen von Jahren entwickelt hat. Es ist daher seltsam, dass wir diesen Prozess verbessern könnten, aber genau das versuchen Lisa Ainsworth, die stellvertretende Leiterin von Ripe, und ihre Kollegen.

James Wong ist Moderator der Serie Follow the Food

Das Team verändert die Genetik der Pflanzen, um mehr als eine Schwachstelle in der Photosynthese zu beheben – von der Steigerung der Effizienz der Pflanzen über die Verlängerung der Reaktionszeit beim Übergang von Schatten zu Sonne bis hin zur Veränderung der Blattdichte.

In einem Pflanzenfeld zum Beispiel betreiben nur die obersten Blätter die Photosynthese mit maximaler Effizienz. Die tiefer gelegenen Blätter sind blockiert und liegen im Schatten der höher gelegenen Blätter, so dass sie weniger Sonnenlicht erhalten und weniger Photosynthese betreiben können. Die untersten Blätter könnten sogar zu den Kohlenstoffemissionen beitragen (wie Tiere atmen auch Pflanzen, indem sie über ihre Blätter Sauerstoff einatmen und Kohlendioxid ausatmen).

Indem man die obersten Blätter weniger dicht macht, dringt mehr Licht nach unten, was bedeutet, dass eine größere Oberfläche effizient Photosynthese betreibt – das ist jedenfalls die Idee. Die Fortschritte, die das Team macht, sind noch nicht abgeschlossen.

Aber es ist eine spannende Zeit, in der wir versuchen, den Kohlenstoffkreislauf in Ordnung zu bringen. Es gibt Möglichkeiten für Landwirte, die Menge an Kohlenstoff, die im Boden gespeichert ist, zu erhöhen, indem sie sich genau ansehen, was wir anbauen und wie wir es anbauen.

In letzter Zeit wird der Begriff Kohlenstoffausgleich häufig verwendet, aber ich weiß aus Gesprächen mit Experten, dass er missbraucht werden kann. Das Ziel sollte darin bestehen, so viel Kohlenstoff wie möglich im Boden zu belassen, anstatt dafür zu bezahlen, dass die Verschmutzung weitergeht wie bisher, und Pflanzen sind der Schlüssel zum Erfolg.

Follow the Food ist eine Multimediaserie von BBC Future und BBC World News, die untersucht, wie die Landwirtschaft auf die tiefgreifenden Herausforderungen des Klimawandels, der Umweltzerstörung und des raschen Bevölkerungswachstums reagiert, denen sich unsere globalen Lebensmittelversorgungsketten gegenübersehen. Follow the Food spürt Landwirten, Erzeugern und Forschern auf sechs Kontinenten nach, wie sie Antworten auf diese Probleme finden – sowohl mit Hightech als auch mit Lowtech, lokal und global.

Die ganze Serie Follow the Food können Sie hier ansehen https://www.bbc.com/followthefood/ und folgen Sie @BBCFuture auf Facebook und Twitter, um das Neueste über die Serie zu erfahren.

Beitragsveröffentlichung mit freundlicher Genehmigung der BBC

Online Werbung als potentielles Verlustgeschäft

Daniela Jochim und Emily Sullivan erläutern, wie Marken ihre Werte auch im Zusammenhang mit Online-Werbung schützen können

Brand Safety ist das Thema, welches Marketingabteilungen seit Ewigkeiten beschäftigt. Marken sind Vermögenswerte und müssen als solche – genau wie Bar- und Anlagevermögen – vor betrügerischen Handlungen geschützt werden. Dass uns das Internet in diesem Bereich eine schier unendliche Anzahl an Türen geöffnet hat, erscheint in diesem Zusammenhang eher Fluch als Segen. Oft wird die (scheinbare) Anonymität des Internets genutzt, um sich mit unlauteren Mitteln Wettbewerbsvorteile zu verschaffen und Wettbewerbern zu schaden.

Es ist daher unverzichtbar, sich gegen betrügerische Methoden des Werbebetrugs („Ad-Fraud“) zu wappnen, damit die eigenen Marken nicht an Marketingkraft verlieren.

I. Beliebte Formen des Werbebetrugs

Viele Unternehmen werben inzwischen überwiegend (oder sogar ausschließlich) online. Eine vielverwendete Form der Onlinewerbung ist die Pay-per-click-Werbung. Webseitenbetreiber (wie u. a. Google) bieten bestimmte Bereiche auf ihrer Homepage für Werbung an. Werbende können sich virtuelle Anzeigenplätze im Werbebereich der Webseite kaufen. Pro Klick auf die Anzeige wird dann eine Gebühr für den Seitenbetreiber fällig. Wer bereit ist, einen höheren Preis für jeden Klick zu zahlen, erscheint dafür an einer prominenteren Stelle im Anzeigenbereich. Zur Kostenkontrolle können Grenzwerte festgelegt werden, wie Budgets für bestimmte Zeitabschnitte oder Schlüsselwörter.

Diese Form der Online-Werbung birgt jedoch erhebliches Betrugspotential.

Um Werbetreibende zu schädigen oder um sich selbst einen Vorteil zu verschaffen, klicken Schädiger mehrmals – oft mehrere hunderte Male – auf Werbeanzeigen. Dieser Klick-Betrug geschieht entweder manuell oder mithilfe eines sogenannten Bots. So entstehen hohe Werbekosten, ohne dass die Werbung jemals einen potenziellen Kunden erreicht. Obwohl die Schaltung der Werbung für den Werbetreibenden so völlig sinnlos wird, fließen die vereinbarten Klick-Kosten dennoch an den Webseitenbetreiber. Je nach Einstellung kann dies dazu führen, dass das von vornherein festgesetzte Werbebudget vollständig aufgebraucht und die Werbung dann insgesamt abgeschaltet wird.

Doch damit nicht genug. Neben dem Klick-Betrug existieren noch diverse andere Formen des Werbebetrugs, beispielsweise der Anzeigenbetrug. Bei dieser Form des Betruges veröffentlicht der Schädiger eine Internetseite, in der Regel gespickt mit Keywords, welche von dem Algorithmus der Suchmaschinen als gut bewertet werden. Aufgrund der guten Bewertung des Algorithmus erscheint diese Seite dann sehr weit oben in den Suchergebnissen. Bietet der Betreiber dieser Webseite nun seinerseits einen Werbeplatz auf dieser Seite an, kann er hierfür auch entsprechendes Geld verlangen. Echte Besucher wird diese Lockvogelseite aber nie haben, sodass die Werbung nie wirklich „an den Mann kommt“.

Eine andere gängige Methode des Werbebetrugs ist das Domain Spoofing. Hier trifft der Schädiger Maßnahmen, wodurch es so aussieht, als ob er ein renommierter Webseitenbetreiber wäre. So gelingt es, höhere Provisionen zu vereinbaren, ohne dass die Anzeige den gewollten Kundenkreis tatsächlich erreicht.

Letztlich sind auch diverse Methoden zum Fälschen des Zählsystems der Klicks – wie Ad Stacking oder Pixel Stuffing – sehr beliebt. Schädiger erstellen wie beim Anzeigenbetrug Webseiten und verkaufen hierauf Werbeflächen. Für jeden Klick wird dann abgerechnet. Viele verschiedene Werbeanzeigen diverser Werbender werden jedoch übereinandergestapelt bzw. die Werbung wird nur mit einer Größe von 1×1 Pixel geschaltet. So wird für jeden Nutzer, der die Seite aufruft oder auf die Anzeige klickt, abgerechnet, unabhängig davon, ob er die Werbung tatsächlich wahrnehmen konnte oder nicht.

II. Rechtliche Beurteilung von Werbebetrug

Ob die oben erläuterten Verhaltensweisen im Einzelfall ein rechtlich relevantes Verhalten darstellen, muss je nach Konstellation geprüft werden. Denn obwohl dieses Verhalten umgangssprachlich als „Betrug“ betitelt wird, liegt aus juristischer Sicht nicht zwingend ein Betrug vor. Strafrechtlich relevante Tatbestände, die hier in Frage kommen, sind insbesondere der Betrug (§ 263 StGB) und der Computerbetrug (§ 263a StGB). Aus strafrechtlicher Sicht liegt ein Betrug vor, wenn jemand in der Absicht, sich oder einem Dritten einen rechtswidrigen Vermögensvorteil zu verschaffen, das Vermögen eines anderen durch Vorspiegelung falscher Tatsachen schädigt.

Für Klick-Betrug wurde der Betrugstatbestand in einem Gerichtsverfahren bereits bejaht. In der Regel wird der Werbende für jeden, von „echten“ Nutzern durchgeführten Klick zu einer Vermögensverfügung verpflichtet. Indem der Schädiger vortäuscht, ein „echter“ Nutzer zu sein, täuscht er den Werbenden und verleitet ihn damit zu einer Vermögensverfügung. Dies stellt Betrug (oder, je nach Konstellation, Computerbetrug) im Sinne des Strafrechts dar, der mit Geldstrafe oder sogar Freiheitsstrafe bis zu 5 Jahren geahndet werden kann (vgl. LG Frankfurt (Oder), Urteil vom 10.01.2005, Az. 12 O 294/04).

Werbebetrug in seinen verschiedenen Formen stellt darüber hinaus auch ein wettbewerbswidriges Verhalten dar. Indem systematisch die Werbeanzeigen von Mitbewerbern geklickt werden, liegt eine gezielte Schädigung und Behinderung des Mitbewerbers vor (§§ 3, 4 Nr. 4 UWG). Dieses Verhalten ist rechtswidrig und führt sowohl zu Unterlassungs- als auch zu Schadensersatzansprüchen des geschädigten Werbetreibenden (vgl. Beschluss des LG Hamburg vom 09.11.2009, 312 O 971/09).

Selbst wenn man im einen oder anderen Fall aus rein rechtlicher Betrachtung zu dem Ergebnis kommt, dass z.B. ein strafrechtlicher Tatbestand erfüllt ist, heißt dies noch lange nicht, dass der Täter auch zur Verantwortung gezogen werden kann. Obwohl den Geschädigten des Werbebetrugs oft hohe Schäden entstehen, heißt hier „Recht haben“ noch lange nicht „Recht bekommen“. In der Regel wird es nicht gelingen, den Urheber der Klicks ausfindig zu machen. Kann man den Schädiger z.B. mittels IP-Adresse tatsächlich einmal aufspüren, so sitzt er meist nicht in Deutschland, so dass sich eine gerichtliche Durchsetzung wirtschaftlich kaum lohnt.

III. Online-Werbung proaktiv gegen Betrug schützen

Da sich eine Rechtsverfolgung oft schwierig gestaltet, ist es umso wichtiger, vorbeugende Maßnahmen zu treffen, um seine Online-Werbung gegen betrügerisches Verhalten abzusichern.

Beispielsweise kann dies durch spezielle Software erfolgen. Software gegen Klickbetrug erkennt von einer bestimmten IP-Adresse stammende wiederholte Klicks auf eine Werbeanzeige und sperrt diese. Die Software verhindert damit weitestgehend automatisch eine auffällige Überzahl an Klicks. Bestimmte Skripts wie ads.txt können zudem andere Betrugsvarianten wie Domain Spoofing erschweren und verhindern, dass Käufer über die Domain getäuscht werden, auf der sie sich befinden.

Auch durch geschickte Vertragsgestaltung mit Anbietern von Onlinewerbung können die Risiken von Werbebetrug verringert werden. Beispielsweise kann mit dem Werbeprovider eine Vereinbarung über die für die Vergütung anzuwendende Metrik getroffen werden. Statt sich auf Klicks auf eine Werbeanzeige zu beziehen, können als Metrik auch sog. „Conversions“ – also Käufe oder längere Webseitenaufenthalte – gewählt werden, sodass ein einfaches Klicken auf die Anzeige nicht mehr ausreicht.

IV. Ausblick und Fazit

Die Bedeutung des Themas Werbebetrug wächst weiter, genauso wie der Werbemarkt im Internet. Manche Länder, wie Indien oder die USA haben bereits speziell gemünzte Gesetze gegen die verschiedenen Facetten des Werbebetrugs erlassen. In Deutschland sind solche Gesetzesvorhaben hingegen bislang nicht in Sicht.

Unabhängig von der jeweiligen Rechtsgrundlage bleibt das eigentliche Problem einer Verfolgung der Verstöße die effektive Rechtsdurchsetzung. Diese bleibt aufgrund der Anonymität des Internets schwierig. In der Praxis sollte daher präventiv gehandelt und auf eine vorausschauende Vertragsgestaltung sowie technische Lösungen gesetzt werden, um keinen Raum für derartige Schikanen zuzulassen. Diese Möglichkeiten können – mit taktischem Geschick – oft gute Ergebnisse erzielen.

Autorinnen

Daniela Jochim, LL.M.,Rechtsanwältin und Partnerin bei Rödl & Partner ist im Geschäftsbereich Geistiges Eigentum / Informationstechnologie tätig. Sie berät vorwiegend nationale und internationale Unternehmen und unterstützt diese bei der Registrierung und Verteidigung von Schutzrechten auf nationaler und internationaler Ebene. Zudem erstreckt sich ihre Beratungstätigkeit auf vertrags- und haftungsrechtliche Fragestellungen im Vertrieb sowie auf IP-Due Diligence-Prüfungen bei Unternehmenstransaktionen.


Emily Sullivan ist Rechtsanwältin bei Rödl & Partner und im Geschäftsbereich Geistiges Eigentum tätig. Sie berät nationale und internationale Unternehmen und unterstützt diese bei der Registrierung und Verteidigung von Schutzrechten. Ferner unterstützt sie Mandanten bei der Durchsetzung von wettbewerbsrechtlichen Ansprüchen im In- und Ausland.


Weitere Informationen unter:
https://www.roedl.de/

Die Auswirkungen des hybriden Arbeitsplatzes auf die Diversität

Henri Schmidt, Senior Director Implementation & Business Development Germany & Poland bei ADP, kommentiert den Zusammenhang von Hybrid Work und Diversity Management

Vielfalt am Arbeitsplatz war schon immer ein wichtiges Thema. In den letzten Jahren wurde jedoch verstärkt auf Diversität, Gleichberechtigung und Inklusion geachtet und darüber diskutiert, wie Arbeitgeber den gleichberechtigten Zugang und die Chancengleichheit für Menschen mit unterschiedlichem Hintergrund fördern können. Die Umsetzung von Diversity-Programmen kann kompliziert sein und wurde durch die Pandemie und das Aufkommen des hybriden Arbeitsplatzes nur noch schwieriger. Ob die neue Arbeitsplatzdynamik für Initiativen zur Förderung der Vielfalt nutzbringend oder hinderlich ist, hängt jedoch von mehreren Faktoren ab, u.a. von der Organisationskultur des Unternehmens, dem Engagement der Führungskräfte und ihrer Bereitschaft, die Fortschritte zu überwachen, sowie ihrer Fähigkeit, gegebenenfalls schnell Maßnahmen zu ergreifen.

Mögliche Folgen

Arbeitgeber müssen die positiven und negativen Auswirkungen berücksichtigen, die ein hybrides Arbeitsumfeld auf ihre Belegschaft und den Fortschritt in Sachen Vielfalt haben könnte. Es kann dazu beitragen, eine vielfältige Belegschaft anzuziehen, die Vereinbarkeit von Beruf und Privatleben zu verbessern sowie Vertrauen und Produktivität zu steigern. Wenn die Arbeitskräfte von zu Hause aus arbeiten, können sie ihren Tag so strukturieren, dass sie in den Pausen wichtige persönliche Aufgaben erledigen können, z. B. die Kinder zur Schule bringen oder einen Arzttermin wahrnehmen. Dies erleichtert es Menschen, vor allem Eltern und anderen Betreuungspersonen, ihre beruflichen und privaten Verpflichtungen miteinander zu vereinbaren, was den Zugang zu Beschäftigungsmöglichkeiten und den beruflichen Aufstieg verbessern könnte. Außerdem können sie so ihren Alltag besser bewältigen, was zu einer besseren Konzentration und Aufmerksamkeit während der Arbeit führen kann. Das heißt, dass Unternehmen mit diesem Modell den Mitarbeiter*innen dabei helfen können, eine bessere Work-Life-Balance zu erreichen, was dazu führen könnte, dass sie eine gesündere und produktivere Belegschaft haben.

Ein hybrides Modell kann auch das Vertrauen zwischen Arbeitgeber und Arbeitnehmer*innen erhöhen und den Mitarbeiter*innen die Möglichkeit geben, ihren Stärken entsprechend zu arbeiten, was wiederum die Produktivität steigert. Durch die Förderung einer Kultur, in der die Arbeit aus der Ferne als positive Alternative angesehen wird, können Teams eine gute Balance zwischen Kreativität und Zusammenarbeit finden. Arbeitskräfte, die Ruhe brauchen, um sich zu konzentrieren, oder die sich in einer Büroumgebung wohl fühlen, können wählen, wo und wann sie am produktivsten sind. Diese Art von Modell hilft auch der Belegschaft, das Vertrauen ihrer Vorgesetzten zu gewinnen, indem sie zeigen können, dass sie beim Homeoffice genauso produktiv sind wie im Büro, wenn nicht sogar produktiver. Diese Flexibilität kann auch die Loyalität des Personals verbessern, da sie das Gefühl haben, von der Unternehmensleitung ermächtigt zu werden, ihre Arbeit zu ihren eigenen Bedingungen zu erledigen. Autonomie ist wichtig zur Mitarbeiterzufriedenheit, denn wenn sie ihre Arbeit und ihr Leben so vereinbaren können, wie es ihnen am besten passt, wird Stress reduziert und Burnout verhindert.

Außerdem kann die Kombination von Remote- und Büroarbeit ein entscheidender Faktor sein, um eine größere Bandbreite und Tiefe an Talenten zu erschließen, und so können Unternehmen, die hybride Arbeitsmodelle einsetzen, qualifizierteres und vielfältigeres Personal über mehrere Regionen hinweg anziehen als Firmen ohne ein solches Modell.

Die Kombination von Remote- und Büroarbeit ein entscheidender Faktor sein, um eine größere Bandbreite und Tiefe an Talenten zu erschließen.

Henri Schmidt

Trotz der zahllosen Vorteile kann ein hybrider Arbeitsplatz die Möglichkeiten für informelle Schulungen (z.B. Hospitieren) einschränken und sowohl die Integration der Mitarbeiter*innen in die Unternehmenskultur als auch die Leistungsbeurteilung erschweren. Fernarbeitstools ermöglichen es ihnen zwar, mit ihren Kollegen zu kommunizieren, aber die Interaktion ist nicht dieselbe wie in einem Büro. Es gibt auch das Problem der „Zoom-Müdigkeit“ oder des Burnouts durch virtuelle Meetings, das zu einer schlechteren Kommunikation und weniger Zusammenarbeit bei der Fernarbeit führen kann, weshalb es wichtig ist, Möglichkeiten zu schaffen, die die Kommunikation optimieren und das geistige Wohlbefinden fördern. Dadurch werden auch die Verbindungen gestärkt, die Teams zum Erfolg verhelfen.

Fortschritte überwachen, um Probleme abzumildern

Vielfalt am Arbeitsplatz ist ein laufender Prozess. Damit Initiativen zur Förderung der Vielfalt erfolgreich sein können, müssen Arbeitgeber verstehen, wo sich ihre Firma auf dem Weg zu einer vielfältigeren Belegschaft befindet, und die Ergebnisse kontinuierlich auswerten, um Fortschritte zu messen und neue Verbesserungsmöglichkeiten zu ermitteln. Das bedeutet, über die Zahlen hinauszuschauen und sich mit den tatsächlichen Erfahrungen der Mitarbeiter*innen vertraut zu machen. Eine zentrale Rolle spielt hier die Personalabteilung.

Das HR-Team kann zwar Umfragen zu den Erfahrungen ihrer Arbeitskräfte durchführen, doch ist es oft effektiver, die tatsächliche Situation durch regelmäßige persönliche Gespräche zu erfahren. Die ADP-Studie THE HRXPS ergab, dass der persönliche Kontakt mit der Personalabteilung sich auf das Zugehörigkeitsgefühl auswirkt. Arbeitskräfte, die nur eine einzige Kontaktstelle mit der Personalabteilung haben, sagen mit doppelt so hoher Wahrscheinlichkeit, dass die Personalabteilung wertschöpfend ist als Mitarbeitende mit mehreren HR-Kontakten, und mit fünfmal höherer Wahrscheinlichkeit als Arbeitskräfte, die überhaupt keine Personalabteilung haben.

Trotz aller Herausforderungen, die mit der neuen Normalität der hybriden Arbeitsumgebung einhergehen, gibt es für Personalabteilungen und Führungskräfte viele Möglichkeiten, potenzielle Probleme zu entschärfen. Im Wesentlichen beginnen die Lösungen mit der Früherkennung. Eine genaue Beobachtung der Fortschritte bei den Bemühungen um Vielfalt kann helfen, Veränderungen innerhalb des Unternehmens zu erkennen. Es ist besonders wichtig, die Beziehung zwischen dem hybriden Arbeitsumfeld und der Weiterentwicklung von Initiativen zur personellen Vielfalt zu beobachten, da neue Vorschriften die Dynamik am Arbeitsplatz schnell verändern und sich auf die Organisationskultur und die Erfahrungen des Einzelnen in einer Weise auswirken, die noch nicht vollständig verstanden wird. Die Untersuchung dieser Trends kann Personalverantwortlichen die Möglichkeit bieten, Praktiken mit positiven Ergebnissen zu verdoppeln und kleine Probleme zu beheben, bevor sie größer werden.

Neben der Überwachung des Fortschritts ist auch das Sammeln und Analysieren von Daten notwendig, um diese Initiativen erfolgreich zu machen. Der beste Ausgangspunkt für alle Initiativen in den Bereichen Vielfalt, Gleichberechtigung und Inklusion ist das Verständnis der demografischen Zusammensetzung der Belegschaft. So können die HR-Teams beurteilen und Prioritäten setzen, was zu tun ist und worauf sie sich konzentrieren müssen. Allgemeine Unternehmensdaten sind wichtig, aber ein Dashboard kann helfen, tief in die Daten zur Diversität einzutauchen, aufgeschlüsselt nach Firmen, Abteilung und Stellenebene. Dies hilft Unternehmen auch dabei, die Kennzahlen mit denen anderer Organisationen zu vergleichen und Erkenntnisse darüber zu gewinnen, wo sie investieren sollten, um wettbewerbsfähig zu bleiben.

Maßnahmen schnell ergreifen

Das Beste, was Arbeitgeber tun können, um Fortschritte bei der personellen Vielfalt vor den Herausforderungen hybrider Arbeit zu schützen, ist schnell und sinnvoll zu handeln, wenn Probleme festgestellt werden. Dazu sollte gehören, dass diejenigen, die gegen Verhaltensregeln verstoßen, gemaßregelt werden, und dass Ressourcengruppen für Mitarbeiter*innen eingerichtet werden, die sich mit Fragen der Vielfalt befassen. Eine integrative Arbeitsstelle ist per Definition ein Arbeitsplatz, an dem alle das Gefühl haben, dazuzugehören und für das, was sie sind und in die Firma einbringen, geschätzt zu werden. Die Belegschaft muss sehen und hören, dass sich die Führungskräfte auf allen Ebenen des Unternehmens dafür einsetzen, das Beste für sie zu tun.

Die Dynamik am Arbeitsplatz verändert sich schnell dank der Zunahme der hybriden Arbeitsumgebung, des technologischen Fortschritts und der kulturellen Entwicklungen, die sich in den Prioritäten der Mitarbeiter*innen widerspiegeln. Es ist die Aufgabe der Führungskräfte, mit diesen Veränderungen Schritt zu halten und ihre Auswirkungen auf die Unternehmenskultur, die Fortschritte bei der Vielfalt und die Erfahrungen der Arbeitskräfte im Auge zu behalten.

Es ist eine schwierige Aufgabe, aber Arbeitgeber, die sich jetzt darum bemühen, den Stand der Dinge in ihrem Unternehmen zu ermitteln, haben bessere Chancen, die Fortschritte wirksam zu überwachen, Probleme frühzeitig anzugehen und ihre Weiterentwicklung auf dem Weg zu einem vielfältigeren und integrativeren Arbeitsplatz zu schützen.

Weitere Informationen unter:
https://www.de-adp.com/

Penetrationstest: Realistisches Bild der Angreifbarkeit von IT-Infrastrukturen

Wo Kommunikationstechnologien und Internet zum Einsatz kommen, da sind vorhandene IT-Infrastrukturen angreifbar. Dieses Wissen ist vor allem für Unternehmen wichtig, die besonderen Wert darauf legen müssen, ihre sensiblen Daten vor unberechtigten Zugriffen zu schützen.

Jede Technik bietet Schwachstellen

Es ist sicher nicht unberechtigt zu behaupten, dass jede Technik, sei sie auch noch so ausgereift, immer auch Schwachstellen hat, die es nach und nach durch Weiterentwicklung, Updates oder ähnliche Maßnahmen zu beseitigen gilt.

Hackern gelingt es leider immer wieder, von außen oder sogar von innen in die IT-Infrastrukturen einzudringen und die unternehmenseigenen IT-Systeme zu kompromittieren. Es werden Daten gestohlen oder Schadsoftware (z. B. Exploits) installiert, die dann Teile der IT oder gar das gesamte System lahmlegen. Immer öfter werden auf diese Weise Versuche gestartet, Unternehmen zu erpressen.

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) gibt zwar regelmäßig Hinweise zur Verbesserung des IT-Schutzes, aber die Methoden im Bereich der Cyber-Kriminalität werden immer ausgefeilter, die eingesetzten Technologien sind immer komplexer und die Risikobereitschaft der zahlreicher werdenden Hacker nimmt ebenfalls deutlich zu.

Aus diesen Gründen nimmt das Bedrohungspotenzial stetig zu und zu den immer ausgefeilteren Methoden der Hacker kommt die verstärkte Nutzung von Kommunikations- und Speichertechnologien hinzu. So hat eine von IDG beauftragte Studie namens Cloud Security aus dem Jahr 2019 gezeigt, das 37 Prozent aller deutschen Unternehmen hinsichtlich der Cloud-Sicherheit auf klassische Sicherheitsmaßnahmen wie Datenverschlüsselung und VPN vertrauen.

Genau hier können Unternehmen für IT-Sicherheitsbewertungen ihre Expertise zur Verfügung stellen. Das ist sinnvoll, weil viele Unternehmen über das eigentlich notwendige Know-how nicht verfügen. Sogenannte Penetrationstests können etwa Cyber-Gefahren in den Bereichen Phishing und Distributed Denial of Service (DDoS) identifizieren und so die Grundlage zur Beseitigung entdeckter Schwachstellen sein.

Solche Pentests sind in begrenztem Umfang für einzelne Unternehmensbereiche wie die Cloud, die unternehmenseigene Web Application oder die Bereiche WLAN oder Mobile & API möglich. Es besteht aber auch die Möglichkeit, einen umfassenden externen und internen Penetrationstest bzw. einen Szenario-basierten Pentest (ATT & CK) durchzuführen. Diese Tests führt man aus der Perspektive der Hacker durch, das bedeutet, sie greifen auf Hackerwissen zurück und schlagen sie so mit ihren eigenen Waffen.

Seit dem Beginn der Corona-Pandemie hat sich die Zahl der Hacker-Angriffe noch einmal deutlich erhöht. Bevorzugte Ziele sind hier ohnehin häufig angegriffene Branchen, etwa Gaming-Unternehmen, Internet- und Telekommunikationskonzerne sowie Finanzdienstleister. Aber auch Energie- und Pharmakonzerne sowie staatliche Institutionen werden immer öfter Opfer von Cyber-Attacken. Bei ihnen besteht ein besonders hohes Bedrohungspotenzial, weil sie wichtige Produkte (Impfstoffe, Medikamente) herstellen, viele Nutzer haben (Gaming und Internet- bzw. Kommunikation) oder die Versorgung der Bevölkerung bzw. die öffentliche Ordnung gewährleisten und dadurch erpressbar sind (Energieunternehmen, staatliche Institutionen).

Durch Weiterentwicklung der Cybersecurity können Schwachstellen der IT-Infrastrukturen beseitigt werden.

Wie Penetrationstests die Angreifbarkeit von IT-Infrastrukturen verringern

Im Grunde ist ein Pentest der Versuch eines IT-Sicherheitsexperten, mit den Mitteln von Hackern, von außen oder von innen in die IT-Infrastrukturen eines Unternehmens eindringen. Dazu sammelt er zunächst alle verfügbaren Daten über vorhandene interne IT-Systeme sowie interne und externe Dienste, die vom Unternehmen genutzt werden. Diese durchforstet er auf der Suche nach Fehlkonfigurationen oder falschen Programmierungen. Zudem versucht er, Schadprogramme bzw. Befehlsfolgen ausfindig zu machen. Diese nutzen Hacker aus, um in ein System einzudringen.

Pentest-Experten nutzen das Wissen eines Hackers. Bild: Pixabay, B_A

Ein weiterer Schritt beim Penetrationstest besteht darin, zu ermitteln, ob und inwieweit sich gefundene Fehlkonfigurationen, Exploits oder Befehlsfolgen ausnutzen lassen, um ins System zu gelangen. Im Rahmen eines mit dem beauftragenden Unternehmen exakt abgestimmten Tests versucht der IT-Experte schließlich, die gefundene Schwachstelle auf sichere Art auszunutzen, tiefer ins System einzudringen und von dort aus auch weitere IT-Systeme zu infiltrieren.

Ein solcher Pentest kann als externer Test durchgeführt werden oder intern vonstatten gehen. Der interne Penetrationstest ist deshalb ratsam, weil Hacker nicht davor zurückschrecken, IT-Infrastrukturen innerhalb des Unternehmens anzugreifen, etwa mittels Host- oder Server-Infiltration. Aber auch durch Einschleusen bzw. Bestechen eines Mitarbeiters kann versucht werden, die IT-Infrastruktur von innen heraus zu infiltrieren und für die eigenen, meist kriminellen Zwecke zu nutzen. Dazu genügt oft schon ein simpler USB-Stick, der einen Trojaner enthält.

Unvorsichtige Mitarbeiter erhöhen die Angreifbarkeit von IT-Infrastrukturen

Wie heißt es häufig bei Unfällen: „Grund war menschliches Versagen“. Allzu oft ist der Mensch also der entscheidende Faktor und dies gilt auch für den Bereich der IT-Sicherheit. Vor allem, wenn private Geräte für berufliche Aufgaben genutzt werden, können sich dadurch Einfallstore für Hacker öffnen.

Ein privates Notebook oder Smartphone sind fast immer nicht so effizient gegen Kompromittierung gesichert, wie rein beruflich verwendete Endgeräte. Grund hierfür ist, dass sie eben in der Regel keine sensiblen bzw. für Hacker interessante Daten enthalten. Dies ändert sich, sobald ein Mitarbeitender sie, mit oder auch ohne Erlaubnis seines Unternehmens, doch für Tätigkeiten verwendet, die mit seinem Beruf zu tun haben. Hacker leben auch vom Sammeln wichtiger Informationen und so wird es ihnen nicht verborgen bleiben, wenn private Endgeräte am Arbeitsplatz zum Einsatz kommen.

Sie werden versuchen, über eben diese Geräte Zugang zum unternehmenseigenen IT-System zu erlangen. Dies gelingt ihnen fast immer wesentlich schneller und einfacher, als die Infiltration gut gesicherter Unternehmens-Infrastrukturen.

Fazit: Nur IT-Sicherheitsstrategie ist effektiver Schutz für IT-Systeme

Die Vielfältigkeit der Methoden und Tools, die Hacker einsetzen, um in IT-Infrastrukturen einzudringen, erfordert mehr als nur die regelmäßige Kontrolle der Systeme. Es bedarf einer umfassenden Strategie zum Schutz der unternehmenseigenen Informations- und Kommunikationstechnik. Nur mit einer solchen lassen sich sensible Daten und Unternehmensgeheimnisse effizient schützen.

Über den Autor

Seyit Binbir

Mit seinen Ratgebern über zeitaktuelle Themen hilft Seyit Binbir dabei, interessante Themen mit seinen Lesern zu teilen. Er ist außerdem Vertrauter und Wegbereiter vieler Start-Up Unternehmen im digitalen Sektor und Autor für Finanzthemen.

Aufmacherbild : Pixabay, jaydeep_

Marketing, Vertrieb und KI – der Beginn einer wunderbaren Freundschaft

Andreas von Hayn sieht in KI einen „wunderbaren Freund“ für Marketing und Vertrieb

Das gleiche Ziel vor Augen haben, aber völlig unterschiedliche Wege wählen. Mit diesen Worten lässt sich das typische Verhältnis von Marketing und Vertrieb in Unternehmen zusammenfassen. In beiden Abteilungen kreisen die Gedanken und Aktivitäten um Kundinnen und Kunden, um das Ausloten von Anforderungen, um das Befriedigen von Bedürfnissen. Aber Arbeitsweisen, Vorgehen und Kennzahlen unterscheiden sich grundlegend. Diese Unterschiede sind die Ursache für mangelndes Verständnis und eine unzureichende Zusammenarbeit zwischen den Abteilungen. Die Folge: Unternehmen schöpfen das Potenzial des Marktes nicht aus, Beschäftigte sind frustriert.

Anwendungen, die auf Verfahren der Künstlichen Intelligenz (KI) beruhen, können dies verändern. Denn sie erlauben es Vertrieb und Marketing, neue Abläufe und Ansätze in die eigene Arbeitsweise zu implementieren. Stichworte sind das Automatisieren von Kommunikation und Recherche. So nähern sich Vorgehen und Ziele auf beiden Seiten immer weiter an. Am Ende steht eine gemeinschaftliche Verantwortung für die gesamte Marktbearbeitung, von der ersten Ansprache bis zum Vertragsabschluss.

Geeint im Ziel, getrennt im Vorgehen

Der typische Arbeitstag im Vertrieb besteht aus der Arbeit mit einzelnen Menschen. Der Erfolg steht und fällt mit dem persönlichen Kontakt. Die Interessen des Gegenübers sind die Grundlagen für die eigenen Aktivitäten: Was ist die Ausgangssituation dieser Ansprechpartnerin oder dieses Ansprechpartners? Was sind die Ziele? Welches unserer Angebote passt am besten zu dieser Person? Dieses Setting kann, je nach Branche und Unternehmen, beliebig komplex werden: Buying Center, Selling Center, mehrstufige Auswahlverfahren, monate- oder sogar jahrelange Prozesse. Aber die Grundlage bildet immer die individuell zugeschnittene Kommunikation. Vertriebsmitarbeiterinnen und -mitarbeiter investieren viel Zeit in das Aufbauen und Pflegen dieser Beziehungen.

Demgegenüber steht das Marketing. Hier bestimmen das Denken in Zielgruppen, Kampagnen und Kanälen die Aktivitäten. Ob Webseite, Social-Media-Aktvitäten oder klassische Instrumente wie Mailings: Adressat ist in der Regel eine größere Gruppe mit einigen homogenen Eigenschaften. Eigenschaften, die sie für das Marketing interessant machen. Die Eltern mit Neugeborenen, die IT-Entscheiderin mit mehr als 20 Millionen Euro Jahresbudget, der abnehmwillige Jogger Anfang 50. Demographische oder sozio-ökonomische Faktoren bestimmen die Zusammensetzung der Zielgruppen. Für diese entwickeln die Verantwortlichen überzeugende Kommunikationsangebote.

KI-basierte Anwendungen verändern beide Aufgabenbereiche nachhaltig. Sie automatisieren die im Vertrieb notwendige Recherchearbeit, gleichzeitig erlauben sie das Individualisieren der Kommunikation im großen Maßstab.

Leads auf Knopfdruck

Die richtige Person zur richtigen Zeit mit dem richtigen Thema ansprechen: Unabhängig von aller Technologie ist dies die Grundlage für Vertriebsarbeit. Kommunikations- und damit Vertriebsimpulse stammen aus unterschiedlichen Quellen. Vom Branchenfachblatt über die Kundenwebseite bis hin zu Veranstaltungshinweisen und Social-Media-Aktivitäten. Vieles, was das das Vertriebsteam bisher in Handarbeit recherchieren musste, automatisieren KI-Lösungen.

Suchmaschinen oder sogenannte News Alerts erleichtern diese Aufgabe. Deutlich weiter geht das Potenzial von KI-Anwendungen, die auf die Arbeit im Vertrieb zugeschnitten sind. Sie recherchieren nicht nur vertriebsrelevante Daten, sie prüfen, bewerten, vergleichen, gewichten und aggregieren. Sie ziehen die Informationen aus bestehenden Systemen wie der Customer-Relationship-Management (CRM)- oder Enterprise-Ressource-Planning (ERP)-Datenbank hinzu. Am Ende steht eine Übersicht, die Kommunikationsansätze auflistet und Verkaufschancen bewertet. Diese Übersicht bildet die Basis für die Aktivitäten der einzelnen Vetriebsmitarbeitenden. Auf dieser Grundlage von Personen und Themen baut ihre Arbeit auf.

KI automatisiert bisher zeitaufwändige Recherchearbeiten im Vertrieb. Was bisher zum größten Teil in Handarbeit geschah, wird dank ausgefeilter Anwendungen automatisiert. Am Ende steht den Mitarbeitenden in kürzerer Zeit eine bessere Datenbasis zur Verfügung.

Kommunikation auf Knopfdruck

Automatisierung im Marketing bedeutete bisher das Einrichten und Ausführen von Kampagnenprozessen. Beispielsweise durch das eigenständige Versenden von E-Mails auf Basis des Besuchsverhaltens auf der Website. Aber das Erstellen und Aufbereiten von Inhalten war eine Arbeit, die nur Menschen übernehmen konnten. Mit all den Limitierungen, die dies für die Kommunikation mit sich bringt. Denn das Schreiben von Texten für Webseiten, Banner oder Mailings ist mit manuellem Aufwand – und entsprechend hohem – Zeitbedarf verbunden. Naturgemäß konzentrierten sich die Verantwortlichen auf die wichtigsten Produktkategorien, die dominantesten Kanäle und die interessantesten Zielgruppen. Anwendungen auf Basis von KI eröffnen den Marketingabteilungen neue Möglichkeiten für das Verfassen und Verteilen von Inhalten. Basis dafür ist die Fähigkeit zum Umgang mit geschriebener Sprache, das sogenannte Natural Language Generation (NLG).

Ziel von Anwendungen auf NLG-Basis ist das Erstellen natürlichsprachlichen geschriebenen oder gesprochenen Worten/Sätzen. KI-Anwendungen helfen den Marketingabteilungen dabei, das Produzieren von Inhalten teilweise zu automatisieren. So eröffnen sich ganz neue Möglichkeiten der Individualisierung – und das im ganz großen Maßstab. Auch für Nischenprodukte oder kleinere Zielgruppen rechnet es sich, Kampagnen auf- und umzusetzen. Denn mehr Personalisierung von Inhalten und Botschaften sorgt beim Empfänger für mehr Interesse. Und aus Interesse entsteht Interaktion, beispielsweise das Lesen eines Beitrages, das Klicken auf einen Button oder das Bestellen eines Produktes. Die Kombination aus strukturierten Daten, Textvorlagen und NLG-Fähigkeiten sorgt für Varianz und Passgenauigkeit der Ansprache. Ein Aufwand, der in Handarbeit wirtschaftlich kaum sinnvoll zu realisieren ist.

KI automatisiert Teile der bisher manuellen Content-Arbeit im Marketing. Bisher war es wirtschaftlich kaum sinnvoll, einzelne Personen gezielt mit individuellen Inhalten anzusprechen. Oder für Nischenprodukte speziellen Content aufzubereiten. Anwendungen auf KI-Basis ermöglichen genau das. Sie erweitern die Möglichkeiten der Marketingverantwortlichen deutlich.

An den Daten hängt alles

Die beschriebenen Möglichkeiten sorgen für ein Zusammenwachsen der Aufgabenbereiche in Marketing und Vertrieb. Denn die Grundlage für den erfolgreichen Einsatz von KI – ob in Marketing und Vertrieb – bildet die vorhandene Datenbasis. Ob aus Informationen aus Vertragsdaten, aus Produkt- und Servicebeschreibungen, Auswertungen der Website, Social-Media-Aktivitäten oder Kontakten zum Kundenservice: Aus all diesen und aus zahlreichen weiteren Datenquellen lässt sich ein vollständiges Bild über individuelle Vorlieben, Interessen und Kaufwahrscheinlichkeiten zeichnen.

Die Verantwortlichen werden dieses Bild nur zeichnen können wenn – und diese Einschränkung ist entscheidend – es ihnen gelingt, diese verschiedenen Quellen zur einer einheitlichen Datenbasis zu vereinen. Allerdings stehen existierende Silos, parallele gehaltene Datenbanken oder die Excel-Liste auf dem Rechner einer Vertriebsmitarbeiterin dem im Weg. Die Qualität dieser Datenbasis ist entscheidend für den Erfolg von Kommunikations- und Vertriebsinitiativen. Und für die Qualität sind beide Seiten – Marketing und Vertrieb verantwortlich. Es gibt keinen Sales- und keinen Marketingblickwinkel. Denn diese Daten sind sowohl die Grundlage für die Recherchearbeit des Vertriebes als auch die Content-Arbeit des Marketings. Beide Seiten haben ein originäres Interesse daran, Daten zu erfassen, zu pflegen, zu aktualisieren und gemeinsam zu nutzen.

Aus dieser gemeinsamen Verantwortung kann ein neues Verständnis und Zusammenrücken entstehen – wenn das Management diesen Prozess bewusst plant. Denn die Arbeit und die Prozesse im Marketing und Vertrieb gleichen sich, dank KI-gestützter Anwendungen, weiter an. Im Zentrum steht immer häufiger das Adressieren einer einzelnen Person. Mit welchen Themen wie aufbereitet und über welche Kanäle diese Person angesprochen wird: Dabei spielen KI-Lösungen eine immer größere Rolle. Lösungen, die die Arbeit und Zusammenarbeit von Marketing und Vertrieb nachhaltig ändern.

Über den Autor

Andreas von Hayn studierte an der Ruhr-Universität Bochum Wirtschaftswissenschaft mit den Schwerpunkten Marketing und Sozialpsychologie. Nach Stationen im SAP- und Microsoft-Partnerumfeld ist er seit 2012 im Bereich Corporate Communications der adesso SE aktiv. Hier organisiert er unter anderem Kommunikationskampagnen rund um Themen wie Digitale Transformation oder Künstliche Intelligenz.

Weitere Informationen unter:
www.adesso.de

„Der Weg ist das Ziel“

Conrad Electronic befindet sich auf dem Weg der kompletten Neuausrichtung. Dazu sprachen wir mit dem CEO Ralf Bühler.

Wieso liegt für Sie die Zukunft Ihres Unternehmens im Wandel hin zu einer Sourcing Platform?
Das Ziel, uns zur Europas führender Beschaffungsplattform für die Deckung des kompletten technischen Betriebsbedarfs zu entwickeln, haben wir uns nicht von heute auf morgen gesetzt. Bereits seit geraumer Zeit fokussieren wir uns auf das B2B-Geschäft. Dies brachte und bringt die konsequente Digitalisierung unseres Geschäftsmodells mit sich. Die Conrad Sourcing Platform, wie wir sie heute bereits kennen, ist das Ergebnis dieser Entwicklung. Aktuell sind dort mehr als 6 Millionen Produktangebote zu finden. Doch ein umfassendes Sortiment alleine reicht nicht aus. Mit maßgeschneiderten Lösungen wollen wir Problemlöser für unsere Geschäftskunden sein, sie bei der Digitalisierung ihrer Beschaffung unterstützen und ihnen so Zeit und Kosten beim Einkaufsprozess sparen.

Wo befinden Sie sich auf diesem Weg und was sind die aktuellen Herausforderungen? Wie nehmen Sie die Mitarbeiter mit „auf die Reise“?
Die strategisch wichtigen Weichen fürs Erreichen unseres Ziels sind gestellt. Trotzdem ist und bleibt es wichtig, offen zu sein für Neues und sich im Bedarfsfall immer neu zu justieren. Das heißt auch, dort, wo sinnvoll, Partner an Bord zu holen, um neue Lösungen zu schaffen. Entscheidend für erfolgreichen Change ist es, die eigene Komfortzone zu verlassen und einen Blick über den Tellerrand zu werfen. Und natürlich trifft das nicht nur auf die Geschäftsführung, sondern alle Mitarbeitenden zu, von deren Kompetenzen und kreativen Ideen jedes Unternehmen lebt. Gerade in Zeiten von dezentralem Arbeiten ist es eine besondere Herausforderung, alle Beteiligten mitzunehmen. Genau hier greift aber unser Conrad-Spirit: Ärmel hochkrempeln und mit innovativen Konzepten und Teamspirit das gemeinsame Ziel erreichen. Exemplarisch dafür stehen unsere internen Conrad Experience Days, die wir dieses Jahr komplett virtuell veranstaltet haben und an denen drei Tage lang in mehr als 60 Live-Sessions die Themen Strategie, Kundenzentrierung und Digital Mindset behandelt und reflektiert wurden.

Weshalb setzt Conrad – im Gegensatz zu vielen Konkurrenten – trotz Automatisierung und Digitalisierung auf den Faktor Mensch?
Als traditionsreiches Familienunternehmen gehen wir unseren eigenen Weg und setzen auf Menschen und Maschinen. Auch wir digitalisieren und automatisieren unsere Prozesse, legen zugleich jedoch größten Wert auf regelmäßigen Austausch und direkten Kontakt. Nur wer versteht, was Geschäftskunden und -partner wirklich brauchen, kann sich entlang dieser tatsächlichen Anforderungen weiterentwickeln.

Wie wichtig ist Fachexpertise bei dieser Strategie und wie wollen Sie diese noch weiter stärken?
Regelmäßige Befragungen und Einzelinterviews helfen uns dabei, die Herausforderungen zu identifizieren und unsere Leistungen entsprechend anzupassen. Darüber hinaus sind und bleiben der persönliche Kontakt im Key Account Management und Inside Sales sowie die Geschäftskundenbetreuung in unseren Filialen zentraler Bestandteil unseres Angebots.

Die Filialen haben Conrad „das Gesicht gegeben“ und den Kunden eine Anlaufstelle. Welche Rolle spielen diese in der Zukunft?
Auch wenn sich unser Fokus in den vergangenen Jahren mehr in Richtung Online und B2B verschoben hat, verlieren wir den Stationärhandel nicht aus den Augen und setzen gemäß unserer Plattform-Strategie auch weiterhin auf die Vernetzung von Onlineshop und Filialen. Wir arbeiten intensiv an zukunftsfähigen und wirtschaftlich erfolgreichen Konzepten, um auch weiterhin mit unseren Kund*innen vor Ort in direkten Kontakt zu treten. Beim Konzept für eigene B2B-Filialen sind wir bereits einen Schritt weiter und haben zwischenzeitlich die Filiale in Hürth eröffnet.

Und welche Rolle kann Conrad mit seinen Lösungen und digitalen Services ganz speziell in der Technologie-Beschaffungsbranche spielen?

Unsere Umfragen haben Versorgungssicherheit, Kostenreduzierung und Lieferantenmanagement als wichtigste Herausforderungen im professionellen Einkauf identifiziert. Abgesehen vom maßgeschneiderten Sortiment geht es also auch bei der Technologie-Beschaffung darum, Prozesse zu verschlanken, indem man die Möglichkeiten elektronischer Beschaffung nutzt. Deshalb bauen wir unser Angebot im Bereich E-Procurement kontinuierlich aus und ermöglichen so jedem Unternehmen die passende elektronische Einkaufsanbindung, um auf unser umfassendes Angebot zugreifen zu können. Mit Conrad Smart Procure (CSP) bieten wir eine eigene kostenlose und browserbasierte Lösung für kleinere Betriebe, während größere Unternehmen mit eigenem Beschaffungssystem sich per OCI-Schnittstelle oder E-Katalog an die Conrad Sourcing Platform anbinden können. Dazu gesellen sich Features wie unsere Single-Creditor-Lösung, um professionelles Einkaufen bei Conrad noch einfacher zu machen.

Welche Vision zeichnen Sie für Conrad nach dem „Umbau“?
Für uns ist der Weg das Ziel, denn einen Umbau im klassischen Sinne gibt es nicht. Die Conrad Sourcing Platform wendet sich bereits heute mit ihrem Angebot an mehr als 2,3 Millionen B2B-Kunden in Deutschland und macht deren Beschaffung einfacher schneller und umfassender. Doch in einer Welt, die sich ständig wandelt, bieten sich natürlich auch für die Conrad Sourcing Platform immer wieder neue Möglichkeiten, um sich dynamisch mit den Anforderungen der Kund*innen weiterzuentwickeln.

Weitere Informationen unter:
www.conrad.de

Ethische Hacker: Lücken finden, bevor es andere tun

Laurie Mercer schildert in seinem Gastbeitrag, wie Unternehmen mit White Hat Hackern in Kontakt kommen können und noch vielmehr, wie sie diese Zusammenarbeit sinnvoll gestalten können. White Hat Hacker sind Spezialisten auf ihrem jeweiligen Gebiet und können mit einem kreativen und technischen Ansatz Sicherheitslücken finden und dokumentieren, bevor andere es tun.

Mit der sich zunehmend weiterentwickelnden digitalen Transformation von Wirtschaft und Gesellschaft steigt zwangsläufig auch der Grad der Vernetzung. Gerade in der Geschäftswelt lassen sich immer mehr Verbindungen hin zu Partnerunternehmen, Lieferanten und Kunden beobachten. Gleichzeitig nimmt die Komplexität der IT-Infrastrukturen immer weiter zu – nicht zuletzt aufgrund neuer Paradigmen sowie immer neuer Funktionen, die von den Systemen bereitgestellt werden. Daher spielt Cybersecurity eine zunehmend wichtigere Rolle, auch, weil das Bedrohungspotenzial stetig zunimmt: Schon 2019 kam eine Studie des Bitkom zu dem Ergebnis, dass drei von vier Unternehmen Ziel von Cyberkriminellen wurden. Seither hat sich die Situation nicht entspannt – ganz im Gegenteil. Dass sich Unternehmensverantwortliche daher nun verstärkt Gedanken hinsichtlich der Verbesserung der IT-Sicherheit machen, ist daher kaum verwunderlich.

Hersteller sind zwar im Regelfall darauf konzentriert, dass ihre Lösungen bereits ab Werk sicher sind, allerdings ist es mit der Sicherheit der Lösung, die „ab Werk“ integriert ist, alleine nicht getan. Denn auch die Implementierung im Anwenderunternehmen und die entsprechende Konfiguration der Software spielt in der Gesamtbetrachtung eine große Rolle. Und genau dies ist häufig der Knackpunkt, wenn es darum geht, Software-Lösungen im Unternehmen sicher zu betreiben.



Sicherheitsrisiken durch Fehlkonfigurationen

Wie häufig Falsch- bzw. Fehlkonfigurationen tatsächlich die Sicherheit von Unternehmen bedrohen, dazu gibt es nur wenige verlässliche Daten. Jedoch lassen die Webauftritte von Organisationen, die einen eigenen Online-Shop betreiben, darauf schließen, dass auch fernab der Quellcodes von Software Sicherheitsrisiken zu finden sind – wie ein Blick auf die Konfigurationen verrät.

In diesem Zusammenhang ist insbesondere IDOR (Insecure Direct Object Reference) ein gutes Beispiel. Hier handelt es sich um eine Fehlkonfiguration in der Zugriffskontrolle, bei der ein direkter Zugriff auf eine interne Datenbank erfolgt und dieser nicht authentifiziert bzw. kontrolliert wird. Nicht selten findet sich dieser Fehler in Web-Apps oder APIs. Angreifern wird es dadurch relativ einfach gemacht, diesen Fehler in ihrem Sinne auszunutzen. Haben Nutzer beispielsweise die Möglichkeit, Inhalte einer Web-Plattform zu ersetzen, kann dies bei einer fehlerhaften Konfiguration dazu führen, dass ein Cyberkrimineller das Verhalten der Plattform ändert, Daten stiehlt oder die Plattform sogar für die Verbreitung von Malware nutzt.

Die Anstrengungen, die Angreifer hierzu unternehmen müssen, halten sich dabei in Grenzen, denn IDOR-Attacken lassen sich einfach umsetzen. Denn es werden HTTP-Anfragen lediglich durch die Veränderung eines Parameters manipuliert. Auf diese Weise gelangt ein Cyberkrimineller an die entsprechenden Informationen. Voraussetzung dafür ist, dass bei der Erstellung von Webseiten oder Web-Apps zu wenig darauf geachtet wird, dass Zugriffe auf Informationen auch kontrolliert werden müssen. Bei böswilligen Hackern sind IDOR-Attacken sehr beliebt und diese können daher relativ oft bei tatsächlichen Angriffen festgestellt werden. Jedoch existieren verschiedene Ausprägungen dieser Angriffsform. Dazu zählen unter anderem:

  • Website- Modifikation: Hier sind Hacker in der Lage, den Wert einer Optionsschaltfläche, eines Kontrollkästchens, von APIs und Formularfeldern zu ändern, um so sich so Zugang zu Informationen von Website-Benutzern zu verschaffen.
  • URL-Manipulation: Dabei wird die URL des Clients durch Veränderung von Parametern der HTTP-Anfrage manipuliert.
  • HTTP-Anfragen: Diese können IDOR-Schwachstellen beinhalten.

Als Beispiel für eine bekanntgewordene IDOR-Schwachstelle kann hier auf die mitunter höchst umstrittene Social-Media- und Microblogging-Plattform Parler verwiesen werden. Diese hatte vor einigen Monaten mit einem umfassenden Datenleck zu kämpfen. Grund dafür war die sichtbare, aufsteigende Nummerierung der URLs von Beiträgen auf dem Dienst – ein meist eindeutiges Indiz für eine IDOR-Schwachstelle. Für Webseitenbesucher war es somit möglich, durch die Veränderung der Nummerierung in der URL jeden beliebigen Beitrag ohne Einschränkungen abzurufen.

Ein Hacker konnte daher – mit nur sehr geringem Aufwand – einen Code schreiben, mit dessen Hilfe jegliche Nachrichten, Bilder, Videos und sonstige Daten von Parler heruntergeladen wurden. Im Falle öffentlicher Beiträge konnten zudem sogar die Geodaten der Autoren abgegriffen werden, was die Wohnorte der Betreffenden offenbarte. Derlei Sicherheitslücken tragen nicht nur zur Rufschädigung einer für eine Webseite verantwortlichen Organisation bei, sondern können auch finanzielle Folgen nach sich ziehen. So zum Beispiel, wenn beim Diebstahl von Daten auch personenbezogene Daten erbeutet werden und in der Folge Strafen der Aufsichtsbehörden drohen.

Schwächen automatischer Tests

Doch wie lassen sich Sicherheitslücken vermeiden? Eine Frage, die sich viele Security-Verantwortliche stellen. In diesen Zusammenhang gibt es zwar eine ganze Reihe von Tools, die jedoch – wie im Falle von IDOR-Lücken – wenig oder nur begrenzt hilfreich sind. Selbst traditionelles Pentesting kann hier nur von Erfolg gekrönt sein, sofern der jeweilige Tester alle nur möglichen Parameter in sämtlichen Abfragepunkten prüft. Für die Sicherheitsverantwortlichen sind solche Angriffsversuche ferner eine Herausforderung und verlangen ihnen einiges ab. Denn ihre Verhinderung bedarf einem hohen Maß an Kreativität sowie zahllose Security-Tests. Nur so lassen sich derartige Schwachstellen identifizieren.

Hilfe kommt aus der White-Hat-Community

Technische Lösungen bieten kurz- und mittelfristig betrachtet keine Abhilfe, wenn es um die Behebung von Schwachstellen geht, da sie schlicht nicht den Einfallsreichtum und Kreativität von Menschen abbilden können. Die Verantwortlichen müssen somit neue Wege bestreiten, um sich dem Problem zu widmen. Nicht selten sind die IT-Teams der Unternehmen allerdings bereits vollends ausgelastet. Ihnen eine zusätzliche Aufgabe zuzumuten, die noch dazu ein hohes Maß an Sorgfalt erfordert, würde zwangsläufig zu einer Überforderung führen. Was also tun?

Abhilfe können hier unabhängige Profis bieten, die die Prüfung von Konfigurationen übernehmen – verständlicherweise vor dem Produktivbetrieb. Denn geschieht die Identifizierung von Schwachstellen erst im laufenden Betrieb, kann es bereits zu spät sein und ein Cyberkrimineller war schneller. Dies kann zur Folge haben, dass die Sicherheitslücke unter Umständen gewinnbringend versteigert wird.

Für Unternehmen ist es mitunter jedoch nicht einfach, mit entsprechenden Experten in Kontakt zu kommen. Auch wissen sie oft nicht, welche Budgets für externe Security-Leistungen einzuplanen sind.

Nur den wenigsten kommt in diesem Zusammenhang in den Sinn, dass für eine solche Aufgabe genau diejenigen am ehesten in Frage kommen, vor denen sich Unternehmen im Regelfall zu schützen versuchen: Hacker. Denn es gibt nicht nur Hacker, die in illegaler Absicht agieren. Neben Cyberkriminellen gibt es auch die sogenannten White-Hat-Hacker, also ethische Hacker, die zur Steigerung der Cybersicherheit beitragen können – und was noch wichtiger ist, dies auch wollen. Deren Kreativität und Fachkenntnis kann bei der Identifizierung von Schwachstellen in Unternehmen einen unschätzbaren Beitrag leisten.

Ethische Hacker tragen zur Sicherheit bei

Es ist vergleichsweise einfach, diese ethischen Hacker zu finden und mit ihnen in Kontakt zu treten. Voraussetzung dafür ist jedoch, dass man weiß, wo man suchen muss. An dieser Stelle kommen Bug-Bounty-Plattformen wie HackerOne ins Spiel. Diese dienen in der Praxis als Mittler zwischen Unternehmen und den White-Hat-Hackern. Außerdem gehört es zu ihren Aufgaben, dass alle Parteien von der gemeinsamen Arbeit profitieren.

Wenn sich eine Organisation dazu entschließt, auf die Hilfe von Hackern zu setzen, wird diesen gestattet – in Abhängigkeit der individuellen Vereinbarung und der Ziele – beispielsweise die Konfiguration von Anwendungen, Apps, Webseiten oder gar der gesamten Infrastruktur bezüglich etwaiger Schwachstellen zu untersuchen. Die Vergütung der Hacker orientiert sich an einem vorab vereinbarten Prämienmodell. Für ein Unternehmen entstehen folglich nur dann Kosten, sofern Hacker bei ihrer Suche auch auf Sicherheitslücken stoßen und diese entsprechend der festgelegten Verfahrensweise melden. Die Prämienhöhe richtet sich für gewöhnlich danach, wie schwerwiegend eine gefundene Schwachstelle ist – je gravierender die Lücke, desto höher die Prämienzahlung.

Ein weiterer Vorteil für die Organisationen ist die Skalierbarkeit des Ansatzes. Auf diese Weise lassen sich die Ausgaben und Kosten stets nachvollziehen und überblicken. Zudem müssen keine neuen Mitarbeiter eingestellt werden, da nun externe Fachleute das Aufspüren von Sicherheitslücken übernehmen.

Rechtlich auf der sicheren Seite

Grundsätzlich ist die Vorgehensweise von Hackern – also ein Einbruch in fremde Systeme – per se illegal. Daher muss für beide Seiten zunächst eine rechtliche Absicherung erfolgen und es muss vereinbart werden, was genau die Hacker dürfen und was nicht. Solche Vereinbarungen werden auf Basis sogenannter VDPs (Vulnerability Disclosure Program) getroffen. Diese VDPs bilden ein zentrales Element der Verträge zwischen Hackern und der jeweiligen Organisation. Dies spart den Unternehmen Zeit, da nicht mit jedem Hacker ein individueller Vertrag geschlossen werden muss – dies übernimmt die Bug-Bounty-Plattform.

Die Umgebung, in der die so rekrutierten White Hats versuchen, die Systeme der Organisation zu kompromittieren, muss so weit wie möglich den realen Gegebenheiten entsprechen. Die Hacker müssen also die gleichen Voraussetzungen für ihre Tests haben, wie sie auch kriminelle Hacker vorfinden würden. So lässt sich gewährleisten, dass eine entdeckte Sicherheitslücke auch bei einem realen Angriff das Eindringen von Unbefugten zur Folge hätte und eine Behebung der Schwachstelle notwendig ist. Zudem ermöglicht dies den Security-Verantwortlichen aufseiten der Organisation einen Einblick darin, welche Auswirkungen eine Attacke nach sich ziehen würde.

Sobald der Hacker eine Sicherheitslücke entdeckt, erstellt er eine umfassende Dokumentation, die das Unternehmen sodann zur Behebung der Schwachstelle nutzen kann. Durch diese Dokumentation profitiert eine Organisation nicht nur von den Informationen zur Schwachstelle selbst, sondern auch vom Know-how der Hacker, sodass ähnliche Lücken in Zukunft vermieden werden können.

Bei den Hackern, auf die die Unternehmen so zurückgreifen können, handelt es sich um ausgewiesene Experten auf ihrem Gebiet. Ebenso wie kriminelle Hacker sind sie in der Lage, Sicherheitslücken zu identifizieren und Systeme zu kompromittieren. Doch anders als ihr kriminelles Pendant tragen sie mit ihrem Tun zur Stärkung der IT-Sicherheit bei und leisten so einen wichtigen Beitrag zum Schutz von Unternehmen – auch von deren Kunden. Mittels dieses Ansatzes lassen sich zudem ein drohender Reputationsverlust sowie etwaige Strafzahlungen in Folge einer erfolgreichen Cyberattacke vermeiden.

Autor:

Laurie Mercer ist Security Engineer bei HackerOne. Er verfügt über einen starken technischen Hintergrund, da er sowohl als Entwickler als auch als Penetrationstester gearbeitet hat. Zuletzt arbeitete er als Solution Engineer für große SAST-Programme.

Weitere Informationen unter:
https://www.hackerone.com/

 

E-Commerce Studie 2021

Die E-Commerce Studie 2021 von Sendcloud: Neueste Erkenntnisse zum Verbraucherverhalten im E-Commerce

Der deutsche E-Commerce ist in den letzten Jahren stetig gewachsen: Letztes Jahr erreichte der Gesamtumsatz in Deutschland einen Rekordwert von über 72,8 Milliarden Euro, was gegenüber dem Vorjahr einem Wachstum von rund 23 Prozent entspricht. Ein wachsender E-Commerce bedeutet für stationäre Händler neue Herausforderungen. Wer nicht rechtzeitig auf eine Omni-Channel-Strategie umstellt, wird den Anschluss verlieren. Insbesondere die Corona-Krise, die zur vorübergehenden Schließung zahlreicher Geschäfte führte, hat dies deutlich gemacht!

Ergebnisse der E-Commerce Studie 2021

Was steckt hinter dieser Entwicklung im E-Commerce? Das haben sich auch die Versand-Experten von Sendcloud, der All-in-One Versandsoftware im Onlinehandel, gefragt. Sie haben daher die E-Commerce Studie 2021 ins Leben gerufen, mit dem Ziel, mehr darüber zu erfahren, wie europäische Verbraucher über den aktuellen Stand der E-Commerce Branche denken.

Die Ergebnisse der Studie basieren auf einer von dem Unternehmen in Zusammenarbeit mit Nielsen durchgeführten Online-Umfrage, innerhalb derer zwischen Februar und März 2021 europaweit in mehr als acht verschiedenen Ländern insgesamt 7.873 Verbraucher befragt wurden. In Deutschland nahmen 1.002 Verbraucher an der Umfrage teil.

In den anderen Ländern gestaltete sich das Teilnehmerspektrum wie folgt:

  • Vereinigtes Königreich: 1.003 Teilnehmer
  • Spanien: 1.000 Teilnehmer
  • Italien: 1.001 Teilnehmer
  • Niederlande: 1.002 Teilnehmer
  • Frankreich: 1.001 Teilnehmer
  • Österreich: 863 Teilnehmer
  • Belgien: 1.001 Teilnehmer

Teilnehmer an der Umfrage in Europa

Innerhalb der Umfrage wurden die Verbraucher zu jedem einzelnen Aspekt der Versandabwicklung befragt, vom Checkout bis zur Durchführung von Retouren. Darüber hinaus wurden Daten zum aktuellen Stand des internationalen Versands gesammelt. Daneben wurden ebenso länderspezifische Reportings erstellt, um die einzelnen Besonderheiten der jeweiligen Länder im internationalen Vergleich besser darstellen zu können.

Im Folgenden werden nun die wichtigsten Erkenntnisse der Sendcloud E-Commerce Studie 2021 vorgestellt. Um mehr Details zu den einzelnen Punkten der umfangreichen Studie zu erfahren, empfehle ich Ihnen, sich die komplette E-Commerce Studie 2021 kostenfrei herunterzuladen!

Der Checkout und seine Bedeutung für Kaufabbrüche

Betreiber eines Onlineshops erleben immer wieder das Phänomen, dass viele ihrer potenziellen Kunden ein Produkt in den Warenkorb legen, ihre Customer Journey aber anschließend nicht mehr fortsetzen und die Seite, ohne einen Kauf zu tätigen, wieder verlassen. Über die Höhe der Kaufabbrüche entscheidet insbesondere der Checkout.

Die E-Commerce Studie 2021 hat in Bezug auf den Checkout folgende Faktoren ermittelt, die einen Kaufabbruch des Kunden zur Folge haben können:

  • Der Onlineshop veranschlagt zu hohe Versandkosten (68 %)
  • Die angegebene Versanddauer ist zu lange (44 %)
  • Der Kunde hat mit dem Versandunternehmen, über das der Shop versendet, bereits schlechte Erfahrungen gemacht (20 %)

Insbesondere Versandkosten sind schon seit längerem ein schwieriges Thema. Viele Händler versuchen bereits, ihren Kunden kostenlosen Versand auf Basis eines Mindestbestellwerts im Onlineshop zu ermöglichen. Dadurch sollen Mehrverkäufe generiert werden, über die der Händler die Kosten für den Versand refinanziert.

Die E-Commerce Studie 2021 hat hierzu ergeben, dass diese Strategie in den meisten Fällen aufgeht: In Europa sind etwa mehr 69 Prozent der Verbraucher dazu bereit, mehr in einem Shop einzukaufen, um den Mindestbestellwert für kostenlosen Versand zu erreichen (69 %).

Internationaler Versand auf dem Rückzug?

Diverse Prognosen gehen davon aus, dass bis 2022 mehr als 22 % des E-Commerce auf internationaler Ebene abgewickelt werden wird.

Doch sind Verbraucher in Europa schon bereit dafür?

Auf die Frage der E-Commerce Studie 2021 hin, ob sie in den letzten 12 Monaten etwas in einem internationalen Onlineshop bestellt hätten, antworteten gerade einmal 45 % der Online-Shopper mit Ja. Während 2020 noch mehr als 53 % die Frage bejahten, so sind es in diesem Jahr deutlich weniger Verbraucher. Gründe hierfür sind womöglich externe Einflussfaktoren wie der Brexit oder das Auslaufen der Mehrwertsteuerbefreiung für Nicht-EU-Länder.

Doch was sind weitere versandbezogene Gründe, dass Verbraucher internationalen Onlineshops vermehrt den Rücken kehren? In Bezug auf die Versandabwicklung hat die E-Commerce Studie 2021 folgende entscheidende Gründe ermittelt:

  • 56 % der Befragten schrecken vor zu hohen Versandkosten zurück
  • 47 % befürchten, dass sie womöglich Zollgebühren bezahlen müssen
  • 43 % möchten sich nicht mit einem unter Umständen umständlichen Retourenprozess auseinandersetzen müssen

Verbraucherverhalten im Zeichen von COVID-19

Viele Händler und Verbraucher hat die Corona-Krise 2020 sehr überraschend getroffen. Schnell wurde klar, dass COVID-19 einen wahren Boom im E-Commerce ausgelöst hatte: Versanddienstleister verzeichneten etwa eine Zunahme des Bestellvolumens um durchschnittlich mehr als 90 %(!).

Wie hat die Corona-Situation, die unter anderem zu weltweiten Ladenschließungen geführt hatte, insgesamt die Erwartungen der europäischen Verbraucher umgekrempelt? Die Analyse unserer internen Kundendaten ergab dabei folgendes:

  • Während der Corona-Krise haben Verbraucher rund 2,3 Produkte mehr als üblich bestellt
  • Verbraucher waren im Durchschnitt während der Krise bereit, 1,2 Tage länger auf ihre Bestellung zu warten
  • 47 % haben den Großteil ihrer Bestellungen lieber über Onlineshops aus dem Inland als bei größeren Onlineshops wie Amazon getätigt

Durchschnittliche Verzögerungen beim Versand während der Corona-Krise

Fazit der E-Commerce Studie 2021

Die in Europa durchgeführte E-Commerce Studie 2021 hat es deutlich gemacht: Die Anforderungen der Verbraucher an den Onlinehandel unterscheiden sich kulturell stark je nach dem Land, das betrachtet wird und können sich im Rahmen einer Krisensituation wie Corona rapide ändern. Onlinehändler, die erfolgreich sein wollen, müssen stets adäquat auf die Bedürfnisse ihrer Kunden eingehen. Es liegt an ihnen, daraus einen Wettbewerbsvorteil für sich zu ziehen.

>>> Die vollständige Studie steht kostenlos für Sie zum Download bereit!

Weiterführende Informationen zum Unternehmen finden Sie unter:

https://www.sendcloud.de/

New Work, new problems

Arlett Chlupka, Gründerin von craftsoles, sorgt sich um die Gesundheit von Mitarbeitern in der Pandemie. Sie schlägt digitale Lösungen vor, die Arbeitnehmern niedrigschwellige Hilfsangebote machen, aber auch für die Arbeitgeber Vorteile generieren können.

Arlett Chlupka beschreibt, wie die digitale Transformation dabei hilft, Mitarbeiter gesundheitlich im Homeoffice zu unterstützen.

Wie Arbeitgeber ihre Teams in Zeiten von Remote Work in ihrem Wohlbefinden unterstützen können – und warum sie dies auch dingend tun sollten.

Seit Corona steigen die Zahlen der psychischen und körperlichen Beschwerden in der Bevölkerung. Die abrupten Umstellungen in vielen Lebensbereichen, nicht zuletzt in der Arbeitswelt, haben trotz neuer Flexibilität auch Herausforderungen und Stress heraufbeschworen. Dort, wo Arbeitnehmer auch bei Remote Work eine 40-Stunden-Plus-Woche leisten, braucht es flexible Gesundheitsangebote, um Prävention, Behandlung und Therapie auch weiterhin zu gewährleisten. Indem Arbeitgeber hier ansetzen, können sie die Mitarbeiterbindung steigern und eine zukunftsgerichtete Arbeitskultur beweisen. Der Schlüssel hierfür liegt in der Bereitstellung digitaler Gesundheitstools, die wertvolle Alternativen für klassische Versorgungswege bieten.

Die pandemischen Entwicklungen der vergangenen zwei Jahre haben den Arbeitsalltag für weite Teile der Bevölkerung deutlich verändert. Um die Ansteckungsgefahr zu minimieren, galt es größere Menschenansammlungen und belebte Orte, wie bspw. Großraumbüros, zu vermeiden. In der Folge veränderten sich nicht nur soziale Verhaltensweisen, sondern auch das Verständnis von Arbeit und die Bewegungsmuster von Arbeitnehmern. Und es zeichnet sich ab: Das Homeoffice hat sich zum neuen Standard gemausert, der gekommen ist, um zu bleiben. Digitale Gesundheitsmaßnahmen bieten hier eine Möglichkeit, um die neu entstandene Distanz zu überbrücken. Videokonferenzen und Remote Work haben zwar keine Auswirkungen auf Leistung und Qualität von Teams, doch körperliche Aktivitäten und Bewegung werden in unserem sowieso schon viel zu bewegungsarmen Alltag zusätzlich vermindert. Der Bewegungsradius von immer mehr Menschen beschränkt sich mehrheitlich auf die eigenen vier Wände. Das führt Studien zufolge zu Stress, Unzufriedenheit – und eben Bewegungsmangel. In der Folge steigen die Zahlen von Depressionen, Übergewicht und Gelenkbeschwerden.

Welche Verpflichtungen hat der Arbeitgeber?

Im Homeoffice und beim mobilen Arbeiten gilt der Arbeitsschutz ebenso wie im Büro. Für den Arbeitgeber bedeutet das, dass „eine Gefährdung für das Leben sowie die physische und die psychische Gesundheit möglichst vermieden“ werden muss (§ 4 Nr. 1 ArbSchG). In der Theorie müsste eine Prüfung des Arbeitsortes auf mögliche Gefahren durchgeführt und dementsprechend Maßnahmen ergriffen werden. Da dies aber nur schwer umzusetzen ist, verhält es sich in der Praxis meist so, dass Arbeitnehmer Ansprüche auf eine angemessene Ausstattung, sowohl mit Technik als auch Mobiliar, geltend machen können. Die nötigen Möbel und Arbeitsmittel müssen vom Arbeitgeber zur Verfügung gestellt werden, um den Arbeits-, Gesundheits- und Datenschutz garantieren zu können. Doch auch diese konkrete Option ist Arbeitnehmern nicht weitläufig bekannt. Und es braucht umfangreich angelegte und niedrigschwellige Lösungen, die dem abrupten Wandel unserer Arbeitswelt gerecht werden. Natürlich tragen Arbeitnehmer letztlich immer selbst die Verantwortung für ihre Gesundheit. Aber es ist gerade für Arbeitgeber wichtig, hier Anreize zu schaffen und Optionen zu bieten – nicht zuletzt auch, um krankheitsbedingte Ausfälle oder auch Abgänge zu vermeiden. Ebenso wie die Arbeitswelt müssen auch Gesundheitsangebote flexibler werden, um den neuen physischen und psychischen Herausforderungen gerecht zu werden und möglichst viele Arbeitnehmer zu unterstützen.

Flexible Alternativen für den Gesundheitsschutz

Auch in der Gesundheitsversorgung heißt das Zauberwort „Digitalisierung“. Das Gesundheitsministerium fördert bereits viele innovative Projekte im Bereich Digital Health. Zumeist sind es junge, kreative Startups, die wichtige Impulse geben, weil sie die klassischen Strukturen unvoreingenommen und mit kritischem Geist neu und digital denken. Dabei geht es aber letztlich nicht um den Ersatz der klassischen Versorgungswege, sondern um die Ergänzung der bestehenden Angebote, damit Arbeitnehmer eine größere Auswahl haben und flexibler planen und handeln können. Neuartige Technologien können Prävention, Diagnostik und Therapie optimieren und nicht nur während der Pandemie, sondern auch in Zeiten von Remote Work und 40-Stunden-Plus-Wochen (bei gleichzeitigem Fachkräftemangel) entscheidende Versorgungslücken schließen. Die Bereitstellung durch den Arbeitgeber und die gesetzlichen Krankenkassen ist ein wesentlicher Schritt, um genau dort anzusetzen.

Prävention: Neue Versorgungswege bieten

Mit einem Mangel an Bewegung und Aktivität gehen auch immer wieder Muskel- und Gelenkprobleme einher. Hier frühzeitig gegenzusteuern, vermeidet lange Leidenswege, die ansonsten zu Ausfällen und hohen medizinischen Kosten in der Zukunft führen können. Prävention ist das wichtigste Mittel, um einen Status guter Gesundheit aufrechtzuerhalten. Viel zu selten aber werden Hilfsmittel rechtzeitig eingesetzt, da das Bewusstsein und die Affinität für diese Produkte fehlen. Von den Menschen, die orthopädische Schuheinlagen benötigen, sind nur rund 30% auch tatsächlich versorgt. Mit unserem Startup meevo Healthcare wollen wir hier einen konkreten Beitrag leisten, indem wir hochwertige medizinische Hilfsmittel schnell und niedrigschwellig zugänglich machen und der Sanitätshauskultur im Allgemeinen eine neue Wahrnehmung im Alltag der Menschen geben. Anders als bei stationären Versorgern nehmen wir online rund um die Uhr und von überall Bestellungen entgegen und ermöglichen damit Abläufe ohne Präsenztermine. In den letzten zwei Jahren war Corona hier natürlich eine der größten Hürden bei der Versorgung vor Ort, aber auch in Zukunft wird es für verschiedenste Arbeitsmodelle von Vorteil sein, dass Berufstätige in der Hilfsmittelversorgung weder zeitlich noch örtlich gebunden sind. In diesem Jahr haben wir mit der BARMER Krankenversicherung eine erste Pilotphase gestartet, um deren Kunden auch in Pandemiezeiten bestmöglich zu versorgen. Damit konnten die neuartigen Hindernisse überwunden werden, um Versorgungslücken zu verhindern und damit langfristigen Schäden vorzubeugen.

Beratung: Effizient kommunizieren, schnell handeln

Seit Corona stehen immer mehr Menschen der Telemedizin aufgeschlossen gegenüber. Während aber viele darunter nur eine Videosprechstunde verstehen, liegt das wahre Potenzial in asynchronen oder hybriden Beratungslösungen: Unabhängig von Ort und Zeit können Menschen mit Beschwerden auf diese Weise ihre Probleme einem Facharzt schildern, ohne einen Termin mit langer Vorlaufzeit oder Wartezeiten vor Ort wahrnehmen zu müssen. Auch hier ist die digitale Lösung eine wertvolle Ergänzung zum klassischen Konzept der Sprechstunde und bietet Arbeitnehmern zusätzliche Flexibilität in der gesundheitlichen Versorgung. Und auch hier haben mehrere Krankenkassen bereits die Vorteile der Anwendungen für ihre Versicherten erkannt.

Gesundheitsmanagement: Betriebsintern vorsorgen

Erste Projekte arbeiten an digitalen Rundum-Lösungen konkret für das betriebliche Gesundheitsmanagement. Telemedizinische und Online-Angebote auch an Unternehmen heranzutragen, ist der nächste wichtige Schritt, um sie weiter im Alltag zu verankern. Fraglich wird aber wohl sein, inwieweit die dadurch entstehenden Daten für Arbeitgeber zugänglich sein werden und, ob diese Art der Versorgung in ihren Grundlagen Arbeitgebergebunden aufgebaut sein sollte. Idealerweise bestehen Versorgungsangebote unabhängig von einem speziellen Anstellungsverhältnis, sodass die Nutzung auch bei einem Jobwechsel oder dem Schritt in die Selbstständigkeit möglich bleibt, wenn auch zu anderen Konditionen.

Fakt ist jedoch, dass Arbeitgeber den Wandel in die digitalisierte Zukunft nicht nur in die Arbeits-, sondern auch in die Versorgungsabläufe integrieren sollten, um sowohl zukunfts- als auch wettbewerbsfähig zu bleiben und wertvolle Arbeitskräfte und Kapazitäten zu erhalten. Ein ergonomisch geformter Schreibtischstuhl allein wird diesem Anspruch auf Dauer nicht gerecht.

Wenn Kunden nach sicherer Software fragen


von Lucas von Stockhausen, Director Solutions bei Synopsys

Getrieben von Compliance-Anforderungen verlangen Kunden heute immer häufiger Garantien von Softwareentwicklern, die die Cybersicherheit ihrer Produkte betreffen, oder aber sie fordern detaillierte Einblicke ins Entwicklungsverfahren. Zugleich soll die Softwareproduktion agiler und flexibler ablaufen. Die Studie BSIMM12 liefert wertvolle Anhaltspunkte, wie der Zielkonflikt zwischen Geschwindigkeit und Sorgfalt gelöst werden kann – und zum Teil schon gelöst wird.

Kunden sind tendenziell fordernd: Von Softwareentwicklern erwarten sie agiles Vorgehen und neue Funktionen mit immer geringerer Vorlaufzeit. Gründe sind das allgemein rasante Innovationstempo und der hohe Wettbewerbsdruck. Firmen sind immer stärker davon abhängig, bestimmte Online-Funktionalitäten zumindest genauso schnell anbieten zu können wie die Konkurrenz. Diesen Druck geben sie weiter.

Zugleich aber stellen dieselben Kunden zunehmend detailliertere Sicherheitsanforderungen auf und verankern sie in Verträgen, Ausschreibungen und laufenden Überprüfungen. Wer Software anbietet, soll im Zweifelsfall genau belegen können, welchen Prinzipien einer sicheren Entwicklungsmethodik er folgt, welche Tests er zu welchen Zeitpunkten durchführt und welches Sicherheitsniveau seine Produkte einhalten. Praktisch läuft das Drama dann meist in zwei Akten ab: Der Kunde verlangt Einsicht in die Entwicklungsverfahren einerseits und prüft das Endprodukt andererseits – allerdings eher auf abstrakte oder absolute Sicherheitsanforderungen hin.

Softwareentwicklung „muss draußen bleiben“

Der letztgenannte Punkt verdient besondere Aufmerksamkeit. Hinter dem Wunsch, Softwareprodukte in einem perfekt sicheren Zustand übernehmen zu wollen, also ohne Sicherheitslücken jedweder Art, steckt bei vielen Kunden der verzweifelte Versuch, die Komplexität zu reduzieren. Software, die produktiv genutzt wird oder in Produkten zum Einsatz kommt, soll möglichst Black-Box-artig und sorgenfrei integriert werden können und auf keinen Fall eigene Probleme aufwerfen.

Damit stellt sich allerdings die drängende Frage, ob die Entwicklungsteams zu diesem Zeitpunkt genug darüber wissen, wie die Komponenten zukünftig genutzt werden – ein grundsätzliches Problem aus dem Themenkreis „sichere Softwareentwicklung“. Gemäß einem Defense-in-Depth-Ansatz und unabhängig vom jeweiligen Unternehmen ist es sinnvoll, Sicherheitsprobleme und Schwachstellen einer Software zu beheben, egal wie unwahrscheinlich ein konkreter Exploit nach heutigem Kenntnisstand erscheinen mag. Nicht selten aber wird bestehendes Wissen zur Defense-in-Depth-Philosophie oder das Prinzip der minimalen Rechtevergabe ebenso wie andere Best Practices innerhalb der Softwareentwicklung auf dem Altar der Agilität geopfert.

DevSecOps löst mehr und mehr den zentralisierten Ansatz für Anwendungssicherheit ab. Und das aus gutem Grund. Im aktuellen Modell ist Sicherheit untrennbar mit der Softwareentwicklung verbunden. Sicherheit ist in jede Phase eingebettet, vom Design über die Implementierung bis hin zur Wartung automatisiert und so weit wie möglich in den Softwareentwicklungsprozess integriert.

Inzwischen übernehmen immer mehr App-Entwickler die volle Verantwortung für ihre eigenen Sicherheitsbelange – mit geeigneter Unterstützung durch das Sicherheitsteam. Für Anwendungsentwickler ein Grund mehr, verstärkt auf DevSecOps-Prozesse zu setzen. Damit schöpfen sie die Vorteile der Automatisierung aus, maximieren die Geschwindigkeit und etablieren im besten Fall eine Kultur der kontinuierlichen Verbesserung.


Die Softwareentwicklung sollte ihrerseits transparent und risikobasiert vorgehen. Also Sicherheitsmaßnahmen und Tests in den Entstehungsprozess der Produkte integrieren, die gegenüber den Kunden gut darstellbar sind – und die vor allem deren Sicherheitsmanagement-Konzepten aus einschlägigen Normen wie der ISO 270xx ähnelt.


Angemessen versus absolut

Die Ressourcen von Security-Teams sind begrenzt und können niemals so ausgebaut werden, dass ein perfektes Sicherheitsniveau für jeden Teil der eigenen Infrastruktur zu erreichen wäre.
Deshalb nutzen viele Unternehmen das Primat einer angemessenen statt einer absoluten Sicherheit. In manchen Normen ist das Prinzip des „gut genug“ sogar explizit verankert. Wer sich beispielsweise auf ein Audit gemäß der Kreditkarten-Sicherheitsnorm PCI-DSS vorbereitet wird darauf drängen, den sensiblen Kundendatenbereich in ein möglichst abgeschottetes Segment zu verlegen, einfach damit die Anforderungen der Norm nur dort umgesetzt und geprüft werden müssen.

Die präventive und reaktive Security hat in den vergangenen Jahren außerdem Verfahren entwickelt, welche die Kontext- und Risiko-bezogenen Priorisierungen von Maßnahmen erlauben. Dazu gehören geeignete Werkzeuge und eine gut ausgebaute Kommunikation zwischen den Betreibern der produktiven Systeme (z.B. den „Application Ownern“) und den Sicherheitsspezialisten. Zwischen diesen Gruppen tauscht man sich über abstrakte Mindestanforderungen und jene Risiken aus, die außergewöhnlichen Schutzbedarf aufweisen.

Maßnahmenbündel

Die Softwareentwicklung sollte in dieses risikobasierte Vorgehen integriert werden und nicht außerhalb des priorisierten Vorgehens operieren. Damit das möglich ist, müssen zwei Voraussetzungen erfüllt sein:

Die Kunden sollten Entwicklern Informationen über den Sicherheitskontext bereitstellen, in dem das Produkt arbeitet. Dazu gehören bestehende Risiken, potenzielle Bedrohungen, sowie das Sicherheitsniveau der Infrastruktur.

Die Softwareentwicklung sollte ihrerseits transparent und risikobasiert vorgehen. Also Sicherheitsmaßnahmen und Tests in den Entstehungsprozess der Produkte integrieren, die gegenüber den Kunden gut darstellbar sind – und die vor allem deren Sicherheitsmanagement-Konzepten aus einschlägigen Normen wie der ISO 270xx ähnelt.

Es gibt Organisationen und Branchen, in denen die entsprechende Verzahnung schon existiert – häufiger ist dies beispielsweise bei Finanzdienstleistern der Fall. Wie passgenaue Qualität und Sicherheit bei gleichzeitig maximaler Agilität auch in der Breite erreicht werden kann, zeigt die Studie BSIMM12 der Synopsys Software Integrity Group. Sie weist nach, dass Softwareentwickler in verschiedenen IT-Bereichen und Branchen zunehmend Prozesse anstoßen, welche die Produktionsmethodik(en) risikobasiert ausrichten und auf eine engere Kommunikation mit den internen und externen Kunden setzen. BSIMM steht dabei für Building Security in Maturity Model. Die Studie befragt Jahr für Jahr Organisationen im Bereich Softwareentwicklung, auf welche Security-Maßnahmen sie besonderen Wert legen und welche sie vor allem vorantreiben.

Die wichtigsten Punkte aus dem Maßnahmenkatalog der befragten Organisationen umfassen:

Lifecycle Instrumentation setzt ein risikobasiertes Vorgehen durch, wo immer dies möglich ist, und richtet die Produktion darauf aus, Fehler in der Software früher zu finden. Es gibt mehre, aber dafür kürzere Testphasen, die sich in den Produktionsprozess integrieren lassen und die Entwickler somit nicht immer wieder zurückwerfen. Das Verfahren ist nach außen gut als gelebte Governance darstellbar. Die kleinen, obligatorischen Tests ähneln den Pflicht-Sicherheitsbetrachtungen, zu denen sich Projekt-Teams in der IT während der Umsetzung von Projekten immer wieder zusammenfinden müssen.

  • Externe Tester einbinden: Für Statuserhebungen im Bereich Sicherheit externe Experten heranzuziehen, gilt in der ganzen Branche als sinnvoll und ist an einigen Stellen auch aus Compliance-Gründen notwendig. Übernehmen Entwickler diese Praxis, nähern sie sich den anderen Security-Arbeitsfeldern an.

  • Interaktion mit Incident Response: Softwareentwickler stimmen sich enger mit den Security-Spezialisten in der Organisation ab, die tatsächliche Angriffe und Bedrohungen identifizieren. So wandelt sich Sicherheit vom abstrakten Thema zur realen, nachvollziehbaren Anforderung

  • Datenschutzimplikationen frühzeitig erkennen: Entwicklerteams gehen dazu über, Risiken aus dem Einsatz ihrer Produkte im Bereich personenbezogener Daten gleich zu Beginn zu identifizieren und ihre Arbeit darauf auszurichten. Da Datenskandale für Unternehmen zu den größten Schreckgespenstern gehören, sollten sie dieses Vorgehen verstehen und honorieren – während die Entwickler es vermeiden, in diesem heiklen Bereich später aufwändig nachbessern zu müssen.

  • Sicherheits-Features einem Review unterziehen: Ebenfalls gleich zu Beginn prüfen Entwicklungsorganisationen vermehrt, ob die vereinbarte Sicherheitsfunktionalität der Produkte angemessen ist – etwa, ob verschlüsselt werden muss oder wie stark die Authentifizierungsmechanismen sein müssen. Dieser Check auf Angemessenheit ist ebenfalls gut vermittelbar und kommt den Kunden entgegen, bei denen das Endprodukt ja in die entsprechende IT-Umgebung möglichst passgenau integriert werden soll.

Weitere Maßnahmen lassen sich in der Studie selbst nachvollziehen. Betrachtet man die dort aufgeführten zehn wichtigsten, ist es allerdings unabdingbar, dass sich sowohl die Entwickler als auch die Kunden auf einen Perspektivenwechsel einlassen müssen. Kern ist dabei auf Entwicklerseite, Sicherheitsanforderungen nicht als einschränkende Hürden aufzufassen, sondern als Teil der Qualität und Funktion der neuen Produkte zu verstehen.

Das gilt aber auch auf Kundenseite. Denn für die wird „Resilience“ – also die Widerstandsfähigkeit gegen Angriffe oder Bedrohungen – immer wichtiger. Die aktuellen Maßnahmen der befragten Organisationen laufen deshalb darauf hinaus, eine Sicherheitskultur in der Softwareentwicklung zu verankern, die das Thema Security zum integralen Bestandteil des Arbeitsalltags macht.

https://www.synopsys.com/

Lesen Sie

einen weiteren Beitrag

von dem Experten Lucas von Stockhausen,

Director Solutions bei Synopsys:

Softwareentwicklung lernt Sicherheitskultur

So optimiert die Finanzbranche das Kundenerlebnis

Um sich von der Konkurrenz abzuheben, müssen Banken und Versicherungen auf neue Mitbewerber und auf veränderte Erwartungen ihrer Kunden reagieren. Entscheidend für den Erfolg ist ein optimiertes Kundenerlebnis: vier Faktoren sind dabei ausschlaggebend.

Von Carsten Dalquen, Account Director Digital bei Macaw

Carsten Dalquen, der Autor dieses Beitrags, ist als Account Director Digital beim internationalen Digital-Dienstleister Macaw beschäftigt (Quelle: Macaw).

Der Finanzsektor steht unter hohem Wettbewerbsdruck: Fintechs fordern traditionelle Banken und Versicherungen heraus und das Kundenverhalten hat sich grundlegend geändert. Die Kundschaft ist heute informierter und wechselwilliger denn je. Deckt sich das Angebot nicht mit ihren Erwartungen, wandern sie schnell zur Konkurrenz ab – schließlich ist diese nur ein paar Mausklicks entfernt.

Mobile Apps und Online-Portale reichen längst nicht mehr aus. Bei praktisch jeder Bank können Kunden mobil auf ihr Girokonto zugreifen und bei nahezu jeder Versicherung Policen auf einem Online-Portal abschließen. Wollen sich Unternehmen der Finanzbranche erfolgreich vom Wettbewerb abheben, müssen sie ihren Kunden echte Mehrwerte bieten. Ein optimiertes Kundenerlebnis ist hierfür von entscheidender Bedeutung. Dafür sind folgende Faktoren ausschlaggebend:

Kontinuierlich optimieren. Produkte und Dienstleistungen unterliegen einem kürzeren Innovationszyklus: Was heute auf den Markt kommt, kann morgen schon wieder veraltet sein. Deshalb sollten Finanzunternehmen ihre Angebote kontinuierlich analysieren und an die Wünsche und Bedürfnisse der Kunden anpassen. Welche Anforderungen haben sie und wie möchten sie ihre finanziellen Angelegenheiten am liebsten regeln? Bei der Beantwortung dieser Fragen sollten Finanzinstitute neue Wege gehen und zum Beispiel innovative Technologien wie Blockchain nutzen.

Auf Zusammenarbeit setzen. Die IT vieler Finanzinstitute ist veraltet. Noch immer existieren zum Beispiel viele Silos: Abteilungen mit eigenen Datensystemen, die kaum miteinander kommunizieren. Das hat zur Folge, dass Anwender Informationen oft mehrmals bereitstellen müssen und nicht alle Unternehmensbereiche auf dem aktuellen Stand der Customer Journey sind. Diese Silos müssen die Unternehmen beseitigen, um Kunden optimal bedienen zu können. Auch die Möglichkeit, mit externen Partnern aus anderen Branchen kooperieren zu können, etwa aus dem Gesundheits- oder Klimabereich, ist für eine nachhaltige Kundenbindung wichtig: So können Produkte entstehen, die die ganzheitlichen Interessen der Kunden berücksichtigen und somit einen echten Mehrwert für diese bieten.

Für Flexibilität und Skalierbarkeit sorgen. Neue Produkten und Dienstleistungen schnell einführen zu können, ist maßgeblich für den Geschäftserfolg. Cloud-Lösungen sind aufgrund ihrer Flexibilität und Skalierbarkeit dabei erste Wahl. Deshalb sollten Finanzinstitute den Einsatz von On-Premises-Lösungen überdenken und ihre Systeme zumindest teilweise in die Cloud migrieren. Damit können sie schnell auf steigenden Datenverkehr reagieren und in Echtzeit auf Kundendaten zugreifen. Im Vergleich dazu sind lokale Server nicht nur teuer und aufwendig in der Wartung – sie bringen auch Einschränkungen hinsichtlich Flexibilität und Skalierbarkeit mit.

Eine 360-Grad-Sicht auf die Kunden schaffen. Um ein optimales Anwendererlebnis zu bieten, müssen Finanzinstitute die Wünsche der Kunden vollständig erfassen. Grundlage hierfür sind Daten, die infolge der Interaktion mit ihnen entstehen. Damit können die Unternehmen Dienstleistungen und Produkte besser an die Erwartungen der Anwender anpassen. Das ist ein kontinuierlicher Prozess, bei dem Tools wie No-/Low-Code-Plattformen helfen, die großen Datenmengen für alle relevanten Stakeholder in der Organisation leichter zugänglich und nutzbar zu machen – und sie gezielt für die Schaffung echter Kundenmehrwerte einzusetzen.

Weitere Informationen unter:
https://www.macaw.net/de/

Interkulturelle Kompetenz

von Kai Grunwitz

Warum Unternehmen die Wichtigkeit von interkultureller Kompetenz erkennen müssen

In Deutschland reicht man sich – wenigstens bis zu Beginn der Corona-Pandemie – zur Begrüßung die Hand, in den meisten asiatischen Ländern nicht. Hierzulande ist Pünktlichkeit eine Tugend, anderswo ist das akademische Viertel Gang und Gebe.

Ganz nach dem Motto „Andere Länder – andere Sitten“ sind die Verhaltensweisen in der Arbeitswelt von Nation zu Nation verschieden. Wer sich dieser Unterschiede nicht bewusst ist, ist schnell frustriert und riskiert zudem, sich in den Augen des anderen unangebracht zu verhalten. Eine gute Zusammenarbeit ist dann nicht mehr möglich. In der Folge scheitern Geschäftsreisen und Entsendungen von Mitarbeitern an ausländische Standorte, internationale Teams werden handlungsunfähig.

Kai Grunwitz,
Geschäftsführer der NTT Ltd. in Deutschland

Dahinter verbirgt sich ein grundlegendes Problem: Der kulturelle Hintergrund des jeweils anderen wird nicht berücksichtigt. Im Gegenteil, das Verhalten, die Arbeitsweise, die Art zu verhandeln werden aus der eigenen Perspektive heraus betrachtet und beurteilt. Ein Denken in den Kategorien „besser“ oder „schlechter“ ist die Folge. Umso wichtiger ist interkulturelle Kompetenz. Unter diesem Fachbegriff wird die Fähigkeit verstanden, mit Menschen aus verschiedenen Kulturen zu interagieren, Unterschiede zu respektieren, Rücksicht zu nehmen und respektvoll miteinander umzugehen.

Im beruflichen Umfeld bedeutet interkulturelle Kompetenz, sich in die verschiedenen Arbeits- und Denkweisen hineinzuversetzen und sie anzuerkennen. Dazu gehört auch die Reflexion über das eigene Referenz-, Werte- und Verständnissystem und das des Gegenübers: Welche Gemeinsamkeiten gibt es, auf welche Unterschiede muss ich achten? Was kann ich von der anderen Kultur lernen?

Als Deutschland-Chef eines japanischen Mutterkonzerns wird mir die Wichtigkeit interkultureller Kompetenz regelmäßig vor Augen geführt – bei meiner täglichen Arbeit mit immer diverseren Teams und bei meinen regelmäßigen Besuchen in Japan. Natürlich sind sich Japan und Deutschland in vielen Punkten zunächst einmal sehr ähnlich: Beide Länder zählen zu den größten Volkswirtschaften der Welt, sind wichtige Exportnationen, haben für mich die gleiche Innovationskraft in puncto Engineering und das gleiche Qualitätsbewusstsein.

Auf der anderen Seite gibt es eklatante Unterschiede bei den Kulturen. So irritiert der typisch deutsche Wunsch, bei einem Geschäftstermin schnell zu einem konkreten Ergebnis kommen zu wollen und dabei auch einmal Kritik zu äußern, die Kolleginnen und Kollegen in Japan. Es wird ganz besonders großer Wert auf Höflichkeit und Zurückhaltung gelegt: Ein „Nein“ ist unbekannt, Direktheit wird als Respektlosigkeit ausgelegt, dementsprechend spielt auch der mögliche Gesichtsverlust eine deutlich größere Rolle als in Deutschland.

Teamgeist wird in Japan ebenfalls großgeschrieben, zudem werden möglichst viele Stakeholder in Entscheidungen eingebunden, längere Entscheidungszyklen bei Projekten sind deshalb Standard. Trotzdem sind die Hierarchien sehr viel starrer als in Deutschland und bestimmen alle unausgesprochenen Regeln der japanischen Arbeitskultur, einschließlich des Sitzplatzes beim Meeting, des Verhaltens bei Firmenfeiern und welche Höflichkeitsform angemessen ist.

Ist das jetzt schlechter? Nein! Keine Kultur ist gegenüber einer anderen besser, sondern einfach nur anders.

Wir können uns gegenseitig bereichern und voneinander lernen – wenn wir uns darauf einlassen.

Diese Fähigkeit, mit kultureller Vielfalt positiv umzugehen, ist eine Schlüsselkompetenz nicht nur für international agierende Führungskräfte, sondern auch für jeden Einzelnen, um am gesellschaftlichen Leben teilzunehmen und einen Beitrag zur sozialen Integration zu leisten. Nur mit der nötigen interkulturellen Kompetenz kann eine wertstiftende und respektvolle Zusammenarbeit gelingen. Denn: Wo unterschiedliche Hintergründe aufeinandertreffen, sind auch Fettnäpfchen nicht weit.

Daten und Data Analytics im Mittelstand: Aufbruch in eine digitale Welt

Alle Welt spricht vom datengetriebenen Unternehmen. Aber wie datenorientiert arbeitet der Mittelstand? Tobias Ganowski schildert in seinem Gastbeitrag, wie die Unternehmen die noch immer verborgenen Potenziale nutzen können.

Die Transformation von Unternehmen hin zu einer digitalen und datengetriebenen Organisation ist in so gut wie allen Sektoren im vollen Gange. Denn in einer digitalisierten Welt werden Daten nahezu überall generiert – sei es an Kunden-Touchpoints, durch Maschinen und Geräte oder an E-Commerce-Systemen. Daten tragen immer mehr dazu bei, innovative digitale Geschäftsmodelle und Services aufzubauen, Effizienzsteigerungen und Kosteneinsparungen – etwa durch Process Mining – zu ermöglichen und Prozesse durch eine stärkere Automatisierung zu vereinfachen. Doch wie „datengetrieben“ ist der deutsche Mittelstand bereits und welche Themen stehen in den kommenden Jahren im Fokus?

Gemeinsam mit dem Self-Service-BI-Anbieter Tableau ist Lünendonk & Hossenfelder diesen Fragen nachgegangen. Die zentralen Erkenntnisse finden sich im Whitepaper „Digital now: Wie datengetriebene Entscheidungsprozesse im Mittelstand Wettbewerbsvorteile schaffen“ wieder.

Use Case Customer Analytics: Datenplattformen werden noch nicht regelmäßig eingesetzt

Tobias Ganowski hat zusammen mit Tableau untersucht, wie datenorientiert der Mittelstand eigentlich arbeitet.

Um Daten bereichsübergreifend zu sammeln und analysieren zu können, bedarf es einer entsprechenden Infrastruktur und Architektur, welche Datensilos auflöst und zusammenführt (Interoperabilität). Einer der wichtigsten Use Cases zur Datennutzung stellt die Analyse von Kundendaten und Kundenprozessen dar (Customer Analytics). 47 Prozent der mittelständischen Unternehmen sehen sich jedoch bei der Nutzung einer zentralen Datenplattform, auf welcher Daten aller Kunden-Touchpoints gesammelt werden, noch am Anfang. Diesen Unternehmen gelingt es damit noch nicht, Daten zunutze zu machen, indem Kundinnen und Kunden anhand von Daten respektive Customer Insights verstehen werden. Die strukturierte Sammlung und Analyse von Daten ermöglicht es den Unternehmen nicht nur, Transparenz über den Kaufprozess und die Kundenaktivitäten entlang der gesamten Customer Journey zu schaffen, sondern auch, ein tiefes Verständnis über das Kundenverhalten zu erlangen und den Kunden und Kundinnen so individuelle Angebote unterbreiten zu können.

Investitionen in Datenlösungen sollen steigen

Als positive Nachricht lässt sich aber vermelden, dass 60 Prozent der Mittelständler für 2021 und 2022 einen großen bis sehr großen Fokus auf den Aufbau von Technologieplattformen, welche weitere Daten-Use-Cases ermöglicht, legen. Die Notwendigkeit, aber auch die Mehrwerte der Analyse von Daten, wird somit zunehmend erkannt. Gestützt wird diese Aussage durch die Erkenntnis, dass 39 Prozent der Unternehmen aktuell einen Investitionsfokus auf Maßnahmen legen, welche dazu beitragen, zu einer Data-Driven-Company zu werden. Auf die Frage, in welche konkreten Technologien CIOs in den kommenden zwei Jahren investieren wollen, antworten 60 Prozent, dass auf Data Analytics ein starker Fokus gelegt wird. Neben der IT-Modernisierung, der Cloud-Transformation und Cyber Security zählt Data Analytics damit zu den am höchsten priorisierten IT-Themen.


Frage: In welche Themen investiert Ihr Unternehmen in den kommenden zwei Jahren?; Werte beziehen sich auf die Antworten „eher stark“ und „sehr stark“; Häufigkeitsverteilung; n = 76; Quelle: Lünendonk®-Studie 2021 „Der Markt für IT-Beratung und IT-Service in Deutschland“

Nicht nur IT-Verantwortliche, sondern auch Fachbereiche haben einen hohen Bedarf und ein hohes Interesse an Datenlösungen. So zählen unter Marketing- und Vertriebsverantwortlichen Data-Management- und Data-Analytics-Plattformen zu den Investitionsschwerpunkten: 47 Prozent der Befragten wollen 2021 und 2022 eher bis sehr stark in diese Lösungen investieren, um Kundendaten im Marketing auf einer homogenen Datenbasis besser nutzen zu können für digitale Geschäftsmodelle und Prozessautomatisierungen. Auf strategischer Ebene steht die Entwicklung hin zu einem datengetriebenen Unternehmen daher für 49 Prozent der CMOs und CSOs im Fokus.

Auch Entwicklungs- und F&E-Verantwortliche wollen die im Zuge der Vernetzung von Maschinen, Geräten und ganzer Produktionsstätten – Stichwort Industrie 4.0 – gewonnen Daten nun stärker zunutze machen. So planen 41 Prozent der Industrieunternehmen aus dem gehobenen Mittelstand mit einem Umsatz von bis zu einer Milliarde Euro etwa Steigerungen für das extern vergebene Budget an Dienstleister und Beratungen zur Entwicklung datenbasierter Geschäftsmodelle. An Use Cases und Business-Benefits mangelt es somit nicht.

Herausforderungen auf dem Weg zur Data-Driven-Company

Ein Drittel (33%) der mittelständischen Unternehmen beklagt jedoch einen Mangel an einem grundlegenden Verständnis für Technologien, Daten und deren Einsatzmöglichkeiten. Daten-Experten sind jedoch stark nachgefragt und rar am Arbeitsmarkt. So hat sich etwa das Berufsbild des Data Scientists in den vergangenen Jahren etabliert und zählt zu den gefragtesten Berufen in der IT. Um diesen Mangel zu kompensieren, nehmen externe Dienstleister, aber auch Software-Lösungen, welche intuitive Analysen versprechen, IT-Abteilungen entlasten und keine tiefen Datenanalyse-Skills verlangen, eine wichtige Rolle ein. In einer Lünendonk-Studie aus dem Jahr 2020 berichteten 27 Prozent der Unternehmen, dass sie die Einführung von Self-Service BI (Business Intelligence) planen, wodurch Fachbereiche idealerweise unabhängig von der IT-Abteilung Analysen vornehmen können . Der Wandel zu einem datengetriebenen Unternehmen wird folglich durch Self-Service BI beeinflusst.

Neben dem Fachkräftemangel gibt es weitere Herausforderungen, die Unternehmen sich stellen müssen – vor allem technologischer Natur. So ist für ein Drittel der mittelständischen Unternehmen die eigene, zu geringe Datenqualität eine große Hürde auf dem Weg zum datengetriebenen Unternehmen. Ein wesentlicher Grund für diese schlechte Datenqualität ist oftmals, dass Daten in dezentralen Silos – etwa Data Warehouses – einzelner Abteilungen liegen und keine ausgereifte Data Governance vorliegt, wie der Umgang mit Daten zu handhaben ist. Ebenso ist für jedes vierte Unternehmen die komplexe und weit verzweigte IT-Landschaft, welche einen systemübergreifenden Datenaustauschs (Interoperabilität) erschwert, ein starker bis sehr starker Behinderungsfaktor.

Wie geht es weiter?

Die digitale Transformation ist in vollem Gange – und Daten sind dessen Treibstoff. Sowohl IT- als auch Fachbereichsverantwortliche investieren in Daten-Lösungen und digitale Technologien. Neben der technologischen Perspektive müssen jedoch auch die Organisation selbst, die Kultur, Prozesse und Steuerungsmetriken angepasst werden. Eine ganzheitliche Betrachtung der Digitalisierung ist somit erforderlich, um den Weg zur datengetriebenen Organisation erfolgreich zu meistern.

Quelle: Lünendonk-Whitepaper „Digital Now: Wie datengetriebene Entscheidungsprozesse im Mittelstand Wettbewerbsvorteile schaffen“

Über den Autor:

Tobias Ganowski ist Junior Consultant beim Marktforschungs- und Beratungsunternehmen Lünendonk & Hossenfelder. Er untersucht die Märkte IT-Beratung, IT-Services, Customer Experience Services, BI-Software und Engineering Services. Thematisch beschäftigt er sich unter anderem mit den Themen Cloud Sourcing, Künstliche Intelligenz, Data Analytics, Agilität und digitale Transformation.

Wie werden Städte zur Smart City?

Von Alexander Wojtek*

Bereits heute leben in Deutschland gut 77 Prozent der Einwohner in Städten, und nach Prognosen der UN werden es bis 2050 sogar mehr als 84 Prozent sein. Damit stehen die Städte vor enormen Herausforderungen, denn vielerorts ist schon jetzt der Wohnraum knapp und das Verkehrssystem überlastet. Allerdings genügt es nicht, lediglich mehr Wohnraum bereitzustellen sowie die Mobilitätsangebote auszubauen. Die Städte müssen ihre gesamte Infrastruktur – darunter auch Strom- und Wärmeversorgung, Wasserversorgung und Abfallentsorgung – auf eine steigende Bevölkerungszahl vorbereiten und gleichzeitig effizienter und nachhaltiger gestalten. Schließlich zählen sie zu den größten Energieverbrauchern und CO2-Produzenten weltweit und spielen dementsprechend eine wichtige Rolle im Kampf gegen die Klimakrise.

Digitale Technologien leisten bei dieser großen Aufgabe einen entscheidenden Beitrag und machen urbane Gebiete zu umweltfreundlicheren und lebenswerteren Orten. Mit ihnen entwickeln sich Städte zur Smart City weiter, in der Infrastrukturen weitreichend vernetzt sind und intelligente Anwendungen auf Basis von Daten viele Abläufe automatisiert steuern. Den Anfang machen meist kleine Dinge, die den Alltag der Menschen erleichtern und verbessern: Ampelschaltungen, die sich dem Verkehrsaufkommen anpassen und für Fahrzeuge des öffentlichen Nahverkehrs schneller auf Grün schalten oder die Grünphase verlängern. Parkhäuser, die freie Parkplätze erkennen und an Navigationssysteme melden. Strom- und Wasserzähler, die sich per Funk auslesen lassen, sodass niemand die Wohnung betreten muss. Straßenbeleuchtung, die sich passend zu den Lichtverhältnissen ein- und ausschaltet und nicht mehr zu festen Uhrzeiten.

Vieles davon ist in Städten längst Realität und wird häufig durch eine Vielzahl an Sensoren ergänzt, die Auslastungs- und andere Statusdaten von Bussen und U-Bahnen, Wasserpumpen und Leitungssystemen, Stromverteilern und vielem mehr liefern. Mit den Informationen können Verkehrsbetriebe den Fahrzeugeinsatz optimal steuern und Stadtwerke die Strom- und Wasserversorgung besser auf den Bedarf der Bevölkerung abstimmen. Ebenso ermöglichen die Informationen eine vorausschauende Wartung. Verkehrsbetriebe und Stadtwerke sind in der Lage, ihre Fahrzeuge, Anlagen und Geräte besser instand zu halten und Fehlfunktionen oder drohende Ausfälle oftmals schon zu erkennen, bevor sie auftreten.

Alexander Wojtek: „Die vielen Einzelprojekte rund um die Smart City gilt es, in den kommenden Monaten und Jahren zu verknüpfen und in übergreifenden Initiativen auszubauen.“

Die vielen Einzelprojekte rund um die Smart City gilt es, in den kommenden Monaten und Jahren zu verknüpfen und in übergreifenden Initiativen auszubauen. Nur so können ganzheitliche urbane Systeme entstehen, die beispielsweise die Daten von Individualverkehr, ÖPNV sowie Car- und Bike-Sharing-Angeboten mit Wetterinformationen und Messwerten zur Luftqualität vereinen. Diese Systeme könnten dann die Preise öffentlicher und umweltfreundlicher Verkehrsangebote sowie die Parkgebühren dynamisch anpassen, um Staus zu verhindern und die Feinstaubbelastung zu reduzieren. Diese intelligenten Systeme dürfen ihren Blick allerdings nicht nur auf die Stadt selbst richten, sondern müssen über den Stadtrand hinausschauen, da weder Verkehrsinfrastrukturen noch Verkehrsflüsse an den Stadtgrenzen stoppen.

Die Technologien für solche smarten Lösungen existieren bereits: Sie reichen von hybriden IT-Infrastrukturen über offene Plattformen bis zu KI-Anwendungen. Eine Schlüsselrolle kommt dabei der Cloud und Open Source zu. Die Cloud ist oft kostengünstiger als ein eigenes städtisches Rechenzentrum und bietet zudem die flexibleren Skalierungsmöglichkeiten. Zwar stehen manche Verantwortliche ihr weiterhin skeptisch gegenüber, doch sowohl Hyperscaler als auch lokale Service-Provider und IT-Dienstleister betreiben ihre Rechenzentren hochverfügbar und hochsicher. Zudem gibt es Mittel und Wege, Daten in der Cloud zu schützen oder hybride Konzepte umzusetzen, bei denen kritische Daten die eigene IT-Infrastruktur nicht verlassen.

Darüber hinaus stehen in der Cloud mächtige Software-Anwendungen, Plattformen und Entwicklungswerkzeuge bereit, die den Aufbau digitaler Services erleichtern. Gerade Open Source bietet Städten hier einen riesigen Werkzeugkasten für individuelle Lösungen – und das sicher, mit hervorragendem Support und vielen Freiheitsgraden. So hilft Open Source ihnen, Daten- und Anwendungssilos aufzulösen, Interoperabilität mit anderen Systemen herzustellen und Abhängigkeiten von einzelnen Anbietern zu vermeiden.

Die Herausforderungen rund um die Smart City müssen Städte allerdings nicht allein angehen. Lokale IT-Dienstleister, die Industrie, Gesundheitswesen und andere Branchen schon seit Jahren bei ihrer Digitalisierung unterstützen, stehen als Helfer bereit. Sie bringen wertvolle Erfahrung und Best Practices mit, wie man bestehende Daten geschickt einsetzt und neue Datenquellen anzapft, um Abläufe zu verschlanken sowie neue Services und Geschäftsmodelle zu entwickeln.

Ein Erfolg kann die Smart City aber letztlich nur werden, wenn die Menschen im Zentrum der Projekte stehen. Ihre Alltagsprobleme soll die digitale Stadt lösen, ihre Lebensqualität verbessern – gebraucht werden deshalb Beteiligungsmechanismen wie Umfragen, Workshops oder Stadtlabore, die Impulse für die Planer liefern und dafür sorgen, dass die neuen Dienste den Bedürfnissen der Menschen entsprechen und von diesen angenommen werden.

* Alexander Wojtek ist Business Development Manager IIoT bei akquinet

Weitere Informationen unter:
https://akquinet.com/de.html

Bildquelle / Lizenz Aufmacher: Foto von Peng LIU von Pexels

UNIT4s Experience4U

Es ist soweit: Nach einem turbulenten Jahr kommt die Unit4-Community am 16. und 17. November wieder zusammen für das globale Kunden-Event Experience4U!

Seien Sie im November dabei, wenn X4U wieder stattfindet – UNIT4´s zweitägiges globales virtuelles Event! Holen Sie sich wertvolle Infos, um das volle Potenzial Ihrer Mitarbeiter auszuschöpfen und sich optimal für die Zukunft aufzustellen.

X4U-Agenda

16. November:

People Experience Suite

Am ersten Tag gewinnen Sie einen tiefen Einblick in die People Experience Suite und was sie für Sie und Ihre Mitarbeiter tun kann, um Ihnen dabei zu helfen, echte Ziele zu erreichen.
Erfahren Sie was „People Experience“ für Sie bedeuten kann.

17. November:

Regional Spotlight DACH

Das Unternehmen lädt als besonderes Highlight dieses Jahr zum Regional Spotlight DACH ein – einem speziellen Programmpunkt für die deutschsprachigen Teilnehmer aus Deutschland, Österreich und der Schweiz.

Folgende Inhalte erwarten Sie am 17. November um 13 Uhr:

  • Aktuelle Produkt-News und Infos zu den neuesten Innovationen
  • Spannende Analysten-Einblicke zu den neuesten Branchentrends und Marktbedingungen
  • Exklusiver Blick hinter die Kulissen im Unit4-Servicebereich

Doch das ist noch lange nicht alles: Neben dem Regional Spotlight DACH bietet X4U noch eine ganze Fülle weiterer informativer Sessions, inspirierender Referenten und wertvoller Tipps, die Ihnen Ihre tägliche Arbeit erleichtern und Ihr Unternehmen fit für die Zukunft machen.

Sichern Sie sich jetzt Ihren Platz und stellen Sie sich Ihr individuelles Programm zusammen, das Sie ganz bequem von Ihrem Bildschirm aus verfolgen können!


Jetzt registrieren

Fakten zur Veranstaltung

Was: Experience4U

Wann: 16. und 17. November 2021

Wo: online

Jetzt registrieren

https://www.unit4.com/experience4u

Weitere Informationen finden Sie unter https://www.unit4.com/de. Folgen Sie uns auch auf Twitter @Unit4global
oder auf LinkedIn

Softwareentwicklung lernt Sicherheitskultur

von Lucas von Stockhausen, Director Solutions bei Synopsys

„Sicherheitskultur“ ist ein schillernder Begriff. Pragmatisch gesehen bedeutet er ein gemeinsames Handeln und Kommunizieren in einer Organisation, bei der alle Angehörigen die Anforderungen der Sicherheit fortwährend und ungezwungen mitdenken und dies als integralen Teil ihrer Arbeit betrachten. Für das Thema Cyber-Sicherheit sind viele Unternehmen diesem Idealzustand bereits recht nahe – der Studie BSIMM12 zufolge gelingt dies nun auch zunehmend den Softwareentwicklern. Aber wo liegt dort eigentlich genau das Problem?

Hinter den Bemühungen um eine Sicherheitskultur in ganzen Unternehmen oder Abteilungen steckt eine lange evolutionäre Entwicklung. Sie beginnt ein paar Jahre nach der Jahrtausendwende mit einer ersten Abkehr von der Vorstellung, die normalen Anwender müssten von Administratoren und Sicherheitsverantwortlichen permanent zu richtigem Verhalten gedrängt werden, und zwar am besten mit möglichst exakten Regeln und Sanktionen. Die Vorgaben allerdings waren oft nur für Fachleute verständlich. Wenig später, als Folge immer mächtigerer Hard- und Software-Werkzeuge in den Händen der „Nur“-Anwender und der gleichzeitig um sich greifenden Vernetzung, entstand zusätzlich die Vorstellung, dass „Insider“ gleichzeitig eine ebenso große Bedrohung für die Unternehmens-IT bedeuten wie schwer fassbare Hacker im Internet.

Sicherheitspartner statt „Nur“-Anwender

Beide Einschätzungen sind noch immer nicht ganz verschwunden. Aber nach und nach hat sich ein partnerschaftliches Verhältnis zwischen IT-Security-Abteilungen und Anwendern durchgesetzt, bei denen die Mitarbeiter für Security-Belange sensibilisiert werden und man sie befähigt, sich für die jeweils sicherste Vorgehensweise bei der Arbeit mit der IT zu entscheiden. Die Sicherheitsteams wiederum verstehen sich seltener als Oberlehrer in Sachen Security und stehen als Ratgeber bei schwierigeren Entscheidungen bereit.

Vergleichsweise schlecht hat der Paradigmenwechsel kurioserweise in einem Bereich funktioniert, in dem eigentlich alle Beteiligten IT-Spezialisten sind: Im Sektor der Software-Entwicklung. Woran das liegt, erschließt sich bei einem genauen Blick auf die Vorbedingungen von Sicherheitskultur einerseits und von typischen Software-Entwicklungsprojekten andererseits.

Sicherheitskultur bedeutet, wie schon erwähnt, dass die Angehörigen einer Organisation nicht nur Befehlsempfänger in Sachen sicheres Verhalten sind, sondern vertrauensvoll in Security-relevante Entscheidungen eingebunden werden. Dies kann zum Beispiel bedeuten:

  • Beteiligung an Risiko-Einschätzungen,
  • Beteiligung an der Klassifizierung von Informationen und
  • Mitarbeit an geeigneten Methoden zur Umsetzung von Sicherheitsvorgaben.

Sicherheit als Störfaktor

Vor allem der letzte Punkt verdient dabei Beachtung. Kommt Sicherheit nur als Vorgabe daher oder in Form von rigiden Vorschriften des Typs „one size fits all“, führt dies fast immer dazu, dass einige Anwendergruppen durch die Maßnahmen stärker in ihrer Arbeit behindert werden als andere. Aufwändige Anmeldeprozeduren mögen im Büro unproblematisch sein, in der Produktionshalle dagegen halten sie den Betrieb auf oder führen sogar zu gefährlichen Verzögerungen beim schnellen Zugriff auf eine Maschine. Ständige „Reviews“ eines Arbeitsprozesses stören eine Routinetätigkeit weniger als einen kreativen Entwicklungsprozess. Ob eine Sicherheitskultur entstehen kann, hängt also stark davon ab, ob Maßnahmen oder Prozesse zum Teil des Arbeitsalltags werden können oder nicht.

Darüber hinaus müssen die Security-Teams und Anwender Einverständnis darüber erzielen, dass hinter Sicherheitsmaßnahmen und -regeln keine abstrakten, willkürlichen Vorgaben stecken, sondern notwendige Schutzvorkehrungen für die Produktion, die Kommunikation, die im Unternehmen vorhandenen Daten und für die Produkte, wie sie die Kunden tatsächlich verlangen.

Zielkonflikte

Die problematische Situation im Bereich Softwareentwicklung resultiert aus mehreren Besonderheiten. Softwareentwicklung gerät heute häufig zu einer Art „kreativer Produktion im Akkord“. Sie findet in spezialisierten Unternehmen oder Abteilungen statt, welche innerhalb eines Unternehmens häufig abgekoppelt agieren. Die internen oder externen Kunden der Entwickler drängen angesichts der zunehmend dynamischen Entwicklung der Anforderungen seitens der Endanwender auf Agilität und Flexibilität. Das macht sorgfältiges Vorgehen und tiefgehende Tests unter Umständen schwierig. Belohnt wird hier, wer schnell neue Funktionen bereitstellen kann. Zugleich aber steigen die Anforderungen an die Sicherheit von Code, und zwar wieder aufgrund von Vorgaben oder Erwartungen der Endkunden. Im Business-to-Business-Sektor wird es Usus, von Softwarelieferanten Sicherheitsgarantien zu fordern oder Einblicke in die sicherheitsbezogenen Prozesse der Produktion zu verlangen. Aus dieser Perspektive werden Sorgfalt und Tests belohnt. Dass aber auch ein entsprechender Zeitrahmen für derartiges Vorgehen eingeräumt wird, kommt aufgrund des Agilitätsdrucks kaum vor.

„…nicht selten wird bestehendes Wissen zur Defense-in-Depth-Philosophie oder das Prinzip der minimalen Rechtevergabe ebenso wie andere Best Practices innerhalb der Softwareentwicklung auf dem Altar der Agilität geopfert.“

Lucas von Stockhausen

Nun mag man einwenden, dass in der skizzierten Schere zwischen dem Agilitätsprimat und Sorgfaltspflicht heute fast alle IT-Services stecken. Was für die Software-Entwicklung aber noch hinzukommt, ist die ungünstige Form der Erfolgskontrolle. Sie besteht fast immer in einer Endabnahme zum geforderten Lieferdatum. Zu diesem Zeitpunkt müssen die geforderten Funktionen bereitstehen, und der Kunde prüft auf abstrakte Sicherheitsvorgaben hin – die er leider meist nicht risiko- und situationsbezogen aufstellt, sondern in Form einer absoluten Forderung: Die Software muss fehlerfrei sein. Im Extremfall könnte es sein, dass ein Produkt einfach deshalb nicht abgenommen wird, weil es Open-Source-Komponenten enthält, die bekanntermaßen eine Sicherheitslücke aufweisen.

Prinzipien der sicheren Softwareentwicklung

Auf den ersten Blick scheint dieses Prinzip der Sicherheit durchaus dienlich zu sein, auf den zweiten Blick allerdings führt es zu unnötigem Druck aus dem oben beschriebenen Zielkonflikt heraus. Programmierer greifen zu Open-Source-Komponenten, wenn es für Teilanforderungen ihres Projekts bereits erprobte Lösungen gibt. Sie tun dies, um Zeit zu sparen, das Lieferdatum einhalten zu können und Energie auf spezifische, neue Lösungen verwenden zu können. Damit stellt sich allerdings die drängende Frage, ob die Entwicklungsteams zu diesem Zeitpunkt genug darüber wissen, wie die Komponenten zukünftig genutzt werden – ein grundsätzliches Problem aus dem Themenkreis „sichere Softwareentwicklung“.

Gemäß einem Defense-in-Depth-Ansatz und unabhängig vom jeweiligen Unternehmen ist es sinnvoll, Sicherheitsprobleme und Schwachstellen einer Software zu beheben, egal wie unwahrscheinlich ein konkreter Exploit nach heutigem Kenntnisstand erscheinen mag. Und nicht selten wird bestehendes Wissen zur Defense-in-Depth-Philosophie oder das Prinzip der minimalen Rechtevergabe ebenso wie andere Best Practices innerhalb der Softwareentwicklung auf dem Altar der Agilität geopfert.

Die letzten beiden Jahre haben uns bereits eine Reihe von Angriffen auf unwahrscheinlich anmutende Ziele beschert, und auch in Zukunft werden Angreifer von Vorteilen durch Software-Exploits profitieren. DevSecOps löst nicht ohne Grund mehr und mehr den zentralisierten Ansatz für Anwendungssicherheit ab. Über die Zeit mündete dieser in einen trägen und frustrierenden Prozess, der zuverlässig dafür gesorgt hat, dass Entwickler die Sicherheitsabteilungen als Verhinderer betrachten. Das Endergebnis sind Anwendungen, die kaum sicherer sind und die zudem verzögert auf den Markt kommen.

Im aktuellen Modell ist Sicherheit untrennbar mit der Softwareentwicklung verbunden und in jede Phase eingebettet, vom Design über die Implementierung bis hin zur Wartung, automatisiert und so weit wie möglich in den Softwareentwicklungsprozess integriert.

Damit gelingt es die Vorteile der Automatisierung auszunutzen, die Geschwindigkeit zu maximieren und im besten Fall eine Kultur der kontinuierlichen Verbesserung zu etablieren.
In anderen Bereichen Bereichen kommen laut den Ergebnissen von BSIMM12 Mechanismen der risikogesteuerten Sicherheit ins Spiel. Schwachstellen werden dort nur angegangen, wenn sie relevant sind. Genau deshalb hat die Security in den vergangenen Jahren Verfahren entwickelt, die eine Kontext- und Risiko-bezogene Priorisierung von Maßnahmen erlauben. Dies setzte allerdings neben dem Aufbau von Tool-Sets auch die Zusammenarbeit zwischen den Betreibern der produktiven Systeme in den Organisationen (z.B. den „Application Ownern“) und den Sicherheitsspezialisten voraus, bei denen man sich über abstrakte Mindestanforderungen und jene Risiken austauscht, die zusätzlichen Schutzbedarf indizieren.

Bedarfsgerechtes Sicherheitsniveau

Das bräuchte die Software-Entwicklung auch, um passgenaue Qualität und Sicherheit bei gleichzeitig maximaler Agilität zu erreichen. Die Studie „BSIMM12“ der Synopsys Software Integrity Group zeigt, dass Software-Entwickler in verschiedenen IT-Bereichen und Branchen zunehmend Prozesse anstoßen, die die Produktionsmethodik in die entsprechende Richtung bewegen. „BSIMM“steht dabei für „Building Security in Maturity Model“. Die Studie befragt Jahr für Jahr Organisationen im Bereich Software-Entwicklung danach, auf welche Security-bezogenen Qualitätsmaßnahmen sie besonderen Wert legen und welche wie besonders vorantreiben. Und hier zeigt sich in der aktuellen Ausgabe ein ganzes Bündel an Aktivitäten, die auf eine positive Sicherheitskultur hinauslaufen können. Ein paar der wichtigsten Punkte:

Risikobasierte Sicherheit: Laut den Resultaten von BSIMM12 werden Sicherheitsfunktionalitäten an den Risiken ausgerichtet, denen die fertige Software in ihrem Einsatzkontext ausgesetzt ist. Dazu wird es immer wichtiger, sich während der Entwicklung schon über das Sicherheitsniveau der Hosts und des Netzwerks abzustimmen, in der die Software arbeiten soll. „Kooperation“ ist hier der zentrale Aspekt.

Interaktion mit Incident Response: Software-Entwickler stimmen sich enger mit den Security-Spezialisten in der Organisation ab, die tatsächliche Angriffe und Bedrohungen erkennen. So wandelt sich Sicherheit vom abstrakten Thema zur realen, nachvollziehbaren Anforderung.

Häufigeres, kleinteiliges und integriertes Testen: Statt groß angelegter passiver und aktiver Security-Tests (deren Ergebnisse Entwicklungsprojekte auch immer wieder zurückwerfen können) werden einzelne Module möglichst automatisiert getestet und auch bei kleineren Fortschritten fokussierte Prüfungen durchgeführt. Damit verliert die Sicherheitsbewertung ihren Charakter als „Angstgegner“ dem man tunlichst aus dem Weg gehen sollte.

Insgesamt findet ein Perspektivenwechsel statt, der „Resilience“ – also die Widerstandsfähigkeit von Software gegen Angriffe oder Bedrohungen – zum integralen Qualitätsmerkmal macht. Es genießt als Ziel während der Entwicklungsarbeit den gleichen Stellenwert wie die funktionalen Aspekte und kann mit ähnlichen Mitteln erreicht werden.

https://www.synopsys.com/

Aufmacherbild / Quelle /Lizenz
Photo by Markus Spiske on Unsplash

Der größte Hebel der Klimatransformation: Die Lieferkette

Warum die Lieferkette besondere Beachtung bei den eigenen Klimaschutzvorgaben haben sollte, erläutert Lara Obst, Mitgründerin und Geschäftsführerin von THE CLIMATE CHOICE in einem ausführlichen Gastbeitrag

Obwohl die Dringlichkeit einer ganzheitlichen Klimatransformation mittlerweile deutlich zu spüren ist, befinden wir uns heute noch immer in den Startlöchern der Klimatransformation. Der Wille ist da: Fast jedes zweite Unternehmen in Deutschland will perspektivisch klimaneutral werden (Quelle: Bitkom). Doch gesetzte Ziele und die Realität passen bislang noch kaum zusammen. So melden bisher nur 7 Prozent der Unternehmen, die den Fortschritt umfassender Klimaziele messen, auch tatsächliche Emissionsreduktionen (Quelle: World Economic Forum).

Lieferkette mit größtem Anteil an Treibhausgasen

Woran liegt das und welcher Hebel könnte den dringend nötigen Umschwung bringen? Die Antwort liegt ganz eindeutig in der Lieferkette. Hier entstehen bis zu 90 Prozent der Treibhausgasemissionen eines Unternehmens (Quelle: World Economic Forum). Eine erfolgreiche Umsetzung der eigenen Klimaziele ist daher für die meisten Unternehmen nur möglich, wenn sie ihre Lieferkette genau verstehen und Lieferanten aktiv in ihre Klimatransformation einbeziehen.

Das wissen auch die meisten Unternehmen. Trotzdem bleibt die Lieferkette und ihr Klimaeinfluss auf die eigene Klimaleistung häufig eine “Black Box”. Das kann die Zusammenarbeit zwischen Klimaabteilung und Einkauf ändern! Beim Procurement Barometer 2021 gaben bereits 69 Prozent aller Befragten an, dass sie die Nachhaltigkeitsleistung bei der Auswahl sowie bei Vertragsverlängerungen ihrer Lieferanten mit berücksichtigen. 2019 gaben dies nur 51 Prozent an. Der Trend zum klimarelevanten Einkauf steigt also. Aber trotz der Steigerung bedeutet das Studienergebnis auch, dass nach wie vor 31 Prozent der befragten Unternehmen die enorme Klimarelevanz der eigenen Lieferkette unterschätzen bzw. keine entsprechenden Maßnahmen für ihre Dekarbonisierung bereitstellen können.

Herausforderungen der Lieferkettendekarbonisierung

Lara Obst beschreibt, wie Unternehmen ihre Lieferkette in den Carbon Footprint miteinbeziehen können.

Durch steigende Marktanforderungen, Kundennachfrage und internationale Regulation stehen Unternehmen heute vor der Herausforderung, ihre Lieferkette zu transformieren. Allerdings verfügen sie hierfür häufig nicht über die nötigen Ressourcen und entsprechenden Tools. So wundert es kaum, dass die Einschätzung der Klimaleistung einzelner Lieferanten oft noch manuell und kompliziert via Excel-Tabellen erfolgt. Hinzu kommt, dass die Daten meist unzureichend bleiben und kaum mit den sich immer weiter entwickelnden Klimastandards abgestimmt sind. Klimabeauftragte und Einkäufer:innen stehen somit gleichermaßen vor der Problematik, klimarelevante Daten erheben zu müssen, ohne die sich keine umfassende Dekarbonisierung der Lieferkette einleiten lässt.

Analyse und Kommunikation im Zentrum des Lieferantenmanagements

Um diese Hürden zu überwinden, gilt es zunächst, im Einkauf mit der Klimaabteilung zusammenzuarbeiten und die ganzheitliche Klimaanalyse der eigenen Lieferkette als erste Priorität zu setzen. Spezialisierte und softwaregestützte Analyse-Tools können hierbei sowohl helfen, die Datenerfassung von einzelnen Lieferanten schneller und effizienter zu gestalten, als auch sämtliche für die Klimatransformation relevanten Daten gemäß international anerkannter Standards in einem gemeinsam zugänglichen Klima Scoring abzudecken. Auf Basis dieser gründlichen Status-Quo-Analyse entsteht ein genauer Überblick über die ganzheitliche Klimaleistung entlang der Wertschöpfung sowie die Möglichkeit, Klimaziele handlungsorientiert umzusetzen.

Zur Erreichung der gesetzten Ziele kommt ein zweiter zentraler Faktor ins Spiel: Kommunikation. Denn die Dekarbonisierung der Lieferkette lässt sich nur in der Zusammenarbeit mit den eigenen Lieferanten umsetzen. Ohne eine transparente Kooperation sowie die geteilte Bereitschaft, die eigene Klimaperformance zu verbessern, ist kein Fortschritt möglich. Anstatt also Vorgaben nach unten zu diktieren, sollten Unternehmen einen offenen Austausch auf Augenhöhe suchen. Ebenso wichtig für den Erfolg der Umsetzung ist es, Lieferanten im Prozess zu unterstützen, kleine Schritte schnell zu realisieren und langfristige Ziele als gemeinsame Verbesserung der Klimawirkung anzustreben.

Von Transparenz zu Climate Actions

Um den Erfolg der laufenden Dekarbonisierungsmaßnahmen sicherzustellen, müssen Zwischenergebnisse regelmäßig gemessen und sichtbar gemacht werden. So lassen sich Prozesse gegebenenfalls anpassen sowie Handlungsfelder weiterentwickeln und optimieren. Transparenz bildet hierfür die grundlegende Voraussetzung – sowohl auf Seiten der Lieferanten als auch auf der Seite einkaufender Unternehmen. Die Offenlegung der eigenen klimarelevanten Daten wird dabei ohnehin in der vorgeschriebenen Kommunikation durch Klima-Reportings immer wichtiger, unterstützt aber auch maßgeblich den Vertrauensaufbau zu sämtlichen Stakeholder:innen. Politische Vorschriften wie die Corporate Sustainability Reporting Directive (CSRD) oder die EU-Taxonomie verpflichten Unternehmen bereits dazu, ihre ganzheitliche Klimaperformance in jährlichen Berichten sichtbar zu machen. Dazu zählt nicht nur die eigene CO₂-Bilanz, sondern besonders die Themen Governance, Strategie und Metriken. Die Offenlegung dieser kann über ein entsprechendes Klima Scoring erfolgen, welches Aufschluss über den Reifegrad der eigenen Klimastrategie, des Klimarisikomanagements sowie der eingesetzten Dekarbonisierungsmaßnahmen gibt.

Transparenz, Kommunikation und eine umfassende Datengrundlage ermöglichen letztlich eine zukunftsorientierte Zusammenarbeit – sowohl im eigenen Unternehmen zwischen Klimaabteilung und Einkauf als auch entlang der Lieferkette. Diese bildet die Grundvoraussetzung für echte Klimatransformation, die Unternehmen dabei unterstützt, ihre Klimaziele in die Tat umzusetzen und Dekarbonisierungsmaßnahmen entlang der Lieferkette zu realisieren.

Über die Autorin

Lara Obst ist Mitgründerin und Geschäftsführerin von THE CLIMATE CHOICE. In ihrer Masterthesis entwickelte sie ein Modell zur Sustainability-Performance-Messung auf Geschäftsebene, welche den europäischen Philipp-De-Wood-Preis von Deloitte erhielt. Seitdem war sie u. a. Co-Founder von MOWEA (modulare Windenergieanlagen), Venture Developer von Weeve.network (Blockchain IoT Platform) und Corporate Accelerator Manager DACH

Augen auf für Bedrohungen jenseits von Ransomware

Warum man bei der Abwehr von Ransomware nicht nur auf Ransomware-Attacken schauen sollte, erläutert Pieter Arntz, Malware-Analyst bei Malwarebytes

Ransomware-Attacken sorgen immer wieder für Schlagzeilen und dominieren in den letzten Jahren die Diskussionen rund um Cybersicherheit. Dabei geraten eine Reihe anderer Bedrohungen der IT-Sicherheit und Cybersecurity-Trends in den Hintergrund, die mehr Aufmerksamkeit verdienen. Einige der im Folgenden zu besprechenden Punkte können im Zusammenhang mit Ransomware relevant werden, sind aber grundsätzlich unabhängig von Erpressungssoftware.

Bekannte Sicherheitslücken

Sicherheitsexperten können häufig nur den Kopf schütteln, wenn sie die Ursachen von Datendiebstählen untersuchen oder die IT-Sicherheit eines Unternehmens in Form eines Penetrationstests auf die Probe stellen: nicht selten finden sie Sicherheitslücken, die seit Monaten oder gar Jahren bekannt, aber noch immer nicht behoben sind. Das gilt keineswegs nur für Software-Produkte, die unzureichend gepatcht sind. Noch verblüffender ist, dass bekannte Schwachstellen in Netzwerkapparaten, IT-Unsicherheit ab Werk sozusagen, oft nicht behoben werden.

Ein prominentes Beispiel ist eine bekannte Schwachstelle in der Pulse Connect Secure (PCS) SSL-VPN-Appliance, einem Netzwerkgerät, das ironischerweise durch Verschlüsselung von Datenströmen für mehr Sicherheit sorgen soll. Cyberkriminellen war es gelungen Schadsoftware auf Pulse Secure-Geräten zu installieren, um Anmeldedaten zu stehlen und Zugang zu kompromittierten Netzwerken zu erhalten. Bevor die Sicherheitslücke vom Hersteller gestopft wurde, war es Hackern sogar gelungen, die internen Netzwerke von US-Verteidigungsunternehmen und Regierungsbehörden zu kompromittieren. Inzwischen aber ist Abhilfe längst verfügbar und dennoch finden sich in vielen Organisationen noch immer die Appliances mit offengelegter Sicherheitslücke.

Pieter Arntz sensibilisiert für IT-Gefahren abseits von Ransomware, die leider derzeit ein wenig aus dem Fokus geraten, aber alle für Ransomware-Angriffe genutzt werden können.

IT-Abteilungen sollten sich auch keineswegs dem Irrglauben hingeben, dass die großen, bekanntesten Hersteller ihnen höhere Sicherheit bieten. Auch die Router des Marktführers Cisco fallen beispielsweise immer wieder durch Sicherheitslücken auf, die es umgehend zu beheben gilt.

Hintertüren

Neben den bekannten Schwachstellen in Netzwerkgeräten sollte die IT-Abteilung auch den nicht bekannten bzw. nicht offiziell zugestandenen Sicherheitslücken ihre Aufmerksamkeit widmen. Viele Hersteller bauen in ihre Geräte „Back Doors“ ein, über die sie auf Abstand und gegebenenfalls ohne Wissen der Anwender auf ihre Geräte und die angeschlossenen Netzwerke zugreifen können. Oft werden Hersteller auch von den Regierungen im Land der Unternehmenszentrale zum Einbau solcher Hintertüren verpflichtet, die es den Geheimdiensten des jeweiligen Landes erlauben, durch die Hintertüren in Netzwerke von Unternehmen und Behörden einzudringen. Insbesondere chinesischen, aber auch US-amerikanischen Herstellern wird immer wieder der Einbau solcher Hintertüren vorgeworfen, die im übrigen auch Cyberkriminellen als Einfallstor dienen können. Letztlich sollte die IT-Abteilung also bereits bei der Herstellerwahl den Sicherheitsaspekt einbeziehen und sich garantieren lassen, dass die fraglichen Produkte keine Hintertüren enthalten. Viele deutsche Behörden machen eine solche Garantie inzwischen zum Bestandteil ihrer Ausschreibungen.

Falsche Freunde

Eine beliebte Methode von Cyberkriminellen, um sich Zugang zum Netzwerk ihres Opfers zu verschaffen, besteht in der Benutzung von Sicherheits-Tools für ihre Zwecke. Das perfide an dieser Methode ist, dass es sich um bekannte, weithin genutzte Tools handelt, deren Aktivitäten darum häufig von den Sicherheitsmechanismen eines Unternehmens nicht entdeckt werden. Besonders populär bei Hackern ist ein Tool namens „Cobalt Strike“. Der Eintrag in Wikipedia bringt dessen legale und illegale Funktionsweisen gut auf den Punkt: „Cobalt Strike ist eine Software mit flexiblen Funktionen, um Wirtschaftsspionage auf dem eigenen Netzwerk zu simulieren, Abwehrmaßnahmen zu testen und die eigene Computersicherheit zu erhöhen. Es wird aber auch häufig von echten Angreifern wie APT-Gruppen oder Ransomware-Gangs verwendet. Zum Funktionsumfang gehören die Angriffs-Aufklärung, das Eindringen, das Errichten eines stabilen Zugangs mit einer soliden Operationsbasis im Netz des Opfers sowie der anschließende Diebstahl von Daten.“ Gegen die illegale Nutzung von Sicherheits-Tools kann sich ein Unternehmen am besten durch den Einsatz oft frei verfügbarer Lösungen schützen, die bei Experten unter Akronymen wie „SIEM“, „YARA“ oder „SNORT“ bekannt sind.

RDP-Angriffe

RDP-Angriffe haben in der Pandemie aufgrund des Homeoffice-Booms stark zugenommen. RDP steht für „Remote Desktop Protocol“. Es handelt sich um ein von Microsoft entwickeltes Kommunikationsprotokoll, mit dem ein Benutzer eine Verbindung zu einem entfernten Windows-Computer oder -Server herstellen kann. Die Verbindung wird standardmäßig über Port 3389 aufgebaut und über ein Passwort gesichert. Für Cyberkriminelle ist der Zugriffsort also einfach zu identifizieren; nur das Passwort steht zwischen ihnen und dem Netzwerkzugang. Durch die enorme Verbreitung des RDP ist es für Hacker zusätzlich attraktiv. Oft sind ihre RDP-Angriffe mit einfacher, roher Rechenkraft (Brute-Force-Methode) erfolgreich. Sie bombardieren die Schnittstelle mit Millionen von Passwörtern pro Minute und verschaffen sich so Zugriff. Dass die meisten Anwender bei der Wahl ihrer Passwörter wenig Fantasie walten lassen, erschwert ihnen die Sache nicht eben. Hauptproblem des RDP-Protokolls ist allerdings, dass sich der Zugang überhaupt durch bloße Rechenkraft erzwingen lässt und nicht nach einigen missglückten Versuchen gesperrt wird, wie wir es z.B. vom Online-Banking oder unserem Webmail-Konto kennen. Bei Aktivierung des Protokolls erlaubt die Grundeinstellung beliebig viele Versuche der Passworteingabe. Die IT-Abteilung muss diese Möglichkeit explizit deaktivieren. Das ist sehr simpel, wird aber häufig übersehen oder vergessen. Ein kleiner Fehler, der schwerwiegende Folgen haben kann.

Der menschliche Faktor

Bereits im vorangehenden Absatz wurde auf mangelnde Fantasie von Mitarbeitern bei der Wahl ihrer Passwörter erwähnt. Allgemein sind die Menschen einer Organisation der entscheidende Faktor für ihre IT-Sicherheit oder -Unsicherheit. Die besten technischen Maßnahmen können nichts gegen Cyberkrimelle ausrichten, wenn Angestellte ihre Passwörter nicht sorgfältig wählen oder gar unbedarft an Dritte weitergeben. Eine gute Schulung der Mitarbeiter ist darum zentraler Bestandteil jeder guten IT-Sicherheitsstrategie.

Als Teil der Schulung müssen die Mitarbeiter verstehen, wie wichtig sichere Passwörter sind und wie sie auszusehen haben. Ein entscheidender Grund, warum viele Mitarbeiter sich keine Mühe bei der Erstellung ihrer Passwörter geben und darüber hinaus vielfach dasselbe Passwort für verschiedene Anwendungen und Konten nutzen, ist die vermeintliche Notwendigkeit Passwörter häufig zu wechseln. Diese Anforderung kann die Verwendung sicherer Passwörter zugegebenermaßen zur mnemotechnischen Herausforderung machen. Glücklicherweise ist ein Wechsel der Passwörter nach neueren Erkenntnissen gar nicht erforderlich. Wichtig ist lediglich, dass ein Passwort möglichst lang und komplex ist und sich nicht in gängigen Lexika finden lässt, die für Brute Force-Angriffe herangezogen werden.

Das zweite wesentliche Thema der Mitarbeiterschulung ist Phishing. Als „Phishing“ bezeichnet man Versuche Cyberkrimineller, sich über digitale Kommunikationsmittel als vertrauenswürdiger Partner auszugeben, um beispielsweise an persönliche Daten des Opfers zu gelangen oder es zur Ausführung einer Tat zu bewegen, die dem Cyberkriminellen zugutekommt. Mitarbeiter müssen lernen Phishing-Versuche zu erkennen und der IT-Abteilung zu melden. Das wird zunehmend schwierig, weil Cyberkriminelle viel besser darin geworden sind, offizielle Kommunikationsformen sprachlich und im Aussehen nachzuahmen. Die Zeiten schlecht übersetzter, holpriger Phishing-E-Mails sind vorbei. Allerdings ist auch zu beachten, dass Cyberkriminelle häufig informelle Wege der Kommunikation wie Social Media für Phishing einsetzen. Mir sind schon häufiger derartige Fälle untergekommen. Zuweilen geben die Opfer via Social Media sogar die Fragen und Antworten preis, die ihnen das Zurücksetzen ihrer Passwörter erlauben. Da die Cyberkriminellen also ihre Maschen fortlaufend weiterentwickeln, müssen die IT-Sicherheitsschulungen für das Personal regelmäßig aufgefrischt werden.

Jenseits von Ransomware

Die behandelten Themen bieten einen Querschnitt im Bereich IT-Sicherheit jenseits der Fixierung auf Ransomware. Alle genannten Schwachstellen und Probleme können auch als Basis für Ransomware-Angriffe genutzt werden und sollten deshalb vorrangig betrachtet werden, will man Ransomware ebenso bekämpfen wie Datendiebstahl oder Spionage. 100prozentige IT-Sicherheit kann es nicht geben, aber wer die erwähnten Sicherheitsmaßnahmen sorgfältig umsetzt, macht sich damit deutlich weniger leicht angreifbar als viele andere Unternehmen und somit zu einem viel weniger attraktiven Ziel Cyberkrimineller. Schließlich gehen diese gerne den Weg des geringsten Widerstands.

Weitere Informationen unter:
https://de.malwarebytes.com/

Marketing und KI: KPIs kanalübergreifend prognostizieren

Best Practice

Innovatives Marketing bei Generali Schweiz: KI optimiert Kampagnen und Budgets

Generali Schweiz geht neue Wege: Die Versicherungsgesellschaft hat sich das Start-up nexoya an die Seite geholt, das auf maschinelles Lernen und künstliche Intelligenz für datengestützte Voraussagen setzt. Auf dieser Basis optimieren die Marketing-Verantwortlichen Multi-Channel-Kampagnen und Budgetzuteilung – und sind so der Konkurrenz einen Schritt voraus.

Generali ist eine der größten Versicherungs- und Vermögensverwaltungsgesellschaften der Welt. Das 1831 gegründete Unternehmen beschäftigt fast 72.000 Mitarbeiter und betreut 61 Millionen Kunden in 50 Ländern. Generali Schweiz entwickelt innovative Lösungen für Produkte genauso wie für interne Prozesse. Und das aus gutem Grund: Auf dem Markt herrscht ein hoher Wettbewerbsdruck. Hier den Überblick zu behalten und schnell auf Veränderungen zu reagieren, ist eine enorme Herausforderung.


„Im Unterschied zu einfacher Automatisierung von Prozessen lernen KI-Algorithmen über verschiedene Muster und verbessern ihre Ergebnisse kontinuierlich.“


Gastautor: Manuel Dietrich, nexoya

Für die Versicherer wird es daher immer wichtiger, die Kunden zum richtigen Zeitpunkt auf dem richtigen Kanal mit der richtigen Botschaft anzusprechen. Generali Schweiz setzte daher eine Always-On Strategie in Zusammenarbeit mit der Media-Agentur Dentsu Aegis Network und der Kreativ-Agentur TBWA um. Mit einer ausgefeilten Zielgruppen-Strategie mittels Audience Analysen auf Google Analytics 360 werden Nutzer in Echtzeit mit kontextabhängigen Botschaften auf verschiedenen Kanälen und Endgeräten angesprochen.

KI-Algorithmus steigert Effizienz um 24 Prozent

Seit dem Sommer 2020 arbeitet Generali Schweiz mit dem Zürcher Start-up nexoya zusammen, das für seine Lösung „nexoya Marketing Analytics“ auf maschinelles Lernen und künstliche Intelligenz setzt. Das Marketing ist so in der Lage, die zukünftige Performance einzuschätzen, die Kampagnen zu optimieren und die Budgets auf Grundlage von KI-basierten Vorhersagen ideal auszurichten.

Bei der Auswahl war entscheidend, dass die Lösung auch beim Einsatz modernster Technologien der hohen Datenschutzrichtlinie entspricht. nexoya erfasst ausschließlich nicht personalisierte Daten, die in zertifizierten Schweizer Rechenzentren liegen. In einer ersten Simulation ermöglichte eine gezielte Cross-Channel-Optimierung zwischen Google Display Netzwerk (GDN), Programmatic, Facebook und Instagram eine Effizienzsteigerung von 24 Prozent.

„Bei Generali Schweiz ist der Einsatz von KI-basierten Ansätzen zur Kampagnenoptimierung nichts Neues. Die meisten Lösungen sind jedoch kanalspezifisch gebaut und eine holistische Sicht fehlte nach wie vor. Mit nexoya haben wir den idealen Partner gefunden, um unsere KPIs kanalübergreifend zu prognostizieren und auf deren Basis datengetriebene Budget-Anpassungen vorzunehmen“, sagt Maurizio Miggiano, Head of Customer Journey bei Generali Schweiz.

KI ermöglicht tiefe Einblicke in die Daten

60 Prozent der Unternehmen nutzen für die tägliche Entscheidungsfindung bereits künstliche Intelligenz. Im Online-Marketing leistet die auf KI basierende Automatisierung weit mehr, denn Marketingverantwortliche erhalten durch den Einsatz von prädiktiver Analytik tiefe Einblicke in ihre Daten. nexoya arbeitet mit modernen Methoden der KI: Diese berechnet auf Basis der historischen Performance, wie sich jede einzelne Kampagne und jedes einzelne Asset in der Zukunft verhalten werden. Zusätzlich berücksichtigt die KI für ihre Vorhersagen exogene Faktoren wie etwa Wetterdaten.

Auf Grundlage der so vorhergesagten Performance berechnet der Algorithmus die optimale Ausrichtung der einzelnen Budgets über viele verschiedene Kanäle und Kampagnen hinweg. Das Marketing hat zudem die Chance, kanalübergreifend die Effizienz zu steigern: KI aggregiert und verarbeitet problemlos riesige Mengen von Daten verschiedener Kanäle und deckt auf dieser Basis Erkenntnisse und Zusammenhänge auf, die zu einem signifikant besseren Return-on-Investment führen.


Das neue Kampagnentool zeigt Marketingverantwortlichen grafisch aufbereitet das Potenzial ihrer Kampagnen in der Zukunft. (Grafik: nexoya ltd.)
Die Lösung erzeugt per Mausklick automatisierte Reports, zum Beispiel zur Performance der Website, die viele Marketingabteilungen noch mühsam mit Hilfe von Excel erstellen.

Grafiken: nexoya ltd.


nexoya im Pool der innovativsten Projekte der Generali-Gruppe

Im Unterschied zu einfacher Automatisierung von Prozessen lernen KI-Algorithmen über verschiedene Muster und verbessern ihre Ergebnisse kontinuierlich. Auf diese Weise lassen sich Kampagnen laufend optimieren und die Kosten um bis zu 30 Prozent reduzieren, so die Erfahrung des Unternehmens. Das Potenzial steigt, wenn Marketingverantwortliche die Kampagnen-Optimierung mit Always-On Marketing verbinden. So konnte Generali Schweiz dank des Wechsels zu einer modernen Always-On Strategie in Kombination mit dem Einsatz von künstlicher Intelligenz, die CPL, also die Kosten pro Lead, um bis zu 90 Prozent reduzieren.

Die Generali Gruppe hat die Pilotphase in der Schweiz mit nexoya in einen globalen Innovation-Pool aufgenommen. Somit gehört der Pilot zu den innovativsten Projekten von Generali.

Über nexoyaÜber Generali
Das Start-up nexoya ltd. mit Sitz in Zürich und Berlin realisiert seit 2018 automatisierte Analysen für das digitale Marketing mittelgroßer und großer Unternehmen – nutzerfreundlich und datenschutzkonform. Auf Basis von Maschinellem Lernen optimiert die SaaS-Plattform „nexoya Marketing Analytics“ Multi-Channel-Marketingkampagnen: Hierfür aggregiert die Lösung Kennzahlen aus unterschiedlichen Kanälen wie Google Ads, Instagram oder Facebook, stellt sie übersichtlich dar und übernimmt das Monitoring der Kennzahlen. Auf Basis der erfassten Daten und unter Einsatz von künstlicher Intelligenz (Predictive Analytics) optimiert nexoya anschließend die Kampagnen-Budgets. So entlastet die Lösung Marketingteams von operativen Routineaufgaben, vereinfacht automatisierte datengetriebene Entscheidungen und reduziert die Marketing-Kosten um bis zu 30 Prozent. nexoya erfasst ausschließlich nicht personalisierte Daten, die in zertifizierten Schweizer Rechenzentren liegen. Zu den Kunden gehören bekannte Unternehmen wie die Emmi Group, Generali, CSS oder The House Agency. Generali ist eine der größten Versicherungs- und Vermögensverwaltungsgesellschaften der Welt. Unser 1831 gegründetes Unternehmen ist in 50 Ländern der Welt vertreten und verzeichnete 2019 ein Prämieneinkommen von insgesamt rund 70 Milliarden Euro. Mit fast 72.000 Beschäftigten und 61 Millionen Kunden nimmt unsere Unternehmensgruppe in Europa eine führende Marktstellung ein und baut ihre Präsenz in Asien und Lateinamerika kontinuierlich aus. Wir wollen ein lebenslanger Partner für unsere Kunden sein und ihnen über unser konkurrenzloses Vertriebsnetz innovative, individuell abgestimmte Lösungen anbieten.
www.nexoya.comwww.generali.ch

Redaktionskontakt
Sabrina Ortmann, nexoya
E-Mail: press@nexoya.com

Aufmacherbild / Quelle / Lizenz
Image by Fathromi Ramdlon from Pixabay