Vorsicht vor neuer Betrugsmasche im Einzelhandel

Mit einer neuen Masche zocken Betrüger quer durch die Bundesrepublik seit kurzem Einzelhändler ab. Davor warnt der Payment Service Provider Elavon.

Abgesehen haben es die als Käufer-Duos getarnten Ganoven vor allem auf teure Uhren, Schmuck, hochwertige Elektronikartikel sowie Bekleidung und Handtaschen, die häufig in der Vorweihnachtszeit als Geschenk gekauft werden. Und so gehen sie vor: Einer der Betrüger lässt sich beraten und kauft einen teuren Artikel mit Kreditkarte. Während des Bezahlvorgangs lenkt der Komplize den Verkäufer gezielt ab. Blitzschnell gibt der Betrüger manuell die Kartennummer einer gestohlenen Kreditkarte oder betrügerisch erlangte Kartendaten ein, mit der dann bezahlt wird. Wird der Verkäufer misstrauisch, sagt der Betrüger meist, dass es Probleme mit dem Chip oder Magnetstreifen seiner Karte geben würde. Reklamiert der bestohlene Karteninhaber dann die betrügerische Transaktion bei seiner kartenausgebenden Bank, trägt der Händler den Schaden. Payment Service Provider Elavon, der weltweit jährlich elektronische Zahlungen in Höhe von über 500 Milliarden Euro vornimmt, hat in einem Flyer kurz und prägnant aufgelistet, wie sich Einzelhändler schnell und einfach vor Betrügern schützen können.

Das Infoblatt kann kostenlos per E-Mail unter dialog@elavon.com angefordert werden.

Bildquelle / Lizenz: Bild von Arek Socha auf Pixabay

Mikroorganismen in der Landwirtschaft

Dies ist ein Gastbeitrag von Hendrik-Jan Boer

Stellen Sie sich vor, in der Landwirtschaft könnten weniger Pflanzenschutzmittel und Düngemittel verwendet werden, ohne an Produktivität einbüßen zu müssen. Bei NN Investment Partners investieren wir in Unternehmen, die den Wandel der Landwirtschaft hin zu einer nachhaltigeren Zukunft vorantreiben.

Die Natur kann dabei helfen, dass in der Landwirtschaft immer weniger Pflanzenschutzmittel und Düngemittel notwendig sind. Bestimmte in der Natur vorkommende Mikroorganismen haben nachweislich positive Auswirkungen auf die Pflanzengesundheit. Diese Bodenmikroben, auch als Agrar-Mikroben (ag-microbials) bezeichnet, können die Pflanzengesundheit positiv beeinflussen, indem sie den Schädlingsbefall in Schach halten, die Verfügbarkeit von Nährstoffen erhöhen oder auf eine andere, bisher noch unbekannte Weise positiv auf die Pflanze einwirken.

In den kommenden Jahren wird sich das Marktwachstum beschleunigen. Zurückzuführen ist dies auf die Sorgen der Verbraucher bezüglich chemischer Rückstände in ihren Lebensmitteln, strengere Umweltvorschriften, die Entwicklung von Resistenzen bei Schädlingen und das Regulierungsverfahren für Mikroorganismen, das viel einfacher und kostengünstiger ist als für Chemikalien.

Der Markt für Mikroorganismen ist mit rund 3,5 Mrd. USD zurzeit noch eher bescheiden, doch er wächst schnell und wird sich in der nahen Zukunft voraussichtlich mit einer jährlichen Wachstumsrate von 15 % entwickeln. Bis sich Mikroorganismen allgemein durchgesetzt haben, ist es noch ein langer Weg. Zurzeit werden sie nur für einen geringen Anteil der Gesamtanbaufläche eingesetzt. Landwirte müssen erst noch mit dem Phänomen vertraut und von den Vorteilen überzeugt werden, auch der Pull-Faktor der
Verbraucher ist noch gering.

Für die kommende Zeit erwarten wir jedoch eine höhere Marktpenetration. Etliche große Konzerne setzen in zunehmend sichtbarem Maße auf Mikroorganismen. Sie geben beträchtliche Summen für Forschung und Entwicklung für eine breitere Produktpalette und den Nachweis ihrer Wirksamkeit aus. Auch Verbraucher und Behörden unterstützen und fördern die Anwendung von Mikroorganismen in der Nahrungsmittelkette.

Was sind Mikroorganismen in der Landwirtschaft?

Agrar-Mikroben (ag-microbials) sind in der Natur vorkommende (nicht genetisch modifizierte) Mikroorganismen, die nachweislich positive Auswirkungen auf die Pflanzengesundheit haben. Durch ihr Wirken entstehen gesündere Kulturpflanzen und die Erträge werden gesteigert. Sie bieten Landwirten eine wirksame, spezifische und nachhaltigere Alternative zu Lösungen auf chemischer Grundlage. Agrar-Mikroben können die Pflanzengesundheit positiv beeinflussen, indem sie den Schädlingsbefall in Schach halten, die Verfügbarkeit von Nährstoffen erhöhen oder das Pflanzenwachstum fördern.

Landwirten steht eine breite Palette an Hilfsmitteln zur Verfügung, sodass sie gesündere Kulturpflanzen mit höheren Erträgen anbauen können. Dazu gehören unter anderem Düngemittel, Saatgut (mit oder ohne Eigenschaften von gentechnisch modifizierten Organismen) und Pflanzenschutzpräparate, die die Kulturpflanzen vor gefährlichen Schädlingen schützen.

Mikroorganismen können Produkte sämtlicher dieser Kategorien teilweise oder vollständig ersetzen und darüber hinaus synergistisch mit der Pflanze wirken. Vor diesem Hintergrund lässt sich der Markt für Mikroorganismen in drei Unterkategorien einteilen:

  • Biokontrolle – Mikroben zur Regulierung von Insekten, Krankheiten und Unkräutern. Sie treten in direkte Konkurrenz zu Pflanzenschutzpräparaten und stellen rund 80 % der Umsätze an Mikroorganismen-Produkten dar.
  • Biodüngung – Mikroben zur Verbesserung der Nährstoffversorgung von Kulturpflanzen. Sie treten in direkte Konkurrenz zu Düngemitteln und bilden mit einem Anteil von 15 % den zweitgrößten Markt für Mikroorganismen.
  • Biostimulation – Mikroben zum Stimulieren von Kulturpflanzen. Sie treten in Konkurrenz mit einer breiten Palette von Produkten und machen rund 5 % des Markts für Mikroorganismen aus.

Strategische UN-Entwicklungsziele

Mikroorganismen leisten einen Beitrag zu den nachhaltigen Entwicklungszielen (SDGs) der Vereinten Nationen. Dies gilt besonders in Bezug auf das Nachhaltigkeitsziel SDG 2: Zero Hunger durch die Verbesserung der weltweiten Nahrungsmittelproduktion mithilfe von mehr Effizienz und größeren Ernten. Durch ein Plädoyer für weniger Dünger und Pflanzenschutzmittel wird SDG 3 gefördert: Gesundheit und Wohlergehen.

Größte Hürden

Für die meisten dieser Mikroorganismen gilt, dass die erhöhte Wirksamkeit des biologischen Produkts im Vergleich zur Nichtnutzung dieses Produkts oder zu seiner chemischen Alternative nur schwer zu belegen ist. Die umfassenden und in vielen Jahren gesammelten, zuverlässigen Testdaten müssen für Landwirte verfügbar sein, wenn man diese dazu bewegen will, auf Mikroorganismen umzusteigen. Aufgrund der Vielzahl von Variablen, die den Erfolg einer Kultur beeinflussen (siehe Abbildung 1), ist die Landwirtschaft eine überaus komplexe Angelegenheit, und es braucht Zeit und Unmengen an Daten, um zu beweisen, dass ein Produkt verlässliche Vorteile gegenüber anderen Produkten liefert und/oder dass ein Produkt besser als andere am Markt angebotene Konkurrenzprodukte ist.

Was dem Markt für Mikroorganismen in großem Maße förderlich ist, ist das sichtbar gesteigerte Interesse der großen Agrarunternehmen in den letzten Jahren. Alle bedeutenden Hersteller von Pflanzenschutzpräparaten und Saatgut beschäftigen sich gegenwärtig mit Mikroorganismen für die Landwirtschaft. Ihre gemeinsamen Anstrengungen im Zusammenhang mit Forschung, Entwicklung und Vertrieb sollten neue Produkte, eine größere Marktpenetration und ein besseres Verständnis der Vorteile für Landwirte und Verbraucher zur Folge haben.

Marktchancen

Es wird erwartet, dass sich der Markt für Mikroorganismen in den nächsten fünf Jahren mit einer jährlichen Wachstumsrate von 15 % entwickeln wird, wobei das Wachstum anschließend voraussichtlich anhalten wird. Der Markt für Mikroorganismen steckt noch in den Kinderschuhen. Wie Abbildung 2 zeigt, ist die Penetration bei Sojabohnen und Hülsenfrüchten am weitesten fortgeschritten, da die positiven ertragssteigernden Effekte einer Impfung mit Rhizobium-Bakterien bereits seit langem bekannt sind. Sobald Unternehmen beginnen, andere Mikroorganismen in Bezug auf ihre Wirkung auf Ernteerträge zu testen, werden wahrscheinlich weitere positive Wechselwirkungen zwischen den Mikroben entdeckt, was eine vermehrte Verbreitung des Einsatzes von Agrar-Mikroben in anderen Kulturpflanzen nach sich ziehen wird.

Abbildung 2: Der Anteil der Gewächse, die mit Mikroorganismen behandelt werden, ist noch immer bescheiden

Mit Mikroorganismen lassen sich Einkünfte von rund 0,20 USD bis 2 USD pro ha erzielen. Auf derselben Ackerfläche können mehrere Produkte nebeneinander angewendet werden. Während sich bestimmte Mikroorganismen möglicherweise nicht mit anderen vertragen und deshalb zu unterschiedlichen Zeitpunkten ausgebracht werden, sind für andere Mikroorganismen keine Interaktionen bzw. sogar positive Interaktionen bekannt, die einander verstärken. Diese Produkte sind besonders zum „Stapeln“ geeignet oder für den Verkauf mehrerer Produkte zur gleichzeitigen Anwendung.

Wir sehen daher in Mikroorganismen ein signifikantes Potenzial. Ein erfolgreiches Mikroorganismen-Produkt für Mais könnte beispielsweise bei einem angenommenen Preis von 0,80 USD pro ha jährliche Verkaufserträge von 850 Mio. USD erzielen.

Wachstumstreiber

Zu den voraussichtlichen Treibern des Marktwachstums in den kommenden Jahren gehören auch die Sorgen der Verbraucher bezüglich chemischer Rückstände in ihren Lebensmitteln, strengere Umweltvorschriften, die Entwicklung von Resistenzen bei Schädlingen und das Regulierungsverfahren für Mikroorganismen, das viel einfacher und kostengünstiger ist als für Chemikalien. Es folgt eine Betrachtung dieser Faktoren.

Chemische Rückstände: Infolge der von Regulierungsbehörden festgelegten Grenzwerte von chemischen Rückständen, und sogar noch strengerer Grenzwerte, sind Agrar-Mikroben häufig notwendig, um den internationalen Lebensmittelhandel zu erleichtern. Manche Pflanzenschutzpräparate sind in einem Land zugelassen, in einem anderen jedoch nicht. Lebensmittel, die chemische Substanzen enthalten, die in einem bestimmten Land nicht zugelassen sind, dürfen dort nicht verkauft werden. Der zunehmende Druck von regierungsunabhängigen Organisationen und Verbrauchern hat einige Supermarktketten veranlasst, noch strengere Rückstandshöchstgehalte (MRL) für das von ihnen verkaufte Obst und Gemüse einzuführen. Die größten niederländischen und deutschen Supermarktketten haben MRL-Werte eingeführt, die unter den in den europäischen Richtlinien festgelegten Werten liegen. Einige Supermärkte haben MRL-Werte festgelegt, die lediglich ein Drittel des gesetzlichen Grenzwerts betragen.

Zunehmende Fokussierung auf die Umwelt: Verbraucher sind zunehmend besser informiert und ihre Besorgnis bezüglich chemischer Rückstände wächst. Umweltfreundliche
Chemikalien werden dadurch stärker in den Mittelpunkt gerückt. Die Regulierungsbehörden ziehen immer mehr Pflanzenschutztechnologien aus dem Verkehr, die als zu
giftig für die Umwelt oder für die Verbraucher gelten. Dies macht Mikroorganismen zu einer attraktiven Alternative, da die Verbraucher sie positiver wahrnehmen als chemische Pflanzenschutzmittel.

Einfacheres Regulierungsverfahren: Um neue mikrobielle Produkte erfolgreich auf den Markt zu bringen, sind weniger Zeit und Geld erforderlich als bei konkurrierenden chemischen Produkten. Der typische Zeitrahmen für die Zulassung von biologischen Produkten beträgt drei bis vier Jahre, im Vergleich zu etwa zehn Jahren im Falle von chemischen Pflanzenschutzmitteln.
Die Gesamtkosten für die Entwicklung und Registrierung eines biologischen Produkts belaufen sich auf rund 25 Mio. USD, während die Entwicklung und Registrierung eines herkömmlichen Pflanzenschutzmittels etwa zehnmal so viel kostet. Dies bedeutet, dass die Einführung neuer landwirtschaftlicher Produkte schneller und kostengünstiger erfolgen kann und dass die kurzfristigen Renditen höher sein dürften als bei herkömmlichen Pflanzenschutzpräparaten.

Größe des Absatzmarktes für Pflanzenmittel 2018 (Mrd. USD)

Längerfristig gesehen sind wir der Auffassung, dass Formulierungstechnologien und Markenbekanntheit ein entscheidender Aspekt des „economic moat“ bzw. des wirtschaftlichen Wallgrabens zum Schutz dieser höheren Renditen sein werden. Geringere Entwicklungskosten und kürzere Zulassungszeiten für Mikroorganismen dürften zu niedrigeren Eintrittsbarrieren führen als bei chemischen Pflanzenschutzmitteln.

Entwicklung von Resistenzen gegenüber Chemikalien: Im endlosen Wettrüsten zwischen Mensch und Pflanzenschädlingen werden die Schädlinge irgendwann resistent gegen die meisten der von uns entwickelten Lösungen zu ihrer Bekämpfung. Ständig müssen neue Lösungen entwickelt werden, und Mikroorganismen bieten eine neue Wirkungsweise.

Ersatz bisheriger Produkte

Eine andere Möglichkeit, das Potenzial der Mikroorganismen zu bewerten, ist der Blick auf die Produkte, die sich teilweise oder ganz durch Mikroorganismen ersetzen ließen. Mikroorganismen treten in Konkurrenz zu Düngemitteln, Saatgut (Eigenschaften), Pflanzenschutzpräparaten und Produkten zur Saatgutbehandlung. Im günstigsten Fall könnte der gesamte erreichbare Markt (Total Addressable Market; TAM) für Mikroorganismen unserer Auffassung nach ein Volumen von weit über 250 Mrd. USD erreichen.

Das Wachstum im Düngemittelmarkt könnte geringer ausfallen, da viele der neuen Mikroorganismen-Produkte auf die Erhöhung der Nährstoffaufnahme abzielen und den Düngerverbrauch möglicherweise reduzieren.

Zwei neue Produkteinführungen konzentrieren sich auf die Reduzierung des Stickstoffverbrauchs und die Verbesserung der Phosphataufnahme. Wir erwarten, dass Mikroorganismen mit der Zeit Einfluss auf sämtliche Düngemittel haben werden. Die größten Risiken sehen wir in den kommenden Jahrzehnten auf Stickstoffdünger zukommen, bei denen jüngsten Untersuchungen zufolge die größte Chance besteht, dass sie in Zukunft vollständig ersetzt werden können. Auch Pflanzenschutzmittelhersteller (Herbizide, Fungizide, Insektizide, Nematizide) sind gefährdet, da viele der neuen Mikroorganismen-Produkte für ein Ende oder zumindest eine Reduzierung des Schädlingsdrucks sorgen sollen. Dadurch reduziert sich auch die Menge der Pflanzenschutzprodukte, die zur Erzielung guter Ernten eingesetzt werden müssen.

Den Trend ausnutzen

Tabelle 1: Geschätzter Umsatz der Marktführer an
Mikroorganismen-Produkten 2019

Im Markt von Mikroorganismen ist eine Reihe von Unternehmen aktiv. Der Markt entstand hauptsächlich durch kleinere Unternehmen, von denen einige akquiriert wurden. Zu den börsennotierten, im Bereich Mikroorganismen aktiven Unternehmen gehören unter anderem Novozymes, Bayer, BASF, UPL, FMC, Christian Hansen und Corteva. Der Anteil der Mikroorganismen-Produkte am Umsatz ist bei allen beteiligten Unternehmen noch relativ gering und bewegt sich in einer Bandbreite von gerade mal 1 % bis knapp 10 %. Die Umsatzschätzungen für einige der größeren Unternehmen in diesem Jahr sind in Tabelle 1 dargestellt.

Agrar-Mikroben können nicht patentiert werden. Allerdings sind spezielle Kenntnisse und Investitionen für das Testen der Mikrobenaktivität, die Skalierung der Mikrobenproduktion und für die Mikrobenformulierung erforderlich.

Erwartungen zufolge wird das Ergebnis vor Zinsen und Steuern in der Mikrobenindustrie sich auf etwa 20 bis 30 % des Umsatzes belaufen, sobald sich die Industrie etabliert hat und sich die Forschungs- und Entwicklungskosten auf einem normalen Niveau bewegen.

Diese Aussichten machen Mikroorganismen zu einem sehr attraktiven Markt für Unternehmen und ihre Gesellschafter.

Nahrungsmittel/Ernährung ist eines der Schwerpunktthemen von NN Investment Partners. Ein Vorteil unseres auf die Wertschöpfungskette ausgerichteten Investitionsansatzes für nachhaltige und wirkungsvolle Investitionen ist, dass unsere Analysten branchenübergreifend arbeiten. Wer Landwirtschaft sagt, der sagt auch Biologie, Chemie und Technik. Daher betrachten wir Technologien zur Verbesserung der Nahrungsmittelproduktion von mehreren Perspektiven aus. Beispielsweise denken wir beim Thema Düngemittel nicht nur an Ressourcen, Abbau und Raffinierung, sondern wir berücksichtigen auch die Gesundheitsfolgen für Verbraucher und den allgemeinen Gesellschafts-/Umweltfußabdruck und die Effizienz dieser Verfahren. Wir sind der Überzeugung, dass wir damit die Investitionsentscheidungen und Allokationen verbessern.

Über den Autor:

Hendrik-Jan Boer ist Leiter des Bereichs nachhaltiger und wirkungsorientierter Aktienstrategien bei NN IP

Weitere Informationen unter:
www.nnip.de

Bildquelle / Lizenz Aufmacher: Photo by Evi Radauscher on Unsplash

Bildquelle / Lizenz Portraits: NNIP

CC-BY-ND

Mikroorganismen in der Landwirtschaft is licensed under a Creative Commons Attribution-NoDerivatives 4.0 International license. Autor: Hendrik-Jan Boer, NNIP

Timing ist alles: Durch schnelle Reaktionszeiten Cyber-Attacken abwehren

Autor: Tuncay Eren, Director of Sales beim Cybersicherheitsunternehmen CrowdStrike.

Tuncay Eren rät zu Geschwindigkeit – das geht einher mit einer zunehmenden Automatisierung bei IT-Sicherheitsvorfällen (Bildquelle: CrowdStrike)

Handeln, bevor es zu spät ist: Schnelle Reaktionszeiten spielen für die Einhaltung hoher Sicherheitslevels eine wachsende Rolle – insbesondere, da Hacker immer ausgefeilter vorgehen. Fast schon ein “Dauerbrenner”: Angriffe mit Ransomware, also von Erpressungssoftware, die Dateien verschlüsselt und von ihren Opfern Lösegeld fordert. So warnte das BSI beispielsweise im ersten Halbjahr 2019 vor einer massenhaften Angriffswelle mit dieser Malware auf Unternehmen. BSI-Präsident Arne Schönbohm empfahl in diesem Zusammenhang, dass Unternehmen auch kleine IT-Sicherheitsvorfälle ernst nehmen und ihnen konsequent begegnen sollten, insbesondere da es sich dabei auch um vorbereitende Angriffe handeln könne.Ein weiteres Beispiel für trickreiche Cyber-Attacken: “Living-off-the-Land-Angriffe”, also Angriffe, bei denen bestehende, nicht-schädliche Programme von Hackern für Cyber-Attacken genutzt werden. Dadurch können sie schnell und unbemerkt großen Schaden anrichten.

Doch was bedeutet eigentlich ”Schnelligkeit” in puncto IT-Security? Welche Reaktionszeiten muss ich als Unternehmen gewährleisten, um bestmöglich auf solche Cyber-Attacken reagieren zu können?

Die 1-10-60-Regel: Schneller sein als die Hacker

Um Firmen Antworten auf diese Fragen zu geben, haben die Security-Experten des Cybersicherheitsunternehmens CrowdStrike eine Faustformel für notwendige Reaktionszeiten entwickelt. Diese basiert auf Untersuchungen zur Geschwindigkeit von Angreifern. Daten dazu erhebt CrowdStrike jährlich im Rahmen ihres Global Threat Reports. So brauchten russische Hacker beispielsweise 2019 nur noch etwa 18 Minuten, um in Systeme eines Netzwerks vorzudringen, nachdem sie den ersten Endpunkt “befallen” hatten (= Breakout-Zeit). Dies demonstriert, wie wichtig es ist, Angriffe schnell zu erkennen und entsprechende Gegenmaßnahmen einzuleiten.
Die 1-10-60-Regel besagt: Wenn Sicherheitslösungen Angriffe innerhalb einer Minute erkennen, innerhalb von zehn Minuten analysieren und innerhalb von 60 Minuten beheben können, ist es möglich, den Schaden von Angriffsversuchen gering zu halten beziehungsweise diese sogar gänzlich zu vereiteln . Unternehmen, die diese 1-10-60-Regel befolgen, gelingt es besonders häufig, Angreifer zu eliminieren, bevor es diesen gelingt, sich von ihrem Einstiegspunkt aus in das Ziel-Netzwerk auszubreiten. Dadurch können negative Auswirkungen, wie beispielsweise der Diebstahl von Daten oder Manipulationen von Produktionsanlagen, minimiert oder vollständig verhindert werden.

Die Art der Angriffe untersuchte der Global Threat Report (Quelle: Crowdstrike)

1-10-60-Regel: Orientierung und Maßstab nicht nur für Führungskräfte

Die Formel gibt Führungskräften und IT-Mitarbeitern gleichermaßen eine Orientierung und sollte ein Maßstab sein, mit dem sie das allgemeine Niveau der Sicherheitssysteme evaluieren können. Wird durch Sicherheitstests festgestellt, dass die Reaktionszeiten im Unternehmen deutlich darüber liegen und Maßnahmen zur Bekämpfung der Eindringlinge zu langsam greifen, empfiehlt es sich dringend, korrigierend zu handeln. Diese Faustregel macht es auch Führungskräften, denen tiefgreifendes Fachwissen in Sachen IT-Sicherheit fehlt, leichter, die Leistungen der Fachkräfte der innerhalb ihrer Organisation einordnen zu können.

Wichtig ist auch, das Verständnis für die hohe Relevanz des Themas in allen Unternehmensbereichen zu schärfen. So sind die Cyber-Attacken heutzutage derart ausgeklügelt, dass sich weniger die Frage stellt, ob das eigene Unternehmen irgendwann Opfer einer Attacke wird als vielmehr, wann und mit welcher Technologie die Attacke ausgeführt wird – und ob sich der Eindringling Zugang zu wichtigen Ressourcen, wie sensiblen Unternehmensdaten verschaffen kann.

Tritt ein Cyber-Angriff auf, muss es das Ziel der IT-Fachkräfte sein, den Angreifer zu stoppen, bevor er weitere Netze kompromittieren kann. Breitet sich eine Schadsoftware erst einmal in der IT-Infrastruktur eines Unternehmens aus, weitet sich ein vormals kleiner Security-Vorfall schnell zu einem unternehmenskritischen Problem aus. Und das dauert nicht lange: Im globalen Schnitt benötigen Angreifer nur knapp zwei Stunden.

Speed matters! Wie lässt sich die 1-10-60-Regel umsetzen?

Das größte IT-Sicherheitsrisiko ist und bleibt der Mensch. Deshalb reicht es nicht aus, in puncto Sicherheit nur auf Hard- und Software zu setzen. Mindestens genauso wichtig ist es, die eigenen Mitarbeiter mitzunehmen und entsprechende Schulungen anzubieten.
Im Hinblick auf die technische Security-Infrastruktur ist es vor allem für Führungskräfte wichtig, zu verstehen, dass es aufgrund der schnellen Entwicklungen in diesem Bereich erforderlich ist, kontinuierlich in entsprechende Maßnahmen zu investieren – um den Angreifern stets einen Schritt voraus zu sein.

Transparenz als Schlüssel zu mehr Sicherheit

Um Angreifer möglichst schnell zu erkennen, ist es wichtig, über alle Systeme eines Netzwerks Transparenz herzustellen. Hier helfen zeitgemäße Security-Lösungen, die einen vielschichtigen Sicherheitsansatz verfolgen und eine Kombination aus maschinellem Lernen, Endpoint Detection und Response (EDR) und Antivirenprogrammen anbieten. So können auch besonders geschickt agierende Angreifer schnell erkannt und bekämpft werden.

Interessant sind die Veränderungen in Bezug auf die angegriffenen Branchen. Quelle: CrowdStrike

Fazit: Einsatz der 1-10-60-Regel als Benchmark für Unternehmen

Oftmals reicht schon ein unbedachter Klick auf einen mit Malware behafteten E-Mail-Anhang, damit sich Angreifer in einem Netzwerk ausbreiten und Unternehmensdaten in falsche Hände geraten können. Auf diesem Grund sollten Unternehmen ihre Abwehrbereitschaft kontinuierlich prüfen, anhand der 1-10-60-Regel beurteilen und die Regel als Benchmark nutzen. Selbst wenn Unternehmen aktuell diese Reaktionszeiten noch nicht einhalten können, zeigt sich dadurch, ob die Tendenz in die richtige Richtung geht.

Weitere Informationen unter:
www.crowdstrike.com

Torwächter Ihrer Dateninfrastruktur

Im Interview mit der Redaktion zeigt Sven Meise, CDO und COO bei der Francotyp-Postalia Holding AG (FP), die Risiken und Möglichkeiten des Industrial Internet of Things (IIoT) auf. Außerdem erläutert er, wie Unternehmen in diesem Neuland Fuß fassen und IIoT-Datentransfers von der Datenquelle bis in die Cloud sicher umsetzen.

Herr Meise, welchen Stellenwert nehmen die Themen Sicherheit und sichere Kommunikation im IIoT-Kontext ein?

Dort, wo digital kommuniziert wird, hat Datensicherheit schon immer eine besonders wichtige Rolle gespielt. Und die Bedeutung der Datensicherheit wird weiter zunehmen.

88 Prozent aller deutschen Unternehmen beschäftigen sich zurzeit mit dem Thema IIoT, denn es bietet enorme Wettbewerbsvorteile. IIoT ist der Schlüssel zu gesteigerter Betriebseffizienz, schnelleren Prozessen, Kostensenkungen in der Produktion und neuen Geschäftsmodellen. Kunden bekommen Zugriff auf sämtliche Daten, die in einem Produktionsprozess anfallen. Dadurch ist es wesentlich einfacher, Optimierungspotenziale in etablierten Abläufen zu erkennen. Durch die permanente Überwachung ihrer Anlagen können sie aber auch Wartungen und Reparaturen besser planen und Ausfälle reduzieren.

Doch je mehr Anlagen und Prozesse vernetzt werden, desto anfälliger wird dieses Konstrukt für Angriffe. Die Auswahl der potentiellen Einfallstore erhöht sich. Deshalb ist das Thema Sicherheit entlang der gesamten IIot-Wertschöpfungskette ein sehr essentielles. Je mehr Unternehmen die IIoT-Welt für sich entdecken, desto lauter wird auch der Ruf nach mehr Sicherheit.

Und FP kann diese steigenden Sicherheitsanforderungen bedienen?

Unsere Kunden können sich komplett auf die gerade angesprochenen IIoT-Potentiale fokussieren, denn wir sorgen dafür, dass Unternehmen sich um die Sicherheit ihrer Daten und Kommunikation keine Gedanken mehr machen müssen.

„Wer seine Industriesteuerung optimieren will, muss altgediente Maschinen nicht entsorgen.“

Sven Meise

FP ist der Experte für sichere digitale Kommunikationsprozesse, die den höchsten Sicherheitsstandards entsprechen. Die Machine-to-Machine-Kommunikation (M2M) stellt für FP nicht nur einen Zukunftsmarkt dar, sondern ist bereits jetzt Teil unserer DNA – mit über 200.000 Kunden weltweit. Diese Kunden vertrauen auf unsere langjährig erprobten und bewährten IIoT-Devices, wie etwa die FP Secure Gateways zur hochsicheren Datenübertragung. Wir bieten modularen und skalierbaren Schutz. So können wir auf alle Kundenwünsche und Bedürfnisse individuell eingehen. Dieser Schutz deckt die komplette Informations-Pipeline von der Datenquelle bis in die Cloud ab. Wir sind der Torwächter der Dateninfrastruktur und verantworten eines der größten IIoT-Netzwerke weltweit, mit 150.000 verbundenen Industrieanlagen.

Sven Meise ist Chief Digital Officer und Chief Operating Officer bei der Francotyp-Postalia Holding AG

Wie können Unternehmen die IoT-Gateways von FP in die Unternehmensstrukturen integrieren?

Die Inbetriebnahme und Verwaltung der IoT-Gateways ist mithilfe von WiFi über Smartphone und Tablet möglich. IT-Know-how ist dafür nicht erforderlich. Die Kommunikation erfolgt verschlüsselt über HTTPS / VPN. Die Gateways sind unsere kleinen Rundumsorglos-Pakete und optimal auf die Wünsche jedes Kunden zugeschnitten. Sie gewährleisten die Kompatibilität mit einer Vielzahl von Anlagen.

Große Industriekomplexe sind aus technischer Sicht oft Mehrgenerationenhäuser. Sie sind mit der Zeit gewachsen, dort stehen Maschinen und Anlagen aus verschiedenen Dekaden, teils mit alten Steuerungen. Unsere IoT-Gateways sind in der Lage, die Daten auch dieser älteren Anlagen auszulesen und digital zu übermitteln. Wer seine Industriesteuerung optimieren will, muss altgediente Maschinen also nicht entsorgen. Die FP-Gateways passen sich dem System an und nicht umgekehrt.

Welche Kunden sind am anspruchsvollsten, welche Systeme benötigen die Sicherheit am dringlichsten?

Besonders wichtig ist der Schutz während einer Datenübermittlung für Unternehmen, die innerhalb der sogenannten „kritischen Infrastrukturen“ operieren, also Energie, Wasser, Gesundheit etc. Den Kunden EON Business Solutions GmbH unterstützt FP beispielsweise bei der Stabilisierung des Stromnetzes. Mithilfe unserer IoT-Technologie hat EON dezentrale Erzeugeranlagen, wie Blockheizkraftwerke in einem virtuellen Kraftwerk zusammengefasst. 

Kleine Betreiber können ihre Energie so erfolgreicher vermarkten. Gleichzeitig kann EON die Kundenanlagen regulieren, wenn ungleichmäßig verfügbare Energiequellen wie die Windkraft schwanken. Dadurch bleibt die Strominfrastruktur stabiler, flexibler und zuverlässiger. Zusätzlich lassen sich die Ausgangsleistungen der Anlage und ihr Zustand permanent überwachen. Das macht die IoT-Gateways von FP nicht nur kosteneffektiv, sondern auch essentiell für die Steuerung des wirtschaftlichen Erfolges im „Contracting“-Business.

„Wir sind der Torwächter Ihrer Dateninfrastruktur.“

Sven Meise

Anfang 2019 haben Sie sich für eine strategische Allianz und Kooperation mit dem Anbieter Juconn GmbH entschieden. Was waren die ausschlaggebenden Gründe für diese Zusammenarbeit?

Juconn versteht sich selbst als Lösungsanbieter und Inkubator im IoT-Sektor. Das Start-up ermöglicht seinen Kunden die Analyse, Auswertung und Nutzung verschiedenster Daten. Mit Smart Data gelingt den Klienten dann der Eintritt in die Industrie 4.0. Juconn eröffnet Gründern außerdem den Zugang zu seiner flexiblen Cloud-Plattform – und erhält im Gegenzug Unternehmensanteile. Dadurch hat Juconn einen breiten Kundenstamm in den Branchen Energie und Logistik, von dessen Know-how Juconn wiederum profitiert. Das war einer der Hauptgründe für unsere Investition in dieses Unternehmen.

Unsere Firmen sind mit dieser vertieften Kooperation eine Symbiose eingegangen. FP hat seine IIoT- Hardware in die Partnerschaft mit eingebracht und Juconn die Cloud Plattform, in die wir nun die Daten der Kundenanlagen sicher überführen, aufbereiten und visualisieren. Gemeinsam können wir so umfassende End-to-End-Lösungen anbieten, natürlich alles auf dem höchsten Sicherheitsstandard.

Was raten Sie Unternehmen, die Ihre Prozesse und Dienstleistungen im Rahmen des IIoT verändern wollen? 

Vielen Unternehmen ist noch nicht bewusst, welchen Nutzen zukünftige digitale Businessmodelle kurz-, mittel- und langfristig haben werden, im Vergleich zu den Initialaufwänden.Zunächst einmal: behalten Sie einen kühlen Kopf. Die Potentiale, die sich durch einen Eintritt in das IIoT bieten, sind vielfältig und der Markt wird in den nächsten Jahren weiterhin kräftig wachsen.

Bei IIoT-Datentransfers ist Sicherheit eine absolut notwendige Voraussetzung dafür, dass die IIoT-Anwendungen erfolgreich etabliert werden können. Wir unterstützen Unternehmen in diesem Prozess und schützen die Daten unserer Kunden, damit die sich unbesorgt auf ihre Prozessoptimierung konzentrieren können.

Weiterführende Informationen finden Sie unter:
https://www.francotyp.de/

Aufmacherbild / Quelle / Lizenz
Bild von Pete Linforth auf Pixabay

Zukunft des 3-D-Drucks und Industrie 4.0

Die schnell anwachsende Verwendung der additiven Fertigungsverfahren, auch als 3-D-Druck bezeichnet, revolutioniert die Fertigungstechnik von Grund auf und eröffnet der Konstruktionstechnik bislang ungeahnte Möglichkeiten. Mit der Qualifizierung immer neuer Materialien für den 3-D-Druck dringen die Verfahren auch in immer neue Produkte vor, seien diese aus Kunststoffen, Metallen oder sogar Proteinen aufgebaut. Und die Verfahren wachsen rasant, laut einer Studie von PwC Strategy& vom Januar 2018 wird das Marktvolumen für gedruckte Produkte bis 2030 auf 22,6 Milliarden Euro ansteigen und sich damit fast verzehnfachen.(1) Die damit einhergehenden tiefgreifenden Veränderungen der gesamten Wertschöpfungskette eines Produkts betreffen auch den Handel und den weltweiten Warenverkehr, also die globalen und lokalen Lieferketten.

Bis zu 10 000 Einzelteile sind in einem modernen Pkw verbaut. Etliche dieser Einzelteile werden bei einem Modellwechsel zwar in die nächste Generation mit übernommen, trotzdem gibt es einige Hundert oder sogar Tausende Teile, die nur noch für den After-Market produziert werden. Berücksichtigt man den allgemein immer kürzeren Produktlebenszyklus, der z. B. bei Fahrzeugen von im Schnitt acht Jahren in den 1970er-Jahren auf drei in den 1990er-Jahren gesunken ist, kumuliert sich hier ein enormer Aufwand für die Produktion, die Lagerhaltung und die Lieferung von Bauteilen, die im Laufe der Zeit immer seltener nachgefragt werden. Zur Verfügung halten muss der Hersteller diese Bauteile allerdings.

Dieser Beitrag stammt aus dem „Handbuch IoT“. Lesen Sie hier weiter…

Lassen Sie Cyber-Attacken ins Leere laufen!

 

Klassische Sicherheitslösungen sind auf die Angriffserkennung angewiesen und können deshalb viele Cyber-Angriffe nicht verhindern. Gerade in Zeiten des Remote-Arbeitens und Cloud-Computings wird der Schutz der Unternehmens-IT zur Herkulesaufgabe. Nur die konsequente Isolation aller Gefahren lässt Cyber-Attacken zuverlässig ins Leere laufen. Im Interview mit Trend Report erläuterte Jochen Koehler von Bromium die hierfür technische Grundlage: Hardware-isolierte Virtualisierung!

Herr Köhler, wie genau funktioniert Ihre Lösung Protected App? Welche Applikationen können geschützt werden? Welche Angriffsszenarien werden damit gebannt?

Von Schadprogrammen über Phishing-Mails bis hin zu Denial-of-Service-Attacken – jeder mit dem Internet verbundene Arbeitsplatzrechner ist ständig der Gefahr einer Kompromittierung ausgesetzt. Ist der Rechner erst einmal infiziert, können die Kriminellen auf andere Systeme wie Domain Controller, Datenbanken oder ERP-Systeme zugreifen und damit auf vertrauliche Daten und geistiges Eigentum des Unternehmens. Unsere Protected App verhindert dieses Übergreifen und ist damit die perfekte Lösung zum Schutz aller kritischer Applikationen.

Technische Grundlage ist eine Hardware-isolierte Virtualisierung: Die Lösung wird auf den einzelnen Endgeräten installiert und erzeugt strikt getrennt vom Betriebssystem eine geschützte Umgebung für den Anwender, über die der Zugriff auf die entsprechenden Applikationen erfolgt. Dadurch besteht selbst dann keine Gefahr, wenn ein PC bereits infiziert ist. Die Protected App bietet damit einen weitreichenden Schutz vor den unterschiedlichsten Angriffsszenarien: Das fängt bei Keylogging an – in der Protected App sind Tastatureingaben für den Host unsichtbar –, geht über Man-in-the-Middle-Angriffe weiter – die Kommunikation vom Client zum Anwendungsserver erfolgt über eine gesicherte VPN-Verbindung – und reicht bis zu Kernel-, Download- oder Screen-Capture-Exploits. In diesem Fall haben die Exploits keine Auswirkungen, weil der Protected App Client unabhängig vom Betriebssystem ist und der Root of Trust unterhalb des Betriebssystems liegt.

Auch wenn ein Unternehmen in Sachen Sicherheit dem eigenen Netzwerk und den eigenen Geräten vertraut – in Zeiten von Remote-Arbeiten und Cloud Computing wird auf Applikationen und Daten zunehmend von Umgebungen aus zugegriffen, über die ein Unternehmen niemals die vollständige Kontrolle haben kann. Die Protected App ermöglicht deshalb ein völlig neues Sicherheitsniveau.

Welche weiteren Anwendungsszenarien sind künftig möglich? Worauf können wir uns in den nächsten Jahren allgemein gefasst machen?

Schon heute ist die Bedrohungslage nicht gerade rosig, Unternehmen und Behörden geraten immer stärker ins Visier von Cyber-Angreifern. So vergeht kaum ein Tag, an dem nicht neue Phishing-Mails mit gefährlicher Schadsoftware auftauchen. Auch das Social Engineering, das vor allem in Form von Spear-Phishing-Mails auftritt, stellt eine große Gefahr für jedes Sicherheitssystem dar. Zudem ist es der ganz normale Arbeitsalltag mit dem Klicken auf einen Weblink, dem Öffnen einer E-Mail oder dem Starten eines FTP-Filetransfers, der Unternehmen zum Opfer von Malware werden lässt. Diese Bedrohungen werden weiter zunehmen und eine immer höhere Qualität erreichen.

Jochen Koehler, Regional VP Sales Europe,Bromium:
„Nur die konsequente Isolation aller Gefahren
lässt Cyber-Attacken zuverlässig ins Leere laufen“
(Quelle: Bromium).

Daneben gehe ich davon aus, dass im Bereich Sicherheit die Virtualisierung das beherrschende Thema der nahen Zukunft sein wird, also die Isolation von kompletten Zugriffswegen. Ziel ist es, kritische Unternehmenssysteme und -applikationen zu schützen – und zwar selbst dann, wenn der Zugriff von einem kompromittierten Rechner aus erfolgt. Realisiert wird dieser Schutz durch den Aufbau eines hochsicheren Tunnels etwa mittels einer RDP-, also Remote-Desktop-Protocol- oder ICA-, also Independent-Computing-Architecture-Verbindung.

Wie sollte vor diesem Hintergrund eine IT-Sicherheitsstrategie aufgebaut sein?

IT-Sicherheitsstrategien müssen erst einmal den Ist-Zustand analysieren, um dann die entsprechenden Maßnahmen umzusetzen. Es geht aber nicht nur um IT-Security-Tools, -Programme und -Dienstleistungen – mittlerweile spielen der Datenschutz und Compliance-Aspekte eine entscheidende Rolle. Konzepte wie Privacy by Design und Privacy by Default sind Teil der DSVGO. Die Verantwortung für das Thema IT-Sicherheit und ein funktionierendes IT-Risikomanagement trägt die Geschäftsleitung. Schließlich sind es die Vorstände einer AG und die Geschäftsführer einer GmbH, die bei Fahrlässigkeit für den heraus entstandenen Schaden haften.

Die Führungsetage sollte sich auch klar machen, dass IT-Sicherheit oft ganz erheblich den Benutzerkomfort einschränkt, was wiederum die Akzeptanz seitens der User verschlechtert. Nicht so Lösungen, die potenzielle Gefahren mittels Micro-Virtualisierung isolieren: Mit ihnen kann die IT eine nutzerfreundliche Gefahrenabwehr realisieren. Sie schränkt den Zugriff der Anwender auf Applikationen, Webseiten oder E-Mail-Anhänge kein bisschen ein, sie können wie gewohnt arbeiten.

Welche Rolle spielt Künstliche Intelligenz beim Thema IT-Sicherheit, was kann sie ermöglichen und wo liegen wiederum ihre Grenzen?

Security-Unternehmen werben derzeit stark mit dem Begriff Künstliche Intelligenz. KI-gestützte Sicherheitssysteme, die lernbasierte Verfahren, Mustererkennungen oder statistische Prognosemodelle nutzen, bieten einen zentralen Vorteil: Sie können gigantische Datenbanken durchforsten und nach immer feineren Angriffsmustern oder Anomalien suchen, um Gefahren völlig selbstständig abzuwehren. Allerdings ist nicht garantiert, dass sie diese auch finden. Darüber hinaus darf nicht vergessen werden, dass auch Angreifern die KI-Nutzung offensteht.

KI-gestützte Sicherheitssysteme haben gerade im Netzwerkbereich ihre Berechtigung, in dem es um die Analyse großer Datenmengen geht – auf Client-Ebene aber ist ein Einsatz weniger sinnvoll, denn sie sind nach wie vor auf die Angriffserkennung angewiesen. Was bleibt, ist eine gefährliche Lücke nicht detektierbarer Malware. Nur die konsequente Isolation aller Gefahren lässt Cyber-Attacken zuverlässig ins Leere laufen.

Wie unterscheidet sich die Protected App von Lösungen im Bereich Privileged Access Management?

Lösungen rund um das Privileged Access Management, kurz PAM, schützen Unternehmen vor dem Missbrauch privilegierter Zugänge. Über diese Konten wie etwa ‚root‘ oder ‚Administrator‘ hat ein Nutzer auf sehr viele Bereiche Zugriff und kann Systemeinstellungen vornehmen. Aufgrund dieser weitreichenden Befugnisse sind solche Konten ein attraktives Angriffsziel. PAM-Lösungen ermöglichen es Unternehmen, durch die Kontrolle und Überwachung der Zugriffe sowie eine effektive Passwortverwaltung Attacken auf privilegierte Konten zu verhindern. Die Protected App ist damit die optimale Ergänzung von PAM-Lösungen – sie deckt den Bereich der First-Mile-Security ab. Zwar bieten PAM-Lösungen eine sichere Verwaltung kritischer Benutzerkonten, aber bei der Nutzung kompromittierter Rechner für administrative Zugriffe kann ein Angreifer eventuell privilegierte Verbindungen für seine Zwecke ausnutzen. Und genau an diesem Punkt kommt unsere Protected App ins Spiel: Sie macht den Angreifer gewissermaßen ‚blind’.

www.bromium.com

Aufmacherbild / Quelle / Lizenz
Bild von xresch auf Pixabay

„Cyber Weekend” für Konsumenten attraktiver als Black Friday und Cyber Monday

Eine neue Studie von Bazaarvoice, belegt das wachsende Interesse von Konsumenten an weiterlaufenden Black-Friday-Angeboten am darauffolgenden Samstag und Sonntag. Im Ergebnis stieg die Zahl der Käufer am diesjährigen sogenannten „Cyber Weekend“ gegenüber 2018 um 26 Prozent.

Dabei nahm die Begeisterung für den Black Friday selbst im Jahresvergleich weiter zu. Erkenntnisse aus dem Bazaarvoice-Netzwerk mit über 6.200 Marken- und Händler-Websites auf der ganzen Welt zeigen einen Anstieg der Käuferzahl am diesjährigen Black Friday um 20 Prozent und am Cyber Monday um 18 Prozent. Das bedeutet, dass die Käuferzahl am Black Friday in nur fünf Jahren weltweit um erstaunliche 86 Prozent anwuchs. Auch der Cyber Monday hat seit 2015 um 82 Prozent zugelegt – allerdings werden beide vom Wochenende dazwischen übertroffen, an dem sich die Zahlen mehr als verdoppelt haben (durchschnittlich 102 Prozent). Sophie Light Wilkinson, VP Marketing, EMEA bei Bazaarvoice: „Wir beobachten hier ein völlig natürliches – taktisches – Käuferverhalten. Als Reaktion auf die große Nachfrage nach Deals und Schnäppchen am Black Friday investieren die Kunden mehr Zeit für die Recherche. Für Marken und Einzelhändler ist dies nur gut, da sich nicht nur das Kauffenster erweitert, sondern auch die Zeit, die mit der Suche nach neuen und alternativen Produkten verbracht wird.“

Am Sonntag vor Cyber Monday stieg die Gesamtzahl der Seitenaufrufe durch Verbraucher weltweit am stärksten an (20 Prozent). Das bedeutet, dass an diesem Tag verstärkt recherchiert wird und verdeutlicht die Chance für Marken und Einzelhändler, in letzter Minute potenzielle Kunden mit Produkten und Angeboten zu gewinnen. Bei der Betrachtung des eingesetzten Mediums wird deutlich, dass mobile Geräte nach wie vor eine wichtige Rolle als Point of Purchase spielen. 47 Prozent der Transaktionen am Black Friday fanden auf diesem Weg statt. „Dies belegt die steigende Rolle des Social Shoppings, die auch unser Shopper Experience Index 2019 aufzeigt“, so Sophie Light Wilkinson weiter. „Sicher kann es verlockend sein, am Wettlauf der der sinkenden Preise teilzunehmen. Aber Marken und Einzelhändler, die die sich ändernden Präferenzen erkennen und informative, interaktive Online- und Offline-Erlebnisse bieten, werden sowohl ihre bestehenden Kunden halten als auch neue gewinnen.“

In seiner jährlichen Umfrage befragte Bazaarvoice mehr als 2.000 Verbraucher in Großbritannien, den USA, Frankreich und Deutschland. Ihr zufolge ist die Zahl der Verbraucher, die großen Wert auf die Möglichkeit legen, direkt über Social-Media-Plattformen wie Instagram, Facebook und Pinterest zu entdecken und zu kaufen, in 12 Monaten um 38 Prozent gestiegen.

Weitere Informationen unter:
www.bazaarvoice.com

Bildquelle / Lizenz: Photo by rupixen.com on Unsplash

Trends in der Weiterbildung 2020

Berufliches Coaching und aktuelle Technologiekenntnisse gehören 2020 in die Qualifizierungsplanung.

Ohne Studium, nur mit einer abgeschlossenen Weiterbildung oder Umschulung, einen gut bezahlten Job in der IT-Branche finden – aufgrund des Fachkräftemangels wird dies nach Einschätzung der cimdata Bildungsakademie 2020 noch leichter werden.

Seit 35 Jahren führt der zertifizierte Anbieter förderbare Weiterbildungen, Coachings und Umschulungen mit IHK-Abschluss durch und weiß, welche Trends Bildungsinteressierte im kommenden Jahr berücksichtigen sollten. Für den langfristigen beruflichen Erfolg werden insbesondere drei Faktoren immer wichtiger: Eine gute Selbstvermarktung, viel Eigenverantwortlichkeit und die Bereitschaft, aus eigener Initiative immer wieder Neues zu lernen.

Quereinstieg in die IT-Branche wird leichter

Die Nachfrage nach IT-Fachkräften bleibt hoch und die Kriterien für die Einstellung neuer Mitarbeiter verändern sich. Um einen der gut bezahlten Jobs in der IT-Branche zu bekommen, ist immer seltener ein Abschluss einer Universität notwendig. Der Trend geht weg vom klassischen IT-Studium hin zu Umschulungen, Ausbildungen und Weiterbildungen. Weil bereits die Einstiegsgehälter attraktiv sind, starten immer mehr Beschäftigte nach einer Ausbildung direkt in den Job. Sogar reine Quereinsteiger haben gute Chancen – zum Beispiel nach einer Weiterbildung in Java oder PHP.

cimdata-Coach Ortrun Meißner

„Berufserfahrung zählt inzwischen fast mehr als ein Abschluss. Bei uns kommen die Unternehmen schon in den Unterricht und stellen sich vor, um die angehenden IT-Spezialisten zu rekrutieren“, berichtet cimdata-Coach Ortrun Meißner. „Sehr gefragt sind Erfahrungen und Kenntnisse im Bereich UI/UX-Design oder JavaScript. Als Nachweis reicht häufig schon eine Weiterbildung oder nachgewiesene Berufserfahrung.“

Ausbildungen und Umschulungen zum Fachinformatiker liegen vor diesem Hintergrund hoch im Kurs. Wer bereits eine Ausbildung mitbringt, kann zum Beispiel eine Weiterbildung im Bereich Cloud Computing oder in der App-Entwicklung anschließen – und damit sein Wissen um neue Technologien erweitern und fachlich auf dem aktuellen Stand bleiben. Eine entsprechende Qualifizierung lässt sich oft vom Jobcenter oder der Arbeitsagentur finanziell fördern.

Neue Berufe entstehen

Der Wettbewerb um Fachkräfte führt neben den veränderten Einstellungskriterien dazu, dass Unternehmen heute mehr um die Bindung ihrer vorhandenen Mitarbeiter bemüht sind. Aus diesem Grund ist in der Start-up Branche ein neuer Beruf entstanden, der allmählich auch seinen Weg in traditionelle Unternehmen findet: Der „Feel Good Manager“ kümmert sich um die Rahmenbedingungen und das Wohlbefinden der Mitarbeitenden und sorgt dafür, dass sie möglichst ungestört und zufrieden arbeiten können. Seine Arbeit soll dem Fluktuationstrend entgegenwirken und die Performance der Arbeitnehmer steigern. „Das wird einerseits dadurch erreicht, dass Konflikte und Hindernisse beseitigt werden, die das Klima verschlechtern. Die höhere Motivation hat dann nicht nur für den Arbeitnehmer Vorteile, sondern auch für den Arbeitgeber, wenn die Leistung gesteigert wird“, erklärt Ortrun Meißner.

Auch die technologische Entwicklung lässt neue Berufe entstehen, die man im Rahmen einer geförderten Qualifizierung erlernen kann. So wird die Nachfrage nach Spezialisten im E-Commerce weiter steigen. War der E-Commerce vor einigen Jahren noch hauptsächlich im Konsumgüterbereich vertreten, gibt es heute kaum einen Sektor, der Onlineshops nicht nutzt. Unsere Bildungsakademie bietet daher seit August 2019 eine Umschulung mit IHK-Abschluss zum Kaufmann beziehungsweise zur Kauffrau im E-Commerce an.

Coaching und Eigeninitiative gefragt

Früher haben sich nur Manager und Politiker persönliche Coaches geleistet. Heute profitiert so gut wie jeder von einem Coaching in Form einer regelmäßigen Karriereberatung. Denn Arbeitnehmer werden auf dem Arbeitsmarkt mehr und mehr zu ihrer eigenen Marke. Eine gute Selbstvermarktung wird damit immer wichtiger. Ausgangspunkt für eine optimierte Selbstpräsentation ist eine innere Zielorientierung. Arbeitnehmer und Jobsuchende sollten sich immer wieder fragen: Was kann ich besonders gut? Was macht mich für Arbeitgeber einzigartig?

Arbeitnehmer müssen außerdem Eigenverantwortlichkeit für die eigene Qualifikation entwickeln. Sie sollten daher die wirtschaftliche Entwicklung verfolgen und die zukünftig gefragten Fähigkeiten erkennen. Neben Fachkenntnissen und beruflicher Erfahrung spielen soziale Kompetenzen und persönliche Stärken eine immer wichtigere Rolle. Ein Coaching kann dabei helfen, den Überblick zu gewinnen und zu behalten, die nötigen Fähigkeiten zu entwickeln und die individuell passende Weiterbildung zu finden. Ein berufliches Coaching bei einem zertifizierten Bildungsanbieter können sich Arbeitnehmer und Jobsuchende unter bestimmten Voraussetzungen von der Agentur für Arbeit oder vom Jobcenter finanziell fördern lassen.

Lebenslanges Lernen bleibt wichtig

Arbeitnehmer sollten in ihrem Fachgebiet ständig auf dem Laufenden bleiben. Dies gelingt mit Offenheit und Neugierde für digitale Entwicklungen in Kombination mit selbstständigem, selbstverantwortlichem Lernen. Es reicht nicht aus, jährlich eine Weiterbildung zu besuchen. Denn als Gegenleistung für geringe Einstiegshürden und Wohlfühl-Manager erwarten Arbeitgeber heute die Bereitschaft, sich eigenständig weiterzubilden.

Neben der klassischen Weiterbildung wird auch vorausgesetzt, dass sich Mitarbeiter in der Freizeit oder in ruhigen Arbeitszeiten beispielsweise online schlau machen. „Für diesen Zweck eignen sich Lernplattformen gut“, sagt Ortrun Meißner. „Digitale Angebote ermöglichen zudem ortsunabhängiges und zeitlich flexibles Lernen.“ Für schnelle Informationen oder um einen ersten Überblick über ein Thema zu bekommen, eignen sich Online-Plattformen. Soll neues Wissen von Grund auf erarbeitet werden und steht mehr Zeit zur Verfügung, bieten sich mehrwöchige interaktive E-Learning-Kurse in einem virtuellen Klassenzimmer an. cimdata bietet zum Beispiel mit „cimlive” eine virtuelle Lernumgebung für ortsunabhängige Weiterbildungen. Via Audio- und Videokonferenz sind Teilnehmer und Dozenten hierbei live miteinander verbunden.

Weiterführende Informationen:
cimdata Bildungsakademie

Pressekontakt
Sabrina Ortmann Kommunikation
Sabrina Ortmann
Tel: +49 30 549 092 40
E-Mail: presse@cimdata.de

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Personenfoto: Quelle cimdata

Lizenz:
Dies ist eine Pressemitteilung von cimdata

Autoindustrie: Grüne Anleihen können E-Mobilität beschleunigen

Dies ist ein Gastbeitrag von Bram Bos, Lead Portfolio Manager Green Bonds, NN Investment Partners

Elektromobilität ist im Kommen, bedeutet für die Automobilhersteller aber einen finanziellen Kraftakt. Grüne Anleihen können einen wesentlichen Beitrag zur Finanzierung dieser unternehmerischen und gesellschaftlichen Herausforderung leisten. Erste Beispiele dafür gibt es bereits – doch noch bleibt viel Potenzial für weitere Green Bonds der Automobilbranche. Neben der Finanzierung der Entwicklung von Elektroautos selbst bieten sich drei weitere Bereiche dafür an.

Verkehr und Transport sind weltweit für 23% der energiebedingten CO2-Emissionen und 14% der gesamten Treibhausgasemissionen verantwortlich. In der Europäischen Union steuerte der Straßenverkehr innerhalb des Verkehrssektors im Jahr 2016 fast 21% der gesamten CO2-Emissionen bei, rund 12% entfallen auf Personenkraftwagen. Die EU hat sich daher verpflichtet, das zu ändern und zwingt Automobilhersteller mit neuen Vorschriften dazu, sich in Richtung CO2-armer Konzepte weiterzuentwickeln. Konkret möchte die EU bis 2021 die durchschnittlichen Emissionen neuer Personenkraftwagen flottenweit auf 95 g CO2/km senken, bis 2025 um weitere 25% und bis 2030 um 37,5%. Automobilhersteller, die diese Emissionsziele nicht einhalten, werden mit erheblichen Geldstrafen rechnen müssen.

Mit Green Bond-Turbo in die E-Mobilität

Als Reaktion auf diese ehrgeizigen CO2-Ziele haben die europäischen Hersteller begonnen, die Elektrifizierung ihrer Fahrzeugflotte deutlich zu beschleunigen. Für die Hersteller bedeutet das Investitionen in Milliardenhöhe sowohl in neue Technologien als auch in Produktionsanlagen. Grüne Anleihen können hier zu einer wesentlichen Finanzierungsquelle werden.

Hauseigene Analysen von NN Investment Partners kommen zu dem Ergebnis, dass heute bereits etwa 18,5% der Einnahmen aus grünen Anleihen zur Finanzierung CO2-armer Verkehrslösungen verwendet wenden. Allerdings sind die Automobilhersteller bislang nur sehr schwach unter den Emittenten vertreten. Bisher wurde lediglich eine auf Euro lautende grüne Anleihe eines Automobilherstellers begeben, und zwar im Volumen von 600 Millionen Euro durch Toyota im Jahr 2017.

Die technische Expertengruppe der EU hat kürzlich neue Empfehlungen für förderfähige Aktivitäten zur Bekämpfung des Klimawandels veröffentlicht. Danach sollen nur emissionsfreie oder emissionsarme Autos über Green Bond-Erlöse finanziert werden können – das sind Autos, die weniger als 50 g CO2/km ausstoßen. Nach heutigem Stand der Technik unterschreiten nur vollelektrische und Brennstoffzellenfahrzeuge sowie bestimmte Plug-in-Hybridtypen diese Schwelle. Die vielen geplanten neuen elektrischen Fahrzeugmodelle eignen sich also hervorragend für die Finanzierung über grüne Anleihen.

Drei zusätzliche Einsatzfelder für Green Bonds

Die Fahrzeuge selbst sind allerdings nicht der einzige Finanzierungsbereich, in dem Green Bonds zum Einsatz kommen können. Wir sehen drei weitere wichtige Einsatzgebiete:

Produktionsplattformen
Autos sind komplexe Produkte. Die Vielfalt von Modellen und Komponenten ist nicht leicht zu beherrschen. Die Automobilhersteller nutzen deshalb seit langem die gleichen Produktionslinien, um verschiedene Modelle und Antriebsstränge zu fertigen. Die Investitionskosten, die in direktem Zusammenhang mit der Produktion von emissionsarmen oder emissionsfreien Fahrzeugen stehen, sind daher nicht leicht zu bestimmen.

Einige Automobilhersteller bauen jedoch inzwischen eigene Produktionsplattformen für neue Elektrofahrzeuge auf, zum Beispiel VW (Modularer E-Antriebs-Baukasten) und Daimler (Electric Vehicle Architecture). In diesem Zusammenhang können Automobilhersteller Projekte als kohlenstoffarm und klimaresistent einstufen, die sich für eine Finanzierung über grüne Anleihen qualifizieren.

Ladeinfrastruktur
Laut Bloomberg New Energy Finance (NEF) waren Ende 2018 weltweit 7,9 Elektrofahrzeuge pro öffentlicher Ladestelle unterwegs. Angesichts der starken Wachstumsrate von Elektrofahrzeugen schätzt Bloomberg NEF den weltweiten Bedarf an Ladestationen auf zwei bis fünf Millionen Stück, um die Quote Ladestation/Elektrofahrzeug auf einem sinnvollen Level zu halten. Zum Vergleich: Ende 2018 gab es 632.000 solcher Stationen.

Neben den Energieversorgern und Ölgesellschaften spielen die Automobilhersteller eine Schlüsselrolle beim Aufbau dieser Ladeinfrastruktur. Ein Beispiel ist Ionity, ein Joint Venture deutscher Automobilhersteller. Angesichts des erheblichen Kapitalbedarfs für neue Ladestationen bietet sich auch hier eine Finanzierung über grüne Anleihen an.

Batteriebeschaffung, -produktion und -recycling
Batterien sind nach wie vor die kostenintensivste Komponente der Elektromobilität. Die meisten Automobilhersteller lagern die Produktion von Batteriezellen an Lieferanten aus, entwickeln aber auch selbst Technologien und Produktionskapazitäten für ihre Akkus. Der Erlös aus grünen Anleihen könnte den Automobilherstellern helfen, die Akku-Produktion zu finanzieren.

Darüber hinaus steigt mit der Anzahl der Elektrofahrzeuge auch die Anzahl gebrauchter Batterien, mit den entsprechenden Risiken für die Umwelt. Die Lösung des Problems könnte im Batterie-Recycling liegen. Auch hier bietet sich eine Finanzierung über Green Bonds an.

Autohersteller nach vorn

Bislang dominieren Finanz- und Versorgungsunternehmen das Green-Bond-Segment. Automobilhersteller und andere Branchen liegen weit zurück. Automobilhersteller verfügen aber über einen riesigen Pool an förderfähigen grünen Projekten und damit über Potenzial, grüne Anleihen zur Finanzierung einzusetzen. NN Investment Partners setzt auf kontinuierlichen Dialog mit (potenziellen) Emittenten grüner Anleihen, vor allem in Branchen, die in diesem Bereich noch nicht so aktiv sind. Dazu gehören auch Automobilunternehmen – erst vor Kurzem haben wir mit einem der großen deutschen Hersteller über die Möglichkeiten gesprochen, grüne Anleihen zu begeben. Der Markt für grüne Anleihen ist innerhalb der vergangenen fünf Jahre seit 2014 von 17 Milliarden auf heute 500 Milliarden Euro gewachsen. Die mittlerweile große Emittentenbasis hat dazu beigetragen, dass sich grüne Anleihen als eigenständige Anlageklasse etabliert haben. Mit unserem Engagement möchten wir nicht zuletzt dazu beitragen, dieses Universum grüner Anleihen noch weiter zu vergrößern und zu diversifizieren.

Über den Autor:

Bram Bos ist Lead Portfolio Manager für die Green Bond-Strategie bei NN IP und Mitglied des UN PRI Fixed Income Steering Committee.

Weitere Informationen unter:
www.nnip.de

CC-BY-ND

Grüne Anleihen können E-Mobilität beschleunigen is licensed under a Creative Commons Attribution-NoDerivatives 4.0 International license. Autor: Bram Bos, NN Investment Partners

Bildquelle / Lizenz Aufmacher: Photo by Markus Spiske on Unsplash

Bildquelle / Lizenz Portrait Bram Bos: NN Investment Partners

Sicherheit muss integraler Bestandteil der Smart City sein

Smart-City-Konzepte versprechen Kosteneinsparungen, Effizienzverbesserungen und Serviceoptimierungen für den Bürger. Sie erfordern aber auch eine stärkere Vernetzung und höheren IT-Einsatz und damit steigen die Cybergefahren. Ohne entsprechende Sicherheitsmaßnehmen wird eine breite Akzeptanz in der Bevölkerung für Smart-City-Initiativen reine Fiktion bleiben.

Viele Städte befassen sich mit der Idee einer vernetzten intelligenten Stadt. Die Smart City ist eines der Trendthemen schlechthin. Voraussetzung ist eine umfassende digitale Vernetzung, die unterschiedlichste Bereiche umfasst: von der Verkehrsinfrastruktur und -steuerung über die Energieversorgung bis zur Gesundheitsversorgung.

Gegenwärtig ist die erste echte Smart City aber noch reine Zukunftsvision. Es existiert noch nicht einmal eine einheitliche Definition des Begriffs. Die Installation einiger mit dem Internet verbundener Straßenlaternen oder eines intelligenten Verkehrsmanagementsystems macht eine Stadt nicht intelligent. Aber es ist zumindest ein Anfang. Silolösungen sind nicht ausreichend, nur eine umfassende Vernetzung kann den Weg zur Smart City ebnen.

Allerdings besteht eine zentrale Herausforderung: die Cybersicherheit. Je digitaler die zugrundeliegende technologische Infrastruktur ist, desto mehr Angriffsflächen gibt es für Cyberattacken, Spionage und Sabotage.

Die Angriffsflächen werden vor allem deshalb größer, weil die Smart City maßgeblich auf IoT (Internet of Things)- und OT (Operational Technology)-Systemen basiert. Und sie weisen Schwachstellen auf, die Hackern zahlreiche Angriffswege eröffnen. Unter Sicherheitsaspekten ist vor allem problematisch, dass die Geräte eine hohe Heterogenität aufweisen, auf Ethernet- und alten Bus- und Kommunikationsprotokollen unterschiedlichster Anbieter basieren und eine relativ lange Lebensdauer besitzen können. Dies macht Sicherheitsupdates zu einer großen Herausforderung, falls Hersteller überhaupt Patches zur Verfügung stellen. Viele Geräte und Protokolle sind nämlich ausschließlich im Hinblick auf Funktionalität und nicht auf Sicherheit entwickelt worden; damit existieren auch keine Patch-Management-Prozesse für die Beseitigung von Sicherheitsschwachstellen. Für Hacker sind die nicht verwalteten IoT-Komponenten mit alten, ungesicherten Firmware-Versionen ein relativ einfaches Ziel. Und die Herausforderungen aus Security-Sicht werden immer größer, da die Zahl von IoT-Endpunkten und -Sensoren kontinuierlich steigt. Der Marktforscher Gartner prognostiziert für 2021 eine installierte Gesamtzahl von 25 Milliarden.

„Für den Erfolg von smarten Konzepten ist die Akzeptanz der Bevölkerung von ausschlaggebender Bedeutung.
Und fehlende Sicherheit ist dabei ein K.-o.-Kriterium.“

Kai Grunwitz

Die Sicherheitsrisiken sind deutlich größer als vielfach dargestellt: Es geht dabei keineswegs nur um einen potenziellen Datenverlust, sondern vor allem auch um eine Gefährdung der öffentlichen Sicherheit. Angriffe auf Verkehrsleitsysteme könnten zu Verkehrsstaus oder sogar zu Unfällen führen; Angriffe auf die Kommunikationssysteme der Rettungsdienste könnten ihre Reaktionsfähigkeit bei schweren Vorfällen beeinträchtigen; Manipulationen an Videoüberwachungssystemen könnten es Kriminellen ermöglichen, ungestört zu handeln.

Die größte Sicherheitsgefahr geht prinzipiell von Angriffen auf Kritische Infrastrukturen wie Energieversorgung, Informationstechnik und Telekommunikation, Transport und Verkehr, Gesundheit, Wasser oder Ernährung aus. Energieversorger beispielsweise verfügenzwar über jahrelange Erfahrung bei der Wiederherstellung von Netzen nach Anlagenausfällen. Ganz anders sieht es allerdings bei der Bedrohung durch Cyberkriminelle aus. Dabei können Angriffe auf industrielle Steuerungssysteme wie SCADA (Supervisory Control and Data Acquisition), aber auch Malware-Infektionen über erweiterte Angriffsflächen wie Smart Gridszu Stromausfällen beziehungsweise Beeinträchtigungen der Betriebsfähigkeit führen. Der langwierige Ausfall eines Stromnetzes würde das öffentliche Leben komplett lahmlegen. Energieversorger müssen deshalb nicht nur die technische IT-Sicherheit verbessern, genauso wichtig ist es, die Risiken zu analysieren sowie Audits und Penetrationstests durchzuführen.

Doch welche Maßnahmen sind angesichts dieses Sicherheitsdilemmas zu ergreifen, damit das Internet of Things nicht zu einem Internet of Threats wird und damit auch die Smart City angreifbar macht? Folgende Maßnahmen sind unverzichtbar:

  • Bestandsaufnahme aller IoT- und OT-Umgebungen und -Geräte
  • Durchführung von Security-Risk-Assessments für alle Smart-City-Kernkomponenten wie Smart-Grid- oder Wasserversorgungs-Systeme anhand von Verordnungen und Richtlinien wie ISO/IEC 27005, ISA/IEC 62443, NIST 800-53v4 oder DSGVO
  • Konzeption und Anwendung von Sicherheitsrichtlinien für Smart-City-Umgebungen
  • Sicherung der Kommunikation zwischen IoT- und OT-Geräten
  • Sicherung und Überwachung der Wartungszugriffe
  • Durchführung regelmäßiger Penetrationstests.

Letztlich werden alle Kommunen den Weg der Smart City gehen müssen, allein schon, um Ressourcen besser zu verwalten und Bürgerservices zu optimieren. Aber entscheidend wird dabei immer sein, dass die Sicherheit nicht zu kurz kommt. Für den Erfolg von smarten Konzepten ist die Akzeptanz der Bevölkerung von ausschlaggebender Bedeutung. Und fehlende Sicherheit ist dabei ein K.-o.-Kriterium.

 


Über den Autor:
* Kai Grunwitz ist Geschäftsführer der NTT Ltd. in Deutschland

Paid Advertising – Mit Automatisierung zum Erfolg

Im Paid Advertising gibt es eine Vielzahl an Möglichkeiten. Aber vor allem bei Large Scale-Projekten stoßen Unternehmen und Marketers schnell an die Grenzen des Machbaren. Deshalb gibt es verschiedene Automatisierungsmöglichkeiten.

Vor der Automatisierung: Kampagne richtig planen

Zu Beginn jeder Kampagne im Paid Advertising steht jedoch die Planung. An erster Stelle kommt immer die Zieldefinition, denn darauf bauen Strategie und Handlungen auf. Das Hauptziel der meisten Unternehmen ist die Umsatzgenerierung. Allerdings sind für eine Kampagne mehrere Zielsetzungen nötig, die unterschiedliche Gewichtungen haben. Diese unterteilen sich in Mikro- und Makro-Conversions.

Ziele von Paid Advertising-Kampagnen

Makro-Conversions werden eine höhere Bedeutung zugewiesen, denn sie dienen direkt dem finalen Ziel. Dagegen sind Mikro-Conversions kleinere Aktionen, die eine gewisse Interaktion mit der Website aufzeigen. Dazu zählen zum Beispiel PDF-Downloads, Newsletter-Anmeldungen oder die Scrolltiefe. Diese Ziele sind an feste Zahlen gebunden, da sie messbar sind im Gegenteil zu anderen Zielen. Dazu gehört beispielsweise die Stärkung der Marke.

Zur Kampagnenplanung gehört aber auch, sich Gedanken über das Budget zu machen. Es ist abhängig von den Zielen, der Anzahl der Kanäle und Kampagnen, aber auch von den Klickpreisen für die Keywords. Ein weiterer Planungsfaktor ist der Zeitrahmen für die Kampagne. Einige Ziele lassen sich eher kurzfristig erreichen, wie die Erhöhung der Klicks, andere müssen auf lange Frist geplant werden. Zu Letzterem zählt unter anderem die generelle Steigerung der Sichtbarkeit. Außerdem ist wichtig, dass das Unternehmen klar bestimmt, welche Zielgruppe es mit der Kampagne erreichen möchte. Dabei spielen zum Beispiel Alter, Geschlecht und Interessen eine Rolle. Die Zielgruppen geben Aufschluss darüber, welche Kanäle gewählt werden sollen. Der letzte Schritt ist die Strategieplanung. Dazu stellen Unternehmen sich folgende Fragen:

  • Wie sollen neue Produkte vermarktet werden?
  • Welche Aktionen sollen geplant werden?
  • Welche Kanäle sollen verwendet werden?
  • Wie verhält sich die Koordination zwischen verschiedenen Abteilungen?
  • Welche Online- und Offline-Maßnahmen sollen durchgeführt werden und wie sollen diese untereinander verknüpft werden?

Large Scale-Projekte mit Automatisierung stemmen

Automatisierung kommt Unternehmen zu Gute, die umfangreiche Kampagnen in verschiedenen Kanälen schalten. Funktionen können automatisiert und Daten verknüpft werden. Dadurch können Marketers Aufgaben schneller erledigen oder Funktionen nutzen, die händisch zu aufwendig wären.

„Wer nicht automatisiert, wird im Preiskampf mit dem Wettbewerb verlieren“

Florian Zink, Head of Paid Advertising der eology GmbH

Geschäftsdatenfeed

Beim Datenfeed überträgt ein Server automatisiert strukturierte Informationen an einen Client. Um welche Informationen es sich handelt, ist abhängig von den Spezifikationen und dem Vertriebspartner. Ein Geschäftsdatenfeed ist eine Tabelle mit Basis-Informationen zu Produkten oder Dienstleistungen. In Google Ads ist es möglich, mehrere Datenfeeds zur Steigerung der Kampagnenperformance zu verwenden. Dies ist hilfreich, um etwa Gebote anzupassen oder Anzeigen zu pausieren, wenn die Verfügbarkeit unter einen bestimmten Grenzwert fällt. Hierfür ist jedoch die Erstellung von zusätzlichen Regeln nötig. Weiterhin aktualisiert das System Textparameter in Anzeigen automatisch, damit der Anzeigentext immer die aktuellen Preise aus dem Feed enthält.

Beispielhafte Übersicht aktivierter Geschäftsdatenfeeds, Quelle: Google Ads

Skripte

In Google Ads helfen Skripte bei der Automatisierung. Mittels JavaScript können Marketer Anzeigengruppen pausieren, Gebote ändern, und Keywords hinzufügen. Das spart Zeit und vereinfacht die Verwaltung großer Konten, setzt aber Skriptkenntnisse voraus. Folgende Möglichkeiten gibt es:

  • Vornehmen von Änderungen mithilfe externer Datenquellen
    (z. B. Gebotsänderungen anhand externer Conversion-Daten, Pausieren/Aktivieren von Keywords anhand externer Inventardaten)
  • Abrufen von Kampagnendaten und -statistiken
    (z. B. in Tabellenform, im grafisch im Zeitverlauf, zum Erstellen von Berichten)
  • Ausführen von Aktionen für mehrere Konto-Elemente
    (z. B. Pausieren eines Keywords und gleichzeitige Budgeterhöhung, wenn ein Keyword die gesamten Tagesausgaben aufbraucht)
  • Vornehmen von Änderungen für alle Konto-Elemente
    (z. B. Erhöhung der CPC-Gebote um 30 % für alle Keywords, die mehr als 1.000 Impressionen in der Woche erzielt haben)
  • Bearbeiten aller Unterkonten eines Verwaltungskontos
    (z. B. zur Gebot-Optimierung, Berichterstellung für mehrere Konten, Problemermittlung)

Aber Vorsicht: Änderungen durch Skripte können nicht mehr rückgängig gemacht werden!

APIs

APIs dienen dem Austausch sowie der Weiterverarbeitung von Daten und Inhalten zwischen verschiedenen Webseiten, Programmen und Content-Anbietern. Darüber hinaus ermöglichen sie Dritten den Zugang zu vorher verschlossenen Datenpools und Benutzerkreisen. Die Google Ads API ist vor allem für Unternehmen mit großen Kampagnen und vielen Konten interessant, um sie effizient zu verwalten. Allerdings sind für die Implementierung Programmierkenntnisse sowie technisches Know-how nötig. Zu den Funktionen zählen:

  • Erstellen automatischer Anzeigentexte, Keywords, benutzerdefinierter Berichte und Zielseiten
  • Verwaltung von Kampagnen basierend auf Lagerbeständen durch die Integration von Google Ads-Daten im Inventursystem
  • Entwickeln zusätzlicher Tools und Anwendungen zur Kontoverwaltung

Neben der API von Google Ads lohnt es sich auch, einen Blick auf die API von SAP-Hybris Marketing und Salesforce zu werfen.

Hier ein Anwendungsfall zum Thema Automatisierung: Ein Schuhhändler spielt bei Sonnenschein Anzeigen für Sandalen aus, bei Regenwetter hingegen für Stiefeletten. Dies funktioniert mit einem Google Ads-Konto, einem Google Sheet und dem API-Key von OpenWeatherMap.
Mehr dazu erfahren Interessierte im Whitepaper „Paid Advertising – Dein Guide für performancestarke Kampagnen“.

Nach der Automatisierung: Kontinuierliches Reporting

Ein wichtiger Bestandteil erfolgreicher Paid Advertising-Kampagnen ist das Reporting, also die Auswertung der gesammelten Daten. Dieses Reporting findet idealerweise monatlich statt. Die Kunst ist, dass es kurz ausfällt und einen guten Gesamtüberblick verschafft. Dabei stellen folgende KPIs die wichtigsten Merkmale einer Kampagne dar:

  • Klicks und Impressionen
  • Cost-Per-Click
  • Click-Through-Rate
  • Conversionrate
  • Kosten
  • Kosten-Umsatz-Verhältnis
  • Sitzungsdauer

Die KPIs im Reporting sind davon abhängig, welche Ziele das Unternehmen mit der Kampagne erreichen will. Diese hat es im ersten Schritt der Kampagnenplanung festgelegt. Das Reporting hilft dabei, immer weiter Verbesserungen vorzunehmen, um zum bestmöglichen Ergebnis zu gelangen.


Über die Autorin

Ann-Kathrin Grottke hat ihr Medienmanagementstudium mit dem Bachelor abgeschlossen und ist Teil des eology-Marketing-Teams. Sie kümmert sich um die Verbreitung des gesammelten eology-Wissens, indem sie ihr Know-how in Magazinen, Blogs und Zeitschriften teilt.

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Vereinbarkeit: Strategisch angelegt eine Wunderwaffe

Es folgt ein Gastbeitrag von Oliver Schmitz, Geschäftsführer der berufundfamilie Service GmbH

Denken Sie bitte mal 20 Jahre zurück. Was fällt Ihnen da zum Thema Vereinbarkeit von Beruf und Familie ein? Junge Eltern und das Thema Kinderbetreuung? Und wenn Sie heute an Vereinbarkeit denken – kommt Ihnen dann auch nur die angestrebte Verbesserung der Balance zwischen Berufstätigkeit und Kinderversorgung in den Sinn? Wenn ja, haben Sie wesentliche Entwicklungen nicht mit bekommen.

Autor Oliver Schmitz ist Geschäftsführer der berufundfamilie Service GmbH – ThinkTank und Dienstleister im gleichnamigen Themenfeld (Bildquelle / Lizenz: berufundfamilie Service GmbH)

Denn Vereinbarkeit bedeutet heute, die gesamte Vielfalt der Beschäftigten und ihrer Bedarfe zu betrachten und letztendlich lösungsorientiert damit umzugehen. Vielfalt und Vereinbarkeit – das geht weit über das klassische Verständnis von Diversity Management hinaus. Es umfasst Genderfragen und Generationenmanagement genauso wie die Auseinandersetzung mit Inklusion und Herkunft. Aber mehr noch: In unserem Verständnis von Vielfalt werden diese Aspekte mit denen für die Vereinbarkeit entscheidenden Parameter Lebensphasen, Lebensumstände und Lebensentwürfe der Beschäftigten kombiniert. Es geht also auch um Themen wie Vereinbarkeit von Beruf und Pflege und die Flexibilisierung des Übergangs vom Erwerbsleben in den Ruhestand oder auch den Umgang mit Fernbeziehungen oder die Unterstützung von Freunden sowie die Ausübung eines Ehrenamts. Deshalb muss es heute auch Vereinbarkeit von Beruf, Familie und Privatleben heißen.

Individuelle Vereinbarkeitswünsche – der Schrecken aller Führungskräfte?

Mit dieser Entwicklung sind allerdings die Herausforderungen für Führungskräfte enorm gewachsen. Ein Mitarbeiter bittet seinen Vorgesetzten um eine stärkere Flexibilisierung der Home-Office-Zeiten. Eine Beschäftigte sucht nach Möglichkeiten, um ihre Arbeitszeit mit den KITA-Öffnungszeiten vereinbaren zu können, während bei einem Kollegen ein plötzlicher Pflegefall in seiner Familie eingetreten ist. Wie sollen Führungskräfte den individuellen Vereinbarkeitswünschen nachkommen und wie schafft man Ausgleich für eine mögliche Mehrbelastung anderer Teammitglieder ohne die betrieblichen Anforderungen und Ziele zu verletzen? Und ist es überhaupt notwendig auf die individuellen Vereinbarkeitswünsche von Beschäftigten einzugehen?

Die letzte Frage lässt sich eindeutig mit einem Ja beantworten. Vereinbarkeit ist heute ein Entscheidungskriterium für Erwerbstätige hinsichtlich der Wahl eines Arbeitgebers. Eine aktuelle, vom Meinungsforschungsunternehmen Civey durchgeführte repräsentative Umfrage unter 2.500 Erwerbstätigen zeigt: Fast acht von zehn Beschäftigten (76,3 %) ist die Vereinbarkeit von Beruf, Familie und Privatleben bei der Wahl eines Arbeitgebers wichtig. Lediglich bei 6,3 % der Beschäftigten fällt die Vereinbarkeit bei der Arbeitgeberwahl gar nicht ins Gewicht. Und am besten, das Engagement des Arbeitgebers für die Vereinbarkeit findet Bestätigung in einem spezifizierten Zertifikat. Jede/ jeder zweite Beschäftigte (52 %) hält einen Arbeitgeber für attraktiver, wenn dieser für die Vereinbarkeit von Beruf, Familie und Privatleben unabhängig zertifiziert ist.

Bildquelle / Lizenz: berufundfamilie Service GmbH

Die Zahlen zeigen deutlich, wie wichtig eine gute Vereinbarkeit für die Gewinnung von Beschäftigten ist. Aber auch die Fähigkeit, Beschäftigte zu binden, steht und fällt häufig mit dem Thema Vereinbarkeit. Mehr als sechs von zehn Beschäftigten (64,4 %) geben an, dass eine schlechte Vereinbarkeit ein Grund wäre den Job zu wechseln.

Bildquelle / Lizenz: berufundfamilie Service GmbH

Beschäftigte und Arbeitgebervertreter*innen setzen auf kontinuierliche Verbesserung der Vereinbarkeitspolitik

Hinzukommt: Beschäftigte erwarten, dass sich ihr Arbeitgeber hinsichtlich seiner Vereinbarkeitspolitik systematisch und strategisch beraten lässt, um sich weiterzuentwickeln. Zum Gelingen kann eine fachlich kompetente Begleitung beitragen, die nahezu vier von zehn Beschäftigten (37 %) mit Blick auf den Anbieter, der die Vereinbarkeit von Beruf, Familie und Privatleben zertifiziert, als wichtig erachten. 31,6 % der Beschäftigten schätzen das Zertifikat als Nachweis kontinuierlicher Verbesserung der familien- und lebensphasenbewussten Personalpolitik.

Und auch bei den Personaler*innen stehen diese Kriterien hoch im Kurs: Knapp die Hälfte (48,7 %) der HR-Manager*innen findet es wichtig, dass sich der Anbieter durch fachliche Kompetenz in der Begleitung auszeichnet. Bei den Entscheider*innen sind es 38 %.

Bei der Zertifizierung selbst steht bei den Fachkräften im Personalwesen eindeutig der Nachweis kontinulierlicher Verbesserungen bei einer Zeitifizierung für die Vereinbarkeit von Beruf, Familie und Privatleben im Fokus: 44,4 % sehen dieses Kriterium als wichtig an. Und auch jedem dritten Entscheider (28,4 %) ist dieses Kriterium wichtig.

Bildquelle / Lizenz: berufundfamilie Service GmbH

Aushandlungsprozesse sind entscheidend – und zugleich Element und Ergebnis systematischer Vereinbarkeitspolitik

Bildquelle / Lizenz: berufundfamilie Service GmbH

Diese Ergebnisse machen den Bedarf an systematischer Organisationsentwicklung im Rahmen der familien- und lebensphasenbewussten Personalpolitik deutlich. Organisationsentwicklung vorantreiben, dass bedeutet eben auch Lösungen für die mit der wachsenden Individualisierung einhergehenden Herausforderungen in der Personalpolitik zu finden. Mit einer strategisch gestalteten familien- und lebensphasenbewusste Personalpolitik erarbeiten sich Arbeitgeber Wege und Instrumente zur erfolgreichen Aushandlung von Vereinbarkeitsthemen – die Tätigkeit des Beschäftigten und die betrieblichen Erfordernisse im Blick, auf die Belange des Beschäftigten zugeschnitten und auf die Bedarfe des Teams abgestimmt. Aushandlungsprozesse sind dabei der Schlüssel zu einer zukunftsorientierten Personalpolitik – und eines der wichtigsten Elemente der Personalsteuerung bzw. -entwicklung für Führungskräfte. Hier sind gezielte Vorbereitung von Gesprächen, Analyse von Anliegen, Lösungsfindung sowie Reflexion von Lösungsgesprächen und -prozessen essenziell – und all das vor dem Hintergrund relevanter organisationsspezifischer Rahmenbedingungen wie z.B. Dienstvereinbarungen, die bei der Ausgestaltung von Maßnahmen zur Vereinbarkeit zu berücksichtigen sind.

Kurzum: Es braucht einen geplanten und dirigierten Trialog zwischen den Interessensgruppen, mit dem tragfähige Vereinbarkeitslösungen gefunden werden können. Ein gelingender Vereinbarkeits-Trialog ist wiederum das Ergebnis einer systematischen Auseinandersetzung mit der Vereinbarkeit. Also keine Scheu vor systematischer familien- und lebensphasenbewusster Personalpolitik. Für sie sprechen massig Argumente.

Über den Autor:

Oliver Schmitz ist Geschäftsführer der berufundfamilie Service GmbH – ThinkTank und Dienstleister im gleichnamigen Themenfeld, der auf eine Initiative der Gemeinnützigen Hertie-Stiftung zurückgeht. Seit 2007 war Oliver Schmitz autorisierter Auditor für das audit berufundfamilie und das audit familiengerechte hochschule. In dieser Funktion begleitete er zahlreiche Unternehmen und Institutionen mit dem audit. Zuvor war er Geschäftsführer eines international tätigen Beratungsunternehmens und wurde dafür unter anderem durch Erfolgsfaktor Familie ausgezeichnet und ließ sein eigenes Unternehmen nach dem audit berufundfamilie zertifizieren. Oliver Schmitz ist zudem Dozent an der Evangelischen Hochschule Freiburg für Arbeitsorganisation und Arbeitsbewältigung und hatte verschiedene Lehraufträge u.a. an der Dualen Hochschule Baden-Württemberg Lörrach für Demografieorientiertes Personalmanagement.

Weitere Informationen unter: www.berufundfamilie.de

6 Tipps für den Online-Handel der Zukunft

Was müssen Online-Händler in Zukunft beachten, um erfolgreich zu verkaufen?

FNG-Siegel mit Rekordwachstum

Mit Rekordwachstum geht das FNG-Siegel, der Qualitätsstandard Nachhaltiger Geldanlagen, in sein fünftes Jahr. Anlässlich der diesjährigen Vergabefeier auf dem historischen Römerberg in Frankfurt wurden 104 Fonds mit dem begehrten Gütesiegel ausgezeichnet. Beworben hatten sich 105 Fonds, was einer Steigerung von 60% zum Vorjahr entspricht. Damit hat sich das Wachstumstempo nach 25% und 40% in den letzten beiden Jahren nochmals beschleunigt. Die Zahl der sich bewerbenden Fondshäuser stieg von 30 auf 47. Die ausgezeichneten Fonds verwalten ein Vermögen von rund EUR 30 Mrd. Das FNG-Siegel ist etabliert.

Einen großen Sprung machte das Wachstum der sich zum ersten Mal bewerbenden Fonds. Produkte von gleich 19 Asset Managern gingen erstmals um das begehrte Gütezeichen ins Rennen. Nachdem Deutschland im letzten Jahr aus seinem Dornröschenschlaf erwachte, hat es die österreichischen Fonds zahlenmäßig knapp überholt. Der größte relative Zuwachs kam jedoch von Ländern außerhalb des deutschsprachigen Raums: Frankreich zog mit der Schweiz gleich, indem sich auf Anhieb 11 Fonds von sechs französischen Fondsgesellschaften bewarben. Die europäische Dimension des FNG-Siegels wird durch die Tatsache belegt, dass Fonds aus 12 Ländern mit dem SRI-Qualitätsstandard ausgezeichnet wurden. Dies geht mit den Bemühungen auf EU-Ebene einher, welche die Stärkung von Standards innerhalb des Aktionsplans zur Finanzierung nachhaltigen Wachstums offiziell vorsieht. Insbesondere vor dem Hintergrund der anstehenden Beratungsverpflichtung zu Nachhaltigen Geldanlagen, die in MiFID-II und IDD vorgesehen ist, steigt schon jetzt die Nachfrage nach soliden, professionell verwalteten Nachhaltigkeitsfonds. Das FNG-Siegel bietet hier eine gute Orientierung.

Roland Kölsch, QNG-Geschäftsführer und verantwortlich für das FNG-Siegel: „2019 ist das Jahr der Etablierung unseres SRI-Labels. Gerade auf der Vertriebsseite zeigt sich, dass Erkennbarkeit für seriöse Nachhaltige Geldanlagen immer wichtiger wird. Unsere externe Due-Diligence hilft Fondsselektoren, Maklerverbünden, Banken und Versicherungen, nicht auf Mogelpackungen reinzufallen, sondern qualitativ hochwertige Finanzprodukte anzubieten. Auch große Fondsplattformen und wichtige Finanzportale nutzen das FNG-Siegel – teils exklusiv. Nun gilt es, diese Sichtbarkeit zu nutzen, um weiter aufzuklären und um Anlegern den Einstieg in die Komplexität Nachhaltiger Geldanlagen mittels eines einfachen Gütezeichens zu vereinfachen.“

Prof. Timo Busch, Universität Hamburg und verantwortlich für das Audit: „Wir freuen uns, im Rahmen der anspruchsvollen Prüfung und Bewertung den Sparring-Gedanken fortgesetzt zu haben. Erneute Bewerber haben im Vergleich zu den Vorjahren viele Fortschritte gemacht. Erstbewerber schätzen die umfassenden Rückmeldungen, die als Grundlage für weitere Verbesserungen im Research, Investmentprozess und Reporting genutzt werden. Ein großer Erfolg war, dass nicht wenige Fonds bereits während des Audits einzelne Titel aus dem Portfolio verkauft oder Erkenntnisse gewonnen haben, die in interne Projekte einfließen, um die Nachhaltigkeitsqualität der zertifizierten Fonds weiter zu verbessern.“

Volker Weber, FNG-Vorstandsvorsitzender: „Unsere Pionier-Arbeit in Sachen Standardisierung trägt Früchte. Der Fachverband Forum Nachhaltige Geldanlagen wird seinem Auftrag gerecht, für Transparenz, Orientierung und Standards bei nachhaltigen Finanzprodukten zu sorgen. Damit machen wir all denjenigen Fondsgesellschaften und Kapitalanlegern ein Angebot, die es ernst meinen mit der Nachhaltigkeit und dem Greenwashing einen Riegel vorschieben wollen.“

Weitere Informationen unter:
www.forum-ng.org

Lizenz:
Dies ist eine Pressemitteilung von Forum Nachhaltige Geldanlagen

Geschicktes Datenportfoliomanagement

Wie Sie Ihren Unternehmenserfolg durch geschicktes Datenportfoliomanagement steigern!

Haben Sie einen Überblick darüber, welche Daten in Ihrem Unternehmen existieren?

Kennen Sie die typischen Herausforderungen, die unterschiedliche Datenarten an Ihre Organisation stellen?

Wissen Sie, wie Sie diese gekonnt meistern, um den maximalen Nutzen aus Ihren Daten zu generieren?

Im nachfolgenden Beitrag stellen wir Ihnen die verschiedenen Datenarten vor und zeigen auf, wie Sie das Potenzial dieser Daten optimal nutzen.

Kundendaten

Der Kunde ist König – das gilt auch für seine Daten. Enge Kundenbeziehungen und der korrekte Umgang mit Kundendaten sind in Zeiten der DSGVO besonders wichtig. Achten Sie deshalb auf transparente Erhebungsverfahren, eine auditfähige Dokumentation und eine hohe Datenqualität in Ihren CRM-Systemen. Je besser die Qualität Ihrer Kundendaten, desto effektiver können Sie Ihre Marketingkampagnen ausspielen.

Lesen Sie Ihren Kunden ihre Wünsche von den Lippen ab, ermöglichen Sie eine korrekte persönliche Ansprache, denken Sie an Ihre Kunden zum Geburtstag und unterstützen Sie sie bei Problemen mit einer zügigen einfachen Lösung. Darüber hinaus sind gut gepflegte Kundendaten die Basis für Ihre Kundenanalyse und Kundenwertberechnung.

Typische Herausforderungen in Bezug auf Kundendaten:

  • Syntaktisch uneinheitliche Daten
  • Fehlende Kontakt- oder Adressdaten
  • Fehlender Abgleich zwischen Kundenmanagement- und Abrechnungssystem
  • Eliminierung von Dubletten
  • Plausibilitätsprüfung und Validierung von Daten

Lösungsansätze für die Optimierung der Datenqualität bei Kundendaten:

  • Prüfung der Kundendatenqualität bei der Eingabe
  • Anreicherung von Datenbeständen
  • Zugriff auf Open Data zur Gewinnung neuer Informationen
  • Validierung von Adressdaten
  • Einsatz von Software-Tools zur Ermittlung eines einheitlichen Kundendatenstammes (Golden Records)

Lieferantendaten

Vor allem E-Commerce-Händler – egal ob groß oder klein – stehen vor dem gleichen Problem. Um ihre Shops mit Produkten zu füllen, müssen sie große Datenmengen aus vielen verschiedenen Quellen verarbeiten. Insbesondere die Bereitstellung und Aktualisierung von Produktdaten ihrer Lieferanten führt zu hohem Aufwand in der Aufbereitung der Daten. Häufig steht ein ganzes Team von Kategoriemanagern bereit, die die Daten manuell überprüfen und korrigieren, um sie an ihre Ziel-ERP-, Shop- oder PIM-Systeme weiterzuleiten.

So geben Unternehmen ihr Bestes, um den hohen Erwartungen ihrer Kunden gerecht zu werden: eine reibungslose Nutzererfahrung (z. B. perfekte Suchergebnisse) und Kaufabwicklung (korrekter Versand) – beides abhängig von maximaler Datenqualität.

Typische Herausforderungen in Bezug auf Lieferantendaten:

  • Vielzahl an Lieferanten und Logistikpartnern mit unterschiedlichen Datenformaten, -strukturen und Schnittstellen
  • Uneinheitliche Informationsqualität aufgrund fehlender Standards
  • Aufwendige Datenübernahme und Integrationen in das Warenwirtschaftssystem
  • Manuelle Bereinigung der Daten
  • Hohe Ansprüche an Datenqualität durch den Kunden: Aktualität & Korrektheit

Lösungsansätze für die Optimierung der Datenqualität bei Lieferantendaten:

  • Schaffung einer einheitlichen Referenzdatenstruktur
  • Regelbasierte Textgenerierung
  • Definition von Quality Gates 
  • Schaffung von Schnittstellen zu Standard-Systemen
  • Einsatz von Software-Tools zur automatisierten Datenübernahme und Datenqualitätsprüfung

Produkt- und Materialdaten

Die Effizienz des Supply Chain Managements steht und fällt mit dem Güter- und Informationsfluss. Nur verlässliche Produkt- und Materialdaten können eine reibungslose Lieferkette sowie ein valides und performantes Reporting garantieren. Hingegen lassen uneindeutige Daten wie bspw. Dubletten einen falschen Lagerbestand entstehen und verfälschen Inventurergebnisse. Außerdem verhindern sie die Nutzung von Einsparpotenzial aus größeren Beschaffungsmengen im Einkauf, erzeugen Kapitalbindung sowie erhöhte Prozesskosten.

Typische Herausforderungen in Bezug auf Produkt- und Materialdaten:

  • Falsche Dispositionsparameter: Losgrößen, Meldebestände, Rabatte, Mengen
  • Fehlerhafte Sicherheitsbestände und Wiederbeschaffungszeiten
  • Dubletten (uneindeutige Daten)
  • Dummys
  • Artikelgruppenzuordnung
  • Klassifizierungsprobleme
  • Werteprüfungen
  • Zuständigkeiten in der Dateneingabe und -pflege

Lösungsansätze für die Optimierung der Datenqualität bei Produkt- und Materialdaten:

  • Schaffung einer einheitlichen Referenzdatenstruktur
  • Schaffung eines abteilungs- oder unternehmensweiten Regelwerkes zur Prüfung der Daten
  • Einbindung der DQ-Kontrolle in existierende Genehmigungsworkflows
  • Zuweisen von Aufgaben zur Bereinigung der Daten an Fachabteilungen (z. B. Lager)
  • Einsatz von Software-Tools zur Markierung von Dummys und zur Ermittlung eines einheitlichen Materialstammes (Golden Records)

Technisch-infrastrukturelle Daten

Eine organisationsweite Übersicht vorhandener technisch-infrastruktureller Daten ist der Ausgangspunkt für ein serviceorientiertes IT-, Facility- und Organisationsmanagement. Technisch-infrastrukturelle Daten fassen Datenbestände aus den Bereichen Instandhaltung, dem Gebäudemanagement aber auch der Informationstechnologie zusammen. Hierzu zählen u.a. Gebäudepläne, Raumdaten, Verkabelungspläne, Lagerkapazitätspläne oder Anlagen- und Infrastrukturausstattungen von Gebäuden. Die Optimierung der Datenqualität resultiert in einer vereinfachten Rechnungsprüfung und Weiterverrechnung. Außerdem schafft sie die Basis für Kostencontrolling und Nachlizenzierung.

Typische Herausforderungen in Bezug auf technisch-infrastrukturelle Daten:

  • Fehlende Übersicht – „Wildwuchs“ an Excel-Listen
  • Aktualität der Datengrundlage fraglich (Daten schnell veraltet)
  • Vielzahl von automatisiert generierten Daten, insbesondere bei maschinellen Daten
  • Häufig numerische Erfassung ohne klare Struktur und Semantik
  • Redundante Daten in unterschiedlichsten Formaten

Lösungsansätze für die Optimierung der Datenqualität bei technisch-infrastrukturellen Daten:

  • Abbildung eines Referenzdatenmodelles als Grundlage
  • Schaffung eines einheitlichen Verzeichnisses über sämtliche Datenquellen hinweg (auch Excel)
  • Indizierte Volltextsuche über alle Daten
  • Zugriffs- und Werteregeln für Daten, die von Mitarbeitern gepflegt werden
  • Anbindung von SCCM- und DMS-Systemen
  • Anbindung an Active Directory und Nameserver (z. B. LDAP)
  • Technische Unterstützung bei der Datenkonsolidierung durch Workflowprozesse und Einbindung von Mitarbeitern

Geodaten

Der Schlüssel zu einer effektive Logistik- und Ressourcenplanung sind konsistente Geodaten. Als Daten mit einem direkten oder indirekten Bezug zu einem bestimmten Standort oder geografischen Gebiet dienen sie der korrekten Ortung. Sie beschreiben somit ein Objekt, entweder direkt (durch Koordinaten) oder indirekt (z.B. durch PLZ), einer Landschaft oder durch seine Position im Raum. Geodaten lassen sich über ihren Raumbezug untereinander verknüpfen, um detaillierte Abfragen und Analysen erstellen zu können. Ihr Nutzen liegt in der exakten Routenplanung und der Vermeidung von Umwegen. Zusätzlich können Sie zur Visualisierung von Primärdaten (Kunden- oder Materialdaten) eingesetzt werden.

Typische Herausforderungen für Geodaten:

  • Fehlerhafte Geobasisdaten wie Koordinaten (X/Y-Werte)
  • Fehlerhafte Zuordnungen von Geobasisdaten zu Attributen/Metabeschreibungen (z. B. POI)
  • Fehlerhafte Metadatenbeschreibungen (Verwendung eines Grundstückes)
  • Konzeptuelle-, Format-, Werte-, Topologische- Geometrische Konsistenz
  • Positionsgenauigkeit (innere + äußere) und Rasterdatengenauigkeit
  • Zeitliche Korrektheit
  • Klassifikation von Geodaten

Lösungsansätze für die Optimierung der Datenqualität bei technisch-infrastrukturellen Daten:

  • Integration des Geo-Informationssystems (GIS)
  • Berücksichtigung der Mehrdimensionalität der Daten 2D / 2,5D / 3D / 4D
  • Validierung und Anreicherung von Geodatenbeständen mittels Open-Source-Daten

Fazit:

Mit einem spezifischen Problem sehen sich Unternehmen über alle Datenarten hinweg konfrontiert. Fast alle Datenlandschaften weisen einen bestimmten Anteil an Dubletten auf. Dabei handelt es sich um uneindeutige und teilweise in mehreren Datenbanksystemen eingetragene Datensätze. Zur Identifikation und Bereinigung von Dubletten wird idealerweise ein Software-Tool eingesetzt. Dieses überprüft Ihren gesamten Datenstamm über alle Systeme hinweg anhand konfigurierbarer Kriterien. Die Bereinigung findet im Anschluss automatisch statt oder der Nutzer wird in einem einfachen Prozess durch die manuelle Bereinigung geleitet. Als Resultat erhalten Sie einen Datensatz – den sogenannten Golden Record – in welchem die Daten aus sämtlichen Dubletten korrekt und vollständig zusammengeführt wurden.

Unser Autor
Dr. Tobias Brockmann

Aufmacherbild / Quelle / Lizenz
Bild von Akela999 auf Pixabay

5 Trends in der Versicherungsbranche – So sieht die Versicherung der Zukunft aus

Die Versicherung von morgen wird mit jener von heute nur noch wenig gemein haben. Fünf Thesen, wie neue Technologien die Versicherungswelt von Grund auf verändern.

7 Gedanken – so gelingt die Transformation in eine Digitalbank

von Dirk Emminger – Director of Business Development, Temenos

Transformation zur Digitalbank klingt in der Theorie immer einfach, ist aber in der Praxis hoch komplex. Vor allem in traditionellen Häusern sind viele Hürden zu nehmen. Egal, ob es darum geht, eine Digitalbank von Grund auf neu zu gründen oder digitale Services in das bestehende Angebot hinzuzufügen. Vor allem alte Denk- und Arbeitsweisen machen traditionellen Finanzinstituten bei der Digitalen Transformation schwer zu schaffen. Etablierte Muster aus dem Legacy-Zeitalter bestimmen noch viel zu oft, wie Entscheidungen getroffen werden. Doch wenn Finanzinstitute an solchen Methoden festhalten, werden sie mittelfristig nicht erfolgreich sein und schlimmstenfalls scheitern.

Dabei lassen sich recht schnell die häufigsten Fehler identifizieren, die Finanzinstitute bei der Transformation machen – hier ein paar Gedanken wie man diese Fehler vermeiden kann:

  1. Neu aufbauen, nicht neu anmalen
    Beim Aufbau einer digitalen Bank scheint es am Schnellsten, mit einem traditionellen Bankmodell zu beginnen und einfach eine digitale Version daraus zu erstellen. Doch einer der größten Fehler, der bei dieser Art der digitalen Transformation gemacht wird, ist die Automatisierung alter Prozesse. Stattdessen sollten Institute digitale Dienstleistungen rund um den Kunden aufbauen, ohne dabei weiter an Backoffice-Silos und Produktabläufen der Vergangenheit festzuhalten. Ein Blick ins E-Commerce oder auch nur in die Onboarding Prozesse von z.B. E-Scooter Anbietern zeigt, dass Einfachheit gewinnt.
    Ein Beispiel verdeutlicht die Problematik: Oft ist es so, dass selbst bestehende Bankkunden sich für neue Services erneut legitimieren müssen. Diese Abfrage grundlegender Identitätsinformationen ist größtenteils überflüssig, kostet Zeit und Geld und verursacht Unbehagen bei den Kunden. Vor allem, wenn es sich um papierbehaftete Prozesse handelt. Um Kunden (und auch der Bank) dieses Prozedere zu ersparen, verwenden neue Bankinstitute eine API-basierte Serviceschicht, um die schon einmal erfragten Daten in die benötigten Formulare anzupassen.
  2. Wie Kunden denken
    Die Transformation in eine digitale Bank sollte mit dem Kundenerlebnis beginnen. Erfolgreiche Institute untersuchen, was neue Kunden anzieht und wie sie ihre Dienstleistungen ausbauen müssen, um diese Kunden auch zu halten. Bei allen Prozessen geht es darum, wie ein Kunde zu denken und Abläufe nicht von der Bankseite, sondern von der Kundenseite aus zu realisieren:
    ● Welche spezifischen Situationen gibt es, in denen das Institut ein überzeugenderes Erlebnis bieten kann, als es Kunden anderswo findet?
    ● Sind alle Anwendungen auch unterwegs abrufbar und die User Experience benutzerfreundlich auf mobile Geräte angepasst?
    ● Wo werden Transaktionen abgebrochen? Wo entstehen Fehler bei der Eingabe? Wann steigt der Kunde aus? Das Maß einer erfolgreichen digitalen Bank ist, wie wenig Zeit der Kunde bei der Nutzung aufwendet.
    ● Wie kann die Bank anhand von Transaktionen, Kontoverhalten und Social Media- und Standortdaten ein noch personalisiertes Angebote für den Kunden entwerfen?
  3. Entwerfen, Testen, Ausprobieren
    Die Zeiten jährlicher Updates sind passé. Im mobilen Zeitalter werden Verbesserungen just in time umgesetzt, teilweise passiert dies täglich und manchmal sogar mehrmals am Tag. Alles im Hintergrund und ohne das Bankkunden dafür etwas tun müssen oder dies bemerken. Voraussetzung dafür ist kontinuierliches Testen, Messen und Iterieren der Customer Journey mit einem „Live-Publikum“.
    Der Schlüssel zum Erfolg ist also die kontinuierliche Integration und Bereitstellung von neuen Services und Updates. Als Teil des so genannten DevOps basiert diese in der gesamten Softwareindustrie angewandte Methodik auf der kontinuierlichen Einführung, dem Testen und der Bereitstellung kleinerer Änderungen. Voraussetzung dafür ist eine Software-Infrastruktur mit Funktionen, die DevOps unterstützen und speziell für Cloud-Umgebungen optimiert sind.
  4. Back- und Frontoffice getrennt voneinander betrachten
    Eine Bank funktioniert wie eine Fabrik: für die jeweiligen Systeme – Backoffice (Fertigung) und Front-Office (Vertrieb) – gelten unterschiedliche Prioritäten und Aktualisierungszyklen. So benötigt beispielsweise die Fertigung die Planbarkeit und einen langzeitlichen Zyklus, während der Vertrieb die Agilität und Freiheit braucht, auf sich ändernde Kundenbedürfnisse und -präferenzen zu reagieren. Kundenorientierte Prozesse und Systeme, bei denen mehrere Varianten für verschiedene Produkte und Kanäle parallel laufen und getestet werden, müssen existieren können.
    Im Gegensatz zu monolithischen Bank-IT-Strukturen der Vergangenheit kann eine digitale Bank mit einem einzigen integrierten System, das einen Produktionswechsel erfordert, um neue Vertriebsmerkmale hinzuzufügen, nicht optimal funktionieren. Dies stellt eine Herausforderung dar, da der Datenfluss zwischen Produktion und Vertrieb für den End-to-End-Prozess entscheidend ist. Moderne Digitalbanken arbeiten mit getrennten Systemen, die über dokumentierte APIs und lose gekoppelte Mikroservices miteinander verzahnt sind. In der Praxis bedeutet das, dass Änderungen in einem System das andere nicht beeinflussen.
  5. Weit mehr als nur FrontEnd – Unterschiedliche Skills bei Mitarbeitern
    Um Probleme zu vermeiden, muss mehr Aufmerksamkeit auf die Plattform gelegt werden, die der Kunde nicht sieht. Auf dieser zugrunde liegenden Infrastruktur werden schnell wechselnde Produktkataloge, flexible Entscheidungsmaschinen, die Integration in neue Fintech-Dienste verwaltet. Diese weniger sichtbaren Elemente bilden die schwierigen Bauteile einer neuen digitalen Bank. Im Gegensatz zum FrontEnd wird dieser Teil der Plattform langfristiger ausgelegt und muss entsprechend robust sein. Für diesen Teil der neuen Digitalbank werden technisch komplett andere Skills benötigt als im FrontEnd. Erfolgreich ist das Unternehmen, dass für diesen Teil Branchenexperten rekrutieren kann. Der beste FrontEnd Entwickler mit jahrelanger Erfahrung in User Experience Projekten wird diesen Aufgaben in der Regel nicht gewachsen sein. Hier wird auf der Mitarbeiter Seite Know How von Bankprozessen und auch Regulatorik benötigt.
  6. Spezialisierte Dienstleister hinzuziehen
    Für eine komplexe und skalierbare Digitalbank, die sich ständig anpasst, werde nahezu unendlich viele spezielle Funktionen benötigt. Services wie Identitätsprüfung, Betrugserkennung, Risikobewertung und Zahlungsdienste müssen in die digitale Bankenlösung integriert und orchestriert werden.
    So etwas lässt sich schwer alleine stemmen. Aus diesem Grund ist es sinnvoll, externe Spezialisten zur Hilfe hinzuzuziehen, die diese Herausforderungen bereits gelöst haben und eine entsprechende Software entwickelt haben, die sich mittels APIs an die Systeme andocken lässt. So lassen sich elegant bestehende Erweiterungen schnell und kostengünstig integrieren, was besser und günstiger als die Programmierung neuer Stand-Alone-Lösungen ist.
    Beispielsweise brauchte eine Bank, die eine Eskalation betrügerischer Transaktionen im Zusammenhang mit neuen Produktangeboten erlebte, einen neuen Ansatz zur Betrugsbekämpfung und zwar schnell. Anstatt monatelang auf die Integration der Design-, Entwicklungs-, Test- und Release-Zyklen mit der gewählten Fintech-Lösung zu warten, konnte das Institut auf eine bestehende erprobte Lösung zurückgreifen und per API anbinden. Der neue Cloud-basierte Service wurde so innerhalb von Tagen und nicht wie üblich in Monaten implementiert.
  7. Basisinfrastruktur und Kernfunktionalität kaufen und nicht selber bauen
    Der größte Fehler besteht oft darin, in die falschen bzw. bereits bestehende Dinge zu investieren. Eine Forrester-Studie aus dem Jahr 2018 ergab, dass die erfolgreichsten Digital-Banking-Projekte diejenigen waren, die eine „Build, Buy, Extend and Assembly“-Methode anwandten.
    Banken sollten für die Basisinfrastruktur und die Kernfunktionalität auf bewährte kommerzielle Plattformen zurückgreifen – bei denen der Softwareanbieter die Kosten für Wartung und Erweiterung auf Hunderte von Kunden verteilt. Dies gibt der Bank die Möglichkeit, sich auf ihr spezialisiertes, kundenorientiertes Fachwissen zu konzentrieren und so die Differenzierungspotenziale auf der kommerziellen Plattform aufzubauen. Erfolgreiche digitale Banken nutzen ihre eigenen Ressourcen, um den sichtbaren Teil zu optimieren und zu differenzieren, um ein wirklich einzigartiges Produkt und Erlebnis zu schaffen.

Über den Autor

Dirk Emminger bewegt sich seit 1996 in der Bankenindustrie er ist von Hause aus Banker – jedoch seit mehr als einer Dekade in unterschiedlichen Rollen bei spezialisierten Dienstleistern die moderne Bankenplattformen vertrieben – heute verantwortet er als Director Business Development den Vertrieb bei Temenos für Deutschland und Österreich.

Weitere Informationen unter:
https://www.temenos.com/

Digitalisier mal!

Der CDO – Interner Berater auf Zeit

Warum sich erfolgreiche Digitalisierungstreiber in fünf Jahren selbst abschaffen und dies sogar wünschenswert ist

Ein Gastbeitrag von Roland Riedel, Senior Vice President für Zentraleuropa bei PTC

Was machen Unternehmen, Verbände, Non-Profit-Organisationen und sogar die Regierung, wenn sie vor einer größeren Herausforderung stehen, die sie mit den eigenen vorhandenen Kompetenzen und Ressourcen nicht stemmen können? Sie holen sich ein Beratungsunternehmen ins Haus, das mit Blick auf die Organisation selbst sowie auf die marktwirtschaftlichen und gesellschaftspolitischen Umstände passende Strategien und Konzepte entwirft und diese gegebenenfalls auch mit umsetzt.

Die digitale Transformation von Wirtschaft und Gesellschaft, in der wir uns alle befinden, ist nun nicht nur eine weitere dieser Herausforderungen, sondern der große Umbruch unserer Zeit. Jedermann weiß mittlerweile, dass sie auch für ihn früher oder später signifikante Veränderungen mit sich bringt, sowohl beruflich als auch privat.

Roland Riedel ist Senior Vice President für Zentraleuropa bei PTC (Bildquelle: PTC)

Immer mehr Unternehmen haben die Zeichen der Zeit nicht nur erkannt, sondern schon angefangen zu handeln. „Wir müssen digitalisieren!“ Klar – aber wie? Es lag bei vielen auf der Hand, dass entsprechende Ressourcen und Kompetenzen intern nicht vorhanden waren und von außen kommen mussten. Oft wurde das zunächst mit besagten externen Beratern gelöst. Flankierend entstand ein neues Berufsbild – der Chief Digital Officer (CDO) war geboren. Warum war das nötig? Die klassische IT, der CIO – zu sehr mit dem laufenden Betrieb der Systemlandschaft verhaftet. Der CTO? Zu stark in die klassische Produktentwicklung involviert. Der CEO? In den digitalen Themen kaum zu Hause. Auf den Anforderungslisten stand jedoch vielerorts die komplette zukünftige Ausrichtung des Unternehmens in einer digitalen Welt – nicht mehr und nicht weniger.

Der CDO – nicht nur Berater, sondern Messias

So kam es, dass in den letzten Jahren mehr und mehr CDOs Einzug in die Unternehmen hielten. Laut einigen aktuellen Studien wie der „2019 Chief Digital Officer“-Studie von Strategy&, der Strategieberatung von PwC, liegt die CDO-Quote im DACH-Raum bei 44 Prozent und ist global betrachtet überdurchschnittlich hoch. In Deutschland beträgt die CDO-Dichte sogar 48 Prozent. Das zeigt, wie wichtig dieser Posten aktuell ist. Überraschend mutet es da an, dass Deutschland in punkto Digitalisierung bislang bestenfalls im Mittelfeld spielt (vgl. Cisco Digital Readiness Index 2019). Oder ist das vielleicht gerade der Grund für den Ruf nach dem Messias? Der CDO als wahrer Tausendsassa, der alle Unternehmensbereiche verstehen, marktwirtschaftlich und technologisch bewandert sowie trendfokussiert sein muss, kulturschaffend mit den Abteilungen kommuniziert und die Fackel der Digitalisierung so von Tür zu Tür trägt.

Und dennoch stagniert diese Entwicklung aktuell. Das hat diverse Gründe. Dazu zählt sicherlich die fehlende Durchschlagskraft bei der Umsetzung, vor allem dann, wenn um Budgets gerungen wird oder der CDO nicht auf oberster Führungsebene (wie es sein sollte), sondern irgendwo darunter angesiedelt ist. Gerne mischt sich früher oder später dann doch eine/r der oben genannten Damen oder Herren ein, wenn es um Machtverteilung und Entscheidungsgewalt geht.

Unternehmenslenker führen das oft auf Missverständnisse bei der genauen Rollendefinition des CDOs, eine undurchsichtige Aufgabenverteilung zwischen CEO, CIO, CTO und CDO oder mangelndes Verständnis für die Strategien und Maßnahmenpakete zurück (siehe zum Beispiel die „Chief Digital Officer Studie 2018“ der Quadriga Berlin in Zusammenarbeit mit TMG).

Hier kommt des Dilemmas erster Teil: CDO-Rollen werden geschaffen, da es vermeintlich an Know-how und Ideen mangelt, die digitale Transformation anzupacken. Auf dieser Basis lässt sich allerdings auch kein detailliertes Stellenprofil schaffen, das all diese später aufgeführten „Mängel“ von vornherein klärt. Somit lebt und agiert der CDO in einer sehr freien Rolle, was die Schranken für die Gestaltung des Wandels reduziert und somit positiv ist, ihn und sein Handeln aber auch angreifbar macht. In den Augen der Geschäftsführung bleibt er eine Art Wundertüte. Vor allem bei denen, die sich selbst weniger in den Digitalisierungsprozess einbringen und später enttäuscht sind, weil ihre „Erwartungen“ nicht erfüllt werden. Fast schon paradox. Was uns zu der eigentlichen Frage führt:

Wo bleiben die CEOs?

Ein CDO kann basierend auf seiner allumfassenden Rolle wertvolle Impulse liefern und mit einer Digitalisierungsstrategie den Grundstein für den zukünftigen Erfolg eines Unternehmens legen. Die oftmals notwendige Öffnung der Unternehmenskultur schaffen, kann er alleine aber nur selten. Der wichtigste Treiber der digitalen Transformation sollte daher der CEO sein. Er muss sich schneller als alle anderen im Unternehmen dem Wandel stellen, schließlich formuliert er die Vision und die Ziele der Organisation. Hier sehe ich in der Praxis bereits gute Beispiele, wie es laufen sollte, aber noch viel mehr Nachholbedarf.

Macht ein CDO seine Aufgabe wirklich gut – und dies ist des Dilemmas zweiter Streich – wird seine Rolle in wenigen Jahren überflüssig. Das erfolgreich transformierte Unternehmen denkt und handelt eigenständig „digital“, angefangen bei der Geschäftsführung bis hin zu jeder einzelnen Abteilung. Und wenn das digitale Feuer einmal überall lodert, braucht es keinen Brandstifter mehr.

KI und Automation für effektive Endpoint-Protection

Matthias Canisius, Regional Director von SentinelOne erläutert im Interview wie KI-basierte Technologien und Automation vereint den Endpunkt effektiver schützen.

Je mehr wir voll automatisiert und digital basiert arbeiten, desto angreifbarer werden Endpoints und Devices gegen ungewünschten Fremdzugriff, Manipulation und Missbrauch.
Herr Canisius, was ändert sich in diesem Kontext für die IT-Security, die Sicherheitskultur und das Risikomanagement in den Unternehmen?

Absolut korrekt. Mit zunehmender Vernetzung und Digitalisierung von Systemen, vergrößert sich die Angriffsoberfläche. Und das gilt sowohl für den privaten wie auch für den professionellen Bereich. Privat und Beruf, drinnen und draußen, sind heute im digitalen Sinne kaum noch zu trennen. Was zur Folge hat, dass die Bedeutung des klassischen Perimeterschutzes zunehmend schwindet und eine enorme Konzentration auf die Sicherheit des Endpunktes zu beobachten ist. Diese Entwicklung wird weiter zunehmen.

Ferner wird der Begriff des Endpunktes zukünftig noch weiter gefasst werden und – wie wir ja auch bereits erleben – ausgeweitet werden auf Produktionssysteme und den gesamten IoT/OT-Bereich sowie Container-basierte (z.B. Docker)-Umgebungen, um hier nur einige zu nennen.

Matthias Canisius, Regional Director, SentinelOne

Wie gestaltet sich die heutige Bedrohungslandschaft?

Das größte Bedrohungspotenzial geht heute von hochentwickelter Schadsoftware aus, die aufgrund der Kombination komplexer Verschleierungstechniken immer schwerer aufzuspüren ist. Zudem sehen wir einen massiven Trend hinsichtlich Angriffen, die nicht mittels einer Datei ausgeführt werden, sondern die „fileless“ bspw. mittels Powershell, Macros, Scripten oder dergleichen Zugriff auf unsere Systeme erlangen. Für klassische Sicherheitslösungen sind diese kaum aufzuspüren und wirksam zu verhindern. Antivirus, Firewalls oder auch Intrusion-Prevention-Systems (IPS) erfassen nur einen sehr engen Sicherheitswinkel und können gegen moderne Bedrohungen, die eben auch Techniken benutzen, die zuvor nur staatlichen Geheimdiensten vorbehalten waren, nicht mehr ankommen. Das zeigt auch der aktuelle Lagebericht des BSI. 

Wie unterstützen Sie hier Unternehmen in ihrem Kampf gegen Cyberkriminalität?

Mit unserer Endpoint Security-Plattform bieten wir Unternehmen eine vollständige und benutzerfreundliche Sicherheitslösung, die sie zuverlässig vor allen Arten von Malware schützt. Hierbei setzen wir auf einen intelligenten Agenten, der direkt auf dem Endpunkt ausgeführt wird und potenzielle Bedrohungen dort mit Hilfe von KI in Echtzeit analysiert und eben auch in Echtzeit reagieren kann. Der Vorteil von diesem Ansatz ist, dass verdächtige Dateien nicht erst in eine Sandbox oder andere externe Systeme geschickt werden müssen, sondern direkt auf dem Endpunkt selbst, d.h. in natürlicher Umgebung, für die Malware ja schließlich auch geschrieben wird, analysiert werden. Dies erhöht die Erkennungsquote erheblich. Ein weiterer Vorteil ist, dass der SentinelOne-Agent auch offline arbeitet und bei einem Sicherheitsvorfall automatisiert die richtigen Maßnahmen zur Eindämmung der Bedrohung und Wiederherstellung betroffener Systeme und Dateien anstößt.

Autonomer Endpunktschutz zur Prävention, Identifikation, Abwehr und Reaktion – wie wichtig ist hier Automatisierung?

Sicherheitsbeauftragte stehen heute vor der großen Herausforderung, jeden Winkel ihres Netzwerks überwachen und schützen zu müssen – vom Endpunkt bis zur Cloud. Wer dabei auf passive Bedrohungserkennung setzt, kommt schnell an seine Grenzen, denn er muss eine schier unendliche Zahl von Daten manuell in Zusammenhang bringen, analysieren und bewerten. In Zeiten von Fachkräftemangel, überarbeiteten IT-Teams und einer komplexen Bedrohungslandschaft ist dies kaum noch zu schaffen. Integration und Automatisierung sind Themen, die in jedem CISO-Office ganz oben auf der Prioritätenliste stehen. Was nutzt mir zudem die intelligenteste Lösung, wenn ich ein Heer von Menschen für den Betrieb brauche und nicht in der Lage bin, diese sauber zu integrieren.

Unsere Endpoint Detection und Response Lösung ActiveEDR ermöglicht es, potenzielle Bedrohungen automatisiert – inklusive Kontext – zu verstehen und mögliche Angriffe ohne manuelles Eingreifen zu blockieren. Durch den hohen Grad an Automatisierung reduziert ActiveEDR die Kosten und den Zeitaufwand, der erforderlich ist, um die enormen Datenmengen auszuwerten, die bei detaillierten Analysen anfallen. Dabei arbeitet der Agent wie ein SOC-Analyst auf jedem einzelnen Endpunkt; er wandelt die einfließenden Daten in Echtzeit in komplette „Attack-Stories“ um und reagiert im Fall, dass die „Story“ „böse enden“ würde, sofort automatisch. Dafür brauchen wir lediglich 1-2% CPU auf dem System.

Welche Rolle wird Künstliche Intelligenz (KI) in Zukunft im Rahmen von IT-Security einnehmen?

Wie schon eingangs erwähnt werden KI und Machine Learning die Zukunft der Cybersicherheit wie kaum eine andere Technologie prägen. Künstliche Intelligenz kann uns dabei helfen, selbst hochentwickelte und verschleierte Arten von Cyber-Bedrohung in Echtzeit zu identifizieren und abzuwehren – vor allen Dingen unbekannte Bedrohungen, die heute etwa 90% aller Angriffe ausmachen.

Und natürlich haben auch Cyberkriminelle die Vorzüge von Artificial Intelligence längst für sich entdeckt, um potentielle Opfer damit gezielter und noch raffinierter angreifen zu können – man denke etwa an DeepFakes, d.h. erstaunlich real wirkende Audio- und Video-Nachrichten oder KI-basierte Captcha Bypass-Dienste wie Death by Captcha. Um mit diesen Entwicklungen Schritt halten zu können, sind Unternehmen letztlich dazu gezwungen, ihre Sicherheitsstrategie zu hinterfragen und neue auf KI-basierte Technologien zu erproben.

Wie sollten vor diesem Hintergrund IT-Sicherheitsstrategien aufgebaut sein?

Die Basis einer effektiven Cyber-Sicherheitsstrategie ist und bleibt eine umfassende IT-Infrastrukturanalyse. Nur wenn sie den Stand ihrer IT-Systeme kennen und mögliche Schwachstellen identifiziert haben, sind Unternehmen in der Lage, entsprechend sinnvolle Schutzmaßnahmen zu implementieren. Die Durchführung einer solchen Infrastrukturanalyse ist anspruchsvoll, da sie umfangreiche Kenntnisse über Netzwerkstrukturen sowie die aktuelle Bedrohungslandschaft verlangt, letztlich aber unumgänglich. Eine wichtige Rolle spielen dabei auch individuelle Compliance-Anforderungen sowie gesetzlich verpflichtende Regelungen wie die DSGVO, die von Anfang an mitgedacht werden müssen.

Wir als Hersteller können an dieser Stelle nur ein Teil der Lösung sein und empfehlen daher die Zusammenarbeit mit kompetenten IT-Sicherheitspartnern und Beratungsunternehmen.  Am Ende geht es immer um die gleichen Dinge: Wir möchten ein möglichst hohes Sicherheitsniveau umgesetzt wissen. Die Performance der Systeme darf darunter nicht leiden und ich möchte einen einfachen Betrieb sichergestellt wissen. Dazu wünschen wir uns Integrations- und Automatisierungsmöglichkeiten. Zu guter Letzt wünschen wir uns umfangreiche Sichtbarkeit, die letztliche Grundlage für unsere Sicherheitsmaßnahmen bildet.

Cybercrime-Trends 2020: Worauf können wir uns gefasst machen?

Das ist im Detail sicher schwer zu sagen. Doch was man mit Sicherheit sagen kann: Die technologischen Möglichkeiten werden auf beiden Seiten – bei Angreifern wie bei denjenigen, die Sicherheitstechnologien entwickeln – maximal ausgelotet werden. Wir haben bereits sich selbst verändernde Malware, Malware, die ohne Datei daherkommt und vieles mehr. Haben wir ein Loch gestopft, wird versucht, an anderer Stelle bzw. mit anderen Mitteln zu bohren.

Es ist und bleibt ein Wettlauf. Und hier schließt sich der Kreis wieder zu Ihrer ersten Frage: Entscheidend wird sein, in wie weit wir neue Entwicklungen zum Schutz unseres Unternehmens zulassen und wie schnell wir diese adaptieren.  Was hilft es, wenn wir uns nach wie vor mit kunstvoll geschmiedetem Schild und Schwert gegen Angreifer mit modernen Schusswaffen wehren wollen – und das nur, weil wir es immer so gemacht haben.

https://www.sentinelone.com/

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay