Ein Baustein von Industrie 4.0 sind Assistenzsysteme

Um die Smart Factory Wirklichkeit werden zu lassen, sind digitale Assistenzsysteme für die Fertigung unabdingbar geworden.

von Dipl.- Ing. (FH) Johann Hofmann

Es braucht Erfindungsgeist und Ausdauer, wenn Visionen wahr werden sollen. Die Realisierung der Vision der Hochleistungsfertigung der Zukunft ist dafür ein hervorragendes Beispiel: Das Assistenzsystem Value­Facturing® entstand in langjähriger Detail­arbeit in der firmeneigenen zerspanenden Fertigung der Maschinenfabrik Rheinhausen und realisiert die digitale Transformation auf dem Weg zur digitalen Hochleistungsfertigung ganz im Sinne einer Smart Factory.

Das System vernetzt alle am Fertigungsprozess beteiligten Anlagen, Systeme und Personen. So leitet es beispielsweise Mitarbeiter bei ihrer Arbeit an, ermöglicht smarte Prozesse und befähigt zu besseren Entscheidungen.

 

Bild 2: Das Assistenzsystem ValueFacturing®

 

Dafür werden einzelne Arbeitsgänge aus dem vom ERP-System ausgelösten Fertigungsauftrag direkt vom Assistenzsystem übernommen und bis zur Rückmeldung digital begleitet und gesteuert. Gleichzeitig erfolgt eine Rückmeldung über die verschiedenen Teilschritte aus der Produktion an das ERP-System. Damit wurde die Basis für ein Internet der Dinge in der Fertigung geschaffen. Physische Objekte wie Werkzeuge werden dank Cloud-Lösungen mit einer virtuellen Repräsentation in einer Internet-ähnlichen Struktur abgebildet.

Herzstück des Assistenzsystems ist die bidirektionale Online-Kommunikation in Echtzeit mit allen am Fertigungsprozess beteiligten Akteuren und der Fähigkeit, Informationen intelligent anzureichern. Das Assistenzsystem bietet neue innovative Features, die eine signifikante Rüstzeitenreduzierung und somit höhere Maschinennutzung ermöglichen. Mit ValueFacturing® gewinnen alle Prozessbeteiligten des Shopfloors mehr Transparenz über den aktuellen Stand ihrer Fertigung. Das Assistenzsystem unterstützt sie smart bei der Ausführung ihrer täglichen Aufgaben.

Der größte Vorteil allerdings ist die Fähigkeit der Datenanreicherung. Hierbei werden situationsabhängig neue Daten generiert. Zum Beispiel werden Fahrbefehle für Werkzeugeinstellgeräte beliebiger Hersteller und unterschiedlichster Softwarestände „just in time“ erzeugt. Hierbei werden vom Assistenzsystem von verschiedenen Systemen (A, B und C) vorhandene Daten für einen anfragenden Akteur (D) abgeholt. Durch intelligente Verknüpfung dieser Daten inklusive umfangreicher Berechnungslogik werden im Ergebnis neue, für einen effizienten Workflow erforderliche Daten erzeugt (Bild 3).

Dieser Effekt wird auch im folgenden ZVEI- Positionspapier, das zur Hannover Messe 2017 veröffentlicht wurde, beschrieben:

„Industrie 4.0 und MES – Voraussetzung für das digitale Betriebs- und Produktionsmanagement – Aufgabenstellungen und künftige Anforderungen“

 

Bild 3: Datenanreicherung
 

A = beliebiges ERP-System
B= beliebige Werkzeugdatenbank
C= beliebiges NC-Archiv
D= beliebiges Werkzeugeinstellsystem

 

Im Kapitel 3.3.5.4 „Dynamisches Ausführungsmanagement“ ist dort die Flexibilisierung betrieblicher Abläufe als wichtiger Bestandteil im digitalen Rüst-Workflow beschrieben. Die Umstellung von althergebrachten starren Abläufen in dynamische Abläufe ist Bestandteil der Digitalisierungsstrategie von Industrie 4.0. Als „starr“ bezeichnet man alle Systeme, deren Abläufe durch Vorbedingungen festgelegt sind. Als „dynamisch“ bezeichnet man alle Systeme, die ihre Vorbedingungen automatisch an eine neue Situation anpassen können.

Das Verfahren der dynamischen Datenanreicherung erfordert umfangreiches Wissen aus der jeweiligen fachspezifischen Domäne. Im Fall der Maschinenfabrik Reinhausen ist das die zerspanende Fertigung. Jahrzehntelang angesammeltes Know-how ist Kernbestandteil der dynamischen Datenanreicherung mit ValueFacturing®. Das erspart z. B. dem Mitarbeiter am Einstellgerät tagtäglich viel Zeit. Noch viel wertvoller ist allerdings der „Poka-Yoke“-Effekt (dt. „unglückliche Fehler vermeiden“), der dadurch ermöglicht wird, dass das fehlerträchtige Eintippen von starren Daten entfällt. Dieses dynamische Erzeugen der Daten ermöglicht auch jederzeit, den anfragenden Akteur (D) im Bild 2 auszutauschen oder durch Updates zu erweitern, denn die benötigten Daten werden immer passend für ihn „just in time“ automatisch neu generiert.

Hintergrund
Die Maschinenfabrik Reinhausen GmbH (MR) ist weltweit führender Anbieter (ca. 50 Prozent Weltmarktanteil) von Laststufenschaltern für die Hochspannungstechnik. Das in Regensburg ansässige und weltweit tätige mittelständische Unternehmen erwirtschaftete im vergangenen Geschäftsjahr mit 3 550 Mitarbeitern und 49 Tochter- und Beteiligungsgesellschaften einen Umsatz von 750 Millionen Euro.

Seit Jahrzehnten zählt für die MR eine große Fertigungstiefe in Deutschland zu den bedeutenden Wettbewerbsvorteilen. Dabei hat sich die MR seit knapp 30 Jahren dem Ziel eines intelligenten Fertigungsflusses verschrieben – mit großem Erfolg. In der firmeneigenen zerspanenden Fertigung wurde in jahrzehntelanger Detailarbeit das Assistenzsystem ValueFacturing® mit richtungsweisenden Funktionen entwickelt.

Der Nutzen dieser Lösung wirkt in den Wertschöpfungsketten im Zentrum der deutschen Produktionsindustrie und ist ein bedeutender Baustein von Industrie 4.0.
Im Jahr 2013 wurde die MR dafür mit dem ersten Industrie-4.0-Award ausgezeichnet und war mit dem Geschäftsbereich Value­Facturing® bereits zweimal Finalist beim Innovationspreis der deutschen Wirtschaft. „Die MR hat bei einer komplexen Ausgangssituation von kleinen Serien, hoher Varianz und heterogenen Maschinen eine hohe horizontale und vertikale Integration mit Zukunftspotenzial erreicht“, begründete die Jury ihre Wahl.

Mit ValueFacturing® können vor allem die wirtschaftliche Fertigung der Losgröße 1, die Beherrschung von beliebiger Varianz und die Verkürzung der Lieferzeit signifikant und nachhaltig verbessert werden.

State of the Art

Modernste Server-, Web- und Cloud-Technologien sichern die Systemverfügbarkeit und gewährleisten gleichzeitig maximale IT-Sicherheit. Durch Einsatz von ValueFacturing® auf Basis der Microsoft Azure Cloud lässt sich ein Rollout auf weitere Unternehmensstandorte weltweit bequem realisieren. Der Einsatz von ValueFacturing® in Verbindung mit Smart Devices ermöglicht Management und Mitarbeitern den Live-Blick in die Fertigung – und das weltweit. Das Internet of Things (IoT) wird so erlebbar. Die Benutzerverwaltung von ValueFacturing® ist mit einem umfangreichen Rechtesystem versehen und lässt eine gezielte Steuerung der zulässigen Aktivitäten je Mitarbeiter zu und erhöht so die Sicherheit. Umfangreiche Health-Checks zur effizienten Überprüfung des Systemzustandes in Realtime vereinfachen die Administration.

Data Mining mit ValueFacturing macht Big Data zu Smart Data

Das Sammeln von Echtzeit-Daten ermöglicht kennzahlenorientiertes Managen im Shopfloor. Um aus den tagesaktuellen Shop­floor-Daten Verbesserungen ableiten zu können, wird das Analytics-Portfolio von Value­Facturing® stetig ergänzt. Das Herausfiltern einzelner wichtiger Informationen aus diesen großen Datenmengen wird als „Data Mining“ oder Mustererkennung bezeichnet. Dazu werden Massendaten (Big Data) mit Datenanalyse- und Entdeckungsalgorithmen durchsucht mit dem Ziel, neue Muster, Querverbindungen und Trends zu erkennen.

Z.B. die Berechnung des Stückzählers durch ValueFacturing® erfordert Mustererkennungsmethoden und ist ein Meilenstein in der Maschinendatenerfassung (MDE). Dadurch werden die Rohdaten zu Smart Data, die neuen Erkenntnisgewinn bringen. Um Fehlinterpretationen weitestgehend zu vermeiden, müssen die Entdeckungsalgorithmen Ausreißer und manipulierte Daten erkennen und aus der Bewertung entfernen.
Schritt für Schritt werden so die „Enabler“ von Industrie 4.0 aus Bild 1 Realität. //

 

 

 

Autorenvita: Dipl.- Ing. (FH) Johann Hofmann

Der Beitrag wurde auch im Open-Content-Buchprojekt „Handbuch IoT“ veröffentlicht.
Lesen Sie hier mehr…

Mit KI die „Sustainable Deve­lop­ment Goals“ quantifizieren

Durch die automatisierte Auswertung von Satellitenbilddaten mittels Deep-Learning-Algorithmen den Zustand der Erde bestimmen

von Benjamin Bischke und Patrick Helber

Die Zusammenhänge und Wechselwirkungen in unserer Welt werden zunehmend komplexer und undurchsichtiger. Täglich generieren unzählige Sensoren und smarte Internet-of-Things(IoT)-Geräte immense Datenmengen. Eine korrekte Analyse dieser Daten trägt maßgeblich dazu bei, die Welt besser zu verstehen, und eröffnet in zahlreichen Branchen Möglichkeiten zur Umsetzung neuer Anwendungen und Optimierung bestehender Prozesse.

Bis vor wenigen Jahren war es äußerst schwierig, dieses riesige Volumen an Daten im Detail zu verstehen und neue Lösungsansätze basierend auf diesen Daten umzusetzen. Der Durchbruch der künstlichen Intelligenz (KI) im Kontext der Digitalisierung als Schlüsseltechnologie hat dies jedoch grundlegend verändert. Algorithmen aus dem Gebiet des maschinellen Lernens erlauben es, riesige Datenmengen innerhalb kürzester Zeit zu analysieren, Muster und Zusammenhänge aus den Daten zu extrahieren und basierend darauf schnellere und genauere Entscheidungen für die Zukunft treffen zu können.

Die künstliche Intelligenz nimmt immens an Bedeutung zu

Ob künstliche Intelligenz, maschinelles Lernen oder Deep Learning, in der Praxis werden diese Begriffe häufig als Synonyme verwendet. Dabei besitzen die drei Begrifflichkeiten große Unterschiede in ihrer Bedeutung und stehen in einer strikten Hierarchie zueinander. Die künstliche Intelligenz ist der Oberbegriff für alle Methoden und Technologien, die ein intelligentes Verhalten vorweisen. Das maschinelle Lernen ist dabei ein Teilgebiet der KI, welches eine Vielzahl an (Lern-)Methoden basierend auf der mathematischen Optimierung und Statistik umfasst. Deep Learning wiederum ist ein spezieller Teilbereich des maschinellen Lernens, der versucht, die statistischen Korrelationen in den Daten durch künstliche neuronale Netze abzubilden.

In der Fachliteratur teilt man die Methoden der KI in zwei Teilbereiche auf:

Die symbolische KI und die statistische KI.

  • Bei der symbolischen KI werden zunächst Fakten, Ereignisse und ihre Zusammenhänge gesammelt und als ein abstraktes Modell in einer eindeutigen Repräsentation dargestellt. Basierend auf dieser Repräsentation können mathematische Operationen definiert werden, die es erlauben, logische Schlussfolgerungen zu ziehen oder komplexere Vorgänge zu planen. Nachteilig bei einem solchen Ansatz ist jedoch, dass zunächst eine möglichst vollständige Wissensbasis erstellt werden muss, was in der Praxis häufig sehr zeitintensiv und fehleranfällig ist. Darüber hinaus sind die entsprechenden Algorithmen in ihren Entscheidungen häufig durch das vorab definierte Regelwerk begrenzt und können nur sehr schwer mit einer Unsicherheit in den Daten umgehen.
  • Im Gegensatz dazu steht die statistische KI, bei der versucht wird, intelligentes Verhalten mittels mathematischer Modelle und statistischer Verfahren (wie beispielsweise mit neuronalen Netzen) nachzubilden. Diese statistischen Lernverfahren extrahieren latente Strukturen und Korrelation in den Daten und bilden dieses Wissen in einem mathematischen Modell ab. Anschließend lassen sich mit dem gelernten Modell auf ähnliche Daten neue Entscheidungen sowie Vorhersagen über die Zukunft treffen.

In diesem Kontext ist das maschinelle Lernen (ML) als eines der wichtigsten und nutzbringendsten Teilgebiete der statistischen KI besonders hervorzuheben. Gerade im Zuge der Digitalisierung steht das maschinelle Lernen bei vielen Unternehmen im Fokus der Aufmerksamkeit, um sich einen Vorsprung gegenüber den Wettbewerbern zu sichern.

Die Anwendungen von maschinellen Verfahren sind vielschichtig und branchenübergreifend für zahlreiche Unternehmen relevant: So können beispielsweise im Bereich der Medizin mithilfe maschineller Lernverfahren die Wechselwirkungen mehrerer Medikamente vorhergesagt werden. Im Rahmen der Wirtschaftsprüfung können mithilfe des maschinellen Lernens komplexe Geschäftsprozesse aus Millionen von undurchsichtigen Transaktionsdaten gelernt werden. Dies erlaubt es, Anomalien, die beispielsweise im Zusammenhang mit der Wirtschaftskriminalität stehen, automatisiert zu identifizieren.

„Die künstliche Intelligenz ist der Oberbegriff für alle Methoden und Technologien, die ein intelligentes Verhalten vorweisen.“

Die Verfahren des maschinellen Lernens bauen auf mathematischen Theorien auf, wobei insbesondere die Gebiete der Optimierung und Statistik zur Anwendung kommen. Dabei verarbeiten die Verfahren die Eingabedaten und erstellen je nach Anwendung ein spezifisches mathematisches Modell. Das Finden der besten Parameter für das entsprechende Modell nennt man in der Fachsprache das Trainieren oder Lernen eines Modells. Mithilfe der gelernten Modelle lassen sich dann Wahrscheinlichkeiten für zukünftige Ereignisse berechnen oder riesige Datenmengen auf relevante Informationen reduzieren und hinsichtlich bedeutender Eigenschaften gruppieren.

Großes Momentum im maschinellen Lernen durch Deep Learning

Ein Teilbereich des maschinellen Lernens ist Deep Learning, das besonders im Fokus rund um die aktuelle Hochphase der KI steht. Bei Deep Learning wird versucht, das menschliche Gehirn in einem vereinfachten mathematischen Modell mittels künstlicher neuronaler Netze abzubilden. Abstrakt betrachtet stellt Deep Learning hierfür ein sehr mächtiges Framework bereit, mit dem neuronale Netze mit unterschiedlichen Architekturen trainiert werden können. Diese Netze sind in der Lage, entscheidende Merkmale, die für die Lösung eines Problems relevant sind, automatisch aus den Daten zu lernen. Im Gegensatz zu klassischen Verfahren des maschinellen Lernens, bei denen die Merkmale von dem Menschen aufwendig entworfen und definiert werden müssen, lernen die neuronalen Netze selbstständig die Korrelationen und Merkmale aus den Daten.

„Heutzutage nehmen Satelliten eine riesige Datenmenge an Bildern pro Tag auf, welche in der Praxis händisch nicht auszuwerten sind.“

Mathematisch kann gezeigt werden, dass die neuronalen Netze eine beliebige mathematische Funktion abbilden können. Zur Lösung komplexer und nicht linearer Problemstellungen werden jedoch Netzwerke mit besonders vielen Schichten aus Neuronen (und somit ein tiefschichtiges Netzwerk) benötigt, woher auch der Begriff des „Deep Learnings“ resultiert. Diese vielschichtigen Netzwerke erlauben es zwar, komplexe Probleme näherungsweise besser zu lösen, gleichzeitig erfordert ein solcher Ansatz aber auch eine besonders hohe Anzahl an freien Parametern, die durch ein aufwendiges Training bestimmt werden müssen. Das eigentliche Training ist ein nicht konvexes Optimierungsproblem, bei dem die Netzwerkparameter näherungsweise bestimmt werden müssen.
Aufgrund der hohen Parameteranzahl werden hierfür zwei wichtige Voraussetzungen benötigt:

  1. eine strukturierte, repräsentative Datenbasis mit Labels und
  2. eine leistungsstarke Rechenkraft.

Durch die Vielzahl an Sensoren und die Verfügbarkeit von Ressourcen über das Internet ist der erste Punkt mittlerweile oftmals einfach zu erfüllen. Bei der Rechenpower wurden ursprünglich Grafikkarten zweckentfremdet, um die mathematischen Operationen schneller zu berechnen als durch herkömmliche „Central Processing Unit“(CPU)-Prozessoren. Aktuell bieten führende Grafikkartenhersteller wie Nvidia dedizierte Prozessorchips an, die sich auf die mathematischen Operationen des Deep Learnings spezialisiert haben und es erlauben, Tausende von Operationen zu parallelisieren. Durch die Supercomputer von Nvidia wie die DGX-1- und DGX-2-Systeme(1) lassen sich neuronale Netze mittlerweile innerhalb von wenigen Minuten trainieren. Bis vor wenigen Jahren wurden hierfür mehrere Wochen oder gar Monate benötigt.

Mittels KI und neuronaler Netze sind Systeme mittlerweile in der Lage, auch komplexe Fragestellungen zu beantworten. So etwa bei der Vorhersage von Fluten und betroffenen Gebieten.

Deep Learning in der Erdbeobach­tung für die „Sustainable Development Goals“

Die Vereinten Nationen (UN) haben im Jahr 2012 auf der Rio+20-Konferenz Ziele für die nachhaltige Entwicklung unserer Welt festgelegt. Im Rahmen dieser Agenda wurden 17 Zielsetzungen für eine nachhaltige ökonomische, soziale und ökologische Entwicklung bestimmt. Diese nachhaltige Zielsetzung ist unter dem Namen „Sustainable Development Goals“ (SDGs) wie auch unter dem Namen Agenda 2030 oder Weltzukunftsvertrag bekannt und ist am 1. Januar 2016 mit einer geplanten Umsetzung bis zum Jahre 2030 in Kraft getreten(2). Im Rahmen dieser Agenda finden sich Ziele, wie die Ernährung für die gesamte Weltbevölkerung nachhaltig zu sichern sowie eine nachhaltige Städte- und Siedlungsentwicklung voranzutreiben.

Eine mögliche Hilfe bei der Erreichung dieser Nachhaltigkeitsziele bieten Erdbeobachtungsdaten insbesondere in Form von Luft- und Satellitenbildern. Durch die Auswertung dieser Daten können Aussagen über die Bestellung von landwirtschaftlichen Feldern oder auch über das aktuelle Lagebild nach einer Naturkatastrophe getroffen werden. Der starke Anstieg an verfügbaren Erdbeobachtungsdaten, insbesondere durch Luft- und Satellitenbilddaten, ermöglicht eine niemals zuvor mögliche Analyse der Erde.

Heutzutage nehmen Satelliten eine riesige Datenmenge an Bildern pro Tag auf, welche in der Praxis händisch nicht auszuwerten sind. Die erzeugten Daten sowie der Fortschritt auf dem Gebiet der künstlichen Intelligenz erlauben die Entwicklung einer automatisierten Lösung. Dabei kann eine lokale Auswertung einzelner z. B. von einer Naturkatastrophe betroffener Gebiete sowie eine detaillierte globale Analyse des Zustands der Erde vorgenommen werden. Die so entwickelte künstliche Intelligenz kann als Grundpfeiler für eine global automatisierte Erdbeobachtungslösung dienen und somit zur Erreichung der von den Vereinten Nationen bestimmten Nachhaltigkeitsziele maßgeblich beitragen. Ein Beispiel hierfür ist die Auswertung von Erdbeobachtungsdaten vor und nach dem Eintreten von Naturkatastrophen.

Deep Learning im Rahmen des Katastrophenschutzes

Das Deutsche Forschungszentrum für künstliche Intelligenz (DFKI) hat sich seit 2016 mit dem Start des Forschungsprojekts „Deep Eye“ insbesondere der Analyse von Naturkatastrophen mittels Satellitenbilder unter der Zielsetzung „AI for Good“ beschäftigt(3). Derzeit werden Aufnahmen vor und nach Katastrophen zwar computergestützt, jedoch manuell ausgewertet. Eine vollständig automatisierte Verarbeitung der Satellitenbilddaten gestützt durch Methoden der künstlichen Intelligenz hilft, entsprechende Bilder effektiver und effizienter auszuwerten und somit schneller im Falle einer Naturkatastrophe zu agieren. Im Mittelpunkt des DFKI-Projekts „Deep Eye“ steht die Verbesserung der im Notfall verfügbaren Ressourcen.

Das Forscherteam entwickelte mehrere Systeme, wie zum Beispiel „Deep Eye“, um Satellitenbilder mit tiefen neuronalen Netzwerken zu analysieren(4). Ziel dieser Systeme ist es, Schäden sowie Überschwemmungsflächen automatisch zu erkennen, die Auswirkungen des Überschwemmungsgebietes zu quantifizieren und die Zugänglichkeit der Infrastruktur während der Naturkatastrophen hervorzuheben.

Das Deutsche Forschungszentrum für künstliche Intelligenz (DFKI) hat zur Umsetzung dieser Zielsetzung die Ausgründung Vision Impulse(5) ins Leben gerufen. Der Fokus des DFKI-Spin-offs liegt auf der automatisierten Analyse von Luft- und Satellitenbilddaten mittels Deep Learning. Neben der effektiven Schadenskalkulation nach dem Eintreten einer Naturkatastrophe haben die zukunftsweisenden Technologien der Ausgründung das Potenzial, Unternehmen bei dem Erreichen ihrer Nachhaltigkeitsziele zu unterstützen. //

Autorenvitae

Benjamin Bischke Patrick Helber

Der Beitrag wurde auch im Open-Content-Buchprojekt „Handbuch IoT“ veröffentlicht.
Lesen Sie hier mehr…

Data-driven IoT

Das IoT ist voller Daten. Sie auszuwerten, ist der zentrale Schlüssel, sich den Nutzen des Internets der Dinge zu erschließen.

 

von Daniel Metzger

Für die in vielen Branchen übliche Nutzung des „Internet of Things“ (IoT) gibt es einen ausschlaggebenden Grund: Mit den gewonnenen Daten können Prozesse und Betriebsabläufe genauer gesteuert und die Auslastung kann effizienter geregelt werden. Hier fällt ein hohes Volumen relativ kleiner Datensätze an, wie sie von Sensoren erfasst und weitergemeldet werden. Doch neben der Herausforderung, große Mengen anfallender Daten zu verarbeiten und daraus Schlüsse zu ziehen, gilt es beim IoT weitere Hürden zu meistern. Denn um auf Echtzeit-Analysen basierende Entscheidungen zu treffen, sind vor allem die Geschwindigkeit der Datenverarbeitung und die Sicherheit der Datenübertragung von entscheidender Bedeutung. Smarte Sensoren und IoT-Geräte unterscheiden sich sowohl in ihrem Einsatzzweck als auch in der Vielschichtigkeit der von ihnen erhobenen Daten. Die verschiedenen Daten zu analysieren, um daraus Erkenntnisse abzuleiten, ist beim Einsatz des IoT ebenso eine Herausforderung wie die Einhaltung von Governance-Richtlinien bei der Datenverarbeitung.

Einsatz im Produktionsumfeld

In der Fertigung lassen sich Maschinen mit Sensoren ausstatten, die für eine vorausschauende Instandhaltung („Predictive Maintenance“) herangezogen werden können. Im Gegensatz zum herkömmlichen Ansatz, Wartungen nach vorher definierten Arbeitsstunden oder geleisteter Stückzahl stattfinden zu lassen, meldet die Maschine den Status ihrer Abnutzung und ihres technischen Zustandes aktiv an einen Produktionsserver, der das Wartungsintervall individuell auf diese eine Maschine abstimmt. Damit wird zweierlei erreicht: Einerseits wird verspätete Wartung und eventuell einhergehender Schaden vermieden, andererseits entstehen keine zu kurzen Wartungszyklen. Beides schont die finanziellen und logistischen Ressourcen des Unternehmens. Auch die Logistik während und nach der Produktion wird durch Big Data im IoT wesentlich erleichtert. Besonders in der Just-in-time-Fertigung ist es sowohl für produzierende Betriebe als auch Zulieferer wichtig, nachvollziehen zu können, wo sich Werkstücke aktuell befinden. Damit sollen Lagerhaltungskosten weitgehend ausgeschlossen werden.

 

„Die verschiedenen Daten zu analysieren, um daraus Erkenntnisse abzuleiten, ist beim Einsatz des IoT ebenso eine Herausforderung wie die Einhaltung von Governance-Richtlinien bei der Datenverarbeitung.“

 

IoT und Big Data in der Energieversorgung

Doch auch andere Branchen setzen mittlerweile auf Big Data und Industry of Things. So sind Energieversorgungsunternehmen durch Veränderungen, beispielsweise bei der Energieerzeugung, mit neuen Anforderungen an ihre betrieblichen Prozesse konfrontiert. Dazu kommt der Wandel der Kundenanforderungen. Auch die vermehrte Nutzung alternativer Heizarten bei Endkonsumenten, beispielsweise Wärmepumpen oder Solaranlagen, führt zu einer weiteren Komplexität beim Stromvertrieb. So sollten Konsumenten mit Preisnachlässen dafür belohnt werden, wenn sie den Strom zu einem Zeitpunkt verbrauchen, an dem er besonders günstig für den Vertrieb bereitsteht. Hierzu messen intelligente Stromzähler („Smart Meter“) den Energieverbrauch und können diese Informationen den Versorgern zeitnah übermitteln. In einem System mit automatisierten Stromzählern werden Verbrauchsdaten in Echtzeit analysiert und entsprechende Muster erkannt, die zur Prognose herangezogen werden. Auch können Sensoren und intelligente Stromzähler rechtzeitig vor drohenden Ausfällen einzelner Komponenten im Stromnetz warnen. Die gewonnenen Daten werden in einer Big-Data-Lösung zusammengefasst, die detaillierten Aufschluss über die aktuelle und künftige Situation liefert. Dadurch wird es Energieversorgern ermöglicht, die Ausfallsicherheit in erheblichem Maß zu steigern, um so die Versorgungssicherheit der Verbraucher zu garantieren.

Mit Big Data und IoT zu mehr Gesundheit

Neue medizinische Methoden, verbesserte Behandlungen oder die bessere Anpassung von Medikamenten sind mit enormen Investitionen in Forschung verbunden. Dafür benötigt der Gesundheitssektor – mehr denn je – eine solide Datenbasis. Aber auch die Behandlung der Patienten selbst muss in Zeiten knapper Gesundheitskassen effizienter gestaltet werden. So kann die Erfassung von Patientendaten über mobile Tracker einen vollständigen Überblick über den Gesundheitsstatus bieten. Ein solcher Tracker(1) kann mittels Hautsensor beispielsweise den Blutzuckerspiegel messen. Das gilt ebenso für Vitalfunktionen wie eine Messung von Puls oder Blutdruck, wie sie manche Smartwatch oder mancher Fitnesstracker bereits bietet. Durch den Abgleich von Echtzeit-Analysedaten und Machine-Learning-Modellen, basierend auf historischen Patientendaten, wird eine vorausschauende und nachhaltige Patientenüberwachung gewährleistet. Daraus können Ärzte frühzeitig Abweichungen von individuellen Normalwerten erkennen und so im Idealfall Menschenleben retten. Außerdem ist es möglich, dass diese Daten – anonymisiert – dazu führen, auch anderen Patienten schnell eine erfolgreiche Behandlungsmethode zur Verfügung zu stellen. Zusätzlich können unterstützende Reha- und Wellnessanwendungen entwickelt, getestet und bei Erfolg breit angewendet werden. Dies geschieht über mit dem Internet verbundene Geräte, die beispielsweise Blutdruck und Herzfrequenz überwachen sowie Aufschluss über Cholesterinwerte oder andere medizinisch relevante Faktoren bieten. Mittels maschinellen Lernens können Ärzte, Krankenhäuser und Pharmaunternehmen positive Musterveränderungen erfassen und konsequent weiterentwickeln.

 

„Um all diese Massendaten effizient verarbeiten zu können und den eingangs erwähnten weiteren Herausforderungen Rechnung zu tragen, ist eine Big-Data-Plattform zum Echtzeit-Streaming erforderlich, die die verschiedenen beteiligten Prozesse sicher und schnell verarbeitet.“

 

Zielführende Versicherungsprodukte

Die Basis der Geschäftstätigkeiten von Versicherungen sind Daten. Sie berechnen Risiken und legen daraufhin die Höhe der Raten für Versicherungspolicen fest. Dies erfolgte bislang über theoretische mathematische Modelle, die auf regelmäßigen Marktanalysen, Studien und Statistiken beruhten. Mit dem zunehmenden Wettbewerbsdruck müssen Versicherer ihre Angebote vielschichtiger und an die Zielgruppe angepasster entwickeln. Auch die Art und Weise, wie und wogegen sich Konsumenten und Unternehmen versichern wollen, ändert sich – etwa durch die Veränderung im Falle von Gebäudeschäden durch den Klimawandel oder die Einführung neuer Technologien wie etwa dem autonomen Fahren im Straßenverkehr.

Smarterer Verkehr, smartere Städte

Sowohl das Konzept von Smart Cities(2) als auch von Smart Cars ist ohne Big Data schwer vorstellbar. In Smart Cars finden sich mehrere Hundert IoT-Komponenten, die assistiertes oder vollautonomes Fahren ermöglichen. So kann das Fahrzeug selbstständig auf plötzlich auftretende Vorfälle reagieren oder eine autonome Navigation ermöglichen. Der Fahrer wird zudem beispielsweise automatisch darauf hingewiesen, wann sein nächster Ölwechsel fällig ist und er zum Service in die Werkstatt muss. Ist das Fahrzeug mit einer Smart City verbunden, kann diese mit dem Smart Car kommunizieren, um die Verkehrsströme effizient zu leiten und Verkehrsstaus sowie die durch den Straßenverkehr anfallende Umweltbelastung zu minimieren.
Hier messen in Straßen verbaute Sensoren den Verkehrsfluss sowie die Parksituation und reagieren entsprechend. Doch Smart Cities sind nicht nur im Verkehrsbereich attraktiv. Auch bei der Sicherstellung der kommunalen Versorgung beziehungsweise in der Entsorgung hilft der Einsatz von Big Data. Diese Systeme führen dazu, dass sich die Ressourcen der Städte besser planen und einsetzen lassen, um Bürgern eine höhere Servicequalität bieten zu können.

Implementierung von Big Data

Um all diese Massendaten effizient verarbeiten zu können und den eingangs erwähnten weiteren Herausforderungen Rechnung zu tragen, ist eine Big-Data-Plattform zum Echtzeit-Streaming erforderlich, die die verschiedenen beteiligten Prozesse sicher und schnell verarbeitet. So ermöglicht Hortonworks Dataflow (HDF) IoT-Implementierungen innerhalb eines Unternehmens als End-to-End-Plattform. Sie sammelt, kuratiert und analysiert IoT-Streaming-Daten in Echtzeit, von den Perimetern bis hin zum Zentrum eines Unternehmens. Apache NiFi liefert dabei Datenerfassung, -transformation und -routing von IoT-Streamingdaten. Daneben bietet Apache Kafka innerhalb von HDF eine leistungsstarke Stream-Verarbeitungs-Engine zur Erzeugung von Predictive Analytics. //

 

 

Autorenvita Daniel Metzger

Der Beitrag wurde auch im Open-Content-Buchprojekt „Handbuch IoT“ veröffentlicht.
Lesen Sie hier mehr…

Zeiterfassung: Das ist Mehrwert für Mitarbeiter!

Diese entscheidenden Vorteile bringt die Arbeitszeiterfassung für Unternehmen.

Die Zukunft der Vermögensverwaltung ist digital

Wandel durch Technologie ist für Vermögensverwalter spätestens seit der Einführung digitaler Plattformen und Anwendungen sowie dem Aufkommen von Robo-Advisors eine Selbstverständlichkeit. Aktuell arbeitet die Finanzindustrie an der Implementierung künstlicher Intelligenz (KI) und ausgefeilter Analytik. Doch die Einführung dieser Technologien allein wird definitiv nicht ausreichen, um auch künftigen Erfolg zu garantieren.

Achillesferse Infrastruktur

Digitale Infrastrukturen und das Internet of Things

 

von Jan Mahler

Die Art und Weise, wie Menschen miteinander kommunizieren, unterliegt seit jeher stetiger Veränderung. Von der Entwicklung der Sprache über die Schrift hin zu Technologien wie dem Telegramm oder der Telekommunikation haben wir stets neue Wege gefunden, den Informationsaustausch zu vereinfachen und zu beschleunigen. Mit dem Eintritt ins digitale Zeitalter und vor allem dank des Internets konnte einer der bisher größten Meilensteine in der zwischenmenschlichen Kommunikation errungen werden: die Übertragung von Informationen in Echtzeit.

Seit einigen Jahren macht ein gänzlich neues Schlagwort Karriere: das Internet der Dinge (IoT). Im Internet der Dinge kommuniziert – ganz einfach gesagt – alles mit allem. Mit dem Entstehen intelligenter Geräte findet Kommunikation nicht mehr nur unter Menschen statt – sondern auch zwischen Geräten, mit denen wir im Alltag in Berührung kommen. Laut einer aktuellen Studie soll die Anzahl der an das IoT angeschlossenen Geräte bis 2022 bereits mehr als 50 Milliarden betragen. Manch einer bezeichnet das Internet der Dinge deshalb treffenderweise auch als das „Internet of Everything“.

 

Digitale Infrastrukturen – die Achillesferse der Digitalisierung

Die Grundidee von IoT ist einfach. Es geht darum, Geräte über das Internet zu verbinden und sie mit uns, untereinander oder mit bestimmten Anwendungen kommunizieren zu lassen. Steigt die Anzahl an Geräten, die miteinander kommunizieren, so steigt auch die Menge an Daten, die bei dieser Kommunikation entstehen und im Umlauf sind. Komplexität entsteht dabei einerseits durch die Datenmenge selbst, andererseits aber auch durch die Vielzahl an unterschiedlichen Geräten, die diese Daten in Form von Signalen übermitteln. Je größer die Datenmengen, desto größer ist natürlich auch die Nachfrage nach IT-Infrastrukturen und Rechenzentren. Denn damit Daten sinnbringend und in Echtzeit gesammelt, übermittelt und ausgewertet werden können, sind sowohl die Rechenleistung, die Bereitstellung von direkten und sicheren Verbindungen im Rechenzentrum als auch die Abbildung einer globalen Verflechtung von großer Bedeutung.

 

Strukturelle Herausforderungen zur Anwendung von IoT
Integration in die bestehende IT (inklusive Nutzbarkeit hybrider Cloud-Modelle) und in angrenzende IoT-Ökosysteme
Die Bereitstellung und Verarbeitung der Daten dort, wo sie gebraucht werden
Daten inhaltlich nutzbar machen
Den Business-Case definieren und umsetzen
Garantierte Datensicherheit trotz globaler Verfügbarkeit
Geschwindigkeit (Latenz, Skalierung, Anpassung)

 

Die Anforderungen an die zugrunde liegende IT-Infrastruktur sind sehr hoch: Sie muss sowohl skalierbar als auch auf ein derartiges Datenvolumen ausgelegt sein. Denn ein solch immenser Zuwachs an Daten, die das Internet jede Sekunde durchqueren, bedeutet, dass das Internet sich schon bald weiterentwickeln muss.

 

„Für Unternehmen, die auf IoT zurückgreifen, ist es nicht nur wichtig, mit wem, wie schnell und zuverlässig sie sich im Markt verbinden, sondern auch, wie flexibel diese Interaktion gestaltet werden kann.“

 

Eine solche Evolution bietet Interconnection. Interconnection ist wie ein zweites Internet zu verstehen, das auf direkten, privaten Verbindungen zwischen allen denkbaren Marktteilnehmern – also Unternehmen, Technologieanbietern, IT-Service-Providern und deren Partnern – basiert. Durch Interconnection entstehen physische Verbindungen zwischen den Rechnern einzelner Akteure in einem neutralen Umfeld, wie etwa dem Rechenzentrum. So können sich Teilnehmer ein- und desselben Ökosystems über kurze Wege verknüpfen und Informationen schnell und zuverlässig – das heißt ohne Ausfälle und mit niedrigen Latenzzeiten – mit anderen Teilnehmern austauschen. Dieser Ansatz garantiert, dass der Datentransfer sicher ist – insbesondere mit Blick auf digitale Zahlmethoden, wie etwa über Apps oder Online-Accounts.

„Platform Equinix“ als Grundlage leistungsstarker IoT-Architekturen – direkt, sicher und dynamisch. Quelle EQUINIX – Zum Vergrößern bitte das Bild anklicken.

Für Unternehmen, die auf IoT zurückgreifen, ist es nicht nur wichtig, mit wem, wie schnell und zuverlässig sie sich im Markt verbinden, sondern auch, wie flexibel diese Interaktion gestaltet werden kann. Besteht ein großer Bedarf an Speicherplatz, Rechenleistung oder Verbindungen, lassen sich zum Beispiel über die Cloud neue Kapazitäten, unabhängig vom eigenen Standort, hinzufügen und erweitern. Aufbau und Pflege solcher dynamischer IT-Infrastrukturen stellt jedoch viele Unternehmen vor eine Herausforderung. Deshalb lagern Unternehmen ihre IT-Infrastrukturen immer häufiger in Rechenzentren aus und verlassen sich auf die Expertise externer Anbieter. Dieser Lösungsansatz ist nicht nur schneller und flexibler, sondern auch kostengünstiger als der Aufbau einer eigenen IT-Infrastruktur.

 

„Der Weg von den Rohdaten zum tatsächlichen Geschäftswert beginnt mit der Datenbeschaffung, gefolgt von einer Datenanalyse, die hilft, Muster zu erkennen und endet mit der Verteilung an relevante Parteien, die diese Informationen und die darauf gewonnen Erkenntnisse für das weitere Geschäft verwerten. An all diesen Teilschritten innerhalb der Wertschöpfungskette sind Equinix IT-Infrastruktur-Lösungen beteiligt und wirken somit als Enabler. Sie bilden die Brücke zwischen dem, was durch IoT möglich ist und dem Fundament, das notwendig ist, um das volle Potenzial von IoT über alle Anwendungsbereiche hinweg gänzlich auszuschöpfen.“

– Donald Badoux, Managing Director von Equinix in Deutschland –

 

 

 

IoT und Produktion – Industrie 4.0

IoT birgt ein enormes Potenzial. In den Augen der Wirtschaft ist das Internet der Dinge ein aussichtsreicher Bereich, von dem sich Unternehmen massive Umsätze versprechen. Denn gewonnene Daten können auf vielfältige Weise gewinnbringend eingesetzt werden. Geht es zum Beispiel um IoT-Anwendungen im Bereich der Produktion, spricht man auch oft von Industrie 4.0. Sie stützt sich im Kern auf die Funktionen von Analytics und IoT, um Prozesse zu automatisieren und die Effizienz in der Fertigung sowie der Wartung von Maschinen und Systemen zu optimieren.

Ein Beispiel aus dem Bereich Industrie 4.0 ist die automatische Auswertung von Daten zur Optimierung von Wartungszyklen – auch „Predictive Maintenance“ genannt. Intelligente Sensoren erfassen Daten, diese werden ausgewertet und liefern Erkenntnisse, wann bestimmte Bauteile von Maschinen in der Produktion repariert oder sogar ersetzt werden müssen.

Die automatische Datenauswertung hilft bei der Reduktion des Energieaufwandes zur Heizung oder Kühlung von Maschinen und trägt damit zu einer Steigerung der Produktivität und Auslastung bei. Betriebsabläufe werden optimiert und Kosten eingespart. Auf einer anderen Ebene hilft die automatische Datenanalyse auch dabei, Kundenverhalten zu verstehen und deren Vorlieben zu erkennen. So können Unternehmen ihre Geschäftsmodelle und Angebote besser auf ihre Zielgruppen anpassen. Aus unternehmerischer Perspektive bietet IoT somit auch den Schlüssel zum Ausbau eigener Wettbewerbsvorteile.

 

Vorteile von IoT
IoT als Basis-Technologie zur Entwicklung neuer Geschäftsmodelle und Produkte (Innovation)
Steigende Umsätze durch die Verbesserung von bestehenden Produkten und Services
Geringere Ausfallzeiten und Senkung der Produktionskosten
Flexible Produktionsabläufe bzw. schnelle Anpassung an veränderte Anforderungen
Besseres Monitoring durch Echtzeit-Sensordaten und gesamtheitliche Übersicht über den Status von Produktionsprozessen

 

Basis für eine erfolgreiche Integration von IoT in bestehende Prozesse sind hohe Datenübertragungsraten und effektive Breitbandverbindungen. Hohe Latenzzeiten oder gar Ausfälle im Zugang zu den Daten können für Unternehmen fatale Folgen haben. Dass die zugrunde liegende Infrastruktur nicht nur schnell und mit hoher Leistung arbeitet, sondern auch zuverlässig zur Verfügung steht bzw. im Notfall auch auf Back-ups zurückgegriffen werden kann, wird für Unternehmen – insbesondere auch im Rahmen von Industrie 4.0 – immer wichtiger.

IoT als Wachstumsmotor

Der digitale Wandel wird die Art und Weise, wie Wertschöpfung in der sogenannten vierten industriellen Revolution erzielt werden kann, fundamental verändern. Klassische Faktoren und Regeln der Unternehmensentwicklung, wie etwa Unternehmensgröße, Stabilität und langfristiges Wachstum, die bisher Kennzahlen für Erfolg und Misserfolg waren, verlieren in den kommenden Jahren an Bedeutung. Stattdessen wird es für Unternehmen immer wichtiger, die heutigen und zukünftigen technologischen Möglichkeiten bei der Umsetzung neuer, digitaler Geschäftsmodelle für sich zu nutzen und bestehende Modelle in Frage zu stellen. Mit einer technologischen Umwelt, die sich stetig verändert, wird die Frage danach, wie flexibel Unternehmen Anpassungen vornehmen, entscheidend für deren Erfolg sein.

Unternehmen von morgen müssen nicht nur das entsprechende Know-how und ein hohes Maß an Flexibilität besitzen, sondern auch grundsätzliche strategische Entscheidungen darüber treffen, wie und zu welchem Zweck die Einbindung von IoT erreicht werden soll. Denn während IoT-Lösungen heute überwiegend in der Prozessoptimierung zur Anwendung kommen, wird es in der Zukunft auch darum gehen, neue Produkte und Services und damit auch neuen Umsatz mithilfe von IoT zu entwickeln. Ist das Ziel gesetzt, kann mithilfe individueller IT-Lösungen von Partnern das entsprechende Fundament – also die jeweils am besten geeignete Infrastruktur – gelegt werden.

 

„Während IoT-Lösungen heute überwiegend in der Prozessoptimierung zur Anwendung kommen, wird es in der Zukunft auch darum gehen, neue Produkte und Services und damit auch neue Umsatzpotenziale mithilfe von IoT zu erschließen.“

 

Insbesondere kleine Unternehmen und Start-ups haben hier einen Vorteil. Sie können neue Technologien oftmals schneller adaptieren als Großkonzerne oder auch mittelständische Unternehmen. Beide sind in ihrer Flexibilität insofern eingeschränkt, als sie durch Veränderung und Umstrukturierung das Risiko eingehen, die eigenen bestehenden Umsätze zu belasten. Und doch: Die Digitalisierung bietet Möglichkeiten für jede Unternehmensgröße. Vor allem der Mittelstand hat das Potenzial, von IoT-Plattformen zu profitieren. Wichtig ist, dass auch kleine Unternehmen und Mittelständler diese einmalige Chance nicht aus den Augen verlieren und frühzeitig in den Einsatz von IoT investieren. //

 

For an English version of this article, please click here

 

 

Autor Jan Mahler

 

Der Beitrag wurde auch im Open-Content-Buchprojekt „Handbuch IoT“ veröffentlicht.
Lesen Sie hier mehr…

New Work

New Work: KI, RPA und die Blockchain sorgen für Veränderungen. Fachkräfte für die zunehmend datengetriebene Arbeitswelt sind rar und ihre Bindung zum Unternehmen daher umso wichtiger.

KI-Lab Banking bietet Banken Innovation Hub für Künstliche Intelligenz

Künstliche Intelligenz im Bankenbereich – was ist alles möglich, sinnvoll und mit vertretbarem Aufwand realisierbar?

Mobile Controlling in Zeiten von New Work

Kerstin Götz, Geschäftsführerin Troi GmbH, im Hintergrundgespräch mit der Redaktion über die VUCA-Welt und New-Work-Konzepte für Agenturen

Frau Götz, in wieweit kann Ihre Lösung Agenturen bei der Etablierung von New-Work-Konzepten unterstützen?
Agenturen müssen ein schwankendes Projektgeschäft effizient und strukturiert planen. New Work Konzepte und Work-Life-Balance spielen zudem eine immer entscheidendere Rolle. Zusätzlich zu einer teilweise undurchsichtigen Projektlage kommt also die Organisation von Ressourcen über Remote-Konstellationen oder flexible Arbeitszeitmodelle.
Diesen Herausforderungen kann Rechnung getragen werden durch eine umfassende und vor allem smarte System-Lösung, die Mitarbeitern zum einen die Kollaboration erleichtert und zum anderen wichtige Informationen für unternehmensrelevante Entscheidungen liefert.

Welchen Stellenwert nimmt in unserer „agilen Zeit“ das Echtzeit-Reporting ein?
Um eine agile Entscheidungsfindung zu fördern ist es unabdingbar, aktuelle Unternehmens-Daten 24/7 parat zu haben. Gerade hieran scheitert es jedoch oft. Denn nicht immer sind die so entscheidenden Daten in der Kürze der Zeit verfügbar. Oder sie müssen entsprechend aufbereitet werden, um ein aussagekräftiges Reporting zu ergeben. Ressourcen dies zu tun sind nicht immer greifbar und die Fehleranfälligkeit ist hoch. Aus diesem Grund haben wir ein mobiles Echtzeit-Reporting geschaffen, das immer den aktuellen Projektstand, die Teamperformance sowie die Umsatz- und Margenentwicklung aufzeigt.

Kerstin Götz, Geschäftsführerin der Troi GmbH

Was hat es mit Ihrer neuen TROI Live App auf sich und wie tief konnten Sie diese in Ihre Lösung intergrieren?
Die App ist die logische Ergänzung zu Troi, die den Funktionsumfang der Weblösung vollumfänglich nutzt, um diese in aussagekräftigen Dashboards zu visualisieren. Die Grundlage für die Daten speist sich komplett aus dem Troi System und wertet diese transparent in Echtzeit aus. Ebenso können Projekt- und Arbeitszeiten einfach erfasst und ausgewertet werden. Damit muss sich die Agentur über die aktuellen Entwicklungen bzgl. der Arbeitszeiterfassung keine Gedanken mehr machen. Die Zeiterfassung ist bei uns ein fest integrierter Bestandteil – gerade in Anbetracht der New Work Arbeitswelt.

Welche Prozesse im Agenturalltag sind eigentlich automatisierbar?
Alle Prozesse sind automatisierbar – von der Projektakquise bis zur Abrechnung. In Troi ist der Projektworkflow ein durchgängiger Prozess, der mit der Projektkalkulation beginnt und mit einer vorbereitenden Buchhaltung endet. Und selbst hier ist über diverse Schnittstellen eine Anknüpfung an weitere Systeme möglich, um diesen Prozess zu erweitern. Damit erhält man einen durchgängigen Datenflow, der den Mitarbeitern die Arbeit enorm erleichtert und die Konzentration auf die wertschöpfende Tätigkeit fokussiert.

Frau Götz, vor welchen Herausforderungen stehen Agenturen und Dienstleister im Kontext der digitalen Transformation?
Für die neue VUCA Welt gilt es, mit geeigneten Systemen und Prozessen gewappnet zu sein. In einem Umfeld, in dem Parameter, wie Volatilität, Unsicherheit, Komplexität und Mehrdeutigkeit an der Tagesordnung sind, ist es wichtig Transparenz zu allen relevanten Kennzahlen zu haben, um konkurrenzfähig zu bleiben und schnell fundierte Entscheidungen treffen zu können. Dieser Vorsprung ist wichtig um zeitnah reagieren zu können. Und nur, wenn alle Stakeholder ein klares Bild vom aktuellen Stand des Business haben, kann eine effiziente Steuerung erfolgen – vor allem im Einklang mit New Work Prinzipien. Denn hier muss eine Kommunikation oft remote erfolgen.

Welche Features, Module und Tools konnten Sie in Ihre Lösung intergieren?
Der Kernbereich ist die Projektabwicklung, sie ist der Dreh- und Angelpunkt einer jeden Agentur. Also ist auch in Troi das Projektmanagement das zentrale Modul. Wie bereits erwähnt, geht es bei Troi aber darum, den gesamten Projektalltag abzubilden. Dies beginnt bereits viel früher, nämlich bei der Projektakquise bzw. der Kontaktpflege. Die gesamte Kundenhistorie kann in unserem System datenschutzkonform dokumentiert werden. Damit ist immer eine Nachvollziehbarkeit gewährleistet. Aber nicht nur die zentrale Projekt- und Ressourcensteuerung erfolgt über Troi, auch die Erfassung der Projekt-Aufwände durch die verschiedenen Gewerke erfolgt über das System. Durch die Projektkalkulation und die erfassten Aufwände erfolgt ein automatisiertes Projektreporting. Der Projektverantwortliche kann so immer steuern, ob das Projekt noch im Bugdet und im Zeitplan liegt. Ein projektübergreifendes Reporting (das MIS Reporting) bietet gerade für Führungsverantwortliche und Geschäftsführer ein wichtiges Steuerungsmodul. Hier wird in Echtzeit das aktuelle Ergebnis über alle Projekte hinweg ausgewiesen.

Welche Rolle nimmt dabei das Projektmanagement ein?
Sowohl die Kalkulation, die Erstellung und Zuweisung von Projektaufgaben, als auch die zeitliche Planung erfolgt über das System. Das Aufgabenmanagement wird hier anschaulich über ein Kanban Board dargestellt und die Milestone-Planung über ein Gant Chart. Systemisch ist es möglich, sowohl agil als auch traditionell vorzugehen, das hängt von der Ausrichtung des Projektmanagements in der jeweiligen Agentur ab. Wir sehen oft, dass viele Agenturen mit hybriden Modellen arbeiten, denn nicht auf alle Projekte lässt sich die eine oder die andere Methode gänzlich anwenden. Wichtig ist aber, dass Troi durch die Automatisierung des Projektmanagement-Workflows sowie durch ein (device-übergreifendes) Controlling eine agile Entscheidungsfindung fördert und Agenturen damit unterstützt, sich im Projektmanagement weiterzuentwickeln. Und gemeinsam mit unseren Partnern lernen und entwickeln auch wir uns täglich weiter.

Weitere Informationen unter:
www.troi.de/live

IoT-Plattformen: Make or buy?

In einer vernetzten Welt gewinnt ein zentrales Element zunehmend an Bedeutung: die Plattform, auf der die Dienstleistung betrieben wird.

von Jan Rodig

Viele Industrieunternehmen arbeiten mit Hochdruck daran, ihre Produkte zu vernetzen, um ergänzende digitale Services anzubieten und sich neue Erlösquellen zu erschließen. Eine der zentralen Entscheidungen in diesem Zusammenhang: Nutzt man als Basis für die eigene IoT- beziehungsweise Industrie-4.0-Lösung eine der über 500 am Markt verfügbaren IoT-Plattformen oder entwickelt man eine solche Plattform besser selbst?

Jan Rodig, CEO des unabhängigen IoT-Dienstleisters tresmo, teilt seine Praxiserfahrungen aus über 35 IoT-Projekten.

Der aktuelle Wirtschaftsaufschwung dauert bereits neun Jahre an, viele Unternehmen arbeiten an der Kapazitätsgrenze. Da fällt es oft nicht leicht, die gewaltigen Herausforderungen der Digitalisierung anzugehen, die mit dem IoT („Internet of Things“) beziehungsweise der Industrie 4.0 nun auch das produzierende Gewerbe in seinen Grundfesten erschüttert. Diese Entwicklung macht selbst vor stolzen Vorzeigebranchen wie der Automobilindustrie nicht halt: Fast alle Hersteller bauen sich gegenwärtig intensiv zu Mobilitätsdienstleistern um, die zukünftig selbstfahrende und -fliegende autonome Taxiflotten betreiben, statt Autos zu verkaufen. Auch im Maschinen- und Anlagenbau sowie in der Elektroindustrie sind Veränderungen spürbar: Physische Produkte werden zunehmend kommoditisiert, IoT-Anwendungen wie Condition Monitoring und Predictive Maintenance zum Standard, Differenzierungs- und Monetarisierungsmöglichkeiten verschieben sich von der reinen Hardware zu Softwarelösungen.

Dieser Beitrag stammt aus dem Open-Content-Buchprojekt „Handbuch Internet of Things“. Lesen Sie hier weiter…

Aufmacherbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay

Rechtzeitig nachrüsten, statt ungeplant ausfallen

Industrie-4.0-Case-Study: Nachrüstung eines bestehenden Maschinenparks mit IoT-fähigen Kontrolleinheiten

Plattformen der Interaktion

Smart Mobilty, Smart Factory, „Smart X“: Eine smarte Zukunft benötigt kooperative Ansätze und horizontale Vernetzungen.

von Dr. Jens J. Gerber

Die Herausforderungen der Digitalisierung sind überaus vielseitig und vielschichtig – und erfordern letztendlich durchgängig integrierte Systemlösungen. Das geht nur in stärker kooperativen Modellen. Eco-Systeme sind dafür eine bewährte Blaupause: Sie eröffnen neue Chancen und Geschäftsmöglichkeiten.

Stellen wir uns eine Smart City in der digitalen Zukunft vor, dann denken wir an eine urbane Ansiedlung, in der das Leben (hoffentlich) nicht nur weiterhin lebenswert ist, sondern völlig neue Qualitäten ermöglicht. Eine Stadt, die uns mithilfe von Digitalisierung den Alltag erleichtert, nachhaltig mit Energie und Ressourcen umgeht, sicher ist, Bildung und Beschäftigung ermöglicht, moderne Gesundheitsdienste für alle bereitstellt, immer wieder ein Hort des Aufbruchs und der Innovation ist und so weiter und so fort. Menschen jeden Alters müssen zu jedem Zeitpunkt mit ihren Erwartungen abgeholt, ihre Anforderungen an Mobilität und Immobilität befriedigt werden. Es gilt, die Bewegungsströme von Menschen, Fahrzeugen und Waren zu managen, genau wie alle erforderlichen Ressourcen und sämtliche Abfallprodukte der Gesellschaft. Und das eigentlich auch immer im Kontext aller Smart Cities auf der Welt. Dienstleistungen müssen für alle einfach benutzbar, bezahlbar, ausreichend, effizient und sicher verfügbar sein. Dazu müssen Daten gesammelt, intelligent ausgewertet und zwischen den verschiedenen Teilnehmern ausgetauscht werden. Das ist sicherlich eine Chance und Herausforderung zugleich – und manch einer mag auch sofort an die damit verbundenen Bedrohungen denken.

Plattform der Interaktion

Mit der Umsetzung des Internet of Things entstehen vielschichtige, integrierte Netzwerke von Dingen und menschlichen Interaktionen. Smart Mobility oder Smart Factory … es sind die „Smart X“, die verschiedene Teilaspekte einer in der Zukunft notwendigerweise integrierten Zielinfrastruktur adressieren. Das Internet of Things ist dabei nicht Selbstzweck, sondern muss bereits während der Phase der Erforschung seiner Möglichkeiten auf die Lieferung der Werte für die digitale Zukunft der Gesellschaft (siehe oben) ausgerichtet sein. Alle damit verbundenen Herausforderungen können jedoch nicht von einem einzelnen Unternehmen – und sei es noch so mächtig – gelöst werden. Und auch die Politik wird dafür entscheidende Voraussetzungen und Rahmenbedingungen schaffen müssen. Für die smarte Zukunft werden daher stärker kooperative Ansätze und horizontale Vernetzungen benötigt. Eco-Systeme sind diesbezüglich eine sehr valide Modellbetrachtung mit vielen bereits sehr erfolgreichen Implementierungen im Markt.

Dieser Beitrag stammt aus dem Open-Content-Buchprojekt „Handbuch Internet of Things“. Lesen Sie hier weiter…

Einfach, sicher und schnell: Neues Cloud-ERP für kleinere Unternehmen

Flexible Wunschkonfiguration der benötigten ERP-Funktionalitäten ohne Investitionsrisiko

Individualisierung, Personalisierung – Consumer IoT

Dinge schöpfen, Daten schaffen, Dinge… Der digitale Zwilling winkt dem, der sich selbst preisgibt.

 

Das Marktforschungs- und Beratungsunternehmen IDC geht davon aus, dass bis 2025 rund 80 Milliarden Geräte direkt mit dem Internet verbunden sein werden. Gestärkt durch den Smartphone-Siegeszug vernetzen Geräte, Maschinen und Menschen sich zunehmend.

Das IoT dringt nach und nach in alle Lebensbereiche vor und besetzt diese in Form eines Consumer IoT. Smartphones, Wearables, Smarthome-Devices und smarte Assistenten sind dabei ständig mit dem Internet verbunden. Fortwährend sammeln und analysieren sie Daten, wodurch Anbieter Services und physische Produkte personalisieren und den gestiegenen Kundenerwartungen gerecht werden können.

 

Die neu entstandenen personalisierten smarten Produkte wiederum aggregieren selbst weiter fröhlich Daten und eine endlose Personalisierungsspirale beginnt sich zu drehen. Gepaart mit der schnellen Adaption neuer Technologien entsteht zeitgleich ein Mentalitätswandel.

Dieser Beitrag stammt aus dem Open-Content-Buchprojekt „Handbuch Internet of Things“. Lesen Sie hier weiter…

Digitales CRM: Verbesserung der Kundenansprache

In Lenas E-Mail-Postfach erscheint ein Angebot ihres Lieblingskleids, das sie für die Hochzeit ihrer Schwester haben möchte. Das Bekleidungsunternehmen weiß nichts von Lenas Schwester oder deren Hochzeit. Jedoch weiß es, dass Lena in den letzten Tagen auf verschiedenen Kanälen – Social Media, Apps oder Websites – nach dem Kleid suchte. Lena war öfters bereits im Kaufprozess; beendete diesen allerdings kurz vor der Bezahlung. Durch gesammelte Informationen kann das Unternehmen am Schluss ein passendes Angebot Lena unterbreiten, das sie annimmt. Wie ist eine derart personalisierte Ansprache möglich?

DSGVO: Bußgelder in Rekordhöhe aus UK und Frankreich

Dies ist ein Gastbeitrag von Dr. René Sandor und Philipp Quiel

Unternehmen drohen bei Verstößen gegen die EU-Datenschutz-Grundverordnung (DSGVO) Bußgelder in Millionenhöhe – bis zu 20 Millionen Euro oder vier Prozent des Jahresumsatzes. Die Verordnung gilt inzwischen seit über einem Jahr. Zeit, eine erste Bilanz zu ziehen: Wie sieht die Bußgeldpraxis der Datenschutzaufsichtsbehörden in Europa aus? Was sollten Unternehmen über die bisher ergangenen Sanktionen wissen und welche Lehren können sie daraus ziehen?

Hohe Bußgelder aus Großbritannien und Frankreich

Die Fluggesellschaft British Airways soll wegen gestohlener Kundendaten umgerechnet mehr als 200 Millionen Euro Bußgeld zahlen – das gab die britische Datenschutzaufsichtsbehörde ICO kürzlich bekannt. Das ist seit Gültigkeit der DSGVO die EU-weit mit Abstand höchste Geldbuße. Danach folgt das ebenfalls vom ICO geforderte Bußgeld über 110 Millionen Euro gegen die Hotelkette Marriott. Zuvor sorgte das aus Frankreich gegen Google ergangene Bußgeld über 50 Millionen Euro für Aufsehen. Diese Bußgelder in Rekordhöhe trafen Großunternehmen und fielen unter anderem deswegen so hoch aus – die Bußgeldhöhe bemisst sich auch am Umsatz.

Andere Bußgelder zeigen, dass auch mittelständische Unternehmen Adressaten von empfindlichen Sanktionen sein können:

  • Niederlande: Bußgeld in Höhe von 460.000 Euro für unzureichende Datenschutz-Maßnahmen eines Krankenhauses. Dieses hatte nicht sichergestellt, dass nur solche Mitarbeiter Zugriff auf Patientenakten haben, die dies für ihre Arbeit benötigen.
  • Dänemark: Geldbuße von rund 200.000 Euro, weil das betroffene Unternehmen für die CRM-Datenbank kein Löschkonzept eingesetzt hat und bei einer anderen Kundendatenbank die vom Unternehmen vorgesehenen Löschfristen nicht eingehalten wurden.
  • Polen: Strafzahlung von rund 220.000 Euro für die unterbliebene Information zur Datenverarbeitung der Personen, zu denen das betroffene Unternehmen Daten aus einem öffentlichen Register abgerufen und danach für einen eigenen Geschäftszweck verwendet hat. Es gab zwar einen Datenschutzhinweis auf der Webseite, allerdings konnten die betroffenen Personen nicht wissen, dass das Unternehmen Informationen über sie verwendete.

Eine Liste mit öffentlich bekannten Bußgeldern ist unter enforcementtracker.com abrufbar.

Bußgelder aus Deutschland

Derzeit sind aus Deutschland insgesamt 101 DSGVO-Bußgelder öffentlich bekannt. In Deutschland hat jedes Bundesland eine Behörde, die für die Überwachung der Einhaltung datenschutzrechtlicher Vorgaben durch Unternehmen und Einzelpersonen zuständig ist. Jede dieser 16 Behörden kann Geldstrafen verhängen. In acht Bundesländern gab es bisher Bußgelder. Aus den anderen Bundesländern sind keine bekannt. Wer glaubt, dass eine europaweit einheitlich geltende Verordnung innerhalb eines Landes weitestgehend gleich durchgesetzt wird, täuscht sich. Ein Blick auf die Anzahl und Höhe der Bußgelder, nach Bundesländern geordnet, offenbart eine sehr unterschiedliche Vorgehensweise der Landesdatenschutzaufsichtsbehörden.

Bekannt gewordene DSGVO-Strafen in Deutschland


Behörde Durchschnitt je Bußgeld Gesamtanzahl Gesamtsumme 
1. Baden-Württemberg EUR 25.550 8 EUR 204.400
2. Rheinland-Pfalz EUR 13.778 9 EUR 124.000
3. Hamburg EUR 8.500 3 EUR 25.500
4. Berlin EUR 5.867 18 EUR 105.600
5. Sachsen-Anhalt EUR 2.000 1 EUR 2.000
6. Nordrhein-Westfalen EUR 433 36 EUR 15.600
7. Saarland EUR 197 3 EUR 590
8. Thüringen unbekannt 23 unbekannt (lediglich EUR 32.000 bekannt)

Trotz der eher geringen Anzahl von acht bekannt gewordenen Bußgeldern aus Baden-Württemberg, wurde hier mit 204.400 Euro beinahe die Hälfte der bekannten Gesamtsumme an Geldbußen verhängt. Damit erklärt sich auch der mit 25.550 Euro verhältnismäßig hohe Bußgeld-Durchschnitt in diesem Bundesland. Auffallend aktiv zeigt sich die Bußgeldstelle in Nordrhein-Westfahlen – sie hat bereits 36 Bußgelder erlassen. Diese sind mit durchschnittlich 433 Euro und einer Gesamtsumme von insgesamt 15.600 Euro jedoch vergleichsweise gering ausgefallen. Das Gleiche gilt für das Saarland. Hier teilen sich insgesamt 590 Euro auf drei Fälle auf, sodass der Durchschnitt 197 Euro beträgt.

Was Unternehmen jetzt umgesetzt haben müssen

Dr. René Sandor ist Rechtsanwalt bei der internationalen Wirtschaftskanzlei CMS Deutschland

In einigen Fällen sind Verstöße gegen Datenschutzrecht leicht erkennbar, in anderen Fällen muss die Behörde genauer prüfen, ob ein sanktionswürdiges Verhalten vorliegt. Vor allem Beschwerden von Kunden, Lieferanten und Mitarbeitern gegenüber Aufsichtsbehörden können relativ schnell zu einer Überprüfung der gemeldeten Unternehmen führen. Unternehmen sollten daher in der Lage sein, die Betroffenenrechte rechtskonform zu erfüllen: Jeder, der mit einem Auskunftsersuchen, einem Verlangen auf Löschung oder Sperrung, Widerruf der Einwilligung, Widerspruch oder einem Verlangen auf Berichtigung konfrontiert ist, sollte dies ernst nehmen. Auch die Informationspflichten gegenüber Kunden, Lieferanten und Mitarbeitern sollten in eine Routine übergegangen sein. Wer derzeitig Ersuchen zum Datenschutz ignoriert, betroffene Personen nicht über die Datenverarbeitung informiert oder immer noch keinen Datenschutzbeauftragten bestellt hat, kann nicht mehr auf die Gnade der Aufsichtsbehörden setzen.

Verwendung von Informationen aus einer Data Breach Meldung

Jeder, der unrechtmäßig Daten verarbeitet hat, und dadurch ein Risiko für die Rechte des Betroffenen begründet hat, muss gegenüber der Datenschutzaufsichtsbehörde eine Meldung über diese Datenpanne erstatten. Da viele seit Gültigkeit der DSGVO für Datenschutz sensibilisiert sind, bekamen Datenschutzaufsichtsbehörden eine solch große Masse an Datenschutzverletzungen gemeldet wie noch nie. Aufgrund der hohen Anzahl an Meldungen und begrenzter Kapazität sind die Behörden derzeitig wohl nicht in der Lage, jede Meldung im Detail zu prüfen oder gar nach jeder Meldung ein Verfahren einzuleiten.

Mit Blick auf Bußgelder aus anderen Mitgliedstaaten fällt jedoch auf, dass einige auf gemeldete Datenschutzverstöße zurückgehen. Hierzu zählen auch die Rekordbußgelder aus UK. Das deutsche Bundesdatenschutzgesetz sieht vor, dass Informationen, die bei der Meldung eines Datenschutzverstoßes mitgeteilt werden, nicht in einem Bußgeldverfahren gegen die meldende Organisation verwendet werden dürfen. Hintergrund ist der Rechtsgrundsatz, dass es verboten ist, jemanden zur Selbstbezichtigung zu verpflichten. Dies gilt im Grundsatz auch für Unternehmen. Gäbe es dieses Verbot nicht, müssten Unternehmen sich entweder selbst eines sanktionierbaren Datenschutzverstoßes bezichtigen oder gegen die Meldepflichten verstoßen, um einer Geldbuße zu entgehen.

Auffassung anderer Behörden

Philipp Quiel ist Consultant/Research Associate bei CMS.

Unternehmen sehen sich mit unterschiedlichen Handlungsempfehlungen und Orientierungshilfen verschiedener Datenschutzaufsichtsbehörden konfrontiert. Bei abweichenden Meinungen von Behörden innerhalb Deutschlands und der EU ist dies zugleich Nachteil und Vorteil. Nachteilig, weil es viel Zeit kostet, zu überblicken, welche Behörde welche Ansicht vertritt. Ein Vorteil, da man kein Bußgeld befürchten muss, wenn man nachweisen kann, dass man sich entsprechend einer öffentlich verfügbaren Handlungsempfehlung oder Orientierungshilfe einer Behörde verhalten hat. Hintergrund ist, dass jemand, der nachweislich einer Behördenmeinung gefolgt ist, nicht vorsätzlich oder fahrlässig gehandelt hat. Das sieht auch der Landesbeauftragte für Datenschutz und Informationsfreiheit aus Baden-Württemberg so; andere Landesbehörden haben sich dazu noch nicht öffentlich geäußert. Sehr gute Argumente sprechen dafür, dass Unternehmen der Auffassung einer Behörde folgen können, ohne ein Bußgeld befürchten zu müssen, wenn sie den Grund für ihr Vorgehen nachweisen können.

Nicht in Panik verfallen, aber Hausaufgaben machen!

Unternehmen sollten sich nicht durch Panikmache oder Hysterie steuern lassen. Dennoch sollten sie die Basics der datenschutzrechtlichen Vorgaben sicher beherrschen. Die bisherige Bußgeldpraxis der Datenschutzbehörden können Unternehmen als Schulung verstehen: Insbesondere die Themen Datensicherheit, Umsetzung von Betroffenenrechten und Informationsrechte sollten ganz oben auf der To-Do-Liste im Unternehmen stehen. Auf diese Weise lassen sich hohe Bußgelder und ein öffentlicher Reputationsverlust vermeiden.

Dr. René Sandor ist Rechtsanwalt bei der internationalen Wirtschaftskanzlei CMS Deutschland. Philipp Quiel ist Consultant/Research Associate bei CMS. Beide sind im Bereich Datenschutzrecht tätig.

KI befeuert Meetings

LogMeIn erläutert, welche Aufgaben KI-Technologien in Meetings übernehmen können, um Mitarbeiter zu entlasten und mehr Raum für Ideen zu schaffen

An künstlicher Intelligenz führt kein Weg vorbei. Das haben mittlerweile auch die meisten Befragten einer internationalen Umfrage erkannt, die IDG im Auftrag von LogMeIn, Experte für Unified Communications und Collaboration sowie Entwickler von Lösungen wie GoToMeeting, GoToConnect und GoToRoom, im Zuge seiner neuen Markenausrichtung für GoTo durchgeführt hat. KI-gesteuerte Kommunikationswerkzeuge spielen für Unternehmen der unterschiedlichsten Branchen demnach eine immer wichtigere Rolle: Collaboration-Lösungen gehören laut Studie zu den drei wichtigsten Bereichen, in die Firmen in den kommenden Monaten investieren wollen. Insgesamt nutzen 15 Prozent der Befragten bereits KI-Tools, um die Kommunikation und Zusammenarbeit zu verbessern, und weitere 19 Prozent nennen dies als eine Priorität für das kommende Jahr. Demnach wird etwa jeder dritte Befragte (34 Prozent) demnächst KI in Meetings nutzen. Im Zuge seiner neuen Markenausrichtung für GoTo, erläutert LogMeIn, in welchen Bereichen und Szenarien künstliche Intelligenz Teamarbeit und Kreativität bereichert.

Menschliche Kommunikation fällt nicht unbedingt als Erstes ein, wenn von künstlicher Intelligenz die Rede ist. Das ist insbesondere der Tatsache geschuldet, dass viele beim Begriff KI an holprige und seltsam fremde Sprachassistenten oder Chatbots denken. Bei effektiver Nutzung bietet die Technologie jedoch ein großes Potenzial für eine bessere und kreativere Zusammenarbeit. Da künstliche Intelligenz vermehrt Einsatz in Collaboration-Tools am Arbeitsplatz findet, sind Mitarbeiter verstärkt in der Lage, einen Teil ihrer Energie, die sie bislang für Notizen, Terminplanung und andere Aufgaben aufwenden mussten, in kreative Arbeit zu investieren. Die folgenden drei Punkte zeigen, wie KI kreativere und effizientere Meetings ermöglicht.

Automatisierte Notizen beschleunigen und optimieren Brainstormings

Jeder, der schon einmal während eines Meetings Notizen für anstehende Protokolle machen musste, weiß, wie schwierig diese Aufgabe sein kann. Am Ende war der Protokollant vielleicht so sehr mit seinen Notizen beschäftig, dass er oder sie sich kaum an den Inhalt der Besprechung erinnern kann, geschweige denn an die Details. Hier schaffen automatisierte Notizen und Gesprächsprotokolle Abhilfe. Sie entlasten Meeting-Teilnehmer, damit diese sich voll und ganz auf das Gespräch konzentrieren können. Zudem lassen sich Transkripte nach wichtigen Keywords und Ideen durchsuchen, so dass die Teilnehmer nach Abschluss des Meetings jedes Detail und jeden Denkansatz noch einmal rekapitulieren können. Entfallen Notizen, fördert dies lebhafte und ungehinderte Diskussionen und reibungslosen Ideenfluss.

KI-gestützte Aufgaben und Agenda-Updates verhindern, dass sich Mitarbeiter krampfhaft an bestimmte Meeting-Details erinnern müssen

KI-Technologien liegen regelbasierte Reaktionen auf Entscheidungen zugrunde. Das heißt, dass sie lernen können, bestimmte Keywords zu erkennen. Außerdem lassen sich wichtige Begriffe festlegen, die die KI identifizieren und entsprechend reagieren kann. Das bedeutet: KI kann Maßnahmen eigenständig ausführen – eine komplexere Aufgabe, als lediglich eine Abschrift dessen, was während eines Meetings passiert ist. Zusätzlich zu diesen Aktionen kann KI Deadlines festlegen und kontrollieren. Je nach Programmierung lassen sich auch automatisch Erinnerungen versenden, wenn Fristen näher rücken. Darüber hinaus kann die KI-Technologie den wichtigsten Teil eines Meetings aufzeichnen und nachträglich mit den Teilnehmern teilen, um sicherzustellen, dass keine der Aktionen, Pläne oder notwendigen Folgemaßnahmen vergessen werden. Diese Reduzierung der Verantwortlichkeiten, die mit einem Meeting einhergehen kann, ermöglicht es Mitarbeitern, entspannter zu kommunizieren, offener zu sein und ein Team zu bilden, das innerhalb und außerhalb des Besprechungsraums besser funktioniert.

Automatisierte Erfassung nonverbaler Hinweise hilft bei Aufdeckung und Erarbeitung guter Ideen

Es gibt Momente während eines Meetings, in denen Ideen geboren werden und in denen jeder positiv reagiert. Doch diese speziellen Augenblicke lassen sich manchmal nur schwer identifizieren. Mithilfe künstlicher Intelligenz können diese „Aha!“-Momente und andere Reaktionen leichter erkannt und aufgezeichnet werden, da sie sich im Allgemeinen anhand nonverbaler Hinweise wie Gesichtsausdrücke, Nicken oder Lachen offenbaren – Details, die menschliche Teilnehmer vielleicht nicht immer wahrnehmen. Diese Momente lassen sich speichern und später leichter identifizieren, so dass große Ideen nicht falsch interpretiert werden oder verloren gehen.

„Letztendlich wird KI die Art und Weise, wie Menschen miteinander arbeiten, verbessern. Die Reduzierung der sich wiederholenden und einfachen Aufgaben, die mit den administrativen Aspekten von Meetings einhergehen, ermöglicht es Mitarbeitern, mit weniger Einschränkungen zu arbeiten. Langfristig ist es viel besser, wenn sich KI-basierte Assistenten um notwendige, aber weniger kreative Aufgaben wie Notizen, administrative Tasks, Tagesordnungen und Erinnerungen kümmern. Entfallen all diese Aspekte, können sich Mitarbeiter voll und ganz auf die Besprechung und ihre Themen konzentrieren, sich umfassend einbringen und so den Nutzen von Meetings verzehnfachen“, resümiert Sion Lewis, Vice President EMEA bei LogMeIn.

Weitere Informationen unter:
www.logmeininc.com

Bildquelle / Lizenz: Photo by You X Ventures on Unsplash