Vermögensfactoring?

„Schufafrei“ ein Projekt finanzieren – geht das?

Gewusst wie!

Es sind nicht nur Privatleute, die mit einem „Nein“ auf ihre Darlehensanfragen von der Bank ausgebremst werden. Gerade Freiberufler, Einzelunternehmer und kleinere Betriebe machen nicht selten diese Erfahrung. Oft geht es um die Finanzierung eines Projektes oder einer neuen Geschäftsidee und nach einer Absage müssen Alternativen her. Da erinnert man sich gerne an die lange angesparte Lebensversicherung. Mit einer Kündigung wäre man die lästigen Monatsbeiträge los und könnte mit dem Geld aus dem Vertrag sein Vorhaben realisieren. Doch das kann ernüchternd sein, bei Kündigung wird lediglich der Rückkaufswert bezahlt und auch das dauert schon seine Zeit. Was bringt in dieser Situation der Verkauf einer Police?

 

„Es ist nicht zu fassen, was sich der eine oder andere Banker einbildet“, schimpft Carmen Schade erbost. „Da habe ich ein detailliertes Konzept mit vollständiger Kalkulation erarbeitet und werde abgewiesen. Als ob ich Geld von der Bank bräuchte, wenn meine Einnahmen regelmäßiger und höher wären!“ Carmen Schade ist Buchautorin und verfasst selbständig Werbetexte für Unternehmen. Sie ist „Einzelkämpferin“ in diesem Bereich und hatte immer ein Auskommen mit ihrem schwankenden Einkommen. Natürlich kam es schon einmal vor, dass sie eine Rechnung über Gebühr lange nicht bezahlt hatte. Das brachte ihr dann auch einen Eintrag in die SCHUFA, einer Wirtschaftsauskunftei, die von den Banken zur Kreditwürdigkeit und Bonität von Personen und Unternehmen angefragt wird. Das war nun wohl auch der Grund für die Absage der Bank. Wer dort einen negativen Eintrag erhalten hat, bekommt nur selten ein Darlehen.

 

Dieses Jahr machte die Urlaubszeit Frau Schade so zu schaffen, dass all ihre Reserven aufgebraucht waren. Die Tantiemen für Ihre Bücher würden erst zum Jahresende abgerechnet werden und es schien so, als seien all ihre Auftraggeber gleichzeitig verreist. Sie musste unbedingt etwas tun, um Neukunden zu akquirieren und finanziell wieder auf die Beine zu kommen. Geplant wurden ein neuer Internetauftritt, ein passender Flyer,  Visitenkarten und eine Telefonaktion. Darüber hinaus musste sie einen neuen Laptop und den längst fälligen Laser-Drucker mit in die Kalkulation nehmen. Sie berechnete den Kapitalbedarf für die Fortsetzung und Erweiterung ihrer selbständigen Tätigkeit auf 10.000,- Euro. Doch die Bank spielte nicht mit, obwohl sie sich von sich aus bereit erklärt hatte, ihre Lebensversicherung zu verpfänden. Was sollte sie also tun?

 

Sich mit 48 Jahren um eine Anstellung zu bemühen, das hielt sie für sinnlos. Ihre Idee: Sie würde ihre Lebensversicherung zu Geld machen und ihre Tätigkeit auf Vordermann bringen. Ein Anruf bei der Versicherungsgesellschaft nahm ihr jedoch gleich die Euphorie. Erst müsste einmal die Kündigung per Einschreiben eingehen und dann würde es schon eine Weile dauern, bis der sogenannte Rückkaufswert zur Auszahlung käme. Das heißt: Vom Sparguthaben samt Zinsen werden die Kosten für den Risikoschutz, Provision, Verwaltung und in vielen Fällen auch noch eine Stornogebühr in Höhe von drei bis fünf Prozent abgezogen. Carmen Schade sah ein, dass Kündigung zwar eine Möglichkeit wäre, aber nicht unbedingt die beste Wahl und ein Policen-Darlehen wollte sie nicht. „Ich sehe nicht ein, dass ich auf mein eigenes Geld auch noch Zinsen zahlen soll!“

 

Man kann doch Versicherungen auch verkaufen. Irgendwo hatte sie das schon gelesen oder gehört. Auf ihrer Suche im Internet wurde sie dann schnell fündig. Vorteil des Verkaufs gegenüber einer Kündigung ist, dass die Ankäufer meist mehr als den reinen Rückkaufswert bezahlen. Frau Schade wendet sich an die Firma Prolife in Ingolstadt und erfährt, dass man dort finanziell in Vorleistung geht und die komplette Abwicklung des Vertrages übernimmt. Sie könne also bereits 18 Tage nach Einreichung der Police mit der Auszahlung des Kaufpreises rechnen, unabhängig von der Kündigungsfrist.

 

Was kostet der Verkauf?

 

„Für unsere Arbeit berechnen wir natürlich eine Gebühr. Im Gegenzug dazu überprüfen aber unsere Fachanwälte die angegebenen Rückkaufswerte der Versicherungsgesellschaften nach neuester BGH-Rechtsprechung“, erklärt der Prolife-Geschäftsführer Michael Früchtl auf Rückfrage der Redaktion. „Oft kommt es wenige Wochen nach Auflösung des Versicherungsvertrages, zu einer zweiten Zahlung. Es ist nicht selten, dass die Versicherungen zu hohe Stornoabschläge einbehalten oder auch den Rückkaufswert falsch berechnen. Die Differenz zum ursprünglich angegebenen Rückkaufswert teilen sich dann Kunde und Policenkäufer.“ Das sei aber längst nicht alles und unterscheide Prolife deutlich von anderen Anbietern. „Wir erfassen die Policen in einem eigenen System und sobald sich etwas Neues in der Rechtsprechung ergibt, werden sie nochmals geprüft. Drei Jahre lang läuft dieses ‚Clearing‘, bei dem wir weitere Nachzahlungsmöglichkeiten suchen und oft fündig werden. Das kommt unseren Kunden ebenfalls zu Gute. Jeder unerwartete Geldeingang freut natürlich.“

 

Beispiel Versicherungsverkauf Carmen Schade:

Vertragseinreichung am 03.08.2012

Rückkaufswertangabe der Versicherung EUR                     EUR 12.300,00
21.08.2012 Zahlung an die Kundin Schade:                         EUR 11.377,50

19.03.2014 Nachzahlung (neue Rechtsprechung):              EUR   4.116,59

Bisherige Gesamtzahlung an den Kunden:                          EUR 15.461,09

Die Kundin hat durch den Verkauf im Vergleich zur Kündigung 25,70% mehr ausgezahlt bekommen. Das sogenannte Clearing, die Überprüfung der Police auf weitere Nachzahlungs-Möglichkeiten nach neuer Rechtsprechung, läuft aber noch weiter.
Weitere Infos finden Sie unter: www.prolife-gmbh.de

 

Bildquelle https://www.flickr.com/photos/matze_ott/

Bildlizenz: https://creativecommons.org/licenses/by/2.0/

KMU und Innovationen: Fördermöglichkeiten unbekannt

Kleinen und mittleren Unternehmen (KMU) fehlen häufig die Ressourcen, um Innovationen zu entwickeln und auf den Markt zu bringen. Mitglieder des Verbandes „Die KMU-Berater – Bundesverband freier Berater e.V.“ zeigen in der aktuellen Ausgabe der „KMU-Berater News“ auf, welche staatlichen Förderprogramme es gibt, wie diese am besten eingesetzt werden und wie sie Mittelständler bei diesem Thema unterstützen. Die Ausgabe kann heruntergeladen werden unter http://www.berater-news.kmu-berater.de.

Eine der Grundlagen eines jeden Innovationvorhabens ist eine solide Finanzierung. Zahlreiche Förderprogramme von Kommunen, Ländern, Bund und Europäischer Union unterstützen Mittelständler dabei. Allerdings gilt es je nach Programm verschiedene Voraussetzungen und Richtlinien zu beachten. Dr. Jörg Rupp erläutert, wie das Zentrale Innovationsprogramm Mittelstand (ZIM) des Bundeswirtschaftsministeriums funktioniert, Dr. Michael Hohmann stellt die Zuschuss-Förderungen einiger Bundesländer vor.

KMU-Beraterin Tanja Ebbing sagt: Während die Top 100 der innovativsten deutschen Mittelständler 11,5 Prozent ihrer Umsätze in Innovationstätigkeiten investieren, sind es bei KMUs im Durchschnitt nur 1,4 Prozent. Oftmals liegt der Grund für die Innovationszurückhaltung im fehlenden Know-How. Hier setzt das Programm „go-Inno“ an: Mit Innovationsgutscheinen können KMUs technologische Innovationsberatung in Anspruch nehmen.

Die 2014 gestartete Neufassung des EU-Programms „HORIZON 2020“ beinhaltet eine spezielle Komponente für KMU. KMU-Berater Dr. Michael Hohmann zeigt die verschiedenen Förderphasen dieses Programms auf, das sich besonders für grenzüberschreitende Innovationsprojekte eignet.

Eine weitere interessante Finanzierungsvariante ist das ERP-Innovationsdarlehen der KfW. KMU-Berater Andreas Glandorf schildert das Beispiel einer Großbäckerei. Das Besondere dieses Programms: Hier kommt es nur darauf an, dass die Produkt- oder Verfahrensentwicklung für das Unternehmen selber neu ist. Es muss keine Innovation für den gesamten Markt entwickelt werden.

Welche Effekte eine erfolgreiche Innovationsberatung hat, erklärt Eugen Bartedska, einer der Geschäftsführer des Spieleherstellers b-interaktive GmbH, im Interview. 2013 leitete Innovationsberaterin Dr. Angelika Kolb-Telieps in seinem Unternehmen einen zweitätigen Innovations-Workshop. Inhalt waren unter anderem Ist-Analyse, Marktrecherchen, Businessplan und Finanzierung. „Wir fühlten uns danach sicherer, weil wir unser Geschäft auf den Prüfstand gestellt hatten“, so Bartedska.

Beraterin Kolb-Telieps stellt außerdem „Open Innovation“ als Alternative zur langjährigen, internen Entwicklung von Produktinnovationen vor. Bei Open Innovation werden Kunden frühzeitig und eng in Entwicklungsprojekte einbezogen. So können vorher unbekannte Kundenbedürfnisse erkannt und genutzt werden. Innovative Neuentwicklungen werden in Zukunft nicht mehr hinter verschlossenen Türen, sondern mehr und mehr in Netzwerken stattfinden, ist Kolb-Telieps überzeugt.

Weitere Informationen unter:
www.kmu-berater.de

 

Bildquelle / Lizenz: flickr.com / Boegh (Lizenz Creative Commons)

Handbuch Studienerfolg

30. Juli 2015

Wie können Hochschulen Studierende erfolgreich zum Abschluss führen? Das Handbuch Studienerfolg, das der Stifterverband heute veröffentlicht, stellt Konzepte vor, wie dies gelingen kann.

Von 100 Studierenden verlassen 28 ihre Hochschule ohne Abschluss. Für alle, die sich überlegen, wie die hohe Zahl der Studienabbrecher gesenkt werden kann und sich im Hochschulalltag für den Studienerfolg einsetzen, soll das Handbuch Studienerfolg eine praxisnahe Hilfestellung sein.

Das Handbuch beschreibt in einem Instrumentenkasten Strategien und Maßnahmen, die an einzelnen Hochschulen bereits heute wirkungsvoll umgesetzt werden. Ob durch eine innovative Studieneingangsphase oder eine intensivere Beratung und Betreuung der Studierenden, ob durch eine neue Prüfungspraxis oder wie mit neuen E-Learning-Strategien Wissen besser vermittelt werden kann – es gibt viele einzelne Konzepte, wie Hochschulen versuchen, ihre Studienabbruchquote zu senken. In dem Handbuch Studienerfolg haben die Autoren erfolgreiche Konzepte zusammengeführt und herausragende Initiativen vorgestellt, die zur Verbesserung des Studienerfolgs dienen.

„Es ist die Kernaufgabe aller Hochschulen, Studienanfänger so zu begleiten, dass so viele wie möglich ihr Studium auch erfolgreich beenden“, sagt Volker Meyer-Guckel, stellvertretender Generalsekretär des Stifterverbandes für die Deutsche Wissenschaft. „Wenn die Hochschulen dafür von der Politik Anreize bekommen, hilft das auch. Ein gutes Beispiel ist die Einführung der Erfolgsprämie für jeden Hochschulabsolventen in Nordrhein-Westfalen.“

Das Handbuch ist das Ergebnis des Qualitätszirkels Studienerfolg, mit dem der Stifterverband sechs Hochschulen bei der Umsetzung ihrer Strategien für mehr Studienerfolg in den letzten zwei Jahren begleitet hat.

http://stifterverband.info/presse/pressemitteilungen/2015_07_30_handbuch_studienerfolg/index.html

Keine Angst vor Big Data

Die Digitalisierung lässt enorme Datenmengen entstehen. Schnell entsteht in den  Unternehmen ein wahrer „Goldschatz“ an Daten. Sie stammen aus Geschäftsprozessen, Kundenkommunikation, Social Media & Co. Das Gold darin kann aber nur bergen, wer in den Daten tief genug graben und die richtigen Fragen zur Analyse stellen kann. Das setzt natürlich auch die richtigen „Grabwerkzeuge“ voraus. Die TREND REPORT-Redaktion sprach mit Lenley Hensarling, Vice President of Product Management and Strategy bei EnterpriseDB zu eben genau jenen Werkzeugen und dem Einsatz von Open-Source-Software (OSS) in den Unternehmen.

In einer vernetzten Gesellschaft werden Informationen und damit Daten immer wichtiger für Unternehmen jeglicher Art. Vor allem in Großunternehmen bewirkt dies explodierende Kosten für die Infrastruktur und Technologie des Rechenzentrums, um die Wettbewerbsfähigkeit auf dem Markt zu beizubehalten. Der verstärkte Einsatz von Open-Source-basierte Alternativen in Unternehmen scheint ein Silberstreif am Horizont zu sein – aber es gibt immer noch Bedenken hinsichtlich ihrer Sicherheit, Robustheit und Leistung. Wie bewerten Sie die Situation?
Diese Bedenken sind Reste einer überkommenen Denkweise. Open-Source-Software (OSS) ist in den letzten Jahren stark gereift, um die Bedürfnisse der Anwender befriedigen und Herausforderungen auf Unternehmensebene meistern zu können. Dies gilt insbesondere für Datenbanken, wie ein aktueller Gartner Report zum Stand relationaler Datenbankmanagementsysteme (RDBMS)* zeigt. Im Laufe der letzten fünf Jahre haben sich OS RDBMS weiterentwickelt, um dieselben Funktionalitäten wie traditionelle, kommerzielle DBMS zu bieten – zu einem Bruchteil der Kosten. Außerdem sagt der Report voraus, dass dieser Trend weitergehen wird und bis zum Jahr 2018 der Gesamtanteil von OSS  Inhouse-Anwendungen bei 70 Prozent liegen wird. Zusätzlich integrieren Anbieter wie EDB ein Plus an Leistung und Sicherheit sowie Kompatibilitäts-Erweiterungen in die zugrunde liegende Open-Source-Datenbank – in diesem Fall PostgreSQL – um die Anforderungen von Großunternehmen vollends zu erfüllen.

Um etliche Bedenken von CIOs bezüglich des Datenbankwechsels aus der Welt zu schaffen, sollten sie OSS anfangs für nicht geschäftskritische Anwendungen einsetzen, dann die Leistung der neuen Lösung bewerten und sich mit den Funktionen vertraut machen. Letztlich können die OSS-Lösungen neben den traditionellen eingesetzt werden, um die richtige Lösung für die Anforderungen jedes einzelnen Workloads zu haben. Die Migration von Workloads zu OSS befreit Budget für Transformationsinitiativen, die das Geschäft wirklich vorantreiben.

EntpriseDB; Einschätzung Reifegrad Open Source Datenbank Management Systeme

Bewertung des Reifegrads relationaler Open-Source DBMS, 2009*

EntpriseDB; Einschätzung Reifegrad Open Source Datenbank Management Systeme

Bewertung des Reifegrads relationaler Open-Source DBMS, 2015*

Es gibt also großes Potenzial für Kosteneinsparungen durch die Implementierung von OSS im Unternehmen. Wie kann dies in der Praxis umgesetzt werden?
Zu aller erst müssen IT- und Finanzabteilungen eng zusammenarbeiten. Der CFO und CTO/CIO müssen gemeinsam die Bereiche identifizieren, in denen die IT Teile der Infrastruktur migrieren kann, um Budget frei zu machen, dass der CFO dann in teure, aber notwendige strategische geschäftskritische Initiativen umleiten kann. Die Komponenten des IT-Stack, die mittlerweile zur Commodity geworden sind – Virtuelle Maschinen, Betriebssysteme, Middleware und Datenbanken –, eignen sich am besten für die Migration auf OSS-Alternativen, damit Kapital frei wird für Investitionen in Analytik, Anwendungen und mehr. Da die Datenbank in der vernetzten Welt immer größere Bedeutung erhält, verschlingen ihr ständiger Ausbau sowie zeit- und ressourcenaufwändige Wartung immer größere Teile des IT-Budgets.

Die Angst davor, die gesamte IT-Infrastruktur durch den Austausch eines so grundlegenden Teils wie der Datenbank zu erschüttern, kann durch Kompatibilitäts-Features beschwichtigt werden, die einige OSS-Lösungen anbieten. EDB hat beispielsweise für seine Postgres-Datenbank Kompatibilität für Oracle entwickelt – eines der meistverwendeten traditionellen DBMS – so dass viele Anwendungen sich nahtlos in die OSS-Lösung migrieren lassen und Entwickler ihre bestehenden Skillsets weiter nutzen können ohne dass Investitionen in teure Schulungen oder Personalveränderungen nötig werden. Abschließend ist es ratsam, wie oben erwähnt, nicht-unternehmenskritische Anwendungen zuerst zu migrieren, um ein Gefühl für die neue Umgebung zu erhalten, und dann zu unternehmenskritischen Anwendungen überzugehen, um das volle Potential für Kosteneinsparungen zu nutzen.

12303879306_a683d3f195_z

Strukturierte Daten werden auch in Zukunft von relationalen Datenbanken gespeichert werden. Das reine NoSQL-Lösungen sich als Alternative zur Aufbewahrung strukturierter Daten entwickeln, kann sich Lensay Hensarling aufgrund des Designs von NoSQL nur schwer vorstellen. Andersrum passiert dies aber gerade: relationale Datenbanken entwickeln Datentypen zum Aufbewahren unstrukturierter Daten.

NoSQL-Lösungen werden für den nächsten Schritt nach SQL und relationalen DBMS gehalten und damit die Wegbereiter für das Geschäft in der vernetzten Welt des Internet der Dinge und Big Data. Doch relationale Datenbanken sind immer noch weit verbreitet in Gebrauch. Wie kommt das?
Reine NoSQL-Lösungen sind aus High-Volume-Umgebungen mit neuen Arten von Daten, wie Social Media und Web-basierte Anwendungen, hervorgegangen. Sie tun sich beim Speichern großer Mengen unstrukturierter Daten hervor und spielen eine entscheidende Rolle dabei, die Herausforderungen zu meistern, vor die Big Data und das Internet der Dinge Unternehmen stellen werden. Jedoch haben die meisten von ihnen sehr vereinfachte Funktionen wenn es darum geht, mit den Daten tatsächlich etwas zu tun. Bei solchen Lösungen wird die eigentliche Datenverarbeitung in die Anwendung verschoben, so dass die Entwicklung von Applikationen sehr viel komplexer ausfällt. Weiterhin fehlt typischen NoSQL-Lösungen die Konformität mit den sogenannten ACID –Eigenschaften (Unteilbarkeit, Konsistenz, Isolation, Dauerhaftigkeit) für verlässliche Verarbeitungsschritte im DBMS, so dass es keine absolute Garantie gibt, dass Transaktionen in der Datenbank sicher verarbeitet werden. Um dennoch ACID-Konformität zu erreichen, muss in den Anwendungen immer und immer wieder sehr komplexer Code geschrieben werden. Auf der anderen Seite wurden relationale DBMS von Anfang an entwickelt, um die ACID-Eigenschaften stets zu erfüllen, so dass sie sehr zuverlässig und robust funktionieren und mit in ihnen gespeicherten strukturierten Daten auf eine sehr detaillierten Ebene gearbeitet werden kann. Darüber hinaus ermöglicht der relationale Charakter dieser DBMS einen umfassenden Überblick über alle gespeicherten Daten und wie sie mit anderen Unternehmensdaten in Beziehung stehen.

Traditionelle geschäftskritische Daten für Budgetierung, Prognose usw. sind und bleiben wichtig für Unternehmen – auch in der kommenden vernetzten Welt des Internet der Dinge und von Big Data. Finanzdaten sind primär strukturierte Daten und müssen zuverlässig, modifizierbar und sicher gespeichert werden, wodurch die relationale Datenbank das Rückgrat des Unternehmens bleiben wird.

NoSQL- und relationale Lösungen sind also beide von entscheidender Bedeutung für verschiedene Aufgaben im Unternehmen. Heißt das, Unternehmen sollten viele verschiedene spezialisierte Anwendungen benutzen?
Unternehmen sollten die Lösung verwenden, die für die anstehenden Aufgaben am besten geeignet ist, und das bedeutet, sich intensiv mit neuen Optionen zu befassen, um deren tatsächliche Möglichkeiten zu ermitteln, und nicht nur blind einem Marketing-Hype zu folgen. Werden viele verschiedene, voneinander getrennte Lösungen auf einmal verwendet, kann sehr zeit- und ressourcenintensiver Management-Aufwand nötig werden und das Risiko von Inkonsistenzen und Datensilos kann erheblich ansteigen. Dies wiederum kann potentiell den Geschäftswert der Unternehmensdaten als Ganzes kompromitieren.

Reine NoSQL-Lösungen sind meist sehr spezialisiert und wurden entwickelt, um ein ganz bestimmtes Problem zu lösen – wie beispielsweise Lagerung und Verwaltung spezifischer Ströme unstrukturierter Daten. Was ein Unternehmen in der vernetzten Welt braucht, ist eine Datenbank, die sowohl strukturierte als auch unstrukturierte Daten effizient verarbeiten kann, und die sich dynamisch an schnell ändernde Daten-Herausforderungen und sich entwickelnde, neue Datentypen anpasst. Auf diese Weise kann das Unternehmen einen umfassenden Überblick über seine Daten erhalten und deren höheren Wert voll für sich nutzen.

Wir erleben bereits, wie der Bedarf auf dem Markt nach solchen „All-in-one“-Lösungen steigt. Unternehmen wollen bewährte Zuverlässigkeit gepaart mit Innovation um den neuen Herausforderungen der schönen neuen digitalen Welt gerecht zu werden. Das Aufkommen von NoSQL-artigen Daten wird die DBMS-Landschaft verändern und bis zum Jahr 2017 wird das „NoSQL“-Etikett, wie es heute existiert, kein Unterscheidungsmerkmal für DBMS mehr sein, da die meisten führenden operativen DBMS anfangen werden, mehrere Datenmodelle, sowohl relationale als auch NoSQL, in einer einzigen Plattform anzubieten.

Für Unternehmen in der Ära der vernetzten Gesellschaft ist also die „All-in-one“-Datenbank am geeignetsten. Wie kann sie konkret realisiert werden?
In der Theorie gibt es zwei Möglichkeiten: Entweder NoSQL-Lösungen entwickeln mehr Flexibilität sowie anspruchsvollere und detailliertere transaktionale Funktionen (um mit den Daten auch tatsächlich wertschöpfend arbeiten zu können) und eignen sich zudem die ACID-Eigenschaften an; oder relationale Datenbanken lernen, unstrukturierte Daten effizient zu verarbeiten. Die erste Variante ist aufgrund der Art und Weise, wie diese Lösungen konzipiert sind, fast unmöglich. Die zweite ist dagegen schon im Gange und relationale Datenbanken bieten ihren Anwendern bereits Funktionen für die Verwaltung von strukturierten und semi-strukturierten Daten. RDBMS-Anbieter machen sich bereits seit geraumer Zeit neue Datentypen und Funktionen zu eigen und integrieren sie in ihre Angebote.

Der blaue Elefant ist das Maskottchen der PostGre-Gemeinde, ähnlich dem Pinguin bei Linux

Der blaue Elefant ist das Maskottchen der PostGre-Gemeinde, ähnlich dem Pinguin bei Linux

Postgres ist zum Beispiel besonders gut geeignet für Erweiterungen, um den wachsenden Daten-Anforderungen zu begegnen. Als ein „objektrelationales“ DBMS können Entwickler neue Objekte entwickeln und in Postgres einfügen, die das DBMS mit neuen Funktionen ausstattet, die dennoch zu jeder Zeit die grundlegenden ACID-Eigenschaften einhalten. Der JSON-Datentyp ist ein Beispiel für ein solches Objekt, das eine wichtige neue Funktion für Postgres einführte. Dieser Datentyp wird von einem anderen Feature namens „Foreign Data Wrappers“ verwendet, das eine zentrale Rolle für die Fähigkeit von Postgres spielt, Daten aus anderen Datenbanken zu unterstützen, und markiert in der Tat einen wichtigen Schritt auf dem Weg zu einer „All-in-one“-Datenbank.

„Foreign Data Wrappers“ erlauben die Integration von Daten aus externen NoSQL-Implementierungen wie MongoDB, MySQL oder Hadoop-Clustern in Postgres-Tabellen. Dies ermöglicht es, unstrukturierte Daten die in NoSQL-Lösungen gespeichert sind, in eine Umgebung zu ziehen, deren transaktionale Funktionen den nötigen Detailgrad haben und die vollständige ACID-konform ist, um die Datenkonsistenz zu gewährleisten, die Unternehmen brauchen. Dies ermöglicht es auch Postgres als Datenbank-Hub zu verwenden um einen umfassenden Überblick über alle Unternehmensdaten oder wirklich aussagekräftige Snapshots zu erhalten. Dadurch wird aus den Unternehmensdaten der nötige Geschäftswert generiert um an den neuen Märkten in einer vernetzten Gesellschaft Erfolg zu haben.

Weitere Informationen unter:
www.enterprisedb.com

* The State of Open Source RDBMSs, 2015, by Donald Feinberg and Merv Adrian, published April 21, 2015.

Über den Interviewpartner

LenleyLenley Hensarling spielt eine Schlüsselrolle bei der Festlegung von EDBs strategischer Ausrichtung durch Produktentwicklung sowie die Zusammenarbeit mit Kunden und Partnern. Er hat mehr als zwei Jahrzehnte Erfahrung in der Software-Industrie bei großen Anbietern für professionelle Unternehmenstechnologie. Nachdem er lange Jahre bei JD Edwards eine leitende Position innehatte, übernahm Lenley Führungsrollen bei PeopleSoft und danach Oracle. Seine Wurzeln liegen im Engineering-Bereich und er stieg schnell zum Vice President of Engineering bei Novell auf. Lenley erhielt seinen BA in Wirtschaftswissenschaften von der University of Texas in Austin.

Bildquelle / Lizenz (nach Reihenfolge): tec_stromberg (flickr.com); EnterpriseDB; Donald Feinberg, Merv Adrian; Christian Schnettelker (flickr.com), www.manoftaste.de; Jeff Kubina (flickr.com); Flickr-Lizenz: https://creativecommons.org/licenses/by-sa/2.0/;

Creative Commons im Journalismus

Ein Plädoyer von für freie Inhalte im Journalismus.

In der feinen, aber oft etwas isolierten Netzgemeinde sind Creative Commons schon gut etabliert. Immer wieder stößt man auf Bilder, Videos und Texte, die zur Weitergabe animieren, statt sie zu verdammen. Verlässt man aber diesen Kreis netzaffiner Menschen, sieht es ganz anders aus. Der Grund ist weniger fehlendes Wissen, sondern Angst. Ein paar Gedanken zur Verbesserung und Überzeugungsarbeit – mit Schwerpunkt auf Journalisten, aber auch für andere Bereiche einsetzbar.

Creative Commons: Was ist das?

Creative Commons (CC) – ein Name, der für eine Idee steht: Freie Lizenzen, die die Verbreitung und Weiterentwicklung kreativer Werke erlauben, ohne den Urheber zu enteignen. Die Regelung ist einfach und über ein eigenes Tool einzustellen. Alle CC-Lizenzen verlangen, den Urheber beim Namen zu nennen. Abgesehen davon gibt es zwei einfache Fragen, die man sich beantworten muss:

  • Möchte ich kommerzielle Verwendung meiner Arbeit zulassen? – Antworten sind ja oder nein.
  • Möchte ich Abwandlungen und Weiterentwicklungen meiner Arbeit zulassen? – Antworten sind ja, nein und „ja, aber nur wenn die Abwandlungen auch unter einer CC-Lizenz stehen“.

Über einige Zusatzfelder lassen sich noch einige zusätzliche Angaben einstellen, etwa der Link, unter dem die Arbeit zu finden ist und der als Quellenangabe angegeben werden muss.

Creative Commons: Was nützen sie?

Diese Wissensaspekte sind meist recht schnell zu vermitteln. Ebenso sieht es mit den Vorteilen aus. Hier sind eine Reihe von Vorteilen, die für CC sprechen:

Für den Urheber:

  • schnellere Verbreitung von Inhalten und dem eigenen Namen
  • zahlreiche Anwender suchen von vorne herein nur nach CC-Werken, um sich die Arbeit der Nachfragerei zu sparen
  • Erzeugung von Links auf eigene Inhalte

Für den Anwender:

  • schnellere Klärung von Rechten
  • zahlreiche Einsatzszenarien, zum Beispiel schöne Bilder für eigene Texte

Die ganz realen Ängste – und wie man sie beseitigt

Am einfachsten auszuräumen ist meist die Angst einiger Journalisten vor Enteignung. Creative Commons enteignen niemanden – weil sie freiwillig sind. Jeder Autor entscheidet selbst, ob er auf CC setzen möchte oder nicht. Und über die wenigen Parameter lässt sich flexibel steuern, unter welchen Umständen man zu einer Fremdverwertung bereit ist. Wählt man „keine kommerzielle Nutzung“, ist ausgeschlossen, dass andere mit den eigenen Inhalten Geld verdienen, ohne den Autor selbst dafür zu entlohnen. Wer Angst davor hat, dass das eigene Werk entstellt wird, setzt auf „keine Bearbeitungen“. Und mit „Weitergabe unter gleichen Bedingungen“ kann man sicherstellen, dass sich niemand an den eigenen Werken bereichert, ohne selbst etwas zur Gemeinschaft beizutragen. Bei all dem gilt: Keine Creative-Commons-Lizenz schließt aus, dass ein Urheber Ausnahmen festlegt. Wer generell kommerzielle Nutzung ausschließt, kann sich natürlich trotzdem noch mit bestimmten Anbietern auf eine kommerzielle Nutzung einigen – hier gilt das, was auch bei jedem anderen Werk gilt: Nachfragen bei Unklarheiten.

Im journalistischen Umfeld höre ich oft die Befürchtung, Creative Commons könnten den Wert journalistischer Arbeit herabsetzen – nämlich dann, wenn aus journalistischen Texten weitere Werke entstehen, die journalistischen Ansprüchen nicht genügen. Mit dieser Angst ist nicht einfach umzugehen – ein Ansatz könnte sein, die Frage von der anderen Seite anzugehen. Ein Beispiel dazu: Wie viele Bildkritiken gibt es in den Medien zu lesen? Meistens sind es nicht viele. Ich finde das seltsam: Wir beschäftigen uns immer wieder mit tendenziöser Berichterstattung und kritisieren derart unsaubere Arbeit. Doch auch Bilder können tendenziös sein. Sie können über bildliche Gestaltungsmittel eine Deutung nahelegen, die nicht den Tatsachen entspricht. Ebenso nimmt die Auswahl der Bilder und deren Ausschnitt Einfluss auf die Deutung – was gezeigt wird, besonders aber auch was eben nicht gezeigt wird. Ich habe den Eindruck, dass diese Aspekte selten aufgegriffen werden in der journalistischen Arbeit. Und ich glaube, einer der Gründe liegt in der schwierigen Auslegung des Zitatrechts auf Bilder – Udo Vetter hat in seinem Vortrag auf der re:publica darauf hingewiesen, wie schwierig das Zitieren von Bildern ist, obwohl es eigentlich rechtlich zulässig ist, wenn man sich inhaltlich mit Bildern auseinandersetzt. Creative Commons sind also ein Weg, uns die Auseinandersetzung mit den Werken anderer zu vereinfachen und wichtige journalistische Formen zu ermöglichen, die sonst allzu leicht unter den Tisch fallen. Und damit sind die Chancen, die Creative Commons dem Journalismus öffnen, um ein Vielfaches höher als die Risiken.

Eine andere Angst hört sich meistens so an: „Warum sollte ich CC verwenden, wenn jeder weiß Gott was mit meiner Arbeit machen darf?“ Die fand ich immer schwer zu beruhigen. Zunächst ist, wie schon erwähnt, über drei Parameter eine bemerkenswert gute Steuerung möglich, in welchem Umfeld Werke eingesetzt werden können. Zudem setzen sich Creative Commons nicht über andere Rechte hinweg: Selbstverständlich darf auch mit einer CC-lizensierten Arbeit niemand verleumdet werden. Außerdem kann ich sowieso nicht kontrollieren, was andere Menschen mit meiner Arbeit anfangen, wenn ich sie veröffentlicht habe. Ob sie meine Ansichten teilen, meine Texte ausdrucken und verbrennen, mein Blog aus dem Feedreader werfen: All das liegt nicht in meiner Hand. Aber ich finde es gut, ihnen die Chance zu geben, sich damit auseinanderzusetzen – denn dann besteht wenigstens die Möglichkeit, mit ihnen in einen Dialog zu treten. Creative Commons haben also nichts mit Diebstahl zu tun: Weder sind meine Werke von dort verschwunden, wo ich sie eingestellt habe, noch gibt sie irgendjemand anderes als seine eigenen aus. Creative Commons sind vielmehr eine gesellschaftliche (und journalistische) Vision, wie Wissensaustausch geregelt werden kann.

Manchmal ist für diese Vision aber auch grundsätzliche Überzeugungsarbeit notwendig. Ideen sind nicht wie Äpfel. Wenn ich einen Apfel habe und du ebenfalls einen Apfel hast, und wir diese Äpfel tauschen, dann hat jeder am Ende einen Apfel – im besten Fall einen vergleichbaren. Leider ist es aber meistens so, dass einer der Äpfel kleiner, weniger lecker oder etwas weniger frisch ist. Ganz anders bei Ideen und Wissen: Wenn ich eine Idee habe und du ebenfalls eine Idee, und wir die Ideen austauschen, dann hat im schlechtesten Fall jeder von uns zwei Ideen. Meistens ist es aber so, dass aus zwei Ideen drei Ideen werden – weil sie sich gegenseitig befruchten. Creative Commons ist der Versuch, diesen Ideenaustausch zu vereinfachen.

Über den Autor:

 

ist Medienwissenschaftler und beobachtet als Autor („Grundkurs Gutes Webdesign“) und Berater den digitalen Wandel. Seine Themenschwerpunkte sind User Experience, anwenderfreundliches Design und digitale Strategien. Er schreibt regelmäßig für Fachmedien wie das t3n Magazin, die Netzpiloten oder Screenguide.

Bildnachweis: „My CC stickers have arrived!!!“ von Laihiu (CC BY),  „Banjo Libre“ von andyket (CC BY)

Junger Jobtimismus

So kritisch die Lage im europäischen Ausland auch sein mag, die deutschen Arbeitnehmer vertrauen auf den stabilen deutschen Arbeitsmarkt. 58,3 Prozent der Arbeitnehmer schätzen ihre Chancen bei der Bewerbung auf einen neuen Job als gut oder sehr
gut ein.

Das sind deutlich mehr als 2014. Zwischen den Generationen zeigen sich erhebliche Unterschiede bei der Einschätzung der eigenen Möglichkeiten. Während die meisten Jungen hoffungsvoll in die Zukunft blicken, sehen viele Ältere sich eher auf der Ersatzbank als auf dem Transfermarkt. Dabei deuten die Prognosen der Bundesagentur für Arbeit auf gute Karrierechancen für alle hin. Die sozialversicherungspflichtige Beschäftigung wird wohl weiter wachsen. Das ist auch ein Verdienst der Zeitarbeit, die weiterhin viele attraktive Stellen zuvergeben hat.

Stabiler Arbeitsmarkt, wachsender Optimismus

Unbeeindruckt von der Schuldenkrise Griechenlands blicken die deutschen Arbeitnehmer optimistisch in die Zukunft. 58,3 Prozent der Arbeitnehmer schätzen ihre Chancen in Deutschland einen neuen Job zu finden gut oder sehr gut ein, so das Ergebnis der Orizon Arbeitsmarktstudie 2015 mit über 2.000 Befragten. Im Vorjahr waren die Optimisten mit nur 46,6 Prozent noch in der Unterzahl.

„Die außenwirtschaftliche Lage ist durchwachsen. Sie konnte in den letzten Monaten und Jahren das Wachstum von Realwirtschaft und Beschäftigung in Deutschland aber nicht aufhalten. Die Arbeitnehmer vertrauen zunehmend in die Stabilität des deutschen Arbeitsmarktes“, deutet Dr. Dieter Traub, Geschäftsführer der Orizon GmbH, die Zahlen.

Halbstarke Hoffnung, silberhaarige Skepsis

Die 18- und 19- Jährigen schätzten nach der Orizon Arbeitsmarktstudie 2015 ihre Jobchancen wesentlich besser ein als die älteren Jahrgänge. 86,1 Prozent der Teenager bewerteten ihre Chancen einen Job zu finden mit „gut“ oder „sehr gut“. Mit zunehmendem Alter nimmt die Zuversicht stetig ab. Bei den 60- bis 65-Jährigen waren es gerade einmal 37 Prozent, die gute oder sehr gute Chancen sehen. Dabei haben auch die älteren, arbeitswilligen Arbeitnehmer Grund zum Optimismus.

Qualifikation und Berufserfahrung, von den Arbeitnehmern selbst als die beiden wichtigsten Voraussetzungen für Bewerbungserfolg genannt, besitzen sie in hohem Maße. „Der demographische Wandel spielt allen Arbeitnehmern in die Hände – jung wie alt. Aufgrund des entstehenden Fachkräftemangels können es sich Unternehmen gar nicht mehr leisten, ältere Arbeitnehmer abzuschreiben. Stattdessen setzen sie deren besondere Fähigkeiten in altersgemischten Teams ein. Das zeigt unsere Erfahrung mit hunderten mittelständischen und großen Unternehmen“, berichtet der Personalexperte Traub.

Zeitarbeit ist Teil der Erfolgsstory

Laut dem Stellenindex der Bundesagentur für Arbeit (BA-X) ist die Anzahl der offen gemeldeten Stellen weiter gestiegen. Der Arbeitsmarkt wird voraussichtlich also weiter gute Chancen auf einen neuen Job bieten. Etwa ein Drittel der offenen Stellen kommt aus der Zeitarbeit. „
Wir suchen gute Leute und können auch gute Stellen bieten“, stellt Traub fest. „Die Zeitarbeit wird gerne ins Abseits gestellt. Es ist an der Zeit anzuerkennen, dass wir mit gut bezahlten, sozialversicherungspflichtigen und meist auch unbefristeten Stellen einen qualitativen Beitrag zur Erfolgsgeschichte des deutschen Arbeitsmarktes geleistet haben.“

Weitere Informationen unter:
www.orizon.de

Bildquelle / Lizenz: Flickr.com / 드림포유; veröffentlicht unter: https://creativecommons.org/licenses/by-nd/2.0/

Von Nachfrage und Kandidatenmangel

Nachdem die Zahl der durchschnittlich beschäftigten Zeitarbeitnehmer zwei Jahre in Folge rückläufig war, geht das Marktforschungs- und Beratungsunternehmen Lünendonk, Kaufbeuren, von einer leichten Zunahme um 2,6 Prozent in 2014 aus. „Die Größenordnung von 860.000 Zeitarbeitnehmern kann aus der Marktperspektive als „Mindest-Flexibilisierungsbedarf an Arbeitnehmerüberlassung“ bezeichnet werden“, verdeutlicht Hartmut Lüerßen, Partner von Lünendonk, die Entwicklung der vergangenen Jahre. In diesem Zusammenhang erwarten die von Lünendonk analysierten Zeitarbeits- und Personaldienstleistungs-Unternehmen in Deutschland im laufenden Geschäftsjahr 2015 ein durchschnittliches Marktwachstum von 2,7 Prozent. Die aktuelle Lünendonk®-Studie 2015 „Zeitarbeits- und Personaldienstleistungs-Unternehmen in Deutschland“ ist ab sofort verfügbar.

Besonders gesuchte Qualifikationen

Auf die Frage, welche Qualifikationen im Frühjahr 2015 besonders stark von Kundenunternehmen angefragt wurden, zeigt die Marktanalyse eine Verschiebung der Nachfragesituation zu den Ergebnissen aus dem Vorjahr. Während im deutschen Markt weiterhin „Fachkräfte/Techniker“ sehr stark gesucht werden, steht in diesem Jahr „kaufmännisches Personal“ an zweiter Stelle der Kundenwünsche. Des Weiteren liegt der Bedarf an temporär eingesetzten „IT-Fachkräften“ wie auch im Vorjahr auf Rang drei der besonders nachgefragten Qualifikationen. Eine rückläufige Nachfragesituation konnte Lünendonk bei den „Ingenieuren“ feststellen. „Hier muss aber differenziert werden, ob Kunden eher bei den Technologie-Beratungs- und Engineering-Service-Unternehmen anfragen oder tatsächlich die Nachfrage rückläufig ist“, erläutert Ali Deveci, Analyst bei Lünendonk.

Ausblick 2016

Die Herausforderungen im Markt spiegeln sich auch in den Prognosen der teilnehmenden Zeitarbeits- und Personaldienstleistungs-Unternehmen wider. Für das Jahr 2016 erwarten die befragten Unternehmen einen Zuwachs des Zeitarbeitsmarktes von 2,7 Prozent und damit eine Seitwärtsbewegung wie im Jahr 2015. „Die zurückhaltenden Erwartungen haben vor allem mit dem Kandidatenmangel und den ungeklärten Regulierungsvorhaben der Großen Koalition zu tun“, erläutert Hartmut Lüerßen. Aktuellen Medienberichten zufolge hält das Arbeitsministerium für tarifgebundene Unternehmen auch längere Einsatzzeiten als die geforderte Höchstüberlassungsdauer von 18 Monaten für möglich.

Weitere Informationen unter:
www.luenendonk.de

Franchising: Innovativ und kreativ

Karriere und Beruf: Fach- und Führungskräfte nutzen Franchise-Systeme als Karriereleiter.

Die Franchise-Wirtschaft entwickelt sich kontinuierlich weiter – hierzulande sowie im Ausland. Grundlage dafür ist die Franchise-Partnerschaft welche die Grundprinzipien von Produktivitätssteigerung durch Arbeitsteilung und Spezialisierung gewährleistet. Die TREND REPORT-Redaktion zeigt auf, wie Synergien der Franchiseparteien zu nachhaltigem Erfolg führen. Wir stellen Franchise-Systeme vor, die partnerschaftlich weiterentwickelt werden und die den Wissenstransfer gewährleisten, um das Netzwerk mit selbstständigen Partnern vor Ort auf- und auszubauen. Im Kontext unserer Titelstory „Creative Companies“ ziehen wir Parallelen zur Franchisebranche. In Form von Fallbeispielen und

Interviews zeigen wir auf, wie Kreativität und Innovationen der Branche neue Wachstumschancen generieren.

Themen und Inhalte:

Der eigene Chef sein
Berufliche Karriere und Anerkennung.

Herausforderung
Franchisenehmer begeistern und gewinnen

Finanzierung für Gründer
Kapital für Gründung und Expansion.

Internationalisierung
Franchisesysteme auf dem Sprung ins Ausland.

Neue Gründerkultur
Entwicklungsland Deutschland

Kreative Geschäftsideen
Neue Systeme stellen sich vor.

Franchisenehmer berichten
Fallbeispiele erfolgreicher Partnerschaften

Expansion mit Franchising
Vertriebssystem mit Zukunft

Hier können Sie das aktuelle Themenexposee als PDF herunterladen

Hier geht es zu unseren Mediadaten

Bildquelle / Lizenz: U.S. Navy photo by Kristopher Radder/Released

 

HR-Evolution: Mitarbeiter im Fokus

Digitalisierung, Mobilisierung und ein neues Kommunikationsverhalten: wie Unternehmen im Kampf um die besten Talente mit innovativen Lösungen den Wandel gestalten.

Im Zuge einer zunehmenden Digitalisierung und Vernetzung erleben wir derzeit einen Paradigmenwechsel in der Arbeitswelt. HR-Verantwort-liche müssen die aktuellen Trends verstehen und adaptieren um aktiv gute Arbeitsbedingungen zu generieren. Dazu müssen sie neue Wege gehen: flexible Workspaces, Incentives und Weiterbildung, Innovationskultur und transparente Wertvorstellungen, demokratische Unternehmensführung und flexible Arbeitszeitmodelle sind Rezepte für die „Arbeitswelt 4.0“.

Im Kontext des Titelthemas „Die vernetzte Gesellschaft“ hat die Redaktion den „Human Resources“ mit einer eigenständigen Reportage Raum gegeben. Mit Fallbei-spielen, Interviews und Gastbeiträgen zeigt die Redaktion die neuen Wege der Arbeitswelt im Wandel.

TREND REPORT ist die neue Wirtschaftzeitung, die aktuelle und zukünftige Trends zum Thema macht. Wir suchen nach neuen Anzeichen, die Wendepunkte im Zeitgeist markieren und wir verstehen uns als Partner der Wirtschaft. TREND REPORT liegt als Beilage der Gesamtauflage des Handelsblattes bei.

Themen und Inhalte

Diversity-Management
Die Vielfalt nutzen

„Arbeiten 4.0“: Workspace der Zukunft
Die digitale, mobile und globale Arbeit prägt Unternehmen, Teams und Mitarbeiter.

Personal Digital
Datenschutz und digitale Transformation meistern

Corporate Health
Die Gesundheit der Mitarbeiter im Blick.

Social Media
Kommunikation und Recruiting in der digitalen, vernetzten Gesellschaft.

Innovationskultur
Game-Based-Learning, Wisdom of the Crowd

Wettbewerbsvorteil Mitarbeiter
Individuell dem Fachkräftemangel begegnen

Absicherung und Anreiz
BU, bAV, Weiterbildung, Incentives & Co.: die richtigen Instrumente zur Fachkräftebindung.

Hier können Sie das vollständige Themenexposée „HR-Evolution: Mitarbeiter im Fokus“ herunterladen

Hier geht es zu unseren Mediadaten

Studie: Wettbewerbsfaktor Analytics

90 Prozent der Industrieunternehmen in Deutschland, Österreich und der Schweiz (DACH) nutzen noch immer weniger als die Hälfte ihrer Daten. Das ist eine Erkenntnis der Studie „Wettbewerbsfaktor Analytics 2015“. Die von der Universität Potsdam in Zusammenarbeit mit dem Softwarehersteller SAS durchgeführte Untersuchung erhebt den analytischen Reifegrad von Unternehmen der DACH-Region. Erste Erkenntnisse zur Fertigungsindustrie wurden am 9. Juni auf dem SAS Forum in Bochum von Professor Norbert Gronau, Universität Potsdam, vorgestellt. Quintessenz: Ein Großteil der Firmen verdrängt das Thema und riskiert damit die eigene Zukunftsfähigkeit.

Stand der Dinge: Big Data Analytics in der Industrie

34 Prozent der befragten Unternehmen nutzen analytische Systeme in der Produktion. In der Logistik sind es sogar 40 Prozent. Das Qualitätsmanagement (QM) fällt im Vergleich mit 20 Prozent ab. Die Studie konstatiert, dass ein Zuwachs der Bedeutung von Analytics insbesondere in den Bereichen Logistik und QM zu erwarten ist – weil hier interdisziplinäre Faktoren am stärksten wirken. Zwar sehen knapp 35 Prozent der Unternehmen das größte Potenzial für Industrie 4.0 im Bereich Produktionsplanung und Steuerung. Faktisch ergeben sich die größten Möglichkeiten dieser technisch-logistischen Revolution jedoch aus der Verknüpfung der Fertigung mit vor- oder nachgelagerten „Smart Objects“, die auch außerhalb des Unternehmens liegen können. Das ist echte digitale Transformation – und hier sollten Unternehmen aktuell ansetzen und schnell Projekte starten.

„Wenn ich mir den Zwischenstand unserer Studienergebnisse anschaue, zweifele ich an der Innovationskraft unserer Industrie“, meint Professor Norbert Gronau, Lehrstuhlinhaber für Wirtschaftsinformatik und Direktor des Anwendungszentrums Industrie 4.0 an der Universität Potsdam. „Alle Industriezweige, die heute das Rückgrat der Wirtschaft in der DACH-Region bilden, sind aufgrund herausragender Innovationsleistungen entstanden – und jetzt zögern viele Unternehmen bei der nächsten industriellen Revolution. Ich sehe zwar Fortschritte gegenüber unseren früheren Untersuchungen, gerade im Bereich der Auswertung von Sensor- und Maschinendaten. Dennoch fehlt es ganz deutlich am Willen oder am Bewusstsein für Tempo und Konsequenz.“

„Sicher: Das Gesamtbild hat noch Luft nach oben. Gleichzeitig erleben wir aber in der Zusammenarbeit mit Unternehmen, die das Gebot der Stunde erkannt haben, wie es gehen kann“, erklärt Wolf Lichtenstein, CEO DACH-Region SAS. „Es gibt Innovationsprojekte, die der Branche als Leuchttürme dienen können – davon haben wir nicht zuletzt auf dem SAS Forum in Bochum einige gesehen. Und das Interesse daran ist enorm. Was wir ganz klar beobachten: Die Unternehmen, die jetzt starten oder schon gestartet sind, haben einen erheblichen Vorsprung.“

Zur Studie:
Mit der dritten Auflage der Studie „Wettbewerbsfaktor Analytics“ untersucht ein Team der Universität Potsdam, Lehrstuhl für Wirtschaftsinformatik und Electronic Government, unter der Leitung von Professor Dr. Norbert Gronau, erneut, ob und wie umfangreich Unternehmen im deutschsprachigen Raum Business Analytics bereits einsetzen. Die Studie basiert auf der Grundannahme, dass der analytische Reifegrad eines Unternehmens Rückschlüsse auf dessen Wettbewerbsfähigkeit zulässt. Orientiert an den durchschnittlichen Reifegraden der jeweiligen Branche können Unternehmen leicht ablesen, wo sie selbst stehen, und welche Wettbewerbsvorteile sich durch einen Ausbau der analytischen Kompetenzen erschließen lassen. Flankierend zu den neuen Studienergebnissen hat die Universität eine „Checkliste“ veröffentlicht. Diese dient als Self-Assessment für die Beurteilung des unternehmenseigenen analytischen Reifegrades.

Weitere Informationen unter:
www.sas.com

Bildquelle / Lizenz: Flickr.com / Yuri Samoilov; veröffentlicht unter https://creativecommons.org/licenses/by/2.0/

Open-Access-Tage 2015 (Zürich)

Die 9. Open-Access-Tage finden am 7.-8. September 2015 in Zürich statt. Gastgeberin ist die Hauptbibliothek der Universität Zürich.

Die Veranstaltung richtet sich in erster Linie an ExpertInnen aus dem Open-Access-Bereich aus Deutschland, Österreich und der Schweiz, an WissenschaftlerInnen aller Fachrichtungen, VerlagsvertreterInnen und UnterstützerInnen des wissenschaftlichen Forschungs- und Kommunikationsprozesses an Bibliotheken sowie in Forschungsinstituten und Fördereinrichtungen.

Die Veranstaltungen erstrecken sich über eine breite Palette aktueller Themen, die derzeit die Diskussion bestimmen. Zu den Schwerpunkten gehören in diesem Jahr unter anderem die Beschäftigung mit Forschungsdaten, die Gründung von Open-Access-Zeitschriften, Open Access an Fachhochschulen, die Finanzierung von Open Access sowie die Veränderungen der wissenschaftlichen Kommunikation durch Open Access.

Spannende Einblicke sind bereits am Vortag der Konferenz (Sonntag, 6. September) zu erwarten. Im Rahmen der Scientifica werden Experten auf dem Podium über den gesellschaftlichen Nutzen diskutieren, der aus dem freien Zugang zu wissenschaftlichen Publikationen und Forschungsdaten resultiert.
http://www.scientifica.ch/scientifica-2015/

Call for Papers

Call for Posters

Programm

Übersicht über das Programm

Anmeldung

Bis 15. August anmelden!

Veranstaltungsort

Hotels/Unterkünfte

Hotelzimmer buchen

Teilnehmer/innen

Teilnehmerliste (Stand: 17.7.2015)

Ein Ja zu Open Data

Rund zwei Millionen Fotografien und andere Bilddokumente umfasst das Bildarchiv der ETH-Bibliothek. Davon können jetzt rund 250.000 Bilder in digitalisierter Form unter Berücksichtigung der unterschiedlichen Nutzungsrechte kostenfrei heruntergeladen werden. Damit positioniert sich die ETH-Bibliothek zugunsten von Open Data.

Überhaupt wird in der Kunst sehr viel mit Digitalisierung experimentiert. Beispielsweise Apps und Audio-Guides Made in School: Es sind die Ergebnisse von handlungsorientierten Unterrichtsmethoden oder Abschlussarbeiten in Zusammenarbeit mit Kultureinrichtungen und sie werden gut angenommen. Spielideen wie das Packen eines virtuellen Tornisters und Texte etwa für den bayerischen Minister Maximilian von Montgelas formulierten Schüler des Chiemgau-Gymnasiums Traunstein für die iPad-App zur bayerischen Landesausstellung „Napoleon und Bayern“. Einen technischen Schritt weiter gehen Schüler der FH Salzburg mit ihrer App für eine Datenbrille. Das digitale Salzburg wird direkt ins Gesichtsfeld eingeblendet. Für alle ohne Datenbrille funktioniert’s auch auf dem Smartphone. Schüler der sechsten Klasse der Johannes-Schule Berlin erarbeiteten in einem Workshop mit Antenna International den Kinderaudioguide zur Kunstausstellung „ImEx“. In Kaiserslautern entwickelten Schüler der zehnten Klasse des Gymnasiums am Rittersberg eine virtuelle Schnitzeljagd mit „Ritter Siegfried“ zu acht Stationen Kaiserslauterer Stadtgeschichte. Dabei scheinen die Kinder und Jugendlichen Spaß an der Produktion zu haben. Sonst wäre es in Brandenburg an der Havel wohl nicht zu dem „Nebenprodukt“, dem Audioguide zur Entdeckung des Doms gekommen.

Und einige vielversprechende Projekte sind noch nicht ganz abgeschlossen, wie die Zusammenarbeit der sechsten Klassen mit dem Fränkischen Freilichtmuseum Fladungen und dem Bayerischen Rundfunk oder die Kooperation des evangelischen Gymnasiums mit dem Museum Neuruppin. Lebendige Geschichten zum Leben auf dem Bauernhof mit authentischen Quellen und Originaltönen sowie interessante Stadtführungen mit Quiz in der Fontanestadt werden wohl erst nach den verdienten Sommerferien allen zur Verfügung stehen.

Weitere Informationen unter:
ba.e-pics.ethz.ch

Bildquelle: ETH-Bibliothek Zürich, Bildarchiv / Fotograf: Schmid, Josef / Com_L16-0145-0106 / CC BY-SA 4.0

Videokonferenz: Vernetzung mit Vorteil

Blue Jeans Network startet nun auf dem deutschsprachigen Markt durch. Der weltweit führende Anbieter von Cloud-basierten Video-Collaboration Services wurde 2009 gegründet. Mit der Lösung können Unternehmen über eine Cloud-basierte Plattform sicher und skalierbar kommunizieren.

„Der digitale Wandel führt zu einem Umbruch im Arbeitsmarkt. Mit Videokonferenzen können zeitliche Engpässe und räumliche Distanzen überbrückt werden. Darüber hinaus  sorgen sie für ein produktives und kosteneffizientes Arbeiten“, erklärt James Campanini, Vice President & General Manager bei Blue Jeans Network. „Bereits viele namhafte Unternehmen vertrauen auf unsere Lösungen – von mittelständischen Unternehmen bis hin zu großen globalen Unternehmen, in allen Branchen und Fachrichtungen.“

Die Videokonferenz-Lösung Blue Jeans ist kompatibel mit allen gängigen Lösungen für Chats und Videogespräche wie Cisco Jabber oder Microsoft Lync. Nutzer können sich einfach und sicher mit PC, mobilen Endgeräten, beliebigen Browsern oder Konferenzsystemen in die Videokonferenz einwählen. Seit einiger Zeit ist Blue Jeans auch auf der Apple Watch verfügbar. Die App informiert und erinnert den Besitzer unter anderem über bevorstehende Konferenz-Termine.

Videokonferenzen bringen einen eindeutigen Mehrwert, denn das Gespräch mit Bild und Ton kommt einem persönlichen Face-to-Face-Termin sehr nahe. Waren aber bislang die Lösungen dafür kostenintensiv und technologisch eher komplex, bietet Blue Jeans Network eine qualitativ hochwertige Lösung ohne technische Hürden.

Die Cloud-basierte Plattform von Blue Jeans hat Video zum Mainstream gemacht und gibt Meinungsführern aus den Bereichen Wirtschaft, Bildung, Entertainment und Medien die Möglichkeit, interaktive Face-to-Face-Meetings abzuhalten. Gerade die Zusammenarbeit globaler Teams wird dadurch um die Komponente Video bereichert.

Weitere Informationen unter:
Blue Jeans Networks

Bildquelle / Lizenz: flickr.com/ Maik Meid; veröffentlicht unter https://creativecommons.org/licenses/by-sa/2.0/

E-Commerce in einer idealen Welt… Teil 2

Klassisches Responsive Web Design ist nicht mehr zeitgemäß

Responsive Web Design bezeichnet ein Konzept, dass die Darstellung von Inhalten einer Webseite abhängig vom Endgerät bzw. Browser anpasst. Dabei werden jedoch alle Inhalte übertragen. Der Browser verarbeitet anschließend die Daten und stellt sie so da, dass die Inhalte auf dem jeweiligen Bildschirm Platz finden. Der Nutzer muss deshalb nicht horizontal scrollen oder wiederholt rein- und rauszoomen.  Dabei werden Bilder vom Browser skaliert, da diese meistens in der Auflösung für Desktop-Rechner bzw. deren Bildschirme ausgeliefert werden. Die Belastung des Browsers mit Verarbeitungs- und Anpassungsprozessen ist der größte Nachteil des responsiven Designs.

Ohne RESS-Server

Ohne RESS Server (oben): Ohne Geräteerkennung ist keine Anpassung an einzelne Geräte möglich.

RESS (Responsive webdesign with server side components)

Bei RESS (Responsive webdesign with server side components) handelt es sich um eine Weiterentwicklung des klassischen Konzeptes für Responsive Webdesign (RWD) hin zu einer RWD-Lösung mit serverseitigen Komponenten.

Jan Webering, Geschäftsführer Sevenval Technologies GmbH

„Am Nutzerverhalten sollte sich die gesamte IT eines Unternehmens orientieren. Wir nennen das ‚vom Front-End aus denken‘.“

Hier werden bestimmte, rechenintensive Prozesse vom Server übernommen und damit der Browser entlastet. Dazu gehören eine Clienterkennung, Aufbereitung und Modifikation von Bildern und die Anpassung der Inhalte. Durch diese serverseitigen Komponenten wird eine Client-Server-Kommunikation abgebildet, welche die spezifischen Eigenschaften des Endgeräts mit Hilfe einer Device-Database ermittelt und mit dem Server austauscht. Somit ist der Server in der Lage die angefragten Inhalte endgerätespezifisch auszuliefern. Frontend- und Backendprozesse können sauber gekapselt werden – wodurch eine kontextabhängige Auslieferung an das Endgerät ermöglicht wird.
Bei der RESS-Architektur wird in der Regel ein Progressive Enhancement-Ansatz gewählt, um eine Basisversion für alle Endgeräte zu definieren. Aufbauend auf dieser Version wird mittels der Device und Feature Detection der Delivery Context ermittelt. Der Delivery Context setzt sich aus den folgenden Parametern zusammen: Hardwarehersteller, Betriebssystem und Browser inkl. der entsprechenden Version. Ausgehend vom jeweiligen Delivery Context kann der Server alle Features für das Endgerät unterstützen.

RESS Chart Illustration B

Mit RESS Server – Inhalte werden endgerätespezifisch ausgeliefert.

Weitere Informationen unter:
www.sevenval.com

Lesen Sie auch:
Das (mobile) Web gehört den Nutzern

Die Sevenval Technologies GmbH ist ein Unternehmen für Mo­bile- und Webtechnologien. Un­­ter der Führung von Jan Webering re­alisierte Sevenval mehr als 2 000 Mobile- und Web-Projekte. Dabei kommt die Software Sevenval FIT als Front-End-Server zum Einsatz.
Kunden sind Großkonzerne wie z. B. Mercedes-Benz, Dou­glas, die Deutsche Post und Bosch.
Gastbeitrag von Jan Webering in TREND REPORT im Juni im HANDELSBLATT: Das (mobile) Web gehört den Nutzern
Bildquelle / Urheber und Lizenz:

Versicherer tun sich schwer mit dem Digitalen Wandel

Die Digitalisierung zwingt Unternehmen aller Branchen und Größen zum Umdenken. Versicherungen gehören zu jenen Unternehmen, deren Geschäftsmodelle von der Digitalisierung am meisten beeinflusst werden. Denn im Umfeld großer Technologiekonzerne und kleiner Start-Ups aus der Fintech-Welle entstehen neue Geschäftsmodelle, die konsequent aus Kundensicht entwickelt werden und auf hohe Aufmerksamkeit stoßen.

Derweil hapert es bei den Traditionsversicherern am Kundenservice. Laut einer im Auftrag des Nachrichtensenders n-tv durchgeführten Erhebung erlauben sich die deutschen Versicherer Schwächen bei der Beantwortung von Kunden E-Mails. Bei Filialversicherern dauert es im Durchschnitt 46 Stunden, bis eine Kundenanfrage beantwortet wird. Dies ist umso erstaunlicher, da auf der anderen Seite etwa die Hälfte der Kunden eine Reaktion auf ihre E-Mail Anfragen innerhalb von 60 Minuten erwarten.

Die Versicherungsbranche tut sich schwer mit der Digitalen Transformation. Zwar erwarten 80 Prozent der jüngst von Accenture befragten Manager in Führungspositionen durch die neuen Technologien einen radikalen Wandel. Doch schon bei der Abwicklung alltäglicher Service-Prozesse wirken Versicherungsunternehmen noch häufig behäbig und starr.

Der Technologieanbieter ITyX hat einen Report veröffentlicht, der einen Blick auf den Digitalisierungsgrad der Versicherungsbranche wirft. Durch die Vernetzung von Versicherungsnehmern, den versicherten Objekten und den verbundenen Service-Prozessen entsteht künftig ein Digitales Ökosystem, das auf Wunsch über jedes mobile Gerät des Kunden gesteuert wird. Unter dem Trendbegriff „Connected Living“ fasst ITyX Haushaltsgeräte, Fahrzeuge und sogenannte „Wearables“ zusammen. „Die Verbindung zu diesen Geräten ermöglicht neue situative Produkte und flexible, verhaltensbasierte Tarife“, erläutert ITyX Marketing-Vorstand Andreas Klug. Klug rät Versicherern dazu, konsequent auf die Verschmelzung sämtlicher Kommunikationskanäle hinzuwirken und in moderne, lernende Systeme zu investieren. „Kundenbeziehungen sind auf dem Weg in die Digitalisierung für alle Finanzdienstleister von zentraler Bedeutung“, so Klug. Für Versicherer werde es in den kommenden 5 Jahren darum gehen, einen Platz auf dem Smartphone ihrer Kunden zu erkämpfen und auf Basis der geteilten Daten individuelle, situative und einfach verständliche Lifestyle-Produkte zu entwickeln.

Weitere Informationen unter:
www.ityx.de

Direkt zum Whitepaper-Download:
www.ityx.de/whitepaper-versicherung/

 

Bildquelle / Lizenz: Flickr.com / Johan Larson; Veröffentlicht unter: https://creativecommons.org/licenses/by/2.0/

Schnelles Internet als Standortfaktor

Längst ist schnelles Internet ein Standortfaktor. Dienste wie Video-Konferenzen, globale Arbeit in Teams aber auch Trendthemen wie Industrie 4.0 oder Vernetzung der Gesellschaft werden durch hohe Up- und Downloadraten überhaupt möglich. Der Marktführer in Deutschland macht sich für Vectoring stark. Dies ist die schnellste Technologie, die für Kupferkabel verfügbar ist. Doch Experten halten dies bestenfalls für eine Übergangstechnologie.

Das wesentlich schnellere und zukunftsträchtigere – aber auch deutlich teurere – Glasfaser hält viel zu selten Einzug. Doch nun teilt die Deutsche Glasfaser mit, dass durch den Einstieg des internationalen Finanzkonzerns KKR wesentlich mehr Menschen als bisher von Glasfasertechnologie profitieren sollen.

Die Deutsche Glasfaser realisiert und betreibt Glasfasernetze für Privathaushalte und Unternehmen, die schnell verlegt und direkt an die Wohnung bzw. die
Geschäftseinheit der Kunden angeschlossen werden können (FTTH, „Fibre to the Home“). Mit dem Fokus auf den ländlichen Raum unterstützt die Deutsche Glasfaser das politische Ziel, das Breitbandnetz in Deutschland flächendeckend auszubauen und die digitale Spaltung zwischen den urbanen Ballungszentren und ländlichen Räumen zu überwinden.
Der bisherige Mehrheitseigner der Deutsche Glasfaser Holding GmbH, der niederländische Glasfaserspezialist Reggeborgh, bestätigt den Einstieg der Finanzgruppe KKR.
„Durch die strategische Partnerschaft von Reggeborgh und KKR werden die idealen Voraussetzungen für das nachhaltige Wachstum der Deutsche Glasfaser
geschaffen. Unser Ziel ist es, Marktführer beim Glasfaser-Ausbau in Deutschland zu werden. Durch zusätzliche Investitionen können wir die steigende Nachfrage nach schnellem Internet künftig noch besser bedienen“, sagte Gerda Johanna Meppelink, Sprecherin von Deutsche Glasfaser.
Weitere Informationen unter:
www.deutsche-glasfaser.de

Industrie 4.0: Deutschland und China kooperieren

Im Rahmen seiner Chinareise hat sich der Bundesminister für Wirtschaft und Energie Sigmar Gabriel heute in Peking mit dem chinesischen Minister für Industrie- und Informationstechnologie MIAO Wei getroffen. Bei dem Treffen ging es um die Themen Innovative Industrien, Digitalisierung und Industrie 4.0 sowie um Kooperationen in der Automobilindustrie.

Im Mittelpunkt der Zusammenkunft stand die Unterzeichnung einer gemeinsamen Absichtserklärung zur Kooperation beider Länder im Bereich Industrie 4.0. Die Absichtserklärung verbindet den Bereich „Industrie 4.0“ des BMWi mit der chinesischen Initiative „Made in China 2025“ und verstärkt damit die Innovationspartnerschaft zwischen beiden Ländern. Als Grundlage der Zusammenarbeit führt die Absichtserklärung unter anderem den effektiven Schutz geistigen Eigentums an. Beide Seiten streben dafür eine Verbesserung des Rechtsrahmens und der Regulierungsinstrumente an.

Konkret wollen beide Ministerien die Zusammenarbeit zwischen deutschen und chinesischen Unternehmen bei der intelligenten Fertigung und der digitalen Vernetzung von Produktionsprozessen politisch flankieren. Geplant ist eine jährliche gemeinsame Tagung und eine Stärkung der Zusammenarbeit zur Erarbeitung harmonisierter Normen. Unternehmen beider Länder sollen darüber hinaus bei möglichen Pilotprojekten sowie bei der Ausbildung und Weiterbildung im Bereich Industrie 4.0 unterstützt werden. Besonderer Fokus liegt bei sämtlichen Maßnahmen auf kleinen und mittleren Unternehmen.

Die Unterzeichnung des Abkommens ist Teil einer zweitägigen Reise des Bundeswirtschaftsministers in China. Sigmar Gabriel wird von einer hochrangigen Wirtschaftsdelegation sowie Mitgliedern des deutschen Bundestags begleitet. Weitere Gespräche fanden bereits mit dem chinesischen Handelsminister GAO Hucheng statt. Gespräche mit XU Shaoshi, dem Vorsitzendem der Entwicklungs- und Reformkommission und mit XI Jingping, dem Staats- und Parteichef, stehen noch auf der Agenda.

Weitere Informationen unter:
www.bmwi.de

Bildquelle: © BMWi/Maurice Weiss

Patent trifft Talent

Bewerbungsrunde für ersten
Gründungswettbewerb „The Venture“ geht in die heiße Phase

Bewerbungen noch bis Mitte August möglich

Bereits mehr als 60 Universitäten und Hochschulen beteiligen sich

Über 60 Teams und Gründer sollen um die besten Geschäftsmodelle antreten Verein Gründungsengel unterstützt neuartigen patentbasierten Business Model Contest

München (07. Juli 2015) Erstmals startet in Deutschland, Österreich und der Schweiz ein Gründungswettbewerb, bei dem die Gründer die Idee nicht mehr selbst ersinnen müssen. Denn: Bei „The Venture“ gibt es ein Dutzend Patente und Technologien, für die Geschäftsmodelle gesucht werden. Bis 15. August können sich Studierende und Interessierte als Einzelkämpfer oder im Team unter www.the­venture.info bewerben. Die Teilnehmer entwickeln anschließend ihre Idee gemeinsam mit einem Mentor über einen Zeitraum von drei Monaten. Der Final Pitch findet Anfang Dezember statt. Zu gewinnen gibt es Sachpreise für eine erfolgreiche Unternehmensgründung. Unterstützt wird das Projekt, das im Namen des Förderkreises Gründungs-Forschung e.V. (FGF) veranstaltet wird, unter anderem von Gründungsengel e.V.

Gründungswillige können ihr Geschäftsmodell basierend auf existierenden Patenten und Technologien aufbauen. Die Schutzrechte reichen von einem Fahrassistenten für Senioren über ein Desinfektionsset für die Chirurgie bis hin zu einer Carsharing API.

„Deutschland zählt weltweit zu den innovativsten Ländern, jedoch bleiben unzählige Patente ungenutzt. Auf der anderen Seite gibt es zahlreiche ambitionierte Unternehmensgründer ohne eigene zündende Idee“, sagt Martin Reichenbach, einer der Projektleiter von „The Venture“.

Steffen Danschacher, Vorstand von Gründungsengel e.V.: „Wir unterstützen den Wettbewerb, weil er die Gründerkultur in Deutschland um einen neuartigen Ansatz erweitert. Unser Ziel ist es, den Gewinnerteams bei den ersten Schritten als Startups mit Expertise in Sachen Marketing, Vertrieb und Wachstum unter die Arme zu greifen und ihnen gegebenenfalls auch juristischen und steuerrechtlichen Support zu geben.“

Weitere Informationen erhalten Gründungswillige auf der Homepage: www.the-venture.info

 

Über den patentbasierten Gründungswettbewerb THE VENTURE

Derzeit unterstützen mehr als 60 Universitäten aus Deutschland, Österreich und der Schweiz den Wettbewerb. So zählen etwa die RWTH Aachen, die Handelshochschule Leipzig, das MCI Innsbruck und die Züricher Hochschule ZHAW zu den unterstützenden Hochschulen. Im Beirat von THE VENTURE sind prominente Persönlichkeiten wie zum Beispiel Prof. Dr. Isabell Welpe, Prof. Dr. Bernd Ebersberger und Jan Fischer. Auch das Venture Capital-Magazin und das bekannte Gründermedium Deutsche Startups unterstützen das Vorhaben. KMUs und Hochschulen haben ein Dutzend Patente und Technologien zur Verfügung gestellt, mithilfe derer Gründungswillige ein Geschäftsmodell für ihre eigene Gründung ausarbeiten können. Veranstaltet wird THE VENTURE im Namen des Förderkreis Gründungs-Forschung e.V. (FGF), der führenden und mitgliedsstärksten wissenschaftlichen Vereinigung für Entrepreneurship, Innovation und Mittelstand im deutschsprachigen Raum.

Internet: www.the-venture.info

Facebook: www.facebook.com/theventurecontest

Twitter:      @TheVentureInfo

Über den Verein Gründungsengel e.V.

Der Gründungsengel e.V. ist ein 2015 gegründeter Verein, der Unternehmer bei ihrer Existenzgründung unterstützt. Dazu stellt der Gründungsengel e.V. ihnen erfahrene Spezialisten an die Seite, die sie in Sachen Finanzierung, Marketing und PR sowie in Rechtsfragen beraten. Das Münchner Team um den Vorsitzenden Steffen Danschacher setzt sich aus Rechtsanwälten, Marketing- und PR-Experten, Grafikern und Textern sowie Spezialisten für Projektmanagement, Crowdinvesting und Social Media zusammen. Durch die Bündelung dieses Expertenwissens kann der Verein Gründern in zahlreichen Anliegen unterstützen und so helfen, Zeit und Geld zu sparen.

Internet: www.gruendungsengel.org

Twitter:      @Gruendungsengel

Pressekontakt PR-Agentur

scrivo PublicRelations GbR Ansprechpartner: Kai Oppel Elvirastraße 4, Rgb.

D-80636 München

Telefon: +49 89 45 23 508 11

Fax:          +49 89 45 23 508 20

E-Mail:       Kai.Oppel@scrivo-pr.de

Internet: www.scrivo-pr.de

Pressekontakt THE VENTURE

Martin Reichenbach

Telefon: +49 89 8004 6560

Mobil:        +49 176 80354738

E-Mail:       martin.reichenbach@the-venture.info

 

Bildquelle / Lizenz: flickr.com / Boegh (Lizenz Creative Commons)

E-Commerce in einer idealen Welt…

In einer idealen E-Commerce-Welt laden Webseiten nicht länger als drei Sekunden.
Warum? Nach diesem Augenblick brechen die ersten Nutzer den Ladevorgang ab und gehen als Käufer verloren. Selbst die Hundert bekanntesten, internationalen E-Commerce-Händler hinken mit einer Ladezeit von 5,2 Sekunden (Median) dem Optimum hinterher. Die Zahl beschreibt die Time-to-interact, also den Zeitpunkt ab dem die Seite auf Nutzer-Eingaben reagiert. Letztes Jahr lag der Wert noch bei 4,9 Sekunden. Der Grund für das schlechtere Ergebnis: Die Webseitenbetreiber sehen Performance-Optimierung durchaus als Priorität, müssen aber gleichzeitig der Erwartungshaltung der Nutzer gerecht werden. Diese erwarten multimediale und vor allem personalisierte Inhalte. Bilder und Videos verursachen den Großteil des Traffic Volumens, aber auch dynamische Inhalte, die sich an den Nutzer anpassen, verlängern die Ladezeiten von Webseiten. Zunehmend mehr Plattformen, Tools, Datenbanken und Drittanbieter müssen eingebunden werden, um ein zeitgemäßes Online-Shopping-Erlebnis zu ermöglichen.

Dabei gehören schnelle Ladezeiten schon jetzt zu den Ranking-Faktoren bei Google, die meisten Experten gehen davon aus, dass die Performance in Zukunft stärker gewichtet wird. Dann nämlich, wenn ein Großteil der Webseitenanbieter die „mobile friendly“-Kriterien von Google erfüllt. Performance Optimierung ist also auch Search Engine Optimization.

Um die aktuelle Entwicklung der Webtechnologie anschaulich zu machen, starten wir eine Serie, die die wichtigsten Begriffen der Branche für Nicht-Techniker erklärt. Das wichtigste zuerst: Web Performance und Web Performance Optimization.

Jan Webering, Geschäftsführer Sevenval Technologies GmbH

„Bereits jetzt zählt die Web-Performance zu den wichtigsten Ranking-Faktoren bei Suchmaschinen.“

Web Performance

Mit Web Performance wird die Ladezeit einer Webseite umschrieben.
Es wird zwischen dem ersten Ladevorgang (Initial pageload), dem Zeitpunkt an dem Nutzeraktionen möglich sind (Time-to-interact) und dem vollständigen Laden der Webseite (Document complete) unterschieden. Die Ladezeit wird von vielen Faktoren beeinflusst. Dazu gehören natürlich die Netzwerkverbindung, die Geräteklasse (aktuell Desktop-PC, Smartphone oder Tablet), der Browser und das Betriebssystem. Auch die Reihenfolge in der Inhalte geladen werden, die Verarbeitung von Bildern und wie Elemente von Drittanbietern eingebunden werden (zum Beispiel Tracking Pixel oder Shop-Widgets), haben Auswirkungen auf die Ladezeiten. Performance hat sich daher als Begriff etabliert, wenn man übergeordnet die Leistungsfähigkeit einer Webseite als Summe aller Faktoren beschreiben möchte. Dabei geht es nicht nur um die Übertragungsgeschwindigkeit von Daten, sondern auch darum, wie schnell diese vom Browser des Clients verarbeitet und dargestellt werden können.

Performance spielt hauptsächlich bei der mobilen Internetnutzung eine Rolle. Bei vergleichsweise langsamen mobilen Verbindungen und relativ schwachen Clients (CPU von Smartphones im Vergleich zum Desktop-Rechner), führen schlecht programmierte Webangebote schnell zu inakzeptablen Ladezeiten, weshalb sich die Web Performance Optimization (oder Front-End-Optimization) zu einem Betätigungsfeld für Programmierer entwickelt hat. Für E-Commerce-Anbieter sind die Konsequenzen am deutlichsten: Gemäß einer In-House-Studie von Walmart führt eine Verkürzung der Ladezeit von einer Sekunde zu einer 2% höheren Conversion Rate und zu 1% mehr Umsatz.

Web Performance Optimization (auch Front End Optimization)

Unter dem Begriff Web Performance Optimization (WPO) werden alle Maßnahmen gebündelt, die zur Verbesserung der Performance einer Webseite beitragen. Im Wesentlichen geht es um die Verkürzung der Ladezeiten. Dabei spielt die Datenübertragung die größte Rolle: Webseiten werden so optimiert, dass sie nur noch die für das jeweilige Gerät passenden Daten senden.
Die server-seitige Skalierung von Bildern ist dabei das anschaulichste Beispiel. Ohne WPO-Maßnahmen wird immer ein großes Bild ausgeliefert, das für Desktop-Monitore die richtige Auflösung bietet. Wird die Webseite mit einem Smartphone aufgerufen, wird zunächst das große Bild gesendet und dann der Browser des Geräts mit der jeweiligen Skalierung belastet. WPO bedeutet hierbei, dass der Server in die Lage versetzt wird, zu erkennen welches Gerät anfragt, um anschließend ein bereits passend skaliertes Bild auszuliefern. Sowohl das Datenvolumen als auch die Belastung des Browers werden verringert.
Weitere WPO-Maßnahmen sind die Verbesserung von HTML und CSS Dateien (Stichwort Minifying), die Reduzierung von Requests zwischen Client und Server und das Management der Render Queue.
Zusammengefasst hat WPO zum Ziel, die Bereitstellungsfähigkeit des Clients zu erhöhen. Je schneller der Browser in der Lage ist eine Seite darzustellen und auf Nutzer-Eingaben zu reagieren, desto erfolgreicher waren die WPO-Maßnahmen.

Weitere Informationen unter:
www.sevenval.com

Lesen Sie auch:
Das (mobile) Web gehört den Nutzern

 

Die Sevenval Technologies GmbH ist ein Unternehmen für Mo­bile- und Webtechnologien. Un­­ter der Führung von Jan Webering re­alisierte Sevenval mehr als 2 000 Mobile- und Web-Projekte. Dabei kommt die Software Sevenval FIT als Front-End-Server zum Einsatz.
Kunden sind Großkonzerne wie z. B. Mercedes-Benz, Dou­glas, die Deutsche Post und Bosch.

 

Teil 2 der Serie: E-Commerce in einer idealen Welt – Teil 2
Teil 3 der Serie: E-Commerce in einer idealen Welt – Teil 3

Gastbeitrag von Jan Webering in TREND REPORT im Juni im HANDELSBLATT: Das (mobile) Web gehört den Nutzern

Bildquelle / Urheber und Lizenz: