Handbuch Studienerfolg

30. Juli 2015

Wie können Hochschulen Studierende erfolgreich zum Abschluss führen? Das Handbuch Studienerfolg, das der Stifterverband heute veröffentlicht, stellt Konzepte vor, wie dies gelingen kann.

Von 100 Studierenden verlassen 28 ihre Hochschule ohne Abschluss. Für alle, die sich überlegen, wie die hohe Zahl der Studienabbrecher gesenkt werden kann und sich im Hochschulalltag für den Studienerfolg einsetzen, soll das Handbuch Studienerfolg eine praxisnahe Hilfestellung sein.

Das Handbuch beschreibt in einem Instrumentenkasten Strategien und Maßnahmen, die an einzelnen Hochschulen bereits heute wirkungsvoll umgesetzt werden. Ob durch eine innovative Studieneingangsphase oder eine intensivere Beratung und Betreuung der Studierenden, ob durch eine neue Prüfungspraxis oder wie mit neuen E-Learning-Strategien Wissen besser vermittelt werden kann – es gibt viele einzelne Konzepte, wie Hochschulen versuchen, ihre Studienabbruchquote zu senken. In dem Handbuch Studienerfolg haben die Autoren erfolgreiche Konzepte zusammengeführt und herausragende Initiativen vorgestellt, die zur Verbesserung des Studienerfolgs dienen.

„Es ist die Kernaufgabe aller Hochschulen, Studienanfänger so zu begleiten, dass so viele wie möglich ihr Studium auch erfolgreich beenden“, sagt Volker Meyer-Guckel, stellvertretender Generalsekretär des Stifterverbandes für die Deutsche Wissenschaft. „Wenn die Hochschulen dafür von der Politik Anreize bekommen, hilft das auch. Ein gutes Beispiel ist die Einführung der Erfolgsprämie für jeden Hochschulabsolventen in Nordrhein-Westfalen.“

Das Handbuch ist das Ergebnis des Qualitätszirkels Studienerfolg, mit dem der Stifterverband sechs Hochschulen bei der Umsetzung ihrer Strategien für mehr Studienerfolg in den letzten zwei Jahren begleitet hat.

http://stifterverband.info/presse/pressemitteilungen/2015_07_30_handbuch_studienerfolg/index.html

Keine Angst vor Big Data

Die Digitalisierung lässt enorme Datenmengen entstehen. Schnell entsteht in den  Unternehmen ein wahrer „Goldschatz“ an Daten. Sie stammen aus Geschäftsprozessen, Kundenkommunikation, Social Media & Co. Das Gold darin kann aber nur bergen, wer in den Daten tief genug graben und die richtigen Fragen zur Analyse stellen kann. Das setzt natürlich auch die richtigen „Grabwerkzeuge“ voraus. Die TREND REPORT-Redaktion sprach mit Lenley Hensarling, Vice President of Product Management and Strategy bei EnterpriseDB zu eben genau jenen Werkzeugen und dem Einsatz von Open-Source-Software (OSS) in den Unternehmen.

In einer vernetzten Gesellschaft werden Informationen und damit Daten immer wichtiger für Unternehmen jeglicher Art. Vor allem in Großunternehmen bewirkt dies explodierende Kosten für die Infrastruktur und Technologie des Rechenzentrums, um die Wettbewerbsfähigkeit auf dem Markt zu beizubehalten. Der verstärkte Einsatz von Open-Source-basierte Alternativen in Unternehmen scheint ein Silberstreif am Horizont zu sein – aber es gibt immer noch Bedenken hinsichtlich ihrer Sicherheit, Robustheit und Leistung. Wie bewerten Sie die Situation?
Diese Bedenken sind Reste einer überkommenen Denkweise. Open-Source-Software (OSS) ist in den letzten Jahren stark gereift, um die Bedürfnisse der Anwender befriedigen und Herausforderungen auf Unternehmensebene meistern zu können. Dies gilt insbesondere für Datenbanken, wie ein aktueller Gartner Report zum Stand relationaler Datenbankmanagementsysteme (RDBMS)* zeigt. Im Laufe der letzten fünf Jahre haben sich OS RDBMS weiterentwickelt, um dieselben Funktionalitäten wie traditionelle, kommerzielle DBMS zu bieten – zu einem Bruchteil der Kosten. Außerdem sagt der Report voraus, dass dieser Trend weitergehen wird und bis zum Jahr 2018 der Gesamtanteil von OSS  Inhouse-Anwendungen bei 70 Prozent liegen wird. Zusätzlich integrieren Anbieter wie EDB ein Plus an Leistung und Sicherheit sowie Kompatibilitäts-Erweiterungen in die zugrunde liegende Open-Source-Datenbank – in diesem Fall PostgreSQL – um die Anforderungen von Großunternehmen vollends zu erfüllen.

Um etliche Bedenken von CIOs bezüglich des Datenbankwechsels aus der Welt zu schaffen, sollten sie OSS anfangs für nicht geschäftskritische Anwendungen einsetzen, dann die Leistung der neuen Lösung bewerten und sich mit den Funktionen vertraut machen. Letztlich können die OSS-Lösungen neben den traditionellen eingesetzt werden, um die richtige Lösung für die Anforderungen jedes einzelnen Workloads zu haben. Die Migration von Workloads zu OSS befreit Budget für Transformationsinitiativen, die das Geschäft wirklich vorantreiben.

EntpriseDB; Einschätzung Reifegrad Open Source Datenbank Management Systeme

Bewertung des Reifegrads relationaler Open-Source DBMS, 2009*

EntpriseDB; Einschätzung Reifegrad Open Source Datenbank Management Systeme

Bewertung des Reifegrads relationaler Open-Source DBMS, 2015*

Es gibt also großes Potenzial für Kosteneinsparungen durch die Implementierung von OSS im Unternehmen. Wie kann dies in der Praxis umgesetzt werden?
Zu aller erst müssen IT- und Finanzabteilungen eng zusammenarbeiten. Der CFO und CTO/CIO müssen gemeinsam die Bereiche identifizieren, in denen die IT Teile der Infrastruktur migrieren kann, um Budget frei zu machen, dass der CFO dann in teure, aber notwendige strategische geschäftskritische Initiativen umleiten kann. Die Komponenten des IT-Stack, die mittlerweile zur Commodity geworden sind – Virtuelle Maschinen, Betriebssysteme, Middleware und Datenbanken –, eignen sich am besten für die Migration auf OSS-Alternativen, damit Kapital frei wird für Investitionen in Analytik, Anwendungen und mehr. Da die Datenbank in der vernetzten Welt immer größere Bedeutung erhält, verschlingen ihr ständiger Ausbau sowie zeit- und ressourcenaufwändige Wartung immer größere Teile des IT-Budgets.

Die Angst davor, die gesamte IT-Infrastruktur durch den Austausch eines so grundlegenden Teils wie der Datenbank zu erschüttern, kann durch Kompatibilitäts-Features beschwichtigt werden, die einige OSS-Lösungen anbieten. EDB hat beispielsweise für seine Postgres-Datenbank Kompatibilität für Oracle entwickelt – eines der meistverwendeten traditionellen DBMS – so dass viele Anwendungen sich nahtlos in die OSS-Lösung migrieren lassen und Entwickler ihre bestehenden Skillsets weiter nutzen können ohne dass Investitionen in teure Schulungen oder Personalveränderungen nötig werden. Abschließend ist es ratsam, wie oben erwähnt, nicht-unternehmenskritische Anwendungen zuerst zu migrieren, um ein Gefühl für die neue Umgebung zu erhalten, und dann zu unternehmenskritischen Anwendungen überzugehen, um das volle Potential für Kosteneinsparungen zu nutzen.

12303879306_a683d3f195_z

Strukturierte Daten werden auch in Zukunft von relationalen Datenbanken gespeichert werden. Das reine NoSQL-Lösungen sich als Alternative zur Aufbewahrung strukturierter Daten entwickeln, kann sich Lensay Hensarling aufgrund des Designs von NoSQL nur schwer vorstellen. Andersrum passiert dies aber gerade: relationale Datenbanken entwickeln Datentypen zum Aufbewahren unstrukturierter Daten.

NoSQL-Lösungen werden für den nächsten Schritt nach SQL und relationalen DBMS gehalten und damit die Wegbereiter für das Geschäft in der vernetzten Welt des Internet der Dinge und Big Data. Doch relationale Datenbanken sind immer noch weit verbreitet in Gebrauch. Wie kommt das?
Reine NoSQL-Lösungen sind aus High-Volume-Umgebungen mit neuen Arten von Daten, wie Social Media und Web-basierte Anwendungen, hervorgegangen. Sie tun sich beim Speichern großer Mengen unstrukturierter Daten hervor und spielen eine entscheidende Rolle dabei, die Herausforderungen zu meistern, vor die Big Data und das Internet der Dinge Unternehmen stellen werden. Jedoch haben die meisten von ihnen sehr vereinfachte Funktionen wenn es darum geht, mit den Daten tatsächlich etwas zu tun. Bei solchen Lösungen wird die eigentliche Datenverarbeitung in die Anwendung verschoben, so dass die Entwicklung von Applikationen sehr viel komplexer ausfällt. Weiterhin fehlt typischen NoSQL-Lösungen die Konformität mit den sogenannten ACID –Eigenschaften (Unteilbarkeit, Konsistenz, Isolation, Dauerhaftigkeit) für verlässliche Verarbeitungsschritte im DBMS, so dass es keine absolute Garantie gibt, dass Transaktionen in der Datenbank sicher verarbeitet werden. Um dennoch ACID-Konformität zu erreichen, muss in den Anwendungen immer und immer wieder sehr komplexer Code geschrieben werden. Auf der anderen Seite wurden relationale DBMS von Anfang an entwickelt, um die ACID-Eigenschaften stets zu erfüllen, so dass sie sehr zuverlässig und robust funktionieren und mit in ihnen gespeicherten strukturierten Daten auf eine sehr detaillierten Ebene gearbeitet werden kann. Darüber hinaus ermöglicht der relationale Charakter dieser DBMS einen umfassenden Überblick über alle gespeicherten Daten und wie sie mit anderen Unternehmensdaten in Beziehung stehen.

Traditionelle geschäftskritische Daten für Budgetierung, Prognose usw. sind und bleiben wichtig für Unternehmen – auch in der kommenden vernetzten Welt des Internet der Dinge und von Big Data. Finanzdaten sind primär strukturierte Daten und müssen zuverlässig, modifizierbar und sicher gespeichert werden, wodurch die relationale Datenbank das Rückgrat des Unternehmens bleiben wird.

NoSQL- und relationale Lösungen sind also beide von entscheidender Bedeutung für verschiedene Aufgaben im Unternehmen. Heißt das, Unternehmen sollten viele verschiedene spezialisierte Anwendungen benutzen?
Unternehmen sollten die Lösung verwenden, die für die anstehenden Aufgaben am besten geeignet ist, und das bedeutet, sich intensiv mit neuen Optionen zu befassen, um deren tatsächliche Möglichkeiten zu ermitteln, und nicht nur blind einem Marketing-Hype zu folgen. Werden viele verschiedene, voneinander getrennte Lösungen auf einmal verwendet, kann sehr zeit- und ressourcenintensiver Management-Aufwand nötig werden und das Risiko von Inkonsistenzen und Datensilos kann erheblich ansteigen. Dies wiederum kann potentiell den Geschäftswert der Unternehmensdaten als Ganzes kompromitieren.

Reine NoSQL-Lösungen sind meist sehr spezialisiert und wurden entwickelt, um ein ganz bestimmtes Problem zu lösen – wie beispielsweise Lagerung und Verwaltung spezifischer Ströme unstrukturierter Daten. Was ein Unternehmen in der vernetzten Welt braucht, ist eine Datenbank, die sowohl strukturierte als auch unstrukturierte Daten effizient verarbeiten kann, und die sich dynamisch an schnell ändernde Daten-Herausforderungen und sich entwickelnde, neue Datentypen anpasst. Auf diese Weise kann das Unternehmen einen umfassenden Überblick über seine Daten erhalten und deren höheren Wert voll für sich nutzen.

Wir erleben bereits, wie der Bedarf auf dem Markt nach solchen „All-in-one“-Lösungen steigt. Unternehmen wollen bewährte Zuverlässigkeit gepaart mit Innovation um den neuen Herausforderungen der schönen neuen digitalen Welt gerecht zu werden. Das Aufkommen von NoSQL-artigen Daten wird die DBMS-Landschaft verändern und bis zum Jahr 2017 wird das „NoSQL“-Etikett, wie es heute existiert, kein Unterscheidungsmerkmal für DBMS mehr sein, da die meisten führenden operativen DBMS anfangen werden, mehrere Datenmodelle, sowohl relationale als auch NoSQL, in einer einzigen Plattform anzubieten.

Für Unternehmen in der Ära der vernetzten Gesellschaft ist also die „All-in-one“-Datenbank am geeignetsten. Wie kann sie konkret realisiert werden?
In der Theorie gibt es zwei Möglichkeiten: Entweder NoSQL-Lösungen entwickeln mehr Flexibilität sowie anspruchsvollere und detailliertere transaktionale Funktionen (um mit den Daten auch tatsächlich wertschöpfend arbeiten zu können) und eignen sich zudem die ACID-Eigenschaften an; oder relationale Datenbanken lernen, unstrukturierte Daten effizient zu verarbeiten. Die erste Variante ist aufgrund der Art und Weise, wie diese Lösungen konzipiert sind, fast unmöglich. Die zweite ist dagegen schon im Gange und relationale Datenbanken bieten ihren Anwendern bereits Funktionen für die Verwaltung von strukturierten und semi-strukturierten Daten. RDBMS-Anbieter machen sich bereits seit geraumer Zeit neue Datentypen und Funktionen zu eigen und integrieren sie in ihre Angebote.

Der blaue Elefant ist das Maskottchen der PostGre-Gemeinde, ähnlich dem Pinguin bei Linux

Der blaue Elefant ist das Maskottchen der PostGre-Gemeinde, ähnlich dem Pinguin bei Linux

Postgres ist zum Beispiel besonders gut geeignet für Erweiterungen, um den wachsenden Daten-Anforderungen zu begegnen. Als ein „objektrelationales“ DBMS können Entwickler neue Objekte entwickeln und in Postgres einfügen, die das DBMS mit neuen Funktionen ausstattet, die dennoch zu jeder Zeit die grundlegenden ACID-Eigenschaften einhalten. Der JSON-Datentyp ist ein Beispiel für ein solches Objekt, das eine wichtige neue Funktion für Postgres einführte. Dieser Datentyp wird von einem anderen Feature namens „Foreign Data Wrappers“ verwendet, das eine zentrale Rolle für die Fähigkeit von Postgres spielt, Daten aus anderen Datenbanken zu unterstützen, und markiert in der Tat einen wichtigen Schritt auf dem Weg zu einer „All-in-one“-Datenbank.

„Foreign Data Wrappers“ erlauben die Integration von Daten aus externen NoSQL-Implementierungen wie MongoDB, MySQL oder Hadoop-Clustern in Postgres-Tabellen. Dies ermöglicht es, unstrukturierte Daten die in NoSQL-Lösungen gespeichert sind, in eine Umgebung zu ziehen, deren transaktionale Funktionen den nötigen Detailgrad haben und die vollständige ACID-konform ist, um die Datenkonsistenz zu gewährleisten, die Unternehmen brauchen. Dies ermöglicht es auch Postgres als Datenbank-Hub zu verwenden um einen umfassenden Überblick über alle Unternehmensdaten oder wirklich aussagekräftige Snapshots zu erhalten. Dadurch wird aus den Unternehmensdaten der nötige Geschäftswert generiert um an den neuen Märkten in einer vernetzten Gesellschaft Erfolg zu haben.

Weitere Informationen unter:
www.enterprisedb.com

* The State of Open Source RDBMSs, 2015, by Donald Feinberg and Merv Adrian, published April 21, 2015.

Über den Interviewpartner

LenleyLenley Hensarling spielt eine Schlüsselrolle bei der Festlegung von EDBs strategischer Ausrichtung durch Produktentwicklung sowie die Zusammenarbeit mit Kunden und Partnern. Er hat mehr als zwei Jahrzehnte Erfahrung in der Software-Industrie bei großen Anbietern für professionelle Unternehmenstechnologie. Nachdem er lange Jahre bei JD Edwards eine leitende Position innehatte, übernahm Lenley Führungsrollen bei PeopleSoft und danach Oracle. Seine Wurzeln liegen im Engineering-Bereich und er stieg schnell zum Vice President of Engineering bei Novell auf. Lenley erhielt seinen BA in Wirtschaftswissenschaften von der University of Texas in Austin.

Bildquelle / Lizenz (nach Reihenfolge): tec_stromberg (flickr.com); EnterpriseDB; Donald Feinberg, Merv Adrian; Christian Schnettelker (flickr.com), www.manoftaste.de; Jeff Kubina (flickr.com); Flickr-Lizenz: https://creativecommons.org/licenses/by-sa/2.0/;

Creative Commons im Journalismus

Ein Plädoyer von für freie Inhalte im Journalismus.

In der feinen, aber oft etwas isolierten Netzgemeinde sind Creative Commons schon gut etabliert. Immer wieder stößt man auf Bilder, Videos und Texte, die zur Weitergabe animieren, statt sie zu verdammen. Verlässt man aber diesen Kreis netzaffiner Menschen, sieht es ganz anders aus. Der Grund ist weniger fehlendes Wissen, sondern Angst. Ein paar Gedanken zur Verbesserung und Überzeugungsarbeit – mit Schwerpunkt auf Journalisten, aber auch für andere Bereiche einsetzbar.

Creative Commons: Was ist das?

Creative Commons (CC) – ein Name, der für eine Idee steht: Freie Lizenzen, die die Verbreitung und Weiterentwicklung kreativer Werke erlauben, ohne den Urheber zu enteignen. Die Regelung ist einfach und über ein eigenes Tool einzustellen. Alle CC-Lizenzen verlangen, den Urheber beim Namen zu nennen. Abgesehen davon gibt es zwei einfache Fragen, die man sich beantworten muss:

  • Möchte ich kommerzielle Verwendung meiner Arbeit zulassen? – Antworten sind ja oder nein.
  • Möchte ich Abwandlungen und Weiterentwicklungen meiner Arbeit zulassen? – Antworten sind ja, nein und „ja, aber nur wenn die Abwandlungen auch unter einer CC-Lizenz stehen“.

Über einige Zusatzfelder lassen sich noch einige zusätzliche Angaben einstellen, etwa der Link, unter dem die Arbeit zu finden ist und der als Quellenangabe angegeben werden muss.

Creative Commons: Was nützen sie?

Diese Wissensaspekte sind meist recht schnell zu vermitteln. Ebenso sieht es mit den Vorteilen aus. Hier sind eine Reihe von Vorteilen, die für CC sprechen:

Für den Urheber:

  • schnellere Verbreitung von Inhalten und dem eigenen Namen
  • zahlreiche Anwender suchen von vorne herein nur nach CC-Werken, um sich die Arbeit der Nachfragerei zu sparen
  • Erzeugung von Links auf eigene Inhalte

Für den Anwender:

  • schnellere Klärung von Rechten
  • zahlreiche Einsatzszenarien, zum Beispiel schöne Bilder für eigene Texte

Die ganz realen Ängste – und wie man sie beseitigt

Am einfachsten auszuräumen ist meist die Angst einiger Journalisten vor Enteignung. Creative Commons enteignen niemanden – weil sie freiwillig sind. Jeder Autor entscheidet selbst, ob er auf CC setzen möchte oder nicht. Und über die wenigen Parameter lässt sich flexibel steuern, unter welchen Umständen man zu einer Fremdverwertung bereit ist. Wählt man „keine kommerzielle Nutzung“, ist ausgeschlossen, dass andere mit den eigenen Inhalten Geld verdienen, ohne den Autor selbst dafür zu entlohnen. Wer Angst davor hat, dass das eigene Werk entstellt wird, setzt auf „keine Bearbeitungen“. Und mit „Weitergabe unter gleichen Bedingungen“ kann man sicherstellen, dass sich niemand an den eigenen Werken bereichert, ohne selbst etwas zur Gemeinschaft beizutragen. Bei all dem gilt: Keine Creative-Commons-Lizenz schließt aus, dass ein Urheber Ausnahmen festlegt. Wer generell kommerzielle Nutzung ausschließt, kann sich natürlich trotzdem noch mit bestimmten Anbietern auf eine kommerzielle Nutzung einigen – hier gilt das, was auch bei jedem anderen Werk gilt: Nachfragen bei Unklarheiten.

Im journalistischen Umfeld höre ich oft die Befürchtung, Creative Commons könnten den Wert journalistischer Arbeit herabsetzen – nämlich dann, wenn aus journalistischen Texten weitere Werke entstehen, die journalistischen Ansprüchen nicht genügen. Mit dieser Angst ist nicht einfach umzugehen – ein Ansatz könnte sein, die Frage von der anderen Seite anzugehen. Ein Beispiel dazu: Wie viele Bildkritiken gibt es in den Medien zu lesen? Meistens sind es nicht viele. Ich finde das seltsam: Wir beschäftigen uns immer wieder mit tendenziöser Berichterstattung und kritisieren derart unsaubere Arbeit. Doch auch Bilder können tendenziös sein. Sie können über bildliche Gestaltungsmittel eine Deutung nahelegen, die nicht den Tatsachen entspricht. Ebenso nimmt die Auswahl der Bilder und deren Ausschnitt Einfluss auf die Deutung – was gezeigt wird, besonders aber auch was eben nicht gezeigt wird. Ich habe den Eindruck, dass diese Aspekte selten aufgegriffen werden in der journalistischen Arbeit. Und ich glaube, einer der Gründe liegt in der schwierigen Auslegung des Zitatrechts auf Bilder – Udo Vetter hat in seinem Vortrag auf der re:publica darauf hingewiesen, wie schwierig das Zitieren von Bildern ist, obwohl es eigentlich rechtlich zulässig ist, wenn man sich inhaltlich mit Bildern auseinandersetzt. Creative Commons sind also ein Weg, uns die Auseinandersetzung mit den Werken anderer zu vereinfachen und wichtige journalistische Formen zu ermöglichen, die sonst allzu leicht unter den Tisch fallen. Und damit sind die Chancen, die Creative Commons dem Journalismus öffnen, um ein Vielfaches höher als die Risiken.

Eine andere Angst hört sich meistens so an: „Warum sollte ich CC verwenden, wenn jeder weiß Gott was mit meiner Arbeit machen darf?“ Die fand ich immer schwer zu beruhigen. Zunächst ist, wie schon erwähnt, über drei Parameter eine bemerkenswert gute Steuerung möglich, in welchem Umfeld Werke eingesetzt werden können. Zudem setzen sich Creative Commons nicht über andere Rechte hinweg: Selbstverständlich darf auch mit einer CC-lizensierten Arbeit niemand verleumdet werden. Außerdem kann ich sowieso nicht kontrollieren, was andere Menschen mit meiner Arbeit anfangen, wenn ich sie veröffentlicht habe. Ob sie meine Ansichten teilen, meine Texte ausdrucken und verbrennen, mein Blog aus dem Feedreader werfen: All das liegt nicht in meiner Hand. Aber ich finde es gut, ihnen die Chance zu geben, sich damit auseinanderzusetzen – denn dann besteht wenigstens die Möglichkeit, mit ihnen in einen Dialog zu treten. Creative Commons haben also nichts mit Diebstahl zu tun: Weder sind meine Werke von dort verschwunden, wo ich sie eingestellt habe, noch gibt sie irgendjemand anderes als seine eigenen aus. Creative Commons sind vielmehr eine gesellschaftliche (und journalistische) Vision, wie Wissensaustausch geregelt werden kann.

Manchmal ist für diese Vision aber auch grundsätzliche Überzeugungsarbeit notwendig. Ideen sind nicht wie Äpfel. Wenn ich einen Apfel habe und du ebenfalls einen Apfel hast, und wir diese Äpfel tauschen, dann hat jeder am Ende einen Apfel – im besten Fall einen vergleichbaren. Leider ist es aber meistens so, dass einer der Äpfel kleiner, weniger lecker oder etwas weniger frisch ist. Ganz anders bei Ideen und Wissen: Wenn ich eine Idee habe und du ebenfalls eine Idee, und wir die Ideen austauschen, dann hat im schlechtesten Fall jeder von uns zwei Ideen. Meistens ist es aber so, dass aus zwei Ideen drei Ideen werden – weil sie sich gegenseitig befruchten. Creative Commons ist der Versuch, diesen Ideenaustausch zu vereinfachen.

Über den Autor:

 

ist Medienwissenschaftler und beobachtet als Autor („Grundkurs Gutes Webdesign“) und Berater den digitalen Wandel. Seine Themenschwerpunkte sind User Experience, anwenderfreundliches Design und digitale Strategien. Er schreibt regelmäßig für Fachmedien wie das t3n Magazin, die Netzpiloten oder Screenguide.

Bildnachweis: „My CC stickers have arrived!!!“ von Laihiu (CC BY),  „Banjo Libre“ von andyket (CC BY)

Junger Jobtimismus

So kritisch die Lage im europäischen Ausland auch sein mag, die deutschen Arbeitnehmer vertrauen auf den stabilen deutschen Arbeitsmarkt. 58,3 Prozent der Arbeitnehmer schätzen ihre Chancen bei der Bewerbung auf einen neuen Job als gut oder sehr
gut ein.

Das sind deutlich mehr als 2014. Zwischen den Generationen zeigen sich erhebliche Unterschiede bei der Einschätzung der eigenen Möglichkeiten. Während die meisten Jungen hoffungsvoll in die Zukunft blicken, sehen viele Ältere sich eher auf der Ersatzbank als auf dem Transfermarkt. Dabei deuten die Prognosen der Bundesagentur für Arbeit auf gute Karrierechancen für alle hin. Die sozialversicherungspflichtige Beschäftigung wird wohl weiter wachsen. Das ist auch ein Verdienst der Zeitarbeit, die weiterhin viele attraktive Stellen zuvergeben hat.

Stabiler Arbeitsmarkt, wachsender Optimismus

Unbeeindruckt von der Schuldenkrise Griechenlands blicken die deutschen Arbeitnehmer optimistisch in die Zukunft. 58,3 Prozent der Arbeitnehmer schätzen ihre Chancen in Deutschland einen neuen Job zu finden gut oder sehr gut ein, so das Ergebnis der Orizon Arbeitsmarktstudie 2015 mit über 2.000 Befragten. Im Vorjahr waren die Optimisten mit nur 46,6 Prozent noch in der Unterzahl.

„Die außenwirtschaftliche Lage ist durchwachsen. Sie konnte in den letzten Monaten und Jahren das Wachstum von Realwirtschaft und Beschäftigung in Deutschland aber nicht aufhalten. Die Arbeitnehmer vertrauen zunehmend in die Stabilität des deutschen Arbeitsmarktes“, deutet Dr. Dieter Traub, Geschäftsführer der Orizon GmbH, die Zahlen.

Halbstarke Hoffnung, silberhaarige Skepsis

Die 18- und 19- Jährigen schätzten nach der Orizon Arbeitsmarktstudie 2015 ihre Jobchancen wesentlich besser ein als die älteren Jahrgänge. 86,1 Prozent der Teenager bewerteten ihre Chancen einen Job zu finden mit „gut“ oder „sehr gut“. Mit zunehmendem Alter nimmt die Zuversicht stetig ab. Bei den 60- bis 65-Jährigen waren es gerade einmal 37 Prozent, die gute oder sehr gute Chancen sehen. Dabei haben auch die älteren, arbeitswilligen Arbeitnehmer Grund zum Optimismus.

Qualifikation und Berufserfahrung, von den Arbeitnehmern selbst als die beiden wichtigsten Voraussetzungen für Bewerbungserfolg genannt, besitzen sie in hohem Maße. „Der demographische Wandel spielt allen Arbeitnehmern in die Hände – jung wie alt. Aufgrund des entstehenden Fachkräftemangels können es sich Unternehmen gar nicht mehr leisten, ältere Arbeitnehmer abzuschreiben. Stattdessen setzen sie deren besondere Fähigkeiten in altersgemischten Teams ein. Das zeigt unsere Erfahrung mit hunderten mittelständischen und großen Unternehmen“, berichtet der Personalexperte Traub.

Zeitarbeit ist Teil der Erfolgsstory

Laut dem Stellenindex der Bundesagentur für Arbeit (BA-X) ist die Anzahl der offen gemeldeten Stellen weiter gestiegen. Der Arbeitsmarkt wird voraussichtlich also weiter gute Chancen auf einen neuen Job bieten. Etwa ein Drittel der offenen Stellen kommt aus der Zeitarbeit. „
Wir suchen gute Leute und können auch gute Stellen bieten“, stellt Traub fest. „Die Zeitarbeit wird gerne ins Abseits gestellt. Es ist an der Zeit anzuerkennen, dass wir mit gut bezahlten, sozialversicherungspflichtigen und meist auch unbefristeten Stellen einen qualitativen Beitrag zur Erfolgsgeschichte des deutschen Arbeitsmarktes geleistet haben.“

Weitere Informationen unter:
www.orizon.de

Bildquelle / Lizenz: Flickr.com / 드림포유; veröffentlicht unter: https://creativecommons.org/licenses/by-nd/2.0/

Von Nachfrage und Kandidatenmangel

Nachdem die Zahl der durchschnittlich beschäftigten Zeitarbeitnehmer zwei Jahre in Folge rückläufig war, geht das Marktforschungs- und Beratungsunternehmen Lünendonk, Kaufbeuren, von einer leichten Zunahme um 2,6 Prozent in 2014 aus. „Die Größenordnung von 860.000 Zeitarbeitnehmern kann aus der Marktperspektive als „Mindest-Flexibilisierungsbedarf an Arbeitnehmerüberlassung“ bezeichnet werden“, verdeutlicht Hartmut Lüerßen, Partner von Lünendonk, die Entwicklung der vergangenen Jahre. In diesem Zusammenhang erwarten die von Lünendonk analysierten Zeitarbeits- und Personaldienstleistungs-Unternehmen in Deutschland im laufenden Geschäftsjahr 2015 ein durchschnittliches Marktwachstum von 2,7 Prozent. Die aktuelle Lünendonk®-Studie 2015 „Zeitarbeits- und Personaldienstleistungs-Unternehmen in Deutschland“ ist ab sofort verfügbar.

Besonders gesuchte Qualifikationen

Auf die Frage, welche Qualifikationen im Frühjahr 2015 besonders stark von Kundenunternehmen angefragt wurden, zeigt die Marktanalyse eine Verschiebung der Nachfragesituation zu den Ergebnissen aus dem Vorjahr. Während im deutschen Markt weiterhin „Fachkräfte/Techniker“ sehr stark gesucht werden, steht in diesem Jahr „kaufmännisches Personal“ an zweiter Stelle der Kundenwünsche. Des Weiteren liegt der Bedarf an temporär eingesetzten „IT-Fachkräften“ wie auch im Vorjahr auf Rang drei der besonders nachgefragten Qualifikationen. Eine rückläufige Nachfragesituation konnte Lünendonk bei den „Ingenieuren“ feststellen. „Hier muss aber differenziert werden, ob Kunden eher bei den Technologie-Beratungs- und Engineering-Service-Unternehmen anfragen oder tatsächlich die Nachfrage rückläufig ist“, erläutert Ali Deveci, Analyst bei Lünendonk.

Ausblick 2016

Die Herausforderungen im Markt spiegeln sich auch in den Prognosen der teilnehmenden Zeitarbeits- und Personaldienstleistungs-Unternehmen wider. Für das Jahr 2016 erwarten die befragten Unternehmen einen Zuwachs des Zeitarbeitsmarktes von 2,7 Prozent und damit eine Seitwärtsbewegung wie im Jahr 2015. „Die zurückhaltenden Erwartungen haben vor allem mit dem Kandidatenmangel und den ungeklärten Regulierungsvorhaben der Großen Koalition zu tun“, erläutert Hartmut Lüerßen. Aktuellen Medienberichten zufolge hält das Arbeitsministerium für tarifgebundene Unternehmen auch längere Einsatzzeiten als die geforderte Höchstüberlassungsdauer von 18 Monaten für möglich.

Weitere Informationen unter:
www.luenendonk.de

Franchising: Innovativ und kreativ

Karriere und Beruf: Fach- und Führungskräfte nutzen Franchise-Systeme als Karriereleiter.

Die Franchise-Wirtschaft entwickelt sich kontinuierlich weiter – hierzulande sowie im Ausland. Grundlage dafür ist die Franchise-Partnerschaft welche die Grundprinzipien von Produktivitätssteigerung durch Arbeitsteilung und Spezialisierung gewährleistet. Die TREND REPORT-Redaktion zeigt auf, wie Synergien der Franchiseparteien zu nachhaltigem Erfolg führen. Wir stellen Franchise-Systeme vor, die partnerschaftlich weiterentwickelt werden und die den Wissenstransfer gewährleisten, um das Netzwerk mit selbstständigen Partnern vor Ort auf- und auszubauen. Im Kontext unserer Titelstory „Creative Companies“ ziehen wir Parallelen zur Franchisebranche. In Form von Fallbeispielen und

Interviews zeigen wir auf, wie Kreativität und Innovationen der Branche neue Wachstumschancen generieren.

Themen und Inhalte:

Der eigene Chef sein
Berufliche Karriere und Anerkennung.

Herausforderung
Franchisenehmer begeistern und gewinnen

Finanzierung für Gründer
Kapital für Gründung und Expansion.

Internationalisierung
Franchisesysteme auf dem Sprung ins Ausland.

Neue Gründerkultur
Entwicklungsland Deutschland

Kreative Geschäftsideen
Neue Systeme stellen sich vor.

Franchisenehmer berichten
Fallbeispiele erfolgreicher Partnerschaften

Expansion mit Franchising
Vertriebssystem mit Zukunft

Hier können Sie das aktuelle Themenexposee als PDF herunterladen

Hier geht es zu unseren Mediadaten

Bildquelle / Lizenz: U.S. Navy photo by Kristopher Radder/Released

 

HR-Evolution: Mitarbeiter im Fokus

Digitalisierung, Mobilisierung und ein neues Kommunikationsverhalten: wie Unternehmen im Kampf um die besten Talente mit innovativen Lösungen den Wandel gestalten.

Im Zuge einer zunehmenden Digitalisierung und Vernetzung erleben wir derzeit einen Paradigmenwechsel in der Arbeitswelt. HR-Verantwort-liche müssen die aktuellen Trends verstehen und adaptieren um aktiv gute Arbeitsbedingungen zu generieren. Dazu müssen sie neue Wege gehen: flexible Workspaces, Incentives und Weiterbildung, Innovationskultur und transparente Wertvorstellungen, demokratische Unternehmensführung und flexible Arbeitszeitmodelle sind Rezepte für die „Arbeitswelt 4.0“.

Im Kontext des Titelthemas „Die vernetzte Gesellschaft“ hat die Redaktion den „Human Resources“ mit einer eigenständigen Reportage Raum gegeben. Mit Fallbei-spielen, Interviews und Gastbeiträgen zeigt die Redaktion die neuen Wege der Arbeitswelt im Wandel.

TREND REPORT ist die neue Wirtschaftzeitung, die aktuelle und zukünftige Trends zum Thema macht. Wir suchen nach neuen Anzeichen, die Wendepunkte im Zeitgeist markieren und wir verstehen uns als Partner der Wirtschaft. TREND REPORT liegt als Beilage der Gesamtauflage des Handelsblattes bei.

Themen und Inhalte

Diversity-Management
Die Vielfalt nutzen

„Arbeiten 4.0“: Workspace der Zukunft
Die digitale, mobile und globale Arbeit prägt Unternehmen, Teams und Mitarbeiter.

Personal Digital
Datenschutz und digitale Transformation meistern

Corporate Health
Die Gesundheit der Mitarbeiter im Blick.

Social Media
Kommunikation und Recruiting in der digitalen, vernetzten Gesellschaft.

Innovationskultur
Game-Based-Learning, Wisdom of the Crowd

Wettbewerbsvorteil Mitarbeiter
Individuell dem Fachkräftemangel begegnen

Absicherung und Anreiz
BU, bAV, Weiterbildung, Incentives & Co.: die richtigen Instrumente zur Fachkräftebindung.

Hier können Sie das vollständige Themenexposée „HR-Evolution: Mitarbeiter im Fokus“ herunterladen

Hier geht es zu unseren Mediadaten

Studie: Wettbewerbsfaktor Analytics

90 Prozent der Industrieunternehmen in Deutschland, Österreich und der Schweiz (DACH) nutzen noch immer weniger als die Hälfte ihrer Daten. Das ist eine Erkenntnis der Studie „Wettbewerbsfaktor Analytics 2015“. Die von der Universität Potsdam in Zusammenarbeit mit dem Softwarehersteller SAS durchgeführte Untersuchung erhebt den analytischen Reifegrad von Unternehmen der DACH-Region. Erste Erkenntnisse zur Fertigungsindustrie wurden am 9. Juni auf dem SAS Forum in Bochum von Professor Norbert Gronau, Universität Potsdam, vorgestellt. Quintessenz: Ein Großteil der Firmen verdrängt das Thema und riskiert damit die eigene Zukunftsfähigkeit.

Stand der Dinge: Big Data Analytics in der Industrie

34 Prozent der befragten Unternehmen nutzen analytische Systeme in der Produktion. In der Logistik sind es sogar 40 Prozent. Das Qualitätsmanagement (QM) fällt im Vergleich mit 20 Prozent ab. Die Studie konstatiert, dass ein Zuwachs der Bedeutung von Analytics insbesondere in den Bereichen Logistik und QM zu erwarten ist – weil hier interdisziplinäre Faktoren am stärksten wirken. Zwar sehen knapp 35 Prozent der Unternehmen das größte Potenzial für Industrie 4.0 im Bereich Produktionsplanung und Steuerung. Faktisch ergeben sich die größten Möglichkeiten dieser technisch-logistischen Revolution jedoch aus der Verknüpfung der Fertigung mit vor- oder nachgelagerten „Smart Objects“, die auch außerhalb des Unternehmens liegen können. Das ist echte digitale Transformation – und hier sollten Unternehmen aktuell ansetzen und schnell Projekte starten.

„Wenn ich mir den Zwischenstand unserer Studienergebnisse anschaue, zweifele ich an der Innovationskraft unserer Industrie“, meint Professor Norbert Gronau, Lehrstuhlinhaber für Wirtschaftsinformatik und Direktor des Anwendungszentrums Industrie 4.0 an der Universität Potsdam. „Alle Industriezweige, die heute das Rückgrat der Wirtschaft in der DACH-Region bilden, sind aufgrund herausragender Innovationsleistungen entstanden – und jetzt zögern viele Unternehmen bei der nächsten industriellen Revolution. Ich sehe zwar Fortschritte gegenüber unseren früheren Untersuchungen, gerade im Bereich der Auswertung von Sensor- und Maschinendaten. Dennoch fehlt es ganz deutlich am Willen oder am Bewusstsein für Tempo und Konsequenz.“

„Sicher: Das Gesamtbild hat noch Luft nach oben. Gleichzeitig erleben wir aber in der Zusammenarbeit mit Unternehmen, die das Gebot der Stunde erkannt haben, wie es gehen kann“, erklärt Wolf Lichtenstein, CEO DACH-Region SAS. „Es gibt Innovationsprojekte, die der Branche als Leuchttürme dienen können – davon haben wir nicht zuletzt auf dem SAS Forum in Bochum einige gesehen. Und das Interesse daran ist enorm. Was wir ganz klar beobachten: Die Unternehmen, die jetzt starten oder schon gestartet sind, haben einen erheblichen Vorsprung.“

Zur Studie:
Mit der dritten Auflage der Studie „Wettbewerbsfaktor Analytics“ untersucht ein Team der Universität Potsdam, Lehrstuhl für Wirtschaftsinformatik und Electronic Government, unter der Leitung von Professor Dr. Norbert Gronau, erneut, ob und wie umfangreich Unternehmen im deutschsprachigen Raum Business Analytics bereits einsetzen. Die Studie basiert auf der Grundannahme, dass der analytische Reifegrad eines Unternehmens Rückschlüsse auf dessen Wettbewerbsfähigkeit zulässt. Orientiert an den durchschnittlichen Reifegraden der jeweiligen Branche können Unternehmen leicht ablesen, wo sie selbst stehen, und welche Wettbewerbsvorteile sich durch einen Ausbau der analytischen Kompetenzen erschließen lassen. Flankierend zu den neuen Studienergebnissen hat die Universität eine „Checkliste“ veröffentlicht. Diese dient als Self-Assessment für die Beurteilung des unternehmenseigenen analytischen Reifegrades.

Weitere Informationen unter:
www.sas.com

Bildquelle / Lizenz: Flickr.com / Yuri Samoilov; veröffentlicht unter https://creativecommons.org/licenses/by/2.0/

Open-Access-Tage 2015 (Zürich)

Die 9. Open-Access-Tage finden am 7.-8. September 2015 in Zürich statt. Gastgeberin ist die Hauptbibliothek der Universität Zürich.

Die Veranstaltung richtet sich in erster Linie an ExpertInnen aus dem Open-Access-Bereich aus Deutschland, Österreich und der Schweiz, an WissenschaftlerInnen aller Fachrichtungen, VerlagsvertreterInnen und UnterstützerInnen des wissenschaftlichen Forschungs- und Kommunikationsprozesses an Bibliotheken sowie in Forschungsinstituten und Fördereinrichtungen.

Die Veranstaltungen erstrecken sich über eine breite Palette aktueller Themen, die derzeit die Diskussion bestimmen. Zu den Schwerpunkten gehören in diesem Jahr unter anderem die Beschäftigung mit Forschungsdaten, die Gründung von Open-Access-Zeitschriften, Open Access an Fachhochschulen, die Finanzierung von Open Access sowie die Veränderungen der wissenschaftlichen Kommunikation durch Open Access.

Spannende Einblicke sind bereits am Vortag der Konferenz (Sonntag, 6. September) zu erwarten. Im Rahmen der Scientifica werden Experten auf dem Podium über den gesellschaftlichen Nutzen diskutieren, der aus dem freien Zugang zu wissenschaftlichen Publikationen und Forschungsdaten resultiert.
http://www.scientifica.ch/scientifica-2015/

Call for Papers

Call for Posters

Programm

Übersicht über das Programm

Anmeldung

Bis 15. August anmelden!

Veranstaltungsort

Hotels/Unterkünfte

Hotelzimmer buchen

Teilnehmer/innen

Teilnehmerliste (Stand: 17.7.2015)

Ein Ja zu Open Data

Rund zwei Millionen Fotografien und andere Bilddokumente umfasst das Bildarchiv der ETH-Bibliothek. Davon können jetzt rund 250.000 Bilder in digitalisierter Form unter Berücksichtigung der unterschiedlichen Nutzungsrechte kostenfrei heruntergeladen werden. Damit positioniert sich die ETH-Bibliothek zugunsten von Open Data.

Überhaupt wird in der Kunst sehr viel mit Digitalisierung experimentiert. Beispielsweise Apps und Audio-Guides Made in School: Es sind die Ergebnisse von handlungsorientierten Unterrichtsmethoden oder Abschlussarbeiten in Zusammenarbeit mit Kultureinrichtungen und sie werden gut angenommen. Spielideen wie das Packen eines virtuellen Tornisters und Texte etwa für den bayerischen Minister Maximilian von Montgelas formulierten Schüler des Chiemgau-Gymnasiums Traunstein für die iPad-App zur bayerischen Landesausstellung „Napoleon und Bayern“. Einen technischen Schritt weiter gehen Schüler der FH Salzburg mit ihrer App für eine Datenbrille. Das digitale Salzburg wird direkt ins Gesichtsfeld eingeblendet. Für alle ohne Datenbrille funktioniert’s auch auf dem Smartphone. Schüler der sechsten Klasse der Johannes-Schule Berlin erarbeiteten in einem Workshop mit Antenna International den Kinderaudioguide zur Kunstausstellung „ImEx“. In Kaiserslautern entwickelten Schüler der zehnten Klasse des Gymnasiums am Rittersberg eine virtuelle Schnitzeljagd mit „Ritter Siegfried“ zu acht Stationen Kaiserslauterer Stadtgeschichte. Dabei scheinen die Kinder und Jugendlichen Spaß an der Produktion zu haben. Sonst wäre es in Brandenburg an der Havel wohl nicht zu dem „Nebenprodukt“, dem Audioguide zur Entdeckung des Doms gekommen.

Und einige vielversprechende Projekte sind noch nicht ganz abgeschlossen, wie die Zusammenarbeit der sechsten Klassen mit dem Fränkischen Freilichtmuseum Fladungen und dem Bayerischen Rundfunk oder die Kooperation des evangelischen Gymnasiums mit dem Museum Neuruppin. Lebendige Geschichten zum Leben auf dem Bauernhof mit authentischen Quellen und Originaltönen sowie interessante Stadtführungen mit Quiz in der Fontanestadt werden wohl erst nach den verdienten Sommerferien allen zur Verfügung stehen.

Weitere Informationen unter:
ba.e-pics.ethz.ch

Bildquelle: ETH-Bibliothek Zürich, Bildarchiv / Fotograf: Schmid, Josef / Com_L16-0145-0106 / CC BY-SA 4.0

Videokonferenz: Vernetzung mit Vorteil

Blue Jeans Network startet nun auf dem deutschsprachigen Markt durch. Der weltweit führende Anbieter von Cloud-basierten Video-Collaboration Services wurde 2009 gegründet. Mit der Lösung können Unternehmen über eine Cloud-basierte Plattform sicher und skalierbar kommunizieren.

„Der digitale Wandel führt zu einem Umbruch im Arbeitsmarkt. Mit Videokonferenzen können zeitliche Engpässe und räumliche Distanzen überbrückt werden. Darüber hinaus  sorgen sie für ein produktives und kosteneffizientes Arbeiten“, erklärt James Campanini, Vice President & General Manager bei Blue Jeans Network. „Bereits viele namhafte Unternehmen vertrauen auf unsere Lösungen – von mittelständischen Unternehmen bis hin zu großen globalen Unternehmen, in allen Branchen und Fachrichtungen.“

Die Videokonferenz-Lösung Blue Jeans ist kompatibel mit allen gängigen Lösungen für Chats und Videogespräche wie Cisco Jabber oder Microsoft Lync. Nutzer können sich einfach und sicher mit PC, mobilen Endgeräten, beliebigen Browsern oder Konferenzsystemen in die Videokonferenz einwählen. Seit einiger Zeit ist Blue Jeans auch auf der Apple Watch verfügbar. Die App informiert und erinnert den Besitzer unter anderem über bevorstehende Konferenz-Termine.

Videokonferenzen bringen einen eindeutigen Mehrwert, denn das Gespräch mit Bild und Ton kommt einem persönlichen Face-to-Face-Termin sehr nahe. Waren aber bislang die Lösungen dafür kostenintensiv und technologisch eher komplex, bietet Blue Jeans Network eine qualitativ hochwertige Lösung ohne technische Hürden.

Die Cloud-basierte Plattform von Blue Jeans hat Video zum Mainstream gemacht und gibt Meinungsführern aus den Bereichen Wirtschaft, Bildung, Entertainment und Medien die Möglichkeit, interaktive Face-to-Face-Meetings abzuhalten. Gerade die Zusammenarbeit globaler Teams wird dadurch um die Komponente Video bereichert.

Weitere Informationen unter:
Blue Jeans Networks

Bildquelle / Lizenz: flickr.com/ Maik Meid; veröffentlicht unter https://creativecommons.org/licenses/by-sa/2.0/

E-Commerce in einer idealen Welt… Teil 2

Klassisches Responsive Web Design ist nicht mehr zeitgemäß

Responsive Web Design bezeichnet ein Konzept, dass die Darstellung von Inhalten einer Webseite abhängig vom Endgerät bzw. Browser anpasst. Dabei werden jedoch alle Inhalte übertragen. Der Browser verarbeitet anschließend die Daten und stellt sie so da, dass die Inhalte auf dem jeweiligen Bildschirm Platz finden. Der Nutzer muss deshalb nicht horizontal scrollen oder wiederholt rein- und rauszoomen.  Dabei werden Bilder vom Browser skaliert, da diese meistens in der Auflösung für Desktop-Rechner bzw. deren Bildschirme ausgeliefert werden. Die Belastung des Browsers mit Verarbeitungs- und Anpassungsprozessen ist der größte Nachteil des responsiven Designs.

Ohne RESS-Server

Ohne RESS Server (oben): Ohne Geräteerkennung ist keine Anpassung an einzelne Geräte möglich.

RESS (Responsive webdesign with server side components)

Bei RESS (Responsive webdesign with server side components) handelt es sich um eine Weiterentwicklung des klassischen Konzeptes für Responsive Webdesign (RWD) hin zu einer RWD-Lösung mit serverseitigen Komponenten.

Jan Webering, Geschäftsführer Sevenval Technologies GmbH

„Am Nutzerverhalten sollte sich die gesamte IT eines Unternehmens orientieren. Wir nennen das ‚vom Front-End aus denken‘.“

Hier werden bestimmte, rechenintensive Prozesse vom Server übernommen und damit der Browser entlastet. Dazu gehören eine Clienterkennung, Aufbereitung und Modifikation von Bildern und die Anpassung der Inhalte. Durch diese serverseitigen Komponenten wird eine Client-Server-Kommunikation abgebildet, welche die spezifischen Eigenschaften des Endgeräts mit Hilfe einer Device-Database ermittelt und mit dem Server austauscht. Somit ist der Server in der Lage die angefragten Inhalte endgerätespezifisch auszuliefern. Frontend- und Backendprozesse können sauber gekapselt werden – wodurch eine kontextabhängige Auslieferung an das Endgerät ermöglicht wird.
Bei der RESS-Architektur wird in der Regel ein Progressive Enhancement-Ansatz gewählt, um eine Basisversion für alle Endgeräte zu definieren. Aufbauend auf dieser Version wird mittels der Device und Feature Detection der Delivery Context ermittelt. Der Delivery Context setzt sich aus den folgenden Parametern zusammen: Hardwarehersteller, Betriebssystem und Browser inkl. der entsprechenden Version. Ausgehend vom jeweiligen Delivery Context kann der Server alle Features für das Endgerät unterstützen.

RESS Chart Illustration B

Mit RESS Server – Inhalte werden endgerätespezifisch ausgeliefert.

Weitere Informationen unter:
www.sevenval.com

Lesen Sie auch:
Das (mobile) Web gehört den Nutzern

Die Sevenval Technologies GmbH ist ein Unternehmen für Mo­bile- und Webtechnologien. Un­­ter der Führung von Jan Webering re­alisierte Sevenval mehr als 2 000 Mobile- und Web-Projekte. Dabei kommt die Software Sevenval FIT als Front-End-Server zum Einsatz.
Kunden sind Großkonzerne wie z. B. Mercedes-Benz, Dou­glas, die Deutsche Post und Bosch.
Gastbeitrag von Jan Webering in TREND REPORT im Juni im HANDELSBLATT: Das (mobile) Web gehört den Nutzern
Bildquelle / Urheber und Lizenz:

Versicherer tun sich schwer mit dem Digitalen Wandel

Die Digitalisierung zwingt Unternehmen aller Branchen und Größen zum Umdenken. Versicherungen gehören zu jenen Unternehmen, deren Geschäftsmodelle von der Digitalisierung am meisten beeinflusst werden. Denn im Umfeld großer Technologiekonzerne und kleiner Start-Ups aus der Fintech-Welle entstehen neue Geschäftsmodelle, die konsequent aus Kundensicht entwickelt werden und auf hohe Aufmerksamkeit stoßen.

Derweil hapert es bei den Traditionsversicherern am Kundenservice. Laut einer im Auftrag des Nachrichtensenders n-tv durchgeführten Erhebung erlauben sich die deutschen Versicherer Schwächen bei der Beantwortung von Kunden E-Mails. Bei Filialversicherern dauert es im Durchschnitt 46 Stunden, bis eine Kundenanfrage beantwortet wird. Dies ist umso erstaunlicher, da auf der anderen Seite etwa die Hälfte der Kunden eine Reaktion auf ihre E-Mail Anfragen innerhalb von 60 Minuten erwarten.

Die Versicherungsbranche tut sich schwer mit der Digitalen Transformation. Zwar erwarten 80 Prozent der jüngst von Accenture befragten Manager in Führungspositionen durch die neuen Technologien einen radikalen Wandel. Doch schon bei der Abwicklung alltäglicher Service-Prozesse wirken Versicherungsunternehmen noch häufig behäbig und starr.

Der Technologieanbieter ITyX hat einen Report veröffentlicht, der einen Blick auf den Digitalisierungsgrad der Versicherungsbranche wirft. Durch die Vernetzung von Versicherungsnehmern, den versicherten Objekten und den verbundenen Service-Prozessen entsteht künftig ein Digitales Ökosystem, das auf Wunsch über jedes mobile Gerät des Kunden gesteuert wird. Unter dem Trendbegriff „Connected Living“ fasst ITyX Haushaltsgeräte, Fahrzeuge und sogenannte „Wearables“ zusammen. „Die Verbindung zu diesen Geräten ermöglicht neue situative Produkte und flexible, verhaltensbasierte Tarife“, erläutert ITyX Marketing-Vorstand Andreas Klug. Klug rät Versicherern dazu, konsequent auf die Verschmelzung sämtlicher Kommunikationskanäle hinzuwirken und in moderne, lernende Systeme zu investieren. „Kundenbeziehungen sind auf dem Weg in die Digitalisierung für alle Finanzdienstleister von zentraler Bedeutung“, so Klug. Für Versicherer werde es in den kommenden 5 Jahren darum gehen, einen Platz auf dem Smartphone ihrer Kunden zu erkämpfen und auf Basis der geteilten Daten individuelle, situative und einfach verständliche Lifestyle-Produkte zu entwickeln.

Weitere Informationen unter:
www.ityx.de

Direkt zum Whitepaper-Download:
www.ityx.de/whitepaper-versicherung/

 

Bildquelle / Lizenz: Flickr.com / Johan Larson; Veröffentlicht unter: https://creativecommons.org/licenses/by/2.0/

Schnelles Internet als Standortfaktor

Längst ist schnelles Internet ein Standortfaktor. Dienste wie Video-Konferenzen, globale Arbeit in Teams aber auch Trendthemen wie Industrie 4.0 oder Vernetzung der Gesellschaft werden durch hohe Up- und Downloadraten überhaupt möglich. Der Marktführer in Deutschland macht sich für Vectoring stark. Dies ist die schnellste Technologie, die für Kupferkabel verfügbar ist. Doch Experten halten dies bestenfalls für eine Übergangstechnologie.

Das wesentlich schnellere und zukunftsträchtigere – aber auch deutlich teurere – Glasfaser hält viel zu selten Einzug. Doch nun teilt die Deutsche Glasfaser mit, dass durch den Einstieg des internationalen Finanzkonzerns KKR wesentlich mehr Menschen als bisher von Glasfasertechnologie profitieren sollen.

Die Deutsche Glasfaser realisiert und betreibt Glasfasernetze für Privathaushalte und Unternehmen, die schnell verlegt und direkt an die Wohnung bzw. die
Geschäftseinheit der Kunden angeschlossen werden können (FTTH, „Fibre to the Home“). Mit dem Fokus auf den ländlichen Raum unterstützt die Deutsche Glasfaser das politische Ziel, das Breitbandnetz in Deutschland flächendeckend auszubauen und die digitale Spaltung zwischen den urbanen Ballungszentren und ländlichen Räumen zu überwinden.
Der bisherige Mehrheitseigner der Deutsche Glasfaser Holding GmbH, der niederländische Glasfaserspezialist Reggeborgh, bestätigt den Einstieg der Finanzgruppe KKR.
„Durch die strategische Partnerschaft von Reggeborgh und KKR werden die idealen Voraussetzungen für das nachhaltige Wachstum der Deutsche Glasfaser
geschaffen. Unser Ziel ist es, Marktführer beim Glasfaser-Ausbau in Deutschland zu werden. Durch zusätzliche Investitionen können wir die steigende Nachfrage nach schnellem Internet künftig noch besser bedienen“, sagte Gerda Johanna Meppelink, Sprecherin von Deutsche Glasfaser.
Weitere Informationen unter:
www.deutsche-glasfaser.de

Industrie 4.0: Deutschland und China kooperieren

Im Rahmen seiner Chinareise hat sich der Bundesminister für Wirtschaft und Energie Sigmar Gabriel heute in Peking mit dem chinesischen Minister für Industrie- und Informationstechnologie MIAO Wei getroffen. Bei dem Treffen ging es um die Themen Innovative Industrien, Digitalisierung und Industrie 4.0 sowie um Kooperationen in der Automobilindustrie.

Im Mittelpunkt der Zusammenkunft stand die Unterzeichnung einer gemeinsamen Absichtserklärung zur Kooperation beider Länder im Bereich Industrie 4.0. Die Absichtserklärung verbindet den Bereich „Industrie 4.0“ des BMWi mit der chinesischen Initiative „Made in China 2025“ und verstärkt damit die Innovationspartnerschaft zwischen beiden Ländern. Als Grundlage der Zusammenarbeit führt die Absichtserklärung unter anderem den effektiven Schutz geistigen Eigentums an. Beide Seiten streben dafür eine Verbesserung des Rechtsrahmens und der Regulierungsinstrumente an.

Konkret wollen beide Ministerien die Zusammenarbeit zwischen deutschen und chinesischen Unternehmen bei der intelligenten Fertigung und der digitalen Vernetzung von Produktionsprozessen politisch flankieren. Geplant ist eine jährliche gemeinsame Tagung und eine Stärkung der Zusammenarbeit zur Erarbeitung harmonisierter Normen. Unternehmen beider Länder sollen darüber hinaus bei möglichen Pilotprojekten sowie bei der Ausbildung und Weiterbildung im Bereich Industrie 4.0 unterstützt werden. Besonderer Fokus liegt bei sämtlichen Maßnahmen auf kleinen und mittleren Unternehmen.

Die Unterzeichnung des Abkommens ist Teil einer zweitägigen Reise des Bundeswirtschaftsministers in China. Sigmar Gabriel wird von einer hochrangigen Wirtschaftsdelegation sowie Mitgliedern des deutschen Bundestags begleitet. Weitere Gespräche fanden bereits mit dem chinesischen Handelsminister GAO Hucheng statt. Gespräche mit XU Shaoshi, dem Vorsitzendem der Entwicklungs- und Reformkommission und mit XI Jingping, dem Staats- und Parteichef, stehen noch auf der Agenda.

Weitere Informationen unter:
www.bmwi.de

Bildquelle: © BMWi/Maurice Weiss

Patent trifft Talent

Bewerbungsrunde für ersten
Gründungswettbewerb „The Venture“ geht in die heiße Phase

Bewerbungen noch bis Mitte August möglich

Bereits mehr als 60 Universitäten und Hochschulen beteiligen sich

Über 60 Teams und Gründer sollen um die besten Geschäftsmodelle antreten Verein Gründungsengel unterstützt neuartigen patentbasierten Business Model Contest

München (07. Juli 2015) Erstmals startet in Deutschland, Österreich und der Schweiz ein Gründungswettbewerb, bei dem die Gründer die Idee nicht mehr selbst ersinnen müssen. Denn: Bei „The Venture“ gibt es ein Dutzend Patente und Technologien, für die Geschäftsmodelle gesucht werden. Bis 15. August können sich Studierende und Interessierte als Einzelkämpfer oder im Team unter www.the­venture.info bewerben. Die Teilnehmer entwickeln anschließend ihre Idee gemeinsam mit einem Mentor über einen Zeitraum von drei Monaten. Der Final Pitch findet Anfang Dezember statt. Zu gewinnen gibt es Sachpreise für eine erfolgreiche Unternehmensgründung. Unterstützt wird das Projekt, das im Namen des Förderkreises Gründungs-Forschung e.V. (FGF) veranstaltet wird, unter anderem von Gründungsengel e.V.

Gründungswillige können ihr Geschäftsmodell basierend auf existierenden Patenten und Technologien aufbauen. Die Schutzrechte reichen von einem Fahrassistenten für Senioren über ein Desinfektionsset für die Chirurgie bis hin zu einer Carsharing API.

„Deutschland zählt weltweit zu den innovativsten Ländern, jedoch bleiben unzählige Patente ungenutzt. Auf der anderen Seite gibt es zahlreiche ambitionierte Unternehmensgründer ohne eigene zündende Idee“, sagt Martin Reichenbach, einer der Projektleiter von „The Venture“.

Steffen Danschacher, Vorstand von Gründungsengel e.V.: „Wir unterstützen den Wettbewerb, weil er die Gründerkultur in Deutschland um einen neuartigen Ansatz erweitert. Unser Ziel ist es, den Gewinnerteams bei den ersten Schritten als Startups mit Expertise in Sachen Marketing, Vertrieb und Wachstum unter die Arme zu greifen und ihnen gegebenenfalls auch juristischen und steuerrechtlichen Support zu geben.“

Weitere Informationen erhalten Gründungswillige auf der Homepage: www.the-venture.info

 

Über den patentbasierten Gründungswettbewerb THE VENTURE

Derzeit unterstützen mehr als 60 Universitäten aus Deutschland, Österreich und der Schweiz den Wettbewerb. So zählen etwa die RWTH Aachen, die Handelshochschule Leipzig, das MCI Innsbruck und die Züricher Hochschule ZHAW zu den unterstützenden Hochschulen. Im Beirat von THE VENTURE sind prominente Persönlichkeiten wie zum Beispiel Prof. Dr. Isabell Welpe, Prof. Dr. Bernd Ebersberger und Jan Fischer. Auch das Venture Capital-Magazin und das bekannte Gründermedium Deutsche Startups unterstützen das Vorhaben. KMUs und Hochschulen haben ein Dutzend Patente und Technologien zur Verfügung gestellt, mithilfe derer Gründungswillige ein Geschäftsmodell für ihre eigene Gründung ausarbeiten können. Veranstaltet wird THE VENTURE im Namen des Förderkreis Gründungs-Forschung e.V. (FGF), der führenden und mitgliedsstärksten wissenschaftlichen Vereinigung für Entrepreneurship, Innovation und Mittelstand im deutschsprachigen Raum.

Internet: www.the-venture.info

Facebook: www.facebook.com/theventurecontest

Twitter:      @TheVentureInfo

Über den Verein Gründungsengel e.V.

Der Gründungsengel e.V. ist ein 2015 gegründeter Verein, der Unternehmer bei ihrer Existenzgründung unterstützt. Dazu stellt der Gründungsengel e.V. ihnen erfahrene Spezialisten an die Seite, die sie in Sachen Finanzierung, Marketing und PR sowie in Rechtsfragen beraten. Das Münchner Team um den Vorsitzenden Steffen Danschacher setzt sich aus Rechtsanwälten, Marketing- und PR-Experten, Grafikern und Textern sowie Spezialisten für Projektmanagement, Crowdinvesting und Social Media zusammen. Durch die Bündelung dieses Expertenwissens kann der Verein Gründern in zahlreichen Anliegen unterstützen und so helfen, Zeit und Geld zu sparen.

Internet: www.gruendungsengel.org

Twitter:      @Gruendungsengel

Pressekontakt PR-Agentur

scrivo PublicRelations GbR Ansprechpartner: Kai Oppel Elvirastraße 4, Rgb.

D-80636 München

Telefon: +49 89 45 23 508 11

Fax:          +49 89 45 23 508 20

E-Mail:       Kai.Oppel@scrivo-pr.de

Internet: www.scrivo-pr.de

Pressekontakt THE VENTURE

Martin Reichenbach

Telefon: +49 89 8004 6560

Mobil:        +49 176 80354738

E-Mail:       martin.reichenbach@the-venture.info

 

Bildquelle / Lizenz: flickr.com / Boegh (Lizenz Creative Commons)

E-Commerce in einer idealen Welt…

In einer idealen E-Commerce-Welt laden Webseiten nicht länger als drei Sekunden.
Warum? Nach diesem Augenblick brechen die ersten Nutzer den Ladevorgang ab und gehen als Käufer verloren. Selbst die Hundert bekanntesten, internationalen E-Commerce-Händler hinken mit einer Ladezeit von 5,2 Sekunden (Median) dem Optimum hinterher. Die Zahl beschreibt die Time-to-interact, also den Zeitpunkt ab dem die Seite auf Nutzer-Eingaben reagiert. Letztes Jahr lag der Wert noch bei 4,9 Sekunden. Der Grund für das schlechtere Ergebnis: Die Webseitenbetreiber sehen Performance-Optimierung durchaus als Priorität, müssen aber gleichzeitig der Erwartungshaltung der Nutzer gerecht werden. Diese erwarten multimediale und vor allem personalisierte Inhalte. Bilder und Videos verursachen den Großteil des Traffic Volumens, aber auch dynamische Inhalte, die sich an den Nutzer anpassen, verlängern die Ladezeiten von Webseiten. Zunehmend mehr Plattformen, Tools, Datenbanken und Drittanbieter müssen eingebunden werden, um ein zeitgemäßes Online-Shopping-Erlebnis zu ermöglichen.

Dabei gehören schnelle Ladezeiten schon jetzt zu den Ranking-Faktoren bei Google, die meisten Experten gehen davon aus, dass die Performance in Zukunft stärker gewichtet wird. Dann nämlich, wenn ein Großteil der Webseitenanbieter die „mobile friendly“-Kriterien von Google erfüllt. Performance Optimierung ist also auch Search Engine Optimization.

Um die aktuelle Entwicklung der Webtechnologie anschaulich zu machen, starten wir eine Serie, die die wichtigsten Begriffen der Branche für Nicht-Techniker erklärt. Das wichtigste zuerst: Web Performance und Web Performance Optimization.

Jan Webering, Geschäftsführer Sevenval Technologies GmbH

„Bereits jetzt zählt die Web-Performance zu den wichtigsten Ranking-Faktoren bei Suchmaschinen.“

Web Performance

Mit Web Performance wird die Ladezeit einer Webseite umschrieben.
Es wird zwischen dem ersten Ladevorgang (Initial pageload), dem Zeitpunkt an dem Nutzeraktionen möglich sind (Time-to-interact) und dem vollständigen Laden der Webseite (Document complete) unterschieden. Die Ladezeit wird von vielen Faktoren beeinflusst. Dazu gehören natürlich die Netzwerkverbindung, die Geräteklasse (aktuell Desktop-PC, Smartphone oder Tablet), der Browser und das Betriebssystem. Auch die Reihenfolge in der Inhalte geladen werden, die Verarbeitung von Bildern und wie Elemente von Drittanbietern eingebunden werden (zum Beispiel Tracking Pixel oder Shop-Widgets), haben Auswirkungen auf die Ladezeiten. Performance hat sich daher als Begriff etabliert, wenn man übergeordnet die Leistungsfähigkeit einer Webseite als Summe aller Faktoren beschreiben möchte. Dabei geht es nicht nur um die Übertragungsgeschwindigkeit von Daten, sondern auch darum, wie schnell diese vom Browser des Clients verarbeitet und dargestellt werden können.

Performance spielt hauptsächlich bei der mobilen Internetnutzung eine Rolle. Bei vergleichsweise langsamen mobilen Verbindungen und relativ schwachen Clients (CPU von Smartphones im Vergleich zum Desktop-Rechner), führen schlecht programmierte Webangebote schnell zu inakzeptablen Ladezeiten, weshalb sich die Web Performance Optimization (oder Front-End-Optimization) zu einem Betätigungsfeld für Programmierer entwickelt hat. Für E-Commerce-Anbieter sind die Konsequenzen am deutlichsten: Gemäß einer In-House-Studie von Walmart führt eine Verkürzung der Ladezeit von einer Sekunde zu einer 2% höheren Conversion Rate und zu 1% mehr Umsatz.

Web Performance Optimization (auch Front End Optimization)

Unter dem Begriff Web Performance Optimization (WPO) werden alle Maßnahmen gebündelt, die zur Verbesserung der Performance einer Webseite beitragen. Im Wesentlichen geht es um die Verkürzung der Ladezeiten. Dabei spielt die Datenübertragung die größte Rolle: Webseiten werden so optimiert, dass sie nur noch die für das jeweilige Gerät passenden Daten senden.
Die server-seitige Skalierung von Bildern ist dabei das anschaulichste Beispiel. Ohne WPO-Maßnahmen wird immer ein großes Bild ausgeliefert, das für Desktop-Monitore die richtige Auflösung bietet. Wird die Webseite mit einem Smartphone aufgerufen, wird zunächst das große Bild gesendet und dann der Browser des Geräts mit der jeweiligen Skalierung belastet. WPO bedeutet hierbei, dass der Server in die Lage versetzt wird, zu erkennen welches Gerät anfragt, um anschließend ein bereits passend skaliertes Bild auszuliefern. Sowohl das Datenvolumen als auch die Belastung des Browers werden verringert.
Weitere WPO-Maßnahmen sind die Verbesserung von HTML und CSS Dateien (Stichwort Minifying), die Reduzierung von Requests zwischen Client und Server und das Management der Render Queue.
Zusammengefasst hat WPO zum Ziel, die Bereitstellungsfähigkeit des Clients zu erhöhen. Je schneller der Browser in der Lage ist eine Seite darzustellen und auf Nutzer-Eingaben zu reagieren, desto erfolgreicher waren die WPO-Maßnahmen.

Weitere Informationen unter:
www.sevenval.com

Lesen Sie auch:
Das (mobile) Web gehört den Nutzern

 

Die Sevenval Technologies GmbH ist ein Unternehmen für Mo­bile- und Webtechnologien. Un­­ter der Führung von Jan Webering re­alisierte Sevenval mehr als 2 000 Mobile- und Web-Projekte. Dabei kommt die Software Sevenval FIT als Front-End-Server zum Einsatz.
Kunden sind Großkonzerne wie z. B. Mercedes-Benz, Dou­glas, die Deutsche Post und Bosch.

 

Teil 2 der Serie: E-Commerce in einer idealen Welt – Teil 2
Teil 3 der Serie: E-Commerce in einer idealen Welt – Teil 3

Gastbeitrag von Jan Webering in TREND REPORT im Juni im HANDELSBLATT: Das (mobile) Web gehört den Nutzern

Bildquelle / Urheber und Lizenz:

Können Roboter mit Geld umgehen?

Neuerscheinung

von Prof. Dr. Christian Rieck

Die digitale Zukunft der Finanzberatung.

Der Finanzbranche stehen radikale Veränderungen bevor. Die digitale Schonfrist ist vorbei. Autonome Finanzberatung kommt unter Umständen noch vor dem autonomen Fahren und ist noch nicht in aller Munde

Wird der Mensch in der Finanzberatung noch eine Rolle spielen?

Eschborn, Juni 2015. Versicherungen, Banken, Finanzdienstleister wird es so, wie wir sie heute kennen, in ein zehn bis fünfzehn Jahren schon nicht mehr geben. Die digitale Revolution wird vieles verändern und vor allem in der Finanzberatung werden Roboter-Berater das Zepter mehr und mehr übernehmen. Die lange Zeit verschonte Finanzbranche steht damit vor dem größten Umbruch ihres Bestehens. Verschlafen kümmern sie sich heute mehr um ihre Gerichts-, als um ihre

Geschäftsprozesse, bestaunen mehr oder weniger passiv immer weitere Neugründungen von Technologie-Unternehmen („Fintechs“), die bereit stehen, die Branche zu erobern. Und sie verstricken sich in Rechtfertigungskämpfen, wenn es um den Abbau von Geschäftsstellen geht, wo (noch) Geldautomaten völlig ausreichend wären – solange man Geld überhaupt noch braucht.

Dieses Buch untersucht, wie weit die Roboterberater schon sind und was Banken, Versicherungen und freie Berater nun tun müssen. Wenn Rieck von Robotern spricht, dann meint er damit die Beratungstechnologien, die aus dem Zusammenspiel von künstlicher Intelligenz und sozialen Medien entstehen. Die aktuellen Geschäftsmodelle werden hierdurch vollständig ausgehöhlt. Und die

notwendige Technik zur weiteren Digitalisierung ist bereits fast vollständig vorhanden. Die aktiven Denk-Roboter, die nicht mehr auf unseren Input warten müssen, stehen in den Startlöchern. Wer jetzt nicht aufwacht, wird verdrängt.

Der Autor Christian Rieck ist Professor für Finance und Wirtschaftstheorie an der Frankfurt University of Applied Sciences und liebt den Austausch mit der Praxis in Workshops und Vorträgen für Führungskräfte. Rieck ist ein Schüler von Ökonomie-Nobelpreisträger Reinhard Selten. 1992 veröffentlichte Rieck eines der ersten Lehrbücher zur Spieltheorie. Seit vielen Jahren forscht er zur Zukunft der Finanzbranche und arbeitet unter anderem mit dem Zukunftsinstitut zusammen. Als gefragter Vortragsredner möchte er wachrütteln und Impulse geben. Er war einer der ersten, die den digitalen Wandel in der Finanzbranche korrekt vorhergesagt hat.

Bibliographie

Christian Rieck

Können Roboter mit Geld umgehen? Die digitale Zukunft der Finanzberatung.

Eschborn, Juni 2015, 98 Seiten, EUR 15,00

ISBN 978-3-924043-64-3

Auch als Kindle-E-Book: 978-3-924043-65-0, EUR 5,00

 

Green IT an Hochschulen in Baden-Württemberg

Bereits seit 2007 bietet Baden-Württemberg den Hochschulen im Land einen Standard-PC zu besonderen Konditionen an. In diesem Jahr zählte bei der Gerätewahl neben der Standardisierung auch die Energieeffizienz zu den Auswahlkriterien. Unter Federführung der Universität Freiburg initiiert, findet der so genannte BW-PC bei allen Hochschuleinrichtungen in Baden-Württemberg großen Zuspruch.

Bei der ersten Ausschreibung vor acht Jahren stand die Bündelung des Bestellvolumens aller Hochschuleinrichtungen in Baden-Württemberg durch die Universität Freiburg im Vordergrund. Auf diese Weise sollten einzelne Hochschulen von einem Preisvorteil profitieren, den selbst die größte Universität alleine nicht erreichen könnte. Im Auftrag des Landes schrieb die Universität Freiburg leistungsstarke PCs für Standardanwendungen wie Office aus. Die Rechner sollten den vom Ministerium für Wissenschaft, Forschung und Kunst (MWK) an allen Hochschulen Baden-Württembergs ermittelten Bedarf an Arbeitsplatzrechnern decken. Das Vorgehen stieß auf positive Resonanz. Der BW-PC wird seither erfolgreich von den 54 ange-schlossenen Universitäten und Hochschulen bezogen. Neu ist, dass bei der Auswahl eines geeigneten Geräts die Energieeffizienz besonders wichtig ist.

Optimales Preis-Leistungs-Verhältnis

Der mit Bechtle geschlossene Rahmenvertrag „BW-PC“ berechtigt alle Hochschulen in Baden-Württemberg, den speziell konfigurierten Rechner zu einem Sonderpreis zu bestellen. „Mit ihrer Bedarfsbündelung haben die Hochschulen ein optimales Preis-Leistungs-Verhältnis erzielt“, sagt Karl-Heinz Augustin, Geschäftsführer, Bechtle IT-Systemhaus Freiburg. „Dieses Erfolgskonzept nun zu nutzen, um ein ressourcenschonendes Angebot breit auszurollen, ist vorbildlich.“

Null-Watt-PC spart Energie und erleichtert Administration

Die Wahl fiel auf den Null-Watt-PC von Fujitsu. Der Rechner verbraucht im Ruhemodus keinen Strom, bleibt dabei aber administrierbar. Auf diese Weise lassen sich der Energieverbrauch reduzieren und Kosten vermeiden. Das Gerät springt automatisch in den Null-Watt-Modus, ohne dass der Nut-zer den Rechner abschalten muss. Damit kann der PC auch außerhalb der regulären Arbeitszeiten ferngewartet werden, etwa um ein Software-Update vorzunehmen. Administratoren können notwendige Konfigurationen vor-nehmen, ohne die Anwender in der Nutzung der PCs einzuschränken. Ist keine Administration nötig, bleibt der PC im Ruhezustand.

Teil der Green-IT-Strategie der Landesregierung

Die positiven Auswirkungen auf die Energiebilanz waren dem Ministerium eine Förderung wert, von der alle Hochschulen profitieren sollen. Der Lan-desregierung geht es auch um ein vorbildliches Verhalten beim Umgang mit Ressourcen. Ein wichtiger Grundsatz ist dabei, über Green-IT-Lösungen den Energieverbrauch zu reduzieren. Der BW-PC ist damit Teil der Nachhaltigkeitsstrategie von Baden-Württemberg. „Die Landesregierung denkt dabei durchaus global. Natürlich spielen wirtschaftliche Aspekte eine wichtige Rolle. Aber selbst wenn sich die höheren Anschaffungskosten eines Null-Watt-Netzteils und eingesparte Energiekosten wirtschaftlich le-diglich neutralisieren, ist der reduzierte Energieverbrauch ein wichtiger As-pekt bei Investitionsentscheidungen“, sagt Professor Dr. Gerhard Schneider, CIO der Universität Freiburg. Er ist Initiator des BW-PCs und hat sich auch für den Null-Watt-PC starkgemacht.

Standardisierung vorangetrieben

Mittlerweile haben die Hochschulen mehr als 10.000 Arbeitsplatzrechner über das in Deutschland einzigartige Modell der Bedarfsbündelung bestellt. Damit hat das Land Baden-Württemberg einen hohen Grad an Standardi-sierung in der IT-Infrastruktur erreicht, was unter anderem die Administrati-on deutlich erleichtert. „Wir stellen bei unseren Gesprächen mit Rechen-zentrumsleitern aus dem Bereich Forschung und Lehre in anderen Bundes-ländern immer wieder fest, dass mit Hochachtung nach Baden-Württemberg geschaut und die Kooperation mit dem Ministerium als vor-bildlich erachtet wird“, sagt Ole Behrens, Branchenmanager Forschung & Lehre, Bechtle AG.

Weitere Informationen unter:
www.bechtle.de

Trendstudie Services Procurement Excellence

Die Bedeutung der externen Dienstleister für den Erfolg großer Unternehmen in Deutschland steigt. Rechnet man allein die Marktvolumina von Managementberatung, IT-Beratung und IT-Services, Technologie-Beratung und Engineering Services, IT-Freelancern sowie Zeitarbeit und Personaldienstleistungen zusammen, ergibt sich ein Aufkommen von mehr als 100 Milliarden Euro. Und das externe Auftragsvolumen wächst weiter. Das zeigt die aktuelle Trendstudie „Services Procurement Excellence: Dienstleistersteuerung und Compliance im Fokus“, die das Marktforschungs- und Beratungsunternehmen Lünendonk in Zusammenarbeit mit dem SAP-Tochterunternehmen Fieldglass durchgeführt hat. Sie steht ab sofort zum kostenfreien Download zur Verfügung.

Ausweitung des Auftragsvolumens in allen Unternehmensbereichen

Tendenziell wollen die in der Studie befragten Anwenderunternehmen das Volumen der externen Aufträge ausweiten, dabei aber die Zahl der Dienstleister konsolidieren. Genutzt werden die externen Dienstleistungen in allen Unternehmensbereichen: Die Bandbreite reicht von der Unterstützung in der Produktion oder der Urlaubsvertretung im Backoffice über Beratungsprojekte mit Managementberatern sowie Transformationsprojekte mit IT-Beratungsunternehmen zur Implementierung strategischer Konzepte in Softwareprozesse bis hin zu Managed Services, bei denen Aufgaben dauerhaft an externe Dienstleistungspartner vergeben werden. Die Zusammenarbeit erfolgt auf Basis von Arbeitnehmerüberlassung, Dienstverträgen oder Werkverträgen.

Hohe Zahl an externen Dienstleistern verlangt Transparenz

Reichte es in der Vergangenheit aus, das Beauftragungsvolumen in den verschiedenen Dienstleistungskategorien zu kennen, sind die Anforderungen an die Transparenz in der Providersteuerung in den letzten Jahren deutlich gestiegen. „Treiber dieser Entwicklung war einerseits die Chance, durch Volumenbündelung bessere Konditionen bei den Beratungs- und Dienstleistungspartnern zu erzielen. Andererseits hat das Thema Compliance bei der externen Auftragsvergabe zu neuen Transparenzanforderungen geführt, die ohne softwaregestützte Prozesse nur mit hohem Aufwand abbildbar sind“, erläutert Hartmut Lüerßen, Partner bei Lünendonk. „Für die Providersteuerung wurden daher Vendor Management Systeme (VMS) entwickelt. Sie bilden alle erforderlichen Informationen über die Zusammenarbeit ab, die in den ERP-Systemen nicht enthalten sind“, so Lüerßen weiter.

Interviews mit Entscheidern aus dem Einkauf großer Anwenderunternehmen

Für die Trendstudie wurden 32 große Anwenderunternehmen in Deutschland mit mehr als 1.000 Mitarbeitern befragt, davon beschäftigen 15 Unternehmen mehr als 5.000 Mitarbeiter. Im Durchschnitt setzen die befragten Unternehmen 934 externe Mitarbeiter ein. Dahinter stehen durchschnittlich 120 Unternehmen, mit denen die Auftraggeber zusammenarbeiten. Die Interviews wurden mit hochkarätigen Entscheidern aus dem Einkauf geführt. Die Studie ist ab sofort kostenfrei erhältlich unter www.fieldglass.com.

Die Lünendonk®-Studien und Publikationen gehören als Teil des Leistungsportfolios von Lünendonk zum „Strategic Data Research“ (SDR). In Verbindung mit den Leistungen in den Portfolio-Elementen „Strategic Roadmap Requirements“ (SRR) und „Strategic Transformation Services“ (STS) ist Lünendonk in der Lage, seine Beratungskunden von der Entwicklung der strategischen Fragen über die Gewinnung und Analyse der erforderlichen Informationen bis hin zur Aktivierung der Ergebnisse im operativen Tagesgeschäft zu unterstützen.

Weitere Informationen unter:
www.luenendonk.de
www.de.fieldglass.com

 

Bildquelle / Lizenz: flickr.com / Miemo Penttinen, miemo.net Benutzt unter Creative Commons