Lösung für Energiespeicher: Heiliger Gral der Branche?

Neue Energielösungen, vor allem bei der Speicherung, werden benötigt, um des steigenden Bedarfs Herr zu werden. Anlagen in erneuerbare könnten bald rentabler sein als in traditionelle Energien – das wird die Branche umgestalten.

Da sowohl die Weltbevölkerung als auch die Urbanisierung weiterhin rasch zunehmen, steigt auch der Energieverbrauch unwiderruflich. Prognosen zufolge wird der globale Energiebedarf im Jahr 2040 43 Prozent höher sein als heute. Das wiederum sorgt für Bedenken in Bezug auf die Sicherheit der Energieversorgung. «Der Pro-Kopf-Energieverbrauch steigt in allen grossen Schwellenländern bereits rasch an und wird das wohl auch weiter tun. Ohne weitere Effizienzsteigerungen und unter der Annahme der Konvergenz des Energieverbrauchs in Richtung des OECD-Niveaus denken wir, dass die zunehmende Energienachfrage aus wichtigen Schwellenländern nahezu das 2,5-Fache des aktuellen Gesamtbedarfs für Europa und die USA zusammen ausmacht», sagt Eugène Klerk aus dem Bereich Global Thematic & ESG Research bei der Credit Suisse. Effizienzsteigerungen, insbesondere in Bezug auf den Transport von Erdölprodukten und Biokraftstoffen, dürften in den kommenden Jahren erreicht werden, aber das reicht noch nicht aus. Daher besteht ein dringender Bedarf an neuen Energielösungen – wie die Lösung des Energiespeicherproblems, das mit Verbesserungen bei der Batterietechnologie zusammenhängt – sowie einer stärkeren Nutzung erneuerbarer Energiequellen. «Die Speicherung ist der heilige Gral und wird möglicherweise für die grösste Umwälzung der Branche seit Jahrzehnten sorgen», erklärt Vincent Gilles, Leiter European Utilities Research.

Lösung des Speicherproblems würde die gesamte Branche umgestalten

Kein Industrieland würde es akzeptieren oder könnte es sich leisten, länger als ein paar Minuten ohne Strom zu sein. Da Strom nicht gespeichert werden kann, neigt das traditionelle Geschäftsmodell der Energiebranche zur Überkompensation für die Sicherstellung der Stromversorgung, was die Spitzenlasterzeugung zu einem sehr rentablen Teil ihrer Geschäfte macht. «Eine günstige und zuverlässige Speicherung eliminiert diesen Anreiz und würde sich äusserst negativ auf die Rentabilität der traditionellen Stromerzeugung auswirken», so Vincent Gilles. Die heutigen Energiepreise werden jedoch grösstenteils weiterhin durch Subventionen verfälscht und verlangsamen so den scheinbar offensichtlichen Trend in Richtung wettbewerbsfähiger sauberer Energie. Allein in diesem Jahr sollen, IWF-Schätzungen zufolge, die globalen Energiesubventionen USD 5,3 Bio. erreichen, wobei Kohle am stärksten profitieren wird. (Abb. 1.) «Würden die Rohstoffpreise die Kosten (der örtlichen Umweltbelastung) voll widerspiegeln, wären die Öl-, Erdgas- und Kohlepreise um ein Vielfaches höher als zurzeit», meint Vincent Gilles und fügt hinzu, dass «eine effiziente Preisgestaltung den Ruf nach nicht fossilen Brennstoffen steigern würde.»

Effiziente Preise für fossile Brennstoffe

Effiziente Preise für fossile Brennstoffe

Energiespeicherkapazitäten – ein völlig unterentwickelter Markt

Die weltweiten Speicherkapazitäten liegen derzeit bei nur 2,2 Prozent der jährlichen globalen Energieproduktionskapazitäten; das Wachstumspotenzial scheint also solide zu sein. Um dies zu erreichen, konzentriert sich die Forschung derzeit auf neue Materialien, neue chemische Zusammensetzungen für alternative Batteriearten und die Entwicklung von Strategien zur anderweitigen Verwendung von Elektrofahrzeugbatterien. Die Lösung des Energiespeicherproblems ist daher tatsächlich der Schlüssel, um erneuerbare Energien wie Solarenergie attraktiver zu machen. Warum? Da erneuerbare Energien unter dem Effekt der Unbeständigkeit leiden. Solar- oder Windenergie werden beispielsweise dann produziert, wenn sie nicht benötigt werden oder umgekehrt. «Die Steigerung der Speicherkapazität würde die Unbeständigkeit reduzieren. Darüber hinaus würde die Existenz grösserer Speicherkapazitäten im gesamten Versorgungsnetz die Stromqualität und Zuverlässigkeit der (Energie-)Versorgung umfassender verbessern», so Eugène Klerk. Branchenexperten gehen davon aus, dass die Speicherkosten zwischen 2012 und 2030 um bis zu 75 Prozent sinken könnten. «Diese Tatsache gepaart mit fallenden Photovoltaik-Modulpreisen sollte eine integrierte Solar-Speichereinheit gegenüber anderen Energiequellen wettbewerbsfähig machen», unterstreicht Eugène Klerk.

«Neue Energie» bald rentabler als «alte Energie»

Alternative Energiequellen werden effizienter und dadurch wesentlich günstiger. Erträge aus alternativen Energiequellen steigen folglich schnell an, während jene traditioneller Stromerzeugungsunternehmen sinken. «‹Neue Energie› wird wahrscheinlich innerhalb von fünf Jahren, auf nicht subventionierter Basis, rentabler für Anleger sein als ‹alte Energie›», betonte Vincent Gilles. Einer der wichtigsten Treiber ist der zunehmende Kostenrückgang in der «ersten Generation» alternativer Energiequellen wie Wind- und Solarenergie. In vielen Regionen ist Onshore-Windenergie schon bei «Netzparität», d. h., die Wettbewerbsfähigkeit mit fossilen Brennstoffen wurde erreicht. Die Entwicklung bei der Solarenergie sieht ähnlich aus. Die Kosten für Solar-Grossanlagen sind seit 2011 um 60 Prozent gesunken, wodurch Solarenergie (ohne jegliche Subventionen) in mindestens 15 Ländern bezüglich der Kosten und gegenüber den Baukosten eines neuen Erdgaskraftwerks konkurrenzfähig ist. Im Vergleich zu Kohle ist Solarenergie zwar noch nicht wirtschaftlich, sie ist aber nur ca. 25 Prozent davon entfernt. Im letzten Jahr machte Solarenergie fast ein Drittel der neu erstellten Erzeugungskapazitäten in den USA aus, eindeutig getrieben durch sinkende (Installations-)Kosten. «Wir sind der Meinung, dass das Solarwachstum unterschätzt wird und bis 2040 nahezu 21 MMBoe (Mio. Barrel Öl-Äquivalent) entsprechen könnte. Trotz dieser Wachstumsgeschwindigkeit würden fossile Brennstoffe immer noch mehr als 70 Prozent der Energieversorgung ausmachen, mit erheblichen CO2-Emissionen von Kohlekraftwerken und mit einer Unsicherheit im Ölkomplex durch den zugrunde liegenden Rückgang der bestehenden Produktion. Durchsetzungsfähigere Energieeffizienz und Energieumwandlung scheinen erforderlich», so Edward Westlake, Co-Leiter von Global Equity Oil and Gas Research. (Abb. 2)

Verteilung des globalen Energiebedarfs

Verteilung des globalen Energiebedarfs

Batteriekosten sinken rascher als erwartet

Bessere Energiespeicherung und der Elektrofahrzeugmarkt hängen direkt mit den Batteriekosten zusammen. «Die aktuellen Batteriepreise liegen tatsächlich unter dem Niveau, das Branchenexperten für diesen Zeitpunkt prognostiziert hatten», meint Dan Galves, Research-Analyst US Automotive and Auto Parts. Das Beispiel von Tesla, dem Hersteller reiner Elektroautos, zeigt, dass batteriebetriebene Autos viel mehr als ein Nischensegment sind. «Es gibt keinen Grund, warum der Rest der Branche nicht aufholen könnte», so Galves. Der Marktanteil von Teslas Modell S hat in seinem Preissegment fast 20 Prozent erreicht – trotz Lieferengpässen, einem unausgereiften Vertriebssystem und ohne Werbung. «Die wachsende Nachfrage nach Elektroautos wird für höhere Investitionen in Batteriekapazitäten sorgen, was die Kosten weiter senken wird. Diese Batterien zur Energiespeicherung schaffen ein stabileres (Elektrizitäts-)Netz, da sie in der Regel ausserhalb der Spitzenzeiten geladen werden, was einen grösseren Anteil erneuerbarer Energien an der Stromerzeugung ermöglicht», stellt Dan Galves fest. All diese Faktoren ermöglichen billigeren Strom, was im Gegenzug die Betriebskosten von Elektrofahrzeugen weiter senkt. Das wiederum sorgt für höhere Volumina, was zu niedrigeren Batteriekosten führt und so die Akzeptanz von Elektrofahrzeugen noch weiter steigert. Die Zahl der Elektro-Modelle dürfte daher in den kommenden Jahren rapide steigen. (Abb. 3) Die Reichweite reiner Elektroautos wächst rasch. So erreicht Tesla bereits eine Reichweite von über 322 Kilometern. Laut jüngsten Ankündigungen werden auch diverse Modelle anderer Autohersteller diesen Meilenstein bis 2020 erreichen. Traditionelle Autobauer können sich nicht länger auf ihren Lorbeeren ausruhen.

Bildquelle / Lizenz: Alle Bilder Copyright Credit Suisse; bis auf Aufmacher: flickr / tlegeltuf (CC BY-SA 2.0)

Quelle des Textes: Credit Suisse

Herausforderung Customer Journey

Modernes Omnichannel-Business: Am 16. und 17. September präsentiert das Hamburger Software-Unternehmen novomind Lösungen und Produkte im Rahmen der internationalen Leitmesse und Konferenz für die digitale Wirtschaft dmexco in Köln. In Halle 06 am Stand D 063 dreht sich bei novomind in diesem Jahr alles um den Kunden und seine steigenden Anforderungen an modernes Online-Shopping.

„Die Customer Journey ist die aktuelle Herausforderung für Online-Händler“, sagt Stefan Grieben, COO bei novomind. „E-Commerce und Kundenservice gehören heute eng zusammen, wenn man die Wünsche der Kunden wirklich erfüllen möchte.“

Mit der novomind Commerce and Customer Service Platform präsentieren die Hamburger das Komplett-Paket für erfolgreiches Omnichannel-Business. Die Plattform bündelt die vier Kernelemente: Das Multikanal-Shopsystem novomind iSHOP bildet mit seinen zahlreichen Konfigurations- und Ausbauoptionen das Rückgrat. Mit novomind iPIM verfügt die Plattform über ein hocheffizientes Managementsystem für HD-Produktdaten. novomind iPOEM sorgt mit seiner reibungslosen Marktplatzanbindung für Erhöhung von Reichweite und Umsatz. Und mit novomind iAGENT steht eine exzellente Software-Lösung für die individuelle Kundenkommunikation über alle Kanäle hinweg zur Verfügung, die in Echtzeit alle Kundenwünsche erfassen und verarbeiten kann – via Text, Audio oder Video.

„Wir sind davon überzeugt, dass integrierte Lösungen die Zukunft sind“, sagt Stefan Grieben. „Wer einen wirklich modernen Webshop betreiben möchte, sollte neben der Shop-Lösung auch in Sachen PIM, Marktplatzanbindung und Customer Service gerüstet sein.“
Neben den Komplexitäts- und Kostenvorteilen sprechen zahlreiche weitere Argumente für die novomind Commerce and Customer Service Platform: Webshop-Projekte lassen sich wesentlich schneller umsetzen, alle erforderlichen Komponenten sind bereits enthalten und der Koordinationsaufwand innerhalb des Projektteams sinkt. Das spart Zeit und Geld.

Die integrierte novomind Commerce and Customer Service Platform enthält damit alles, was ein moderner Hochleistungswebshop braucht – und kann jedes Mal zu 100 Prozent individuell auf die Bedürfnisse des Shopbetreibers angepasst werden. Stefan Grieben: „Oft stellt sich die Frage nach Best-of-Breed ODER einer integrierten Lösung. Bei uns lautet die Antwort: Best-of-Breed-Systeme in einer integrierten Lösung – das ist die novomind Commerce and Customer Service Platform.“

Weitere Informationen unter:
www.novomind.com

Bildquelle / Lizenz: flickr.com / Wolfgangphoto veröffentlicht unter Lizenz https://creativecommons.org/licenses/by-nd/2.0/

Wie is(s)t Deutschland 2030?

Wenn Algen, In-Vitro-Fleisch und Insekten-Burger tiefgekühlt mit Drohnen nach Hause geliefert werden, dann könnte es sich um eine Online-Bestellung aus dem Jahr 2030 handeln. Wie sich der Wandel unserer Werte, der Kommunikation und der Medizin auf unser Einkaufs- und Ernährungsverhalten auswirken, hat die Nestlé-Zukunftsstudie „Wie is(s)t Deutschland 2030?“ untersucht.

Erstmals geben die Menschen in Deutschland Antworten auf die Frage, wie sie in Zukunft essen möchten. Hierzu beurteilten in einer repräsentativen Befragung über 1.000 Konsumenten fünf Zukunftsszenarien. Ein Ergebnis dieser Befragung: 80 Prozent der Menschen in Deutschland blicken positiv in die Zukunft. Zwölf Prozent der Menschen in Deutschland werden als „Zukunftsgestalter“ den Wandel der Ernährung aktiv mitgestalten. Zahlreiche Experteninterviews und Gespräche mit Trendforschern runden die Darstellung ab.

Zur Zielgruppe

Wer eine fundierte Debatte über die Zukunft der Ernährung führen möchte, muss die Nestlé Zukunftsstudie gelesen haben. Das Buch richtet sich an alle, die in Forschung, Kultur, Wissenschaft und Politik die Ernährung gestalten möchten. Sowohl für die Food-Industrie als auch den Food-Handel ist die Studie von hoher Relevanz. Sie skizziert mögliche Zukunftsszenarien und liefert umsetzbare Erkenntnisse, wie die Menschen in Deutschland diesen „Zukünften“ gegenüberstehen, was sie sich wünschen und wo es noch Vorbehalte gibt.

Die Herausgeber

Gegründet 2010 unter dem Motto „Ernährung ist der Spiegel der Gesellschaft“, erarbeitet das Nestlé Zukunftsforum Impulse für eine neue Kultur der Ernährung. Die Ergebnisse der durch die Mitglieder des Nestlé Zukunftsforums in Auftrag gegebenen Studie „Wie is(s)t“ Deutschland 2030?“ bietet die Grundlage für eine qualifizierte Debatte über die Ernährung der Zukunft.

Die Mitglieder des Nestlé Zukunftsforums sind: Renate Schmidt, Bundesfamilien-ministerin a. D. (Vorsitzende), Gerhard Bersenbrügge (Vorstandsvorsitzender der Nestlé Deutschland), PD Dr. Thomas Ellrott, (Universität Göttingen); Prof. Dr. Liselotte Schebek (TU Darmstadt), Prof. Dr. Gunther Hirschfelder (Universität Regensburg), Prof. Peter Wippermann (Gründer des Trendbüros) und Jens Krüger, Geschäftsführer TNS Deutschland GmbH.

1. Auflage, August 2015, 208 Seiten, Softcover, 198 x 265 mm

Durchgehend vierfarbig, zahlreiche Abbildungen, Grafiken und Tabellen

Deutscher Fachverlag GmbH

ISBN 978-3-86641-309-2

Bestell-Nr. 41309 29,80 EUR*

Bestellen unter: http://www.dfv-fachbuch.de/marketing/isst-deutschland-2030,978-3-86641-309-2.html

E-Commerce in einer idealen Welt – Teil 3

User Experience Design

User Experience Design dient dazu, dem Anwender beim Bedienen von Produkten oder Services das bestmögliche Erlebnis zu bieten. Das UX Design ist dabei für die Gestaltung der Bedienoberfläche (Interface) zuständig.

Im digitalen Umfeld kann das Interface z.B. eine Website, eine App aber auch ein Touch-Screen an einem Fahrkartenautomaten sein.
Der Designer beginnt in der Regel mit Konzepten, die beschreiben, wie der Nutzer seine Ziele erreichen und die geplanten Funktionen effizient gebrauchen kann (Usability).

Dabei werden Personas und User Stories festgelegt sowie Wireframes erstellt. In Abstimmung mit dem Kunden wird dargestellt, für welche Nutzer in welchen Situationen und auf welche Weise das geplante Angebot seinen Zweck erfüllen soll. Die Übergänge zum grafischen Design sind dabei fließend. Dies wird in Personalunion vom UX Designer oder von Grafik-Spezialisten übernommen. Ist die Funktionalität geklärt, dient UX Design weiterhin dazu, ein Angebot zu schaffen, das Anwender gerne nutzen (Desirability oder Joy of Use). Idealerweise stärkt dies auch die Marke des Unternehmens (Brand Experience). Bei der Erstellung des UX Designs haben sich u.a. Clickdummies bewährt. Sie ermöglichen ein Navigieren durch die Layouts eines digitalen Interfaces, ohne dass dieses tatsächlich programmiert werden muss. Zudem setzt sich die Bereitschaft durch, mittels Rapid Prototyping schneller zu testfähigen Ergebnissen zu kommen.

Ein Test gibt Aufschluss über die Benutzerfreundlichkeit

Der Erfolg eines UX Designs wird meist durch A/B-Tests untersucht, in dem zwei Nutzergruppen unterschiedliche Versionen des Interfaces angezeigt werden. So gewinnt zum Beispiel im E-Commerce Bereich meist die Version den Test, die eine höhere Zahl von Nutzern zum tatsächlichen Kauf bewegt (Conversion Rate). Ferner können auch die Verweildauer, der Grad der Interaktivität oder der Wert des Warenkorbs Parameter für A/B-Tests sein. Die Erfolgskriterien sind jedoch variabel.

Der Text erschien zunächst auf digitalwiki.de

 

Weitere Informationen unter:
www.sevenval.com

Lesen Sie auch:
Das (mobile) Web gehört den Nutzern

Der Autor Tassilo Eichler ist Diplom Medienberater und seit mehr als 10 Jahren im Onlinebereich tätig. Sechs davon als Konzepter und UX Designer. Sein Schwerpunkt bei Sevenval Technologies ist Konzeption und Design von Mobile- und Multi Access-Websites und Apps. Die Sevenval Technologies GmbH ist ein Unternehmen für Mobile- und Webtechnologien. Das Unternehmen realisierte mehr als 2.000 Mobile- und Web-Projekte. Kunden sind Großkonzerne wie z. B. Mercedes-Benz, Douglas, die Deutsche Post und Bosch.
Gastbeitrag von Jan Webering in TREND REPORT im Juni im HANDELSBLATT: Das (mobile) Web gehört den Nutzern

Kaffeepause: Effektive Unternehmenskommunikation

Dass ein gutes Betriebsklima die Leistungsbereitschaft der Mitarbeiter fördert, ist keine neue Erkenntnis. Die Umsetzung dieser Einsicht geschieht jedoch nicht von sich selbst heraus. Im Mittelpunkt steht die Frage, was macht ein gutes Betriebsklima aus? Wie ist die Unternehmenskommunikation konkret zu verbessern, um ein gutes Betriebsklima zu fördern?
Die Antworten sind vielschichtig, haben aber einen gemeinsamen Nenner: den Mitarbeiter selber.
Die Beziehung der Beschäftigten untereinander ist die Basis eines guten und effektiven Arbeitsklimas. Diese Beziehung ist aber kein Prozess von außen, er muss von den Beteiligten selbst aktiv entwickelt werden. Es ist ihre Aufgabe, das Miteinander erfreulich und menschlich zu gestalten.

Kommunikation als Auszeit – Die kleine Büroküche für Zwischendurch

Hektik und Stress bestimmen viele Arbeitsplätze. Dabei kann die Kommunikation der Mitarbeiter zweckgebunden und unpersönlich werden. Zur internen Kommunikationsaufwertung, kann das Schaffen einer Rückzugsfläche vorteilhaft sein. Ein gemeinsamer Kaffee an einem neutralen Ort, Büroküche oder Pausenecke, schafft eine unbefangene Atmosphäre. Die räumliche Distanz zum Arbeitsplatz, das betonte Pausengefühl, weckt die Bereitschaft, auch private Dinge zu kommunizieren – ein wichtiger Faktor in der Unternehmenskommunikation. Private Themen schaffen Nähe und Vertrautheit, Mitarbeiter begegnen sich dadurch mit mehr Respekt und Verständnis. Das kann durch eine gute Ausstattung der Büroküche unterstützt werden. Guter Service und interessantes Kaffeezubehör schaffen eine optische Wohlfühlatmosphäre, die positiv auf die Art und Weise der Kommunikation übertragen wird.
Doch auch am Arbeitsplatz sind ausreichend Möglichkeiten für die Verbesserung der Unternehmenskommunikation gegeben.

Kommunikation am Arbeitsplatz – Das Miteinander will gepflegt sein

Die Unternehmenskommunikation ist letztlich ein Produkt der Mitarbeiter, sie bestimmen Inhalt und Erfolg. Ein Vorgesetzter muss diesen Prozess fördernd im Auge haben, er kann ihn aber nicht befehlen. Aus dem Grund muss er für eine offene und ehrliche Atmosphäre sorgen. Dazu gehört, motivierende Herausforderung als Führungsstil entwickeln statt unnötigen Druck auf den Mitarbeiter ausüben, Problemfelder ansprechen und Gerüchten durch kontruktive Kommunikation vorbeugen. Wichtig auch, den Mitarbeiter früh zu informieren und in Projekte einzubeziehen. Das schafft Vertrauen, denn der Mitarbeiter fühlt sich eingebunden.
Doch auch die Kommunikation unter den Kollegen muss gepflegt werden. Persönliche Mitteilungen vernachlässigen und nur noch E-Mails schicken, ist nur ein Punkt dem dabei gegengesteuert werden muss.
Neben der notwendigen Eigeninitiative des einzelnen Mitarbeiters, sind Teambesprechungen eine andere, wichtige Plattform. Sie sichern den Informationsfluss und damit die Bereitschaft der Mitarbeiter, die eigene Kreativität einzubringen.
Doch auch die Rahmenbedingungen spielen für eine gute Unternehmenskommunikation eine wichtige Rolle.

Bessere Rahmenbedingungen für die Unternehmenskommunikation – Es gibt Möglichkeiten

Die richtige Ausstattung des Arbeitsplatzes steht ganz oben. Der Mitarbeiter muss sich wohlfühlen, entsprechend sind seine Bedürfnisse zu beachten. Ein gut ausgestatteter Mitarbeiter fühlt sich anerkannt, welches er als positives Feedback an das Betriebsklima zurückgibt.
Ein weiterer wichtiger Faktor ist der sinnvolle Arbeitsplatzwechsel sowie Rotationen innerhalb des Unternehmens. Das fördert das gegenseitige Verständnis und eine Toleranz für Problemstellungen anderer Mitarbeiter wird entwickelt.
Nicht zuletzt sind auch gemeinsame Freizeitgestaltungen wichtige Basiselemente, um die Unternehmenskommunikation zu fördern und neue Ansätze zu schaffen. Hier sollte sich der Chef nicht ausgrenzen. Der notwendige Teamgeist darf nicht auf Hierarchiegrenzen reduziert werden.

Fazit

Eine gute Unternehmenskommunikation ist ein wichtiger Faktor für den Erfolg eines funktionierenden Unternehmens. Nur wenn der Mitarbeiter diese Kommunikation aktiv mitgestaltet, wird daraus ein Arbeitsklima zum kreativen Wohlfühlen. Basis ist ein offener und ehrlicher Umgang der Mitarbeiter untereinander. Führungskräfte sollten diesen Prozess fördern, sie können ihn aber nicht erzwingen.

Weitere Informationen unter:
www.tchibo-coffeeservice.de

Bildquelle / Lizenz: flickr.com/Rae Allen; veröffentlicht unter:  https://creativecommons.org/licenses/by/2.0/

Innovative Benefits gegen Fachkräftemangel

Was ist eigentlich ein Benefit? Laut Duden handelt es sich dabei um einen besonderen Vorteil, Nutzen oder Ertrag. Also etwas, worüber sich jeder freut. Gut punkten können hier jetzt auch viele Arbeitgeber auf der Suche nach immer rarer werdenden Fachkräften. Ein vielseitiges Benefit-Angebot kann ausschlaggebend sein. Die ValueNet Group ist seit 2002 darauf spezialisiert. Demnächst gibt sie Unternehmen jeder Größe mit neuem Portal und einfacher App-Lösung das richtige Instrument an die Hand.

Seit 20 Jahren behauptet sich ein privates Pflegeheim im Landkreis Konstanz als innovative Einrichtung am Markt. Der Inhaber kämpfte viele Jahre für die Umsetzung seiner Vorstellungen einer anspruchsvollen Betreuung und Pflege. Heute hat das Heim ein hervorragendes Renommee, die begrenzten Pflegeplätze sind auf Jahre im Voraus vergeben. Eine Traumsituation? „Im Prinzip ja“, meint der Geschäftsführer „trotzdem haben wir seit Jahren das Problem, dass es an verlässlichen und engagierten Pflegekräften mangelt. Die Betten sind belegt und Personal ist schwierig zu bekommen. Sehr viel mehr Gehalt anzubieten, geben die Einnahmen nicht her. Doch dann zeichnete sich die Idee von Gesundheitsbenefits als Glückstreffer ab. Sonderpreise für Thermenbesuche, Spa- Wellness- und Fitnessangebote sowie vergünstigte Einkaufsmöglichkeiten für ergonomische Sitz- und Schlafmöbel hatte sich das Stammpersonal gewünscht. Nun half das auch bei der Mitarbeitersuche und kurz darauf hatten wir drei neue, versierte Altenpflegerinnen. Die anstrengende Phase der Doppelschichten für unsere Mitarbeiter war endlich vorbei.“

Lockmittel für gute Fachkräfte: Was zahlt sich wirklich aus?

Das Pflegeheim steht mit diesem Personalproblem nicht allein da. Laut Studie der ManpowerGroup, einer der weltweit größten Personaldienstleister, ist der Fachkräftemangel inzwischen ein globales Problem. Deutschland trifft es besonders hart. Nach eigenen Angaben der Unternehmen leiden aktuell 46 Prozent unter einem akuten Fachkräftemängel und damit 6 Prozent mehr als 2014. Jede zweite Firma muss lukrative Aufträge ablehnen, die Wettbewerbsfähigkeit sinkt rapide. „Der Arbeitsmarkt hält mit dem wirtschaftlichen Aufschwung im Land nicht mehr Schritt. Um den Konjunkturmotor am Laufen zu halten, braucht es neue Ideen, wie wir Menschen in Arbeit bringen“, weiß Herwarth Brune, der Vorsitzende der Geschäftsführung der ManpowerGroup Deutschland. „Eine ganze Generation der Babyboomer steht vor dem Ruhestand. Diese Lücke müssen die Arbeitgeber füllen, beispielsweise durch gezielte Nachwuchsprogramme.“

Die Münchner ValueNet Gruppe bietet innovative Lösungen für Benefits und nimmt ihren Kunden den kompletten Abwicklungsaufwand ab, zum Beispiel in Bezug auf Dienstwagen, erläutert Geschäftsführer Stefan Schadhauser.

Die Mehrheit der Personalverantwortlichen setzt in erster Linie auf Aus- und Weiterbildungsmaßnahmen für bestehendes Personal. Viel Erfolg versprechen sich die Unternehmen von innovativen Maßnahmen zur Personal-Anwerbung, von zusätzlichen Benefits, die den Reiz von ein paar Euro mehr auf dem Konto möglichst übertreffen sollen. Doch was sind das für Zusatzleistungen, die den Mitarbeitern die Arbeit besonders versüßen?  Und warum sollte sie der Arbeitnehmer über seine Firma beziehen, statt sie sich individuell am freien Markt auszusuchen?  Ganz einfach, weil er auf diese Weise viel Geld sparen kann. Egal, ob es sich um einen neuen Laptop, die Altersvorsorge, den erholsamen Wellnessurlaub oder um einen Zuschuss zur Kinderbetreuung handelt. Auch das Pflegeheim am Bodensee entschied sich für Benefits und dabei besonders für spezielle Gesundheits-Benefits, die optimal zu den Bedürfnissen der Mitarbeiter passten. Das außergewöhnliche Bonus-Programm wurde explizit per Stellenanzeige beworben und wirkte.

Das neue Portal von ValueNet wird freie Auswahl unter mehr als 500 Lieferanten bieten

Neben der Mitarbeiterbindung bzw. –gewinnung bieten Benefit-Programme viele Vorteile. Stefan Schadhauser, Geschäftsführer der Münchner ValueNet Group, erklärt dies anhand eines Beispiels: „Nehmen wir an, ein Mitarbeiter bekommt einen neuen Firmenwagen. Hier das für beide Seiten am besten geeignete Modell herauszufinden, kostet extrem viel Arbeitszeit. Neben der Auswahl der passenden Marke und des richtigen Modells gilt es ja auch die finanziellen und rechtlichen Aspekte zu beachten und den finanziellen Vorteil Monat für Monat korrekt zu verbuchen. In vielen Firmen gibt es extra Mitarbeiter, die sich nur um diesen Bereich kümmern. Wir nehmen den Firmen diesen Aufwand ab. Und nicht nur bei Autos, sondern bei über 500 Lieferanten von frei wählbaren Zusatzleistungen aller Art! Da ist für jeden Mitarbeiter etwas dabei!“

Im Januar 2016 wird die ValueNet Group, Deutschlands Marktführer im Bereich Konzeption und Verwaltung von Compensation und Benefit Angeboten, mit dem neuen ValueNet-Portal und einer bequemen App-Lösung online gehen. Interessierte Unternehmen bekommen bereits jetzt ein Testportal zur Verfügung gestellt. Dort können die Zusatzleistungen durch den Arbeitgeber sowie Arbeitnehmer bewertet und ausgewählt werden. Um sie mit der Fülle der Angebote nicht allein zu lassen, stehen erklärende Filme sowie eine permanente Online-Beratung zur Verfügung. Entscheidet sich ein Unternehmen nach der Testphase für das Angebot, wird das Portal passend zum Corporate Design der Firma gestaltet. Die Informationen über Arbeitgeberzusatzleistungen werden zudem direkt an Facebook, Xing und andere soziale Netzwerke weitergeleitet. So werden potentielle Mitarbeiter frühzeitig auf die Sonderleistungen aufmerksam.

„Was verdiene ich, was machen die Zusatzleistungen aus?“

Bei vielen deutschen Unternehmen besteht ein großes Optimierungspotential, was die wirkungsvolle Mitarbeiterbindung und -gewinnung betrifft. Eine Studie der Unternehmensberatung Kienbaum hat ergeben: Nur in 22 Prozent der Firmen ist es Mitarbeitern möglich, in Form von Gehaltsumwandlung sinnvolle Benefits aus einem Katalog auszuwählen. Die Leiterin des Vergütungsmanagements bei Kienbaum, Sandra Düsing, empfiehlt daher in einem Artikel der Zeitung „Die Welt“, die gesamte Palette der Benefit-Angebote regelmäßig zu überprüfen. „Häufig schaffen es die Firmen auch nicht, dass alle Mitarbeiter einen Überblick über sämtliche Vergütungsbestandteile haben“, bemängelt Sandra Düsing. „Neben Grundgehalt und Boni sollte den Mitarbeitern auch regelmäßig der monetäre Wert der Zusatzleistungen in ihrer Gesamtheit mitgeteilt werden.“

Die Münchner Benefit-Experten haben diesen Mangel erkannt und machen die Handhabung des ValueNet-Portals so leicht und komfortabel wie möglich – via APP mobil auf Smartphone oder Tablet, im Büro oder Zuhause für die ganze Familie zur gemeinsamen Beratung vor dem heimischen Bildschirm. Für die Angestellten werden regelmäßig persönliche Informationen und Budgetpläne erstellt, so dass sie kontinuierlich Einblick in ihre Gehaltskonten haben. Das Portal ermöglicht eine Art virtuellen Einkaufsbummel, bei dem die Mitarbeiter die Bedürfnisse ihrer Angehörigen mit einbeziehen können. Wofür auch immer sie sich entscheiden – ob für einen großen Familienurlaub, für Weiterbildungsmaßnahmen, eine neue Büroeinrichtung, für Fitness-Kurse oder das monatliche Zeitschriften-Abo – die Gehaltsumwandlung macht sich stets bezahlt. Die langjährige Erfahrung der ValueNet Group ermöglicht es den Mitarbeitern das Potential an Mengenrabatten und  Steuervorteilen voll auszuschöpfen.

Durchdachte Benefits – ein wichtiger Wettbewerbsvorteil

Flexibel gestaltete Benefit-Systeme gewinnen weltweit an Bedeutung – nicht nur für Großkonzerne. Doch kleinere und mittelständische Unternehmen können da von sich aus kaum mithalten. Wenn nun aber im Januar 2016 das ValueNet-Portal online geht, haben auch sie die Möglichkeit große Benefitvorteile anzubieten. Und wer derzeit nach einem neuen Job sucht, kann seinen künftigen Arbeitgeber frank und frei auf spezielle Zusatzleistungen ansprechen.

Weitere Informationen unter:
www.valuenet.ag

Factoring – Wachstum finanzieren

Zahlungsausfälle senken und die Liquidität stärken. Factoring liegt voll im Trend und unterstützt mittelständische Unternehmen bei der Forderungsfinanzierung.

Trotz der Niedrigzinsphase haben es Start-ups und KMU immer schwerer ihr Wachstum mit
dem tradierten Bankkredit zu finanzieren.
Doch nur wenige kleine und mittlere Unternehmen nutzen die am Markt verfügbaren  Factoring-Lösungen, um Expansion zu generieren. Im kleinvolumigen Sektor haben andere Länder die Nase vorn. Ein potenter Markt für die deutsche Factoring-Branche.
Aber was hält eigentlich Unternehmen noch davon ab, Factoring einzusetzen? Und wie unterscheiden sich diejenigen Unternehmen, die Factoring einsetzen, von solchen, die kein Factoring nutzen? Diese und weitere Fragen wird die Redaktion anhand von Fallbeispielen
und Experteninterviews beantworten und gibt dabei dem Thema Raum für eine eigenständige Reportage.

Hier können Sie sich das vollständige Themenexposée „Factoring – Wachstum finanzieren“ herunterladen

Hier geht es zu unseren Mediadaten

Bilquelle / Lizenz: www.gotcredit.com; veröffentlicht unter https://creativecommons.org/licenses/by/2.0/

Sprachsteuerung fürs Leben

Das Internet der Dinge bedeutet auch die Vernetzung zu Hause. Wer bislang mit seiner Stereo-Anlage, der Lampe oder dem Fernseher spricht, erntet verwunderte Blicke. Genau das aber will Joshua Montgomery ermöglichen: natürliche Sprachsteuerung für zuhause. Soll es im Raum wärmer und behaglicher werden, genügt fortan nur noch ein Satz.

Das Projekt setzt auf offener Hardware auf. Die tatsächliche Spracherkennung findet in der Cloud statt. Der Dienst lässt sich nach eigenen Wünschen einstellen. Als Platine dient ein Raspberry Pi. Montgomery verspricht, dass sich alles steuern lässt, was an das Internet angeschlossen werden kann.

Mehr Informationen dazu stellt das folgende Video bereit.

 

(Videoquelle: kickstarter, Joshua Montgomery, gesonderte Lizenz beachten)

Weitere Informationen unter:
http://kck.st/1TkfgG0

 

Bildquelle Beitrag-Aufmacher: flickr.com / mikael altemark; veröffentlicht unter: https://creativecommons.org/licenses/by/2.0/

 

Was ist Open-Source-Hardware?

Eigentlich schwer vorstellbar was die Menschen mit einer Open-Source-Hardware wirklich anfangen können. Was haben wir davon, wenn wir die Hardwarebasis für unsere elektronischen Geräte und Computer untereinander teilen, verändern und verfielfätigen können? So kann zum Beispiel der Verbraucher Open Source-Software sehr leicht verwenden.  Mit der Hardware gibt es jedoch eine größere Herausforderung. Es gestaltet sich als recht komplex, die Sache richtig anzudenken und die Chancen und Änderungen für Wirtschaft und Unternehmen einzuordnen. Wäre das eigentlich disruptiv?

Unsere Redaktion möchte dem Thema Raum geben. 

Diskutieren Sie mit und stellen Sie Ihre Fragen. Arbeiten oder produzieren Sie schon mit oder auf Basis „Freier Hardware“?

Ich freue mich auf Ihren Kommentar!

Nachfolgend noch die Grundlagen im Anriss, die wir zu dem Thema bei Wikipedia gefunden haben. Unter en.wikipedia.org finden Sie weitere Informationen. Zusätzlich bereitet gerade die Open-Source-Hardware Association eine Grundsatzerklärung und Definition vor.

Freie Hardware (englisch free hardware, open hardware oder open source hardware)[1] ist eine Hardware, die nach lizenzkostenfreien Bauplänen hergestellt wird. Die Bewegung und Idee steht der Open source– und DIY-Bewegung nahe bzw. geht auf diese zurück.

Konzept und Wirkungsfeld

Auch wenn „Open Source Hardware“ häufig viel mit Open-Source-Software gemein hat, kann „Open-Hardware“ jedoch auch weit entfernt von Softwaretechnik stattfinden: Beispielsweise versucht das Projekt „OpenSource Car“ (OScar) freie Baupläne für ein Auto zu entwickeln, also ein freiverfügbares „Rezept“ zum Selberbauen. Noch weitergehend bei Thingiverse, hier sollen Objekte als 3D druckbare 3D-CAD-Dateien zur Verfügung gestellt werden. Das Projekt „Solar“ versucht, in Entwicklungsländern günstige SelbstbauSolarsysteme zu verbreiten, darunter kochen und heizen ohne Feuerholz zu ermöglichen.

Das coreboot-Projekt (ehemals LinuxBIOS) mit dem Ziel, proprietäre BIOSe zu ersetzen, wird manchmal auch der freien Hardware zugeordnet da das BIOS aus historischer Perspektive der Hardware zugeordnet war. Während zu den Anfängen der Computer das BIOS vollständig in einem OTPROM gespeichert und somit untrennbar in der Hardware verankert war, ist dieses inzwischen, analog zu jeder anderen Software, vollständig austauschbar.[2]

Als einer der ersten Computer in Serienproduktion will das gemeinnützige Projekt 100-Dollar-Laptop alle seine Computer mit coreboot ausstatten. Bei einer geplanten Produktionsmenge von 100 bis 200 Millionen Stück soll das BIOS wohl insbesondere in den Entwicklungs- und Schwellenländern große Verbreitung finden und damit einen Beitrag zur Entwicklungshilfe leisten. Am 14. Februar 2006 hat die Firma Sun Microsystems überraschenderweise das Design ihrer bekannten SPARC-Prozessorarchitektur unter dem Namen OpenSPARC gänzlich offengelegt und unter der freien-Software-Lizenz GNU General Public License der Allgemeinheit zugänglich gemacht. Unter dem Namen „Open Compute Project“ hat Facebook sowohl die Architektur seiner Server als auch eines Rechenzentrums freigegeben.[3]

Aus dem Bereich der Textilverarbeitung kommt das AYAB-Projekt (englisch für „Alle Garne sind schön“) welches die häufigen Brother KH-9xx Strickmaschinen mit einer modernen und offenen Arduino-basierten Ansteuerung versieht.[4][5][6][7]

Rechtliche Grundlagen

Freie Hardware besitzt zwar häufig ein liberales Copyright, kann aber trotzdem Patentrechte berühren.

Freie Hardware kann je nach Projekt unterschiedlich weit freigegeben werden. Viele Hersteller geben oft nur Teile ihrer Implementierungen für eigene Projekte der Benutzer weiter. Beispiele wurde nur die Firmware des WLAN-Routers WRT54GL von Linksys (gezwungenermaßen) unter GPL gestellt; vom Roboterstaubsaugers Roomba wurde nur die Programmierschnittstelle veröffentlicht.

Zudem können voneinander unabhängige Teile eines Projekts anderen Lizenzen unterstehen. Dies bedeutet, dass etwa Schnittstellen, Software und Hardware unterschiedliche Lizenzen haben können.

Open-Hardware-Lizenzen

Richard Stallman (GNU und FSF) empfiehlt folgende Lizenzen für freie Hardware:[1]

Weitere Lizenzen, die für freie Hardware verwendet werden, sind:

Weitere Projekte freier Hardware (Auszug)

  • das Projekt Open Compute [8], das eine Sammlung freier Hardware zum Aufbau eines Rechenzentrums beinhaltet
  • das Projekt freedom-cpu[9], das einen freien 64-Bit-Hauptprozessor entwickeln und Linux darauf portieren will
  • das Mikrocontroller-Entwicklerboard Arduino
  • der 100-Dollar-Laptop OLPC XO-1
  • das Ethernut-Projekt welches Einplatinencomputer und Software auf AVR– und ARM-Basis erstellt
  • das Projekt Parallella[10], das einen Supercomputer für 99 US$ entwickeln möchte
  • der Simputer, ein preisgünstiger tragbarer Computer
  • die 3D-Drucker von RepRap, MakerBot und Fab@Home
  • das Projekt smarthomatic[11] (ehemals Open Home Control), das ein vollständiges Hausautomationssystem mit Sensoren und Aktoren beinhaltet
  • das MIDIbox-Projekt, eine Hardware- und Softwareplattform für MIDI-Controller, Sequenzer und Synthesizer
  • x0xb0x[12], der Nachbau des MIDI-Synthesizers Roland TB-303
  • das Mobiltelefon Openmoko unter GNU/Linux
  • der MP3-Player Daisy[13]
  • die digitale Fotokamera Frankencamera[14]
  • das Akkumulator-Ladegerät MintyBoost für den USB-Anschluss
  • der RFJammer WaveBubble[15]
  • das Projekt Open Source Ecology, das freie Landmaschinen entwickelt
  • die freie Werkzeugmaschine LME Hexapod[16]
  • das OSVR Open-Source Virtual Reality Headset (Quelldateien der Hardware nur unter unfreier Lizenz verfügbar)[17]
  • die Uhrwerke des Vereins openmovement [18]
  • die Open-Photonics Plattform myphotonics zur Entwicklung qualitativ hochwertiger, optomechanischer Komponenten und komplexer optischer Experimente

Siehe auch

Weblinks

 Commons: Freie Hardware – Sammlung von Bildern, Videos und Audiodateien

Quellen

 

[1]

 

 

 

Bildmotiv:Piotr Esden-Tempski

Open-BLDC-V0_1-Assembly-2-21open-bldc.org V0.1 assembly process

https://www.flickr.com/photos/esden/

https://creativecommons.org/licenses/by-sa/2.0/

Die Textinhalte stammen von Wikipedia:

Quelle: https://de.wikipedia.org/wiki/Freie_Hardware

Der Text ist unter der Lizenz „Creative Commons Attribution/Share Alike“ verfügbar; Informationen zu den Urhebern und zum Lizenzstatus eingebundener Mediendateien (etwa Bilder oder Videos) können im Regelfall durch Anklicken dieser abgerufen werden. Möglicherweise unterliegen die Inhalte jeweils zusätzlichen Bedingungen.

Der Traum vom weltweit einheitlichen Urheberrecht*

von Dr. iur Till Kreutzer

Das Urheberrecht regelt die Nutzung geistiger Erzeugnisse. Es hat damit von vorn- herein einen internationalen Bezug. Nutzungen können schließlich sowohl im In- als auch im Ausland vorgenommen werden. Steht etwa ein Text im Internet, kann er auf der ganzen Welt gelesen werden. Grenzen werden hierbei allenfalls durch Umstände gesetzt, die weder mit Politik noch mit Geografie zu tun haben. Diese liegen vor allem in der Sprache – mitunter aber auch im Recht.

Die Ausgangslage: Schutzlücken durch territoriale Begrenzung der Urheberrechtsordnungen

So weit wie ein Internetangebot reicht das Urheberrecht nicht. Längst nicht: Es basiert nämlich auf dem Territorialitätsprinzip, das besagt, dass jeder Staat in seinen Grenzen eigene Urheberrechte festlegen darf und dass jedes einzelne Urheberrecht an den Grenzen des Staates endet, der es gewährt. Hierdurch kommt es zu einer Art räumlicher Zersplitterung. Es gibt nicht „das Urheberrecht“ für „das Werk“. Vielmehr bestehen zum Beispiel an einem Musiktitel deutsche, österreichische, schweizerische, US-amerikanische – und so weiter – Urheberrechte. Zur Veranschaulichung kann man sich die rechtliche Situation wie ein Mosaik vorstellen: Die einzelnen Steinchen stehen für je ein nationales Urheberrecht. Alle Steinchen zusammen ergeben das international (nicht unbedingt weltweit) geltende Urheberrecht.

Ein wirklich weltweit wirkender Urheberrechtsschutz kann vor diesem Hintergrund nur erreicht werden, wenn alle Länder ihn – und zwar auch für Ausländer – gewähren. Zwingend ist das zunächst nicht. Da das Territorialitätsprinzip jedem Land die Entscheidung darüber überlässt, ob und wem es Urheberrechte zuerkennt, können Schutzlücken entstehen. Diese können – vor allem im Bereich der Internetnutzung – erhebliche Folgen haben. Will zum Beispiel ein amerikanischer Filmproduzent gegen einen Ring von Raubkopierern in Burkina Faso vorgehen, kann es sein, dass er daran scheitert, dass Burkina Faso ihm schlicht keine Urheberrechte gewährt. „Copyright-Havens“ nennt man solche schutzfreien Gebiete, in die sich Internetanbieter, die sich in ihrem Heimatland auf rechtlich unsicherem Terrain bewegen, gerne und problemlos zurückziehen.

Schutzfreie Zonen werden jedoch immer seltener. Faktisch ist es so, dass die weltpolitische Lage es heute kaum noch einem Land erlaubt, keine Urheberrechte zu gewähren. Will ein Land sich in die internationale Staatengemeinschaft integrieren, vor allem den Wirtschaftsgemeinschaften anschließen, wie etwa der World Trade Organization (WTO), kommt es nicht umhin, ein Urheberrecht zu schaffen. Übrigens gewährt auch Burkina Faso Urheberrechte.

Das Mittel: Internationale Urheberrechtsabkommen

Um einen möglichst weltweiten Schutz des Urheberrechts zu erreichen, wurden schon im ausgehenden 19. Jahrhundert die ersten internationalen Verträge zum Schutz des Urheberrechts begründet. Im Vordergrund stehen bei diesen Abkommen zwei Zielsetzungen: Zum einen soll ein möglichst weltweiter Schutz der Urheberrechte etabliert und damit die negativen Wirkungen des Territorialitätsprinzips für Urheber und Rechtsinhaber gemindert werden. Zum anderen soll ein gewisses Grundniveau für die Ausgestaltung der innerstaatlichen Urheberrechtsgesetze vorgeschrieben werden. Als völkerrechtliche Verträge haben die internationalen Urheberrechtsabkommen verbindliche Wirkung für die Mitgliedsstaaten. Gibt ein solches Abkommen zum Beispiel vor, dass das Vervielfältigungsrecht geschützt werden muss, sind die Länder verpflichtet, dies zu gewähren.

Der lange Zeit bedeutendste internationale Vertrag zum Urheberrecht ist die (revidierte) Berner Übereinkunft (RBÜ). Diese wurde erstmals im Jahr 1886 verabschiedet und seither mehrmals geändert (zuletzt im Jahr 1979). Der RBÜ sind mittlerweile 157 Staaten beigetreten, man kann also von einer nahezu weltweit geltenden Konvention sprechen (aktuell – Stand November 2004 – existieren 194 unabhängige Staaten). Die RBÜ ist damit so was wie die Mutter aller Urheberrechtskonventionen. Die meisten später geschaffenen internationalen Konventionen verweisen in ihren Bestimmungen auf die ergänzende Geltung der RBÜ (siehe zum Beispiel Artikel 9 Absatz 1 des Agreement on Trade-Related Aspects of Intellectual Property Rights, so genanntes „TRIPS-Abkommen“).

Das viel jüngere TRIPS-Abkommen hat in Bezug auf die internationale Anerkennung des Urheberrechts sehr schnell zur RBÜ aufgeschlossen. Die Konvention, die im Jahr 1995 in Kraft getreten ist, ist an die World Trade Organisation (WTO) gekoppelt. Jeder Staat, der Mitglied der WTO werden will, muss auch TRIPS ratifizieren. Dieser Umstand erklärt die praktische Bedeutung der Konvention. Nach nicht einmal zehn Jahren seines Bestehens hatte TRIPS im Jahr 2004 bereits 145 Mitglieder (die Europäische Union als Staatenbund inbegriffen). Anders als die RBÜ – die vorrangig dem Schutz des geistigen Eigentums dient – ist TRIPS ein reines Handelsabkommen, das neben urheberrechtlichen auch Aspekte anderer Immaterialgüterrechte (unter anderem Patent- und Markenrechte) regelt. Das Abkommen dient in erster Linie dazu, Verzerrungen und Behinderungen des internationalen Handels zu verringern.

Ein weiterer Unterschied zur RBÜ liegt darin, dass TRIPS auch Regelungen über verwandte Schutzrechte, also die Rechte der ausübenden Künstler, der Tonträgerhersteller und der Sendeunternehmen, enthält. Detaillierte urheberrechtliche Schrankenbestimmungen sucht man im TRIPS-Abkommen dagegen vergebens. Hierin findet sich nur der so genannte Drei-Stufen-Test für Beschränkungen und Ausnahmen. Dieser lautet:

Die Mitglieder begrenzen Beschränkungen und Ausnahmen von ausschließlichen Rechten auf bestimmte Sonderfälle, die weder die normale Auswertung des Werkes beeinträchtigen noch die berechtigten Interessen des Rechtsinhabers unzumutbar verletzen.

Hiermit werden nur die Grenzen gezogen, innerhalb derer jedes Land seine eigenen Urheberrechtsschranken bestimmen darf. Der auf diesem Weg zu erreichende Harmonisierungsgrad ist folglich gering.

Im Jahr 1996 kamen zu TRIPS und der RBÜ (und anderen Abkommen, auf die hier nicht näher eingegangen werden soll) zwei weitere internationale Urheberrechtsverträge hinzu, die als WIPO-Verträge bezeichnet werden. Der WIPO Copyright Treaty (WCT) regelt Fragen des Urheberrechts und der WIPO Performances and Phonograms Treaty (WPPT) die der verwandten Schutzrechte von ausübenden Künstlern und Tonträgerherstellern. Die WIPO-Verträge wurden verabschiedet, um die in die Jahre gekommene RBÜ fortzuentwickeln. Sie verweisen bezüglich der allgemeinen Regeln auf den Text der Berner Übereinkunft und fügen diesen zusätzliche Rechte hinzu. Durch die WIPO-Verträge wurden vor allem die mittlerweile hoch umstrittenen Vorschriften für den urheberrechtlichen Schutz technischer Maßnahmen in „das internationale Urheberrecht“ eingeführt. Da auch die Europäische Union die WIPO-Verträge ratifiziert hat, musste sie die Vorgaben hieraus umsetzen. Hierzu diente die InfoSoc-Richtlinie 2001/29/EG aus dem Jahr 2001. Die deutsche Umsetzung (sowohl der WIPO-Verträge als auch der Richtlinie) erfolgte durch den „1. Korb“, das so genannte „Gesetz zur Regelung des Urheberrechts in der Informationsgesellschaft“.

Die Lösung: Einheitliches Urheberrecht durch multilaterale Urheberrechtsabkommen

Auf dem Weg zu einer international einheitlichen Urheberrechtsordnung helfen diese Urheberrechtsabkommen nur bedingt weiter. Die hierin enthaltenen ordnungspolitischen Mittel sind nicht geeignet – und auch nicht dazu bestimmt – eine vollständig harmonisierte Weltordnung des Urheberrechts zu begründen. Die Urheberrechtskonventionen enthalten stets nur einen knappen Katalog an Mindestrechten.

Detaillierte und umfassende Vorgaben für die nationalen Gesetze sucht man im Regelfall vergebens. Schrankenbestimmungen zum Beispiel sind im internationalen Urheberrecht nur vereinzelt geregelt. Die internationalen Urheberrechtsabkommen dienen im engeren Sinne dem Schutz von Ausländern, um die negativen Auswirkungen des Territorialitätsprinzips zu vermeiden. Abweichend von der hieraus erwachsenden Grundregel, dass jeder Staat nicht nur entscheiden kann, ob, sondern auch wem er Urheberrechte zugesteht, verordnen die Konventionen das Prinzip der Inländerbehandlung. Demnach muss ein Mitgliedsstaat Urhebern aus anderen Mitgliedsländern die gleichen Rechte gewähren, die er auch den eigenen Staatsangehörigen zugesteht.

Neben der Gleichbehandlung versucht man durch die Vereinbarung von Urheberrechtsabkommen zu erreichen, dass möglichst viele Staaten zumindest einen Minimalschutz gewähren. Durch die Mindestrechte werden die Mitglieder verpflichtet, die wesentlichen Rahmenbedingungen für die Sicherung der Interessen vor allem der Rechteinhaber zu schaffen. Konkrete oder weitergehende Auflagen ergeben sich aus den internationalen Verträgen hingegen nicht. Dies lässt weiten Spielraum für die innerstaatlichen Gesetzgeber, der sehr unterschiedlich genutzt wird.

Es wäre also ein Irrtum, von der Existenz der internationalen Urheberrechtsverträge auf die Existenz einer einheitlichen internationalen Urheberrechtsordnung zu schließen. Das Gegenteil ist der Fall: Die Welt hat viele Urheberrechtsgesetze und die weichen zum Teil stark voneinander ab. Ob die Zukunft weitere Angleichungen erwarten lässt, bleibt abzuwarten. Internationale Urheberrechtsharmonisierung ist ein überaus ambitioniertes Vorhaben. Immerhin müssten hierfür Copyright- und kontinentaleuropäische Urheberrechtssysteme vereinheitlicht und die Interessen der Industrieländer mit denen der Entwicklungsländer unter einen Hut gebracht werden. Die mit dem Internet einhergehenden Schwierigkeiten bieten zwar Anlass genug, Bemühungen in diese Richtungen zu entfalten. Wie bald und ob diese Bemühungen überhaupt Früchte tragen, lässt sich im Augenblick jedoch nicht voraussehen. Zu gegensätzlich sind die Interessen und zu komplex der Regelungsbedarf.

Von Dr. Till Kreutzer
http://irights.info/author/till

Alle originären Textinhalte auf dieser Website sind, soweit nichts anderes vermerkt ist,
urheberrechtlich geschützt und lizenziert unter der
Creative Commons Namensnennung-Keine Bearbeitung Lizenz 2.0 Germany.

 

Bildmotive von Paul Gallo

https://www.flickr.com/photos/no3rdw/

https://creativecommons.org/licenses/by/2.0/

Sichtbarer Strukturwandel

Das Bundesviertel in Bonn

Bonn boomt – das ist überall im Stadtgebiet sichtbar, am deutlichsten jedoch im Bundesviertel, dem ehemaligen Regierungsviertel zwischen Bonn und Bad Godesberg. Das einstige Zentrum bundesdeutscher Politik erlebt einen Bedeutungswandel auf höchstem Niveau. Auf vier Kilometern Länge und 1000 Schritten Tiefe ist rund um Bonns „Central Park“, der Rheinaue, ein neuer Stadtteil herangewachsen: Mit internationalen Konzernzentralen, neuen Unternehmen, wissenschaftlichen Einrichtungen, Ministerien, dem World Conference Center Bonn und jetzt auch dem „Campus“ für die Vereinten Nationen. Insgesamt haben sich hier seit 1991 mehr als 90 neue Unternehmen und Einrichtungen etabliert. Mit über 40.000 Arbeitsplätzen (vor dem Umzug, waren es rund 20.600) konzentriert sich dort fast ein Fünftel aller Bonner Arbeitsplätze.

 

Eine zentrale Rolle spielt das World Conference Center Bonn. Sein Kern ist der ehemalige Plenarsaal des Deutschen Bundestages, dessen lichte Architektur schon heute Tagungsteilnehmer aus aller Welt für sich einnimmt. Um es in erster Linie für die Vereinten Nationen nutzbar zu machen, werden ein zweiter Saal und ein hochklassiges Hotel gebaut. Seit Sommer 2006 haben die in Bonn ansässigen Sekretariate der UNO ihr neues Domizil im UN Campus, dem ehemaligen Abgeordnetenhochhaus „Langer Eugen“ im Bundesviertel.

Für das Welt-Klimasekretariat der Vereinten Nationen (UNFCCC) wurde dort das sogenannte Alte Abgeordneten-Hochhaus renoviert. Da es schon direkt nach der Sanierung zu klein für UNFCCC ist, werden auf dem Gelände zwei weitere Bürohäuser entstehen.

 

Weitere Highlights:

  • Die Villa Hammerschmidt ist Bonner Dienstsitz des Bundespräsidenten.
  • Der Komplex Bundeskanzleramt ist Sitz des Bundesministeriums für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ), die Bundeskanzlerin hat ihren Bonner Dienstsitz im Palais Schaumburg
  • Im „Tulpenfeld” sind die deutschen Entwicklungshilfeorganisationen sowie die

Bundesnetzagentur heimisch geworden.

  • Am Fuß des UN Campus steht das Funkhaus der Deutschen Welle, die ihre Sendungen von Bonn aus in alle Welt ausstrahl
  • Die Deutsche Post DHL hat ihre Konzernzentrale, den Post Tower, südlich des

Deutsche-Welle-Funkhauses bezogen. Das 162,5 Meter hohe Gebäude nach Plänen des Architekten Helmut Jahn ist zum neuen Wahrzeichen für den Strukturwandel in Bonn geworden.

  • Die Deutsche Telekom AG hat ihre Konzernzentrale ebenfalls am Standort Bon

Gegenüber ihrem Direktionsgebäude an der Friedrich-Ebert-Allee hat das Unternehmen großzügige Büro-Neubauten errichtet und beide Komplexe mit einer gläsernen Fußgängerbrücke verbunden.

 

 

 

URL: http://www.govdata.de/dl-de/by-1-0

 

 

Herausgeber: Der Oberbürgermeister der Bundesstadt Bonn, Presseamt, Stadthaus, Berliner Platz 2, 53111 Bonn Telefon: Chef vom Dienst 0228/77 3000, Telefax: 0228/77 2468, E-Mail: presseamt@bonn.de

Internet: http://www.bonn.de Redaktion: Dr. Monika Hörig (verantwortlich)

Datenlizenz Deutschland – Namensnennung – Version 1.0

Jede Nutzung mit Quellenvermerk ist zulässig.

Veränderungen, Bearbeitungen, neue Gestaltungen oder sonstige Abwandlungen sind mit einem Veränderungshinweis im Quellenvermerk zu versehen oder der Quellenvermerk ist zu löschen, sofern die datenhaltende Stelle dies verlangt.

Der Bereitsteller stellt die Daten, Inhalte und Dienste mit der zur Erfüllung seiner öffentlichen Aufgaben erforderlichen Sorgfalt zur Verfügung. Für die Daten, Inhalte und Dienste gelten in Bezug auf deren Verfügbarkeit und deren Qualität die durch den Bereitsteller in den Metadaten oder sonstigen Beschreibungen zugewiesenen Spezifikationen und Qualitätsmerkmale. Der Bereitsteller übernimmt jedoch keine Gewähr für die Richtigkeit und Vollständigkeit der Daten und Inhalte sowie die dauerhafte Verfügbarkeit der Dienste. Davon ausgenommen sind Schadensersatzansprüche aufgrund einer Verletzung des Lebens, körperliche Unversehrtheit oder Gesundheit. Ebenfalls ausgenommen sind Schäden, die auf Vorsatz oder grober Fahrlässigkeit beruhen.

Bildrechte: https://creativecommons.org/licenses/by-sa/2.0/

https://www.flickr.com/photos/curnen/
Matthias Zepper

Risikobereitschaft der Anleger steigt

Trotz nervöser Märkte angesichts der Krisen in China und Griechenland bleiben Anleger risikogeneigt. Das ergab die jüngste von NN Investment Partners durchgeführte Risk Rotation Index Umfrage.1

Laut Umfrage gaben 28,3 Prozent der befragten institutionellen Fondsmanager weltweit an, dass ihr Risikoappetit in den vorangegangenen sechs Monaten gestiegen sei. Bei 18,3 Prozent der Befragten war die Risikobereitschaft dagegen gesunken. Netto ist der Risikoappetit damit um 10 Prozent gestiegen.

Trotz dieser Zuversicht nannten 49 Prozent der befragten Investoren eine mögliche Krise in der Eurozone als die größte Bedrohung für ihr Portfolio im Sinne eines „bedeutenden“ Risikos. Im vorangegangen Quartal lag dieser Anteil bei nur 35 Prozent. Jeder Achte (13 Prozent) betrachtet die Krise sogar als „sehr bedeutendes“ Risiko.
Dazu Valentijn van Nieuwenhuijzen, Head of Strategy Multi-Asset bei NN Investment Partners: „Nahezu die Hälfte (49 Prozent) der Anleger sieht die Krise in der Eurozone als erhebliche Bedrohung. Daher gehen diese Investoren derzeit wohl mit der entsprechenden Mischung aus Vorsicht und Zuversicht vor.“

„Griechenland hat die Märkte zwar in Aufregung versetzt, doch die Eurozone hat‘s überlebt. Die Krise in China – und genau das ist es mittlerweile – schafft ernsthafte Probleme für Rohstoffexporteure sowie Länder, die Investitionsgüter nach China exportieren.“
„Doch trotz der Nervosität am Markt vertrauen die Investoren weiterhin in seine generelle Funktionsfähigkeit. Angesichts der freundlicheren Entwicklung in den USA und Japan bleibt man allgemein recht optimistisch. Da wir uns jetzt – zumindest vorübergehend – wieder in ruhigerem Fahrwasser befinden, haben wir unsere Aktiengewichtung von neutral auf eine leichte Übergewichtung hochgefahren. So waren wir auch positioniert, bis Griechenland und China dazwischenfunkten.“

Neben der Eurozonenkrise nannten Anleger auch sogenannte Black-Swan-Ereignisse (24 Prozent) sowie einen Abschwung in China (21 Prozent) als mögliche Bedrohungen.
Die Umfrage ergab nicht nur eine weitgehend intakte Risikobereitschaft bei Anlegern, sondern deutet auch auf wachsende Stabilität der Anlegerportfolios hin. So gab über die Hälfte der Befragten (53 Prozent) an, ihr Risikoprofil während der vergangenen sechs Monate nicht angepasst zu haben. Das ist der höchste Wert sei Beginn dieser Umfragen im Jahr 2013.

Net changes in investor risk appetite, 2013-2015

Net changes in investor risk appetite, 2013-2015. Quelle: NN Investment Partners Risk Rotation Index, Juli 2015

 

 

Um potenzielle Risiken in den kommenden Monaten zu reduzieren, scheinen Anleger vor allem auf Multi-Asset- und Aktienstrategien zu setzen (74 Prozent bzw. 56 Prozent). Die Analyse ergibt nur geringfügige Unterschiede bei der Präferenz für Balanced- oder Total Return Multi-Asset-Strategien (37,3 Prozent ggü. 36,3 Prozent). Das bedeutet, dass Investoren diese beiden Strategien jeweils illiquiden Assets wie Private Equity und Hypotheken (26 Prozent), Hedgefonds (22 Prozent) und Dividendenstrategien (18 Prozent) vorziehen.
Van Nieuwenhuijzen weiter: „Im gegenwärtigen Umfeld gibt es punktuell viele interessante Chancen für Investoren, aber auch zahlreiche potenzielle Fallstricke. Die Wahl der richtigen Strategie ist daher von größter Bedeutung, um einerseits eine angemessene Rendite zu erzielen und sich andererseits gegenüber Marktturbulenzen abzusichern. Unsere Umfrage hat ergeben, dass 46 Prozent der Investoren ihre Portfolios im vergangenen Jahr zu Zwecken der Risikosteuerung diversifiziert haben. Wir meinen daher, dass Multi-Asset-Strategien, wie Balanced- oder Total-Return-Fonds, Investoren in einem unsicheren konjunkturellen Umfeld renditemäßig eine bessere Exponierung bieten.“
Was die Asset-Klassen betrifft, die von Investoren im Hinblick auf das Risiko-Rendite-Verhältnis in den nächsten drei Monaten präferiert werden, so sind dies Aktien (34 Prozent), Immobilien (17 Prozent) und Staatsanleihen (14 Prozent). Die beliebtesten geografischen Regionen sind im Hinblick auf das Verhältnis zwischen Risiko und Rendite die USA (46 Prozent), Japan (38 Prozent) und die Eurozone (29 Prozent).

Weitere Informationen unter:
www.nnip.com
1. Die Umfrageergebnisse stammen aus NN Investment Partners‘ eigenem Research, das von Citigate Dewe Ro-gerson im Juli 2015 unter 120 internationalen institutionellen Investoren durchgeführt wurde.

Bildquelle / Lizenz: flickr.com / The Fayj; veröffentlicht unter https://creativecommons.org/licenses/by/2.0/

Smart Home – Multiroom

Smart Home ist in aller Munde. Doch während die Vernetzung der Haustechnologie teuer und noch wenig verbreitet ist, macht gerade der Bereich Multimedia derzeit große Fortschritte. Die TREND REPORT-Redaktion wird auch in ihrer kommenden Ausgabe dem Thema Raum einräumen in ihrer Titelreportage „Die vernetzte Gesellschaft„.

Wie Multiroom in der Praxis funktioniert, wollen wir anhand eines aktuellen Beispiels von Bang & Olufsen beleuchten:

BeoLink Multiroom zu bedienen, ist so einfach wie das Licht ein- und auszuschalten. Während die Musik wiedergegeben wird, kann ein weiteres Bang & Olufsen Gerät ganz einfach durch Berührung dem Multiroom-System zugeschaltet werden – im ganzen Haus. Weder Smartphone noch Fernbedienung sind hierbei erforderlich – durch das einfache Antippen ist das Gerät bereits Teil des Musikstreams.

Auch ein Bang & Olufsen TV-Gerät lässt sich mit der Fernbedienung BeoRemote One oder der neuen BeoMusic App einfach in die Multiroom-Konfiguration einbinden. Dank der App wird ein intuitiver und transparenter Überblick über das System geboten. Mit der BeoRemote One oder der BeoMusic App können Räume einfach verbunden oder getrennt sowie alle Geräte mit nur einer Berührung in den Standbymodus geschaltet werden.

Multiroom Musikerlebnis mit einer Berührung
Im Mittelpunkt der BeoLink Multiroom Konfiguration steht das kürzlich vorgestellte Musiksystem BeoSound Moment. BeoSound Moment ist ein intelligentes drahtloses Audiosystem, das die eigene Musikkollektion und die Streamingdienste in einem System vereint. Ein einfaches Antippen der berührungsempfindlichen Holzkonsole genügt, um die Lieblingsmusik wiederzugeben. Und mit der neuen Multiroom-Funktionalität reicht dem Musikliebhaber eine einfache Berührung, die das Musikerlebnis auf weitere Räume ausdehnt. Beispielsweise indem er im Wohnzimmer den Lautsprecher BeoPlay A9 antippt oder in der Küche das wandmontierte BeoSound Essence Audiosystem berührt, um die Musik direkt von der Quelle wiederzugeben. Das Bang & Olufsen TV-Gerät kann dabei als Lautsprecher oder Quelle in das BeoLink Multiroom-System aufgenommen werden.

Klassiker in neuem Glanz
BeoLink Multiroom haucht auch den Klassikern von Bang & Olufsen neues Leben ein. Lieblingsstücke, wie der ikonische CD-Player BeoSound 9000 oder der Plattenspieler BeoGram 4000, können mit dem BeoLink Converter in das Multiroom-System integriert werden.

Zukunftssicher
Alle BeoLink Multiroom-Geräte sind durch die Software-Aktualisierungen auf dem aktuellsten Stand. So sind dem Benutzer alle neuen Features und Funktionen zugänglich und die dauerhafte Wertigkeit und Lebensdauer der Bang & Olufsen Konfiguration gesichert.

„Bang & Olufsen Geräte sind keine kurzlebigen Konsumgüter. Mit BeoLink Multiroom möchten wir unterstreichen, wie sehr wir uns unseren Kunden verpflichtet fühlen. Dank dieser Lösung können sowohl neue als auch klassische Geräte anhand von modernster Drahtlos-Technologie vereint werden”, sagt Marie Kristine Schmidt, Vice President, Brand, Design & Marketing Bang & Olufsen.

Vermögensfactoring?

„Schufafrei“ ein Projekt finanzieren – geht das?

Gewusst wie!

Es sind nicht nur Privatleute, die mit einem „Nein“ auf ihre Darlehensanfragen von der Bank ausgebremst werden. Gerade Freiberufler, Einzelunternehmer und kleinere Betriebe machen nicht selten diese Erfahrung. Oft geht es um die Finanzierung eines Projektes oder einer neuen Geschäftsidee und nach einer Absage müssen Alternativen her. Da erinnert man sich gerne an die lange angesparte Lebensversicherung. Mit einer Kündigung wäre man die lästigen Monatsbeiträge los und könnte mit dem Geld aus dem Vertrag sein Vorhaben realisieren. Doch das kann ernüchternd sein, bei Kündigung wird lediglich der Rückkaufswert bezahlt und auch das dauert schon seine Zeit. Was bringt in dieser Situation der Verkauf einer Police?

 

„Es ist nicht zu fassen, was sich der eine oder andere Banker einbildet“, schimpft Carmen Schade erbost. „Da habe ich ein detailliertes Konzept mit vollständiger Kalkulation erarbeitet und werde abgewiesen. Als ob ich Geld von der Bank bräuchte, wenn meine Einnahmen regelmäßiger und höher wären!“ Carmen Schade ist Buchautorin und verfasst selbständig Werbetexte für Unternehmen. Sie ist „Einzelkämpferin“ in diesem Bereich und hatte immer ein Auskommen mit ihrem schwankenden Einkommen. Natürlich kam es schon einmal vor, dass sie eine Rechnung über Gebühr lange nicht bezahlt hatte. Das brachte ihr dann auch einen Eintrag in die SCHUFA, einer Wirtschaftsauskunftei, die von den Banken zur Kreditwürdigkeit und Bonität von Personen und Unternehmen angefragt wird. Das war nun wohl auch der Grund für die Absage der Bank. Wer dort einen negativen Eintrag erhalten hat, bekommt nur selten ein Darlehen.

 

Dieses Jahr machte die Urlaubszeit Frau Schade so zu schaffen, dass all ihre Reserven aufgebraucht waren. Die Tantiemen für Ihre Bücher würden erst zum Jahresende abgerechnet werden und es schien so, als seien all ihre Auftraggeber gleichzeitig verreist. Sie musste unbedingt etwas tun, um Neukunden zu akquirieren und finanziell wieder auf die Beine zu kommen. Geplant wurden ein neuer Internetauftritt, ein passender Flyer,  Visitenkarten und eine Telefonaktion. Darüber hinaus musste sie einen neuen Laptop und den längst fälligen Laser-Drucker mit in die Kalkulation nehmen. Sie berechnete den Kapitalbedarf für die Fortsetzung und Erweiterung ihrer selbständigen Tätigkeit auf 10.000,- Euro. Doch die Bank spielte nicht mit, obwohl sie sich von sich aus bereit erklärt hatte, ihre Lebensversicherung zu verpfänden. Was sollte sie also tun?

 

Sich mit 48 Jahren um eine Anstellung zu bemühen, das hielt sie für sinnlos. Ihre Idee: Sie würde ihre Lebensversicherung zu Geld machen und ihre Tätigkeit auf Vordermann bringen. Ein Anruf bei der Versicherungsgesellschaft nahm ihr jedoch gleich die Euphorie. Erst müsste einmal die Kündigung per Einschreiben eingehen und dann würde es schon eine Weile dauern, bis der sogenannte Rückkaufswert zur Auszahlung käme. Das heißt: Vom Sparguthaben samt Zinsen werden die Kosten für den Risikoschutz, Provision, Verwaltung und in vielen Fällen auch noch eine Stornogebühr in Höhe von drei bis fünf Prozent abgezogen. Carmen Schade sah ein, dass Kündigung zwar eine Möglichkeit wäre, aber nicht unbedingt die beste Wahl und ein Policen-Darlehen wollte sie nicht. „Ich sehe nicht ein, dass ich auf mein eigenes Geld auch noch Zinsen zahlen soll!“

 

Man kann doch Versicherungen auch verkaufen. Irgendwo hatte sie das schon gelesen oder gehört. Auf ihrer Suche im Internet wurde sie dann schnell fündig. Vorteil des Verkaufs gegenüber einer Kündigung ist, dass die Ankäufer meist mehr als den reinen Rückkaufswert bezahlen. Frau Schade wendet sich an die Firma Prolife in Ingolstadt und erfährt, dass man dort finanziell in Vorleistung geht und die komplette Abwicklung des Vertrages übernimmt. Sie könne also bereits 18 Tage nach Einreichung der Police mit der Auszahlung des Kaufpreises rechnen, unabhängig von der Kündigungsfrist.

 

Was kostet der Verkauf?

 

„Für unsere Arbeit berechnen wir natürlich eine Gebühr. Im Gegenzug dazu überprüfen aber unsere Fachanwälte die angegebenen Rückkaufswerte der Versicherungsgesellschaften nach neuester BGH-Rechtsprechung“, erklärt der Prolife-Geschäftsführer Michael Früchtl auf Rückfrage der Redaktion. „Oft kommt es wenige Wochen nach Auflösung des Versicherungsvertrages, zu einer zweiten Zahlung. Es ist nicht selten, dass die Versicherungen zu hohe Stornoabschläge einbehalten oder auch den Rückkaufswert falsch berechnen. Die Differenz zum ursprünglich angegebenen Rückkaufswert teilen sich dann Kunde und Policenkäufer.“ Das sei aber längst nicht alles und unterscheide Prolife deutlich von anderen Anbietern. „Wir erfassen die Policen in einem eigenen System und sobald sich etwas Neues in der Rechtsprechung ergibt, werden sie nochmals geprüft. Drei Jahre lang läuft dieses ‚Clearing‘, bei dem wir weitere Nachzahlungsmöglichkeiten suchen und oft fündig werden. Das kommt unseren Kunden ebenfalls zu Gute. Jeder unerwartete Geldeingang freut natürlich.“

 

Beispiel Versicherungsverkauf Carmen Schade:

Vertragseinreichung am 03.08.2012

Rückkaufswertangabe der Versicherung EUR                     EUR 12.300,00
21.08.2012 Zahlung an die Kundin Schade:                         EUR 11.377,50

19.03.2014 Nachzahlung (neue Rechtsprechung):              EUR   4.116,59

Bisherige Gesamtzahlung an den Kunden:                          EUR 15.461,09

Die Kundin hat durch den Verkauf im Vergleich zur Kündigung 25,70% mehr ausgezahlt bekommen. Das sogenannte Clearing, die Überprüfung der Police auf weitere Nachzahlungs-Möglichkeiten nach neuer Rechtsprechung, läuft aber noch weiter.
Weitere Infos finden Sie unter: www.prolife-gmbh.de

 

Bildquelle https://www.flickr.com/photos/matze_ott/

Bildlizenz: https://creativecommons.org/licenses/by/2.0/

KMU und Innovationen: Fördermöglichkeiten unbekannt

Kleinen und mittleren Unternehmen (KMU) fehlen häufig die Ressourcen, um Innovationen zu entwickeln und auf den Markt zu bringen. Mitglieder des Verbandes „Die KMU-Berater – Bundesverband freier Berater e.V.“ zeigen in der aktuellen Ausgabe der „KMU-Berater News“ auf, welche staatlichen Förderprogramme es gibt, wie diese am besten eingesetzt werden und wie sie Mittelständler bei diesem Thema unterstützen. Die Ausgabe kann heruntergeladen werden unter http://www.berater-news.kmu-berater.de.

Eine der Grundlagen eines jeden Innovationvorhabens ist eine solide Finanzierung. Zahlreiche Förderprogramme von Kommunen, Ländern, Bund und Europäischer Union unterstützen Mittelständler dabei. Allerdings gilt es je nach Programm verschiedene Voraussetzungen und Richtlinien zu beachten. Dr. Jörg Rupp erläutert, wie das Zentrale Innovationsprogramm Mittelstand (ZIM) des Bundeswirtschaftsministeriums funktioniert, Dr. Michael Hohmann stellt die Zuschuss-Förderungen einiger Bundesländer vor.

KMU-Beraterin Tanja Ebbing sagt: Während die Top 100 der innovativsten deutschen Mittelständler 11,5 Prozent ihrer Umsätze in Innovationstätigkeiten investieren, sind es bei KMUs im Durchschnitt nur 1,4 Prozent. Oftmals liegt der Grund für die Innovationszurückhaltung im fehlenden Know-How. Hier setzt das Programm „go-Inno“ an: Mit Innovationsgutscheinen können KMUs technologische Innovationsberatung in Anspruch nehmen.

Die 2014 gestartete Neufassung des EU-Programms „HORIZON 2020“ beinhaltet eine spezielle Komponente für KMU. KMU-Berater Dr. Michael Hohmann zeigt die verschiedenen Förderphasen dieses Programms auf, das sich besonders für grenzüberschreitende Innovationsprojekte eignet.

Eine weitere interessante Finanzierungsvariante ist das ERP-Innovationsdarlehen der KfW. KMU-Berater Andreas Glandorf schildert das Beispiel einer Großbäckerei. Das Besondere dieses Programms: Hier kommt es nur darauf an, dass die Produkt- oder Verfahrensentwicklung für das Unternehmen selber neu ist. Es muss keine Innovation für den gesamten Markt entwickelt werden.

Welche Effekte eine erfolgreiche Innovationsberatung hat, erklärt Eugen Bartedska, einer der Geschäftsführer des Spieleherstellers b-interaktive GmbH, im Interview. 2013 leitete Innovationsberaterin Dr. Angelika Kolb-Telieps in seinem Unternehmen einen zweitätigen Innovations-Workshop. Inhalt waren unter anderem Ist-Analyse, Marktrecherchen, Businessplan und Finanzierung. „Wir fühlten uns danach sicherer, weil wir unser Geschäft auf den Prüfstand gestellt hatten“, so Bartedska.

Beraterin Kolb-Telieps stellt außerdem „Open Innovation“ als Alternative zur langjährigen, internen Entwicklung von Produktinnovationen vor. Bei Open Innovation werden Kunden frühzeitig und eng in Entwicklungsprojekte einbezogen. So können vorher unbekannte Kundenbedürfnisse erkannt und genutzt werden. Innovative Neuentwicklungen werden in Zukunft nicht mehr hinter verschlossenen Türen, sondern mehr und mehr in Netzwerken stattfinden, ist Kolb-Telieps überzeugt.

Weitere Informationen unter:
www.kmu-berater.de

 

Bildquelle / Lizenz: flickr.com / Boegh (Lizenz Creative Commons)

Handbuch Studienerfolg

30. Juli 2015

Wie können Hochschulen Studierende erfolgreich zum Abschluss führen? Das Handbuch Studienerfolg, das der Stifterverband heute veröffentlicht, stellt Konzepte vor, wie dies gelingen kann.

Von 100 Studierenden verlassen 28 ihre Hochschule ohne Abschluss. Für alle, die sich überlegen, wie die hohe Zahl der Studienabbrecher gesenkt werden kann und sich im Hochschulalltag für den Studienerfolg einsetzen, soll das Handbuch Studienerfolg eine praxisnahe Hilfestellung sein.

Das Handbuch beschreibt in einem Instrumentenkasten Strategien und Maßnahmen, die an einzelnen Hochschulen bereits heute wirkungsvoll umgesetzt werden. Ob durch eine innovative Studieneingangsphase oder eine intensivere Beratung und Betreuung der Studierenden, ob durch eine neue Prüfungspraxis oder wie mit neuen E-Learning-Strategien Wissen besser vermittelt werden kann – es gibt viele einzelne Konzepte, wie Hochschulen versuchen, ihre Studienabbruchquote zu senken. In dem Handbuch Studienerfolg haben die Autoren erfolgreiche Konzepte zusammengeführt und herausragende Initiativen vorgestellt, die zur Verbesserung des Studienerfolgs dienen.

„Es ist die Kernaufgabe aller Hochschulen, Studienanfänger so zu begleiten, dass so viele wie möglich ihr Studium auch erfolgreich beenden“, sagt Volker Meyer-Guckel, stellvertretender Generalsekretär des Stifterverbandes für die Deutsche Wissenschaft. „Wenn die Hochschulen dafür von der Politik Anreize bekommen, hilft das auch. Ein gutes Beispiel ist die Einführung der Erfolgsprämie für jeden Hochschulabsolventen in Nordrhein-Westfalen.“

Das Handbuch ist das Ergebnis des Qualitätszirkels Studienerfolg, mit dem der Stifterverband sechs Hochschulen bei der Umsetzung ihrer Strategien für mehr Studienerfolg in den letzten zwei Jahren begleitet hat.

http://stifterverband.info/presse/pressemitteilungen/2015_07_30_handbuch_studienerfolg/index.html

Keine Angst vor Big Data

Die Digitalisierung lässt enorme Datenmengen entstehen. Schnell entsteht in den  Unternehmen ein wahrer „Goldschatz“ an Daten. Sie stammen aus Geschäftsprozessen, Kundenkommunikation, Social Media & Co. Das Gold darin kann aber nur bergen, wer in den Daten tief genug graben und die richtigen Fragen zur Analyse stellen kann. Das setzt natürlich auch die richtigen „Grabwerkzeuge“ voraus. Die TREND REPORT-Redaktion sprach mit Lenley Hensarling, Vice President of Product Management and Strategy bei EnterpriseDB zu eben genau jenen Werkzeugen und dem Einsatz von Open-Source-Software (OSS) in den Unternehmen.

In einer vernetzten Gesellschaft werden Informationen und damit Daten immer wichtiger für Unternehmen jeglicher Art. Vor allem in Großunternehmen bewirkt dies explodierende Kosten für die Infrastruktur und Technologie des Rechenzentrums, um die Wettbewerbsfähigkeit auf dem Markt zu beizubehalten. Der verstärkte Einsatz von Open-Source-basierte Alternativen in Unternehmen scheint ein Silberstreif am Horizont zu sein – aber es gibt immer noch Bedenken hinsichtlich ihrer Sicherheit, Robustheit und Leistung. Wie bewerten Sie die Situation?
Diese Bedenken sind Reste einer überkommenen Denkweise. Open-Source-Software (OSS) ist in den letzten Jahren stark gereift, um die Bedürfnisse der Anwender befriedigen und Herausforderungen auf Unternehmensebene meistern zu können. Dies gilt insbesondere für Datenbanken, wie ein aktueller Gartner Report zum Stand relationaler Datenbankmanagementsysteme (RDBMS)* zeigt. Im Laufe der letzten fünf Jahre haben sich OS RDBMS weiterentwickelt, um dieselben Funktionalitäten wie traditionelle, kommerzielle DBMS zu bieten – zu einem Bruchteil der Kosten. Außerdem sagt der Report voraus, dass dieser Trend weitergehen wird und bis zum Jahr 2018 der Gesamtanteil von OSS  Inhouse-Anwendungen bei 70 Prozent liegen wird. Zusätzlich integrieren Anbieter wie EDB ein Plus an Leistung und Sicherheit sowie Kompatibilitäts-Erweiterungen in die zugrunde liegende Open-Source-Datenbank – in diesem Fall PostgreSQL – um die Anforderungen von Großunternehmen vollends zu erfüllen.

Um etliche Bedenken von CIOs bezüglich des Datenbankwechsels aus der Welt zu schaffen, sollten sie OSS anfangs für nicht geschäftskritische Anwendungen einsetzen, dann die Leistung der neuen Lösung bewerten und sich mit den Funktionen vertraut machen. Letztlich können die OSS-Lösungen neben den traditionellen eingesetzt werden, um die richtige Lösung für die Anforderungen jedes einzelnen Workloads zu haben. Die Migration von Workloads zu OSS befreit Budget für Transformationsinitiativen, die das Geschäft wirklich vorantreiben.

EntpriseDB; Einschätzung Reifegrad Open Source Datenbank Management Systeme

Bewertung des Reifegrads relationaler Open-Source DBMS, 2009*

EntpriseDB; Einschätzung Reifegrad Open Source Datenbank Management Systeme

Bewertung des Reifegrads relationaler Open-Source DBMS, 2015*

Es gibt also großes Potenzial für Kosteneinsparungen durch die Implementierung von OSS im Unternehmen. Wie kann dies in der Praxis umgesetzt werden?
Zu aller erst müssen IT- und Finanzabteilungen eng zusammenarbeiten. Der CFO und CTO/CIO müssen gemeinsam die Bereiche identifizieren, in denen die IT Teile der Infrastruktur migrieren kann, um Budget frei zu machen, dass der CFO dann in teure, aber notwendige strategische geschäftskritische Initiativen umleiten kann. Die Komponenten des IT-Stack, die mittlerweile zur Commodity geworden sind – Virtuelle Maschinen, Betriebssysteme, Middleware und Datenbanken –, eignen sich am besten für die Migration auf OSS-Alternativen, damit Kapital frei wird für Investitionen in Analytik, Anwendungen und mehr. Da die Datenbank in der vernetzten Welt immer größere Bedeutung erhält, verschlingen ihr ständiger Ausbau sowie zeit- und ressourcenaufwändige Wartung immer größere Teile des IT-Budgets.

Die Angst davor, die gesamte IT-Infrastruktur durch den Austausch eines so grundlegenden Teils wie der Datenbank zu erschüttern, kann durch Kompatibilitäts-Features beschwichtigt werden, die einige OSS-Lösungen anbieten. EDB hat beispielsweise für seine Postgres-Datenbank Kompatibilität für Oracle entwickelt – eines der meistverwendeten traditionellen DBMS – so dass viele Anwendungen sich nahtlos in die OSS-Lösung migrieren lassen und Entwickler ihre bestehenden Skillsets weiter nutzen können ohne dass Investitionen in teure Schulungen oder Personalveränderungen nötig werden. Abschließend ist es ratsam, wie oben erwähnt, nicht-unternehmenskritische Anwendungen zuerst zu migrieren, um ein Gefühl für die neue Umgebung zu erhalten, und dann zu unternehmenskritischen Anwendungen überzugehen, um das volle Potential für Kosteneinsparungen zu nutzen.

12303879306_a683d3f195_z

Strukturierte Daten werden auch in Zukunft von relationalen Datenbanken gespeichert werden. Das reine NoSQL-Lösungen sich als Alternative zur Aufbewahrung strukturierter Daten entwickeln, kann sich Lensay Hensarling aufgrund des Designs von NoSQL nur schwer vorstellen. Andersrum passiert dies aber gerade: relationale Datenbanken entwickeln Datentypen zum Aufbewahren unstrukturierter Daten.

NoSQL-Lösungen werden für den nächsten Schritt nach SQL und relationalen DBMS gehalten und damit die Wegbereiter für das Geschäft in der vernetzten Welt des Internet der Dinge und Big Data. Doch relationale Datenbanken sind immer noch weit verbreitet in Gebrauch. Wie kommt das?
Reine NoSQL-Lösungen sind aus High-Volume-Umgebungen mit neuen Arten von Daten, wie Social Media und Web-basierte Anwendungen, hervorgegangen. Sie tun sich beim Speichern großer Mengen unstrukturierter Daten hervor und spielen eine entscheidende Rolle dabei, die Herausforderungen zu meistern, vor die Big Data und das Internet der Dinge Unternehmen stellen werden. Jedoch haben die meisten von ihnen sehr vereinfachte Funktionen wenn es darum geht, mit den Daten tatsächlich etwas zu tun. Bei solchen Lösungen wird die eigentliche Datenverarbeitung in die Anwendung verschoben, so dass die Entwicklung von Applikationen sehr viel komplexer ausfällt. Weiterhin fehlt typischen NoSQL-Lösungen die Konformität mit den sogenannten ACID –Eigenschaften (Unteilbarkeit, Konsistenz, Isolation, Dauerhaftigkeit) für verlässliche Verarbeitungsschritte im DBMS, so dass es keine absolute Garantie gibt, dass Transaktionen in der Datenbank sicher verarbeitet werden. Um dennoch ACID-Konformität zu erreichen, muss in den Anwendungen immer und immer wieder sehr komplexer Code geschrieben werden. Auf der anderen Seite wurden relationale DBMS von Anfang an entwickelt, um die ACID-Eigenschaften stets zu erfüllen, so dass sie sehr zuverlässig und robust funktionieren und mit in ihnen gespeicherten strukturierten Daten auf eine sehr detaillierten Ebene gearbeitet werden kann. Darüber hinaus ermöglicht der relationale Charakter dieser DBMS einen umfassenden Überblick über alle gespeicherten Daten und wie sie mit anderen Unternehmensdaten in Beziehung stehen.

Traditionelle geschäftskritische Daten für Budgetierung, Prognose usw. sind und bleiben wichtig für Unternehmen – auch in der kommenden vernetzten Welt des Internet der Dinge und von Big Data. Finanzdaten sind primär strukturierte Daten und müssen zuverlässig, modifizierbar und sicher gespeichert werden, wodurch die relationale Datenbank das Rückgrat des Unternehmens bleiben wird.

NoSQL- und relationale Lösungen sind also beide von entscheidender Bedeutung für verschiedene Aufgaben im Unternehmen. Heißt das, Unternehmen sollten viele verschiedene spezialisierte Anwendungen benutzen?
Unternehmen sollten die Lösung verwenden, die für die anstehenden Aufgaben am besten geeignet ist, und das bedeutet, sich intensiv mit neuen Optionen zu befassen, um deren tatsächliche Möglichkeiten zu ermitteln, und nicht nur blind einem Marketing-Hype zu folgen. Werden viele verschiedene, voneinander getrennte Lösungen auf einmal verwendet, kann sehr zeit- und ressourcenintensiver Management-Aufwand nötig werden und das Risiko von Inkonsistenzen und Datensilos kann erheblich ansteigen. Dies wiederum kann potentiell den Geschäftswert der Unternehmensdaten als Ganzes kompromitieren.

Reine NoSQL-Lösungen sind meist sehr spezialisiert und wurden entwickelt, um ein ganz bestimmtes Problem zu lösen – wie beispielsweise Lagerung und Verwaltung spezifischer Ströme unstrukturierter Daten. Was ein Unternehmen in der vernetzten Welt braucht, ist eine Datenbank, die sowohl strukturierte als auch unstrukturierte Daten effizient verarbeiten kann, und die sich dynamisch an schnell ändernde Daten-Herausforderungen und sich entwickelnde, neue Datentypen anpasst. Auf diese Weise kann das Unternehmen einen umfassenden Überblick über seine Daten erhalten und deren höheren Wert voll für sich nutzen.

Wir erleben bereits, wie der Bedarf auf dem Markt nach solchen „All-in-one“-Lösungen steigt. Unternehmen wollen bewährte Zuverlässigkeit gepaart mit Innovation um den neuen Herausforderungen der schönen neuen digitalen Welt gerecht zu werden. Das Aufkommen von NoSQL-artigen Daten wird die DBMS-Landschaft verändern und bis zum Jahr 2017 wird das „NoSQL“-Etikett, wie es heute existiert, kein Unterscheidungsmerkmal für DBMS mehr sein, da die meisten führenden operativen DBMS anfangen werden, mehrere Datenmodelle, sowohl relationale als auch NoSQL, in einer einzigen Plattform anzubieten.

Für Unternehmen in der Ära der vernetzten Gesellschaft ist also die „All-in-one“-Datenbank am geeignetsten. Wie kann sie konkret realisiert werden?
In der Theorie gibt es zwei Möglichkeiten: Entweder NoSQL-Lösungen entwickeln mehr Flexibilität sowie anspruchsvollere und detailliertere transaktionale Funktionen (um mit den Daten auch tatsächlich wertschöpfend arbeiten zu können) und eignen sich zudem die ACID-Eigenschaften an; oder relationale Datenbanken lernen, unstrukturierte Daten effizient zu verarbeiten. Die erste Variante ist aufgrund der Art und Weise, wie diese Lösungen konzipiert sind, fast unmöglich. Die zweite ist dagegen schon im Gange und relationale Datenbanken bieten ihren Anwendern bereits Funktionen für die Verwaltung von strukturierten und semi-strukturierten Daten. RDBMS-Anbieter machen sich bereits seit geraumer Zeit neue Datentypen und Funktionen zu eigen und integrieren sie in ihre Angebote.

Der blaue Elefant ist das Maskottchen der PostGre-Gemeinde, ähnlich dem Pinguin bei Linux

Der blaue Elefant ist das Maskottchen der PostGre-Gemeinde, ähnlich dem Pinguin bei Linux

Postgres ist zum Beispiel besonders gut geeignet für Erweiterungen, um den wachsenden Daten-Anforderungen zu begegnen. Als ein „objektrelationales“ DBMS können Entwickler neue Objekte entwickeln und in Postgres einfügen, die das DBMS mit neuen Funktionen ausstattet, die dennoch zu jeder Zeit die grundlegenden ACID-Eigenschaften einhalten. Der JSON-Datentyp ist ein Beispiel für ein solches Objekt, das eine wichtige neue Funktion für Postgres einführte. Dieser Datentyp wird von einem anderen Feature namens „Foreign Data Wrappers“ verwendet, das eine zentrale Rolle für die Fähigkeit von Postgres spielt, Daten aus anderen Datenbanken zu unterstützen, und markiert in der Tat einen wichtigen Schritt auf dem Weg zu einer „All-in-one“-Datenbank.

„Foreign Data Wrappers“ erlauben die Integration von Daten aus externen NoSQL-Implementierungen wie MongoDB, MySQL oder Hadoop-Clustern in Postgres-Tabellen. Dies ermöglicht es, unstrukturierte Daten die in NoSQL-Lösungen gespeichert sind, in eine Umgebung zu ziehen, deren transaktionale Funktionen den nötigen Detailgrad haben und die vollständige ACID-konform ist, um die Datenkonsistenz zu gewährleisten, die Unternehmen brauchen. Dies ermöglicht es auch Postgres als Datenbank-Hub zu verwenden um einen umfassenden Überblick über alle Unternehmensdaten oder wirklich aussagekräftige Snapshots zu erhalten. Dadurch wird aus den Unternehmensdaten der nötige Geschäftswert generiert um an den neuen Märkten in einer vernetzten Gesellschaft Erfolg zu haben.

Weitere Informationen unter:
www.enterprisedb.com

* The State of Open Source RDBMSs, 2015, by Donald Feinberg and Merv Adrian, published April 21, 2015.

Über den Interviewpartner

LenleyLenley Hensarling spielt eine Schlüsselrolle bei der Festlegung von EDBs strategischer Ausrichtung durch Produktentwicklung sowie die Zusammenarbeit mit Kunden und Partnern. Er hat mehr als zwei Jahrzehnte Erfahrung in der Software-Industrie bei großen Anbietern für professionelle Unternehmenstechnologie. Nachdem er lange Jahre bei JD Edwards eine leitende Position innehatte, übernahm Lenley Führungsrollen bei PeopleSoft und danach Oracle. Seine Wurzeln liegen im Engineering-Bereich und er stieg schnell zum Vice President of Engineering bei Novell auf. Lenley erhielt seinen BA in Wirtschaftswissenschaften von der University of Texas in Austin.

Bildquelle / Lizenz (nach Reihenfolge): tec_stromberg (flickr.com); EnterpriseDB; Donald Feinberg, Merv Adrian; Christian Schnettelker (flickr.com), www.manoftaste.de; Jeff Kubina (flickr.com); Flickr-Lizenz: https://creativecommons.org/licenses/by-sa/2.0/;

Creative Commons im Journalismus

Ein Plädoyer von für freie Inhalte im Journalismus.

In der feinen, aber oft etwas isolierten Netzgemeinde sind Creative Commons schon gut etabliert. Immer wieder stößt man auf Bilder, Videos und Texte, die zur Weitergabe animieren, statt sie zu verdammen. Verlässt man aber diesen Kreis netzaffiner Menschen, sieht es ganz anders aus. Der Grund ist weniger fehlendes Wissen, sondern Angst. Ein paar Gedanken zur Verbesserung und Überzeugungsarbeit – mit Schwerpunkt auf Journalisten, aber auch für andere Bereiche einsetzbar.

Creative Commons: Was ist das?

Creative Commons (CC) – ein Name, der für eine Idee steht: Freie Lizenzen, die die Verbreitung und Weiterentwicklung kreativer Werke erlauben, ohne den Urheber zu enteignen. Die Regelung ist einfach und über ein eigenes Tool einzustellen. Alle CC-Lizenzen verlangen, den Urheber beim Namen zu nennen. Abgesehen davon gibt es zwei einfache Fragen, die man sich beantworten muss:

  • Möchte ich kommerzielle Verwendung meiner Arbeit zulassen? – Antworten sind ja oder nein.
  • Möchte ich Abwandlungen und Weiterentwicklungen meiner Arbeit zulassen? – Antworten sind ja, nein und „ja, aber nur wenn die Abwandlungen auch unter einer CC-Lizenz stehen“.

Über einige Zusatzfelder lassen sich noch einige zusätzliche Angaben einstellen, etwa der Link, unter dem die Arbeit zu finden ist und der als Quellenangabe angegeben werden muss.

Creative Commons: Was nützen sie?

Diese Wissensaspekte sind meist recht schnell zu vermitteln. Ebenso sieht es mit den Vorteilen aus. Hier sind eine Reihe von Vorteilen, die für CC sprechen:

Für den Urheber:

  • schnellere Verbreitung von Inhalten und dem eigenen Namen
  • zahlreiche Anwender suchen von vorne herein nur nach CC-Werken, um sich die Arbeit der Nachfragerei zu sparen
  • Erzeugung von Links auf eigene Inhalte

Für den Anwender:

  • schnellere Klärung von Rechten
  • zahlreiche Einsatzszenarien, zum Beispiel schöne Bilder für eigene Texte

Die ganz realen Ängste – und wie man sie beseitigt

Am einfachsten auszuräumen ist meist die Angst einiger Journalisten vor Enteignung. Creative Commons enteignen niemanden – weil sie freiwillig sind. Jeder Autor entscheidet selbst, ob er auf CC setzen möchte oder nicht. Und über die wenigen Parameter lässt sich flexibel steuern, unter welchen Umständen man zu einer Fremdverwertung bereit ist. Wählt man „keine kommerzielle Nutzung“, ist ausgeschlossen, dass andere mit den eigenen Inhalten Geld verdienen, ohne den Autor selbst dafür zu entlohnen. Wer Angst davor hat, dass das eigene Werk entstellt wird, setzt auf „keine Bearbeitungen“. Und mit „Weitergabe unter gleichen Bedingungen“ kann man sicherstellen, dass sich niemand an den eigenen Werken bereichert, ohne selbst etwas zur Gemeinschaft beizutragen. Bei all dem gilt: Keine Creative-Commons-Lizenz schließt aus, dass ein Urheber Ausnahmen festlegt. Wer generell kommerzielle Nutzung ausschließt, kann sich natürlich trotzdem noch mit bestimmten Anbietern auf eine kommerzielle Nutzung einigen – hier gilt das, was auch bei jedem anderen Werk gilt: Nachfragen bei Unklarheiten.

Im journalistischen Umfeld höre ich oft die Befürchtung, Creative Commons könnten den Wert journalistischer Arbeit herabsetzen – nämlich dann, wenn aus journalistischen Texten weitere Werke entstehen, die journalistischen Ansprüchen nicht genügen. Mit dieser Angst ist nicht einfach umzugehen – ein Ansatz könnte sein, die Frage von der anderen Seite anzugehen. Ein Beispiel dazu: Wie viele Bildkritiken gibt es in den Medien zu lesen? Meistens sind es nicht viele. Ich finde das seltsam: Wir beschäftigen uns immer wieder mit tendenziöser Berichterstattung und kritisieren derart unsaubere Arbeit. Doch auch Bilder können tendenziös sein. Sie können über bildliche Gestaltungsmittel eine Deutung nahelegen, die nicht den Tatsachen entspricht. Ebenso nimmt die Auswahl der Bilder und deren Ausschnitt Einfluss auf die Deutung – was gezeigt wird, besonders aber auch was eben nicht gezeigt wird. Ich habe den Eindruck, dass diese Aspekte selten aufgegriffen werden in der journalistischen Arbeit. Und ich glaube, einer der Gründe liegt in der schwierigen Auslegung des Zitatrechts auf Bilder – Udo Vetter hat in seinem Vortrag auf der re:publica darauf hingewiesen, wie schwierig das Zitieren von Bildern ist, obwohl es eigentlich rechtlich zulässig ist, wenn man sich inhaltlich mit Bildern auseinandersetzt. Creative Commons sind also ein Weg, uns die Auseinandersetzung mit den Werken anderer zu vereinfachen und wichtige journalistische Formen zu ermöglichen, die sonst allzu leicht unter den Tisch fallen. Und damit sind die Chancen, die Creative Commons dem Journalismus öffnen, um ein Vielfaches höher als die Risiken.

Eine andere Angst hört sich meistens so an: „Warum sollte ich CC verwenden, wenn jeder weiß Gott was mit meiner Arbeit machen darf?“ Die fand ich immer schwer zu beruhigen. Zunächst ist, wie schon erwähnt, über drei Parameter eine bemerkenswert gute Steuerung möglich, in welchem Umfeld Werke eingesetzt werden können. Zudem setzen sich Creative Commons nicht über andere Rechte hinweg: Selbstverständlich darf auch mit einer CC-lizensierten Arbeit niemand verleumdet werden. Außerdem kann ich sowieso nicht kontrollieren, was andere Menschen mit meiner Arbeit anfangen, wenn ich sie veröffentlicht habe. Ob sie meine Ansichten teilen, meine Texte ausdrucken und verbrennen, mein Blog aus dem Feedreader werfen: All das liegt nicht in meiner Hand. Aber ich finde es gut, ihnen die Chance zu geben, sich damit auseinanderzusetzen – denn dann besteht wenigstens die Möglichkeit, mit ihnen in einen Dialog zu treten. Creative Commons haben also nichts mit Diebstahl zu tun: Weder sind meine Werke von dort verschwunden, wo ich sie eingestellt habe, noch gibt sie irgendjemand anderes als seine eigenen aus. Creative Commons sind vielmehr eine gesellschaftliche (und journalistische) Vision, wie Wissensaustausch geregelt werden kann.

Manchmal ist für diese Vision aber auch grundsätzliche Überzeugungsarbeit notwendig. Ideen sind nicht wie Äpfel. Wenn ich einen Apfel habe und du ebenfalls einen Apfel hast, und wir diese Äpfel tauschen, dann hat jeder am Ende einen Apfel – im besten Fall einen vergleichbaren. Leider ist es aber meistens so, dass einer der Äpfel kleiner, weniger lecker oder etwas weniger frisch ist. Ganz anders bei Ideen und Wissen: Wenn ich eine Idee habe und du ebenfalls eine Idee, und wir die Ideen austauschen, dann hat im schlechtesten Fall jeder von uns zwei Ideen. Meistens ist es aber so, dass aus zwei Ideen drei Ideen werden – weil sie sich gegenseitig befruchten. Creative Commons ist der Versuch, diesen Ideenaustausch zu vereinfachen.

Über den Autor:

 

ist Medienwissenschaftler und beobachtet als Autor („Grundkurs Gutes Webdesign“) und Berater den digitalen Wandel. Seine Themenschwerpunkte sind User Experience, anwenderfreundliches Design und digitale Strategien. Er schreibt regelmäßig für Fachmedien wie das t3n Magazin, die Netzpiloten oder Screenguide.

Bildnachweis: „My CC stickers have arrived!!!“ von Laihiu (CC BY),  „Banjo Libre“ von andyket (CC BY)

Junger Jobtimismus

So kritisch die Lage im europäischen Ausland auch sein mag, die deutschen Arbeitnehmer vertrauen auf den stabilen deutschen Arbeitsmarkt. 58,3 Prozent der Arbeitnehmer schätzen ihre Chancen bei der Bewerbung auf einen neuen Job als gut oder sehr
gut ein.

Das sind deutlich mehr als 2014. Zwischen den Generationen zeigen sich erhebliche Unterschiede bei der Einschätzung der eigenen Möglichkeiten. Während die meisten Jungen hoffungsvoll in die Zukunft blicken, sehen viele Ältere sich eher auf der Ersatzbank als auf dem Transfermarkt. Dabei deuten die Prognosen der Bundesagentur für Arbeit auf gute Karrierechancen für alle hin. Die sozialversicherungspflichtige Beschäftigung wird wohl weiter wachsen. Das ist auch ein Verdienst der Zeitarbeit, die weiterhin viele attraktive Stellen zuvergeben hat.

Stabiler Arbeitsmarkt, wachsender Optimismus

Unbeeindruckt von der Schuldenkrise Griechenlands blicken die deutschen Arbeitnehmer optimistisch in die Zukunft. 58,3 Prozent der Arbeitnehmer schätzen ihre Chancen in Deutschland einen neuen Job zu finden gut oder sehr gut ein, so das Ergebnis der Orizon Arbeitsmarktstudie 2015 mit über 2.000 Befragten. Im Vorjahr waren die Optimisten mit nur 46,6 Prozent noch in der Unterzahl.

„Die außenwirtschaftliche Lage ist durchwachsen. Sie konnte in den letzten Monaten und Jahren das Wachstum von Realwirtschaft und Beschäftigung in Deutschland aber nicht aufhalten. Die Arbeitnehmer vertrauen zunehmend in die Stabilität des deutschen Arbeitsmarktes“, deutet Dr. Dieter Traub, Geschäftsführer der Orizon GmbH, die Zahlen.

Halbstarke Hoffnung, silberhaarige Skepsis

Die 18- und 19- Jährigen schätzten nach der Orizon Arbeitsmarktstudie 2015 ihre Jobchancen wesentlich besser ein als die älteren Jahrgänge. 86,1 Prozent der Teenager bewerteten ihre Chancen einen Job zu finden mit „gut“ oder „sehr gut“. Mit zunehmendem Alter nimmt die Zuversicht stetig ab. Bei den 60- bis 65-Jährigen waren es gerade einmal 37 Prozent, die gute oder sehr gute Chancen sehen. Dabei haben auch die älteren, arbeitswilligen Arbeitnehmer Grund zum Optimismus.

Qualifikation und Berufserfahrung, von den Arbeitnehmern selbst als die beiden wichtigsten Voraussetzungen für Bewerbungserfolg genannt, besitzen sie in hohem Maße. „Der demographische Wandel spielt allen Arbeitnehmern in die Hände – jung wie alt. Aufgrund des entstehenden Fachkräftemangels können es sich Unternehmen gar nicht mehr leisten, ältere Arbeitnehmer abzuschreiben. Stattdessen setzen sie deren besondere Fähigkeiten in altersgemischten Teams ein. Das zeigt unsere Erfahrung mit hunderten mittelständischen und großen Unternehmen“, berichtet der Personalexperte Traub.

Zeitarbeit ist Teil der Erfolgsstory

Laut dem Stellenindex der Bundesagentur für Arbeit (BA-X) ist die Anzahl der offen gemeldeten Stellen weiter gestiegen. Der Arbeitsmarkt wird voraussichtlich also weiter gute Chancen auf einen neuen Job bieten. Etwa ein Drittel der offenen Stellen kommt aus der Zeitarbeit. „
Wir suchen gute Leute und können auch gute Stellen bieten“, stellt Traub fest. „Die Zeitarbeit wird gerne ins Abseits gestellt. Es ist an der Zeit anzuerkennen, dass wir mit gut bezahlten, sozialversicherungspflichtigen und meist auch unbefristeten Stellen einen qualitativen Beitrag zur Erfolgsgeschichte des deutschen Arbeitsmarktes geleistet haben.“

Weitere Informationen unter:
www.orizon.de

Bildquelle / Lizenz: Flickr.com / 드림포유; veröffentlicht unter: https://creativecommons.org/licenses/by-nd/2.0/