Innovative Benefits gegen Fachkräftemangel

Was ist eigentlich ein Benefit? Laut Duden handelt es sich dabei um einen besonderen Vorteil, Nutzen oder Ertrag. Also etwas, worüber sich jeder freut. Gut punkten können hier jetzt auch viele Arbeitgeber auf der Suche nach immer rarer werdenden Fachkräften. Ein vielseitiges Benefit-Angebot kann ausschlaggebend sein. Die ValueNet Group ist seit 2002 darauf spezialisiert. Demnächst gibt sie Unternehmen jeder Größe mit neuem Portal und einfacher App-Lösung das richtige Instrument an die Hand.

Seit 20 Jahren behauptet sich ein privates Pflegeheim im Landkreis Konstanz als innovative Einrichtung am Markt. Der Inhaber kämpfte viele Jahre für die Umsetzung seiner Vorstellungen einer anspruchsvollen Betreuung und Pflege. Heute hat das Heim ein hervorragendes Renommee, die begrenzten Pflegeplätze sind auf Jahre im Voraus vergeben. Eine Traumsituation? „Im Prinzip ja“, meint der Geschäftsführer „trotzdem haben wir seit Jahren das Problem, dass es an verlässlichen und engagierten Pflegekräften mangelt. Die Betten sind belegt und Personal ist schwierig zu bekommen. Sehr viel mehr Gehalt anzubieten, geben die Einnahmen nicht her. Doch dann zeichnete sich die Idee von Gesundheitsbenefits als Glückstreffer ab. Sonderpreise für Thermenbesuche, Spa- Wellness- und Fitnessangebote sowie vergünstigte Einkaufsmöglichkeiten für ergonomische Sitz- und Schlafmöbel hatte sich das Stammpersonal gewünscht. Nun half das auch bei der Mitarbeitersuche und kurz darauf hatten wir drei neue, versierte Altenpflegerinnen. Die anstrengende Phase der Doppelschichten für unsere Mitarbeiter war endlich vorbei.“

Lockmittel für gute Fachkräfte: Was zahlt sich wirklich aus?

Das Pflegeheim steht mit diesem Personalproblem nicht allein da. Laut Studie der ManpowerGroup, einer der weltweit größten Personaldienstleister, ist der Fachkräftemangel inzwischen ein globales Problem. Deutschland trifft es besonders hart. Nach eigenen Angaben der Unternehmen leiden aktuell 46 Prozent unter einem akuten Fachkräftemängel und damit 6 Prozent mehr als 2014. Jede zweite Firma muss lukrative Aufträge ablehnen, die Wettbewerbsfähigkeit sinkt rapide. „Der Arbeitsmarkt hält mit dem wirtschaftlichen Aufschwung im Land nicht mehr Schritt. Um den Konjunkturmotor am Laufen zu halten, braucht es neue Ideen, wie wir Menschen in Arbeit bringen“, weiß Herwarth Brune, der Vorsitzende der Geschäftsführung der ManpowerGroup Deutschland. „Eine ganze Generation der Babyboomer steht vor dem Ruhestand. Diese Lücke müssen die Arbeitgeber füllen, beispielsweise durch gezielte Nachwuchsprogramme.“

Die Münchner ValueNet Gruppe bietet innovative Lösungen für Benefits und nimmt ihren Kunden den kompletten Abwicklungsaufwand ab, zum Beispiel in Bezug auf Dienstwagen, erläutert Geschäftsführer Stefan Schadhauser.

Die Mehrheit der Personalverantwortlichen setzt in erster Linie auf Aus- und Weiterbildungsmaßnahmen für bestehendes Personal. Viel Erfolg versprechen sich die Unternehmen von innovativen Maßnahmen zur Personal-Anwerbung, von zusätzlichen Benefits, die den Reiz von ein paar Euro mehr auf dem Konto möglichst übertreffen sollen. Doch was sind das für Zusatzleistungen, die den Mitarbeitern die Arbeit besonders versüßen?  Und warum sollte sie der Arbeitnehmer über seine Firma beziehen, statt sie sich individuell am freien Markt auszusuchen?  Ganz einfach, weil er auf diese Weise viel Geld sparen kann. Egal, ob es sich um einen neuen Laptop, die Altersvorsorge, den erholsamen Wellnessurlaub oder um einen Zuschuss zur Kinderbetreuung handelt. Auch das Pflegeheim am Bodensee entschied sich für Benefits und dabei besonders für spezielle Gesundheits-Benefits, die optimal zu den Bedürfnissen der Mitarbeiter passten. Das außergewöhnliche Bonus-Programm wurde explizit per Stellenanzeige beworben und wirkte.

Das neue Portal von ValueNet wird freie Auswahl unter mehr als 500 Lieferanten bieten

Neben der Mitarbeiterbindung bzw. –gewinnung bieten Benefit-Programme viele Vorteile. Stefan Schadhauser, Geschäftsführer der Münchner ValueNet Group, erklärt dies anhand eines Beispiels: „Nehmen wir an, ein Mitarbeiter bekommt einen neuen Firmenwagen. Hier das für beide Seiten am besten geeignete Modell herauszufinden, kostet extrem viel Arbeitszeit. Neben der Auswahl der passenden Marke und des richtigen Modells gilt es ja auch die finanziellen und rechtlichen Aspekte zu beachten und den finanziellen Vorteil Monat für Monat korrekt zu verbuchen. In vielen Firmen gibt es extra Mitarbeiter, die sich nur um diesen Bereich kümmern. Wir nehmen den Firmen diesen Aufwand ab. Und nicht nur bei Autos, sondern bei über 500 Lieferanten von frei wählbaren Zusatzleistungen aller Art! Da ist für jeden Mitarbeiter etwas dabei!“

Im Januar 2016 wird die ValueNet Group, Deutschlands Marktführer im Bereich Konzeption und Verwaltung von Compensation und Benefit Angeboten, mit dem neuen ValueNet-Portal und einer bequemen App-Lösung online gehen. Interessierte Unternehmen bekommen bereits jetzt ein Testportal zur Verfügung gestellt. Dort können die Zusatzleistungen durch den Arbeitgeber sowie Arbeitnehmer bewertet und ausgewählt werden. Um sie mit der Fülle der Angebote nicht allein zu lassen, stehen erklärende Filme sowie eine permanente Online-Beratung zur Verfügung. Entscheidet sich ein Unternehmen nach der Testphase für das Angebot, wird das Portal passend zum Corporate Design der Firma gestaltet. Die Informationen über Arbeitgeberzusatzleistungen werden zudem direkt an Facebook, Xing und andere soziale Netzwerke weitergeleitet. So werden potentielle Mitarbeiter frühzeitig auf die Sonderleistungen aufmerksam.

„Was verdiene ich, was machen die Zusatzleistungen aus?“

Bei vielen deutschen Unternehmen besteht ein großes Optimierungspotential, was die wirkungsvolle Mitarbeiterbindung und -gewinnung betrifft. Eine Studie der Unternehmensberatung Kienbaum hat ergeben: Nur in 22 Prozent der Firmen ist es Mitarbeitern möglich, in Form von Gehaltsumwandlung sinnvolle Benefits aus einem Katalog auszuwählen. Die Leiterin des Vergütungsmanagements bei Kienbaum, Sandra Düsing, empfiehlt daher in einem Artikel der Zeitung „Die Welt“, die gesamte Palette der Benefit-Angebote regelmäßig zu überprüfen. „Häufig schaffen es die Firmen auch nicht, dass alle Mitarbeiter einen Überblick über sämtliche Vergütungsbestandteile haben“, bemängelt Sandra Düsing. „Neben Grundgehalt und Boni sollte den Mitarbeitern auch regelmäßig der monetäre Wert der Zusatzleistungen in ihrer Gesamtheit mitgeteilt werden.“

Die Münchner Benefit-Experten haben diesen Mangel erkannt und machen die Handhabung des ValueNet-Portals so leicht und komfortabel wie möglich – via APP mobil auf Smartphone oder Tablet, im Büro oder Zuhause für die ganze Familie zur gemeinsamen Beratung vor dem heimischen Bildschirm. Für die Angestellten werden regelmäßig persönliche Informationen und Budgetpläne erstellt, so dass sie kontinuierlich Einblick in ihre Gehaltskonten haben. Das Portal ermöglicht eine Art virtuellen Einkaufsbummel, bei dem die Mitarbeiter die Bedürfnisse ihrer Angehörigen mit einbeziehen können. Wofür auch immer sie sich entscheiden – ob für einen großen Familienurlaub, für Weiterbildungsmaßnahmen, eine neue Büroeinrichtung, für Fitness-Kurse oder das monatliche Zeitschriften-Abo – die Gehaltsumwandlung macht sich stets bezahlt. Die langjährige Erfahrung der ValueNet Group ermöglicht es den Mitarbeitern das Potential an Mengenrabatten und  Steuervorteilen voll auszuschöpfen.

Durchdachte Benefits – ein wichtiger Wettbewerbsvorteil

Flexibel gestaltete Benefit-Systeme gewinnen weltweit an Bedeutung – nicht nur für Großkonzerne. Doch kleinere und mittelständische Unternehmen können da von sich aus kaum mithalten. Wenn nun aber im Januar 2016 das ValueNet-Portal online geht, haben auch sie die Möglichkeit große Benefitvorteile anzubieten. Und wer derzeit nach einem neuen Job sucht, kann seinen künftigen Arbeitgeber frank und frei auf spezielle Zusatzleistungen ansprechen.

Weitere Informationen unter:
www.valuenet.ag

Factoring – Wachstum finanzieren

Zahlungsausfälle senken und die Liquidität stärken. Factoring liegt voll im Trend und unterstützt mittelständische Unternehmen bei der Forderungsfinanzierung.

Trotz der Niedrigzinsphase haben es Start-ups und KMU immer schwerer ihr Wachstum mit
dem tradierten Bankkredit zu finanzieren.
Doch nur wenige kleine und mittlere Unternehmen nutzen die am Markt verfügbaren  Factoring-Lösungen, um Expansion zu generieren. Im kleinvolumigen Sektor haben andere Länder die Nase vorn. Ein potenter Markt für die deutsche Factoring-Branche.
Aber was hält eigentlich Unternehmen noch davon ab, Factoring einzusetzen? Und wie unterscheiden sich diejenigen Unternehmen, die Factoring einsetzen, von solchen, die kein Factoring nutzen? Diese und weitere Fragen wird die Redaktion anhand von Fallbeispielen
und Experteninterviews beantworten und gibt dabei dem Thema Raum für eine eigenständige Reportage.

Hier können Sie sich das vollständige Themenexposée „Factoring – Wachstum finanzieren“ herunterladen

Hier geht es zu unseren Mediadaten

Bilquelle / Lizenz: www.gotcredit.com; veröffentlicht unter https://creativecommons.org/licenses/by/2.0/

Sprachsteuerung fürs Leben

Das Internet der Dinge bedeutet auch die Vernetzung zu Hause. Wer bislang mit seiner Stereo-Anlage, der Lampe oder dem Fernseher spricht, erntet verwunderte Blicke. Genau das aber will Joshua Montgomery ermöglichen: natürliche Sprachsteuerung für zuhause. Soll es im Raum wärmer und behaglicher werden, genügt fortan nur noch ein Satz.

Das Projekt setzt auf offener Hardware auf. Die tatsächliche Spracherkennung findet in der Cloud statt. Der Dienst lässt sich nach eigenen Wünschen einstellen. Als Platine dient ein Raspberry Pi. Montgomery verspricht, dass sich alles steuern lässt, was an das Internet angeschlossen werden kann.

Mehr Informationen dazu stellt das folgende Video bereit.

 

(Videoquelle: kickstarter, Joshua Montgomery, gesonderte Lizenz beachten)

Weitere Informationen unter:
http://kck.st/1TkfgG0

 

Bildquelle Beitrag-Aufmacher: flickr.com / mikael altemark; veröffentlicht unter: https://creativecommons.org/licenses/by/2.0/

 

Was ist Open-Source-Hardware?

Eigentlich schwer vorstellbar was die Menschen mit einer Open-Source-Hardware wirklich anfangen können. Was haben wir davon, wenn wir die Hardwarebasis für unsere elektronischen Geräte und Computer untereinander teilen, verändern und verfielfätigen können? So kann zum Beispiel der Verbraucher Open Source-Software sehr leicht verwenden.  Mit der Hardware gibt es jedoch eine größere Herausforderung. Es gestaltet sich als recht komplex, die Sache richtig anzudenken und die Chancen und Änderungen für Wirtschaft und Unternehmen einzuordnen. Wäre das eigentlich disruptiv?

Unsere Redaktion möchte dem Thema Raum geben. 

Diskutieren Sie mit und stellen Sie Ihre Fragen. Arbeiten oder produzieren Sie schon mit oder auf Basis „Freier Hardware“?

Ich freue mich auf Ihren Kommentar!

Nachfolgend noch die Grundlagen im Anriss, die wir zu dem Thema bei Wikipedia gefunden haben. Unter en.wikipedia.org finden Sie weitere Informationen. Zusätzlich bereitet gerade die Open-Source-Hardware Association eine Grundsatzerklärung und Definition vor.

Freie Hardware (englisch free hardware, open hardware oder open source hardware)[1] ist eine Hardware, die nach lizenzkostenfreien Bauplänen hergestellt wird. Die Bewegung und Idee steht der Open source– und DIY-Bewegung nahe bzw. geht auf diese zurück.

Konzept und Wirkungsfeld

Auch wenn „Open Source Hardware“ häufig viel mit Open-Source-Software gemein hat, kann „Open-Hardware“ jedoch auch weit entfernt von Softwaretechnik stattfinden: Beispielsweise versucht das Projekt „OpenSource Car“ (OScar) freie Baupläne für ein Auto zu entwickeln, also ein freiverfügbares „Rezept“ zum Selberbauen. Noch weitergehend bei Thingiverse, hier sollen Objekte als 3D druckbare 3D-CAD-Dateien zur Verfügung gestellt werden. Das Projekt „Solar“ versucht, in Entwicklungsländern günstige SelbstbauSolarsysteme zu verbreiten, darunter kochen und heizen ohne Feuerholz zu ermöglichen.

Das coreboot-Projekt (ehemals LinuxBIOS) mit dem Ziel, proprietäre BIOSe zu ersetzen, wird manchmal auch der freien Hardware zugeordnet da das BIOS aus historischer Perspektive der Hardware zugeordnet war. Während zu den Anfängen der Computer das BIOS vollständig in einem OTPROM gespeichert und somit untrennbar in der Hardware verankert war, ist dieses inzwischen, analog zu jeder anderen Software, vollständig austauschbar.[2]

Als einer der ersten Computer in Serienproduktion will das gemeinnützige Projekt 100-Dollar-Laptop alle seine Computer mit coreboot ausstatten. Bei einer geplanten Produktionsmenge von 100 bis 200 Millionen Stück soll das BIOS wohl insbesondere in den Entwicklungs- und Schwellenländern große Verbreitung finden und damit einen Beitrag zur Entwicklungshilfe leisten. Am 14. Februar 2006 hat die Firma Sun Microsystems überraschenderweise das Design ihrer bekannten SPARC-Prozessorarchitektur unter dem Namen OpenSPARC gänzlich offengelegt und unter der freien-Software-Lizenz GNU General Public License der Allgemeinheit zugänglich gemacht. Unter dem Namen „Open Compute Project“ hat Facebook sowohl die Architektur seiner Server als auch eines Rechenzentrums freigegeben.[3]

Aus dem Bereich der Textilverarbeitung kommt das AYAB-Projekt (englisch für „Alle Garne sind schön“) welches die häufigen Brother KH-9xx Strickmaschinen mit einer modernen und offenen Arduino-basierten Ansteuerung versieht.[4][5][6][7]

Rechtliche Grundlagen

Freie Hardware besitzt zwar häufig ein liberales Copyright, kann aber trotzdem Patentrechte berühren.

Freie Hardware kann je nach Projekt unterschiedlich weit freigegeben werden. Viele Hersteller geben oft nur Teile ihrer Implementierungen für eigene Projekte der Benutzer weiter. Beispiele wurde nur die Firmware des WLAN-Routers WRT54GL von Linksys (gezwungenermaßen) unter GPL gestellt; vom Roboterstaubsaugers Roomba wurde nur die Programmierschnittstelle veröffentlicht.

Zudem können voneinander unabhängige Teile eines Projekts anderen Lizenzen unterstehen. Dies bedeutet, dass etwa Schnittstellen, Software und Hardware unterschiedliche Lizenzen haben können.

Open-Hardware-Lizenzen

Richard Stallman (GNU und FSF) empfiehlt folgende Lizenzen für freie Hardware:[1]

Weitere Lizenzen, die für freie Hardware verwendet werden, sind:

Weitere Projekte freier Hardware (Auszug)

  • das Projekt Open Compute [8], das eine Sammlung freier Hardware zum Aufbau eines Rechenzentrums beinhaltet
  • das Projekt freedom-cpu[9], das einen freien 64-Bit-Hauptprozessor entwickeln und Linux darauf portieren will
  • das Mikrocontroller-Entwicklerboard Arduino
  • der 100-Dollar-Laptop OLPC XO-1
  • das Ethernut-Projekt welches Einplatinencomputer und Software auf AVR– und ARM-Basis erstellt
  • das Projekt Parallella[10], das einen Supercomputer für 99 US$ entwickeln möchte
  • der Simputer, ein preisgünstiger tragbarer Computer
  • die 3D-Drucker von RepRap, MakerBot und Fab@Home
  • das Projekt smarthomatic[11] (ehemals Open Home Control), das ein vollständiges Hausautomationssystem mit Sensoren und Aktoren beinhaltet
  • das MIDIbox-Projekt, eine Hardware- und Softwareplattform für MIDI-Controller, Sequenzer und Synthesizer
  • x0xb0x[12], der Nachbau des MIDI-Synthesizers Roland TB-303
  • das Mobiltelefon Openmoko unter GNU/Linux
  • der MP3-Player Daisy[13]
  • die digitale Fotokamera Frankencamera[14]
  • das Akkumulator-Ladegerät MintyBoost für den USB-Anschluss
  • der RFJammer WaveBubble[15]
  • das Projekt Open Source Ecology, das freie Landmaschinen entwickelt
  • die freie Werkzeugmaschine LME Hexapod[16]
  • das OSVR Open-Source Virtual Reality Headset (Quelldateien der Hardware nur unter unfreier Lizenz verfügbar)[17]
  • die Uhrwerke des Vereins openmovement [18]
  • die Open-Photonics Plattform myphotonics zur Entwicklung qualitativ hochwertiger, optomechanischer Komponenten und komplexer optischer Experimente

Siehe auch

Weblinks

 Commons: Freie Hardware – Sammlung von Bildern, Videos und Audiodateien

Quellen

 

[1]

 

 

 

Bildmotiv:Piotr Esden-Tempski

Open-BLDC-V0_1-Assembly-2-21open-bldc.org V0.1 assembly process

https://www.flickr.com/photos/esden/

https://creativecommons.org/licenses/by-sa/2.0/

Die Textinhalte stammen von Wikipedia:

Quelle: https://de.wikipedia.org/wiki/Freie_Hardware

Der Text ist unter der Lizenz „Creative Commons Attribution/Share Alike“ verfügbar; Informationen zu den Urhebern und zum Lizenzstatus eingebundener Mediendateien (etwa Bilder oder Videos) können im Regelfall durch Anklicken dieser abgerufen werden. Möglicherweise unterliegen die Inhalte jeweils zusätzlichen Bedingungen.

Der Traum vom weltweit einheitlichen Urheberrecht*

von Dr. iur Till Kreutzer

Das Urheberrecht regelt die Nutzung geistiger Erzeugnisse. Es hat damit von vorn- herein einen internationalen Bezug. Nutzungen können schließlich sowohl im In- als auch im Ausland vorgenommen werden. Steht etwa ein Text im Internet, kann er auf der ganzen Welt gelesen werden. Grenzen werden hierbei allenfalls durch Umstände gesetzt, die weder mit Politik noch mit Geografie zu tun haben. Diese liegen vor allem in der Sprache – mitunter aber auch im Recht.

Die Ausgangslage: Schutzlücken durch territoriale Begrenzung der Urheberrechtsordnungen

So weit wie ein Internetangebot reicht das Urheberrecht nicht. Längst nicht: Es basiert nämlich auf dem Territorialitätsprinzip, das besagt, dass jeder Staat in seinen Grenzen eigene Urheberrechte festlegen darf und dass jedes einzelne Urheberrecht an den Grenzen des Staates endet, der es gewährt. Hierdurch kommt es zu einer Art räumlicher Zersplitterung. Es gibt nicht „das Urheberrecht“ für „das Werk“. Vielmehr bestehen zum Beispiel an einem Musiktitel deutsche, österreichische, schweizerische, US-amerikanische – und so weiter – Urheberrechte. Zur Veranschaulichung kann man sich die rechtliche Situation wie ein Mosaik vorstellen: Die einzelnen Steinchen stehen für je ein nationales Urheberrecht. Alle Steinchen zusammen ergeben das international (nicht unbedingt weltweit) geltende Urheberrecht.

Ein wirklich weltweit wirkender Urheberrechtsschutz kann vor diesem Hintergrund nur erreicht werden, wenn alle Länder ihn – und zwar auch für Ausländer – gewähren. Zwingend ist das zunächst nicht. Da das Territorialitätsprinzip jedem Land die Entscheidung darüber überlässt, ob und wem es Urheberrechte zuerkennt, können Schutzlücken entstehen. Diese können – vor allem im Bereich der Internetnutzung – erhebliche Folgen haben. Will zum Beispiel ein amerikanischer Filmproduzent gegen einen Ring von Raubkopierern in Burkina Faso vorgehen, kann es sein, dass er daran scheitert, dass Burkina Faso ihm schlicht keine Urheberrechte gewährt. „Copyright-Havens“ nennt man solche schutzfreien Gebiete, in die sich Internetanbieter, die sich in ihrem Heimatland auf rechtlich unsicherem Terrain bewegen, gerne und problemlos zurückziehen.

Schutzfreie Zonen werden jedoch immer seltener. Faktisch ist es so, dass die weltpolitische Lage es heute kaum noch einem Land erlaubt, keine Urheberrechte zu gewähren. Will ein Land sich in die internationale Staatengemeinschaft integrieren, vor allem den Wirtschaftsgemeinschaften anschließen, wie etwa der World Trade Organization (WTO), kommt es nicht umhin, ein Urheberrecht zu schaffen. Übrigens gewährt auch Burkina Faso Urheberrechte.

Das Mittel: Internationale Urheberrechtsabkommen

Um einen möglichst weltweiten Schutz des Urheberrechts zu erreichen, wurden schon im ausgehenden 19. Jahrhundert die ersten internationalen Verträge zum Schutz des Urheberrechts begründet. Im Vordergrund stehen bei diesen Abkommen zwei Zielsetzungen: Zum einen soll ein möglichst weltweiter Schutz der Urheberrechte etabliert und damit die negativen Wirkungen des Territorialitätsprinzips für Urheber und Rechtsinhaber gemindert werden. Zum anderen soll ein gewisses Grundniveau für die Ausgestaltung der innerstaatlichen Urheberrechtsgesetze vorgeschrieben werden. Als völkerrechtliche Verträge haben die internationalen Urheberrechtsabkommen verbindliche Wirkung für die Mitgliedsstaaten. Gibt ein solches Abkommen zum Beispiel vor, dass das Vervielfältigungsrecht geschützt werden muss, sind die Länder verpflichtet, dies zu gewähren.

Der lange Zeit bedeutendste internationale Vertrag zum Urheberrecht ist die (revidierte) Berner Übereinkunft (RBÜ). Diese wurde erstmals im Jahr 1886 verabschiedet und seither mehrmals geändert (zuletzt im Jahr 1979). Der RBÜ sind mittlerweile 157 Staaten beigetreten, man kann also von einer nahezu weltweit geltenden Konvention sprechen (aktuell – Stand November 2004 – existieren 194 unabhängige Staaten). Die RBÜ ist damit so was wie die Mutter aller Urheberrechtskonventionen. Die meisten später geschaffenen internationalen Konventionen verweisen in ihren Bestimmungen auf die ergänzende Geltung der RBÜ (siehe zum Beispiel Artikel 9 Absatz 1 des Agreement on Trade-Related Aspects of Intellectual Property Rights, so genanntes „TRIPS-Abkommen“).

Das viel jüngere TRIPS-Abkommen hat in Bezug auf die internationale Anerkennung des Urheberrechts sehr schnell zur RBÜ aufgeschlossen. Die Konvention, die im Jahr 1995 in Kraft getreten ist, ist an die World Trade Organisation (WTO) gekoppelt. Jeder Staat, der Mitglied der WTO werden will, muss auch TRIPS ratifizieren. Dieser Umstand erklärt die praktische Bedeutung der Konvention. Nach nicht einmal zehn Jahren seines Bestehens hatte TRIPS im Jahr 2004 bereits 145 Mitglieder (die Europäische Union als Staatenbund inbegriffen). Anders als die RBÜ – die vorrangig dem Schutz des geistigen Eigentums dient – ist TRIPS ein reines Handelsabkommen, das neben urheberrechtlichen auch Aspekte anderer Immaterialgüterrechte (unter anderem Patent- und Markenrechte) regelt. Das Abkommen dient in erster Linie dazu, Verzerrungen und Behinderungen des internationalen Handels zu verringern.

Ein weiterer Unterschied zur RBÜ liegt darin, dass TRIPS auch Regelungen über verwandte Schutzrechte, also die Rechte der ausübenden Künstler, der Tonträgerhersteller und der Sendeunternehmen, enthält. Detaillierte urheberrechtliche Schrankenbestimmungen sucht man im TRIPS-Abkommen dagegen vergebens. Hierin findet sich nur der so genannte Drei-Stufen-Test für Beschränkungen und Ausnahmen. Dieser lautet:

Die Mitglieder begrenzen Beschränkungen und Ausnahmen von ausschließlichen Rechten auf bestimmte Sonderfälle, die weder die normale Auswertung des Werkes beeinträchtigen noch die berechtigten Interessen des Rechtsinhabers unzumutbar verletzen.

Hiermit werden nur die Grenzen gezogen, innerhalb derer jedes Land seine eigenen Urheberrechtsschranken bestimmen darf. Der auf diesem Weg zu erreichende Harmonisierungsgrad ist folglich gering.

Im Jahr 1996 kamen zu TRIPS und der RBÜ (und anderen Abkommen, auf die hier nicht näher eingegangen werden soll) zwei weitere internationale Urheberrechtsverträge hinzu, die als WIPO-Verträge bezeichnet werden. Der WIPO Copyright Treaty (WCT) regelt Fragen des Urheberrechts und der WIPO Performances and Phonograms Treaty (WPPT) die der verwandten Schutzrechte von ausübenden Künstlern und Tonträgerherstellern. Die WIPO-Verträge wurden verabschiedet, um die in die Jahre gekommene RBÜ fortzuentwickeln. Sie verweisen bezüglich der allgemeinen Regeln auf den Text der Berner Übereinkunft und fügen diesen zusätzliche Rechte hinzu. Durch die WIPO-Verträge wurden vor allem die mittlerweile hoch umstrittenen Vorschriften für den urheberrechtlichen Schutz technischer Maßnahmen in „das internationale Urheberrecht“ eingeführt. Da auch die Europäische Union die WIPO-Verträge ratifiziert hat, musste sie die Vorgaben hieraus umsetzen. Hierzu diente die InfoSoc-Richtlinie 2001/29/EG aus dem Jahr 2001. Die deutsche Umsetzung (sowohl der WIPO-Verträge als auch der Richtlinie) erfolgte durch den „1. Korb“, das so genannte „Gesetz zur Regelung des Urheberrechts in der Informationsgesellschaft“.

Die Lösung: Einheitliches Urheberrecht durch multilaterale Urheberrechtsabkommen

Auf dem Weg zu einer international einheitlichen Urheberrechtsordnung helfen diese Urheberrechtsabkommen nur bedingt weiter. Die hierin enthaltenen ordnungspolitischen Mittel sind nicht geeignet – und auch nicht dazu bestimmt – eine vollständig harmonisierte Weltordnung des Urheberrechts zu begründen. Die Urheberrechtskonventionen enthalten stets nur einen knappen Katalog an Mindestrechten.

Detaillierte und umfassende Vorgaben für die nationalen Gesetze sucht man im Regelfall vergebens. Schrankenbestimmungen zum Beispiel sind im internationalen Urheberrecht nur vereinzelt geregelt. Die internationalen Urheberrechtsabkommen dienen im engeren Sinne dem Schutz von Ausländern, um die negativen Auswirkungen des Territorialitätsprinzips zu vermeiden. Abweichend von der hieraus erwachsenden Grundregel, dass jeder Staat nicht nur entscheiden kann, ob, sondern auch wem er Urheberrechte zugesteht, verordnen die Konventionen das Prinzip der Inländerbehandlung. Demnach muss ein Mitgliedsstaat Urhebern aus anderen Mitgliedsländern die gleichen Rechte gewähren, die er auch den eigenen Staatsangehörigen zugesteht.

Neben der Gleichbehandlung versucht man durch die Vereinbarung von Urheberrechtsabkommen zu erreichen, dass möglichst viele Staaten zumindest einen Minimalschutz gewähren. Durch die Mindestrechte werden die Mitglieder verpflichtet, die wesentlichen Rahmenbedingungen für die Sicherung der Interessen vor allem der Rechteinhaber zu schaffen. Konkrete oder weitergehende Auflagen ergeben sich aus den internationalen Verträgen hingegen nicht. Dies lässt weiten Spielraum für die innerstaatlichen Gesetzgeber, der sehr unterschiedlich genutzt wird.

Es wäre also ein Irrtum, von der Existenz der internationalen Urheberrechtsverträge auf die Existenz einer einheitlichen internationalen Urheberrechtsordnung zu schließen. Das Gegenteil ist der Fall: Die Welt hat viele Urheberrechtsgesetze und die weichen zum Teil stark voneinander ab. Ob die Zukunft weitere Angleichungen erwarten lässt, bleibt abzuwarten. Internationale Urheberrechtsharmonisierung ist ein überaus ambitioniertes Vorhaben. Immerhin müssten hierfür Copyright- und kontinentaleuropäische Urheberrechtssysteme vereinheitlicht und die Interessen der Industrieländer mit denen der Entwicklungsländer unter einen Hut gebracht werden. Die mit dem Internet einhergehenden Schwierigkeiten bieten zwar Anlass genug, Bemühungen in diese Richtungen zu entfalten. Wie bald und ob diese Bemühungen überhaupt Früchte tragen, lässt sich im Augenblick jedoch nicht voraussehen. Zu gegensätzlich sind die Interessen und zu komplex der Regelungsbedarf.

Von Dr. Till Kreutzer
http://irights.info/author/till

Alle originären Textinhalte auf dieser Website sind, soweit nichts anderes vermerkt ist,
urheberrechtlich geschützt und lizenziert unter der
Creative Commons Namensnennung-Keine Bearbeitung Lizenz 2.0 Germany.

 

Bildmotive von Paul Gallo

https://www.flickr.com/photos/no3rdw/

https://creativecommons.org/licenses/by/2.0/

Sichtbarer Strukturwandel

Das Bundesviertel in Bonn

Bonn boomt – das ist überall im Stadtgebiet sichtbar, am deutlichsten jedoch im Bundesviertel, dem ehemaligen Regierungsviertel zwischen Bonn und Bad Godesberg. Das einstige Zentrum bundesdeutscher Politik erlebt einen Bedeutungswandel auf höchstem Niveau. Auf vier Kilometern Länge und 1000 Schritten Tiefe ist rund um Bonns „Central Park“, der Rheinaue, ein neuer Stadtteil herangewachsen: Mit internationalen Konzernzentralen, neuen Unternehmen, wissenschaftlichen Einrichtungen, Ministerien, dem World Conference Center Bonn und jetzt auch dem „Campus“ für die Vereinten Nationen. Insgesamt haben sich hier seit 1991 mehr als 90 neue Unternehmen und Einrichtungen etabliert. Mit über 40.000 Arbeitsplätzen (vor dem Umzug, waren es rund 20.600) konzentriert sich dort fast ein Fünftel aller Bonner Arbeitsplätze.

 

Eine zentrale Rolle spielt das World Conference Center Bonn. Sein Kern ist der ehemalige Plenarsaal des Deutschen Bundestages, dessen lichte Architektur schon heute Tagungsteilnehmer aus aller Welt für sich einnimmt. Um es in erster Linie für die Vereinten Nationen nutzbar zu machen, werden ein zweiter Saal und ein hochklassiges Hotel gebaut. Seit Sommer 2006 haben die in Bonn ansässigen Sekretariate der UNO ihr neues Domizil im UN Campus, dem ehemaligen Abgeordnetenhochhaus „Langer Eugen“ im Bundesviertel.

Für das Welt-Klimasekretariat der Vereinten Nationen (UNFCCC) wurde dort das sogenannte Alte Abgeordneten-Hochhaus renoviert. Da es schon direkt nach der Sanierung zu klein für UNFCCC ist, werden auf dem Gelände zwei weitere Bürohäuser entstehen.

 

Weitere Highlights:

  • Die Villa Hammerschmidt ist Bonner Dienstsitz des Bundespräsidenten.
  • Der Komplex Bundeskanzleramt ist Sitz des Bundesministeriums für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ), die Bundeskanzlerin hat ihren Bonner Dienstsitz im Palais Schaumburg
  • Im „Tulpenfeld” sind die deutschen Entwicklungshilfeorganisationen sowie die

Bundesnetzagentur heimisch geworden.

  • Am Fuß des UN Campus steht das Funkhaus der Deutschen Welle, die ihre Sendungen von Bonn aus in alle Welt ausstrahl
  • Die Deutsche Post DHL hat ihre Konzernzentrale, den Post Tower, südlich des

Deutsche-Welle-Funkhauses bezogen. Das 162,5 Meter hohe Gebäude nach Plänen des Architekten Helmut Jahn ist zum neuen Wahrzeichen für den Strukturwandel in Bonn geworden.

  • Die Deutsche Telekom AG hat ihre Konzernzentrale ebenfalls am Standort Bon

Gegenüber ihrem Direktionsgebäude an der Friedrich-Ebert-Allee hat das Unternehmen großzügige Büro-Neubauten errichtet und beide Komplexe mit einer gläsernen Fußgängerbrücke verbunden.

 

 

 

URL: http://www.govdata.de/dl-de/by-1-0

 

 

Herausgeber: Der Oberbürgermeister der Bundesstadt Bonn, Presseamt, Stadthaus, Berliner Platz 2, 53111 Bonn Telefon: Chef vom Dienst 0228/77 3000, Telefax: 0228/77 2468, E-Mail: presseamt@bonn.de

Internet: http://www.bonn.de Redaktion: Dr. Monika Hörig (verantwortlich)

Datenlizenz Deutschland – Namensnennung – Version 1.0

Jede Nutzung mit Quellenvermerk ist zulässig.

Veränderungen, Bearbeitungen, neue Gestaltungen oder sonstige Abwandlungen sind mit einem Veränderungshinweis im Quellenvermerk zu versehen oder der Quellenvermerk ist zu löschen, sofern die datenhaltende Stelle dies verlangt.

Der Bereitsteller stellt die Daten, Inhalte und Dienste mit der zur Erfüllung seiner öffentlichen Aufgaben erforderlichen Sorgfalt zur Verfügung. Für die Daten, Inhalte und Dienste gelten in Bezug auf deren Verfügbarkeit und deren Qualität die durch den Bereitsteller in den Metadaten oder sonstigen Beschreibungen zugewiesenen Spezifikationen und Qualitätsmerkmale. Der Bereitsteller übernimmt jedoch keine Gewähr für die Richtigkeit und Vollständigkeit der Daten und Inhalte sowie die dauerhafte Verfügbarkeit der Dienste. Davon ausgenommen sind Schadensersatzansprüche aufgrund einer Verletzung des Lebens, körperliche Unversehrtheit oder Gesundheit. Ebenfalls ausgenommen sind Schäden, die auf Vorsatz oder grober Fahrlässigkeit beruhen.

Bildrechte: https://creativecommons.org/licenses/by-sa/2.0/

https://www.flickr.com/photos/curnen/
Matthias Zepper

Risikobereitschaft der Anleger steigt

Trotz nervöser Märkte angesichts der Krisen in China und Griechenland bleiben Anleger risikogeneigt. Das ergab die jüngste von NN Investment Partners durchgeführte Risk Rotation Index Umfrage.1

Laut Umfrage gaben 28,3 Prozent der befragten institutionellen Fondsmanager weltweit an, dass ihr Risikoappetit in den vorangegangenen sechs Monaten gestiegen sei. Bei 18,3 Prozent der Befragten war die Risikobereitschaft dagegen gesunken. Netto ist der Risikoappetit damit um 10 Prozent gestiegen.

Trotz dieser Zuversicht nannten 49 Prozent der befragten Investoren eine mögliche Krise in der Eurozone als die größte Bedrohung für ihr Portfolio im Sinne eines „bedeutenden“ Risikos. Im vorangegangen Quartal lag dieser Anteil bei nur 35 Prozent. Jeder Achte (13 Prozent) betrachtet die Krise sogar als „sehr bedeutendes“ Risiko.
Dazu Valentijn van Nieuwenhuijzen, Head of Strategy Multi-Asset bei NN Investment Partners: „Nahezu die Hälfte (49 Prozent) der Anleger sieht die Krise in der Eurozone als erhebliche Bedrohung. Daher gehen diese Investoren derzeit wohl mit der entsprechenden Mischung aus Vorsicht und Zuversicht vor.“

„Griechenland hat die Märkte zwar in Aufregung versetzt, doch die Eurozone hat‘s überlebt. Die Krise in China – und genau das ist es mittlerweile – schafft ernsthafte Probleme für Rohstoffexporteure sowie Länder, die Investitionsgüter nach China exportieren.“
„Doch trotz der Nervosität am Markt vertrauen die Investoren weiterhin in seine generelle Funktionsfähigkeit. Angesichts der freundlicheren Entwicklung in den USA und Japan bleibt man allgemein recht optimistisch. Da wir uns jetzt – zumindest vorübergehend – wieder in ruhigerem Fahrwasser befinden, haben wir unsere Aktiengewichtung von neutral auf eine leichte Übergewichtung hochgefahren. So waren wir auch positioniert, bis Griechenland und China dazwischenfunkten.“

Neben der Eurozonenkrise nannten Anleger auch sogenannte Black-Swan-Ereignisse (24 Prozent) sowie einen Abschwung in China (21 Prozent) als mögliche Bedrohungen.
Die Umfrage ergab nicht nur eine weitgehend intakte Risikobereitschaft bei Anlegern, sondern deutet auch auf wachsende Stabilität der Anlegerportfolios hin. So gab über die Hälfte der Befragten (53 Prozent) an, ihr Risikoprofil während der vergangenen sechs Monate nicht angepasst zu haben. Das ist der höchste Wert sei Beginn dieser Umfragen im Jahr 2013.

Net changes in investor risk appetite, 2013-2015

Net changes in investor risk appetite, 2013-2015. Quelle: NN Investment Partners Risk Rotation Index, Juli 2015

 

 

Um potenzielle Risiken in den kommenden Monaten zu reduzieren, scheinen Anleger vor allem auf Multi-Asset- und Aktienstrategien zu setzen (74 Prozent bzw. 56 Prozent). Die Analyse ergibt nur geringfügige Unterschiede bei der Präferenz für Balanced- oder Total Return Multi-Asset-Strategien (37,3 Prozent ggü. 36,3 Prozent). Das bedeutet, dass Investoren diese beiden Strategien jeweils illiquiden Assets wie Private Equity und Hypotheken (26 Prozent), Hedgefonds (22 Prozent) und Dividendenstrategien (18 Prozent) vorziehen.
Van Nieuwenhuijzen weiter: „Im gegenwärtigen Umfeld gibt es punktuell viele interessante Chancen für Investoren, aber auch zahlreiche potenzielle Fallstricke. Die Wahl der richtigen Strategie ist daher von größter Bedeutung, um einerseits eine angemessene Rendite zu erzielen und sich andererseits gegenüber Marktturbulenzen abzusichern. Unsere Umfrage hat ergeben, dass 46 Prozent der Investoren ihre Portfolios im vergangenen Jahr zu Zwecken der Risikosteuerung diversifiziert haben. Wir meinen daher, dass Multi-Asset-Strategien, wie Balanced- oder Total-Return-Fonds, Investoren in einem unsicheren konjunkturellen Umfeld renditemäßig eine bessere Exponierung bieten.“
Was die Asset-Klassen betrifft, die von Investoren im Hinblick auf das Risiko-Rendite-Verhältnis in den nächsten drei Monaten präferiert werden, so sind dies Aktien (34 Prozent), Immobilien (17 Prozent) und Staatsanleihen (14 Prozent). Die beliebtesten geografischen Regionen sind im Hinblick auf das Verhältnis zwischen Risiko und Rendite die USA (46 Prozent), Japan (38 Prozent) und die Eurozone (29 Prozent).

Weitere Informationen unter:
www.nnip.com
1. Die Umfrageergebnisse stammen aus NN Investment Partners‘ eigenem Research, das von Citigate Dewe Ro-gerson im Juli 2015 unter 120 internationalen institutionellen Investoren durchgeführt wurde.

Bildquelle / Lizenz: flickr.com / The Fayj; veröffentlicht unter https://creativecommons.org/licenses/by/2.0/

Smart Home – Multiroom

Smart Home ist in aller Munde. Doch während die Vernetzung der Haustechnologie teuer und noch wenig verbreitet ist, macht gerade der Bereich Multimedia derzeit große Fortschritte. Die TREND REPORT-Redaktion wird auch in ihrer kommenden Ausgabe dem Thema Raum einräumen in ihrer Titelreportage „Die vernetzte Gesellschaft„.

Wie Multiroom in der Praxis funktioniert, wollen wir anhand eines aktuellen Beispiels von Bang & Olufsen beleuchten:

BeoLink Multiroom zu bedienen, ist so einfach wie das Licht ein- und auszuschalten. Während die Musik wiedergegeben wird, kann ein weiteres Bang & Olufsen Gerät ganz einfach durch Berührung dem Multiroom-System zugeschaltet werden – im ganzen Haus. Weder Smartphone noch Fernbedienung sind hierbei erforderlich – durch das einfache Antippen ist das Gerät bereits Teil des Musikstreams.

Auch ein Bang & Olufsen TV-Gerät lässt sich mit der Fernbedienung BeoRemote One oder der neuen BeoMusic App einfach in die Multiroom-Konfiguration einbinden. Dank der App wird ein intuitiver und transparenter Überblick über das System geboten. Mit der BeoRemote One oder der BeoMusic App können Räume einfach verbunden oder getrennt sowie alle Geräte mit nur einer Berührung in den Standbymodus geschaltet werden.

Multiroom Musikerlebnis mit einer Berührung
Im Mittelpunkt der BeoLink Multiroom Konfiguration steht das kürzlich vorgestellte Musiksystem BeoSound Moment. BeoSound Moment ist ein intelligentes drahtloses Audiosystem, das die eigene Musikkollektion und die Streamingdienste in einem System vereint. Ein einfaches Antippen der berührungsempfindlichen Holzkonsole genügt, um die Lieblingsmusik wiederzugeben. Und mit der neuen Multiroom-Funktionalität reicht dem Musikliebhaber eine einfache Berührung, die das Musikerlebnis auf weitere Räume ausdehnt. Beispielsweise indem er im Wohnzimmer den Lautsprecher BeoPlay A9 antippt oder in der Küche das wandmontierte BeoSound Essence Audiosystem berührt, um die Musik direkt von der Quelle wiederzugeben. Das Bang & Olufsen TV-Gerät kann dabei als Lautsprecher oder Quelle in das BeoLink Multiroom-System aufgenommen werden.

Klassiker in neuem Glanz
BeoLink Multiroom haucht auch den Klassikern von Bang & Olufsen neues Leben ein. Lieblingsstücke, wie der ikonische CD-Player BeoSound 9000 oder der Plattenspieler BeoGram 4000, können mit dem BeoLink Converter in das Multiroom-System integriert werden.

Zukunftssicher
Alle BeoLink Multiroom-Geräte sind durch die Software-Aktualisierungen auf dem aktuellsten Stand. So sind dem Benutzer alle neuen Features und Funktionen zugänglich und die dauerhafte Wertigkeit und Lebensdauer der Bang & Olufsen Konfiguration gesichert.

„Bang & Olufsen Geräte sind keine kurzlebigen Konsumgüter. Mit BeoLink Multiroom möchten wir unterstreichen, wie sehr wir uns unseren Kunden verpflichtet fühlen. Dank dieser Lösung können sowohl neue als auch klassische Geräte anhand von modernster Drahtlos-Technologie vereint werden”, sagt Marie Kristine Schmidt, Vice President, Brand, Design & Marketing Bang & Olufsen.

Vermögensfactoring?

„Schufafrei“ ein Projekt finanzieren – geht das?

Gewusst wie!

Es sind nicht nur Privatleute, die mit einem „Nein“ auf ihre Darlehensanfragen von der Bank ausgebremst werden. Gerade Freiberufler, Einzelunternehmer und kleinere Betriebe machen nicht selten diese Erfahrung. Oft geht es um die Finanzierung eines Projektes oder einer neuen Geschäftsidee und nach einer Absage müssen Alternativen her. Da erinnert man sich gerne an die lange angesparte Lebensversicherung. Mit einer Kündigung wäre man die lästigen Monatsbeiträge los und könnte mit dem Geld aus dem Vertrag sein Vorhaben realisieren. Doch das kann ernüchternd sein, bei Kündigung wird lediglich der Rückkaufswert bezahlt und auch das dauert schon seine Zeit. Was bringt in dieser Situation der Verkauf einer Police?

 

„Es ist nicht zu fassen, was sich der eine oder andere Banker einbildet“, schimpft Carmen Schade erbost. „Da habe ich ein detailliertes Konzept mit vollständiger Kalkulation erarbeitet und werde abgewiesen. Als ob ich Geld von der Bank bräuchte, wenn meine Einnahmen regelmäßiger und höher wären!“ Carmen Schade ist Buchautorin und verfasst selbständig Werbetexte für Unternehmen. Sie ist „Einzelkämpferin“ in diesem Bereich und hatte immer ein Auskommen mit ihrem schwankenden Einkommen. Natürlich kam es schon einmal vor, dass sie eine Rechnung über Gebühr lange nicht bezahlt hatte. Das brachte ihr dann auch einen Eintrag in die SCHUFA, einer Wirtschaftsauskunftei, die von den Banken zur Kreditwürdigkeit und Bonität von Personen und Unternehmen angefragt wird. Das war nun wohl auch der Grund für die Absage der Bank. Wer dort einen negativen Eintrag erhalten hat, bekommt nur selten ein Darlehen.

 

Dieses Jahr machte die Urlaubszeit Frau Schade so zu schaffen, dass all ihre Reserven aufgebraucht waren. Die Tantiemen für Ihre Bücher würden erst zum Jahresende abgerechnet werden und es schien so, als seien all ihre Auftraggeber gleichzeitig verreist. Sie musste unbedingt etwas tun, um Neukunden zu akquirieren und finanziell wieder auf die Beine zu kommen. Geplant wurden ein neuer Internetauftritt, ein passender Flyer,  Visitenkarten und eine Telefonaktion. Darüber hinaus musste sie einen neuen Laptop und den längst fälligen Laser-Drucker mit in die Kalkulation nehmen. Sie berechnete den Kapitalbedarf für die Fortsetzung und Erweiterung ihrer selbständigen Tätigkeit auf 10.000,- Euro. Doch die Bank spielte nicht mit, obwohl sie sich von sich aus bereit erklärt hatte, ihre Lebensversicherung zu verpfänden. Was sollte sie also tun?

 

Sich mit 48 Jahren um eine Anstellung zu bemühen, das hielt sie für sinnlos. Ihre Idee: Sie würde ihre Lebensversicherung zu Geld machen und ihre Tätigkeit auf Vordermann bringen. Ein Anruf bei der Versicherungsgesellschaft nahm ihr jedoch gleich die Euphorie. Erst müsste einmal die Kündigung per Einschreiben eingehen und dann würde es schon eine Weile dauern, bis der sogenannte Rückkaufswert zur Auszahlung käme. Das heißt: Vom Sparguthaben samt Zinsen werden die Kosten für den Risikoschutz, Provision, Verwaltung und in vielen Fällen auch noch eine Stornogebühr in Höhe von drei bis fünf Prozent abgezogen. Carmen Schade sah ein, dass Kündigung zwar eine Möglichkeit wäre, aber nicht unbedingt die beste Wahl und ein Policen-Darlehen wollte sie nicht. „Ich sehe nicht ein, dass ich auf mein eigenes Geld auch noch Zinsen zahlen soll!“

 

Man kann doch Versicherungen auch verkaufen. Irgendwo hatte sie das schon gelesen oder gehört. Auf ihrer Suche im Internet wurde sie dann schnell fündig. Vorteil des Verkaufs gegenüber einer Kündigung ist, dass die Ankäufer meist mehr als den reinen Rückkaufswert bezahlen. Frau Schade wendet sich an die Firma Prolife in Ingolstadt und erfährt, dass man dort finanziell in Vorleistung geht und die komplette Abwicklung des Vertrages übernimmt. Sie könne also bereits 18 Tage nach Einreichung der Police mit der Auszahlung des Kaufpreises rechnen, unabhängig von der Kündigungsfrist.

 

Was kostet der Verkauf?

 

„Für unsere Arbeit berechnen wir natürlich eine Gebühr. Im Gegenzug dazu überprüfen aber unsere Fachanwälte die angegebenen Rückkaufswerte der Versicherungsgesellschaften nach neuester BGH-Rechtsprechung“, erklärt der Prolife-Geschäftsführer Michael Früchtl auf Rückfrage der Redaktion. „Oft kommt es wenige Wochen nach Auflösung des Versicherungsvertrages, zu einer zweiten Zahlung. Es ist nicht selten, dass die Versicherungen zu hohe Stornoabschläge einbehalten oder auch den Rückkaufswert falsch berechnen. Die Differenz zum ursprünglich angegebenen Rückkaufswert teilen sich dann Kunde und Policenkäufer.“ Das sei aber längst nicht alles und unterscheide Prolife deutlich von anderen Anbietern. „Wir erfassen die Policen in einem eigenen System und sobald sich etwas Neues in der Rechtsprechung ergibt, werden sie nochmals geprüft. Drei Jahre lang läuft dieses ‚Clearing‘, bei dem wir weitere Nachzahlungsmöglichkeiten suchen und oft fündig werden. Das kommt unseren Kunden ebenfalls zu Gute. Jeder unerwartete Geldeingang freut natürlich.“

 

Beispiel Versicherungsverkauf Carmen Schade:

Vertragseinreichung am 03.08.2012

Rückkaufswertangabe der Versicherung EUR                     EUR 12.300,00
21.08.2012 Zahlung an die Kundin Schade:                         EUR 11.377,50

19.03.2014 Nachzahlung (neue Rechtsprechung):              EUR   4.116,59

Bisherige Gesamtzahlung an den Kunden:                          EUR 15.461,09

Die Kundin hat durch den Verkauf im Vergleich zur Kündigung 25,70% mehr ausgezahlt bekommen. Das sogenannte Clearing, die Überprüfung der Police auf weitere Nachzahlungs-Möglichkeiten nach neuer Rechtsprechung, läuft aber noch weiter.
Weitere Infos finden Sie unter: www.prolife-gmbh.de

 

Bildquelle https://www.flickr.com/photos/matze_ott/

Bildlizenz: https://creativecommons.org/licenses/by/2.0/

KMU und Innovationen: Fördermöglichkeiten unbekannt

Kleinen und mittleren Unternehmen (KMU) fehlen häufig die Ressourcen, um Innovationen zu entwickeln und auf den Markt zu bringen. Mitglieder des Verbandes „Die KMU-Berater – Bundesverband freier Berater e.V.“ zeigen in der aktuellen Ausgabe der „KMU-Berater News“ auf, welche staatlichen Förderprogramme es gibt, wie diese am besten eingesetzt werden und wie sie Mittelständler bei diesem Thema unterstützen. Die Ausgabe kann heruntergeladen werden unter http://www.berater-news.kmu-berater.de.

Eine der Grundlagen eines jeden Innovationvorhabens ist eine solide Finanzierung. Zahlreiche Förderprogramme von Kommunen, Ländern, Bund und Europäischer Union unterstützen Mittelständler dabei. Allerdings gilt es je nach Programm verschiedene Voraussetzungen und Richtlinien zu beachten. Dr. Jörg Rupp erläutert, wie das Zentrale Innovationsprogramm Mittelstand (ZIM) des Bundeswirtschaftsministeriums funktioniert, Dr. Michael Hohmann stellt die Zuschuss-Förderungen einiger Bundesländer vor.

KMU-Beraterin Tanja Ebbing sagt: Während die Top 100 der innovativsten deutschen Mittelständler 11,5 Prozent ihrer Umsätze in Innovationstätigkeiten investieren, sind es bei KMUs im Durchschnitt nur 1,4 Prozent. Oftmals liegt der Grund für die Innovationszurückhaltung im fehlenden Know-How. Hier setzt das Programm „go-Inno“ an: Mit Innovationsgutscheinen können KMUs technologische Innovationsberatung in Anspruch nehmen.

Die 2014 gestartete Neufassung des EU-Programms „HORIZON 2020“ beinhaltet eine spezielle Komponente für KMU. KMU-Berater Dr. Michael Hohmann zeigt die verschiedenen Förderphasen dieses Programms auf, das sich besonders für grenzüberschreitende Innovationsprojekte eignet.

Eine weitere interessante Finanzierungsvariante ist das ERP-Innovationsdarlehen der KfW. KMU-Berater Andreas Glandorf schildert das Beispiel einer Großbäckerei. Das Besondere dieses Programms: Hier kommt es nur darauf an, dass die Produkt- oder Verfahrensentwicklung für das Unternehmen selber neu ist. Es muss keine Innovation für den gesamten Markt entwickelt werden.

Welche Effekte eine erfolgreiche Innovationsberatung hat, erklärt Eugen Bartedska, einer der Geschäftsführer des Spieleherstellers b-interaktive GmbH, im Interview. 2013 leitete Innovationsberaterin Dr. Angelika Kolb-Telieps in seinem Unternehmen einen zweitätigen Innovations-Workshop. Inhalt waren unter anderem Ist-Analyse, Marktrecherchen, Businessplan und Finanzierung. „Wir fühlten uns danach sicherer, weil wir unser Geschäft auf den Prüfstand gestellt hatten“, so Bartedska.

Beraterin Kolb-Telieps stellt außerdem „Open Innovation“ als Alternative zur langjährigen, internen Entwicklung von Produktinnovationen vor. Bei Open Innovation werden Kunden frühzeitig und eng in Entwicklungsprojekte einbezogen. So können vorher unbekannte Kundenbedürfnisse erkannt und genutzt werden. Innovative Neuentwicklungen werden in Zukunft nicht mehr hinter verschlossenen Türen, sondern mehr und mehr in Netzwerken stattfinden, ist Kolb-Telieps überzeugt.

Weitere Informationen unter:
www.kmu-berater.de

 

Bildquelle / Lizenz: flickr.com / Boegh (Lizenz Creative Commons)

Handbuch Studienerfolg

30. Juli 2015

Wie können Hochschulen Studierende erfolgreich zum Abschluss führen? Das Handbuch Studienerfolg, das der Stifterverband heute veröffentlicht, stellt Konzepte vor, wie dies gelingen kann.

Von 100 Studierenden verlassen 28 ihre Hochschule ohne Abschluss. Für alle, die sich überlegen, wie die hohe Zahl der Studienabbrecher gesenkt werden kann und sich im Hochschulalltag für den Studienerfolg einsetzen, soll das Handbuch Studienerfolg eine praxisnahe Hilfestellung sein.

Das Handbuch beschreibt in einem Instrumentenkasten Strategien und Maßnahmen, die an einzelnen Hochschulen bereits heute wirkungsvoll umgesetzt werden. Ob durch eine innovative Studieneingangsphase oder eine intensivere Beratung und Betreuung der Studierenden, ob durch eine neue Prüfungspraxis oder wie mit neuen E-Learning-Strategien Wissen besser vermittelt werden kann – es gibt viele einzelne Konzepte, wie Hochschulen versuchen, ihre Studienabbruchquote zu senken. In dem Handbuch Studienerfolg haben die Autoren erfolgreiche Konzepte zusammengeführt und herausragende Initiativen vorgestellt, die zur Verbesserung des Studienerfolgs dienen.

„Es ist die Kernaufgabe aller Hochschulen, Studienanfänger so zu begleiten, dass so viele wie möglich ihr Studium auch erfolgreich beenden“, sagt Volker Meyer-Guckel, stellvertretender Generalsekretär des Stifterverbandes für die Deutsche Wissenschaft. „Wenn die Hochschulen dafür von der Politik Anreize bekommen, hilft das auch. Ein gutes Beispiel ist die Einführung der Erfolgsprämie für jeden Hochschulabsolventen in Nordrhein-Westfalen.“

Das Handbuch ist das Ergebnis des Qualitätszirkels Studienerfolg, mit dem der Stifterverband sechs Hochschulen bei der Umsetzung ihrer Strategien für mehr Studienerfolg in den letzten zwei Jahren begleitet hat.

http://stifterverband.info/presse/pressemitteilungen/2015_07_30_handbuch_studienerfolg/index.html

Keine Angst vor Big Data

Die Digitalisierung lässt enorme Datenmengen entstehen. Schnell entsteht in den  Unternehmen ein wahrer „Goldschatz“ an Daten. Sie stammen aus Geschäftsprozessen, Kundenkommunikation, Social Media & Co. Das Gold darin kann aber nur bergen, wer in den Daten tief genug graben und die richtigen Fragen zur Analyse stellen kann. Das setzt natürlich auch die richtigen „Grabwerkzeuge“ voraus. Die TREND REPORT-Redaktion sprach mit Lenley Hensarling, Vice President of Product Management and Strategy bei EnterpriseDB zu eben genau jenen Werkzeugen und dem Einsatz von Open-Source-Software (OSS) in den Unternehmen.

In einer vernetzten Gesellschaft werden Informationen und damit Daten immer wichtiger für Unternehmen jeglicher Art. Vor allem in Großunternehmen bewirkt dies explodierende Kosten für die Infrastruktur und Technologie des Rechenzentrums, um die Wettbewerbsfähigkeit auf dem Markt zu beizubehalten. Der verstärkte Einsatz von Open-Source-basierte Alternativen in Unternehmen scheint ein Silberstreif am Horizont zu sein – aber es gibt immer noch Bedenken hinsichtlich ihrer Sicherheit, Robustheit und Leistung. Wie bewerten Sie die Situation?
Diese Bedenken sind Reste einer überkommenen Denkweise. Open-Source-Software (OSS) ist in den letzten Jahren stark gereift, um die Bedürfnisse der Anwender befriedigen und Herausforderungen auf Unternehmensebene meistern zu können. Dies gilt insbesondere für Datenbanken, wie ein aktueller Gartner Report zum Stand relationaler Datenbankmanagementsysteme (RDBMS)* zeigt. Im Laufe der letzten fünf Jahre haben sich OS RDBMS weiterentwickelt, um dieselben Funktionalitäten wie traditionelle, kommerzielle DBMS zu bieten – zu einem Bruchteil der Kosten. Außerdem sagt der Report voraus, dass dieser Trend weitergehen wird und bis zum Jahr 2018 der Gesamtanteil von OSS  Inhouse-Anwendungen bei 70 Prozent liegen wird. Zusätzlich integrieren Anbieter wie EDB ein Plus an Leistung und Sicherheit sowie Kompatibilitäts-Erweiterungen in die zugrunde liegende Open-Source-Datenbank – in diesem Fall PostgreSQL – um die Anforderungen von Großunternehmen vollends zu erfüllen.

Um etliche Bedenken von CIOs bezüglich des Datenbankwechsels aus der Welt zu schaffen, sollten sie OSS anfangs für nicht geschäftskritische Anwendungen einsetzen, dann die Leistung der neuen Lösung bewerten und sich mit den Funktionen vertraut machen. Letztlich können die OSS-Lösungen neben den traditionellen eingesetzt werden, um die richtige Lösung für die Anforderungen jedes einzelnen Workloads zu haben. Die Migration von Workloads zu OSS befreit Budget für Transformationsinitiativen, die das Geschäft wirklich vorantreiben.

EntpriseDB; Einschätzung Reifegrad Open Source Datenbank Management Systeme

Bewertung des Reifegrads relationaler Open-Source DBMS, 2009*

EntpriseDB; Einschätzung Reifegrad Open Source Datenbank Management Systeme

Bewertung des Reifegrads relationaler Open-Source DBMS, 2015*

Es gibt also großes Potenzial für Kosteneinsparungen durch die Implementierung von OSS im Unternehmen. Wie kann dies in der Praxis umgesetzt werden?
Zu aller erst müssen IT- und Finanzabteilungen eng zusammenarbeiten. Der CFO und CTO/CIO müssen gemeinsam die Bereiche identifizieren, in denen die IT Teile der Infrastruktur migrieren kann, um Budget frei zu machen, dass der CFO dann in teure, aber notwendige strategische geschäftskritische Initiativen umleiten kann. Die Komponenten des IT-Stack, die mittlerweile zur Commodity geworden sind – Virtuelle Maschinen, Betriebssysteme, Middleware und Datenbanken –, eignen sich am besten für die Migration auf OSS-Alternativen, damit Kapital frei wird für Investitionen in Analytik, Anwendungen und mehr. Da die Datenbank in der vernetzten Welt immer größere Bedeutung erhält, verschlingen ihr ständiger Ausbau sowie zeit- und ressourcenaufwändige Wartung immer größere Teile des IT-Budgets.

Die Angst davor, die gesamte IT-Infrastruktur durch den Austausch eines so grundlegenden Teils wie der Datenbank zu erschüttern, kann durch Kompatibilitäts-Features beschwichtigt werden, die einige OSS-Lösungen anbieten. EDB hat beispielsweise für seine Postgres-Datenbank Kompatibilität für Oracle entwickelt – eines der meistverwendeten traditionellen DBMS – so dass viele Anwendungen sich nahtlos in die OSS-Lösung migrieren lassen und Entwickler ihre bestehenden Skillsets weiter nutzen können ohne dass Investitionen in teure Schulungen oder Personalveränderungen nötig werden. Abschließend ist es ratsam, wie oben erwähnt, nicht-unternehmenskritische Anwendungen zuerst zu migrieren, um ein Gefühl für die neue Umgebung zu erhalten, und dann zu unternehmenskritischen Anwendungen überzugehen, um das volle Potential für Kosteneinsparungen zu nutzen.

12303879306_a683d3f195_z

Strukturierte Daten werden auch in Zukunft von relationalen Datenbanken gespeichert werden. Das reine NoSQL-Lösungen sich als Alternative zur Aufbewahrung strukturierter Daten entwickeln, kann sich Lensay Hensarling aufgrund des Designs von NoSQL nur schwer vorstellen. Andersrum passiert dies aber gerade: relationale Datenbanken entwickeln Datentypen zum Aufbewahren unstrukturierter Daten.

NoSQL-Lösungen werden für den nächsten Schritt nach SQL und relationalen DBMS gehalten und damit die Wegbereiter für das Geschäft in der vernetzten Welt des Internet der Dinge und Big Data. Doch relationale Datenbanken sind immer noch weit verbreitet in Gebrauch. Wie kommt das?
Reine NoSQL-Lösungen sind aus High-Volume-Umgebungen mit neuen Arten von Daten, wie Social Media und Web-basierte Anwendungen, hervorgegangen. Sie tun sich beim Speichern großer Mengen unstrukturierter Daten hervor und spielen eine entscheidende Rolle dabei, die Herausforderungen zu meistern, vor die Big Data und das Internet der Dinge Unternehmen stellen werden. Jedoch haben die meisten von ihnen sehr vereinfachte Funktionen wenn es darum geht, mit den Daten tatsächlich etwas zu tun. Bei solchen Lösungen wird die eigentliche Datenverarbeitung in die Anwendung verschoben, so dass die Entwicklung von Applikationen sehr viel komplexer ausfällt. Weiterhin fehlt typischen NoSQL-Lösungen die Konformität mit den sogenannten ACID –Eigenschaften (Unteilbarkeit, Konsistenz, Isolation, Dauerhaftigkeit) für verlässliche Verarbeitungsschritte im DBMS, so dass es keine absolute Garantie gibt, dass Transaktionen in der Datenbank sicher verarbeitet werden. Um dennoch ACID-Konformität zu erreichen, muss in den Anwendungen immer und immer wieder sehr komplexer Code geschrieben werden. Auf der anderen Seite wurden relationale DBMS von Anfang an entwickelt, um die ACID-Eigenschaften stets zu erfüllen, so dass sie sehr zuverlässig und robust funktionieren und mit in ihnen gespeicherten strukturierten Daten auf eine sehr detaillierten Ebene gearbeitet werden kann. Darüber hinaus ermöglicht der relationale Charakter dieser DBMS einen umfassenden Überblick über alle gespeicherten Daten und wie sie mit anderen Unternehmensdaten in Beziehung stehen.

Traditionelle geschäftskritische Daten für Budgetierung, Prognose usw. sind und bleiben wichtig für Unternehmen – auch in der kommenden vernetzten Welt des Internet der Dinge und von Big Data. Finanzdaten sind primär strukturierte Daten und müssen zuverlässig, modifizierbar und sicher gespeichert werden, wodurch die relationale Datenbank das Rückgrat des Unternehmens bleiben wird.

NoSQL- und relationale Lösungen sind also beide von entscheidender Bedeutung für verschiedene Aufgaben im Unternehmen. Heißt das, Unternehmen sollten viele verschiedene spezialisierte Anwendungen benutzen?
Unternehmen sollten die Lösung verwenden, die für die anstehenden Aufgaben am besten geeignet ist, und das bedeutet, sich intensiv mit neuen Optionen zu befassen, um deren tatsächliche Möglichkeiten zu ermitteln, und nicht nur blind einem Marketing-Hype zu folgen. Werden viele verschiedene, voneinander getrennte Lösungen auf einmal verwendet, kann sehr zeit- und ressourcenintensiver Management-Aufwand nötig werden und das Risiko von Inkonsistenzen und Datensilos kann erheblich ansteigen. Dies wiederum kann potentiell den Geschäftswert der Unternehmensdaten als Ganzes kompromitieren.

Reine NoSQL-Lösungen sind meist sehr spezialisiert und wurden entwickelt, um ein ganz bestimmtes Problem zu lösen – wie beispielsweise Lagerung und Verwaltung spezifischer Ströme unstrukturierter Daten. Was ein Unternehmen in der vernetzten Welt braucht, ist eine Datenbank, die sowohl strukturierte als auch unstrukturierte Daten effizient verarbeiten kann, und die sich dynamisch an schnell ändernde Daten-Herausforderungen und sich entwickelnde, neue Datentypen anpasst. Auf diese Weise kann das Unternehmen einen umfassenden Überblick über seine Daten erhalten und deren höheren Wert voll für sich nutzen.

Wir erleben bereits, wie der Bedarf auf dem Markt nach solchen „All-in-one“-Lösungen steigt. Unternehmen wollen bewährte Zuverlässigkeit gepaart mit Innovation um den neuen Herausforderungen der schönen neuen digitalen Welt gerecht zu werden. Das Aufkommen von NoSQL-artigen Daten wird die DBMS-Landschaft verändern und bis zum Jahr 2017 wird das „NoSQL“-Etikett, wie es heute existiert, kein Unterscheidungsmerkmal für DBMS mehr sein, da die meisten führenden operativen DBMS anfangen werden, mehrere Datenmodelle, sowohl relationale als auch NoSQL, in einer einzigen Plattform anzubieten.

Für Unternehmen in der Ära der vernetzten Gesellschaft ist also die „All-in-one“-Datenbank am geeignetsten. Wie kann sie konkret realisiert werden?
In der Theorie gibt es zwei Möglichkeiten: Entweder NoSQL-Lösungen entwickeln mehr Flexibilität sowie anspruchsvollere und detailliertere transaktionale Funktionen (um mit den Daten auch tatsächlich wertschöpfend arbeiten zu können) und eignen sich zudem die ACID-Eigenschaften an; oder relationale Datenbanken lernen, unstrukturierte Daten effizient zu verarbeiten. Die erste Variante ist aufgrund der Art und Weise, wie diese Lösungen konzipiert sind, fast unmöglich. Die zweite ist dagegen schon im Gange und relationale Datenbanken bieten ihren Anwendern bereits Funktionen für die Verwaltung von strukturierten und semi-strukturierten Daten. RDBMS-Anbieter machen sich bereits seit geraumer Zeit neue Datentypen und Funktionen zu eigen und integrieren sie in ihre Angebote.

Der blaue Elefant ist das Maskottchen der PostGre-Gemeinde, ähnlich dem Pinguin bei Linux

Der blaue Elefant ist das Maskottchen der PostGre-Gemeinde, ähnlich dem Pinguin bei Linux

Postgres ist zum Beispiel besonders gut geeignet für Erweiterungen, um den wachsenden Daten-Anforderungen zu begegnen. Als ein „objektrelationales“ DBMS können Entwickler neue Objekte entwickeln und in Postgres einfügen, die das DBMS mit neuen Funktionen ausstattet, die dennoch zu jeder Zeit die grundlegenden ACID-Eigenschaften einhalten. Der JSON-Datentyp ist ein Beispiel für ein solches Objekt, das eine wichtige neue Funktion für Postgres einführte. Dieser Datentyp wird von einem anderen Feature namens „Foreign Data Wrappers“ verwendet, das eine zentrale Rolle für die Fähigkeit von Postgres spielt, Daten aus anderen Datenbanken zu unterstützen, und markiert in der Tat einen wichtigen Schritt auf dem Weg zu einer „All-in-one“-Datenbank.

„Foreign Data Wrappers“ erlauben die Integration von Daten aus externen NoSQL-Implementierungen wie MongoDB, MySQL oder Hadoop-Clustern in Postgres-Tabellen. Dies ermöglicht es, unstrukturierte Daten die in NoSQL-Lösungen gespeichert sind, in eine Umgebung zu ziehen, deren transaktionale Funktionen den nötigen Detailgrad haben und die vollständige ACID-konform ist, um die Datenkonsistenz zu gewährleisten, die Unternehmen brauchen. Dies ermöglicht es auch Postgres als Datenbank-Hub zu verwenden um einen umfassenden Überblick über alle Unternehmensdaten oder wirklich aussagekräftige Snapshots zu erhalten. Dadurch wird aus den Unternehmensdaten der nötige Geschäftswert generiert um an den neuen Märkten in einer vernetzten Gesellschaft Erfolg zu haben.

Weitere Informationen unter:
www.enterprisedb.com

* The State of Open Source RDBMSs, 2015, by Donald Feinberg and Merv Adrian, published April 21, 2015.

Über den Interviewpartner

LenleyLenley Hensarling spielt eine Schlüsselrolle bei der Festlegung von EDBs strategischer Ausrichtung durch Produktentwicklung sowie die Zusammenarbeit mit Kunden und Partnern. Er hat mehr als zwei Jahrzehnte Erfahrung in der Software-Industrie bei großen Anbietern für professionelle Unternehmenstechnologie. Nachdem er lange Jahre bei JD Edwards eine leitende Position innehatte, übernahm Lenley Führungsrollen bei PeopleSoft und danach Oracle. Seine Wurzeln liegen im Engineering-Bereich und er stieg schnell zum Vice President of Engineering bei Novell auf. Lenley erhielt seinen BA in Wirtschaftswissenschaften von der University of Texas in Austin.

Bildquelle / Lizenz (nach Reihenfolge): tec_stromberg (flickr.com); EnterpriseDB; Donald Feinberg, Merv Adrian; Christian Schnettelker (flickr.com), www.manoftaste.de; Jeff Kubina (flickr.com); Flickr-Lizenz: https://creativecommons.org/licenses/by-sa/2.0/;

Creative Commons im Journalismus

Ein Plädoyer von für freie Inhalte im Journalismus.

In der feinen, aber oft etwas isolierten Netzgemeinde sind Creative Commons schon gut etabliert. Immer wieder stößt man auf Bilder, Videos und Texte, die zur Weitergabe animieren, statt sie zu verdammen. Verlässt man aber diesen Kreis netzaffiner Menschen, sieht es ganz anders aus. Der Grund ist weniger fehlendes Wissen, sondern Angst. Ein paar Gedanken zur Verbesserung und Überzeugungsarbeit – mit Schwerpunkt auf Journalisten, aber auch für andere Bereiche einsetzbar.

Creative Commons: Was ist das?

Creative Commons (CC) – ein Name, der für eine Idee steht: Freie Lizenzen, die die Verbreitung und Weiterentwicklung kreativer Werke erlauben, ohne den Urheber zu enteignen. Die Regelung ist einfach und über ein eigenes Tool einzustellen. Alle CC-Lizenzen verlangen, den Urheber beim Namen zu nennen. Abgesehen davon gibt es zwei einfache Fragen, die man sich beantworten muss:

  • Möchte ich kommerzielle Verwendung meiner Arbeit zulassen? – Antworten sind ja oder nein.
  • Möchte ich Abwandlungen und Weiterentwicklungen meiner Arbeit zulassen? – Antworten sind ja, nein und „ja, aber nur wenn die Abwandlungen auch unter einer CC-Lizenz stehen“.

Über einige Zusatzfelder lassen sich noch einige zusätzliche Angaben einstellen, etwa der Link, unter dem die Arbeit zu finden ist und der als Quellenangabe angegeben werden muss.

Creative Commons: Was nützen sie?

Diese Wissensaspekte sind meist recht schnell zu vermitteln. Ebenso sieht es mit den Vorteilen aus. Hier sind eine Reihe von Vorteilen, die für CC sprechen:

Für den Urheber:

  • schnellere Verbreitung von Inhalten und dem eigenen Namen
  • zahlreiche Anwender suchen von vorne herein nur nach CC-Werken, um sich die Arbeit der Nachfragerei zu sparen
  • Erzeugung von Links auf eigene Inhalte

Für den Anwender:

  • schnellere Klärung von Rechten
  • zahlreiche Einsatzszenarien, zum Beispiel schöne Bilder für eigene Texte

Die ganz realen Ängste – und wie man sie beseitigt

Am einfachsten auszuräumen ist meist die Angst einiger Journalisten vor Enteignung. Creative Commons enteignen niemanden – weil sie freiwillig sind. Jeder Autor entscheidet selbst, ob er auf CC setzen möchte oder nicht. Und über die wenigen Parameter lässt sich flexibel steuern, unter welchen Umständen man zu einer Fremdverwertung bereit ist. Wählt man „keine kommerzielle Nutzung“, ist ausgeschlossen, dass andere mit den eigenen Inhalten Geld verdienen, ohne den Autor selbst dafür zu entlohnen. Wer Angst davor hat, dass das eigene Werk entstellt wird, setzt auf „keine Bearbeitungen“. Und mit „Weitergabe unter gleichen Bedingungen“ kann man sicherstellen, dass sich niemand an den eigenen Werken bereichert, ohne selbst etwas zur Gemeinschaft beizutragen. Bei all dem gilt: Keine Creative-Commons-Lizenz schließt aus, dass ein Urheber Ausnahmen festlegt. Wer generell kommerzielle Nutzung ausschließt, kann sich natürlich trotzdem noch mit bestimmten Anbietern auf eine kommerzielle Nutzung einigen – hier gilt das, was auch bei jedem anderen Werk gilt: Nachfragen bei Unklarheiten.

Im journalistischen Umfeld höre ich oft die Befürchtung, Creative Commons könnten den Wert journalistischer Arbeit herabsetzen – nämlich dann, wenn aus journalistischen Texten weitere Werke entstehen, die journalistischen Ansprüchen nicht genügen. Mit dieser Angst ist nicht einfach umzugehen – ein Ansatz könnte sein, die Frage von der anderen Seite anzugehen. Ein Beispiel dazu: Wie viele Bildkritiken gibt es in den Medien zu lesen? Meistens sind es nicht viele. Ich finde das seltsam: Wir beschäftigen uns immer wieder mit tendenziöser Berichterstattung und kritisieren derart unsaubere Arbeit. Doch auch Bilder können tendenziös sein. Sie können über bildliche Gestaltungsmittel eine Deutung nahelegen, die nicht den Tatsachen entspricht. Ebenso nimmt die Auswahl der Bilder und deren Ausschnitt Einfluss auf die Deutung – was gezeigt wird, besonders aber auch was eben nicht gezeigt wird. Ich habe den Eindruck, dass diese Aspekte selten aufgegriffen werden in der journalistischen Arbeit. Und ich glaube, einer der Gründe liegt in der schwierigen Auslegung des Zitatrechts auf Bilder – Udo Vetter hat in seinem Vortrag auf der re:publica darauf hingewiesen, wie schwierig das Zitieren von Bildern ist, obwohl es eigentlich rechtlich zulässig ist, wenn man sich inhaltlich mit Bildern auseinandersetzt. Creative Commons sind also ein Weg, uns die Auseinandersetzung mit den Werken anderer zu vereinfachen und wichtige journalistische Formen zu ermöglichen, die sonst allzu leicht unter den Tisch fallen. Und damit sind die Chancen, die Creative Commons dem Journalismus öffnen, um ein Vielfaches höher als die Risiken.

Eine andere Angst hört sich meistens so an: „Warum sollte ich CC verwenden, wenn jeder weiß Gott was mit meiner Arbeit machen darf?“ Die fand ich immer schwer zu beruhigen. Zunächst ist, wie schon erwähnt, über drei Parameter eine bemerkenswert gute Steuerung möglich, in welchem Umfeld Werke eingesetzt werden können. Zudem setzen sich Creative Commons nicht über andere Rechte hinweg: Selbstverständlich darf auch mit einer CC-lizensierten Arbeit niemand verleumdet werden. Außerdem kann ich sowieso nicht kontrollieren, was andere Menschen mit meiner Arbeit anfangen, wenn ich sie veröffentlicht habe. Ob sie meine Ansichten teilen, meine Texte ausdrucken und verbrennen, mein Blog aus dem Feedreader werfen: All das liegt nicht in meiner Hand. Aber ich finde es gut, ihnen die Chance zu geben, sich damit auseinanderzusetzen – denn dann besteht wenigstens die Möglichkeit, mit ihnen in einen Dialog zu treten. Creative Commons haben also nichts mit Diebstahl zu tun: Weder sind meine Werke von dort verschwunden, wo ich sie eingestellt habe, noch gibt sie irgendjemand anderes als seine eigenen aus. Creative Commons sind vielmehr eine gesellschaftliche (und journalistische) Vision, wie Wissensaustausch geregelt werden kann.

Manchmal ist für diese Vision aber auch grundsätzliche Überzeugungsarbeit notwendig. Ideen sind nicht wie Äpfel. Wenn ich einen Apfel habe und du ebenfalls einen Apfel hast, und wir diese Äpfel tauschen, dann hat jeder am Ende einen Apfel – im besten Fall einen vergleichbaren. Leider ist es aber meistens so, dass einer der Äpfel kleiner, weniger lecker oder etwas weniger frisch ist. Ganz anders bei Ideen und Wissen: Wenn ich eine Idee habe und du ebenfalls eine Idee, und wir die Ideen austauschen, dann hat im schlechtesten Fall jeder von uns zwei Ideen. Meistens ist es aber so, dass aus zwei Ideen drei Ideen werden – weil sie sich gegenseitig befruchten. Creative Commons ist der Versuch, diesen Ideenaustausch zu vereinfachen.

Über den Autor:

 

ist Medienwissenschaftler und beobachtet als Autor („Grundkurs Gutes Webdesign“) und Berater den digitalen Wandel. Seine Themenschwerpunkte sind User Experience, anwenderfreundliches Design und digitale Strategien. Er schreibt regelmäßig für Fachmedien wie das t3n Magazin, die Netzpiloten oder Screenguide.

Bildnachweis: „My CC stickers have arrived!!!“ von Laihiu (CC BY),  „Banjo Libre“ von andyket (CC BY)

Junger Jobtimismus

So kritisch die Lage im europäischen Ausland auch sein mag, die deutschen Arbeitnehmer vertrauen auf den stabilen deutschen Arbeitsmarkt. 58,3 Prozent der Arbeitnehmer schätzen ihre Chancen bei der Bewerbung auf einen neuen Job als gut oder sehr
gut ein.

Das sind deutlich mehr als 2014. Zwischen den Generationen zeigen sich erhebliche Unterschiede bei der Einschätzung der eigenen Möglichkeiten. Während die meisten Jungen hoffungsvoll in die Zukunft blicken, sehen viele Ältere sich eher auf der Ersatzbank als auf dem Transfermarkt. Dabei deuten die Prognosen der Bundesagentur für Arbeit auf gute Karrierechancen für alle hin. Die sozialversicherungspflichtige Beschäftigung wird wohl weiter wachsen. Das ist auch ein Verdienst der Zeitarbeit, die weiterhin viele attraktive Stellen zuvergeben hat.

Stabiler Arbeitsmarkt, wachsender Optimismus

Unbeeindruckt von der Schuldenkrise Griechenlands blicken die deutschen Arbeitnehmer optimistisch in die Zukunft. 58,3 Prozent der Arbeitnehmer schätzen ihre Chancen in Deutschland einen neuen Job zu finden gut oder sehr gut ein, so das Ergebnis der Orizon Arbeitsmarktstudie 2015 mit über 2.000 Befragten. Im Vorjahr waren die Optimisten mit nur 46,6 Prozent noch in der Unterzahl.

„Die außenwirtschaftliche Lage ist durchwachsen. Sie konnte in den letzten Monaten und Jahren das Wachstum von Realwirtschaft und Beschäftigung in Deutschland aber nicht aufhalten. Die Arbeitnehmer vertrauen zunehmend in die Stabilität des deutschen Arbeitsmarktes“, deutet Dr. Dieter Traub, Geschäftsführer der Orizon GmbH, die Zahlen.

Halbstarke Hoffnung, silberhaarige Skepsis

Die 18- und 19- Jährigen schätzten nach der Orizon Arbeitsmarktstudie 2015 ihre Jobchancen wesentlich besser ein als die älteren Jahrgänge. 86,1 Prozent der Teenager bewerteten ihre Chancen einen Job zu finden mit „gut“ oder „sehr gut“. Mit zunehmendem Alter nimmt die Zuversicht stetig ab. Bei den 60- bis 65-Jährigen waren es gerade einmal 37 Prozent, die gute oder sehr gute Chancen sehen. Dabei haben auch die älteren, arbeitswilligen Arbeitnehmer Grund zum Optimismus.

Qualifikation und Berufserfahrung, von den Arbeitnehmern selbst als die beiden wichtigsten Voraussetzungen für Bewerbungserfolg genannt, besitzen sie in hohem Maße. „Der demographische Wandel spielt allen Arbeitnehmern in die Hände – jung wie alt. Aufgrund des entstehenden Fachkräftemangels können es sich Unternehmen gar nicht mehr leisten, ältere Arbeitnehmer abzuschreiben. Stattdessen setzen sie deren besondere Fähigkeiten in altersgemischten Teams ein. Das zeigt unsere Erfahrung mit hunderten mittelständischen und großen Unternehmen“, berichtet der Personalexperte Traub.

Zeitarbeit ist Teil der Erfolgsstory

Laut dem Stellenindex der Bundesagentur für Arbeit (BA-X) ist die Anzahl der offen gemeldeten Stellen weiter gestiegen. Der Arbeitsmarkt wird voraussichtlich also weiter gute Chancen auf einen neuen Job bieten. Etwa ein Drittel der offenen Stellen kommt aus der Zeitarbeit. „
Wir suchen gute Leute und können auch gute Stellen bieten“, stellt Traub fest. „Die Zeitarbeit wird gerne ins Abseits gestellt. Es ist an der Zeit anzuerkennen, dass wir mit gut bezahlten, sozialversicherungspflichtigen und meist auch unbefristeten Stellen einen qualitativen Beitrag zur Erfolgsgeschichte des deutschen Arbeitsmarktes geleistet haben.“

Weitere Informationen unter:
www.orizon.de

Bildquelle / Lizenz: Flickr.com / 드림포유; veröffentlicht unter: https://creativecommons.org/licenses/by-nd/2.0/

Von Nachfrage und Kandidatenmangel

Nachdem die Zahl der durchschnittlich beschäftigten Zeitarbeitnehmer zwei Jahre in Folge rückläufig war, geht das Marktforschungs- und Beratungsunternehmen Lünendonk, Kaufbeuren, von einer leichten Zunahme um 2,6 Prozent in 2014 aus. „Die Größenordnung von 860.000 Zeitarbeitnehmern kann aus der Marktperspektive als „Mindest-Flexibilisierungsbedarf an Arbeitnehmerüberlassung“ bezeichnet werden“, verdeutlicht Hartmut Lüerßen, Partner von Lünendonk, die Entwicklung der vergangenen Jahre. In diesem Zusammenhang erwarten die von Lünendonk analysierten Zeitarbeits- und Personaldienstleistungs-Unternehmen in Deutschland im laufenden Geschäftsjahr 2015 ein durchschnittliches Marktwachstum von 2,7 Prozent. Die aktuelle Lünendonk®-Studie 2015 „Zeitarbeits- und Personaldienstleistungs-Unternehmen in Deutschland“ ist ab sofort verfügbar.

Besonders gesuchte Qualifikationen

Auf die Frage, welche Qualifikationen im Frühjahr 2015 besonders stark von Kundenunternehmen angefragt wurden, zeigt die Marktanalyse eine Verschiebung der Nachfragesituation zu den Ergebnissen aus dem Vorjahr. Während im deutschen Markt weiterhin „Fachkräfte/Techniker“ sehr stark gesucht werden, steht in diesem Jahr „kaufmännisches Personal“ an zweiter Stelle der Kundenwünsche. Des Weiteren liegt der Bedarf an temporär eingesetzten „IT-Fachkräften“ wie auch im Vorjahr auf Rang drei der besonders nachgefragten Qualifikationen. Eine rückläufige Nachfragesituation konnte Lünendonk bei den „Ingenieuren“ feststellen. „Hier muss aber differenziert werden, ob Kunden eher bei den Technologie-Beratungs- und Engineering-Service-Unternehmen anfragen oder tatsächlich die Nachfrage rückläufig ist“, erläutert Ali Deveci, Analyst bei Lünendonk.

Ausblick 2016

Die Herausforderungen im Markt spiegeln sich auch in den Prognosen der teilnehmenden Zeitarbeits- und Personaldienstleistungs-Unternehmen wider. Für das Jahr 2016 erwarten die befragten Unternehmen einen Zuwachs des Zeitarbeitsmarktes von 2,7 Prozent und damit eine Seitwärtsbewegung wie im Jahr 2015. „Die zurückhaltenden Erwartungen haben vor allem mit dem Kandidatenmangel und den ungeklärten Regulierungsvorhaben der Großen Koalition zu tun“, erläutert Hartmut Lüerßen. Aktuellen Medienberichten zufolge hält das Arbeitsministerium für tarifgebundene Unternehmen auch längere Einsatzzeiten als die geforderte Höchstüberlassungsdauer von 18 Monaten für möglich.

Weitere Informationen unter:
www.luenendonk.de

Franchising: Innovativ und kreativ

Karriere und Beruf: Fach- und Führungskräfte nutzen Franchise-Systeme als Karriereleiter.

Die Franchise-Wirtschaft entwickelt sich kontinuierlich weiter – hierzulande sowie im Ausland. Grundlage dafür ist die Franchise-Partnerschaft welche die Grundprinzipien von Produktivitätssteigerung durch Arbeitsteilung und Spezialisierung gewährleistet. Die TREND REPORT-Redaktion zeigt auf, wie Synergien der Franchiseparteien zu nachhaltigem Erfolg führen. Wir stellen Franchise-Systeme vor, die partnerschaftlich weiterentwickelt werden und die den Wissenstransfer gewährleisten, um das Netzwerk mit selbstständigen Partnern vor Ort auf- und auszubauen. Im Kontext unserer Titelstory „Creative Companies“ ziehen wir Parallelen zur Franchisebranche. In Form von Fallbeispielen und

Interviews zeigen wir auf, wie Kreativität und Innovationen der Branche neue Wachstumschancen generieren.

Themen und Inhalte:

Der eigene Chef sein
Berufliche Karriere und Anerkennung.

Herausforderung
Franchisenehmer begeistern und gewinnen

Finanzierung für Gründer
Kapital für Gründung und Expansion.

Internationalisierung
Franchisesysteme auf dem Sprung ins Ausland.

Neue Gründerkultur
Entwicklungsland Deutschland

Kreative Geschäftsideen
Neue Systeme stellen sich vor.

Franchisenehmer berichten
Fallbeispiele erfolgreicher Partnerschaften

Expansion mit Franchising
Vertriebssystem mit Zukunft

Hier können Sie das aktuelle Themenexposee als PDF herunterladen

Hier geht es zu unseren Mediadaten

Bildquelle / Lizenz: U.S. Navy photo by Kristopher Radder/Released

 

HR-Evolution: Mitarbeiter im Fokus

Digitalisierung, Mobilisierung und ein neues Kommunikationsverhalten: wie Unternehmen im Kampf um die besten Talente mit innovativen Lösungen den Wandel gestalten.

Im Zuge einer zunehmenden Digitalisierung und Vernetzung erleben wir derzeit einen Paradigmenwechsel in der Arbeitswelt. HR-Verantwort-liche müssen die aktuellen Trends verstehen und adaptieren um aktiv gute Arbeitsbedingungen zu generieren. Dazu müssen sie neue Wege gehen: flexible Workspaces, Incentives und Weiterbildung, Innovationskultur und transparente Wertvorstellungen, demokratische Unternehmensführung und flexible Arbeitszeitmodelle sind Rezepte für die „Arbeitswelt 4.0“.

Im Kontext des Titelthemas „Die vernetzte Gesellschaft“ hat die Redaktion den „Human Resources“ mit einer eigenständigen Reportage Raum gegeben. Mit Fallbei-spielen, Interviews und Gastbeiträgen zeigt die Redaktion die neuen Wege der Arbeitswelt im Wandel.

TREND REPORT ist die neue Wirtschaftzeitung, die aktuelle und zukünftige Trends zum Thema macht. Wir suchen nach neuen Anzeichen, die Wendepunkte im Zeitgeist markieren und wir verstehen uns als Partner der Wirtschaft. TREND REPORT liegt als Beilage der Gesamtauflage des Handelsblattes bei.

Themen und Inhalte

Diversity-Management
Die Vielfalt nutzen

„Arbeiten 4.0“: Workspace der Zukunft
Die digitale, mobile und globale Arbeit prägt Unternehmen, Teams und Mitarbeiter.

Personal Digital
Datenschutz und digitale Transformation meistern

Corporate Health
Die Gesundheit der Mitarbeiter im Blick.

Social Media
Kommunikation und Recruiting in der digitalen, vernetzten Gesellschaft.

Innovationskultur
Game-Based-Learning, Wisdom of the Crowd

Wettbewerbsvorteil Mitarbeiter
Individuell dem Fachkräftemangel begegnen

Absicherung und Anreiz
BU, bAV, Weiterbildung, Incentives & Co.: die richtigen Instrumente zur Fachkräftebindung.

Hier können Sie das vollständige Themenexposée „HR-Evolution: Mitarbeiter im Fokus“ herunterladen

Hier geht es zu unseren Mediadaten

Studie: Wettbewerbsfaktor Analytics

90 Prozent der Industrieunternehmen in Deutschland, Österreich und der Schweiz (DACH) nutzen noch immer weniger als die Hälfte ihrer Daten. Das ist eine Erkenntnis der Studie „Wettbewerbsfaktor Analytics 2015“. Die von der Universität Potsdam in Zusammenarbeit mit dem Softwarehersteller SAS durchgeführte Untersuchung erhebt den analytischen Reifegrad von Unternehmen der DACH-Region. Erste Erkenntnisse zur Fertigungsindustrie wurden am 9. Juni auf dem SAS Forum in Bochum von Professor Norbert Gronau, Universität Potsdam, vorgestellt. Quintessenz: Ein Großteil der Firmen verdrängt das Thema und riskiert damit die eigene Zukunftsfähigkeit.

Stand der Dinge: Big Data Analytics in der Industrie

34 Prozent der befragten Unternehmen nutzen analytische Systeme in der Produktion. In der Logistik sind es sogar 40 Prozent. Das Qualitätsmanagement (QM) fällt im Vergleich mit 20 Prozent ab. Die Studie konstatiert, dass ein Zuwachs der Bedeutung von Analytics insbesondere in den Bereichen Logistik und QM zu erwarten ist – weil hier interdisziplinäre Faktoren am stärksten wirken. Zwar sehen knapp 35 Prozent der Unternehmen das größte Potenzial für Industrie 4.0 im Bereich Produktionsplanung und Steuerung. Faktisch ergeben sich die größten Möglichkeiten dieser technisch-logistischen Revolution jedoch aus der Verknüpfung der Fertigung mit vor- oder nachgelagerten „Smart Objects“, die auch außerhalb des Unternehmens liegen können. Das ist echte digitale Transformation – und hier sollten Unternehmen aktuell ansetzen und schnell Projekte starten.

„Wenn ich mir den Zwischenstand unserer Studienergebnisse anschaue, zweifele ich an der Innovationskraft unserer Industrie“, meint Professor Norbert Gronau, Lehrstuhlinhaber für Wirtschaftsinformatik und Direktor des Anwendungszentrums Industrie 4.0 an der Universität Potsdam. „Alle Industriezweige, die heute das Rückgrat der Wirtschaft in der DACH-Region bilden, sind aufgrund herausragender Innovationsleistungen entstanden – und jetzt zögern viele Unternehmen bei der nächsten industriellen Revolution. Ich sehe zwar Fortschritte gegenüber unseren früheren Untersuchungen, gerade im Bereich der Auswertung von Sensor- und Maschinendaten. Dennoch fehlt es ganz deutlich am Willen oder am Bewusstsein für Tempo und Konsequenz.“

„Sicher: Das Gesamtbild hat noch Luft nach oben. Gleichzeitig erleben wir aber in der Zusammenarbeit mit Unternehmen, die das Gebot der Stunde erkannt haben, wie es gehen kann“, erklärt Wolf Lichtenstein, CEO DACH-Region SAS. „Es gibt Innovationsprojekte, die der Branche als Leuchttürme dienen können – davon haben wir nicht zuletzt auf dem SAS Forum in Bochum einige gesehen. Und das Interesse daran ist enorm. Was wir ganz klar beobachten: Die Unternehmen, die jetzt starten oder schon gestartet sind, haben einen erheblichen Vorsprung.“

Zur Studie:
Mit der dritten Auflage der Studie „Wettbewerbsfaktor Analytics“ untersucht ein Team der Universität Potsdam, Lehrstuhl für Wirtschaftsinformatik und Electronic Government, unter der Leitung von Professor Dr. Norbert Gronau, erneut, ob und wie umfangreich Unternehmen im deutschsprachigen Raum Business Analytics bereits einsetzen. Die Studie basiert auf der Grundannahme, dass der analytische Reifegrad eines Unternehmens Rückschlüsse auf dessen Wettbewerbsfähigkeit zulässt. Orientiert an den durchschnittlichen Reifegraden der jeweiligen Branche können Unternehmen leicht ablesen, wo sie selbst stehen, und welche Wettbewerbsvorteile sich durch einen Ausbau der analytischen Kompetenzen erschließen lassen. Flankierend zu den neuen Studienergebnissen hat die Universität eine „Checkliste“ veröffentlicht. Diese dient als Self-Assessment für die Beurteilung des unternehmenseigenen analytischen Reifegrades.

Weitere Informationen unter:
www.sas.com

Bildquelle / Lizenz: Flickr.com / Yuri Samoilov; veröffentlicht unter https://creativecommons.org/licenses/by/2.0/

Open-Access-Tage 2015 (Zürich)

Die 9. Open-Access-Tage finden am 7.-8. September 2015 in Zürich statt. Gastgeberin ist die Hauptbibliothek der Universität Zürich.

Die Veranstaltung richtet sich in erster Linie an ExpertInnen aus dem Open-Access-Bereich aus Deutschland, Österreich und der Schweiz, an WissenschaftlerInnen aller Fachrichtungen, VerlagsvertreterInnen und UnterstützerInnen des wissenschaftlichen Forschungs- und Kommunikationsprozesses an Bibliotheken sowie in Forschungsinstituten und Fördereinrichtungen.

Die Veranstaltungen erstrecken sich über eine breite Palette aktueller Themen, die derzeit die Diskussion bestimmen. Zu den Schwerpunkten gehören in diesem Jahr unter anderem die Beschäftigung mit Forschungsdaten, die Gründung von Open-Access-Zeitschriften, Open Access an Fachhochschulen, die Finanzierung von Open Access sowie die Veränderungen der wissenschaftlichen Kommunikation durch Open Access.

Spannende Einblicke sind bereits am Vortag der Konferenz (Sonntag, 6. September) zu erwarten. Im Rahmen der Scientifica werden Experten auf dem Podium über den gesellschaftlichen Nutzen diskutieren, der aus dem freien Zugang zu wissenschaftlichen Publikationen und Forschungsdaten resultiert.
http://www.scientifica.ch/scientifica-2015/

Call for Papers

Call for Posters

Programm

Übersicht über das Programm

Anmeldung

Bis 15. August anmelden!

Veranstaltungsort

Hotels/Unterkünfte

Hotelzimmer buchen

Teilnehmer/innen

Teilnehmerliste (Stand: 17.7.2015)