Archiv

Archive for the ‘Bittorrent’ Category

Geld zurück für DigiProtect-Abmahnopfer

(oder: so bastelt man eine Sammelklage)

Von DigiProtect Abgemahnte können eventuell ohne großes Risiko einen Teil ihres Geldes zurückbekommen. Hier versuche ich auch für juristische Laien verständlich zu erklären, wie und warum. (Hinweis/Disclaimer: Ich bin kein Anwalt, das ist meine Laien-Zusammenfassung, informiert euch auch noch selbstständig.)

Zunächst einmal das wie:

  • Nur für Leute, die 1. von DigiProtect und 2. wegen eines Pornos abgemahnt wurden, 3. Kosten hatten und 4. noch nicht selbst geklagt haben. (Gründe siehe unten)
  • Teilnahmeformular ausfüllen und einschicken. Dadurch verzichtet ihr auf das Recht, selbst Geld von DigiProtect zurückzufordern, und gebt dieses Recht an die Firma Metaclaims
  • Warten, nichtstun, hoffen. Metaclaims verklagt DigiProtect ohne euer Zutun. Wenn sie gewinnen, kriegt ihr die Hälfte ab, die andere bekommt Metaclaims. Wenn sie verlieren habt ihr das Recht abgegeben, DigiProtect zu verklagen, und bekommt nix (und Metaclaims hat Verlust in Form von Anwaltskosten).

Wenn ihr also eh nicht vorhattet, selbst gegen DigiProtect innerhalb der Verjährungsfristen zu klagen, verliert ihr nur ein Recht, was ihr eh nie genutzt hättet – und bekommt im Idealfall ohne großen Aufwand die Hälfte eures Geldes wieder.

Mehr dazu gibt es bei Gulli:

  1. Ursprünglicher Artikel zum Thema
  2. Detailfragen werden erklärt
  3. Reminder

Wer sich für die Hintergründe (das warum) interessiert, kann hier weiterlesen:

Wenn jemand einem unrechtmäßig einen Schaden zugefügt hat, hat man ein Recht darauf, den Schaden ersetzt, z. B. ausgegebenes Geld zurück zu bekommen. Falls die Abmahnerei von DigiProtect rechtswidrig war (und dafür bestehen in bestimmten Fällen gute Chancen), und man gezahlt hat oder Anwaltskosten für einen eigenen Anwalt hatte, hat man also ein Schadensersatzanspruch -vulgo: „Recht auf Geld zurück“.

In Deutschland gibt es zwar keine Sammelklagen, aber dafür viele findige Anwälte. Und weil wir in einem marktwirtschaftlich orientierten Staat leben, kann man fast alles verkaufen.

Wenn ein Händler zum Beispiel einen Computer im Internet verkauft und auf Rechnung, also ohne Vorkasse, verschickt, hat er gegenüber dem Käufer einen Anspruch, das Geld dafür zu bekommen („Recht auf Geld“). Das kann er gegenüber dem Käufer geltend machen – oder er kann es verkaufen. Das sieht so aus: Der Computer hat 1000 EUR gekostet, der Händler hat also ein Recht auf 1000 EUR. Der Kunde zahlt aber nicht. Der Händler kann ihn jetzt verklagen und wenn die Klage durch ist, bekommt er das Geld (wenn der Kunde bis dahin nicht pleite ist). Der Händler will/kann aber nicht warten. Also sucht er sich einen Geldeintreiber. Der bietet dem Händler an: Ich geb dir jetzt 500 EUR, wenn du mir dafür das Recht auf 1000 EUR gibst. Das sieht für den Händler wie ein schlechter Deal aus, aber er hat keine Lust das Geld einzuklagen und würde es selbst nie schaffen, also lässt er sich drauf ein.

Der Händler hat 500 EUR und ist aus der Sache raus, und der Geldeintreiber verklagt den Kunden und bekommt am Ende hoffentlich die 1000 EUR. Wenn nicht, hat er an diesem Fall Verlust gemacht (seine Kosten + die 500 EUR), aber er hat so viele Fälle, und ist so gut und trainiert im Verklagen, dass ein einzelner Fall ihm wenig Kosten verursacht. Der Händler würde beim Verklagen viel Arbeit haben, weil er das nur selten macht. Weil der Geldeintreiber auch viele Fälle hat, kann er effizient arbeiten, und weil die meisten Fälle gut gehen, lohnt es sich für ihn insgesamt.

Wenn ihr abgemahnt wurdet und die Abmahnung rechtswidrig war, seid ihr jetzt der Händler – ihr habt ein Recht gegenüber DigiProtect auf z. B. 1000 EUR. Metaclaims bietet euch nun an, euch dieses Recht abzukaufen. Allerdings bekommt ihr dafür kein Geld, sondern nur den Anspruch auf einen Teil der „Beute“, wenn MetaClaims vor Gericht Erfolg hat. Dadurch werden die Kosten für MetaClaims kalkulierbar – wenn sie verlieren, zahlen sie „nur“ die Anwaltskosten, wenn sie gewinnen, bekommen sie die Hälfte der „Beute“ (und die Anwaltskosten von den Abmahnern ersetzt). Sie machen das also nur, weil sie denken, dass sie gewinnen, und in dem Fall lohnt es sich für sie. Gleichzeitig ist der Fall natürlich Werbung für sie.

Damit die potentielle „Beute“ groß genug ist, müssen genug Leute mitmachen. Wegen 500 EUR zieht die Firma nicht vor Gericht, das lohnt nicht. Sobald genug Leute mitmachen, d.h. ihr „Recht auf Geld zurück“ an Metaclaims übertragen haben, hat MetaClaims z. B. das Recht, 10000 EUR von DigiProtect zu fordern – und versucht sich das Geld zu holen. Da sie offensichtlich von einem Erfolg ausgehen, würden sie in dem Fall 5000 EUR (+ die Werbung, was hier der Haupteffekt sein könnte) Gewinn machen – und ihr hättet wenigestens einen Teil des Geldes. Weil MetaClaims auch was riskiert (Anwaltskosten, falls es schiefgeht), wollen sie natürlich nur einfache Fälle. Vermutlich würden sie auch riskantere Fälle nehmen – aber da würdet ihr dann z. B. nur 10% bekommen, damit es sich für die lohnt, oder ihr müsstet einen Teil des Risikos tragen.

Metaclaims hält nun die Pornofälle von DigiProtect für am Einfachsten. So eine Klage macht natürlich nur Sinn (für Metaclaims) wenn sie möglichst wenig Aufwand macht, deswegen nehmen sie nur diese eine Art von Fall.

Einfach im Sinn von „leicht zu gewinnen“ sollen diese Fälle wohl deswegen sein, weil DigiProtect nur abmahnen darf, wenn sie bestimmte Rechte haben. Und das scheint für die Pornofälle zweifelhaft zu sein.

Details zum Löschwahnsinn bei den Öffentlich-Rechtlichen

2010-07-14 20 Kommentare

Die öffentlich-rechtlichen Rundfunkanstalten werden vom 12. Rundfunkänderungsstaatsvertrag dazu gezwungen, ältere Inhalte von ihren Webseiten zu löschen. Da ich dazu ein paar Fragen hatte, habe ich einfach mal bei der ARD angerufen und möchte hier ein paar Details erläutern, die vielleicht nicht jeder kennt.

Zunächst aber für die, die noch nicht wissen, worum es geht, eine kurze Einführung ins Thema: Lobbyisten der Presse (und teilweise der Privatsender) befürchten, dass ihnen die Angebote der Öffentlich-Rechtlichen, insbesondere im Internet, Konkurrenz machen. Bedenkt man die Qualität der „Qualitätspresse“, könnten sie damit sogar recht haben. Der Kritikpunkt ist hierbei, dass diese Konkurrenz von den GEZ-Gebührenzahlern durch die Zwangsabgaben eine gesicherte Finanzierung habe und somit den Wettbewerb verzerren würde, da die privaten Konkurrenten ihr Geld selbst reinholen müssen. Das wurde im bei der Reform des Rundfunkstaatsvertrags berücksichtigt: Die öffentlich-rechtlichen Sender dürfen Inhalte nun nur noch für eine kurze Zeit online anbieten, und auch die Dinge, welche angeboten werden dürfen, wurden eingeschränkt.

Das betrifft jedoch nicht nur Dinge wie Texte oder Angebote, die speziell für das Internet erstellt werden müssten und somit Mehrkosten verursachen würden, sondern alle Inhalte – die der Gebührenzahler bezahlt hat. Während es sinnvoll erscheint zu verhindern, dass öffentlich-rechtliche Rundfunksender Flirtbörsen betreiben, werden gleichzeitig unter diesem häufig betonten Vorwand bereits erstellte Inhalte ohne wirklichen Grund unzugänglich gemacht. Das mag zwar die Interessen des Wettbewerbs bzw. der Lobbyisten schützen, was die Politik aber mal wieder vergessen hat, ist, dass es noch eine andere Interessengruppe gibt: Die Gebührenzahler. Diese haben den Inhalt bezahlt, und diesen wird genau der bezahlte Inhalt vorenthalten. Obwohl das Interesse der Öffentlichkeit eigentlich wichtiger sein sollte, wurde diese Seite der Medaille lieber nicht beachtet, denn da stecken keine Lobbyisten dahinter.

Die Folge ist nun, dass Inhalte je nach Art nur für einen bestimmten Zeitraum auf den Webseiten der öffentlich-rechtlichen Sender verfügbar sein dürfen. Dass es wohl kaum im Interesse der Gesellschaft liegen kann, Wissen und Inhalte zu verstecken und dadurch auch z. B. Blogbeiträgen die Quellenlinks zu entziehen, muss wohl kaum erwähnt werden. Eine Übersicht darüber gibt dieser tagesschau.de-Artikel. Ach, ich vergaß ja: Also zumindest für einige Zeit. Deswegen hier mal ein etwas längeres Zitat:

Alle tagessschau.de-Inhalte haben spätestens mit dem 1. September 2010 eine „Verweildauer“. Das heißt, sie dürfen nur noch für eine bestimmte Frist im Netz bleiben. Bei vielen Inhalten beträgt diese Verweildauer ein Jahr, zum Beispiel bei den meisten Meldungen und dafür ausgewählten einzelnen Tagesschau-Beiträgen. Viele Tagesschau-Sendungen und das Nachtmagazin bleiben als komplette Sendung dagegen nur sieben Tage on demand abrufbar. Eine Ausnahme bilden die Tagesschau-Sendungen um 20.00 Uhr und die Tagesthemen. Sie gelten als fortlaufende zeitgeschichtliche Archive und dürfen unbegrenzt angeboten werden. Gleiches gilt für Inhalte von zeitgeschichtlicher und kulturgeschichtlicher Bedeutung. Sie dürfen unbefristet in einem eigens auszuweisenden Archiv online bleiben. Eine weitere spezielle Regel gilt für Inhalte, die sich mit Wahlen befassen. Sie dürfen für die Dauer der Legislaturperiode angeboten werden.

Die Einzelheiten sind im so genannten Verweildauerkonzept geregelt – einem Teil des Telemedienkonzeptes.

Nun zu den Details, die ich erfragen konnte:
Beruhigend ist zunächst, dass die Inhalte zumindest bei Tagesschau.de, höchstwahrscheinlich aber auch bei der gesamten ARD und beim ZDF, nur „depubliziert“, also vom öffentlichen Auftritt gelöscht werden. Das bezieht sich auf sämtliche Inhalte, sowohl Texte als auch Videos. Die Rundfunkanstalten behalten Kopien im stillen Kämmerlein, sodass wenigstens kein irreparabler Schaden entsteht. Wenn wir es also in zehn, zwanzig Jahren schaffen, die Regelung wieder zu ändern, können die Inhalte hoffentlich wiederhergestellt werden.

Das ändert jedoch nichts daran, dass diese Inhalte für die Öffentlichkeit nicht mehr verfügbar sind. Wer sich daher über diese Regelung beschweren will, sollte das bei denen tun, die das verursacht haben. Die richtige Adresse hierfür wären die Staatskanzleien – auch wenn zu bezweifeln ist, dass die Politiker etwas an diesem Punkt ändern, werden sie sich weitere sinnlose Änderungen vielleicht etwas mehr überlegen.

Ein weiterer interessanter Punkt ist, dass die Löschverpflichtungen kein Geld sparen. Während das Verbot, „Offtopic“-Angebote zu betreiben, tatsächlich Geld sparen könnte, zwingen die Löschverpflichtungen nur, bereits bestehende Inhalte zu entfernen. Dadurch entstehen zusätzliche Kosten um die Inhalte zu sortieren und zu entfernen. Auf Nachfrage habe ich erfahren, dass durch die Regelungen nicht einmal bei Sportinhalten etc. Geld gespart wird, z. B. weil Lizenzen dadurch günstiger würden. Kurzum, es handelt sich um eine völlig sinnlose Zerstörung von durch den Gebührenzahler bereits geschaffenen Möglichkeiten des Zugriffs, die – auch offziell! – nur dazu dient, den privaten Anbietern unliebsame (und angeblich ungerechte) Konkurrenz vom Leib zu halten.

Ein Beispiel, warum das ein Problem darstellt, sieht man wunderbar im oben zitierten Absatz: „Eine weitere spezielle Regel gilt für Inhalte, die sich mit Wahlen befassen. Sie dürfen für die Dauer der Legislaturperiode angeboten werden.“ (was eine „großzügige“ Verlängerung der üblichen Frist darstellt. Für normale Tagespolitik dürfte das also nicht gelten!)
Das bedeutet, dass nach einer Legislaturperiode die Berichte und Sendungen mit den Wahlllügen der Parteien deutlich schwerer aufzutreiben sein werden. Wenn also bei der nächsten Bundestagswahl schwarz-gelb abgewählt wird, wird es spätestens bei der übernächsten Bundestagswahl schwierig die heute aktuellen Berichte zu finden (und zu verlinken), die erklären, warum man die nicht wieder zurückwill. Für die meisten Dinge dürfte das jedoch schon bei der kommenden Bundestagswahl zutreffen!

Natürlich sind die öffentlich-rechtlichen Sender von diesen Regelungen alles andere als begeistert, zumal sie die Kosten für diese sinnlose Kulturgutvernichtung aus ihrem Budget abzweigen müssen. Wenn jetzt jemand aber vorhat, die Inhalte von den Webseiten herunterzuladen und anzubieten, möge er folgende Dinge beachten:

1. Die technische Seite: Wenn genug Leute auf die gleiche Idee kommen, wird das eine unvorstellbar hohe Serverlast erzeugen. Sei ein Video einer Sendung 100 MB groß, erscheine die Sendung täglich, und möchte jemand 5 Jahre sichern, dann entsteht pro Person, die dies tut, eine Datenmenge von rund 180 GB. Diese Werte passen ziemlich genau z. B. für die Tagesthemen (die bleiben übrigens online). Machen das jetzt 100 Leute für 10 solcher Sendungen, reden wir von 180 TB, was einen vierstelligen Betrag an Kosten verursachen dürfte! Zusätzlich verursacht das „Abgrasen“ einer kompletten Website eine hohe Serverlast. Als Heise die Löschung des Heiseforums angekündigt hat, haben ein paar Leute versucht, das Forum zu sichern. Dadurch war es dann erstmal einige Zeit lang nicht erreichbar. Falls jemand also trotz der perversen Datenmengen, die auch gespeichert werden wollen, des Aufwand, der rechtlichen Probleme (siehe unten), der Tatsache, dass die Beiträge noch im Archiv aufgehoben werden sollen etc. das versuchen will, findet andere die das tun wollen sprecht euch ab! Wenn es viele alleine versuchen, scheitern alle und richten dabei einen massiven Schaden an.

2. Die rechtliche Seite: Die Beiträge sind urheberrechtlich geschützt. Obwohl sie mit Geldern der Allgemeinheit finanziert wurden, dürften sie (bis auf eventuell einzelne Ausnahmen) nicht „gemeinfrei“ (Public Domain) oder sonstwie für die allgemeine Nutzung freigegeben sein. Wie das Herunterladen für eine private Sammlung rechtlich aussieht weiß ich nicht, eine Veröffentlichung wäre jedoch ziemlich sicher eine grobe Urheberrechtsverletzung. Für manche Inhalte liegen Rechte bzw. Teile davon bei anderen Rechteinhabern, die darüber sicherlich nicht begeistert wären! (Oder schon, weil sich mit den Abmahngebühren gut verdienen lässt.)

Bei den Inhalten, deren Rechte vollständig bei den Öffentlich-Rechtlichen selbst liegen, könnte man natürlich denken, dass diese gerne ein Auge zudrücken würden – schließlich würden sie die Inhalte eigentlich gerne weiter anbieten, dürfen es nur nicht. Selbst wenn dies der Fall wäre und sie ihr Recht nicht aus Prinzip durchsetzen würden, könnte es immer noch sein, dass sie durch wen auch immer gezwungen würden, auch gegen den eigentlichen Willen der Verantwortlichen rechtlich dagegen vorzugehen. Wer also auf die Idee kommt, so ein Archiv öffentlich anzubieten, riskiert (neben den großen Trafficmengen) Ärger – den man aber selbstverständlich auch nutzen könnte, um für mehr Öffentlichkeit für diese lächerliche, lobbyfreundliche Regelung zu sorgen.

Zu Urheberrechten und öffentlich-rechtlichen Sendern möchte ich noch darauf hinweisen, dass ich im Rahmen eines Blogbeitrags mal ein (etwas polemisches) Video erstallt habe, welches (kurze) Ausschnitte aus einer Phoenix-Talkshow enthielt. Einige Zeit nach der Veröffentlichung sah man beim ZDF das alleinstehende Video nicht ausreichend vom Zitatrecht gedeckt, und seitdem sieht es so aus und meinem YouTube-Account fehlen ein paar Features. Wenigstens gabs keine Klage oder Abmahnung und ich durfte es im Blogbeitrag drinlassen (Zitatrecht).

3. Für einige Inhalte dürfte es schon zu spät sein, soweit ich weiß begann das große aus-dem-Netz-nehmen schon vor einiger Zeit.

Zum Abschluss bleibt nur noch die Frage: Was nun?
Neben der Tatsache, dass diese unsinnige Regelung umgehend abgeschafft gehört, sollten meiner Meinung nach selbstproduzierte Inhalte der öffentlich-rechtlichen Sender unter eine freie Lizenz gestellt werden. Dadurch könnte der Gebührenzahler seine bezahlten Inhalte nicht nur besser nutzen, sondern solche Zensurideen wären von vorne herein zum Scheitern verurteilt. Außerdem sieht man hier ein hervorragendes Beispiel, warum das Urheberrecht auch eine Gefahr darstellt, und wie in unserer Gesellschaft aus wirtschaftlichen Interessen sinnlos Dinge vernichtet werden – zwei weitere Bereiche, in denen dringend etwas getan werden muss. Viel zu tun für die PIRATEN

Falls die Öffentlich-Rechtlichen der Regelung ein Schnippchen schlagen möchten, könnten sie prüfen, ob es möglich ist, die Inhalte kurz vor der Deadline doch noch unter eine freie Lizenz zu stellen und sie gesammelt z. B. als riesige .torrent-Datei zur Verfügung zu stellen oder engagierten Aktivisten zu überspielen (irgendjemand spendet sicher genug Festplatten). Das Netz kümmert sich dann um den Rest. Das wird wohl leider nicht passieren, siehe z. B. die Antwort, die Alios bekommen hat. Falls doch: Ich wäre immer noch mit 1 TB und technischer Unterstützung im Rahmen meiner Möglichkeiten dabei.

Bundesverfassungsgericht ERLAUBT Vorratsdatenspeicherung

2010-03-05 1 Kommentar

Für Ungeduldige gibt es unten eine Zusammenfassung, die erklärt, warum das Urteil des Bundesverfassungsgerichts absolut nicht gefeiert werden kann und eine epische Niederlage darstellt.

Der 2.3.2010 sollte ein Festtag werden. Der Präsident des Bundesverfassungsgerichts, Hans-Jürgen Papier, hatte ein Grundsatzurteil angekündigt, welches in ganz Europa beachtung finden würde. Damit habe ich (und nicht nur ich) eigentlich erwartet, dass das Prinzip der Vorratsdatenspeicherung, d.h. die massenhafte, ungezielte Speicherung von Daten möglichst vieler Menschen, für verfassungswidrig erklärt wird, klargestellt wird, dass die EU nicht über dem Grundgesetz steht und dass die Politiker sowas nicht nochmal versuchen sollen. Das hätte nicht nur die VDS an sich, sondern auch andere Datenkraken wie ELENA betroffen.

Angesichts der früheren Rechtsprechung des BVerfG, z. B. zur Volkszählung, wäre das auch nicht unrealistisch gewesen.

Natürlich brach zunächst Jubel aus als im Urteil (Video) festgestellt wurde, dass die derzeitige VDS gegen das GG verstößt, und vor allem, als sie für nichtig erklärt wurde. (Oft erklärt das BVerfG, dass ein Gesetz verfassungswidrig ist, erklärt es aber nicht für nichtig. Dann würde es weiter gelten, bis die Politik es korrigiert, und das dauert. Wenn es nichtig ist, ist es direkt weg.) Dann kam noch der Hinweis, dass die Daten sofort zu löschen sind. Jubel und „STRIKE!“-Rufe folgten. So sieht eigentlich ein Sieg auf der ganzen Linie aus.

Dann kam die Begründung. Und die hatte es in sich. Der Jubel verstummte schnell, als der Schlüsselsatz „Zwar ist eine solche Vorratsdatenspeicherung mit dem Grundgesetz nicht schlechthin unvereinbar“ fiel. Wenn man noch gedacht hatte, man könnte sich im Jubel verhört haben, gab es nach der Aussage, dass eine Vorratsdatenspeicherung auch Grundgesetzkonform zu machen war, keinen Zweifel mehr. Damit hat das BVerfG die Vorratsdatenspeicherung erlaubt. Das schön aussehende Urteil war also in Wirklichkeit eine epische Niederlage.

Danach folgte nur, wie von vielen befürchtet, ein HowTo für die Regierung, wie sie die Vorratsdatenspeicherung doch einführen kann. Die Auflagen sind nur das, was eigentlich selbstverständlich ist – es muss ein hohes Sicherheitsniveau gewahrt bleiben, aber die Daten werden gespeichert.

Es folgt noch ein kleiner Lichtblick: Die Daten dürfen wenigstens nur noch für auch im Einzelfall schwere Straftaten benutzt werden. Vielleicht könnte so sogar der beliebten Taktik ein Riegel vorgeschoben werden, einfach erstmal wegen „Verdacht auf Bildung einer Terroristischen Vereinigung“ zu ermitteln, um alle Instrumente nutzen zu können. (Video: Teil 2) Die Einschränkungen beziehen sich aber natürlich nur auf den Zugriff, nicht auf die Speicherung, die das eigentliche Problem ist.

Ein weiterer Hammer folgt auf den Fuß: Der vielversprechende Satzanfang „Im Hinblick auf die Gefahren und die Erfüllung nachrichtendienstlicher Aufgaben“ – auf den man eigentlich etwas wie „ist die Verwendung der Vorratsdaten nicht zulässig“ erwartet hätte, wird stattdessen so fortgesetzt: „ist die Verwendung der Vorratsdaten gleichsam wirksam zu begrenzen.“ Also wieder kein Verbot, sondern eine ausdrückliche Erlaubnis, die Vorratsdaten auch für Nachrichtendienste und Gefahrenabwehr zu nutzen. Immerhin nur für besonders schwere und konkrete Gefahren – wie bei den ebenfalls erlaubten Onlinedurchsuchungen!

Für anonyme Beratungsdienste wird ein Übermittlungsverbot gefordert. Das dürfte sich also auch erst auf die Übermittlung, nicht auf die Speicherung, beziehen. Gespeichert werden darf also wohl auch ein Anruf bei einer anonymen Beratungsstelle.

Die Benachrichtigung des Betroffenen, die in der Regel zu erfolgen hat, darf mit richterlicher Genehmigung unterbleiben – wie auch beim Abhören. Dort wird die Ausnahme meist pauschal immer wieder verlängert, der Richtervorbehalt ist ein zahnloser Tiger. Nicht einmal eine wirksame Benachrichtigungspflicht existiert also, womit auch der geforderte Rechtsschutz für die Tonne ist, der eh nur nachträglich erfolgen würde.

Dann folgt der finale Schlag, der das Urteil zu einer absolut niederschmetternden Niederlage für jeden Datenschützer macht: „Für die nur mittelbare Nutzung von Vorratsdaten zur Erteilung von Auskünften über den Inhaber von IP-Adressen gelten weniger strenge Anforderungen.“ Ohne Einschränkung auf schwere Straftatbestände, auch für Nachrichtendienste und Gefahrenabwehr, wird einer der schwerwiegendsten Punkte der Vorratsdatenspeicherung für den Internetbereich, für zulässig erklärt. Sogar für Ordnungswidrigkeiten kann der Gesetzgeber solche Auskünfte erlauben. Soweit ich weiß, ist das deutlich schlimmer, als der Status quo. Nicht einmal ein Richtervorbehalt wird gefordert, wie in der Pressemitteilung nochmal klargestellt. (Abschnitt „Anforderungen an die mittelbare Nutzung der Daten zur Identifizierung von IP-Adressen“)

Zusammenfassung

Damit hat das Bundesverfassungericht festgestellt

  • Die Vorratsdatenspeicherung ist erlaubt
  • Lediglich die Abfrage der Daten wird eingeschränkt
    • nur für schwere Straftaten
    • Richtervorbehalt
    • Keine Auskunft (aber wohl Speicherung!) bei anonymen Beratungsdiensten
    • leicht umgehbare Benachrichtigungspflicht
  • Zugriff auch für Gefahrenabwehr und Nachrichtendienste
  • IP-Adressen dürfen Nutzern ohne wirkliche Einschränkung zugeordnet werden
    • ohne Richtervorbehalt!
    • sogar für Ordnungswidrigkeiten
    • auch für Nachrichtendienste und Gefahrenabwehr
  • Dafür wurde die derzeitige Version der Vorratsdatenspeicherung für verfassungswidrig und nichtig erklärt. Aufgrund der obigen Punkte ist das Urteil dennoch eine völlige Niederlage.

    Natürlich hätte es noch schlimmer werden können – zum Beispiel hätte es passieren können, dass die derzeitige Vorratsdatenspeicherung nicht für nichtig erklärt wird und somit weiter gilt. Und siehe da: In Absatz 309 der Begründung erfährt man, dass diese Entscheidung mit 4:4 Stimmen äußerst knapp gefallen ist. Ich versuche in einem weiteren Artikel eine Analsyse dazu und zu den unter dem Urteil aufgeführten abweichenden Meinungen einzelner Richter zu schreiben.

Ankündigung: Vortrag „Liquid Democracy“, Flashmob Abmahnwahn

Ich möchte auch hier mal kurz zwei Veranstaltungen ankündigen (leider etwas spät):

Am Freitag abend, dem 11.12. (morgen) findet in Darmstadt an der TU ab 20 Uhr ein Vortrag über „Liquid Democracy“ statt. Liquid Democracy ist ein interessantes Konzept, wie direkte und indirekte Demokratie miteinander verbunden werden könnten, um aus beidem die Vorteile herauszuholen. Details gibt es beispielsweise hier, dort stehen auch weitere Termine, die in einigen Städten in NRW stattfinden. Ort: Hörsaal 123 im Gebäude S1 03 („Altes Hauptgebäude“, Hochschulstraße 3)

Am Samstag (12.12.) findet in Frankfurt um 14 Uhr ein Flashmob gegen den Abmahnwahn am Brunnen auf der Zeil statt. Nähere Infos gibt es unter diesem Link – dort findet man auch das Schild, was man ausdrucken und mitbringen sollte. (Wer es nicht mehr schafft, sollte trotzdem kommen und versuchen, sich ein Schild zu schnorren)

Und nochmal als Erinnerung: Gerade für solche Sachen und für sehr kurze Hinweise auf lesenswerte Artikel ist eigentlich mein neues, separates Miniblog gedacht. Das liest aber scheinbar noch kaum jemand. Den Feed gibts hier.

BitTorrent-Mirrors einfach erstellen

2009-07-04 4 Kommentare

Heute wieder mal etwas Technisches: Manchmal steht man vor dem Problem, dass man eine oder mehrere große Dateien anbieten möchte, die dann von vielen Leuten heruntergeladen werden. Ein normaler Webserver macht das unter Umständen nicht mit oder wird zumindest langsam, weil er überlastet wird, zudem entstehen große Mengen an Traffic und damit verbundene Kosten.

Eine Alternative ist die Verbreitung der Dateien über ein Peer-to-Peer-System wie BitTorrent, bei welchem die Downloader die Daten selbst an andere Downloader weiterverteilen. Das Problem dabei ist jedoch, dass nur Nutzer mit einem BitTorrent-Client an die Dateien kommen, und es auch für den Anbieter zunächst aufwendig zu sein scheint, schließlich braucht man Tracker und Seeds – denken viele. Zudem haben torrent-Downloads den Ruf, oft langsamer als gute HTTP-Downloads zu sein, weswegen auch mit entsprechender Software ausgestattete Nutzer oft den Bittorrent-Download zugunsten des HTTP-Downloads verschmähen. Hier versuche ich zu zeigen, dass das nicht (mehr) stimmt und wie man in wenigen Minuten ohne großen Aufwand einen BitTorrent-Download zusätzlich anbieten kann.

Jeders halbwegs moderne BitTorrent-Programm („client“) unterstützt inzwischen sogenannte Webseeds, und es gibt zahlreiche offene Tracker – diese weitgehend unbeachteten Punkte lassen die oben genannten Nachteile wegfallen. Sobald man einen HTTP-Download anbietet, kann dieser auch gleichzeitig als Seed benutzt werden. Ein Nutzer, der BitTorrent nutzt, wird also nicht gegenüber Nutzern benachteiligt, die nur über HTTP herunterladen, weil ihm HTTP zusätzlich zum BitTorrent-Download gleichzeitig zur Verfügung steht. Das erhöht die Motivation der Nutzer, auf den bequemen HTTP-Download zu verzichten und den schnelleren, aber Serverressourcen schonenden BitTorrent-Download zu nutzen. Ein gesonderter Seed muss nicht angeboten werden, serverseitig wird also keine spezielle Software benötigt!

Auch einen eigenen Tracker benötigt man nicht: Es gibt zahlreiche öffentliche Tracker, welche man einfach in die .torrent-Kontrolldatei, die man erstellt, eintragen kann. Man muss die Datei nicht einmal bei den Trackern anmelden! Man kann auch mehrere Tracker eintragen, sodass ein Ausfall eines Trackers nicht weiter stört. Selbst bei einem Ausfall aller Tracker können die meisten Clients mit ihren DHT-Systemen weiter funktionieren.

Sinn macht so etwas natürlich nur bei größeren Dateien und wenn man davon ausgehen kann dass zumindest ein nennenswerter Anteil der Nutzer BitTorrent nutzen wird. Viele Internetnutzer haben schon BitTorrent-Clients installiert, um sich illegal aber kostenlos mit aktuellen Kinofilmen zu versorgen, sodass die Akzeptanz guter BitTorrent-Downloads auf Seiten mit internetaffinem Publikum überraschend gut sein dürfte. Auf jeden Fall sollte man auf den Webseed hinweisen und darauf dass BitTorrent schneller ist, also z. B. indem man zwei Download-Links anbietet „Direkt herunterladen (HTTP, langsam)“ und „Über BitTorrent herunterladen (mit WebSeed, schnell, BitTorrent-Client erforderlich)“. Insbesondere für Videoaufzeichnungen von Veranstaltungen mit netznahen Zielgruppen bietet sich so etwas an.

Nun also zur Kernfrage: Wie bietet man einen BitTorrent-Download an? Man muss eine sogenannte .torrent-Kontrolldatei („das Torrent“) erstellen und zum Download anbieten. Diese Datei wird mit einem speziellen Programm erzeugt (siehe unten), ist wenige KB groß und wird ganz normal statt bzw. neben der eigentlichen Datei zum Download angeboten. Ein Nutzer der die Datei (z. B. ein Video) herunterladen möchte, lädt nun stattdessen diese kleine .torrent-Datei. Dadurch öffnet sich sein BitTorrent-Client, welcher dann die eigentliche Datei herunterlädt.

Um Webseeds nutzen zu können, muss man die Torrent-Datei richtig erstellen. Die meisten Tools zum Erstellen von Torrents unterstützen Webseeds nicht oder nicht richtig, weswegen man etwas wählerisch sein muss. Ich stelle hier exemplarisch zwei Tools vor. Das graphische Tool ist für unerfahrene Windows-Nutzer, die nur wenige Torrents erstellen wollen vielleicht einfacher, doch wer (womöglch automatisch) viele Torrents erstellen will, ist mit dem Konsolentool besser dran – es scheint komplizierter, ist aber viel schneller. Nun denn:

Option 1: Vuze (ehemals Azureus)
Man installiere sich die kostenlos verfügbare Software „Vuze„. Dabei handelt es sich um einen sehr mächtigen, aber ressourcenfressenden BitTorrent-Client mit vielen Zusatzfunktionen. Im Hauptfenter kann man nun über „Datei->Torrent ersetellen“ den Assistenten starten. Im ersten Dialog wählt man: „Benutze einen externen Tracker“, „Füge Informationen für mehrere Tracker hinzu“ (sofern man mehrere Tracker wünscht), „Füge HTTP-Quellen hinzu“ aus und je nachdem, ob man ein Verzeichnis oder eine einzelne Datei anbieten möchte, wählt man das entsprechende Feld (in der Regel also „Datei“). Den ersten Tracker (siehe unten) trägt man bereits mit seiner Ankündigungs-URL ein.

Auf der nächsten Seite erstellt man ein neues Trackerset, gibt ihm einen Namen und trägt alle gewünschten Tracker ein. Beim nächsten Mal kann man das Set dann wiederverwenden. Auf der nächsten Seite muss man die HTTP-Adresse eintragen, wo die Datei heruntergeladen werden kann, und zwar unter „getright“, nicht „webseed“ (!). Also eine neue HTTP-Quellenkonfiguration erstellen, Namen geben, per Rechtsklick auf getright die Quelle(n) einfügen (nicht verwirren lassen wenn „Tracker“ da steht). Mehrere Adressen können eingegeben werden, wenn exakt die gleiche Datei auf mehreren Servern verfügbar ist.

Auf der nächsten Seite wählt man die Datei aus, die man zum Download anbieten möchte. Diese muss lokal gespeichert sein, wird aber nur für die Erstellung des Torrent gebraucht, danach kann man sie löschen. Auf der folgenden Seite gibt man an, wo die fertige Torrent-Datei hin soll, „Größe der Teile“ lässt man besser auf „Auto“, und stellt „Öffne den Torrent“ aus, „Privater Torrent“ aus, „Erlaube dezentralisiertes Tracken“ ein, und klickt auf fertig. Je nach Dateigröße muss man dann etwas warten und erhält die fertige Torrent-Datei. Diese lädt man nun wie eine ganz normale Datei auf den Server, verlinkt sie (siehe oben) und ist fertig! Ich weiß, dass es kompliziert klingt, aber wenn man es einmal gemacht hat geht es schneller zu machen als diesen Text zu lesen.

Option 2: mktorrent
Mit dem Konsolen-Tool „mktorrent“ kann man mit einer einzigen Befehlszeile ein Torrent erstellen. Das Problem ist, dass mktorrent leider nur als Quellcode angeboten wird, und man es somit selbst kompilieren muss (siehe unten).

Wenn mktorrent lauffähig installiert ist, wechselt man in das Verzeichnis, in dem die Datei liegt, die man anbieten möchte. Dann gibt man folgenden Befehl ein (eine Zeile), wobei man [URL] durch die HTTP-URL wo man die Datei herunterladen kann und [DATEINAMEN] durch den Namen der anzubietenden Datei ersetzt:

mktorrent -a http://open.tracker.thepiratebay.org/announce,http://www.torrent-downloads.to:2710/announce,http://denis.stalker.h3q.com:6969/announce,udp://denis.stalker.h3q.com:6969/announce,http://www.sumotracker.com/announce,http://tracker.publicbt.com:80/announce,udp://tracker.publicbt.com:80/announce,http://tracker.openbittorrent.com:80/announce,udp://tracker.openbittorrent.com:80/announce -w [URL] [DATEINAME]

Der Parameter -a gibt eine Liste der zu verwendenden Tracker an (announce-URLs, getrennt durch Kommata). Man kann mit mehreren -w Parametern auch mehrere URLs (Webseeds) angeben, von denen die Datei heruntergeladen werden kann. Für weiterführende Optionen (festlegen der Chunkgröße etc.) sei auf die Hilfe des Programms (mktorrent -h) verwiesen. Die Torrent-Datei wird direkt erstellt und kann wie oben beschrieben hochgeladen werden. Fertig! (Jeder darf raten welche Variante ich bevorzuge, ewiges Klicken durch Menüs oder eine Zeile anpassen und ausführen…)

Die Schwierigkeit bei der Verwendung von mktorrent ist, dass man es selbst kompilieren muss. Es ist zwar vergleichsweise einfach und sogar ich habe es geschafft unter Linux eine Windowsversion zu kompilieren, aber wem „kompilieren“ nichts sagt, kann ich davon nur abraten. Für die anderen tut es ein Blick in die README, ggf. muss man Funktionen deaktivieren (Threads, Benutzung einer externen OpenSSL-Libraray). Auf Anfrage kann ich notfalls meine Linux- und Windows-Binaries zur Verfügung stellen.

Welche Tracker?
Welche Tracker sollte man eintragen? Ich habe irgendwo folgende Tracker empfohlen bekommen und nutze die, wer bessere kennt, darf sie gerne nennen:

http://open.tracker.thepiratebay.org/announce
http://www.torrent-downloads.to:2710/announce
http://denis.stalker.h3q.com:6969/announce
udp://denis.stalker.h3q.com:6969/announce
http://www.sumotracker.com/announce
http://tracker.openbittorrent.com:80/announce
udp://tracker.openbittorrent.com:80/announce
http://tracker.publicbt.com:80/announce
udp://tracker.publicbt.com:80/announce

Vorteile dieser Lösung
Warum sollte man sich die Mühe machen, was hat man davon? Nun, durch BitTorrent werden die Downloads beschleunigt und der Server wird entlastet. Dadurch spart man auch oft teuren Traffic. Das Beste jedoch: Wenn der Server (z. B. wegen Überlastung) abstürzen sollte, können angefangene Downloads erfolgreich zu Ende geführt werden, sofern einer der über BitTorrent herunterladenden Nutzer die Datei komplett hat und seinen Client laufen lässt.

Falls es niemandem aufgefallen ist: Man kann auch für Dateien auf einem fremden (überlasteten) Server ein .torrent erstellen, allerdings sollte man beachten, dass wenn jeder ein eigenes Torrent erstellt, der Nutzen gering ist – nur die Clients die das selbe Torrent nutzen helfen sich gegenseitig beim Download. Wenn man es dennoch tun will, lädt man einfach die fragliche Datei herunter (ohne geht es nicht!) und verfährt wie oben angegeben. Das fertige Torrent kann man dann feierlich dem Administrator der Seite überreichen oder selbst irgendwo anbieten. (Bitte selbst informieren wie es rechtlich aussieht, wenn man das bei Seiten macht wo der Admin nicht einverstanden ist.)

Die fertigen Torrent-Dateien kann man natürlich auch bei diversen Portalen hochladen, wenn die Inhalte auch ohne die Originalwebsite auffindbar sein sollen.

Ein weiterer positiver Nebeneffekt ist, dass die Torrent-Datei einen Fingerabdruck der herunterzuladenden Datei enthält. Wenn man also die Torrent-Datei auf sicherem Weg (https, mit Signatur, …) anbietet, kann ein herunterladender Nutzer sicher sein, die richtige Datei zu erhalten, selbst wenn der Download von nicht vertrauenswürdigen Mirrors erfolgt.

Nicht ohne Grund wird übrigens quasi genau dieses BitTorrent-Verteilsystem beim Online-Rollenspiel World of Warcraft seit Jahren erfolgreich dafür eingesetzt, die oft sehr großen Updates zu verteilen.

Feedback und Erfahrungsberichte sind willkommen!

Über den Wert von Kopien

2008-02-07 3 Kommentare

Illegale Kopien werden als „Diebstahl geistigen Eigentums“ angesehen und oft mit einem normalen Ladendiebstahl verglichen. Dabei wird allerdings gerne ein entscheidender Unterschied übersehen: Bei einem Ladendiebstahl erleidet der Verkäufer einen direkten Verlust, die Ware steht ihm nicht mehr zur Verfügung, und obwohl der Dieb einen Nutzen hat, entsteht dadurch keine neue Ware. Bei „Diebstahl von geistigem Eigentum“ hingegen wird eine Kopie erstellt. Der „Eigentümer“ hat sein Eigentum immer noch, der Dieb aber auch: Durch die Anfertigung von Kopien von Wissen wird das Wissen vermehrt. Mehr Menschen haben Zugang zu dem Wissen, und zwar ohne besonders großen materiellen Aufwand. Diese Eigenschaft von Informationen ist eine große Chance, da sich dadurch die Menschheit gut weiterentwickeln kann. Um das an einem Beispiel festzumachen: wenn z. B. ein Programm einer möglichst breiten Masse zur Verfügung steht, haben diese Menschen dadurch mehr Möglichkeiten bzw. können eine bestimmte Tätigkeit in kürzerer Zeit erledigen – das einzige Problem ist die dabei entfallende Vergütung des Urhebers.

Diese angenehme Eigenschaft von Wissen ist bereits seit langem bekannt. Aus diesem Grund wurden Bibliotheken eingerichtet. Über diese kann jeder sich weitgehend freien und kostenlosen Zugang zu Wissen verschaffen. Die Notwendigkeit von Bibliotheken basiert darauf, dass früher Wissen nur mit Hilfe von Büchern effektiv überliefert werden konnte, und Bücher waren in der Herstellung teuer. Heutzutage, in den Zeiten von Internetverbindungen, die in einer Sekunde den Inhalt eines Buches übertragen können, in den Zeiten, wo auf eine in die Hosentasche passende Festplatte der Inhalt mehrerer Tausend Bücher abgelegt werden kann, kostet die Vervielfältigung von Büchern, Musik, Filmen und sonstigen Werken nahezu nichts mehr. Leider wird dies derzeit mehr als Gefahr denn als Chance gesehen.

Dabei könnte man das jahrhundertealte Prinzip der Wissensverbreitung durch Bibliotheken heutzutage viel effektiver umsetzen: Ausleihen aus Bibliotheken sind zeitlich begrenzt, weil die Herstellung und Lagerung der Informationsträger (Bücher) teuer ist und deren Anzahl dadurch beschränkt. Damit viele Menschen die Informationen nutzen können, müssen sie sich abwechseln. Wenn man nun die Ausleihe aus einer Bibliothek durch eine Kopie ersetzen würde, würde der Aufwand mit der Verwaltung der Ausleihen wegfallen, und „Ausleihen“ wären zeitlich unbeschränkt möglich. Andererseits wären sie aber nicht nötig: Solange das Wissen über das Internet jederzeit abrufbar wäre, müsste es noch nicht einmal überall vorgehalten werden, sondern könnte jederzeit bei Bedarf neu abgerufen werden. Die Kapazitäten sind da, die Netzwerke (eMule, Bittorrent) zur Verteilung sind da – wie man übrigens schön sehen kann, komplett von selbst entstanden. Technisch wäre diese Lösung innerhalb von wenigen Tagen zu realisieren. Stattdessen wird die Verbreitung und auch die legale Nutzung durch Kopierschutz und DRM erschwert, wo es nur möglich ist.

Es gibt dennoch Argumente, das Verfahren der freien Verteilung nicht unbeschränkt zu erlauben: Wenn jeder sämtlichen Content kopieren würde, statt ihn zu „kaufen“, würden die Urheber keinerlei Vergütung erhalten, und somit wäre in vielen Fällen der Anreiz weg, neuen Content zu schaffen – wird zumindest oft behauptet. Dieses Problem ist tief im System der freien Marktwirtschaft verankert, und es zu beheben dürfte schwierig bis unmöglich sein.

Dennoch sollte bedacht werden, dass ein Schaden nur entsteht, wenn jemand ein Werk kopiert, der es sonst gekauft hätte – was aber in den meisten Fällen nicht der Fall ist, ja nicht einmal sein kann, da die wenigsten Menschen, die sich zahlreiche Filme oder sogar komerzielle Programme aus dem Internet laden, es sich leisten könnten, all diese Programme zu kaufen. Wenn man jedoch diese Kopien zulassen wollte, müsste man eine Unterscheidung machen, die zu treffen kaum möglich ist: Wer würde sich dieses Werk kaufen, und wer nicht? Außerdem wäre ein solches Prinzip selbstverständlich absolut nicht in das System der Marktwirtschaft einzubinden, denn dort gilt, wer sich etwas nicht leisten kann, bekommt es nicht, selbst wenn es ohne Probleme möglich wäre.

Soweit die Theorie.

Bei einer Ausleihe aus Bibliotheken bekommen die Urheber zwar eine Vergütung – diese ist aber nicht besonders hoch. Dennoch habe bisher nicht feststellen können, dass Bibliotheken als Böse angesehen würden, ebensowenig haben sie dazu geführt, dass keine Bücher mehr geschrieben werden. Ihr Ziel – günstige Verbreitung von Wissen – ist mit Kopien deutlich einfacher und billiger zu erreichen. Insbesondere problematisch finde ich, dass die Urheber über die Verwertungsgesellschaften sogar eine Vergütung für eventuelle Kopien bekommen, nämlich über die Leermedienabgabe – und das obwohl sie gegen diese Verbreitung vorgehen!

Auffällig wird jedoch, dass oft nicht die Urheber gegen eine Verbreitung ihrer Werke kämpfen, sondern die Vertreter der einzelnen Zweige der Contentindustrie. Diese haben mit verschiedenen Mitteln die Urheber und Künstler von sich abhängig gemacht oder ihnen zumindest dieses Eindruck vermittelt. Darunter leiden nicht nur diejenigen, die die Werke nutzen möchten, sondern auch die Künstler selbst. Von dem Geld, was durch den Verkauf von Büchern, CDs und Konzerttickets eingenommen wird, sehen sie oft nur wenig oder gar nichts. Vieles geht für Werbung, den Vertrieb oder aber den Gewinn der Vertreter der Contentindustrie ab. Durch einen Direktvertrieb würden diese Kosten wegfallen.

Ein weiterer Teil sind die Produktionskosten. Besonders auffällig sind diese bei Filmen – die Effekte, das Verbrauchsmaterial, die Kulissen – all das verschlingt Geld. Auch die Produktion von Musik ist nicht günstig – ein aufwändiges Tonstudio ist nötig. Diese Kosten müssen irgendwie gedeckt werden. Auf freiwilligen Spenden basierende Systeme funktionieren oft nicht ausreichend. Jedes Abrechnungssystem verursacht aber seinerseits wiederum Kosten, außerdem wird dann versucht, eine Umgehung des Systems zu verhindern. Das sind die Mittel der Marktwirtschaft. Diese dienen als Hilfsmittel, um die genannten Probleme zu lösen – sie sind aber alles andere als ideal, da sie nie für leicht reproduzierbare Werke gedacht waren.

Das Problem ist, dass die Hilfsmittel sich inzwischen zu einem eigenständigen Monstrum in Form der Contentindustrie entwickelt haben, welches eine imense Macht besitzt und sie einsetzt, um die eigenen Interessen zu vertreten. Das Hilfsmittel hat sich selbst zum Selbstzweck gemacht. Genauso wie durch die Heilung eines gebrochenen Beines die Krücke unnötig wird, würde durch eine alternative, bessere Lösung von Urheberrechten die Contentindustrie unnötig werden – und daher versucht sie, Alternativen mit aller Kraft zu verhindern. Man stelle sich vor, die Krücke beißt sich am Bein fest und lässt nicht mehr los – und das schlimmste: Sie ist kräftig genug, dass man sie da ohne Weiteres nicht mehr weg bekommt.

Das unpassende Gleichnis, welches die Vervielfältigung von Werken mit Diebstahl gleichsetzt, stammt mitnichten von den Urhebern, also denjenigen, denen man das „geistige Eigentum“ zusprechen müsste. Vielmehr wurde es von der Contentindustrie erfunden, die sich – zu Recht – am Stärksten dadurch bedroht fühlt. Seltsam, dass nicht die „Eigentümer“ sich über den Diebstahl beschweren, sondern die Parasiten, die sich von ihnen ernähren.

Der Politik ist aber nicht allein die Schuld daran zu geben, dass die Interessen dieser Parasiten meist auch noch im Gesetz stehen. Vor allem bei Nachrichten wie „Kulturminister hören sich die Sorgen der Musikindustrie an“ wird es deutlich:
Die Interessen der Bürger werden gegenüber denen der Contentindustrie vernachlässigt, weil diese einfach keine Stimme haben. Wenn bei einem Politiker ständig die Lobbyisten der Contentindustrie von ihren Sorgen erzählen, während die Gegenposition nie an die Politiker herangebracht wird – wen wundert es, dass nur die Position der Contentindustrie am Ende bei neuen Gesetzen berücksichtigt wird? Die Politiker machen das vermutlich nicht, weil sie geschmiert werden, sondern weil sie es einfach nicht besser wissen, da ihnen die Gegenposition noch nicht zu Ohren gekommen ist.

Das eigentliche Problem liegt meiner Meinung nach darin, dass die Bevölkerung bzw. der engagierte Teil der Bevölkerung zu wenig organisiert ist und nicht offensiv genug an die Politik herangeht. Nur durch starke Organisation und gezielten Lobbyismus schafft es die Contentindustrie, die nur eine unbedeutende Minderheit ist, ihre Interessen gegen die der Mehrheit durchzusetzen. Eigentlich wäre es im genannten Fall nötig gewesen, dass am nächsten Tag neben der alten Nachricht eine neue steht: „Politiker hören sich die Sorgen der Konsumentenvertreter an“. Wenn das oft und effektiv genug passieren würde, dürften auch wieder vernünftigere Gesetze entstehen. Die Mehrheit braucht eine Lobby.

Die Grünen Parteien auf EU-Ebene haben bereits verstanden, dass Diebstahl und Kopien nicht das gleiche sind und die Urheberrechtsgesetze nicht dem Schutz der Urheberm sondern der parasitären Contentindustrie dienen, und sie bringen es in ihrer Kampange „I wouldn’t steal“ auch gut rüber. Jetzt müssen „nur“ noch die anderen 95% der Politiker überzeugt werden.

Fertige Lösungen habe ich auch nicht. Nur viele Gedanken.
Jan Schejbal, 2008 in einem Blogeintrag ;-)

Idee: Öffentlich-rechtliche Sender ohne Kosten überall

2007-10-24 2 Kommentare

Die öffentlich-rechtlichen Sender versuchen immer weiter zu expandieren, sie haben jetzt schon (teils sogar recht brauchbare) Internet- und Mobilangebote, und es wird immer weitergehen. Allerdings sind damit auch immer höhere Kosten und GEZ-Abgaben auf immer mehr Geräte verbunden. Daher habe ich eine Idee für eine einfachere Lösung:

Den Content einfach in brauchbaren Formaten (d. h. mit Metadaten etc.) zum Download anbieten und die Weiterverbreitung erlauben. Das Internet bzw. die Nutzer kümmern sich dann schon um den Rest. Und wenn eine neue Technologie aufkommt, wird sich irgendjemand auch darum kümmern, dass die Inhalte da verfügbar sind.

Die Sender haben damit wenig Kosten, und das Ganze wäre sehr flexibel und würde vermutlich gut auf die Wünsche der Nutzer eingehen (z. B. bei Dateiformaten und ähnlichem).

Es wäre jedenfalls sinnvoller, als viel Geld für recht starre Systeme auszugeben und dieses Geld per Zwangsabgabe wieder einzutreiben. Die Frage ist natürlich nur, ob die Sender sowas wirklich wollen – allerdings dürften die zusätzlichen PC-Abgaben die Kosten für die Websites überhaupt nicht decken.