Artikel 11 und 13

von Markus Tröszter

Artikel 11 und 13, und was sie bewirken.

Der Vorschlag zur Reform des Urheberrechts

Welche Inhalte werden geschützt?

Der Vorschlag bezieht sich auf „Werke oder andere geschützte Gegenstände“. Damit wäre alles gemeint, was dem Schutz des geistigen Eigentums unterliegt – das Urheberrecht, aber auch andere Rechte, die unter den weit gefassten Begriff des „geistigen Eigentums“ fallen. Dazu gehören die offensichtlichen Dinge wie Video und Audio, aber auch weniger offensichtliche Dinge wie Choreographie und Markenrecht.

Welche Internetunternehmen sind betroffen?

Betroffen sind alle Unternehmen, die für ihre Nutzer:innen „große Mengen an Werken oder anderen Inhalten“ hosten, fördern und gewinnbringend „organisieren“, mit Ausnahme von kleinen und weniger als drei Jahre alten Unternehmen. Leider weiß bisher niemand so genau, was all das genau bedeuten könnte. Der Verweis auf das „Organisieren“ geht auf einen Fall des Europäischen Gerichtshofs gegen „Pirate Bay“ zurück, sodass es letztendlich an der Auslegung der Gerichte der 27 EU-Mitgliedstaaten liegen wird, zu definieren, was das in Beziehung zu eher traditionellen Dienstleistungen bedeutet. Auch weiß niemand genau, was „große Mengen“ tatsächlich bedeuten könnten. Eines ist jedoch klar: Bei allem politischen Hin und Her geht es nicht nur um Musik und Videos und nicht nur um Google und Facebook.

Was müssen Unternehmen leisten?

Die Plattformen müssen „nach besten Kräften“ versuchen, zukünftige Uploads von Material zu verhindern, das einer „ausreichend begründeten Mitteilung“ von Personen oder Unternehmen unterzogen wurde, die die Rechte an dem Material für sich beanspruchen. Das können Audio, Video, Text, Textbilder, Bilder, Fotos, Choreographien und vieles mehr sein. Die Plattformen müssen den Rechteinhaber:innen auch über die Wirksamkeit der Technologien berichten, die sie zum Erreichen dieses Ziels einsetzen. Die gute Nachricht für diejenigen, die falsche Urheberrechtsansprüche erheben, ist, dass dies weiterhin nicht bestraft wird. Das bedeutet, dass jede:r einen Anspruch auf irgendeinen Inhalt erheben kann, ohne dafür bestraft zu werden. Auch unter dem bestehenden Rechtsrahmen ist es einfach und risikofrei, falsche Behauptungen aufzustellen, sodass Betrüger:innen seit kurzem YouTube-Kanäle mit der Geltendmachung falscher Urheberrechtsansprüche erpressen. Artikel 13 erweitert also die Befugnisse derer, die sich beschweren, tut aber nichts, um sie entsprechend zur Verantwortung zu ziehen.

Welche Arten der Nutzung werden verboten?

In unserer Gesellschaft ist Freiheit die Vorgabe, und Einschränkungen, einschließlich des Urheberrechts, sind die Ausnahme. Deswegen sind Sonderregeln vorgesehen, um übermäßige urheberrechtliche Einschränkungen zu vermeiden. So gibt es beispielsweise im EU-Recht Ausnahmen, sogenannte Schrankenregelungen, für die Nutzung urheberrechtlich geschützter Inhalte im Privaten, für Satire, Bildung usw. Nach Artikel 13 müssten Filter in der Lage sein, diese Ausnahmen zu erkennen. Doch das können sie nicht. Deswegen wird es unmöglich sein, diese entscheidenden Ausnahmen richtig anzuwenden.

Hinzu kommen absurde Gesetze, die bisher fast nie angewandt wurden, aber plötzlich leicht durchzusetzen sein werden. In einigen Ländern der EU ist es eine Urheberrechtsverletzung, Fotos oder Videos von Gemälden, Gebäuden oder Skulpturen zu machen, die sich an öffentlichen Orten befinden. Wenn Sie also zum Beispiel ein Fotograf sind und Ihr Foto ein solches Gebäude beinhaltet, und der Urheber sein Recht geltend machen möchte, dann könnte es sein, dass Ihr Bild nicht hochgeladen wird. (Ebenso verwenden Memes häufig urheberrechtlich geschützte Inhalte, so dass auch sie herausgefiltert werden könnten, wenn Rechteinhaber:innen dies verlangen).

Nach Artikel 13 müssten Filter nicht nur alle „identifizierten“ Gebäude erkennen und blockieren können, sondern gleichzeitig auch die nationalen Urheberrechtsgesetze berücksichtigen. Nach französischem, italienischem und slowenischem Recht, die grundsätzlich die Panoramafreiheit einschränken oder gar nicht zulassen, müssten die Filter das Bild blockieren. Nach österreichischen, britischen und irischen Regeln wäre das Bild online jedoch erlaubt. Wie eine Plattform, die in all diesen Ländern operiert, ihre Filter anwenden soll, lässt sich nur vermuten.

Unabhängig von der eigentlichen Absicht des Gesetzgebers, werden die Plattformen natürlich den einfachsten Weg gehen und all diese Ausnahmen und nationalen Besonderheiten nicht berücksichtigen und einfach alles zu blockieren, was eine Verletzung darstellen könnte. Denn das Blockieren von Inhalten birgt kein rechtliches Risiko, während deren Veröffentlichung ein potentielles Risiko darstellt.

Können Benutzer:innen sich beschweren?

Selbst für die Verfasser:innen des Artikel 13 schien dies alles sehr einseitig, weswegen beschlossen wurde, dem neuen Gesetz eine Art Ausgleich hinzufügen. Daher wird in Artikel 13 auch vorgeschlagen, dass Benutzer:innen, deren Inhalt gelöscht wurde, Zugang zu einem Rechtsbehelfsmechanismus haben sollen. Oder, genauer gesagt, hätten Nutzende damit das Recht auf Wiedergutmachung, wenn die Plattform ihnen gegenüber zugibt, dass ihre Daten auf der Grundlage einer nationalen Umsetzung von Artikel 13, Absatz 1 der Urheberrechtsrichtlinie gelöscht wurden. Wenn die Plattform die Löschung jedoch auf einen Verstoß gegen ihre Nutzungsbedingungen zurückführt, muss der Aufwand gar nicht erst betrieben werden, einen Rechtsbehelfsmechanismus bereitzustellen. Die Richtlinie enthält also einen Rechtsbehelfsmechanismus, der aber in der Praxis wahrscheinlich nicht existieren wird. Das Versprechen, dass Nutzer:innen eine sinnvolle Möglichkeit haben werden, ihre Rechte geltend zu machen, ist deshalb einfach nicht wahr.

Die Konsequenzen

Wem nutzt der Vorschlag zur Urheberrechtsreform?

Welche Plattformen sind nun also potentiell in der Lage, die unvorhersehbaren Anforderungen und unsichtbaren Kosten zur Einhaltung dieser Regeln zu bewältigen? Kleine Plattformen oder Google und Facebook? Welche Rechteinhaber:innen können die richtigen Informationen an jeden relevanten Hosting-Service in jedem relevanten Land übermitteln? Unabhängige Künstler und Kreative oder die größten Rechteinhaber:innen? Ratet mal: Die größten Rechteinhaber:innen und die größten Plattformen sind die einzigen, von denen das erwartet werden kann.

Was heißt das für eine/n unabhängige/n Kreative/n oder Künstler:innen?

Einfach ausgedrückt stehen unabhängigen Kreativen drei Gatekeeper im Weg: die Plattformen, die Verwertungsgesellschaften und die Filtergesellschaften.

Zunächst wird die künstlerische Freiheit und der Verhandlungsspielraum der einzelnen Kreativen eingeschränkt. Die großen Plattformen sind die einzigen, die in diesem rechtlichen Chaos überleben können. So bewegen sich Kreative von der Möglichkeit, ihre Inhalte überall dort weiterzugeben, wo sie wollen, hin zu einer zunehmenden Einschränkung auf wenige Quasi-Monopolanbieter. Diese Plattformen haben das Recht, die Arbeit von Personen zu blockieren, wenn sie das wünschen. Es steht ihnen frei, keine Lizenzvereinbarung abzuschließen und stattdessen den Inhalt zu sperren, wenn sie das wünschen. Es steht ihnen frei, Inhalte aufgrund falscher Angaben zu entfernen, wenn sie das wünschen. Bei den Verhandlungen halten sie die Karten in der Hand. Um mit bestehenden oder neuen Zielgruppen in Kontakt zu treten, werden Kreative und Künstler:innen noch abhängiger von diesen wenigen Plattformen – ganz nach deren Wünschen.

Die einzige Möglichkeit für die Kreativen, sich sinnvoll mit diesem System auseinanderzusetzen, besteht also darin, sich zusammenzuschließen und mit einer Verwertungsgesellschaft, einem zweiten Gatekeeper, zusammenzuarbeiten. Diese Organisationen lizenzieren, identifizieren und berichten im Namen der Kreativen und nehmen dafür einen Teil der Einnahmen. Dies würde vor allem neuen Künstlern schaden, die zu einem Zeitpunkt, da ihre Verhandlungsmacht am niedrigsten ist, Verträge mit Verwertungsgesellschaften aushandeln werden. Wenn sie sich dafür entscheiden, nicht mit einer Verwertungsgesellschaft zusammenzuarbeiten, sind Künstler:innen allein, verhandeln mit Google über Einnahmen, aktualisieren die Sperrdatenbank von Google, um zu verhindern, dass ihre Inhalte hochgeladen werden, bekämpfen falsche Eigentumsansprüche an ihrer Arbeit oder versuchen, ungerechtfertigte Takedowns zu verhindern.

Als ob das nicht schon schlimm genug wäre: Es gibt nur sehr wenige Unternehmen, die die Technologie bereitstellen können, die zur Erfüllung der Verpflichtungen der Richtlinie in Bezug auf das Filtern von Uploads erforderlich ist. Wer Bild, Ton oder einen Videoclip zuerst in die Datenbanken dieser Unternehmen stellt, hat die Kontrolle über zukünftige Verwendungen, Remixe oder Parodien. Daher nehmen die Filterfirmen die Rolle eines Gatekeepers zwischen Künstler:innen und Publikum ein. Das bedeutet, dass immer das Risiko besteht, dass jemand etwas Ähnliches wie Sie getan hat, was verhindert, dass Ihre Inhalte verfügbar werden. Wir sehen das bereits. In einem besonders absurden Beispiel wurden dreißig Sekunden eines neunminütigen Videos eines zu testenden Mikrofons von der ContentID von YouTube als kreative Arbeit eines anderen „identifiziert“ und blockiert.

Durch Artikel 13 bewegen wir uns von einem Internet, in dem Künstler:innen sich mit ihrem Publikum auf eigene Faust verbinden können, in eine Welt, in dem sie ihre Nutzungsrechte gegenüber Verwertungsgesellschaften lizenzieren müssen. Diese lizenzieren die Rechte dann wiederum (oder auch nicht) an wenige US-Online-Plattformen, die in letzter Instanz über die zu Grunde liegenden Lizenzbedingungen entscheiden. Denn wenn keine Einigung zugunsten der Plattformen erzielt wird, entscheiden diese sich einfach für einen Verbot der Inhalte.

Es geht nicht um Urheberrechtsverletzungen, sondern um Kontrolle von Meinungsäußerung.

Es geht hier nicht um Verstöße. In den Entwürfen zu Artikel 13 werden Verstöße praktisch nicht erwähnt. Es geht um „Identifikation“. Es geht darum, Vermittler:innen wie Verwertungsgesellschaften mehr Macht und Kontrolle zu gewähren. Es geht darum, den Online-Unternehmen Verpflichtungen aufzuerlegen, von denen nur die größten mit den entsprechenden Ressourcen diese Verpflichtungen auch bewältigen können. Schaden und Risiken werden auf Einzelne übertragen. Wir werden höchstens ahnen können, was erlaubt ist und was nicht nicht, und wir werden uns selbst zensieren, weil wir wissen, dass wir machtlos sind gegenüber den verantwortlichen Riesenunternehmen.

Zusammenfassend lässt sich sagen, dass schlecht definierte Plattformen, die Angst vor unklaren Haftungsregeln haben, undefinierte Technologien nutzen sollen, um „genug“ (es ist unklar, was genug ist) zu tun, um die Verfügbarkeit von durch die Rechte:inhaberinnen identifizierten Inhalte zu kontrollieren. Diejenigen, die die „Identifikation“ vornehmen, gehen kein rechtliches Risiko ein, da falsche Angaben hier nicht strafbar sind. Die Plattform geht kein rechtliches Risiko ein, wenn sie alles potentiell problematische löscht. Alle Schäden und alle Risiken gehen zu Lasten der Uploader:innen. Viele Unbekannte, sagen Sie? Das sind nur diejenigen, die uns bekannt sind.

 

 

©Artikel: netzpolitik.org, BY-NC-SA 4.0.