Artikel 13 – Notizen zur Debatte

Ein Gastbeitrag von Christian Hasselbring, seit Jahren beruflich in der Digitalwelt tätig und Inhaber von Christian Hasselbring Consulting – vielen Dank für die Genehmigung zur Veröffentlichung dieses Textes. 


Die Diskussion um Artikel 13 der EU Urheberrechtsrichtlinie ist nun ca. drei Jahre alt und kumuliert kurz vor den endgültigen Abstimmung im EU-Parlament und im Rahmen des EU-Wahlkampfs in einem gesellschaftlichen Lagerkampf. Digitalista gegen Gestrige. Frei ihre Meinung äußern Wollende gegen Überwacher. Netzpolitiker gegen Urheber. Neoliberale gegen Piraten. Da wird eskaliert und gepöbelt, geschimpft und mit Schlamm geworfen, getrickst und halbgewahrheitet, aus dem Kontext gerissen und verkürzt. Wie es eben immer läuft, wenn eine gesellschaftlich relevante Änderung in Zeiten von Machtverschiebungen und Wahlen diskutiert wird.

Allein die Auseinandersetzung mit der Kommunikation der verschiedenen Lager in den letzten Wochen, bietet reichlich Stoff für Kommunikationswissenschaftler, Politologen, Linguisten und Soziologen. Damit will ich mich nicht weiter befassen. Mir geht es darum, meine Meinung zu Uploadfiltern, Zensur, Schutz von Urheberrechten vs. Schutz der Meinungsfreiheit auf Basis meines Verständnisses der Sachlage zu sagen.

Welche Quellen ich dafür durchforstet habe, ist in der unten anhängenden Linkliste zu finden. Ich bin kein Jurist, beschäftige mich beruflich seit etwa 22 Jahren mit der digitalen Sphäre, vorher habe ich ungefähr 15 Jahre lang als Musiker mein Geld verdient.

Wer keine Lust auf ein sehr langes Lesestück hat, sollte jetzt weiterclicken. Die Auswahl von „tl;drs“ zu diesem Thema ist groß.

 Nuff said

Das Thema ist im Prinzip zu Ende besprochen. Der Entwurf ist im Trilog zwischen Kommission, Rat und Parlament am 13.02.2019 angenommen worden; hier eine Übersicht der Schritte bis zu diesem Punkt http://www.urheberrecht.org/topic/EU-Urheberrechtsreform/#anchor2 und hier grundsätzlich zum Gesetzgebungsverfahren in der EU http://www.europarl.europa.eu/germany/de/europa-und-europawahlen/ordentliches-gesetzgebungsverfahren

In etwa zwei Wochen findet die endgültige Abstimmung im Europäischen Parlament statt. Man könnte sich also jetzt zurücklehnen und abwarten, was passiert. Das halte ich für falsch. Unabhängig vom Ergebnis der Abstimmung wird es darum gehen weiter zu diskutieren. Über die Ausgestaltung der Richtlinie, wenn sie kommt. Oder über Alternativen zur Richtlinie und wie die Diskussion darüber, nach der EU-Wahl, wieder auf die politische Agenda gehoben werden kann. Was in keinem Fall passieren darf und m.E. auch nicht wird, ist „weiter so wie bisher“.

Es ist eine Richtlinie

Die Diskussion wird häufig auf einem Niveau geführt, das vermuten lässt, wir Diskutanten hätten schon eine konkrete gesetzliche Vorlage vor uns. Nein, die gibt es nicht. Es dauert noch ca. zwei Jahre, bis aus der Richtlinie im jeweiligen demokratischen Prozess der Mitgliedsstaaten nationale Gesetzgebung wird; hier zum Verständnis ein Überblick der verschiedenen Typen von Rechtsakten (Verordnung, Richtlinie, Beschluss) der EU https://europa.eu/european-union/eu-law/legal-acts_de

Weder die Kritiker des Artikels 13, und damit meist der EU-URL in Gänze, noch die Befürworter können also jetzt genau sagen, was tatsächlich das Ergebnis sein wird. Weder in Hinblick auf die gesetzliche Ausformulierung, noch auf die konkrete Anwendung und die Auswirkungen im Markt. Wir bewegen uns also Alle zusammen auf schwammigem Grund und können nur mit Annahmen diskutieren. Das heißt nicht, dass man nicht diskutieren und aufmerksam hinschauen sollte. Es heißt aber, dass viele sehr detaillierte Szenarien und Fragestellungen, wie beispielsweise zur Frage, wie genau das Lizenzierungsverfahren über die Verwertungsgesellschaften laufen kann, noch nicht in jedem Detail zu beantworten sind. Im Falle der Absegnung der Richtlinie hätten aber alle betroffenen Gruppierungen zwei Jahre Zeit um sich inhaltlich, technologisch, wirtschaftlich, juristisch, prozessual auf die neuen Regularien einzustellen und ihr Bestes zu tun, damit möglichst von Anfang an etwas Sinnvolles dabei herauskommt.

Filter sind so alt wie das Netz und nicht zwingend schlecht Die stärkste Kritik an Artikel 13 lässt sich auf den Begriff der „Zensurmaschine“ zusammenfassen. Der Chaos Computer Club hat dies hier https://www.youtube.com/watch?v=X9SVf57ii1w sehr plastisch dargestellt und zieht auch den Bezug zur EU-Anti-Terror-Verordnung. Wie diese wiederum mit dem NetzDG zusammenhängt und, zwar unausgesprochen aber logisch, auch mit der EU-URL, ist hier beschrieben und auf den Punkt gebracht: https://netzpolitik.org/2019/wie-der-brexit-das-internet-veraendert/

In diesem Netzpolitik.org-Artikel, den ich auszugsweise zitiere – und durch Hinzufügen einer Kommentierung m.E. auf der sicheren rechtlichen Seite bin (nach §51 UrhG Zitatrecht https://dejure.org/gesetze/UrhG/51.html) – steht u.a. folgendes: Löschen, was unerwünscht ist So dreht sich der Großteil der Kritik am NetzDG wie an der geplanten EU-Anti-Terror-Verordnung um die immer weiter voranschreitende privatisierte Rechtsdurchsetzung im digitalen Raum. Am demokratischen Rechtsstaat vorbei etabliert sich zunehmend ein paralleles Rechtssystem, das auf privaten, sich ständige wandelnden AGBs, Gemeinschaftsrichtlinien oder sonstigen kommerziell orientierten Regelwerken fußt. Entfernt wird zudem nicht notwendigerweise, was tatsächlich illegal, sondern was auf der jeweiligen Plattform gerade unerwünscht ist. Verkürzt: Löschen, was unerwünscht ist, im Rahmen privatwirtschaftlicher, an Gewinnmaximierung ausgerichteten Regularien weniger weltumspannender Monopolisten, bedroht durch Manipulation des Informationsflusses massiv unsere Gesellschaft. Ja, das stimmt – allerdings ist „unerwünscht“ etwas anderes als „verhindern, dass Plattformen illegal Werke Dritter nutzen“.

Andererseits ist es so, dass eine Gesellschaft und ihre verschiedenen Gruppierungen ein Recht darauf haben, in Bezug auf Abwehr von Terror, Wahrung der Persönlichkeitsrechte, Wahrung des Urheberpersönlichkeitsrechtes / des Urhebervertragsrechtes, Wahrung der Privatsphäre und weiterer Persönlichkeitsrechte, Schutz vor Fake-News und Hate-Speech, Schutz vor gesundheitsbedrohenden Falschinformationen, Schutz vor der Verbreitung von Kinderpornografie, Schutz der persönlichen Daten, … Regeln und Mechanismen zu definieren, die diese jeweiligen Rechte in jedweder Form von Öffentlichkeit, also auch in der digitalen Öffentlichkeit, herstellen und schützen.

Da dies schon immer so war, gibt es seit Anbeginn des Internets alle möglichen Bestrebungen, Inhalte, welchen Formats und welcher Herkunft auch immer, zu filtern. In den Jahren 2004 und 2006 habe ich für die Community von AOL in Deutschland gearbeitet. Unsere Community-Guidelines waren ein dicker Ordner, der von der allgemeinen Netiquette über Umgang mit Werken Dritter über Pornografie bis hin zu Prozessen für das Verhalten bei in der Community angekündigten Selbstmorden ziemlich das gesamte Spektrum menschlichen Verhaltens umschloss. Wir haben damals versucht Software für die Filterung einzusetzen, da die sehr aktive Community das kleine Team von Festangestellten und die mehreren hundert ehrenamtlichen Scouts (der AOL-Name für Content-Moderator aka „Überwacher, Mediator, Filterer“) immer wieder zu überfordern drohte.

Beim Heinrich Bauer Verlag haben wir im Jahr 1998 begonnen Live-Chats mit Künstlern zu machen. Da saßen dann die Scorpions oder Tito and Tarantula bei uns im TvMovie.de-Büro und haben per Chat-Software und Webcam mit ein paar dutzend oder hundert Fans gechattet. Und wir als Redaktionsteam haben diese Chats moderiert; haben also aufgepasst, dass kein beleidigender oder sonst wie unrechtmäßiger Inhalt über den Chat auf die Seite kam.

Bei Welt.de haben wir 2007 ein Produkt namens debatte.welt.de gestartet. Eine Plattform, deren Zweck es war, zu Themen, die wir für debattierwürdig hielten, redaktionell Stellung zu nehmen und dann einen Diskurs mit den Lesern zu führen. Das Produkt wurde zwar als eigenständige Umgebung wieder eingestellt. Aber so wie damals, sind auch jetzt auf Welt.de, in den integrierten Kommentarfunktionen, die Moderatoren der Redaktion aktiv – sie filtern und moderieren. Meiner Ahnung nach setzen sie dafür auch vorfilternde Software ein.

Andere redaktionelle Websites, die diese Moderation auf der eigenen Website oder auf der jeweiligen Facebook-Page nicht durchführen, werden für diese Unterlassung teils massiv kritisiert. Viele Webseiten haben die Kommentarfunktion komplett zu Facebook verlagert und moderieren dort mehr oder weniger intensiv – sie filtern also und einige werden dafür wiederum Social Media Management Tools einsetzen, die Sentiment-Analysen beherrschen, also die hochgeladenen Kommentare automatisch vorfiltern. Auch und gerade Seiten wie Netzpolitik.org, wo polarisierende Themen quasi Kern das Konzeptes sind, haben mit diesen Herausforderungen zu kämpfen https://netzpolitik.org/2012/einfach-mal-die-kommentare-schliesen. Sie diskutieren darüber, wie das Dilemma aus Schutz der Rechte und Meinungsfreiheit zu lösen ist https://netzpolitik.org/2012/kommentarkultur-neu-entwickeln und stellen „Hausregeln“ auf https://netzpolitik.org/kommentare/. Filtern fängt also z.B. damit an, das sofortige, ungefilterte Publizieren von Nutzerkommentaren nur wochentags, während der Arbeitszeiten einer Redaktion zuzulassen.

Google, Facebook & Co. betreiben seit langer Zeit, auch schon vor dem Aufbau von z.B. ContentID, Filtertechnologien und Content Moderations-Teams. Dass diese Teams dann über Outsourcing-Dienstleister wie Cognizant (USA) oder Arvato (DE, FB Moderatorenteams in Essen und Berlin), häufig unter beschissenen Bedingungen, einen schlecht bezahlten und sehr belastenden Job machen müssen, ist ein zwar anderes, aber in diesem Kontext ebenfalls wichtiges Thema: So richtig an sich heran wollen die digitalen Konzerne das Thema “Verantwortung für Inhalte” wohl doch nicht lassen. Diese schwierigen, mit hohem Einsatz von Humanressourcen verbundenen Aufgaben geben sie zwecks Risiko- und Kostenminimierung lieber an Externe.
In diesem Film von Hans Block und Moritz Riesewieck ist der harte Job der Moderatoren eindrücklich mit zu erleiden: https://vimeo.com/ondemand/cleaners.

Dieser aktuelle Artikel von TheVerge https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working-conditions-arizona gibt einen guten Überblick über die Gepflogenheiten von Facebook. Warum sind diese Gepflogenheiten wichtig? Weil sie zeigen, welchen Stellenwert die Plattformen dem Thema Wahrung von gesellschaftlichen Regularien und Rechten, die außerhalb ihr ureigenen Interessen liegen, beimessen. Erst durch den deutlich steigenden gesellschaftlichen und politischen Druck der letzten Jahre sind sie bereit das Mindeste zu tun, um die oben skizzierten Rechte der Gesellschaft auf Wahrung der verschiedenen Rechte umzusetzen.

Alle Plattformen, egal ob YT, FB, Welt, Netzpolitik oder unsere-bilder-seite.de stehen also jetzt und schon immer vor der Herausforderung zu filtern – um Rechte zu schützen. Natürlich sind Googles und Facebooks Ressourcen um ein Vielfaches größer, als die von Welt & Co. Das entbindet aber auch die Kleineren nicht von ihrer Verantwortung für die Filterung.

Alle Plattformen filtern also, weil sie es müssen und weil es gesellschaftlich so gewollt ist. Diese Filtermaßnahmen sind alle keine Zensurmaßnahmen. Es sind Schutzmaßnahmen, die, wenn sie von zentralen Stellen missbraucht würden, um Manipulation zur Zielerreichung der zentralen Stelle zu betreiben, zu Zensur werden könnten. Genauso wie die Uploadfilter Schutzmaßnahmen sind, die missbraucht werden könnten. Sie böten Schutz vor Missbrauch der Werke und damit der Urheberrechte der Werkschaffenden; wer sie wohl wird einsetzen müssen / können / werden folgt später. Es ist theoretisch denkbar, dass all diese Filtertechnologien und Prozesse in einem totalitären Staat gleichgeschaltet oder anders missbraucht werden – wie im totalitären gleichgeschalteten Alles kontrollierenden China oder wie in anderer Form und Intensität bei der engen Zusammenarbeit zwischen Google und den amerikanischen Geheimdiensten und politischen Strukturen. Aber wir leben nicht in solchen Systemen, unserer Sensibilität für diese Themen ist ungleich höher und gerade die aktuelle Diskussion zeigt, dass wir Alles tun werden, um ihr Entstehen zu verhindern. Wir werden sehr genau aufpassen, welche Unternehmen welche Filter wie einsetzen und wenn sich herausstellt, dass sich Google & Co auch in diesem Bereich als datenschutzmissachtende Monopole etablieren und verhalten, müssen und werden wir über alle Wege vom Wettbewerbsrecht bis zum Datenschutzrecht dagegen vorgehen; s. bspw. Kartellamt gegen Facebook – https://www.bundeskartellamt.de/SharedDocs/Meldung/DE/Pressemitteilungen/2017/19_12_2017_Facebook.html

Filtersoftware als Schutzfunktion für die Rechte einer Gruppe von Menschen kann theoretisch immer zu Zensurzwecken missbraucht werden. Sie bedeutet aber nicht den Beginn einer Ära der Zensur des Internets. Entweder leben wir schon lange in dieser Zensur und fügen jetzt nur eine weitere Schicht hinzu oder an dem Begriff und der Dramatisierung stimmt etwas nicht – ich denke, Letzteres trifft zu und über Ersteres sollten wir sehr intensiv nachdenken.

Privatwirtschaftliche Filter ohne gesellschaftliche Kontrolle sind schlecht

Nun geht es also dem Schutz vor Missbrauch für die Rechte einer vergleichsweise kleinen Gruppe von Menschen – den Urhebern, ihren Vereinen (den Verwertungsgesellschaften) und ihrer Verlage. Aber diese Gruppe hat a) das gleiche Recht auf Vertretung von Persönlichkeitsrechten und ist b) wohl allseits unbestritten durch ihre journalistischen, musikalischen, literarischen, künstlerischen, fotografischen, filmischen Werke für unsere Gesellschaft sehr relevant. Ihre Forderungen nach Schutz reihen sich ein in die Forderungen nach Schutz vor Fake-News, Hate-Speech, Kinder-Pornografie, Kommunikation von Terrorgruppen, Impfgegnermarketing, Datenmissbrauch usw. Für alle berechtigten Forderungen unterschiedlicher Gruppierungen oder Menschen nach Schutz ihrer Rechte braucht es Filterung von Inhalten, durch Maschinen und im Zweifel durch Menschen. Und diese Mechanismen bringen, wie jeder Marktmechanismus, Risiken mit sich. Anders ging es nie und anders wird es nie gehen. Wo also liegt das Problem?

Das liegt hier: The contemporary exercise of freedom of opinion and expression owes much of its strength to private industry, which wields enormous power over digital space, acting as a gateway for information and an intermediary for expression.” Ein Zitat aus diesem Artikel zum Thema Meinungs- und Pressefreiheit: https://www.openglobalrights.org/risks-and-responsibilities-of-content-moderation-in-online-platforms/. Sinngemäß geht es darum, dass die Kontrolle über Informationen und alle Formen von Ausdruck im Digitalen bei wenigen privaten Unternehmen liegt. Unternehmen, die sich zwar massiv der Ressourcen der Gesellschaft bedienen, um sich zu bereichern. Die aber gleichzeitig weder keinerlei Transparenz über ihre, die Informationen und digitalen Güter dieser Welt steuernden Mechanismen (u.a. Filter) zulassen, noch ihre marktdominierenden Infrastrukturen und Geschäftsmodelle öffentlicher Kontrolle und Steuerung zugänglich machen. Im Detail ist dies hier, im Bericht des UN-Sonderbeauftragten des Human Rights Councils für „freedom of opinion and expression“ vom 11. Mai 2016, also vor knapp drei Jahren, beschrieben: www.ohchr.org/EN/HRBodies/HRC/RegularSessions/Session32/Documents/A_HRC_32_38_EN.docx

Die aus dem Bericht abgeleiteten Vorschläge treffen den Kern der Sache und bieten im „report to the Human Rights Council on content regulation“ unter „RECOMMENDATIONS TO COMPANIES“ Lösungsansätze: https://www.ohchr.org/EN/Issues/FreedomOpinion/Pages/ContentRegulation.aspx

Hier nur eine Empfehlung herausgehoben: The companies must embark on radically different approaches to transparency at all stages of their operations, from rule-making to implementation and development of “case law” framing the interpretation of private rules. Transparency requires greater engagement with digital rights organizations and other relevant sectors of civil society and avoiding secretive arrangements with States on content standards and implementation. Die Plattformen sollen also mit gesellschaftlichen Organisationen in den Dialog treten, um ihre Standards offenzulegen und allgemeingültige Regeln zur Wahrung der Rechte relevanter gesellschaftlicher Gruppen zu diskutieren; damit sind nach meinem Verständnis auch Urheber gemeint. Zugleich empfiehlt das Human Rights Council unter “RECOMMENDATIONS TO STATES” den Gesetzgebern States and intergovernmental organizations should refrain from establishing laws or arrangements that would require the “proactive” monitoring or filtering of content, which is both inconsistent with the right to privacy and likely to amount to pre-publication censorship”. Die Staaten sollten also möglichst vermeiden, Mechanismen zu etablieren, die Vorabfilterung erzwingen.

Nun sind wir aber in einer Situation, in der die Plattformen ihren Teil nicht tun. Es gibt keine Transparenz, Öffnung, keinen konstruktiven Dialog.

Verantwortung der Plattformen
 
Da sind wir beim springenden Punkt: Artikel 13 ist so gebaut, dass eine Vorabfilterung zwar möglich, aber nicht zwingend ist. Nach dem Motto: Bist Du nicht willig, so brauche ich Gewalt. Wären die Plattformen willig Lizenzen zu erwerben, würden also als Verwerter der Werke Dritter ihrer völlig selbstverständlichen Verantwortung (Pflicht) zur Vergütung dieser Dritten über Lizenzen gerecht, gäbe es keine Notwendigkeit der Filterung, zumindest nicht für proaktive und vollständige Filterung. Da aber alle Beteiligten, Kritiker wie Befürworter von Artikel 13, aufgrund der Erfahrungen mit dem geschäftlichen Gebahren und der bisher nicht erlebten Verantwortungsübernahme der Plattformen eher davon ausgehen, dass diese keine Lizenzen erwerben werden, gibt es die Notbremse der Filterung. Es ist also ein Zeichen der Macht und Arroganz der Plattformen und der bisherigen Ohnmacht von Gesellschaft und Politik, dass nun solche Regularien nötig werden.
 
Artikel 13 zu werten als „Lobbygruppen wollen auf Kosten der Gesellschaft und blind für die Folgen nur ihre monetären Interessen durchsetzen und nehmen dafür wissend in Kauf eine Zensurmaschine zu bauen“ dreht die Verantwortung für die aktuelle Situation der de facto Entrechtung von Urhebern und der Zerstörung ihrer wirtschaftlichen Grundlagen durch die Plattformen auf den Kopf. Genauso wird auf den Kopf gestellt, wer hier ganz grundsätzlich in der Bringschuld ist. Das sind nicht die, die nun mühsam versuchen einen Kompromiss zwischen freiem Wirtschaften und freier Meinungsäußerung auf der einen Seite und Kontrolle der Gesellschaft über zentrale Infrastrukturen auf der anderen Seite herzustellen. Es sind auch nicht die, die vom Geschäftsgebaren der Plattformen nahezu digital enteignet werden. Es sind die, die das Wissen und die Kommunikation dieser Welt in Form von Inhalten, Werken, Daten, Verhalten für ihre Gewinnmaximierung nutzen. Es sind Google, Facebook, Twitter, Pinterest, Insta, WhatsApp … und genauso Amazon und alle weiteren, die Infrastrukturen betreiben, die ganze Märkte schaffen und dominieren ohne dabei die in Marktwirtschaften, die frei und zugleich sozial und demokratieförderlich sein sollen, üblichen Standards an Partizipation in Form von Geld und Einfluss einzuhalten.
 
Anders formuliert: Viele scheinen es als gegeben hinzunehmen, dass die Plattformen nicht zu regulieren sind. Da dies also gesetzt ist, soll sich die Gesellschaft einen Umgang damit suchen, der dennoch alle Anforderungen an freie Meinungsäußerung, fairen Wettbewerb, Wahrung der Urheberrechte und bitte auch den „gewohnten Umgang von Privatpersonen mit den Werken Dritter möglichst rechtssicher“ ermöglicht; also damit bspw. Memes, Parodien usw. weiterhin von Jedem jederzeit auf Basis der Werke anderer für freie Meinungsäußerung und freien Ausdruck genutzt werden können. Es ist aber schlechterdings unmöglich, all diese Anforderungen unter einen Hut zu bringen, wenn sich ein ganz zentraler Spieler auf dem Markt nicht an die Spielregeln des Marktes und der Gesellschaft, in der dieser Markt existiert, hält. Wenn also weiterhin die Plattformen nach ihren eigenen, quasi naturgegebenen Gesetzen agieren dürfen und die Gesellschaft sich regulatorisch drum herum winden muss. Da wird die Verantwortung beim Falschen gesucht. Allerdings ist mit der jetzigen EU-URL inkl. Artikel 13 ein Kompromiss entstanden, der zumindest in die richtige Richtung zeigt.

Einen Schritt weiter ist natürlich die Frage nötig, warum denn Gesellschaft und Politik es so lange haben geschehen lassen und nichts getan haben. Da müssen wir uns selbst als Bürger und Verbraucher genauso an die Nase fassen, wie unsere Politiker; und müssen akzeptieren, dass demokratische Prozesse eben meist sehr viel langsamer sind als technologische; was die Plattformen wiederum wissen und für sich nutzen.

Das Netz nach Umsetzung von Artikel 13

Nun wird versucht, die Plattformen zu Abgaben zu zwingen, die alle Verwerter von Werken Dritter in der analogen Welt, zwar auch oft zähneknirschend, aber in der Regel doch zuverlässig seit Langem abführen; z.B. über die Gema: https://www.gema.de/musiknutzer/tarife-formulare. Vom Club bis zur Hintergrundmusik im Frisörsalon ist hier alles geregelt und die Urheber verdienen mit, wenn wer auch immer zu welchem der mit der GEMA vereinbarten Zwecke auch immer ihre Werke nutzt.

Der in der EU-URL angelegte Zwang, in Form einer Lizenzierungsobliegenheit, und bei Nichteinhaltung der Obliegenheit, der Pflicht zu filtern, führt dazu, dass sich viele Menschen nun Sorgen um freie Meinungsäußerung im Internet, über aufgezwungene Veränderungen in ihrem digitalen Kommunikations- und Nutzungsverhalten und einige auch über ihre wirtschaftlichen Aussichten als Betreiber von Plattformen unter Nutzung der Werke Dritter machen. Eine recht genaue Einschätzung von Markus Hasshold, Musiker und Rechtsanwalt, verschafft etwas mehr Klarheit: https://mofloghard.wordpress.com/2019/02/27/die-eu-urheberrechtsreform-kritik-an-der-kritik/. Aber auch hier gilt: Niemand kann jetzt alle Auswirkungen, Abhängigkeiten und Folgen in jedem Detail vorhersagen. Es ist eine Richtlinie.

Daher kann man nur grob peilen und sich zum Beispiel dieses fragen: Wird die Richtlinie zwingend zur flächendeckenden proaktiven zensurhaften Filterung von allen Inhalten auf allen Plattformen über zentrale, von Google & Co gesteuerte Filter sorgen? Nein, wird sie nicht, selbst wenn die Plattformen die Lizenzierung verweigern. Denn: · In der Richtlinie werden Plattformen angepeilt, deren wesentlicher gewerblicher Zweck das Speichern und Verfügbarmachen von Inhalten Dritter im erheblichen Umfang ist. Hier fallen also alle Websites, Blogs, Service-Angebote, Foren, … raus, die nicht diesen Kriterien entsprechen.

· Plattformen, die jünger als drei Jahre sind oder weniger als 5 Mio. User pro Monat oder international weniger als 10 Mio. € Umsatz pro Jahr generieren sind erstmal nicht betroffen.
· Plattformen, deren wesentlicher gewerblicher Zweck nicht im Speichern und Verfügbarmachen von Inhalten Dritter besteht, sind nicht gemeint. Also bspw. kleine und große journalistische Websites, gewerbliche betriebene Blogs oder Foren usw.
Es gibt also sehr, sehr viele Angebote oder Plattformen, die zeitweilig oder nie unter die hier definierten Regularien fallen. Von vollständiger Zensur oder einer zentralen Zensurmaschine kann schon aus diesem Grund nicht die Rede sein.
· Inhalte, die Werke Dritter parodieren, zitieren, besprechen, karikieren, nachahmen sind grundsätzlich nicht betroffen; also Memes, Parodien, …. Genauso wenig, wie die Links und Zitate in diesem Artikel von Artikel 13 betroffen sind; jedenfalls nach meinem Verständnis und solange sie sich grundsätzlich im Rahmen des Urheberrechts bewegen; s. dazu Markus Hassholds Artikel, auf Seite 7.

Es stehen also sowohl zahlreiche Publikationswege als auch zahlreiche Formate weiterhin offen, über die Jeder jederzeit seine Meinung sagen darf. Eben im Rahmen des Urheberrechts und weiterer Persönlichkeitsrechte https://de.wikipedia.org/wiki/Pers%C3%B6nlichkeitsrecht_(Deutschland)

· Overblocking und permanentes Monitoring werden von der Richtlinie abgelehnt. Sprich: Die Plattformen müssen dafür Sorge tragen, dass eben Parodien, Memes und Co. – solange sie sich im Rahmen der UrhG bewegen – nicht in den Filtern hängenbleiben. „Da überschätzen die Artikel 13-Befürworter massiv die Möglichkeiten der automatischen Filter“, ist dann das Gegenargument. Wenn das so ist und wenn es trotz aller Trainings der betreffenden maschinellen Intelligenz rein algorithmisch nicht zu beheben ist, müssen von den Plattformen die entsprechenden personellen Ressourcen geschaffen werden – oder eben die entsprechenden Lizenzen erworben werden. Auch hier gilt: Das Recht der Urheber auf angemessene Vergütung und auch das Recht von Privatpersonen sich im Rahmen der o.g. Regularien des UrhG der Werke anderer Urheber zu bedienen, um ihre Meinung auszudrücken, steht meines Erachtens den Gewinnerzielungsabsichten privatwirtschaftlicher Unternehmen vor.

· Zudem müssen die Plattformen entsprechende Beschwerdemechanismen für User einführen, die meinen, dass ihr Content zu Unrecht geblockt wurde. Da kommt als Gegenargument: „Wir wissen doch, wie die Plattformen so etwas handhaben. Sie werden die Prozesse so kompliziert bauen, wie jetzt schon die AGB und werden Alles tun, um Beschwerden zu erschweren, wie sie auch jetzt Alles tun, um ihre AGB für Normalsterbliche unverstehbar zu machen“. Sprich: „Da die Plattformen geltendes Recht auf eine Weise umsetzen, die das Verständnis der Rechte und ihre Ausübung für Privatpersonen erschwert bis verunmöglicht, ist das Recht falsch.“ Meiner Meinung nach nicht. Sollte es so kommen, müssen die Plattformen gezwungen werden, diese Prozesse für Privatpersonen verständlich und benutzbar umzusetzen. Da sind wir wieder bei der Frage, ob privatwirtschaftliche Monopole, die zentrale Infrastrukturen betreiben, diese Infrastrukturen nach ihren „Hausregeln“ betreiben dürfen. Meiner Meinung nach ganz klar nein.

· Neben all diesen Einschränkungen stehen dann immer das Prinzip der Angemessenheit und die Mitwirkungspflicht der Urheber bzw. ihrer Treuhänder. Maßnahmen zur Lizenzierung oder Verhinderung / Entfernung von nichtlizenzierten Inhalten müssen angemessen in Bezug auf die Wirtschaftlichkeit des Angebotes sein und die Urheber müssen die Informationen zur Verfügung stellen, die es dem Betreiber ermöglichen mit möglichst geringem Aufwand Löschungen oder Sperrungen durchzuführen.

Es bestünde ja auch die Möglichkeit, wie auch im UN-Papier vorgeschlagen, dass sich vor allem die sehr großen Plattformen in einen tatsächlich offenen und lösungsorientierten Dialog zur Diskussion von Lösungen rund um „Urheberrecht“, „faire Vergütung“, „tatsächlichen Datenschutz“ also „Teilhabe der Gesellschaft an der Gestaltung der zentralen digitalen Infrastrukturen“ und damit „Mitwirkung der Plattformen an einem gedeihlichen Miteinander“ beteiligen. Davon ist in der aktuellen Debatte wenig wahrzunehmen.

Über all dem steht die Möglichkeit, dass die Plattformen Lizenzverträge abschließen oder Pauschalzahlungen leisten. Und sofort kommt das Argument, dass es für die Plattformen (hier meist im weitesten Sinne gemeint, also inkl. kleinerer und kleiner Webangebote) unmöglich sei, mit allen Urhebern der Welt Lizenzen abzuschließen. Es ist absolut möglich diese Lizenzen abzuschließen und Webangebote, die wie oben beschrieben, nicht unter die Bedingungen der Lizenzobliegenheit fallen, brauchen eben keine Lizenzen. Wie Lizenzierung geht, ist hier etwas genauer beschrieben: https://www.facebook.com/notes/christian-hasselbring/artikel-13/2290681984309327/ Auch hier gilt: Noch sind nicht alle Details der neuen Lizenzmodelle und -prozesse geklärt, aber die Verwertungsgesellschaften werden dies in den nächsten zwei Jahren tun, dürfen Niemandem eine Lizenz verweigern und stehen Allen, die als Urheber ihre Rechte von den VGs vertreten lassen wollen unter bestimmten Bedingungen offen. Die Lizenzierungsseite wird also Alles tun bzw. tut es in Teilen schon jetzt, um es den Plattformen als Verwertern zu erleichtern die Notwendigkeit von Filtern zu reduzieren und ihre Abgaben für die gewerbliche Nutzung der Werke Dritter zu entrichten. Daran wird es wohl aller Voraussicht nach nicht scheitern.

Sofort höre ich „aber das werden die Plattformen ja nicht machen, sie werden ja nichts von ihrem Umsatz an die Urheber bzw. an die VGs abgeben. Das schmälerte ja ihren Gewinn und damit ihren Börsenwert und damit ihr oberstes Ziel, den Shareholdervalue!“. So wird es wohl kommen können. Dann verschwinden einige bis sehr viele Werke aus dem frei zugänglichen, weil werbefinanzierten Bereich von YouTube und Einiges wird in bezahlpflichtigen Angeboten, wie z.B. YouTube Music Premium oder Spotify wieder auftauchen. Allerdings müssen auch diese Dienste Lizenzen zahlen – an die Verwertungsgesellschaften oder direkt an große Verlage /Labels. Dann müssen auch die Nutzer zahlen – oder alle paar Minuten Werbung ertragen. In jedem Fall muss die Plattform, die einen Streaming-Service betreibt, für die Lizenzen zahlen; das ist schon heute so und hat nach meinem Verständnis mit Artikel 13 nichts zu tun. Mal davon abgesehen, dass es nicht schlimm, sondern völlig normal ist für Musik oder Artikel oder Videos oder Bilder zu zahlen.
 
In der Folge lese ich dann häufig „es geht nur darum, mit diesem Modell die bestehenden Strukturen von VGs und Verlagen / Labels zu schützen, das ist profitorientierte Lobbyarbeit par exellence!“. Da dieses bestehende Modell, trotz seiner internen Schwächen und ständigen Streits zwischen den verschiedenen Parteien seit Jahrzehnten im Prinzip gut funktioniert – u.a. weil sich die VGs als treuhänderische Vereine um die Eintreibung von Lizenzen in allen erdenklichen Nutzungsszenarien kümmern – finde ich es absolut nicht falsch, dass diese gesellschaftlichen Gruppierungen ihr Recht auf Schutz beim Gesetzgeber vertreten. Und die Verwerter ggf. dazu zwingen, entweder zu zahlen oder die Inhalte zu entfernen – um in der Folge wiederum für eine gesellschaftliche akzeptable Überwachung von „notice and take / stay down“ zu sorgen.
 
Auch bspw. voll digitalisierte, junge Musiker, quasi Digital Native Musicians, die mit so alten Strukturen (wo es um Tanzmusik und Bemessungsgrundlagen geht und nicht um EDM und RevShares) an sich nichts anfangen können und voll auf die vertriebliche Power neuer digitaler Labels über Spotify & Co setzen, sollten sich dies gut überlegen. Denn diese Labels sorgen zwar für ihren Vertrieb über die Streamingdienste, sie sorgen aber nicht, wie die GEMA es tut, für die Eintreibung von Lizenzen in allen Musiknutzungssektoren. Sprich, von den GEMA-Gebühren, die ein Handwerksbetrieb, Busunternehmen, Club, Restaurant, … abführen muss, weil Hintergrundmusik über Spotify gestreamed wird, bekommen diese Künstler im Zweifel nichts ab; es sein denn sie oder ihr Label haben einen Vertrag mit der GEMA.
 
So wirklich schlimm ist es also nicht, was die GEMA treibt; ebenso sieht es bei den anderen VGs aus und auch Verlage oder Labels sind nicht per se veraltete, unnötige oder gar böse Strukturen.

Die Filtergefahr

Nehmen wir an, dass es gar nicht anders kommen kann, als dass ein Großteil der Inhalte auf wenigen großen Plattformen immer beim Upload gefiltert werden müssten, auch wenn der Zwang dazu wie gesagt laut EU-URL und Artikel 13 nicht besteht. Nehmen wir weiter an, dass es nur diesen Plattformen – also denen, die uns diese Situation erst beschert haben – möglich ist, Filter und Personal vorzuhalten, um die gigantischen Mengen an minütlich hochgeladenen Inhalten zu filtern und dabei dann weitere Daten der Nutzer zu aggregieren. Nehmen wir weiter an, dass dies nur mit der Technologie von Google möglich wäre – was meines Wissens nicht so ist, denn heute wird auch schon bei privaten Radiosendern und bald bei öffentlich rechtlichen entsprechende Technologie zur Erkennung der Werke und Steuerung der Ausschüttung eingesetzt, aber für’s Modell ist das jetzt egal. Dann entstünde also ein zentraler Filter, der aus einem anderen Rechtsraum, einem mit deutlich niedrigeren Datenschutzstandards, dicht an den amerikanischen Geheimdiensten und vor allem eben zentral und privatwirtschaftlich gesteuert wäre. Dann hätten wir das Horrorszenario eines Monopols außerhalb unseres Rechtssystems und direkten Zugriffs und in privatwirtschaftlicher Hand. Ein Monopol, das vergleichsweise willkürlich von Google selbst oder politischen Institutionen manipuliert werden kann. Interessanterweise haben wir das schon lange. Google definiert auf zahllosen Wegen welcher Inhalt wichtig ist und welcher nicht, was wir im Suchergebnis sehen und was nicht (je nach den Setting, dem Status, der Historie der Daten über einen User), welche Werbung wir ausgespielt bekommen, welche Route uns in Google Maps vorgeschlagen wird, welche eMails in GMail auf Wiedervorlage gelegt werden, was Spam ist und was nicht, welche Daten von Android an welche Dritten weitergegeben werden, welche Inhalte auf YouTube gezeigt werden dürfen und welche aus unterschiedlichen Hausregelgründen nicht usw. … Wir leben schon lange im Digitalen und zunehmend über Android-Smartphones, Google-Home, bald sicherlich die nächste Version von Google Glas, Software selbstfahrender Autos … auch im Analogen innerhalb dieser Filter, innerhalb der Hausregeln und des Sensoren- und Filternetzes von Google. Warum ist also jetzt die Aufregung so groß?

Ist es vielleicht die Angst, nicht weiter alle Werke der Urheber der Welt for free nutzen zu können und dafür nur mit “Werbung ertragen” und “Daten hergeben” bezahlen zu müssen? Ist es die liebgewonnene Gewohnheit, für alle Inhalte nichts zu bezahlen, außer mit dem Preis, den man nicht spürt – der Privatsphäre? Ist es ein kollektives Vergessen, dass Inhalte und die Arbeit dahinter einen Wert haben? Ist es ein kollektives Wegschauen, vor dem was schon lange Realität ist? Dass Google & Co in jedem Lebensbereich überwachen und filtern, und zwar einzig nach den Maßgaben der Gewinnmaximierung, hübsch verpackt in Freedom of Speech und Unabhängigkeit von staatlichen Stellen – was für eine Farce.

Wenn also der oben beschriebene Fall eintreten sollte, dass nur Google in der Lage ist den Uploadfilter anzubieten, der die Regularien der EU-URL umsetzen kann, dann ist das die Konsequenz aus jahrelanger Monopolisierung von Wissen und finanzieller Macht in unregulierter Form, innerhalb eines Unternehmens. Dagegen wehren sich die Urheber, ihre Verwertungs-Treuhänder und ihre Verlage zurecht. Und dagegen sollten wir uns gesamt gesellschaftlich wehren. Auf allen Ebenen und mit allen Mitteln. Aber sehr sicher führt Artikel 13, wie oben beschrieben, nicht zu einer Zensurmaschine – die EU-URL lässt genug Spielraum für andere Formen der Vergütung, andere Kommunikationsformen und Angebote. Die EU-URL stellt insgesamt* eine sehr simple Anforderung: Zahlt für Inhalt, wenn ihr damit Geld verdienen wollt. Wenn ihr nicht zahlen wollt, löscht die Inhalte und sorgt für nachhaltige Löschung – ohne dass damit ein neues Überwachungsmonopol entsteht. Warum sollte der Gesetzgeber Google & Co noch mehr entgegen kommen?

*Artikel 11 nehme ich hier aus. Der ist funktionslogisch falsch und gehört hier nicht hinein. Aber deswegen die EU-URL kippen? Nein.

Linkliste

https://juliareda.eu/wp-content/uploads/2019/02/Copyright_Final_compromise.pdf https://juliareda.eu/2019/02/artikel-13-endgueltig
alle weiteren Texte auf juliareda.eu zu dem Thema

https://www.impalamusic.org/sites/default/files/pictures/attachedfiles/Recording Artists calling for a Solution to the Value Gap – 18 July 2016.pdf
 
…und viele weitere, deren URLs ich nicht gespeichert habe.
 
Hinweis in eigener Sache: Bitte bleiben Sie sachlich und themenbezogen! Die Kommentare zu diesem Beitrag werden moderiert; persönliche Diffamierungen, justiziable Behauptungen und sachfremde Auslassungen werden nicht freigeschaltet. 

This Post Has 2 Comments

  1. „Plattformen, die jünger als drei Jahre sind oder weniger als 5 Mio. User pro Monat oder international weniger als 10 Mio. € Umsatz pro Jahr generieren[,] sind erstmal nicht betroffen.“

    Das Problem ist, dass das nicht stimmt. Statt „jünger als […] oder weniger als[…]“ verlang der Richtlinientext „jünger als […] und weniger als […]“. Das führt dazu, dass sich die Anzahl der Plattformen, die sich auf diese Bestimmung berufen können, erheblich niedriger ausfallen dürfte als bei einer Oder-Regelung.

    1. Dazu diese zwei Hinweise:

      Erwägungsgrund 37a (alte Reihenfolge): The definition of an online content sharing service under this Directive should target only online services which play an important role on the online content market by competing with other online content services, such as online audio and video streaming services, for the same audiences.
      Man muss „online content service“ (also content Dienste die Inhalte selbst einstellen und verbreiten) als Gegenbegriff zu „online content sharing service provider“ (also den von Art. 13 erfassten Plattformen bei denen die Inhalte von Usern eingestellt werden) sehen.
      Zusammen mit den anderen Argumenten wird deutlich, dass z.B. das klassische Forum nicht vom Anwendungsbereich erfasst ist.

      In der neuen Numerierung der Richtlinie ist Erwägungsgrund 62 ausschlaggebend, nachzulesen im PDF –> https://www.europarl.europa.eu/doceo/document/A-8-2018-0245-AM-271-271_DE.pdf

Schreibe einen Kommentar