Ein Gastbeitrag von Christian Hasselbring, seit Jahren beruflich in der Digitalwelt tätig und Inhaber von Christian Hasselbring Consulting – vielen Dank für die Genehmigung zur Veröffentlichung dieses Textes.
Die Diskussion um Artikel 13 der EU Urheberrechtsrichtlinie ist nun ca. drei Jahre alt und kumuliert kurz vor den endgültigen Abstimmung im EU-Parlament und im Rahmen des EU-Wahlkampfs in einem gesellschaftlichen Lagerkampf. Digitalista gegen Gestrige. Frei ihre Meinung äußern Wollende gegen Überwacher. Netzpolitiker gegen Urheber. Neoliberale gegen Piraten. Da wird eskaliert und gepöbelt, geschimpft und mit Schlamm geworfen, getrickst und halbgewahrheitet, aus dem Kontext gerissen und verkürzt. Wie es eben immer läuft, wenn eine gesellschaftlich relevante Änderung in Zeiten von Machtverschiebungen und Wahlen diskutiert wird.
Allein die Auseinandersetzung mit der Kommunikation der verschiedenen Lager in den letzten Wochen, bietet reichlich Stoff für Kommunikationswissenschaftler, Politologen, Linguisten und Soziologen. Damit will ich mich nicht weiter befassen. Mir geht es darum, meine Meinung zu Uploadfiltern, Zensur, Schutz von Urheberrechten vs. Schutz der Meinungsfreiheit auf Basis meines Verständnisses der Sachlage zu sagen.
Welche Quellen ich dafür durchforstet habe, ist in der unten anhängenden Linkliste zu finden. Ich bin kein Jurist, beschäftige mich beruflich seit etwa 22 Jahren mit der digitalen Sphäre, vorher habe ich ungefähr 15 Jahre lang als Musiker mein Geld verdient.
Wer keine Lust auf ein sehr langes Lesestück hat, sollte jetzt weiterclicken. Die Auswahl von „tl;drs“ zu diesem Thema ist groß.
Nuff said
Das Thema ist im Prinzip zu Ende besprochen. Der Entwurf ist im Trilog zwischen Kommission, Rat und Parlament am 13.02.2019 angenommen worden; hier eine Übersicht der Schritte bis zu diesem Punkt http://www.urheberrecht.org/topic/EU-Urheberrechtsreform/#anchor2 und hier grundsätzlich zum Gesetzgebungsverfahren in der EU http://www.europarl.europa.eu/germany/de/europa-und-europawahlen/ordentliches-gesetzgebungsverfahren
In etwa zwei Wochen findet die endgültige Abstimmung im Europäischen Parlament statt. Man könnte sich also jetzt zurücklehnen und abwarten, was passiert. Das halte ich für falsch. Unabhängig vom Ergebnis der Abstimmung wird es darum gehen weiter zu diskutieren. Über die Ausgestaltung der Richtlinie, wenn sie kommt. Oder über Alternativen zur Richtlinie und wie die Diskussion darüber, nach der EU-Wahl, wieder auf die politische Agenda gehoben werden kann. Was in keinem Fall passieren darf und m.E. auch nicht wird, ist „weiter so wie bisher“.
Es ist eine Richtlinie
Die Diskussion wird häufig auf einem Niveau geführt, das vermuten lässt, wir Diskutanten hätten schon eine konkrete gesetzliche Vorlage vor uns. Nein, die gibt es nicht. Es dauert noch ca. zwei Jahre, bis aus der Richtlinie im jeweiligen demokratischen Prozess der Mitgliedsstaaten nationale Gesetzgebung wird; hier zum Verständnis ein Überblick der verschiedenen Typen von Rechtsakten (Verordnung, Richtlinie, Beschluss) der EU https://europa.eu/european-union/eu-law/legal-acts_de
Weder die Kritiker des Artikels 13, und damit meist der EU-URL in Gänze, noch die Befürworter können also jetzt genau sagen, was tatsächlich das Ergebnis sein wird. Weder in Hinblick auf die gesetzliche Ausformulierung, noch auf die konkrete Anwendung und die Auswirkungen im Markt. Wir bewegen uns also Alle zusammen auf schwammigem Grund und können nur mit Annahmen diskutieren. Das heißt nicht, dass man nicht diskutieren und aufmerksam hinschauen sollte. Es heißt aber, dass viele sehr detaillierte Szenarien und Fragestellungen, wie beispielsweise zur Frage, wie genau das Lizenzierungsverfahren über die Verwertungsgesellschaften laufen kann, noch nicht in jedem Detail zu beantworten sind. Im Falle der Absegnung der Richtlinie hätten aber alle betroffenen Gruppierungen zwei Jahre Zeit um sich inhaltlich, technologisch, wirtschaftlich, juristisch, prozessual auf die neuen Regularien einzustellen und ihr Bestes zu tun, damit möglichst von Anfang an etwas Sinnvolles dabei herauskommt.
Filter sind so alt wie das Netz und nicht zwingend schlecht Die stärkste Kritik an Artikel 13 lässt sich auf den Begriff der „Zensurmaschine“ zusammenfassen. Der Chaos Computer Club hat dies hier https://www.youtube.com/watch?v=X9SVf57ii1w sehr plastisch dargestellt und zieht auch den Bezug zur EU-Anti-Terror-Verordnung. Wie diese wiederum mit dem NetzDG zusammenhängt und, zwar unausgesprochen aber logisch, auch mit der EU-URL, ist hier beschrieben und auf den Punkt gebracht: https://netzpolitik.org/2019/wie-der-brexit-das-internet-veraendert/
In diesem Netzpolitik.org-Artikel, den ich auszugsweise zitiere – und durch Hinzufügen einer Kommentierung m.E. auf der sicheren rechtlichen Seite bin (nach §51 UrhG Zitatrecht https://dejure.org/gesetze/UrhG/51.html) – steht u.a. folgendes: „Löschen, was unerwünscht ist So dreht sich der Großteil der Kritik am NetzDG wie an der geplanten EU-Anti-Terror-Verordnung um die immer weiter voranschreitende privatisierte Rechtsdurchsetzung im digitalen Raum. Am demokratischen Rechtsstaat vorbei etabliert sich zunehmend ein paralleles Rechtssystem, das auf privaten, sich ständige wandelnden AGBs, Gemeinschaftsrichtlinien oder sonstigen kommerziell orientierten Regelwerken fußt. Entfernt wird zudem nicht notwendigerweise, was tatsächlich illegal, sondern was auf der jeweiligen Plattform gerade unerwünscht ist. Verkürzt: Löschen, was unerwünscht ist, im Rahmen privatwirtschaftlicher, an Gewinnmaximierung ausgerichteten Regularien weniger weltumspannender Monopolisten, bedroht durch Manipulation des Informationsflusses massiv unsere Gesellschaft. Ja, das stimmt – allerdings ist „unerwünscht“ etwas anderes als „verhindern, dass Plattformen illegal Werke Dritter nutzen“.
Andererseits ist es so, dass eine Gesellschaft und ihre verschiedenen Gruppierungen ein Recht darauf haben, in Bezug auf Abwehr von Terror, Wahrung der Persönlichkeitsrechte, Wahrung des Urheberpersönlichkeitsrechtes / des Urhebervertragsrechtes, Wahrung der Privatsphäre und weiterer Persönlichkeitsrechte, Schutz vor Fake-News und Hate-Speech, Schutz vor gesundheitsbedrohenden Falschinformationen, Schutz vor der Verbreitung von Kinderpornografie, Schutz der persönlichen Daten, … Regeln und Mechanismen zu definieren, die diese jeweiligen Rechte in jedweder Form von Öffentlichkeit, also auch in der digitalen Öffentlichkeit, herstellen und schützen.
Da dies schon immer so war, gibt es seit Anbeginn des Internets alle möglichen Bestrebungen, Inhalte, welchen Formats und welcher Herkunft auch immer, zu filtern. In den Jahren 2004 und 2006 habe ich für die Community von AOL in Deutschland gearbeitet. Unsere Community-Guidelines waren ein dicker Ordner, der von der allgemeinen Netiquette über Umgang mit Werken Dritter über Pornografie bis hin zu Prozessen für das Verhalten bei in der Community angekündigten Selbstmorden ziemlich das gesamte Spektrum menschlichen Verhaltens umschloss. Wir haben damals versucht Software für die Filterung einzusetzen, da die sehr aktive Community das kleine Team von Festangestellten und die mehreren hundert ehrenamtlichen Scouts (der AOL-Name für Content-Moderator aka „Überwacher, Mediator, Filterer“) immer wieder zu überfordern drohte.
Beim Heinrich Bauer Verlag haben wir im Jahr 1998 begonnen Live-Chats mit Künstlern zu machen. Da saßen dann die Scorpions oder Tito and Tarantula bei uns im TvMovie.de-Büro und haben per Chat-Software und Webcam mit ein paar dutzend oder hundert Fans gechattet. Und wir als Redaktionsteam haben diese Chats moderiert; haben also aufgepasst, dass kein beleidigender oder sonst wie unrechtmäßiger Inhalt über den Chat auf die Seite kam.
Bei Welt.de haben wir 2007 ein Produkt namens debatte.welt.de gestartet. Eine Plattform, deren Zweck es war, zu Themen, die wir für debattierwürdig hielten, redaktionell Stellung zu nehmen und dann einen Diskurs mit den Lesern zu führen. Das Produkt wurde zwar als eigenständige Umgebung wieder eingestellt. Aber so wie damals, sind auch jetzt auf Welt.de, in den integrierten Kommentarfunktionen, die Moderatoren der Redaktion aktiv – sie filtern und moderieren. Meiner Ahnung nach setzen sie dafür auch vorfilternde Software ein.
Andere redaktionelle Websites, die diese Moderation auf der eigenen Website oder auf der jeweiligen Facebook-Page nicht durchführen, werden für diese Unterlassung teils massiv kritisiert. Viele Webseiten haben die Kommentarfunktion komplett zu Facebook verlagert und moderieren dort mehr oder weniger intensiv – sie filtern also und einige werden dafür wiederum Social Media Management Tools einsetzen, die Sentiment-Analysen beherrschen, also die hochgeladenen Kommentare automatisch vorfiltern. Auch und gerade Seiten wie Netzpolitik.org, wo polarisierende Themen quasi Kern das Konzeptes sind, haben mit diesen Herausforderungen zu kämpfen https://netzpolitik.org/2012/einfach-mal-die-kommentare-schliesen. Sie diskutieren darüber, wie das Dilemma aus Schutz der Rechte und Meinungsfreiheit zu lösen ist https://netzpolitik.org/2012/kommentarkultur-neu-entwickeln und stellen „Hausregeln“ auf https://netzpolitik.org/kommentare/. Filtern fängt also z.B. damit an, das sofortige, ungefilterte Publizieren von Nutzerkommentaren nur wochentags, während der Arbeitszeiten einer Redaktion zuzulassen.
Google, Facebook & Co. betreiben seit langer Zeit, auch schon vor dem Aufbau von z.B. ContentID, Filtertechnologien und Content Moderations-Teams. Dass diese Teams dann über Outsourcing-Dienstleister wie Cognizant (USA) oder Arvato (DE, FB Moderatorenteams in Essen und Berlin), häufig unter beschissenen Bedingungen, einen schlecht bezahlten und sehr belastenden Job machen müssen, ist ein zwar anderes, aber in diesem Kontext ebenfalls wichtiges Thema: So richtig an sich heran wollen die digitalen Konzerne das Thema “Verantwortung für Inhalte” wohl doch nicht lassen. Diese schwierigen, mit hohem Einsatz von Humanressourcen verbundenen Aufgaben geben sie zwecks Risiko- und Kostenminimierung lieber an Externe.
In diesem Film von Hans Block und Moritz Riesewieck ist der harte Job der Moderatoren eindrücklich mit zu erleiden: https://vimeo.com/ondemand/cleaners.
Dieser aktuelle Artikel von TheVerge https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working-conditions-arizona gibt einen guten Überblick über die Gepflogenheiten von Facebook. Warum sind diese Gepflogenheiten wichtig? Weil sie zeigen, welchen Stellenwert die Plattformen dem Thema Wahrung von gesellschaftlichen Regularien und Rechten, die außerhalb ihr ureigenen Interessen liegen, beimessen. Erst durch den deutlich steigenden gesellschaftlichen und politischen Druck der letzten Jahre sind sie bereit das Mindeste zu tun, um die oben skizzierten Rechte der Gesellschaft auf Wahrung der verschiedenen Rechte umzusetzen.
Alle Plattformen, egal ob YT, FB, Welt, Netzpolitik oder unsere-bilder-seite.de stehen also jetzt und schon immer vor der Herausforderung zu filtern – um Rechte zu schützen. Natürlich sind Googles und Facebooks Ressourcen um ein Vielfaches größer, als die von Welt & Co. Das entbindet aber auch die Kleineren nicht von ihrer Verantwortung für die Filterung.
Alle Plattformen filtern also, weil sie es müssen und weil es gesellschaftlich so gewollt ist. Diese Filtermaßnahmen sind alle keine Zensurmaßnahmen. Es sind Schutzmaßnahmen, die, wenn sie von zentralen Stellen missbraucht würden, um Manipulation zur Zielerreichung der zentralen Stelle zu betreiben, zu Zensur werden könnten. Genauso wie die Uploadfilter Schutzmaßnahmen sind, die missbraucht werden könnten. Sie böten Schutz vor Missbrauch der Werke und damit der Urheberrechte der Werkschaffenden; wer sie wohl wird einsetzen müssen / können / werden folgt später. Es ist theoretisch denkbar, dass all diese Filtertechnologien und Prozesse in einem totalitären Staat gleichgeschaltet oder anders missbraucht werden – wie im totalitären gleichgeschalteten Alles kontrollierenden China oder wie in anderer Form und Intensität bei der engen Zusammenarbeit zwischen Google und den amerikanischen Geheimdiensten und politischen Strukturen. Aber wir leben nicht in solchen Systemen, unserer Sensibilität für diese Themen ist ungleich höher und gerade die aktuelle Diskussion zeigt, dass wir Alles tun werden, um ihr Entstehen zu verhindern. Wir werden sehr genau aufpassen, welche Unternehmen welche Filter wie einsetzen und wenn sich herausstellt, dass sich Google & Co auch in diesem Bereich als datenschutzmissachtende Monopole etablieren und verhalten, müssen und werden wir über alle Wege vom Wettbewerbsrecht bis zum Datenschutzrecht dagegen vorgehen; s. bspw. Kartellamt gegen Facebook – https://www.bundeskartellamt.de/SharedDocs/Meldung/DE/Pressemitteilungen/2017/19_12_2017_Facebook.html
Filtersoftware als Schutzfunktion für die Rechte einer Gruppe von Menschen kann theoretisch immer zu Zensurzwecken missbraucht werden. Sie bedeutet aber nicht den Beginn einer Ära der Zensur des Internets. Entweder leben wir schon lange in dieser Zensur und fügen jetzt nur eine weitere Schicht hinzu oder an dem Begriff und der Dramatisierung stimmt etwas nicht – ich denke, Letzteres trifft zu und über Ersteres sollten wir sehr intensiv nachdenken.
Privatwirtschaftliche Filter ohne gesellschaftliche Kontrolle sind schlecht
Nun geht es also dem Schutz vor Missbrauch für die Rechte einer vergleichsweise kleinen Gruppe von Menschen – den Urhebern, ihren Vereinen (den Verwertungsgesellschaften) und ihrer Verlage. Aber diese Gruppe hat a) das gleiche Recht auf Vertretung von Persönlichkeitsrechten und ist b) wohl allseits unbestritten durch ihre journalistischen, musikalischen, literarischen, künstlerischen, fotografischen, filmischen Werke für unsere Gesellschaft sehr relevant. Ihre Forderungen nach Schutz reihen sich ein in die Forderungen nach Schutz vor Fake-News, Hate-Speech, Kinder-Pornografie, Kommunikation von Terrorgruppen, Impfgegnermarketing, Datenmissbrauch usw. Für alle berechtigten Forderungen unterschiedlicher Gruppierungen oder Menschen nach Schutz ihrer Rechte braucht es Filterung von Inhalten, durch Maschinen und im Zweifel durch Menschen. Und diese Mechanismen bringen, wie jeder Marktmechanismus, Risiken mit sich. Anders ging es nie und anders wird es nie gehen. Wo also liegt das Problem?
Das liegt hier: „The contemporary exercise of freedom of opinion and expression owes much of its strength to private industry, which wields enormous power over digital space, acting as a gateway for information and an intermediary for expression.” Ein Zitat aus diesem Artikel zum Thema Meinungs- und Pressefreiheit: https://www.openglobalrights.org/risks-and-responsibilities-of-content-moderation-in-online-platforms/. Sinngemäß geht es darum, dass die Kontrolle über Informationen und alle Formen von Ausdruck im Digitalen bei wenigen privaten Unternehmen liegt. Unternehmen, die sich zwar massiv der Ressourcen der Gesellschaft bedienen, um sich zu bereichern. Die aber gleichzeitig weder keinerlei Transparenz über ihre, die Informationen und digitalen Güter dieser Welt steuernden Mechanismen (u.a. Filter) zulassen, noch ihre marktdominierenden Infrastrukturen und Geschäftsmodelle öffentlicher Kontrolle und Steuerung zugänglich machen. Im Detail ist dies hier, im Bericht des UN-Sonderbeauftragten des Human Rights Councils für „freedom of opinion and expression“ vom 11. Mai 2016, also vor knapp drei Jahren, beschrieben: www.ohchr.org/EN/HRBodies/HRC/RegularSessions/Session32/Documents/A_HRC_32_38_EN.docx
Die aus dem Bericht abgeleiteten Vorschläge treffen den Kern der Sache und bieten im „report to the Human Rights Council on content regulation“ unter „RECOMMENDATIONS TO COMPANIES“ Lösungsansätze: https://www.ohchr.org/EN/Issues/FreedomOpinion/Pages/ContentRegulation.aspx
Hier nur eine Empfehlung herausgehoben: “The companies must embark on radically different approaches to transparency at all stages of their operations, from rule-making to implementation and development of “case law” framing the interpretation of private rules. Transparency requires greater engagement with digital rights organizations and other relevant sectors of civil society and avoiding secretive arrangements with States on content standards and implementation.” Die Plattformen sollen also mit gesellschaftlichen Organisationen in den Dialog treten, um ihre Standards offenzulegen und allgemeingültige Regeln zur Wahrung der Rechte relevanter gesellschaftlicher Gruppen zu diskutieren; damit sind nach meinem Verständnis auch Urheber gemeint. Zugleich empfiehlt das Human Rights Council unter “RECOMMENDATIONS TO STATES” den Gesetzgebern “States and intergovernmental organizations should refrain from establishing laws or arrangements that would require the “proactive” monitoring or filtering of content, which is both inconsistent with the right to privacy and likely to amount to pre-publication censorship”. Die Staaten sollten also möglichst vermeiden, Mechanismen zu etablieren, die Vorabfilterung erzwingen.
Nun sind wir aber in einer Situation, in der die Plattformen ihren Teil nicht tun. Es gibt keine Transparenz, Öffnung, keinen konstruktiven Dialog.
Einen Schritt weiter ist natürlich die Frage nötig, warum denn Gesellschaft und Politik es so lange haben geschehen lassen und nichts getan haben. Da müssen wir uns selbst als Bürger und Verbraucher genauso an die Nase fassen, wie unsere Politiker; und müssen akzeptieren, dass demokratische Prozesse eben meist sehr viel langsamer sind als technologische; was die Plattformen wiederum wissen und für sich nutzen.
Das Netz nach Umsetzung von Artikel 13
Nun wird versucht, die Plattformen zu Abgaben zu zwingen, die alle Verwerter von Werken Dritter in der analogen Welt, zwar auch oft zähneknirschend, aber in der Regel doch zuverlässig seit Langem abführen; z.B. über die Gema: https://www.gema.de/musiknutzer/tarife-formulare. Vom Club bis zur Hintergrundmusik im Frisörsalon ist hier alles geregelt und die Urheber verdienen mit, wenn wer auch immer zu welchem der mit der GEMA vereinbarten Zwecke auch immer ihre Werke nutzt.
Der in der EU-URL angelegte Zwang, in Form einer Lizenzierungsobliegenheit, und bei Nichteinhaltung der Obliegenheit, der Pflicht zu filtern, führt dazu, dass sich viele Menschen nun Sorgen um freie Meinungsäußerung im Internet, über aufgezwungene Veränderungen in ihrem digitalen Kommunikations- und Nutzungsverhalten und einige auch über ihre wirtschaftlichen Aussichten als Betreiber von Plattformen unter Nutzung der Werke Dritter machen. Eine recht genaue Einschätzung von Markus Hasshold, Musiker und Rechtsanwalt, verschafft etwas mehr Klarheit: https://mofloghard.wordpress.com/2019/02/27/die-eu-urheberrechtsreform-kritik-an-der-kritik/. Aber auch hier gilt: Niemand kann jetzt alle Auswirkungen, Abhängigkeiten und Folgen in jedem Detail vorhersagen. Es ist eine Richtlinie.
Daher kann man nur grob peilen und sich zum Beispiel dieses fragen: Wird die Richtlinie zwingend zur flächendeckenden proaktiven zensurhaften Filterung von allen Inhalten auf allen Plattformen über zentrale, von Google & Co gesteuerte Filter sorgen? Nein, wird sie nicht, selbst wenn die Plattformen die Lizenzierung verweigern. Denn: · In der Richtlinie werden Plattformen angepeilt, deren wesentlicher gewerblicher Zweck das Speichern und Verfügbarmachen von Inhalten Dritter im erheblichen Umfang ist. Hier fallen also alle Websites, Blogs, Service-Angebote, Foren, … raus, die nicht diesen Kriterien entsprechen.
· Plattformen, deren wesentlicher gewerblicher Zweck nicht im Speichern und Verfügbarmachen von Inhalten Dritter besteht, sind nicht gemeint. Also bspw. kleine und große journalistische Websites, gewerbliche betriebene Blogs oder Foren usw.
· Inhalte, die Werke Dritter parodieren, zitieren, besprechen, karikieren, nachahmen sind grundsätzlich nicht betroffen; also Memes, Parodien, …. Genauso wenig, wie die Links und Zitate in diesem Artikel von Artikel 13 betroffen sind; jedenfalls nach meinem Verständnis und solange sie sich grundsätzlich im Rahmen des Urheberrechts bewegen; s. dazu Markus Hassholds Artikel, auf Seite 7.
Es stehen also sowohl zahlreiche Publikationswege als auch zahlreiche Formate weiterhin offen, über die Jeder jederzeit seine Meinung sagen darf. Eben im Rahmen des Urheberrechts und weiterer Persönlichkeitsrechte https://de.wikipedia.org/wiki/Pers%C3%B6nlichkeitsrecht_(Deutschland)
· Overblocking und permanentes Monitoring werden von der Richtlinie abgelehnt. Sprich: Die Plattformen müssen dafür Sorge tragen, dass eben Parodien, Memes und Co. – solange sie sich im Rahmen der UrhG bewegen – nicht in den Filtern hängenbleiben. „Da überschätzen die Artikel 13-Befürworter massiv die Möglichkeiten der automatischen Filter“, ist dann das Gegenargument. Wenn das so ist und wenn es trotz aller Trainings der betreffenden maschinellen Intelligenz rein algorithmisch nicht zu beheben ist, müssen von den Plattformen die entsprechenden personellen Ressourcen geschaffen werden – oder eben die entsprechenden Lizenzen erworben werden. Auch hier gilt: Das Recht der Urheber auf angemessene Vergütung und auch das Recht von Privatpersonen sich im Rahmen der o.g. Regularien des UrhG der Werke anderer Urheber zu bedienen, um ihre Meinung auszudrücken, steht meines Erachtens den Gewinnerzielungsabsichten privatwirtschaftlicher Unternehmen vor.
· Zudem müssen die Plattformen entsprechende Beschwerdemechanismen für User einführen, die meinen, dass ihr Content zu Unrecht geblockt wurde. Da kommt als Gegenargument: „Wir wissen doch, wie die Plattformen so etwas handhaben. Sie werden die Prozesse so kompliziert bauen, wie jetzt schon die AGB und werden Alles tun, um Beschwerden zu erschweren, wie sie auch jetzt Alles tun, um ihre AGB für Normalsterbliche unverstehbar zu machen“. Sprich: „Da die Plattformen geltendes Recht auf eine Weise umsetzen, die das Verständnis der Rechte und ihre Ausübung für Privatpersonen erschwert bis verunmöglicht, ist das Recht falsch.“ Meiner Meinung nach nicht. Sollte es so kommen, müssen die Plattformen gezwungen werden, diese Prozesse für Privatpersonen verständlich und benutzbar umzusetzen. Da sind wir wieder bei der Frage, ob privatwirtschaftliche Monopole, die zentrale Infrastrukturen betreiben, diese Infrastrukturen nach ihren „Hausregeln“ betreiben dürfen. Meiner Meinung nach ganz klar nein.
· Neben all diesen Einschränkungen stehen dann immer das Prinzip der Angemessenheit und die Mitwirkungspflicht der Urheber bzw. ihrer Treuhänder. Maßnahmen zur Lizenzierung oder Verhinderung / Entfernung von nichtlizenzierten Inhalten müssen angemessen in Bezug auf die Wirtschaftlichkeit des Angebotes sein und die Urheber müssen die Informationen zur Verfügung stellen, die es dem Betreiber ermöglichen mit möglichst geringem Aufwand Löschungen oder Sperrungen durchzuführen.
Es bestünde ja auch die Möglichkeit, wie auch im UN-Papier vorgeschlagen, dass sich vor allem die sehr großen Plattformen in einen tatsächlich offenen und lösungsorientierten Dialog zur Diskussion von Lösungen rund um „Urheberrecht“, „faire Vergütung“, „tatsächlichen Datenschutz“ also „Teilhabe der Gesellschaft an der Gestaltung der zentralen digitalen Infrastrukturen“ und damit „Mitwirkung der Plattformen an einem gedeihlichen Miteinander“ beteiligen. Davon ist in der aktuellen Debatte wenig wahrzunehmen.
Über all dem steht die Möglichkeit, dass die Plattformen Lizenzverträge abschließen oder Pauschalzahlungen leisten. Und sofort kommt das Argument, dass es für die Plattformen (hier meist im weitesten Sinne gemeint, also inkl. kleinerer und kleiner Webangebote) unmöglich sei, mit allen Urhebern der Welt Lizenzen abzuschließen. Es ist absolut möglich diese Lizenzen abzuschließen und Webangebote, die wie oben beschrieben, nicht unter die Bedingungen der Lizenzobliegenheit fallen, brauchen eben keine Lizenzen. Wie Lizenzierung geht, ist hier etwas genauer beschrieben: https://www.facebook.com/notes/christian-hasselbring/artikel-13/2290681984309327/ Auch hier gilt: Noch sind nicht alle Details der neuen Lizenzmodelle und -prozesse geklärt, aber die Verwertungsgesellschaften werden dies in den nächsten zwei Jahren tun, dürfen Niemandem eine Lizenz verweigern und stehen Allen, die als Urheber ihre Rechte von den VGs vertreten lassen wollen unter bestimmten Bedingungen offen. Die Lizenzierungsseite wird also Alles tun bzw. tut es in Teilen schon jetzt, um es den Plattformen als Verwertern zu erleichtern die Notwendigkeit von Filtern zu reduzieren und ihre Abgaben für die gewerbliche Nutzung der Werke Dritter zu entrichten. Daran wird es wohl aller Voraussicht nach nicht scheitern.
Die Filtergefahr
Nehmen wir an, dass es gar nicht anders kommen kann, als dass ein Großteil der Inhalte auf wenigen großen Plattformen immer beim Upload gefiltert werden müssten, auch wenn der Zwang dazu wie gesagt laut EU-URL und Artikel 13 nicht besteht. Nehmen wir weiter an, dass es nur diesen Plattformen – also denen, die uns diese Situation erst beschert haben – möglich ist, Filter und Personal vorzuhalten, um die gigantischen Mengen an minütlich hochgeladenen Inhalten zu filtern und dabei dann weitere Daten der Nutzer zu aggregieren. Nehmen wir weiter an, dass dies nur mit der Technologie von Google möglich wäre – was meines Wissens nicht so ist, denn heute wird auch schon bei privaten Radiosendern und bald bei öffentlich rechtlichen entsprechende Technologie zur Erkennung der Werke und Steuerung der Ausschüttung eingesetzt, aber für’s Modell ist das jetzt egal. Dann entstünde also ein zentraler Filter, der aus einem anderen Rechtsraum, einem mit deutlich niedrigeren Datenschutzstandards, dicht an den amerikanischen Geheimdiensten und vor allem eben zentral und privatwirtschaftlich gesteuert wäre. Dann hätten wir das Horrorszenario eines Monopols außerhalb unseres Rechtssystems und direkten Zugriffs und in privatwirtschaftlicher Hand. Ein Monopol, das vergleichsweise willkürlich von Google selbst oder politischen Institutionen manipuliert werden kann. Interessanterweise haben wir das schon lange. Google definiert auf zahllosen Wegen welcher Inhalt wichtig ist und welcher nicht, was wir im Suchergebnis sehen und was nicht (je nach den Setting, dem Status, der Historie der Daten über einen User), welche Werbung wir ausgespielt bekommen, welche Route uns in Google Maps vorgeschlagen wird, welche eMails in GMail auf Wiedervorlage gelegt werden, was Spam ist und was nicht, welche Daten von Android an welche Dritten weitergegeben werden, welche Inhalte auf YouTube gezeigt werden dürfen und welche aus unterschiedlichen Hausregelgründen nicht usw. … Wir leben schon lange im Digitalen und zunehmend über Android-Smartphones, Google-Home, bald sicherlich die nächste Version von Google Glas, Software selbstfahrender Autos … auch im Analogen innerhalb dieser Filter, innerhalb der Hausregeln und des Sensoren- und Filternetzes von Google. Warum ist also jetzt die Aufregung so groß?
Ist es vielleicht die Angst, nicht weiter alle Werke der Urheber der Welt for free nutzen zu können und dafür nur mit “Werbung ertragen” und “Daten hergeben” bezahlen zu müssen? Ist es die liebgewonnene Gewohnheit, für alle Inhalte nichts zu bezahlen, außer mit dem Preis, den man nicht spürt – der Privatsphäre? Ist es ein kollektives Vergessen, dass Inhalte und die Arbeit dahinter einen Wert haben? Ist es ein kollektives Wegschauen, vor dem was schon lange Realität ist? Dass Google & Co in jedem Lebensbereich überwachen und filtern, und zwar einzig nach den Maßgaben der Gewinnmaximierung, hübsch verpackt in Freedom of Speech und Unabhängigkeit von staatlichen Stellen – was für eine Farce.
Wenn also der oben beschriebene Fall eintreten sollte, dass nur Google in der Lage ist den Uploadfilter anzubieten, der die Regularien der EU-URL umsetzen kann, dann ist das die Konsequenz aus jahrelanger Monopolisierung von Wissen und finanzieller Macht in unregulierter Form, innerhalb eines Unternehmens. Dagegen wehren sich die Urheber, ihre Verwertungs-Treuhänder und ihre Verlage zurecht. Und dagegen sollten wir uns gesamt gesellschaftlich wehren. Auf allen Ebenen und mit allen Mitteln. Aber sehr sicher führt Artikel 13, wie oben beschrieben, nicht zu einer Zensurmaschine – die EU-URL lässt genug Spielraum für andere Formen der Vergütung, andere Kommunikationsformen und Angebote. Die EU-URL stellt insgesamt* eine sehr simple Anforderung: Zahlt für Inhalt, wenn ihr damit Geld verdienen wollt. Wenn ihr nicht zahlen wollt, löscht die Inhalte und sorgt für nachhaltige Löschung – ohne dass damit ein neues Überwachungsmonopol entsteht. Warum sollte der Gesetzgeber Google & Co noch mehr entgegen kommen?
*Artikel 11 nehme ich hier aus. Der ist funktionslogisch falsch und gehört hier nicht hinein. Aber deswegen die EU-URL kippen? Nein.
Linkliste
https://juliareda.eu/wp-content/uploads/2019/02/Copyright_Final_compromise.pdf https://juliareda.eu/2019/02/artikel-13-endgueltig
alle weiteren Texte auf juliareda.eu zu dem Thema
und alle weiteren Texte auf netzpolitik.org zur EU-URL
und einige weitere Texte auf heise.de zur EU-URL
Alio
15 März 2019„Plattformen, die jünger als drei Jahre sind oder weniger als 5 Mio. User pro Monat oder international weniger als 10 Mio. € Umsatz pro Jahr generieren[,] sind erstmal nicht betroffen.“
Das Problem ist, dass das nicht stimmt. Statt „jünger als […] oder weniger als[…]“ verlang der Richtlinientext „jünger als […] und weniger als […]“. Das führt dazu, dass sich die Anzahl der Plattformen, die sich auf diese Bestimmung berufen können, erheblich niedriger ausfallen dürfte als bei einer Oder-Regelung.
Heike_Rost
29 März 2019Dazu diese zwei Hinweise:
Erwägungsgrund 37a (alte Reihenfolge): The definition of an online content sharing service under this Directive should target only online services which play an important role on the online content market by competing with other online content services, such as online audio and video streaming services, for the same audiences.
Man muss „online content service“ (also content Dienste die Inhalte selbst einstellen und verbreiten) als Gegenbegriff zu „online content sharing service provider“ (also den von Art. 13 erfassten Plattformen bei denen die Inhalte von Usern eingestellt werden) sehen.
Zusammen mit den anderen Argumenten wird deutlich, dass z.B. das klassische Forum nicht vom Anwendungsbereich erfasst ist.
In der neuen Numerierung der Richtlinie ist Erwägungsgrund 62 ausschlaggebend, nachzulesen im PDF –> https://www.europarl.europa.eu/doceo/document/A-8-2018-0245-AM-271-271_DE.pdf