Ich finde es immer etwas verdächtig, wenn sich alle in meiner Twitter-Timeline einig sind. In diesem Fall ist die Einigkeit überwältigend. Es geht es um die EU-Urheberrechtsreform, insbesondere um Artikel 11 und 13. Alle sind dagegen.
Ich gestehe, ich habe den ganzen Reformentwurf nicht gelesen. Ich verstehe, dass der Hintergedanke ist, aktuell geltendes Recht an gesellschaftliche Gegebenheiten anzupassen und Urheber besser zu schützen. Das finde ich, ist eine gute Idee. Die Medienwelt verändert sich und ich bin ja auch Urheber. Von den Texten hier zum Beispiel, und ich möchte zum Beispiel nicht, dass jemand anderes – womöglich ohne Gegenleistung – mit meinen Inhalten Geld verdient. Oder die Inhalte als die Seinen ausgibt.
Ganz gegen Urheberrechtsschutz kann also nur jemand sein, der selbst noch nie etwas eigenes geschaffen hat und somit den Wert geistigen Eigentums nicht begreift.
Die aktuelle Rechtslage und das Geschäftsmodell von Verlagen
Rein rechtlich verhält es sich etwa so: Jeder Urheber und jede Urheberin hat die Rechte an den Werken, die er oder sie erschafft. Für Lebzeiten, und für 70 Jahre nach dem Tod. Zusammen mit den Urheberrechten hat ein Urheber auch die Verwertungsrechte für die Werke.
Was ein Urheber abgeben kann, sind Nutzungsrechte. Darauf baut das Geschäftsmodell von Verlagen auf. Sie lassen sich Nutzungsrechte geben, gegen eine angemessene Vergütung.
Nach Erhalt der Nutzungsrechte publizieren Verlage dann und versuchen mit den Inhalten Geld zu verdienen. Das machen wissenschaftliche Fachverlage mit einem Abomodell zum Teil sehr erfolgreich. Elsevier hat zum Beispiel eine Gewinnspanne von 37%.
Nützt Artikel 11 privaten Blogs?
In Artikel 11 der Urheberrechtsreform wird geregelt, dass die Nutzungsrechte auch für sehr kurze Textauszüge gelten sollen. Wenn also jemand auf Facebook oder Twitter einen Link zu einem Artikel teilt und beim Link neben einem Foto in ein, zwei Sätzen steht, worum es in dem Artikel geht, ist nach der geplanten Gesetzgebung eine Vergütung fällig. Für den Verlag, wohlgemerkt, nicht für den Urheber.
Es ist fraglich, ob von der Vergütung je etwas bei den Urhebern ankommt. Ich jedenfalls habe keine Diskussion darüber gesehen, wie mögliche Mehreinnahmen der Verlage an die Urheber weiter gegeben werden können. Ich würde die Diskussion gerne führen. Sehr viel lieber als über Uploadfilter zu debattieren. Dazu unten mehr.
Falls Plattformen wie Facebook und Twitter keine Lizenzgebühren an die Verlage bezahlen wollen, ist es mindestens so fraglich, ob dann überhaupt noch jemand auf geteilte, nackte Links ohne Bild und ohne kurze Zusammenfassung klickt. Die Verlage schießen sich also selbst ins Knie, wenn dadurch die Reichweite sinkt.
Nach langem Nachdenken habe ich für diesen Fall für mich mit meinem kleinen, privaten Blog tatsächlich einen Vorteil von Artikel 11 entdeckt. Ich habe nichts dagegen, dass Teaserbilder und Texte meiner Artikel auf Sozialen Medien erscheinen. Die Vergütung wären dann vielleicht ein paar Leser mehr. Das würde mir schon reichen.
Für wissenschaftliche Fachliteratur könnte Artikel 11 bedeuten, dass die Verlage vom NIH, dem Träger der Literaturdatenbank Pubmed, Lizenzgebühren für eingebundene Abstracts der Artikel verlangen. Oder dass Pubmed nur noch die Abstracts von Open Access Artikeln anzeigt.
Artikel 13 verschiebt die Haftung von Nutzern zu den Plattformen
Artikel 13 wird der Uploadfilter-Artikel genannt. Es geht zusammengefasst darum: Wenn ein Nutzer urheberrechtlich geschütztes Material verbreitet, dann haftet aktuell der Nutzer. Nach Artikel 13 haften dann zuerst die Plattform, auf der die Inhalte verbreitet werden.
Prinzipiell ist das eine gute Sache für die Nutzer. Aber Foren, Soziale Medien und andere Plattformen wollen natürlich nicht für Urheberrechtsverletzungen Ihrer Nutzer gerade stehen. Andererseits nehmen sie es aber offenbar aktuell billigend in Kauf, dass auf ihren Seiten Urheberrechtsverletzungen stattfinden. Sie haften ja nicht dafür.
Kein Betreiber einer Seite oder Plattform möchte mögliche Urheberrechtsverletzungen seiner Nutzer manuell prüfen. Es würden also wahrscheinlich sogenannte Uploadfilter zum Einsatz kommen, die automatisch entscheiden, welche Inhalte dann verfügbar sein dürfen und welche nicht.
Die Gegner der Urheberrechtsreform befürchten hier Zensur und merken an, wie denn die Filter wohl nutzungsrechtlich geschützte Inhalte von erlauben Inhalten unterschieden werden können. Weiter befürchten die Gegner der Reform, dass beispielsweise Memes, also Parodien, die häufig auf geschützen Fotos aufbauen, nicht als Inhalte erkannt werden, die unter die künstlerische Freiheit fallen, sondern von den Filtern aussortiert würden.
Filter von Inhalten aktuell schon im Einsatz
Ich bin überzeugt, dass sich da sehr schnell technische Lösungen finden und man als Nutzer von Uploadfiltern nichts davon merkt. Automatische Filter sind außerdem nichts neues. Der Mailverkehr wird gefiltert und Spam zuverlässig aussortiert. Die Kommentare hier im Blog – wie auf den allermeisten anderen Websites auch – werden von einem Plugin automatisch gefiltert. Die echten kommen durch, Spam nicht. In Echtzeit (probiert es aus! Ich freue mich immer über Kommentare).
Ein Uploadfilter für nutzungsrechtlich geschützte Inhalte ist auf dem Sozialen Netz für Forschende, ResearchGate, schon im Einsatz. Noch ist der Filter manuell: WissenschaftlerInnen, die dort ihre publizierten Artikel hochladen wollen, müssen vorher entscheiden, ob sie den Artikel privat speichern oder allen zugänglich machen wollen – sofern sie es nutzungsrechtlich dürfen. Unter dem neuen Recht müsste ResearchGate selbst für jedes hochgeladene Paper prüfen, ob es öffentlich zugänglich sein darf. Technisch sicher machbar.
“Wenn ein Nutzer urheberrechtlich geschütztes Material verbreitet, dann haftet aktuell der Nutzer.”
Schützt uns das in Zukunft vor Dissertationen, die mit dem kopieren ein bisschen arg großzügig sind? So ein PDF-Download beim Verlag ist doch schließlich auch eine Plattform. Sogar ein Verlag, der Bücher druckt, ist eine Plattform.
Oder anders gefragt: müssen Elsevier, Springer und Co. nun alle Artikel und Veröffentlichungen auch noch auf Urheberrechtsverletzungen abprüfen?
Ein guter Reviewer kann ja schon einiges bemerken, aber eine rechtssicherheit würde ich daraus nicht ableiten.
Und warum sollte ich als Urheber niemanden dazu anstiften, mein Material irgendwo hochzuladen, damit wir uns die Entschädigungszahlung der Plattform hinterher schön teilen können?
Fragen über Fragen…
Danke für die Gedanken, Jens.
Das machen sie schon. Software zum entdecken von Plagiaten wird ja schon bei Hausarbeiten an der Uni eingesetzt.
Darüber habe ich noch nie nachgedacht. Uploadfilter würden aber das urheberrechtlich geschützte Material erkennen, bevor der angestiftete Jemand es publizieren könnte.
Ich probiere mich mal im Zitieren, keine Ahnung, ob es klappt 🙂
> Das machen sie schon. Software zum entdecken von Plagiaten wird ja schon bei Hausarbeiten an der Uni eingesetzt.
Meine Erfahrung mit den automatischen Plagiat-Erkennern ist, dass sie erst Mal das gesamte Quellenverzeichnis markieren aber auch im Text Passagen aus den Quellen finden. Eine Bewertung, ob die Zuordnung eines Zitats korrekt ist und ob Zusammenfassungen im Sinne des Zitierten gemacht wurden, habe ich noch nie automatisiert gesehen. Bin aber auch schon 3 Jahre aus dem Business raus.
Letztendlich ist Zitieren in der Wissenschaft ja nicht verboten sondern erwünscht. Eine Übernahme einer Textpassage ist in Ordnung, wenn ich die Quelle hinten dranschreibe. Aber in dem Moment, wo jemand versucht, einer Aussage mehr Gewicht zu verleihen, indem er sie jemand anderem zuschreibt (Hirsch-Faktor lässt grüßen) brauche ich einen Experten, der das prüft. Ein schnelles gucken, ob hinter jedem Zitat eine Quellenangabe steht, reicht dann nicht mehr. In dem Moment sind ja die Urheberrechte des nicht Zitierten berührt. Das heißt, der Verlag müsste hier für das wissenschaftliche Fehlverhalten des Autors gerade stehen. Wären die automatisierten Prüfer da schon so weit, müsste Vroniplag nicht Jahre investieren, um einzelne Dissertationen zu prüfen. Wobei das ja auch was mit Hobby zu tun hat.
Das große Problem in den Uploadfiltern sehe ich darin, dass sie auf Grund der Gesetzeslage sehr empfindlich eingestellt sein werden. Oder sich gar nicht erst einstellen lassen, weil jemand dachte, dass eine KI das übernehmen soll. Das führt dann zu einer Filterung von allen Möglichen Inhalten, die eigentlich gar nicht gefiltert werden müssten. Aus kultureller Sicht ist das meiner Meinung nach ein Totalschaden bzw. Rückschritt in eine Zeit, in der allein Verlage (Text & Musik) entschieden haben, was die Menschheit lesen und hören soll. In Zukunft werden das dann eben Google und Facebook entscheiden.
Die gute Seite: da steckt so viel Geld dahinter, dass wir Chancen haben, dass die Forschung im Bereich künstlicher Intelligenzen dadurch (nochmal) einen Schub bekommt, der darauf abzielt, dass sie sich nicht mehr so leicht durch subtil manipuliertes Material täuschen lassen. Das wäre für automatisierte Auswertungen in vielen Bereichen (Sicherheit, Qualitätskontrollen, automatisiertes Fahren, …) ein großer Gewinn.