Inhalt
Mit sogenannten Uploadfiltern würde es das User-generierete Internet, wie wir es kennen, nicht mehr geben… aber was genau macht sie technisch so problematisch?
Durch das Internet können wir uns mit der ganzen Welt austauschen. Wir laden auf Plattformen wie YouTube, Whatsapp, Instagram oder auch Foren Milliarden Bilder, Videos, Audioaufnahmen und Texte hoch. Allein auf YouTube wurden 2015 pro Minute 400 Stunden Videomaterial hochgeladen [1]. Das auch illegale Kopien dazwischen sind, ist unumstritten.
Politiker der EU möchten nun ein Gesetz beschließen, bei demnichtmehr allein der Uploader für die Verbreitung dieser Kopien haftbar gemacht werden soll, sondern vor allem die Plattform, auf der es hochgeladen wird. Um Inhalte dann noch legal veröffentlichen zu können, müssen Plattformen wie YouTube Lizenzen für alle Werke auf der Welt besitzen. Sie müssen dann alle Uploads, jedes Nutzers, vor der Veröffentlichung mit allen geschützten Werken gegenprüfen und ggf. aussortieren. Das sind die sogenannten „Uploadfilter“.
Und daraus folgt Problem Nr. 1: Das Alles kann nicht einzeln geprüft werden.
Das reine Abgleichen einesUploads mit geschützten Musikstücken, einem Bild oder Video an sich funktioniert technisch ziemlich gut. Ein positives Beispiel wäre die App Shazam, die aus einer Audioaufnahme ein eindeutigen Audio-Fingerabdruck generiert und mit Millionen Musikstücken vergleicht. [7] Stellt euch nun aber mal den Uploadfilter als eine Art Trichter vor. Die Menge der hochgeladenen Dateien pro Zeit kann die Geschwindigkeit der Prüfalgorithmen übertreffen. Es füllt sich also schneller, als es sich leert. Auf der anderen Seite verkleinert jedes neue geschützte Werk den eh schon kleinen Trichterausgang erneut. [3,7]
Ein 5 Minuten langes Full HD Video zum Beispiel, dass flüssige 30 Bilder die Sekunde hat, besteht alleine aus 9000 Einzelbildern. 9000 Bilder die allegeprüft werden müssen, ob sich ein geschütztes Werk darauf befindet. Ein intelligenter Algorithmus, wie z.B. der pHashML Algorithmus, benötigt im Schnitt 1 Sekunde für ein präzisen Bildabgleich. Er würde für dieses ganze Video 5 Minuten progeschütztem Material brauchen. Bei nur 1000 zu vergleichenden Originalen, würde er allein schon 83 Stunden brauchen. Hinzu kommt: Algorithmen haben schwächen. Sie machen Fehler. Dieser Algorithmus erkennt zwar Bildmanipulationen, hätte aber z.B. ein normales Tafelbild als Fälschung identifiziert. Der von YouTube eingesetzte Filter „Content ID“ ist zwar schneller, lässt sich aber mit Bild- und Tonanpassungen austricksen und ist fehleranfällig.
Das soll aber nicht auf Memes oder GIFs in Zitaten, Satire, Parodien oder Remixen zutreffen. Diese sollen von Uploadfiltern unberührt bleiben. [8] Doch wie soll ein Computer zwischen einer Parodie und einer Urheberechtsverletzung, dass ein Meme ja im Grunde ist, unterscheiden wenn uns Menschen das nicht mal zu 100% gelingt?
Und das ist Problem Nr. 2: Uploadfilter schränken unsere Meinungsfreiheit ein.
Versteht mich nicht falsch: Computer kann man Vieles beibringen. Künstliche Intelligenzen sind heute in der Lage besser Hautkrebs zu erkennen als erfahrene Ärzte. [2] Aber so etwas basiert aber auf klaren Mustern und Fakten, mit denen sie trainiert werden. Satire oder Parodien sind Stilmittel, die auf subjektiver Ebene stattfinden und unterschiedlicher nicht sein könnten. Entscheidend ist aber: solche Verfahren arbeiten immer auf Treffer-Wahrscheinlichkeiten. [4] Bei einem Text oder Meme kann es sich also nur mit einer gewissen Wahrscheinlichkeitum Satire oder ein Zitat handeln. Ein Algorithmus konnte beispielsweise trainiert werden Satire in Artikeln mit einer Genauigkeit von 88% zu erkennen. Eine 100% Trefferquote und Unterscheidung kann eine Maschine nie garantieren.
Um sicher zu gehen werden Betreiber vermutlich strenger filtern und damit öfter fälschlicherweise Meinungen zensieren als notwendig.
Ein weiterer Artikel des Gesetzes sieht vor Terrorpropaganda inhaltlich zu filtern. Was wenn irgendwann auch andere Begriffe gefiltert werden sollen? Das wäre die perfekte Grundlage für eine mögliche Zensurmaschine.[6]
Keiner hat etwas dagegen Urheber besser zu schützen. Eine „automatische Erkennungssoftware“, ist technisch aktuell nicht sinnvoll. Kritik ist wichtig, aber Vorschläge sind besser. Daher: Was wäre deine Idee um den Urheberechtschutz besser umzusetzen?
Verbreitet das Video um Freunde und Verwandte über das Thema aufzuklären. Denn wenn Uploadfilter wirklich kommen, wird das Internet nicht mehr so frei und bunt sein wie heute. Und auch die Linksteuer für Pressetexte werden unsere Informationsgewinnung etwas einschränken.
[1] https://www.tubefilter.com/2015/07/26…
[2] https://www.wired.de/article/diese-ki…
[3] Entwurf Artikel 13: https://drive.google.com/open?id=1NW4…
[4] https://www.welt.de/print/die_welt/wi…
[5] https://www.researchgate.net/publicat…
[6] https://netzpolitik.org/2019/uploadfi…
[7] https://www.matheretter.de/wiki/shazam
[8] http://www.haz.de/Nachrichten/Medien/…