Streit um AI – das Problem mit den Trainingsdaten

Der Verband deutscher Sprecher:innen ruft zum Boykott auf: https://www.sprecherverband.de/aktuelles/zusammenhalt/

Anlass sind neue Verträge die Netflix ihren Synchronsprecher*innen vorlegen. Mit ihnen sollen die Vertragspartner darin einwilligen, dass ihre Stimmen zu Trainingszwecken genutzt werden. Das auch noch unentgeltlich.

Die Wut und Empörung ist natürlich so groß wie nachvollziehbar. Niemand möchte dazu gedrängt werden an die Abschaffung seiner eigenen Lebensgrundlage mitzuwirken. Der sich hier formierende Protest ist auch nichts Neues. Schon seit GPT in aller Munde ist organisieren sich Künstler und Schaffende in allen möglichen Branchen, um ihre Werke, ihre Leistungen und ihren Wert zu schützen.

Und dieser Schutz ist auch nötig. In Anbetracht der großen Fortschritte in den letzten Jahren, in denen KI generierte Inhalte von alberner Spielerei die Ergebnisse liefert für die man nur noch Fremdscham übrig hat, zu Inhalten wurden, die mal mehr, mal weniger hochwertig brauchbare Alternativen zu Facharbeiten bieten, ist abzusehen das bereits wenige Jahre ausreichen, um Kunst und Kulturschaffende größtenteils zu entwerten. Man kann förmlich zusehen wie es mit jedem Tag mehr zu einer optionalen Frage wird kreative Leistungen zu bezahlen. Zu einfach und schnell kann man einfach prompten was den Ansprüchen einer schnellen Konsumgesellschaft genügt. Dabei werden Einzigartigkeit und Qualität zu abstrakten Philosophien.

Wir erleben eine exponentielle Inflation geistigen Eigentums – deren Verteilung als asymmetrisch zu bezeichnen noch euphemistisch wäre.

Daher ist Protest mehr als angebracht und zu gerne will ich mich jeder einzelnen dieser Bewegungen anschließen. Aber das Thema ist komplex, so habe ich bis jetzt gebraucht um meine Kritik an den Widerstand greifen zu können.

Dafür sehen wir uns das Ganze mal am Netflix-Boykott der Synchronsprecher an.

Hier befinden sich beide Parteien alles andere als auf Augenhöhe. Der Grund warum Netflix die Sprecher zu Trainingszwecken verpflichten will ohne ihnen überhaupt ein Angebot zu unterbreiten ist ganz einfach: weil sie es können.

Was passiert denn wenn sie sich weigern? 

Hier greifen dann viele verschiedene Mechanismen. Zum einen erscheinen nun kurzfristig die Netflix Eigenproduktionen nicht synchronisiert. Klar in der Theorie wird jeder behaupten sie stünden hinter den Sprecherinnen. Das hält allerdings auch nur so lange bis unserer dubbingverwöhnte Teil der Zuschauerschaft die nächste Staffel Stranger Things im O-Ton schauen soll. Ab da ist es auf einmal nicht mehr so weit bis zur Aussage „wenn sich keine Sprecher finden, dann lasst es doch AI erledigen“. Genau wie die Toleranz gegenüber der miesen Vertonung durch AI auf einmal steigt. Aus der anfänglichen Solidarität wird plötzlich eine Nachfrage und ein Bedarf.

Zum anderen ist es ja nicht so, als ob wir keine riesige Datenbank mit stetig wachsenden Inhalten von 70% der Weltbevölkerung die jedem zur Verfügung steht haben. Absolut nichts hindert Netflix daran einfach die für Trainingszwecke zu nutzen. Der Grund warum AI-Giganten aktuell fragen, ist um die Risiken zu minimieren sollte es zu Gesetzen kommen die ihnen da doch einen Riegel vor schieben.

Nichts hindert die AI-Bubble daran sich einfach meine Sprachaufnahmen zu schnappen und der nächsten Rolle im Film  meine Stimme zu verpassen. Ich erfahre das auch nicht und selbst wenn: was soll ich denn bitte tun wenn ich meine Stimme in einem Film finde? Wie soll ich beweisen dass das meine ist? Und selbst wenn ich das beweisen könnte, was bleibt mir da noch übrig? Nicht existenzielle Schadenersatzansprüche in der Höhe von 0€, weil ich ja keinen Schaden vorweisen kann?

Mit Netflix Vorstoß gibt es zumindest einen Nachweis wo die Persönlichkeitsrechte und das Recht an geistigen Eigentum liegen. Zumindest ein juristischer Anker der eventuell unter Umständen mal als Angriffspunkt dienen kann.

Und dieses Problem besteht ja nicht nur hier. NOCH geht es „nur“ um künstlerische Werke.

Es ist absolut nachvollziehbar warum jeder einzelne für sich die Frage stellt, will ich das meine Schöpfung Teil der Trainingsdaten sind oder nicht? Individuell betrachtet ist das auch die einzige Frage die sich das Individuum zu fragen brauchen sollte. Die reine Fokussierung auf „die Daten sollen halt von wo anders her kommen“ hat allerdings einen Backfire-Effekt. Das Netflix-Modell erkennt das Urheberrecht an und hält dieses aufrecht. Trainingsdaten sind hierbei juristisch an einem Schöpfer gebunden. So gerechtfertigt es auch ist keine Trainingsdaten beisteuern zu wollen, vergessen werden darf dabei nicht, wie gefährlich es ist wenn Trainingsdaten rein den AI Besitzern gehören.

Kunst und Literatur sind so Themen bei denen die Auswirkungen dieses Unterschiedes schon immer sehr intransparent und nicht falsifizierbar waren. Aber was passiert wenn wir die selben Regeln auf andere Bereiche übertragen: Nehmen wir zum Beispiel Grundlagenforschung. Aktuell sind diese Daten, zwar meist teuer dran zu kommen, aber grundsätzlich Allgemeingut. Nur darauf aufbauende Produkte sind lizensierbar.

Die unkontrollierte Selbstfindung der AI erzeugt eine Welt, in der nicht mehr nur Verfahren und Formeln juristisch geschützt werden, das Wissen selbst bekommt eine Lizenz. Jetzt aktuell geht es dabei nur darum wie lässt sich eine überzeugende Hand generieren oder wie klingt eine künstliche Stimme angenehm. Die größten ausgesprochenen Bedenken drehen sich rund um die Frage wie wir wissen sollen was von dem was wir sehen real ist und was nicht. Die tatsächlichen Risiken können allerdings folgenreicher sein als jeder dystopische Roman.

Man stelle sich eine Welt vor in der nicht nur Produkte geschützt sind die kompliziert zu berechnen waren, sondern die Rechnung selbst und schlussendlich Mathe an sich. Nicht das neue Medikament oder medizinische Gerät, sondern bereits das Wissen um die Krankheit und wie sie identifiziert werden kann. Oder ganz schwarzmalerisch: „ohh die Luft ist verunreinigt? Tja zu dumm dass Du sie nicht nur nicht analysieren kannst, du darfst auch wissen womit. Das macht dann XYZ für ein Atemgerät.“ Nun wird nicht Mathe irgendwann plötzlich privatisiert werden, aber alle vergleichbaren Errungenschaften die durch AI erzeugt werden mögen.

Natürlich ist es unwahrscheinlich dass die Zukunft SO finster wird. Wie wir jetzt mit diesen Risiken umgehen entscheidet trotzdem welchen Weg wir einschlagen. Auf nach Elysium oder doch eher 40k?

Was heißt das nun?

Es reicht nicht länger, Eigentumsrechte nur als private Verteidigungslinie zu betrachten. Die reine Fixierung auf den individuellen Schutz ist in der Welt der KI eine Sackgasse – sie führt dazu, dass wir die Ankerpunkte verlieren, an denen wir das Recht überhaupt noch festmachen können. Wer sich nur weigert, wird unsichtbar enteignet. Wer unterschreibt, wird ausgebeutet. Beides ist kein akzeptabler Zustand.

Wir müssen begreifen: Dieser Kampf ist kein rein juristischer Streit um Vertragsdetails, sondern eine hochpolitische Grundsatzentscheidung. Wenn wir die Verteidigung des Wissens und der Kunst allein den Kulturschaffenden überlassen, haben wir als Gesellschaft bereits verloren.

Proteste gegen so Ansätze wie Netflix hier verfolgt, schaden dem Anspruch des freien Wissens und unterstützen gerade die Ansätze die erst gar nicht versuchen die Rechte der Allgemeinheit oder wenigstens von Personen zu achten und aufrecht zu erhalten. Die AI-Entwicklungen bieten nur sehr sehr wenige Anker an denen sich geistiges Eigentum verteidigen lässt. Wir müssen bei unseren Protesten aufpassen, dass wir nicht diese Anker bekämpfen, sondern fördern. Ich warne davor, dass wir im Kampf um das Kleine das Große preisgeben.

Verbleibt der Protest weiterhin dabei das einzelne Schaffende gegen einzelne Unternehmen vorgehen, verlieren wir diese Anker, ohne die allgemeine Entrechtung zu adressieren. Dieser Kampf sollte kein juristischer sein, sondern ein politischer. Wir dürfen uns nicht darauf einschießen nur die Auslegung des Rechts bestimmen zu wollen, wir müssen das Recht an sich überarbeiten.

Es ist klar, dass es jetzt noch nicht möglich ist, die Entwicklung von AI ausreichend vorher zu sehen um jetzt schon alle möglichen Probleme auf politischer Ebene zu lösen. Das geht nur schrittweise.

Ich fordere daher einen radikalen Kurswechsel: Wir müssen Datenerhebung und Eigentumsrechte entkoppeln. Wir brauchen einen neuen Standard, der festlegt: Daten gehören nicht dem, der sie sammelt, sondern dem, aus dessen Existenz und Schöpfung sie stammen. Das ist kein Plädoyer für die Kapitulation vor Netflix. Es ist der Aufruf, den Protest vom Verhandlungstisch der Konzerne in die Parlamente zu tragen. Wir müssen das Recht an sich neu schreiben, bevor die KI-Oligarchen die Realität so weit lizenziert haben, dass für uns nur noch das Atmen in der Matrix übrig bleibt – natürlich gegen Gebühr.

Die KI sollte der Allgemeinheit dienen, nicht der Schaffung einer neuen, digitalen Leibeigenschaft. Der erste Schritt dahin ist die Erkenntnis, dass wir unsere Anker nicht bekämpfen dürfen, sondern sie politisch bewaffnen müssen.

Fortsetzung Folgt

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert