Künstliche Intelligenz revolutioniert die Arbeitswelt. Sie hat mit Hilfe von menschlichen Werken gelernt und könnte nun viel menschliche Arbeit ersetzen. Wie können die Chancen von KI genutzt und zugleich Kreative und Wissensarbeiter geschützt werden?
Seit November 2022 mischt die Künstliche Intelligenz (KI) von ChatGPT die Internet-Welt auf. Kein Internet-Dienst ist jemals so schnell gewachsen: 100 Millionen Nutzende innerhalb von zwei Monaten – dafür brauchte TikTok neun Monate, Instagram zweieinhalb Jahre. Selbst Menschen, die vor einem halben Jahr noch glaubten, KI sei fern von ihrer Welt und eine Sache für Spezialisten, beginnen zu ahnen, dass hier eine Technologie heranreift, die weite Teile der Arbeitswelt umkrempeln kann.
Seit dem 14. März gibt es die neue Version GPT-4, und die Kommentare sind noch enthusiastischer als bei der vorigen Version. Sascha Lobo nennt es in seiner Spiegel-Kolumne "Eines der mächtigsten Instrumente der Menschheitsgeschichte". GPT-4 kann nun nicht mehr nur Text, sondern auch Bilder und Videos verarbeiten. Wurde früher durch technischen Fortschritt die körperliche Arbeit von Menschen überflüssig, so ist es nun Geistesarbeit – eine völlig neue Erfahrung für Menschen, die sich ob ihres Intellekts am Schreibtisch sicher wähnten.
Wie sollen sich KI-Unternehmen gegenüber Kreativschaffenden und Wissensarbeitern verhalten?
KI kann nicht mehr nur Vorhandenes wiedergeben, sondern auch Neues schaffen – als Text (ChatGPT), Bild (Dall-E, Stable Diffusion, Midjourney) oder Musik (AIVA). Wo hat die Maschine dies her, wenn sie selbst nicht denken kann? Sie hat "trainiert", indem sie mit Unmengen von Inhalt gefüttert wurde – "Content" aller Art, wie er über die Jahre, Jahrzehnte und Jahrhunderte von Menschen geschaffen wurde. Wie sollten sich die KI-Unternehmen gegenüber Kreativschaffenden und Wissensarbeitern verhalten, deren Werke die Maschine schlau gemacht haben und die nun fürchten, durch sie Arbeit zu verlieren?
Vier Mitgliedsverbände der Bundesarbeitsgemeinschaft Selbstständigenverbände (BAGSV), der auch der VGSD angehört, haben ein Positionspapier der Kreativwirtschaft zum Einsatz von KI formuliert. Nach vierwöchiger Diskussion untereinander haben Texter, Kommunikationsdesignerinnen, Lektoren und Illustratorinnen das Papier intern vorgestellt. Elf weitere Kreativverbände, darunter Comiczeichnerinnen, Spieleautoren, Schriftstellerinnen und Journalisten, haben es mitgezeichnet.
Wir möchten mit euch über die Positionen diskutieren
Wir als VGSD haben uns entschieden, das Papier in dieser Version noch nicht zu unterzeichnen, sondern möchten zunächst die Vorschläge in die Öffentlichkeit tragen und einen Austausch mit dir und euch als Mitgliedern darüber führen.
Die Kreativverbände schreiben in ihrem Papier: "KI-Systeme untergraben den Wert human-kreativen Denkens und Arbeitens und bergen eine nicht zu unterschätzende Gefahr für uns Kreativschaffende." Die wesentlichen Forderungen des Papiers sind:
- Der Werknutzung durch KI-Systeme zu kommerziellen Zwecken soll eine Vergütung gegenüberstehen.
Eine ähnliche Forderung haben vor kurzem die deutschen Presseverlage vorgebracht. Denn eine KI, die eigentlich kostenpflichtige Pressetexte durchstöbert und diese in eigene Worte zusammenfasst, profitiert von der kostenintensiven Recherche der Verlage und zieht ihnen Nutzer ab. Während Google durch die zunehmende Snippet-Darstellung den Content-Produzenten auch schon Nutzer abgegraben hat, ist es immer noch ein Traffic-Bringer und Hersteller von Sichtbarkeit. Bei der KI dagegen tritt möglicherweise nur der erste Effekt (weniger Nutzer) ein und nicht der zweite (Traffic und Sichtbarkeit). Zugleich stellt sich die Frage, wie die Nutzung der Werke durch die KI nachvollziehbar gemacht werden kann.
Soll die Nutzung einzelner, konkreter Werke entlohnt werden? Wenn ja, wie könnte das funktionieren? Wenn nein, wie könnten alternative (Vergütungs-)Modelle aussehen?
- Vor einer Marktzulassung sollen KI-Anbieter die Erlaubnis der Urheber/innen transparent darlegen.
Auch dieser Punkt wirft hinsichtlich seiner Praxisfähigkeit Fragen auf. Wie genau sollte die Erlaubnis von so vielen Menschen eingeholt werden? Was passiert nach der Marktzulassung, wenn die KI mit neuem Material trainiert und neue Urheber dazukommen? Der Punkt enthält jedoch das wichtige Stichwort "Transparenz": Das Management von OpenAI, dem Unternehmen hinter ChatGPT, lässt sich nicht in die Karten schauen. Das triggert Ängste. Was soll man davon halten, dass der Mitgründer und Chefwissenschaftler des Unternehmens die Offenlegung von Arbeitsweise und Trainingsmethoden der KI unter anderem mit der Begründung verweigert: "Ab einem gewissen Punkt wird es sehr leicht sein, wenn man will, mit diesen Modellen großen Schaden anzurichten. Und angesichts der Tatsache, dass diese Fähigkeiten derart wachsen, ist es sinnvoll, sie nicht öffentlich zu machen." Ist es besser, wenn ein Instrument, das großen Schaden anrichten kann, allein von einem kleinen Kreis von Menschen kontrolliert wird, den wiederum niemand kontrolliert?
- Die Beweis- und Dokumentationspflicht über die verwendeten Daten soll bei den Nutzer/innen und nicht bei den Urheber/innen liegen.
Eine weitere Forderung, die Fragen nach der Umsetzung aufwirft. Ist es technisch möglich, verwendete Daten einzeln zuzuordnen? Kann man den Anteil einzelner Beiträge quantifizieren? Welche anderen Möglichkeiten gibt es, auf wichtige Quellen hinzuweisen?
- Urheberrechtlich geschützte Daten sollen für das KI-Training nur genutzt werden dürfen, wenn die Urheber/innen zugestimmt haben, ein Widerspruch soll nicht ausreichen.
Das Training der KIs findet schon seit Jahren statt. In den USA laufen bereits Klagen wegen der Nutzung von urheberrechtsgeschütztem Material zum KI-Training.
Bei Fragen des Urheberrechts ist zu unterscheiden zwischen Input und Output: Die Nutzung von Quellen als Trainingsmaterial (Input) könnte eine Urheberrechtsverletzung darstellen. Recht eindeutig scheint bislang die Frage des Outputs: Von der KI geschaffene Werke sind nicht urheberrechtlich geschützt. Denn nach deutschem Recht ist urheberrechtlich schutzfähig nur das, was auf menschliches Schaffen zurückgeht. Dies könnte sich dann ändern, wenn man den Anteil des auftraggebenden Menschen als so hoch einschätzt, dass die KI lediglich als Werkzeug angesehen wird. Vielleicht entsteht mit einer Zunahme von KI-geschaffenen Werken auch ein Bedarf an neuen Regeln. Als drittes käme noch in Betracht, dass das von der KI geschaffene Werk so nah an einem urheberrechtlich geschützten Original ist, dass dadurch Urheberrechte verletzt werden. Dafür könnten die schon bestehenden Regeln zur Bearbeitung von Werken herangezogen werden.
Sollte für die Nutzung von KI das Urheberrecht geändert werden?
Die derzeitige deutsche Rechtslage für das Training der KI, also den Input, basiert auf einer europäischen Richtlinie von 2019 zum Urheberrecht und regelt ein Opt-out-Modell: Vervielfältigungen von rechtmäßig zugänglichen Werken für das Text und Data Mining sind zulässig. Die Daten sind zu löschen, wenn sie für das Text und Data Mining nicht mehr erforderlich sind, sprich: das Training abgeschlossen ist. Rechteinhaber können die Nutzung ausschließen, wenn sie dies in maschinenlesbarer Form tun. Wie dieser Nutzungsvorbehalt in der Praxis konkret aussieht, birgt noch einige offenen Fragen. Ein Ansatz ist die Nutzung von robots.txt-Textdateien. Diese können Anweisungen für Suchmaschinen-Crawler enthalten. Unberechtigte Zugriffe verhindern können sie jedoch nicht. Wie ein Opt-in aussehen könnte, erscheint noch fraglicher.
Sollte die Erlaubnis aktiv durch Opt-in gegeben werden oder automatisch bis zu einem Opt-out (Widerspruch) gelten? Wie genau könnte dies jeweils technisch umgesetzt werden?
- Die Regulierung von KI soll nach ethischen und menschenrechtlichen Gesichtspunkten erfolgen und sicherstellen, die kreative und geistige Schöpfung des Menschen zu erhalten und zu fördern.
"Menschliche Kreativität ist nicht zu ersetzen", schreiben die Verfasserinnen und Verfasser des Papiers, und zugleich spiegelt sich darin gerade die Sorge wider, dass menschliche Kreativität durchaus ersetzt werden könnte. Angesichts der immer besser gelingenden Simulation gibt es viele Dinge, in denen bisher der Mensch schöpferisch tätig war und die nun von Maschinen übernommen werden könnten. Zugleich macht sich der Mensch klein, wenn er sich nur mit "Rechenleistung" der KI vergleicht. So gesehen ist die Maschine leicht "schlauer" als der Mensch. Doch die Maschine berechnet nur Wahrscheinlichkeiten. Menschen dagegen habe Gefühle, Bewusstsein, Spiritualität, machen Fehler, sind unberechenbar – jede Person für sich einzigartig eben und nicht ersetzbar durch eine Maschine.
Wie könnte nun eine Regulierung der KI aussehen, die diese Einzigartigk eit, die kreative und geistige Schöpfung des Menschen erhält und fördert?
- KI-generierte Erzeugnisse sollen kennzeichnungspflichtig sein.
Menschen werden in Zukunft immer häufiger vor Werken stehen, die nicht mehr von Menschen geschaffen sein werden. Es erscheint sinnvoll, dass sie wissen, woran sie sind. Und auch, dass Maschinen dies erkennen, damit sie unterscheiden können, ob sie von Menschen oder quasi von sich selbst lernen (und damit gegebenenfalls eigene Fehler reproduzieren). Wie könnten solche Kennzeichnungen aussehen? Texthinweise, maschinenlesbare Codes, eine Art Wasserzeichen bei Bildern und Grafiken? Und wie könnte die Einhaltung sichergestellt werden? Wie soll mit Werken umgegangen werden, bei denen Menschen KI als Inspiration genutzt und weiterverarbeitet haben?
- Die Kennzeichnungspflicht soll auch helfen, um Gefahren wie Fake News und Deep Fakes zu minimieren.
KI wird die Gefahr von Fake News und Deep Fakes vergrößern. Falschmeldungen können einfacher generiert und verbreitet werden, Fotos, Audios und Videos täuschend echt Stimme bzw. Gesicht zum Beispiel eines Prominenten vorgaukeln. Wo allerdings der Wille zum Missbrauch ist, wird eine Kennzeichnungspflicht nicht viel verhindern. Andererseits: Wäre nicht schon etwas gewonnen, wenn sie ein wenig Schadensbegrenzung brächte? Und welche anderen Wege gibt es, um Falschinformationen schneller identifizieren und ihre Verbreitung eindämmen zu können?
Durch eine intensiven Austausch von KI-Befürwortern und -Kritikern konstruktive Lösungen finden
Die Veränderungen, die die rasante Entwicklung von KI für die Arbeitswelt bringt, werden alle Menschen treffen, die Wissensarbeit leisten – und die meisten Mitglieder des VGSD tun genau dies. Aus einigen Beiträgen in unserer Community wissen wir schon, dass ihr aus unterschiedlicher Perspektive auf das Thema blickt: Viele von euch arbeiten im IT-Bereich und gehören zu den "Early Adopters" – immer vorne dabei, wenn es technische Neuerungen gibt. Ebenso steht der VGSD für Content-Kreatoren – kreativ tätige Menschen, die Inhalte produzieren, die die KI-Maschinen futtern und verwerten.
Wir möchten euch als Community einladen, an dieser Stelle über den richtigen Umgang mit KI zu diskutieren. Wie seht ihr die Forderungen des Positionspapiers, was haltet ihr für sinnvoll, welche technischen Lösungen schlagt ihr vor? Wir möchten die Diskussion gerne nutzen, um daraus konstruktive Vorschläge zu erarbeiten, mit denen wir die politische Debatte voranbringen können. Deswegen freuen wir uns auf eure Kommentare unter diesem Beitrag, gerne auch zu einzelnen Aspekten mit den Nummern der einzelnen Forderungen. Wir freuen uns auf eine spannende und konstruktive Diskussion mit euch!
PS: Die Ergebnisse der Diskussion unten haben wir in einem separaten Beitrag zusammengefasst.
Du möchtest Kommentare bearbeiten, voten und über Antworten benachrichtigt werden?
Jetzt kostenlos Community-Mitglied werden