#Artikelen

03.02.2023

FAQ: Artificial Intelligence

FAQ over de impact van recente ontwikkelingen in Artificial Intelligence-technologie op het auteursrecht en de ontwerpsector.


Hoe werken AI-systemen bij de creatie van beeld/ontwerp?

AI-systemen werken op input van buitenaf en kunnen daarbij gebruik maken van werk van ontwerpers als trainingsdata. Zonder hun input kan een AI-systeem niets genereren: het systeem wordt getraind op basis van de data (bijvoorbeeld beelden) die aan het systeem worden gevoed. Vervolgens creëert het AI-systeem door middel van machine learning iets op basis van wat het heeft geleerd.

Belangrijke vraag daarbij is of jouw werk zomaar gebruikt mag worden als trainingsdata en wat je eraan kunt doen om dit te voorkomen of tegen te gaan. Daarnaast speelt de vraag of AI-creaties door het auteursrecht worden beschermd. Hierop wordt verder in dit dossier ingegaan. 


Worden AI-creaties beschermd door het auteursrecht?

Over de auteursrechtelijke bescherming van werk gemaakt met behulp van of door AI-creaties wordt nog veel gediscussieerd. In de VS werd recent door de Copyright Office in eerste instantie toestemming gegeven tot het registreren van een werk dat was gemaakt met behulp van een AI-tool. Deze inschrijving bij de Copyright Office werd later na groot protest echter ingetrokken.

In de EU wordt dezelfde discussie gevoerd. De consensus lijkt op het moment dat AI-systemen mogelijk auteursrechtelijk beschermde output kunnen maken. Zélf kunnen zij geen auteursrechthebbende zijn: Artificial Intelligence is nog niet zo ver ontwikkeld dat het zelf een drager van rechten kan zijn. De ontwikkelaar van het AI-systeem zal in de meeste gevallen ook niet de auteursrechthebbende op de output zijn, maar mogelijk wel de rechthebbende op het werkingssysteem of de code achter de AI.

In sommige gevallen kan de gebruiker van een AI-systeem, degene die het systeem de opdracht geeft om iets te ontwikkelen, auteursrechtelijke bescherming verkrijgen over diens creaties. Dat kan het geval zijn wanneer er voldoende creatieve keuzes worden gemaakt bij bijvoorbeeld het kiezen van de trainingsdata of de instructies die aan het systeem worden gegeven. Een situatie waarin een persoon een concept ontwikkelt en daarvoor een heel originele ‘prompt’ invoert, kan hierbij mogelijk voldoende creatieve keuzes maken om hiervoor in aanmerking te komen. In zulke gevallen wordt het AI-systeem in feite gebruikt als een soort ‘tool’, zoals je ook een kwast of bijvoorbeeld Photoshop gebruikt. Indien een AI-creatie echter zonder relevante of beperkte menselijke creatieve inbreng tot stand is gekomen, kan voor deze output geen beroep worden gedaan op het auteursrecht.  


Maken AI-creaties waarin mijn naam in de prompt is genoemd (bijvoorbeeld: een afbeelding in de stijl van ‘artiest’), inbreuk op mijn auteursrecht?

In principe is jouw ‘stijl’ niet beschermd onder het auteursrecht. Kunststromingen of -stijlen vallen namelijk niet onder de auteursrechtelijke bescherming, omdat dat artistieke ontwikkeling zou kunnen remmen. Stel je bijvoorbeeld voor dat één iemand de rechten op het ‘kubisme’ zich had kunnen toe-eigenen: dit had tot onwenselijke situaties geleid. Iemand mag dus iets maken in jouw stijl, of dit nu met de hulp van AI is of niet. Wel kan het trainen van de AI met jouw werk mogelijk inbreuk maken op je auteursrecht.

Een AI-productie waarin zogenaamde ‘auteursrechtelijk beschermde trekken’ zijn overgenomen kan bovendien mogelijk ook inbreuk maken. Dit kan het geval zijn als bijvoorbeeld niet alleen de stijl wordt geïmiteerd, maar echt bepaalde auteursrechtelijk beschermde figuren worden overgenomen. De beoordeling hiervan is erg afhankelijk van de omstandigheden van het geval, en dient voor elk geval individueel beoordeeld te worden.


Mag mijn werk gebruikt worden als trainingsdata voor een AI-systeem?

Uiteraard mag de trainingsdata waarmee een AI-systeem getraind wordt niet illegaal zijn. Dat betekent niet alleen dat er niet zonder toestemming persoonsgegevens mogen worden verwerkt, of dat er geen kinderporno of terroristische content in de database mag worden opgenomen, maar ook dat rekening gehouden dient te worden met het auteursrecht.

Er wordt wel gezegd dat wat AI doet, iets maken op basis van wat het zelf tot zich heeft genomen, erg lijkt op wat menselijke makers doen. In feite wordt de AI, net als een menselijke maker die inspiratie opdoet in diens omgeving, ‘geïnspireerd’ door wat het tot zich neemt. Toch is deze situatie heel anders. AI wordt niet geïnspireerd, maar verwerkt en dus reproduceert beelden als zijnde data, herstructureert deze, en gebruikt het dan op een andere manier. Dit zijn auteursrechtelijk relevante handelingen, in tegenstelling tot een menselijke maker die zich door diens omgeving laat inspireren tot het creëren van iets nieuws.

Vandaar ook dat de wetgever zich hierover al heeft uitgesproken. Op basis van een Europese richtlijn zijn in 2021 twee uitzonderingen op het auteursrecht ingevoerd die zien op tekst- en datamining (TDM). TDM is volgens de wet “een geautomatiseerde analysetechniek die gericht is op de ontleding van tekst en gegevens in digitale vorm om informatie te genereren zoals, maar niet uitsluitend, patronen, trends en onderlinge verbanden.” Een dergelijke techniek wordt ook gebruikt voor het trainen van AI om bepaalde output te genereren. Deze uitzonderingen in de wet maken duidelijk in welke gevallen tekst- en datamining van auteursrechtelijk beschermd werk wél mag.

Dat is allereerst wanneer dit wordt gedaan door onderzoeksorganisaties en cultureel erfgoedinstellingen met het oog op wetenschappelijk onderzoek. Zij mogen op basis van deze uitzondering waarschijnlijk gebruik maken van auteursrechtelijk beschermde werken om AI te trainen, wanneer zij rechtmatige toegang hiertoe hebben. Zij mogen ook een database maken van hun trainingsdata, wanneer zij deze goed beschermen.

De tweede uitzondering ziet op gebruik voor andere doeleinden, waaronder commerciële doeleinden. Ook bij dit gebruik mag aan tekst- en datamining worden gedaan wanneer de gebruiker rechtmatige toegang heeft tot de auteursrechtelijk beschermde content, maar rechthebbenden hebben de mogelijk om te ‘opt-out’-en van gebruik voor deze doeleinden. Wanneer zij expliciet het auteursrecht voorbehouden en door hen dus duidelijk is aangegeven dat het werk niet gebruikt mag worden voor tekst- en datamining, kan er geen beroep worden gedaan op deze uitzondering. Bovendien mag geen database van de trainingsdata worden aangelegd.


Wat kan ik als maker doen om te voorkomen dat mijn werk, dat is geplaatst op een door mij beheerde site, wordt gebruikt als trainingsdata voor een AI-systeem?

Zoals hierboven beschreven kun je als maker niet voorkomen dat je werk wordt ‘gescraped’ van het internet, en gebruikt voor AI training, wanneer dit wordt gedaan door non-profit wetenschappelijk onderzoeksorganisaties en cultureel erfgoedinstellingen. De Auteurswet biedt wél de mogelijkheid om te ‘opt-out’-en van commerciële tekst- en datamining. Dit moet echter wel op een manier worden gedaan die leesbaar is voor de TDM-software.

Er zijn verschillende manieren om dit te doen. Allereerst kan dit bijvoorbeeld door het gebruiken van het zogenaamde ‘robots.txt-protocol’ op je website. LAION, de database achter Stable Diffusion AI, heeft aangegeven dat diens crawler het robots.txt-protocol respecteert. Online kun je meer vinden over hoe je dit precies kunt doen.

Waar mogelijk kun je daarnaast gebruik maken van vaste instellingen op platforms waar veel beeldend werk wordt gedeeld. Zo hebben ArtStation en DeviantArt inmiddels een ‘tag’ ontwikkeld, de zogenaamde NoAI of NoImageAI- tags, die je kunt selecteren bij het uploaden van je werk op deze platforms. Hiermee geef je aan dat je dit specifieke werk uitzondert van de mogelijkheid om het voor TDM te gebruiken. Dit wordt geïntegreerd in de HTML, en is leesbaar voor crawling software.


Wat kan ik doen als mijn werk al in een AI-database is opgenomen?

Allereerst zul je moeten vaststellen of dit het geval is: is je werk opgenomen in een AI-database? Dit kun je controleren door bijvoorbeeld gebruik te maken van de website: Have I Been Trained? Met deze tool kun je controleren of jouw werk is opgenomen in LAION, de Stable Diffusion V3 database. Dit is een Open Software database, waar meerdere AI-ontwikkelaars gebruik van maken. Je dekt hiermee dus een groot deel van de beeld-AI tools.

Daarnaast lijk je met de gerelateerde tool, Spawning, een opt-out verzoek te kunnen doen. Hiermee vraag je dus of jouw werk verwijderd kan worden uit de database. Hoewel Stability AI stelt deze opt-out verzoeken te zullen honoreren, is de juridische status hiervan tot op heden onduidelijk. Het beste lijkt om te voorkomen dat werk in de database belandt, door bij het uploaden van je werk al een opt-out verzoek op te nemen.

In de toekomst zal je een dergelijk verzoek mogelijk direct bij de AI-ontwikkelaar kunnen doen. 


Wat doet de BNO om te voorkomen dat mijn werk wordt gebruikt als trainingsdata voor een AI-systeem?

De BNO is, in samenwerking met haar partners van de Federatie Beeldrechten, waaronder Pictoright, NVJ/NVF, Dupho, BBK, BOK, Kunstenbond en Platform BK, bezig zich verder te verdiepen in wat zij concreet in hun dagelijkse praktijk kunnen doen om aan de zorgen van makers omtrent AI tegemoet te komen.

Dit onderzoek richt zich bijvoorbeeld op de mogelijkheid om in licentiecontracten bepalingen op te nemen over de beschikbaarheid van werken voor TDM-doeleinden: in feite een verplichte AI opt-out voor alle licentiepartners. Maar ook op andere vlakken wordt gekeken naar welke acties genomen moeten worden.


Dit stuk is gebaseerd op een artikel van jurist Luna Schumacher (Pictoright). Het zal waar mogelijk worden geüpdatet.

Het beeld bij deze FAQ is ontworpen door Chris Grit, die dit jaar afstudeerde in de richting Advertising & Beyond aan de Willem de Kooning Academie met zijn prachtige project The I in AI. In dit project onderzocht hij in samenwerking met kunstmatige intelligentie het zelfbeeld van AI. De 550 gegenereerde beelden bieden een fascinerende blik op de zelfrepresentatie van AI en leggen de ethische zorgen en maatschappelijke complexiteiten bloot die inherent zijn aan AI-systemen.