Generatieve AI maakt je contentproces sneller en slimmer. Maar juridisch kan je hard struikelen. Lisa Peek, advocaat reclamerecht bij Hoogenraad en Haak, legt uit wanneer je auteursrecht hebt op AI-content, AI-content mogelijk inbreuk maakt op rechten van derden, en je transparant moet zijn over het feit dat content met AI is gemaakt. Plus: concrete contracttips om risico’s te beperken.
Auteursrecht op AI-content: wanneer ben jij de maker?
Human authorship is cruciaal voor auteursrecht. Laat je de tool alle creatieve keuzes maken, dan ontbreekt vaak auteursrechtelijke bescherming. Maak dus zelf keuzes over bijvoorbeeld de tone of voice, schrijfstijl, kleuren en compositie. En leg deze keuzes vast.
Werk je in opdracht? Ga ervan uit dat de klant overdracht van het auteursrecht op de door jouw aangeleverde content verwacht. Lisa geeft aan dat transparantie en goede contractafspraken je positie versterk; sluit AI-content uit van garanties op auteursrecht en overdracht daarvan. Zo voorkom je dat een klant rekent op exclusieve rechten die juridisch (waarschijnlijk) niet bestaan.
Voorkom inbreuk: stijl mag, ontlening niet
‘In de stijl van’ kan. Maar lijkt jouw AI-content te veel op een beschermd werk (‘overeenstemmende totaalindruk’)? Dan kan er sprake zijn van auteursrechtinbreuk, ook zonder bedoeling. Omdat AI-tools vaak zijn getraind met gebruik van bestaand (beschermd) materiaal, is ontlening met AI lastig te ontkennen.
Prompt daarom niet naar specifieke werken of bekende makers. Check commerciële gebruiksrechten van je AI-tool en doe vóór publicatie een risico-afweging. Voor klantwerk: laat risicoacceptatie expliciet landen bij de opdrachtgever en neem een carve-out op in garanties en aansprakelijkheid voor inbreuk op rechten van derden.
Deepfakes kunnen een portret van iemand vormen, en mogelijk ook iemands stem. In reclame heb je vrijwel altijd toestemming nodig voor gebruik van zulke portretten en stemmen. Bij bekende personenkunnen claims bij ontbrekende toestemming hoog oplopen.
Deepfakes en transparantie: AI Act komt eraan
Het kan misleidend zijn om niet aan consumenten duidelijk te maken dat reclame met behulp van AI is gemaakt. Vanaf 2 augustus 2026 moet je onder de AI Act ‘deepfakes’, nagenoeg alle content die is gemaakt of bewerkt is met behulp van AI en door personen als ‘echt’ kan worden aangemerkt, duidelijk labelen: ‘door AI gegenereerd of bewerkt’, bij de eerste weergave. Reken dus op transparantieverplichtingen, ook als geen sprake is van misleiding. Leg dit vooraf vast in je productieproces.
Key takeaways:
Houd in je contractafspraken met klanten rekening met AI-content; voeg een carve-out voor overdracht, garanties en aansprakelijkheid toe.
Documenteer je ‘human authorship’ met een prompt journal voor je auteursrechtelijke onderbouwing.
Voer een ‘totaalindruk’-check uit; vermijd gelijkenis met specifieke (beschermde) werken.
Regel toestemming voor gebruik van AI-‘deepfakes’ van personen in reclame, zoals hun portretten en stemmen, vooral bij bekende personen.
Label AI-content bij mogelijke misleiding en vanaf augustus 2026 volgens de AI Act.
Generatieve AI versnelt content. Met een goede juridische basis werk je slimmer en veiliger, en kun je je volgende campagne met vertrouwen publiceren.

