Sora 2 - indrukwekkend en zorgwekkend tegelijk
Wat als iedereen straks zijn eigen nepnieuws kan produceren
Als een van de weinigen in Nederland heb ik toegang tot Sora 2. Dit is het nieuwe videomodel van OpenAI (de makers van ChatGPT). Ik ben onder de indruk. Maar ook bezorgd.
In deze nieuwsbrief neem ik je mee in mijn eerste ervaringen, experimenten en de ethische vragen die het bij mij oproept.
Eerste indruk: snel, krachtig en creatief
Wie mij volgt op LinkedIn heeft het misschien al gezien. Afgelopen vrijdag en zaterdag plaatste ik mijn eerste video’s waarin ik experimenteerde met Sora 2. Wat opvalt is hoe snel en realistisch de tool video’s genereert. In meerdere talen, met logo’s, met teksten… en allemaal binnen enkele minuten.
Natuurlijk zitten er nog fouten in, zoals vreemde uitspraken of onhandige typografie. Maar het niveau ligt nu al zo hoog, dat ik echt even stilviel.
Wat ik wel verwachtte, maar niet zo snel
Ik wist dat er een moment zou komen waarop AI overtuigende videos kon maken. Maar dat het zo snel zou gaan had ik niet verwacht.
Zoals je van mij gewend bent duik ik er dan meteen diep in. Nachten doorhalen, alles testen, grenzen opzoeken. Creatieve uitingen, korte scènes, experimenten met stijl, licht, perspectief. En dat werkte indrukwekkend goed.
En toen veranderde het gevoel
Ik was aan het appen met journalist Bas Vroegop van de Leeuwarder Courant over Sora 2. Hij stuurde me een video waarin hij zelf opdook in een nepnieuwsuitzending. Dit was verrassend echt! Dat bracht me op een idee. Ik besloot Sora 2 nog uitgebreider te testen
Binnen een half uur had ik verschillende nieuwsitems in elkaar gezet. Met NOS logo, RTL Nieuws stijl, 1Vandaag microfoon, studio setting en live verslaggevers op locatie.
Aan de ene kant indrukwekkend. Aan de andere kant ronduit schokkend.
Het verleden manipuleren
Op een gegeven moment dacht ik, laat ik nog een stap verder gaan. Kan ik met Sora 2 ook video’s maken van bekende mensen?
Het antwoord is ja. Binnen een paar minuten had ik een video van Martin Luther King die iets compleet anders zei dan wat hij ooit in het echt heeft uitgesproken. Kennedy met een stroopwafel in zijn hand? Geen probleem. En natuurlijk mocht onze legendarische Johan Cruijff niet ontbreken.
Zelfs artiesten als Freddie Mercury, Tina Turner en Whitney Houston kon ik overtuigend iets laten zingen over Nederland.
Wat het echt bizar maakt, is dat ik ze bijna kon laten zeggen en doen wat ik wilde. Elk gebaar, elk woord, elk decor, het was allemaal te regisseren.
Zit er een blokkade op?
Ik heb verschillende tests gedaan met beelden uit de jaren 80, 90 en het heden. Wat opvalt is dat ik bij oudere beelden vrij makkelijk personen uit die tijd kan genereren. Wat me ook opvalt is dat sommige prompts direct werken, maar als ik exact dezelfde prompt opnieuw probeer met dezelfde persoon, de prompt ineens wordt geblokkeerd. Het lijkt erop dat Sora 2 ook een vorm van AI inzet om te monitoren wat je aan het doen bent.
Ik wil binnenkort nog testen of een slimme workaround dit kan omzeilen. Wat je dan doet, is de persoon niet benoemen, maar juist de situatie omschrijven. Dus in plaats van een naam gebruik je beschrijvingen als “een man in een grijs pak die een toespraak houdt vanaf een houten podium in de jaren zestig.” Bij AI-afbeeldingen werkt dit vaak verrassend goed, dus ik ben benieuwd of dit bij Sora ook effect heeft.
Waarom dit me zorgen baart
We leven in een wereld waarin desinformatie al veel schade aanricht. Veel mensen vertrouwen op wat ze zien op TikTok, Instagram of Facebook. En nu kan iedereen binnen een paar minuten een nepvideo maken die eruitziet als echt nieuws.
AI democratiseert toegang tot technologie. Maar de keerzijde is dat we er ook iets mee kunnen doen wat we misschien niet zouden moeten willen.
Ik heb niet de oplossing maar wel ideeën
We moeten hierover in gesprek. Niet alleen als techliefhebbers maar als samenleving. Een paar ideeën die ik graag voorleg:
Meer aandacht voor educatie. Niet alleen in het onderwijs maar ook breder in de maatschappij
Verplichte transparantie bij AI gegenereerde video’s
Gerichte voorlichting voor journalisten politici en het publiek
Een onafhankelijke commissie of AI waakhond die overheidsbeleid ondersteunt
Ik wil met deze nieuwsbrief geen angst aanjagen maar wel bewustzijn vergroten. Want als je deze tools net zo intensief test als ik dan zie je hoe krachtig ze zijn. En dat vraagt om meer dan alleen enthousiasme. Het vraagt om verantwoordelijkheid.
Vond je dit interessant?
Dan zou ik het supertof vinden als je mijn nieuwsbrief wilt delen met iemand die hier ook blij van wordt. Aanmelden kan makkelijk via de knop hieronder.