NOS Nieuws•
-
Nando Kasteleijn
redacteur Tech
-
Nando Kasteleijn
redacteur Tech
Het zou een sterk verhaal kunnen zijn dat je in het weekend in de kroeg vertelt. Een video gemaakt met AI waarin de baas een medewerker vraagt een geldbedrag over te maken. Het overkwam recent Ali Niknam, topman van online bank Bunq. De medewerker trapte er niet in.
“Hij kreeg een bericht van mij via WhatsApp: ‘Hé, ik ben op reis, we hebben net een bedrijfsovername gedaan, we moeten snel een aanbetaling doen, want anders gaat de deal niet door'”, vertelt Niknam. De medewerker kreeg een uitnodiging voor een videogesprek, waarvan het beeld vanwege een ‘slechte verbinding’ wat blokkerig was. Achteraf checkte de medewerker het nog eens met z’n baas en toen bleek dat het nep was.
“Het punt is dat dit de eerste keer is dat dit gebeurt”, zegt Niknam. “Waarschijnlijk neemt de kwaliteit heel erg snel toe de komende maanden. Dus dit gaat alleen nog maar erger worden.”
Simuleren met bestuur
Zogeheten CEO-fraude bestaat al jaren. Maar een voorbeeld zoals dat bij Bunq, dat kent Frank Groenewegen, partner Cyber Risk bij Deloitte, nog niet uit de praktijk. Het houdt zijn klanten wel bezig. “Het is onderdeel van veel simulaties die we met het bestuur van onze klanten doen.” Denk aan een filmpje met mededelingen die direct een reactie geven op de beurs, zoals een verkoop of tegenvallende resultaten.
Bunq is niet het enige voorbeeld dat deze week opdook. Ook de Amerikaanse acteur Tom Hanks, ontbijtshowpresentator Gayle King en youtuber Jimmy Donaldson waarschuwden hun miljoenen volgers voor met AI (kunstmatige intelligentie) gemaakte video’s. Donaldson, bekend als MrBeast, vroeg zich bovendien af of sociale media hier wel klaar voor zijn. Hij sprak van een “serieus probleem”.
Overigens werkt Hanks nu mee aan een film, Here, waarbij hij met AI wordt verjongd. Het laat zien dat de technologie momenteel aan de ene kant wordt misbruikt door kwaadwillenden, maar ook dankbaar wordt gebruikt door bijvoorbeeld de filmindustrie.
Met AI gemanipuleerde video’s, die ook wel deepfakes worden genoemd, bestaan al jaren. Bekend is een video met oud-president Obama (die er inmiddels ook wel wat gedateerd uitziet). Maar met de komst van generatieve AI wordt het nóg makkelijker om ze te maken. Bovendien lijken ze steeds echter.
Economieverslaggever Lisa Schallenberg laat zien hoe het eruit ziet:
Steeds echtere nepvideo’s door krachtigere AI
Het spreken van andere talen met AI gaat nog niet altijd foutloos, maar de ontwikkelingen gaan snel.
Vooral de stem wordt nu steeds beter, zegt Theo Gevers, hoogleraar computer vision aan de Universiteit van Amsterdam. “Deepfakes waren al goed, nu is de stem ook te klonen. Dat kan nu echt heel realistisch.”
Gevers doet al jaren onderzoek naar deepfaketechnologie en de manier waarop dit soort gemanipuleerde beelden te herkennen zijn. “Detectietools zijn niet goed genoeg”, zegt hij. “We lopen nu steeds achter de feiten aan. Bijna elke week komt er een nieuwe tool om iets te genereren. En dat is een probleem.”
Deepfakes in verkiezingen
Die tools kunnen worden gebruikt voor oplichting, zoals in het voorbeeld van online bank Bunq. Maar ook bij verkiezingen. Dat gebeurde onlangs in Slowakije. Op sociale media circuleerden deepfakevideo’s. In een versie lijkt het alsof de leider van de liberale PS-partij, Michal Simecka, het kopen van stemmen bespreekt met een journalist. De audio, concludeerden factcheckers van persbureau AFP na consultatie met experts, is nep.
Reden tot zorg, zou je zeggen. Toch denkt Olya Kudina, universitair docent ethiek en filosofie van technologie aan de TU Delft, dat we beter in staat zijn echt en nep van elkaar te onderscheiden dan we denken. Het feit dat ze erbij Bunq niet intrapten, noemt ze een “goed teken”. In het geval van Bunq ging het in tegen de protocollen die het bedrijf hanteert. In die context was de vraag van Niknam aan zijn medewerker dus gek.
Bij youtuber MrBeast was de context wel kloppend, zegt Kudina. Hij staat erom bekend weggeefacties te doen. “Dus dat was niet verdacht en hij zag er ook echt uit. Maar ik zie in de eerste reacties dat gebruikers het verdacht vonden, omdat het watermerk op de video er anders uitzag.” Beide voorbeelden laten zien dat de sociale context waarin iets wordt gezegd bij het herkennen van gemanipuleerde video’s heel belangrijk is.
Tegelijkertijd wil Kudina het gevaar van deepfakes niet relativeren. Maar ze benadrukt dat mensen niet alleen zullen kijken naar de video, maar juist aan de hand van de context kunnen begrijpen of het echt of nep is.