Oma opgelicht door AI stem van haar kleinzoon

De opkomst van AI-software heeft geleid tot talloze nieuwe mogelijkheden, maar helaas maken criminelen ook gebruik van deze geavanceerde technologie. Steeds vaker zetten zij deepfake-video's en -audio in om onschuldige slachtoffers op te lichten.

De tijd van slecht geschreven e-mails van zogenaamde Nigeriaanse prinsen is voorbij. Tegenwoordig kunnen oplichters met slechts enkele uitgesproken zinnen (3 seconden is voldoende, zie video hieronder) AI-deepfake-software gebruiken om iemands stem geloofwaardig na te bootsen en alles te laten zeggen wat ze maar willen.

Een recent voorbeeld is de 73-jarige Canadese Ruth Card, die een telefoontje ontving van haar 'kleinkind'. De jongen beweerde gearresteerd te zijn zonder portemonnee of smartphone en vroeg geld om op borgtocht vrij te komen. Card en haar man haalden 3.000 Canadese dollars van hun rekening, maar toen ze dat bij hun andere bank probeerden greep de manager in. Eerder was bij dezelfde bank ook al iemand geweest die geld kwam halen en op deze manier ontdekte men dat het om een deepfake-oplichter ging.

Omdat drie seconden spraak voldoende is een stem na te bootsen is het kinderlijk eenvoudig iemand's stem te 'stelen'. Alleen het afluisteren van een klein stukje van iemand's voicemail-bericht als hij niet opneemt kan al voldoende zijn.


Slechts 3 seconden spraak is nodig om je stem geloofwaardig na te bootsen