DeepNude, der er en fuldstændig smagsløs app, der via maskinlæring kunstigt kan ”afklæde” billeder af kvinder, har skabt ramaskrig på nettet, efter at mediet Vice tidligere på ugen skrev en historie om appen. Nu har udvikleren, der angiveligt allerede har tjent tykt på appen, valgt at lukke og slukke. Men appen er stadig derude.
DeepNude blev offentlig søndag, da den anonyme udvikler lancerede en hjemmeside med adgang til download af en prøveudgave. Prøveudgaven lagde vandmærker i billederne, men det vandmærke kunne potentielle kunder fjerne ved at betale 50 dollars – 328 kroner – for en licens. Og det er der angiveligt mange, der har gjort; i hvert fald forklarer udvikleren, at serveren simpelthen har været gået ned efter omtalen i Vice.
I et anfald af bondeanger forklarer udvikleren nu, at han ikke forventede den megen opmærksomhed og at han ikke ønsker at ”tjene penge på denne måde”. Det forklarer han i et tweet:
Skaden er sket
Den smagløse app er sandsynligvis bare en forsmag på, hvad vi har i vente, når de såkaldte DeepFakes bliver bedre og mere realistiske. Og i dette tilfælde er skaden sket, da appen allerede cirkulerer; der vil næppe gå længe inden den splittes ad via reverse engineering og distribueres igen af andre end den oprindelige programmør.
DeepNude benytter maskinlæring til at lave falske nøgenbilleder ud fra helt almindelige fotos af påklædte kvinder. Appen bruger avanceret algoritme til at udskifte den påklædte krop med en nøgen udgave. Algoritmen er ”trænet” ved hjælp af tusindevis af billeder af nøgne kvinder. DeepNude virker kun med kvinder, forklarer udvikleren, fordi det er nemt af finde billeder af nøgne kvinder på nettet.