Deepfake-faren: Når det ikke var dig på det Zoom-opkald

Deepfake

Deepfake er et udtryk for falske videoer, der fremstilles ved hjælp af kunstig intelligens og menes at udgøre en reel trussel mod sikkerhed og risikostyring. Og noget tyder på at det kun vil blive værre, efterhånden som teknologien udvikler sig, og ondsindede aktører får adgang til tilbud såsom Deepfakes-as-a-Service.

I august vidste Patrick Hillman, kommunikationschef for blockchain-økosystemet Binance, at noget var galt, da han rullede gennem sin fulde indbakke og fandt seks beskeder fra kunder om nylige videoopkald med investorer, som han angiveligt havde deltaget i. “Tak for investeringsmuligheden,” sagde en af dem. “Jeg har nogle bekymringer om dit investeringsråd,” skrev en anden. Andre klagede over, at videokvaliteten ikke var særlig god, og en spurgte endda direkte: “Kan du bekræfte, at det Zoom-opkald, vi havde torsdag, var dig?”

Med en synkende følelse i maven indså Hillman, at nogen havde deepfaked hans image og stemme godt nok til at holde 20-minutters “investering” Zoom-opkald, der forsøgte at overbevise hans virksomheds kunder om at aflevere deres Bitcoin til scammy investeringer. “De kunder, jeg var i stand til at oprette forbindelse til, delte med mig links til falske LinkedIn- og Telegram-profiler, der hævdede at være mig, der inviterede dem til forskellige møder for at tale om forskellige noteringsmuligheder. Derefter brugte de kriminelle en overbevisende holografi af mig i Zoom-opkald for at forsøge at snyde flere repræsentanter for legitime kryptokurrencyprojekter,” siger han.

Som verdens største kryptobørs med 25 milliarder dollars i volumen på tidspunktet for denne skrivning beskæftiger Binance sig med sin andel af falske investeringssvindel, der forsøger at udnytte sit brand og stjæle folks krypto. “Det var første gang for os,” siger Hillman. “Jeg ser det som et forvarsel om, hvad vi tror er fremtiden for AI-genererede deepfakes, der bruges i forretningssvindel, men det er allerede her.”

Fidusen er så ny, at hvis det ikke var for kloge investorer, der opdagede mærkværdigheder og latenstid i videoerne, havde Hillman måske aldrig kendt til disse deepfake-videoopkald på trods af virksomhedens store investeringer i sikkerhedstalenter og teknologier.

Deepfakes-as-a-Service

Da AI-genererede deepfakes bliver lettere at producere, bruges de allerede til socialingeniøruddannede medarbejdere og omgå sikkerhedskontroller. Misbrug af deepfakes til at begå svig, afpresning, svindel og udnyttelse af børn er nok af en risiko for virksomheder og offentligheden, at Department of Homeland Security (DHS) for nylig udsendte en 40-siders rapport om deepfakes. Det beskriver, hvordan deepfakes skabes af sammensætninger af billeder og stemmer, der er hentet fra online kilder, og det giver også muligheder for at afbøde deepfakes i hensigts-, forsknings-, skabelses- og formidlingsfaserne for et angreb.

“Vi ser allerede Deepfakes-as-a-Service på det mørke web, ligesom vi ser ransomware som en tjeneste, der bruges i afpresningsteknikker, fordi deepfakes er utroligt effektive inden for social engineering,” siger Derek Manky, chefsikkerhedsstrateg og VP for global trusselintelligens hos Fortinets FortiGuard Labs. “For eksempel er udnyttelse af deepfakes populært i BEC [business email compromise] svindel for effektivt at overbevise nogen om at sende penge til en falsk adresse, især hvis de tror, det er en instruktion fra en CFO.”

Hvalfangst for ledere, BEC-svindel og andre former for phishing og landbrug udgør den første fase af typen af angreb mod virksomheder. For eksempel overbeviste svindlere i 2019 ved hjælp af en deepfake af en virksomheds administrerende direktørs stemme markeret som presserende en divisionschef om at overføre $ 243.000 til en “ungarsk leverandør.” Men mange eksperter ser deepfakes som en del af fremtidige malware-pakker, herunder i ransomware og biometrisk subversion.

Retooling nødvendig for at få øje på deepfakes

Ud over at overbevise virksomhedsledere om at sende penge, udgør deepfakes også unikke udfordringer for stemmegodkendelse, der ofte bruges af banker i dag, sammen med anden biometri, siger Lou Steinberg, tidligere CTO for Ameritrade. Efter Ameritrade fortsatte Steinberg med at grundlægge cyberforskningslaboratoriet CTM Insights for at tackle problemer som svagheder i dataintegriteten, der gør det muligt for deepfakes at omgå sikkerhedskontroller. Han kom til den erkendelse, at biometri blot er en anden form for data, som kriminelle kan manipulere efter en demonstration med israelske forskere.

“Vi så israelske forskere udskifte billeder i en CT-scanner for at skjule eller tilføje kræft i scanningsbillederne, og vi indså, at dette kunne bruges i løsesumsituationer, når skurkene siger: ‘Vi viser dig kun de rigtige resultater af din rigtige CT-scanning, hvis du betaler os X antal dollars,'” siger Steinberg. Derfor, siger han, skal der være mere fokus på dataintegritet. “Deepfakes er AI-genererede, og traditionel signaturteknologi kan ikke følge med, fordi det kun kræver en lille justering af billedet at ændre signaturen.”

Da Adobe vidste, at traditionelle sikkerhedskontroller ikke beskytter forbrugere og virksomheder mod deepfakes, lancerede Adobe Content Authenticity Initiative (CAI) for at løse problemet med indholdsintegritet i billede og lyd helt ned på udviklerniveau. CAI-medlemmer har udarbejdet åbne standarder for at udvikle manifester på tidspunktet for billedoptagelse (for eksempel fra det digitale kamera, der tager billedet), så seere og sikkerhedsværktøjer kan verificere ægtheden af et billede. Initiativet har mere end 700 støttende virksomheder, mange af dem medieudbydere, herunder USA Today, Gannett News, Getty Images, sammen med stock image udbydere og billedbehandlingsprodukter virksomheder som Nikon.

“Spørgsmålet om deepfakes er vigtigt nok til, at Adobe CEO presser på for godkendelse af indhold bag billed- og lydfilerne. Dette er et eksempel på, hvordan beskyttelse mod deepfakes vil kræve et nyt sæt modforanstaltninger og kontekst, herunder dyb læring, AI og andre teknikker til at dechiffrere, om noget er ægte eller ej, “forklarer Brian Reed, tidligere Gartner-analytiker, der nu er rådgiver hos Lionfish Technology Advisors. Han peger også på Deep Fakes Passport Act, der blev indført som Senatets lovforslag HR 5532, som søger finansiering til deepfake-konkurrencer for at fremme afbødende kontrol mod dem.

Steinberg foreslår at tage et signal fra den finansielle sektor, hvor afsløring af svig begynder at fokusere mere på, hvad en person beder et system om at gøre i stedet for blot at forsøge at bevise, hvem personen er i den anden ende af transaktionsanmodningen. “Vi er overfokuserede på godkendelse og underfokuseret på autorisation, hvilket kommer ned til hensigt,” forklarer han. “Hvis du ikke har tilladelse til at overføre millioner til en ukendt enhed i en tredje verden, skal denne transaktion automatisk afvises og rapporteres med eller uden brug af biometrisk godkendelse.”

Falsk biometrisk godkendelse

At bevise “hvem” i en transaktion er også problematisk, hvis angribere vender sig dybt mod biometrisk kontrol, fortsætter han. Biometriske billeder og hashes, siger han, er også data, der kan manipuleres med AI-drevet deepfake-teknologi, der kan matche de egenskaber, som de biometriske scannere autentificerer mod, såsom punkter på et ansigt og en iris eller sløjfer på et fingeraftryk. Brug af AI til at identificere AI-genererede billeder er en start, men de fleste matchende teknologier er ikke granulære nok, eller de er så granulære, at scanning af et enkelt billede er besværligt.

Brandbeskyttelsesfirmaet Allure Security skalerer CTM’s AI-drevne mikromatchningsteknologi for at identificere ændringer mod sin database med titusinder af originale mærkebilleder og scanne 100 millioner sider dagligt, siger Josh Shaul, administrerende direktør for Allure. “For at identificere deepfakes designet til at omgå analyse og detektion bruger vi AI mod AI,” forklarer han. “Vi kan udvikle den samme teknologi til at opdage falske billeder, profilbilleder, online video og Web3 spots. For eksempel kiggede vi for nylig på nogle efterligninger i en Metaverse jordkøbsmulighed.

Hillman opfordrer også virksomheder til at opdatere deres træning og bevidsthed, både internt for medarbejdere og ledere og eksternt for kunder. “Ideen om, hvorvidt deepfakes bliver et problem, er ikke længere et spørgsmål om hvis, men hvornår, og jeg tror ikke, at virksomheder har en drejebog om, hvordan man forsvarer sig mod deepfake-angreb,” forudser han. “Brug dine opsøgende kanaler til at uddanne. Udfør eksterne revisioner af ledere for at se, hvem der har indhold derude, der gør dem modtagelige. Gennemgå dine kontroller. Og vær forberedt med krisestyring.”

Kilde: CSO

Foto: Pexels