Bekämpa misslyckanden med röstbiometrisk teknik.

Bekämpa misslyckanden med röstbiometrisk teknik.

Med varje tekniskt framsteg verkar det vara ett motsvarande framsteg när det gäller att utnyttja denna teknik för skadliga ändamål. Detta gäller särskilt inom finansbranschen, där de metoder som används för att interagera med våra banker har producerat en ny form av "bankrånare". När transaktioner enbart bestod av att gå till ett bankkontor bestod hotet om ekonomisk förlust i första hand av ett väpnat angrepp. tjuv. Internets intåg har dock markerat introduktionen av nätbanker, en teknisk och avgörande fördel för banker och kunder. Den introducerade också en ny generation bankrånare i form av programmerare och hackare. De nya flygteknikerna baserades inte på skjutvapen, utan på social ingenjörsteknik, såsom nätfiske, såväl som mycket mer avancerade tekniker, såsom Man-in-the-Mal malware. -Middle y Man-in-the-Browser. Genom att bli datorer som distribuerar pengar har de varit måltavla för skadlig programvara. Smartphone-appar har inte heller varit immuna mot skadlig programvara som riktar sig mot deras respektive operativsystem. Våra ansträngningar för att motverka dessa attacker är ofta också beroende av teknologier, som att använda 2-faktors autentisering med SMS-baserade auktoriseringskoder. Det är därför inte förvånande att dessa tekniker också har attackerats av tekniker som SIM-bytesattacker och till och med SS7.Deepfakes globala telekomnätverkshack. Det finns en ny teknik känd som Deepfake som, även om den har mycket avlägsna ursprung, tror vi att den kommer att ha förmågan att användas som en ny och kraftfull bedrägerivektor. Depefake är användningen av Machine Learning för att skapa audio/visuella imitationer av riktiga människor. Den använder en teknik som kallas Generative Adversarial Network (GAN), som kan generera ny data från befintliga datamängder. Detta inkluderar bilder och ljud. Till exempel kan befintliga ljud-/videofiler av en person som talar användas för att generera ett nytt syntetiskt ljud/video, beroende på vad algoritmen har lärt sig av den verkliga videon/ljudet. Även om det ursprungligen användes för att omvandla kändisar till pornografiska filmer, sträcker sig de skadliga möjligheterna med Deepfakes från att förfalska falsk information till tv, det vill säga att vi nu kan se att målet talar till oss personligen. Fake news, valmanipulation, desinformationskrig och ett helt nytt sätt. Nedgången av tryckta medier till förmån för den digitala mottagningen av våra nyheter är inte bara praktiskt, utan har också introducerat mycket rikare innehåll. ljud och video Det finns praktiskt taget obegränsade webbplatser vi kan besöka för nyheter och innehåll. Om vi ​​ser ett videoklipp av en person, okänd eller inte, som sänder ett meddelande, har vi ingen anledning att misstänka att den här videon är falsk. Detta ger ett nyckelfärdigt forum för dem som vill sprida falska nyheter genom Deepfakes.Mage: Shutterstock (Bild: © Shutterstock) Potentiell påverkan på finansiella tjänster Varför kan Deepfake också påverka finansiella tjänster? Information sprids alltmer digitalt, liksom banktjänster. Unified communications och omnikanalstrategier innebär att banker kommunicerar med sina kunder med hjälp av till exempel ett webbläsarbaserat ljud/videosystem. Detta kan vara med en mänsklig agent, men i framtiden även med artificiell intelligens (AI)-baserade agenter. Så det är inte svårt att föreställa sig en video/ljudkonversation mellan en förmögen kund och hans privata bankman. Om klienten ser ut och liknar sig själv och självklart kan ge svar på alla säkerhetsfrågor (som han alltid skulle göra), varför accepterar inte bankiren någon av de instruktioner som klienten ger? Mycket större skala med banker som använder ansiktsigenkänningsteknik för att autentisera kunder på webbplatser och mobilappar? Detta kan innebära självbetjäning, interaktion med en mänsklig agent eller med en AI-chatbot. Om ansiktet matchar, och med tanke på att Deepfakes inte är statiska, visar de livlighet, bedrägliga transaktioner kommer att utföras. Detta är bara två exempel som involverar kundinteraktioner. Interbankkommunikation och instruktioner kunde äventyras på samma sätt, utan tvekan, som författaren inte ens övervägde. Att vara lätt identifierbar av en kollega eller extern medarbetare kan bli nyckeln till att utnyttja Deepfakes teknologi. Ingen vill ifrågasätta identiteten på en välkänd person som ser ut och låter helt normal. Upptäcka en Deepfake Så hur upptäcker vi att det som verkar verkligt för våra ögon och faktiskt låter i våra öron faktiskt är felaktigt? Svaret ligger i Deepfake-ljud och användningen av avancerade sångbiometriska tekniker. Oavsett det verkliga, "mänskliga" utseendet hos en Deepfake är den syntetiskt genererad. Även Deepfake-videor innehåller alltid en ljudkomponent, och det är där ljudet är nyckeln till deras upptäckt. Avancerade biometriska röstalgoritmer inkluderar tekniker för att upptäcka både inspelningar, kallade uppspelnings- eller presentationsattacker, såväl som syntetiskt genererat ljud. Oavsett hur en "mänsklig" röst kan låta för det mänskliga örat, är det inte vad det verkar som är viktigt för syntetiska detektionsmotorer. Deras tolkning av huruvida ljudet talas av en människa eller inte är mycket annorlunda än vår. Röstbiometri har alltid varit det mest kraftfulla och korrekta sättet att autentisera eller identifiera en människas sanna identitet. Förmågan hos de mest avancerade biometriska röstmotorerna att samtidigt identifiera skillnaden mellan en människa och en syntetiskt genererad "människa" kan vara ovärderlig om vi verkligen bevittnar uppkomsten av Deepfakes.