Möt AI:n som lanserar traditionella låtar för att skapa nya harmonier

Möt AI:n som lanserar traditionella låtar för att skapa nya harmonier Oavsett vilken musikgenre du lyssnar på är konsten att blanda ihop en integrerad del av dagens populärmusik. Från dess tidigaste rötter i de specifika musik- och dancehallartisterna från XNUMX-talets Jamaica till den senaste Cardi B-remixen, har omdirigering och omarrangering av låtar för att skapa nya spår länge varit ett sätt för musiker att upptäcka nya stilar, nya och spännande ljud. Under de första dagarna av elektronisk musikproduktion, remixades musik genom fysisk manipulation på band, en process som bemästras av banbrytande ljudtekniker som Delia Derbyshire, King Tubby och Lee 'Scratch' Perry. Och processen förblev i stort sett oförändrad fram till tillkomsten av digital musik. Nu står remixen på gränsen till ännu en stor omvandling och AI-företaget Audioshake leder satsningen. Vi chattade med Audioshakes medgrundare Jessica Powell om hur företaget använder en komplex algoritm för att hjälpa musikförfattare att bryta sånger från det förflutna för att skapa nytt innehåll och potentiella framtida tillämpningar av tekniken i ljudspår underhållande videor. från Tik-Tok, reklam och få virtuella livemusikkonserter att låta riktigt bra.

Små stjälkar medran kraftfulla ledtrådar

Powell pratade med TechRadar mellan presentationerna på en konferens i Italien och förklarade hur Audioshakes teknik fungerar. "Vi använder artificiell intelligens för att dela in låtar i sina delar, som producenterna känner till som teman, och teman är relevanta i det faktum att du redan kan göra många saker med dem, som i filmer och reklamfilmer," sa han. Genom att arbeta med dessa staplar kan producenterna manipulera enskilda delar av en låt eller ett soundtrack, till exempel att sänka volymen på rösten när en karaktär på skärmen börjar prata. Stickorna används också till allt från att skapa karaokelåtar, som helt klipper bort sången så att du kan möta ditt favoritband i 3 minuter, till att remixa en Ed Sheeran-låt med ett beat av reggaeton. Och som Powell förklarar, används spön ännu mer idag. Rumslig ljudteknik som Dolby Atmos tar enskilda delar av ett spår och placerar dem i en 3D-sfär, och när du lyssnar genom rätt högtalare eller en fantastisk soundbar känner du att musiken kommer från dig från alla hörn. en av vinklarna. .

ett diagram som visar ett musikspår uppdelat i olika delar

(Bildkredit: Audioshake) Så om stammar används så mycket i musikbranschen och utanför, varför behövs Audioshake? Tja, skivbolag har inte alltid tillgång till enspåriga låtar, och redan före 2-talet bestod den mest populära musiken av både monofonisk och XNUMX-spårig inspelningsteknik. Och det betyder att de enskilda delarna av de sångerna – sången, gitarrerna, trummorna – inte kan skiljas åt. Det är här Audioshake kommer in. Ta vilken låt som helst, ladda upp den till företagets databas och dess algoritm undersöker spåret och delar upp det i valfritt antal spår som du anger; allt du behöver göra är att välja vilka instrument som ska uppfattas. för. Vi testade det själva med David Bowies Life on Mars. Efter att ha valt de ungefärliga instrumenten vi ville att algoritmen skulle höra (i det här fallet sång, gitarr, bas och trummor), tog det trettio sekunder att skanna låten och dela upp den i dess beståndsdelar. Därifrån kan du höra varje instrument separat: trummorna, de drunlande bastonerna, det ikoniska gnällande gitarrsolot, Rick Wakemans helt nya pianospel eller bara Bowies sångspår. Och hastigheten med vilken Audioshake kan göra detta är otrolig. "Om du är ett skivbolag eller musikförläggare kan du bygga ett instrument i farten", säger Powell. "Du behöver inte gå till en DAW (digital audio-arbetsstation) som Ableton eller Pro Tools för att docka om låten och skapa instrumentalen, den är här på begäran." Så hur går det? Nåväl, algoritmen har tränats för att känna igen och isolera de olika delarna av en låt. Det är förvånansvärt korrekt, särskilt med tanke på att algoritmen inte är tekniskt medveten om skillnaden mellan, låt oss säga, en cello och en lågfrekvent synthesizer. Det finns dock områden som får dig att snubbla. Tung autotune (Powell använder exemplet "artister som T-Pain") kommer att identifieras som en ljudeffekt snarare än en sångstång. Algoritmen kan fortfarande inte lära sig av användarfeedback, så detta är något utvecklare måste ta itu med, men det faktum att dessa staplar kan separeras är verkligen fantastiskt.

Rätten att spela in

Tyvärr är Audioshakes teknik inte tillgänglig idag för den ödmjuka sovrumsproducenten. Nu är kunderna till företagets tjänst mestadels rättighetsinnehavare som skivbolag eller förlag, och även om det kan vara en besvikelse för alla som vill slå en Abba-tradition inför bandets nästa virtuella hem på In the City of London, används teknik i några riktigt intressanta sätt. . Ett låthanteringsföretag, Hipgnosis, som ser låtar som investeringsmöjligheter lika mycket som konstverk, har rättigheterna till en enorm katalog med ikoniska låtar av artister från Fleetwood Mac till Shakira. Ta Van Goghs solrosor. Vi ska inte bara ta fram en solros om du inte vill. Jessica Powell, medgrundare av Audioshake Med hjälp av Audioshake skapar Hipgnosis teman för dessa gamla låtar och ger dem sedan till sin ensemble av musiker "för att försöka ombilda dessa låtar för framtiden och introducera dem för en ny generation", som Powell uttrycker det . dessa beats av rätt person som kan göra riktigt intressanta saker med dem. Att äga rättigheterna till dessa låtar gör dessa saker möjliga, och att öppna tekniken för allmänheten kan vara en juridisk röra, med människor som använder och reproducerar konstnärliga skapelser som inte är deras egna. Det är dock inte bara en juridisk fråga; För Audioshake handlar det också om moral, och Powell gör det klart att tekniken ska fungera för artister, inte mot dem. Hon säger att företaget "verkligen ville se till att vi respekterade artistens önskemål. Om du vill öppna upp dina låtar och hitta dessa nya sätt att tjäna pengar på dem, vill vi finnas där för att hjälpa dig att göra det. Och om de inte är nöjda med det, är det inte vi som hjälper någon att bryta sitt jobb utan tillstånd. "Låt oss ta Van Goghs solrosor", tillägger han. ”Vi tar inte bara fram en solros om du inte vill.

framtidens ljud

Men traditionella popremixer är bara början. Det finns många potentiella applikationer för Audioshake som kan öppna upp i framtiden, och TikTok kan vara en av de mest lönsamma. De möjligheter som skapas genom att ge TikTok-författare möjligheten att arbeta med pinnar för att varva spår på ett underhållande sätt kan vara ett ovärderligt verktyg för en social medieplattform baserad på korta ljud- och videoklipp. Det är också möjligt att förbättra ljudkvaliteten på livemusik. När en artist livestreamar en av sina konserter på en plattform som Instagram, såvida de inte kan använda en livestream från ljuddisken, kommer lyssnaren att höra mycket brus och distorsion från publiken. "Titta på något på Instagram Live och du stannar inte ens; Du föredrar ganska mycket att se musikvideon eftersom ljudet är dåligt”, säger Powell. Genom att använda Audioshake (och med lite fördröjning) kan du minska publikens brus, minska basen och ta fram sång för en tydligare ljudupplevelse.

en studiomusikproducent

(Bildkredit: Shutterstock / Standret) Om man tittar längre bort är det möjligt att använda teknik för att generera adaptiv musik, alltså musik som förändras baserat på dina aktiviteter. "Det är mer futuristiskt, men tänk dig att gå nerför gatan och lyssna på Drake", säger Powell. "Och sedan börjar du springa och den här låten förvandlas; det är fortfarande Drake-låten, men nu är det nästan som en annan genre, och det kommer från att arbeta med delarna av låten, som att öka intensiteten på trumslaget medan du tränar ." Det verkar som att adaptiv musik är lite långt borta, men vi vet att ljud redan kan manipuleras efter miljön. Titta bara på bekväma brusreducerande hörlurar som Sony WH-1000XM4, som kan öka nivån av brusreducering när du går in i bullriga miljöer, och andra hörlursmodeller har liknande funktioner som automatiskt justerar volymen på dina hörlurar. hans musik enligt hans miljö. XM4:s Speak-to-Chat-funktion är ett annat exempel, med hörlurarna som lyssnar på ljudet av din röst. Appar för att använda hörlurar kan gå ännu längre. Eftersom Apple AirPods XNUMX ryktas ha biometriska sensorer som mäter allt från din andningsfrekvens till hur exakt du kan återskapa en yogaställning, kan adaptiv musik till och med användas för att förbättra dina träningspass när dina hörlurar upptäcker en nedgång i iver, och Rod Gruvteknologier som Audioshake kan göra det lättare för artister att kommersiellt utnyttja sin musik på detta sätt. Även om adaptiv musik sannolikt inte kommer att nå våra öron på några år, är idén att öppna upp låtar för att göra dem mer interaktiva och personliga lika spännande som nästa generations musiker som använder låtar från det förflutna för att skapa nya. ljud. Låt oss hoppas vilken dag som helst ödmjuka kammarmusiker också kommer att kunna utnyttja dessa låtar, som att plocka blommor från en Van Gogh-kanna.