Banar väg för Terabit Ethernet

Banar väg för Terabit Ethernet Trots framsteg inom Wi-Fi-teknik och den senaste introduktionen av Wi-Fi XNUMX, är Ethernet fortfarande den föredragna tekniken som företag använder när de behöver flytta stora mängder data snabbt, särskilt i datacenter. Även om tekniken bakom Ethernet nu är mer än fyrtio år gammal har det under åren utvecklats nya protokoll som gör att ännu fler gigabyte data kan skickas. För att lära dig mer om de senaste teknologierna, protokollen, framstegen och framtiden för Gigabit Ethernet och kanske till och med en dag snart Terabit Ethernet, pratade TechRadar Pro med Tim Klein, VD för lagringsanslutningsföretaget ATTO.

Ethernet introducerades första gången XNUMX, hur har tekniken utvecklats sedan den tiden och var passar den in i dagens datacenter?

Nu, mer än fyra decennier gammal, har Ethernet-tekniken gjort betydande förbättringar, men det finns också många saker som ser exakt ut som de gjorde när de först introducerades. Ursprungligen utvecklad för forskare att dela små bitar av data med tio megabit per sekund (Mbps), ser vi nu gigantiska datacenter som delar enorma uppsättningar av ostrukturerad data över Ethernet-nätverk, och en färdplan som kommer att nå Terabit Ethernet om bara några år. . Den exponentiella utvecklingen av data, driven av nya format som digitala bilder, skapade en enorm efterfrågan och dessa tidiga implementeringar av delad lagring över Ethernet kunde inte möta prestandabehov eller hantera överbelastning med deterministisk latens. Som ett resultat har protokoll som Fibre Channel utvecklats speciellt för lagring. Under årens lopp har flera innovationer som smart offloading och RDMA introducerats så att Ethernet kan möta kraven på ostrukturerad data och övervinna det dödläge som kan uppstå vid överföring av stora uppsättningar data. De senaste höghastighets-Ethernet-standarderna, såsom 4/10/25/40/50GbE, är nu ryggraden i det moderna datacentret.

(Bildkredit: Pixabay)

Dagens applikationer kräver allt högre prestanda. Vilka är utmaningarna med att konfigurera snabbare protokoll? Kan programvaran hjälpa till här?

Tuning är extremt viktigt nuförtiden på grund av kravet på högre prestanda. Varje system, oavsett om det är en klient eller en server, måste anpassa sig till kraven för varje specifikt arbetsflöde. Det stora antalet fildelningsprotokoll och arbetsflödeskrav kan vara överväldigande. Tidigare har du kanske erkänt att halva din bandbredd förstördes av överbelastning med incidenter och paketförlust som saktade ner dig till en svindlande takt. Nuförtiden finns det flera metoder för att optimera prestanda och ställa in Ethernet-adaptrar för mycket intensiva arbetsbelastningar. Hårdvarudrivrutiner kommer nu med inbyggda algoritmer som förbättrar effektiviteten; TCP-avlastningsmotorer minskar nätverksstackoverhead. Large Receive Offload (LRO) och TCP Segmentation Offload (TSO) kan också byggas in i hårdvara och mjukvara för att underlätta överföringen av stora volymer ostrukturerad data. Att lägga till buffertar, såsom en kontinuerlig mottagningskö, snabbar upp paketleveransen, ökar rättvisan och förbättrar prestandan. Nyare teknologier, som RDMA, möjliggör direkt minnesåtkomst genom att kringgå operativsystemets nätverksstack och praktiskt taget eliminera overhead.

Vad driver införandet av 10/25/50/100GbE-gränssnitt?

Efterfrågan på större, mer effektiva lagringslösningar och entusiasm för nya Ethernet-tekniker som RDMA och NVMe-over-Fabrics driver antagandet av höghastighets-Ethernet i moderna datacenter. Tio Gigabit Ethernet (10GbE) är nu den dominerande sammankopplingen för adaptrar av serverklass, och 40GbE introducerades snabbt för att tänja på gränserna genom att kombinera 4 körfält med 10GbE-trafik. Detta utvecklades ibland till 25/50/100GbE-standarden som använder tjugofem Gigabit-banor. Nätverk använder nu en blandning av alla 10/25/40/50/100 GbE hastigheter, med 50 GbE i kärnan, 100 GbE i kanten. Möjligheten att blanda och matcha hastigheter, designa vägar för att ge dem all kraft de behöver och balansera datacentret från kärnan till kanten, leder till ett snabbt antagande av XNUMX/XNUMX/XNUMX GbE-standarden. Ny teknik som RDMA öppnar nya möjligheter för företag att använda nätverksadaptrar och nätverksansluten lagring (NAS) med deterministisk latens för att hantera arbetsbelastningar som tidigare behövde hanteras av datornätverk. Dyrare lagring (SAN) med fiber. Kanaladaptrar som kräver mer specialiserad hjälp. På senare tid ser vi NVMe-Over-Fabrics, som använder RDMA-transport för att dela banbrytande NVMe-teknik i ett lagringstyg. Hundra GbE nätverkskort med RDMA öppnade dörren till NVMe-lagringstyget som uppnår den snabbaste prestandan på marknaden idag. Dessa tidigare otänkbara nivåer av hastighet och tillförlitlighet låter företag göra mer med sin data än någonsin tidigare.

Vad är RDMA och hur påverkar det Ethernet-tekniken?

Remote Direct Memory Access (RDMA) tillåter smarta nätverkskort att komma åt minnet direkt från ett annat system utan att gå igenom den traditionella TCP-processen och utan CPU-intervention. Traditionella överföringar förlitade sig på operativsystemets nätverksstack (TCP/IP) för att kommunicera, vilket orsakade enorma overheadkostnader, vilket resulterade i förlust av prestanda och begränsade vad som var möjligt med Ethernet och lagring. RDMA möjliggör nu förlustfria överföringar som praktiskt taget eliminerar overhead med en massiv ökning av effektiviteten genom att spara CPU-cykler. Prestanda ökar och latensen minskar, vilket gör att organisationer kan göra mer med mindre. RDMA är faktiskt en förlängning av DMA (direkt minnesåtkomst) och kringgår CPU:n för att tillåta "noll kopiering"-operationer. Dessa teknologier har varit en integrerad del av Fibre Channel-lagring i många år. Denna deterministiska latens som gjorde Fibre Channel till förstahandsvalet för företag och tunga arbetsbelastningar är nu gratis med Ethernet, vilket gör det enklare för organisationer av alla storlekar att dra nytta av avancerad delad lagring.

Hur är NVMe integrerat?

Där NVMe integreras med Ethernet är genom NVMe-over-Fabrics-protokollet. Det är helt enkelt det snabbaste sättet att överföra filer över Ethernet idag. NVMe i sig utvecklades för att dra fördel av moderna SSD:er och flashlagring genom att uppgradera SATA/SAS-protokoll. NVMe höjer ribban ytterligare genom att dra fördel av möjligheten hos icke-flyktigt minne att fungera parallellt. Eftersom NVMe är en direktansluten lagringsteknik, är nästa steg mot delad lagring där Ethernet eller Fibre Channel kommer in: att föra NVMe till en delad lagringsstruktur.

RAM

(Bildkredit: Gorodenkoff/Shutterstock)

Vilka är Ethernet-kraven för lagringstekniker som RAM-disk och smart lagring?

Smarta NIC är en delvis ny term för nätverkskontrollers förmåga att hantera operationer som tidigare var en processors börda. Avlastning av systemprocessorn förbättrar den totala effektiviteten. För att ta denna term ännu längre erbjuder nätverkskortstillverkare Field Programmable Gate Array (FPGA)-teknik som gör att specifik applikationsfunktionalitet, inklusive dataavlastning och acceleration, kan utvecklas och kodas på FPGA. Att vila på hårdvarulagret gör dessa nätverkskort imponerande snabba med enorm potential i framtiden att lägga till fler innovationer till detta lager. Disk RAM Smart Storage utvecklar detta område genom att integrera dataaccelerationshårdvara i lagringsenheter som använder flyktigt RAM (vilket är snabbare än det icke-flyktiga minnet som används i NVMe-enheter idag). Detta leder till imponerande snabb lagring med möjligheten att optimera tunga arbetsbelastningar. Kombinationen av ultrasnabb RAM-lagring, integrerad NIC-övervakare och FPGA med intelligent avlastning och dataacceleration har enorm potential för superhöghastighetslagring. RAM-disk och smart lagring skulle inte existera utan de senaste innovationerna inom Ethernet RDMA och NVMe-over-Fabrics.

Vilken framtid har Ethernet-tekniken?

Tvåhundra Gigabit Ethernet börjar redan spridas från HPC-lösningar till datacenter. Standarden fördubblar banorna till femtio GbE var och det finns en anmärkningsvärd färdplan som kommer att se en med fem terabit om bara några år. PCI Express XNUMX kommer att spela en nyckelroll för att möjliggöra dessa högre hastigheter, och företag kommer att fortsätta leta efter sätt att maximera kraften, snabba upp överföringshastigheterna och hitta sätt att hantera CPU-drift. Och GPU med nätverksdrivrutiner och FPGA.