Trafikkbelastning i Cisco UCS.

Trafikkbelastning i Cisco UCS.

Nar jeg distribuerer en Cisco UCS hos en kunde, sporsmalet jeg far spurt mye, er hvordan trafikken flyter i systemet mellom VMs som kjorer pa blader og FEX-moduler, FEX-moduler og Fabric Interconnects, og til slutt hvordan det er koblet til nettverket kjerne.

Cisco har en rekke CNA-kort for UCS-blad. Med VIC 1280 far du 8 x 10 GB-porter fordelt mellom to FEX-moduler for redundans. Og FEX-moduler i seg selv kan ha opptil 8 x 10 Gb Fabric Interconnect-vender grensesnitt, noe som kan gi deg opptil 160 GB bandbredde per chassis. Og alle disse tallene kan hores imponerende, men med mindre du forstar hvordan VMs trafikk flyter gjennom UCS, er det enkelt a ta feil forutsetninger om hva som er VM og samlet bandbredde du kan oppna. Sa la oss dykke inn i UCS og kaste litt lys pa hvordan VM-trafikken er balansert i systemet.

Hver tekstilforlenger (FEX) har eksterne og interne porter. Eksterne FEX-porter er patched til FI og interne porter er internt koblet til bladadaptere. FEX 2204 har 4 eksterne og 16 interne og FEX 2208 har 8 eksterne og 32 interne porter.

Eksterne porter er koblet til FI i kraft av to: 1, 2, 4 eller 8 porter per FEX, og danner en portkanal (pass pa at du bruker «Channel Channel» -konfigurasjon for koblingsgruppe under Chassis / FEX Discovery Policy) . Samme regel gjelder for virtuelle grensesnittkort (VIC). Den vanligste VIC 1240 og 1280 har henholdsvis 4 x 10 GB og 8 x 10 GB-porter, og danner ogsa en portkanal til de interne FEX-porter. Hver VIC-adapter er koblet til begge FEX-modulene for redundans.

Stoffforbindelser legges deretter til nettverkskjernen og FC Fabric (hvis du har en). Hvorvidt Ethernet uplinks vil v re individuelle uplinks eller portkanaler vil avhenge av nettverkstopologien din. For fiberopplinser er tommelfingerregelen a feste FI A til FC Fabric A og FI B til FC Fabric B, som folger det vanlige FC-trafikkisoleringsprinsippet.

For a gi nettverk og lagringstilkobling til blader, oppretter du virtuelle NICer og virtuelle HBAer pa hvert blad. Siden internt UCS bruker FCoE til a overfore FC-rammer, bruker bade vNICs og vHBAs de samme 10GbE uplinks for a sende og motta trafikk. Det er verdt a nevne at Cisco bruker datasentralbrudd (DCB) -protokollen med det sub-protokollene Priority Flow Control (PFC) og Enhanced Transmission Selection (ETS), som garanterer at FC-rammer har hoyere prioritet i koen og behandles forst for a sikre lav ventetid. Men jeg gar ned.

UCS tildeler en virtuell krets til hver virtuell adapter, som er en fremstilling av hvordan trafikken krysser systemet helt fra VIC-porten til en FEX-innvendig port, deretter FEX-ekstern port, FI-serverport og til slutt en FI-uplink. Du kan spore hele banen til hver virtuell adapter i UCS Manager ved a velge en Tjenesteprofil og vise fanen VIF-baner.

I dette eksemplet har vi et blad med fire vNICer og to vHBAer som er delt mellom to stoffer. Alle virtuelle adaptere pa stoff A er koblet til via VIC-portkanal PC-1283 som er representert som portkanal PC-1025 pa FEX A-siden. Deretter gar trafikken fra FEX A og nar Fabric Interconnect A som sender trafikken ut til nettverkskjernen via portkanal A / PC-1.

Du kan ogsa fa listen over portkanaler fra FI CLI:

# vis port-kanal sammendrag.

Na som vi vet hvordan alle komponenter er sammenkoblet til hverandre, la oss diskutere trafikkstrommen i et typisk VMware-miljo og hvordan vi oppnar det massive nettverksutbyttet som UCS gir.

For eksempel, la oss se pa vSwitchen hvor VM-nettverksportgruppen din er konfigurert. vSwitch vil ha to uplinks & # 8211; man gar til stoffet A og den andre til stoffet B for redundans. Standard belastningsbalansepolicy pa en vSwitch er & # 8220; Rute basert pa opprinnelsesport ID, som i det vesentlige peker all trafikk for en VM til en bestemt opplenkning. vSphere sorger for at VM er jevnt fordelt mellom uplinks for a bruke all nettverksbandbredde som er tilgjengelig.

Fra hver uplink (eller vNIC i UCS-verden) sendes trafikk via en adapterportkanal til en FEX, deretter til en Fabric Interconnect og forlater UCS fra en FI-opplinkning. Innenfor UCS distribueres trafikken mellom portkanalmedlemmer ved hjelp av kilde / destinasjon IP hash-algoritme. Hvilken er enda mer granul r og har sv rt effektiv trafikkfordeling mellom alle medlemmene av en portkanal helt opp til nettverkskjernen.

Hvis du ser pa vSwitchen, ser du at med UCS viser hver uplink maksimal tilgjengelig bandbredde fra vNIC og er ikke begrenset til en portkanalmedlemshastighet pa 10 GB. Hvorfor er dette sa kraftig? Fordi med UCS du ikke trenger a kutte adapterens tilgjengelige bandbredde mellom ulike typer trafikk. Selv om du lager flere vNICer og vHBAer for vSphere-vertene, bruker UCS samme portkanalkoblinger (20Gb i eksemplet nedenfor) fra VIC-adapteren for a overfore all trafikk og tar vare pa belastningsbalansering for deg.

Du kan lovlig sporre om UCS bruker samme ror for a overfore alle data uavhengig av hvilken vSwitch-opplasting som brukes, sa hvordan kan jeg forsikre meg om at ulike typer trafikk, for eksempel vMotion, lagring, VM-trafikk, replikering, osv. ikke konkurrere om samme ror? Forst ma du sporre deg selv om du kan mette sa mye bandbredde med arbeidsbelastningene dine. Hvis svaret er ja, kan du bruke en annen flott funksjon tilgjengelig i UCS, som er QoS. QoS lar deg tildele en minimum tilgjengelig bandbreddegaranti pa per VNIC / vHBA basis. Men det er et emne for et annet blogginnlegg.

I dette innlegget forsokte jeg a oppsummere logikken bak UCSs trafikkdistribusjon. Hvis du vil grave dypere i UCS nettverksarkitektur, sa er det mange flotte bloggere der ute. Jeg onsker a ringe ut folgende forfattere:

Brad Hedlund & # 8211; Hvis du vil forsta bedre UCS-arkitektur og nettverkets beste praksis, har Bred en flott serie med videoer: Cisco UCS Networking-videoer (i HD), oppdatert & amp; Forbedret! Colin Lynch (UCSguru) & # 8211; Denne bloggen er dedikert spesielt til UCS. Hvis du vil vite mer om virtuelle kretser, vil jeg anbefale disse to blogginnleggene: Forsta UCS VIF-baner Under Cisco UCS Kimono Matthew Oswalt & # 8211; Keeping It Classless er en blogg som er rettet mot DevOps, men har ogsa noen UCS-artikler, jeg fant denne spesielt nyttig: Cisco UCS Port-Channeling.

Dele denne:

Post navigasjon.

Legg igjen et svar Avbryt svar.

Men jeg har sporsmal, jeg ma implementere lastbalanse Leaf A og Leaf B. Jeg forstar med konfigurasjon pa Guest OS (Vmware eller Baremetal). Men jeg forstar fortsatt ikke med konfigurasjonsattributtet pa FI eller Leaf.

I min test kan jeg vellyve ping fra guest os (i baremetall eller vmware) pa gateway, men sa sjekker jeg pa hvert blad, jeg har bare funnet arp pa Leaf A, men ikke funnet i Leaf B (Leaf B-mottakende arpbord). Men Leaf B fikk Mac-adressetabellen mottatt fra Leaf A. Sa jeg antar at belastningsbalansen ikke virker.

Min topologi liker:

eth0 Blade Server eth1.

Blade server bruker ip gateway fra grensesnittet vlan blad A og blad B (samme adresse).

Jeg lager grensesnitt teaming fra blad server, med hvert grensesnitt peker pa blad A og Leaf B. Jeg har bare satt i UCS adapter til:

Hei Randy, det er ikke klart fra sporsmalet ditt hva nettverkstopologi er. Hvis du kan dele et detaljert diagram over hva du prover a oppna, kan jeg kanskje hjelpe.


Hallo! Vil du spille i det mest populære kasinoet? Vi fant det for deg. Trykk her nå!