La documentazione per questo prodotto è stata redatta cercando di utilizzare un linguaggio senza pregiudizi. Ai fini di questa documentazione, per linguaggio senza di pregiudizi si intende un linguaggio che non implica discriminazioni basate su età, disabilità, genere, identità razziale, identità etnica, orientamento sessuale, status socioeconomico e intersezionalità. Le eventuali eccezioni possono dipendere dal linguaggio codificato nelle interfacce utente del software del prodotto, dal linguaggio utilizzato nella documentazione RFP o dal linguaggio utilizzato in prodotti di terze parti a cui si fa riferimento. Scopri di più sul modo in cui Cisco utilizza il linguaggio inclusivo.
Cisco ha tradotto questo documento utilizzando una combinazione di tecnologie automatiche e umane per offrire ai nostri utenti in tutto il mondo contenuti di supporto nella propria lingua. Si noti che anche la migliore traduzione automatica non sarà mai accurata come quella fornita da un traduttore professionista. Cisco Systems, Inc. non si assume alcuna responsabilità per l’accuratezza di queste traduzioni e consiglia di consultare sempre il documento originale in inglese (disponibile al link fornito).
Questo documento descrive la configurazione di Quality of Service (QoS) all'interno del sistema di calcolo unificato (UCS) e dei dispositivi Nexus.
Nessun requisito specifico previsto per questo documento.
Le informazioni fornite in questo documento si basano sulle seguenti versioni software e hardware:
Le informazioni discusse in questo documento fanno riferimento a dispositivi usati in uno specifico ambiente di emulazione. Su tutti i dispositivi menzionati nel documento la configurazione è stata ripristinata ai valori predefiniti. Se la rete è operativa, valutare attentamente eventuali conseguenze derivanti dall'uso dei comandi.
Questo documento tratta delle tecnologie UCS (6100 e 6200 Fabric Interconnect) e Nexus (5000 e 5500) QoS relative in modo specifico a FlexPod e vBlock.
Terminologia utilizzata nella presente documentazione relativa a QoS.
CoS = Class of Service = 802.1p = 3 bit nell'intestazione .1q di ciascun pacchetto per indicare allo switch come eseguire la classificazione.
QoS = Quality of Service = Modalità di gestione di ogni classe di servizio da parte dello switch.
MTU = Maximum Transmission Unit = Dimensioni massime di un frame/pacchetto consentite sullo switch. Il più comune e predefinito (normale è quello che lo screenshot UCS mostra qui sotto) è 1500.
Impostazioni QoS UCS di riferimento (classe sistema UCSM/LAN/QoS):
Nota: Best Effort e Fibre Channel sono disattivati e non possono essere disabilitati in UCS.
P10-UCS-A(nxos)# show running-config ipqos logging level ipqosmgr 2 class-map type qos class-fcoe class-map type queuing class-fcoe match qos-group 1 class-map type queuing class-all-flood match qos-group 2 class-map type queuing class-ip-multicast match qos-group 2 policy-map type qos system_qos_policy class class-fcoe set qos-group 1 class class-default policy-map type queuing system_q_in_policy class type queuing class-fcoe bandwidth percent 50 class type queuing class-default bandwidth percent 50 policy-map type queuing system_q_out_policy class type queuing class-fcoe bandwidth percent 50 class type queuing class-default bandwidth percent 50 class-map type network-qos class-fcoe match qos-group 1 class-map type network-qos class-all-flood match qos-group 2 class-map type network-qos class-ip-multicast match qos-group 2 policy-map type network-qos system_nq_policy class type network-qos class-fcoe pause no-drop mtu 2158 class type network-qos class-default system qos service-policy type qos input system_qos_policy service-policy type queuing input system_q_in_policy service-policy type queuing output system_q_out_policy service-policy type network-qos system_nq_policy
Informazioni pertinenti:
Scheda di formattazione QOS <=> CoS
CoS | qos-group | |
Platino | 5 | 2 |
Oro | 4 | 3 |
Argento | 2 | 4 |
Bronzo | 1 | 5 |
Best-effort | Qualsiasi | 0 |
Fibre Channel | 3 | 1 |
CoS può essere modificato in CoS 6 su UCS. CoS 7 è riservato alle comunicazioni UCS interne.
P10-UCS-A(nxos)# show queuing interface Ethernet1/1 queuing information: TX Queuing qos-group sched-type oper-bandwidth 0 WRR 50 1 WRR 50 RX Queuing qos-group 0 q-size: 360640, HW MTU: 1500 (1500 configured) drop-type: drop, xon: 0, xoff: 360640 Statistics: Pkts received over the port : 27957 Ucast pkts sent to the cross-bar : 0 Mcast pkts sent to the cross-bar : 27957 Ucast pkts received from the cross-bar : 0 Pkts sent to the port : 347 Pkts discarded on ingress : 0 Per-priority-pause status : Rx (Inactive), Tx (Inactive) qos-group 1 q-size: 79360, HW MTU: 2158 (2158 configured) drop-type: no-drop, xon: 20480, xoff: 40320 Statistics: Pkts received over the port : 0 Ucast pkts sent to the cross-bar : 0 Mcast pkts sent to the cross-bar : 0 Ucast pkts received from the cross-bar : 0 Pkts sent to the port : 0 Pkts discarded on ingress : 0 Per-priority-pause status : Rx (Inactive), Tx (Inactive) Total Multicast crossbar statistics: Mcast pkts received from the cross-bar : 347
Questo output mostra come l'interfaccia accoda ciascuna classe.
Informazioni su switchport Ethernet 1/1:
Mostra interfaccia di accodamento per le porte Input e Output Module (IOM) nello chassis UCS:
Ethernet1/1/1 queuing information: Input buffer allocation: Qos-group: 1 frh: 3 drop-type: no-drop cos: 3 xon xoff buffer-size ---------+---------+----------- 8960 14080 24320 Qos-group: 0 frh: 8 drop-type: drop cos: 0 1 2 4 5 6 xon xoff buffer-size ---------+---------+----------- 0 117760 126720 Queueing: queue qos-group cos priority bandwidth mtu --------+------------+--------------+---------+---------+---- 2 0 0 1 2 4 5 6 WRR 50 1600 3 1 3 WRR 50 2240 Queue limit: 66560 bytes Queue Statistics: queue rx tx ------+---------------+--------------- 2 18098 28051 3 0 0 Port Statistics: rx drop rx mcast drop rx error tx drop mux ovflow ---------------+---------------+---------------+---------------+-------------- 0 0 0 0 InActive Priority-flow-control enabled: yes Flow-control status: cos qos-group rx pause tx pause masked rx pause -------+-----------+---------+---------+--------------- 0 0 xon xon xon 1 0 xon xon xon 2 0 xon xon xon 3 1 xon xon xon 4 0 xon xon xon 5 0 xon xon xon 6 0 xon xon xon 7 n/a xon xon xon
Sono disponibili i gruppi qos 0 e qos 1, i gruppi qos 0 ottengono i pacchetti contrassegnati con cos 0 1 2 4 5 6 e i gruppi qos 1 ottengono cos 3. Le dimensioni del buffer su Fabric Extender (FEX)/IOM sono leggermente inferiori e sono solo 126720 byte. Il FEX esegue QoS in modo leggermente diverso, prende più qos-group e li raggruppa in una coda. È possibile visualizzare i contatori rx e tx per ciascuna coda.
L'ultimo output da sottoporre a check-out è: show interface priority-flow-control
P10-UCS-A(nxos)# show interface priority-flow-control ============================================================ Port Mode Oper(VL bmap) RxPPP TxPPP ============================================================ Ethernet1/1 Auto Off 0 0 Ethernet1/2 Auto Off 0 0 Ethernet1/3 Auto Off 0 0 Ethernet1/4 Auto Off 6 0 Ethernet1/5 Auto Off 0 0 Ethernet1/6 Auto Off 0 0 Ethernet1/7 Auto Off 0 0 Ethernet1/8 Auto Off 0 0 Ethernet1/9 Auto Off 0 0 Ethernet1/10 Auto Off 2 0 ..snip.. Vethernet733 Auto Off 0 0 Vethernet735 Auto Off 0 0 Vethernet737 Auto Off 0 0 Ethernet1/1/1 Auto On (8) 0 0 Ethernet1/1/2 Auto Off 0 0 Ethernet1/1/3 Auto On (8) 0 0 Ethernet1/1/4 Auto Off 0 0
In questo modo viene mostrato sulle interfacce negoziate da PFC (Priority Flow Control) (Auto On) e sulle interfacce non negoziate da PFC (Auto Off). Il PFC permette allo switch di chiedere allo switch adiacente di non inviare pacchetti di un CoS specifico per un breve periodo di tempo. Le pause PFC (PPP, per priorità di pausa) si verificano quando i buffer sono pieni o quasi pieni. L'output di `show cdp neighbors` e `show fex details` ci dice che Ethernet 1/1-4 è fino al FEX/IOM dello Chassis 1 e Ethernet 1/9-10 è fino al Nexus 5000. In questo output 6 pause sono state inviate al FEX/IOM su Ethernet 1/4 e 2 pause sono state inviate su Ethernet 1/10 al Nexus 5000 upstream.
Nota: Poiché FEX/IOM non sono realmente switch, PFC NON negozia tra loro su Ethernet1/1-4 ma può negoziare con l'endpoint Ethernet1/1/1. I PPP inviati a FEX/IOM vengono inviati tramite la porta remota Ethernet1/1/1.
Ecco come appare la funzionalità QoS di UCS fuori dagli schemi....
Il risultato è la configurazione:
class-map type qos class-fcoe class-map type qos match-all class-silver match cos 2 class-map type queuing class-silver match qos-group 4 class-map type queuing class-all-flood match qos-group 2 class-map type queuing class-ip-multicast match qos-group 2 policy-map type qos system_qos_policy class class-silver set qos-group 4 policy-map type queuing system_q_in_policy class type queuing class-silver bandwidth percent 44 class type queuing class-fcoe bandwidth percent 29 class type queuing class-default bandwidth percent 27 policy-map type queuing system_q_out_policy class type queuing class-silver bandwidth percent 44 class type queuing class-fcoe bandwidth percent 29 class type queuing class-default bandwidth percent 27 policy-map type queuing org-root/ep-qos-Default-Qos class type queuing class-fcoe class type queuing class-default bandwidth percent 50 shape 40000000 kbps 10240 class-map type network-qos class-silver match qos-group 4class-map type network-qos class-all-flood match qos-group 2 class-map type network-qos class-ip-multicast match qos-group 2 policy-map type network-qos system_nq_policy class type network-qos class-silver class type network-qos class-fcoe pause no-drop mtu 2158 class type network-qos class-default system qos service-policy type qos input system_qos_policy service-policy type queuing input system_q_in_policy service-policy type queuing output system_q_out_policy service-policy type network-qos system_nq_policy
Ethernet1/1 queuing information: TX Queuing qos-group sched-type oper-bandwidth 0 WRR 27 1 WRR 29 4 WRR 44 RX Queuing qos-group 0 q-size: 308160, HW MTU: 9216 (9216 configured) drop-type: drop, xon: 0, xoff: 301120 Statistics: Pkts received over the port : 12 Ucast pkts sent to the cross-bar : 12 Mcast pkts sent to the cross-bar : 0 Ucast pkts received from the cross-bar : 17 Pkts sent to the port : 17 Pkts discarded on ingress : 0 Per-priority-pause status : Rx (Inactive), Tx (Inactive) qos-group 1 q-size: 79360, HW MTU: 2158 (2158 configured) drop-type: no-drop, xon: 20480, xoff: 40320 Statistics: Pkts received over the port : 7836003 Ucast pkts sent to the cross-bar : 7836003 Mcast pkts sent to the cross-bar : 0 Ucast pkts received from the cross-bar : 4551954 Pkts sent to the port : 4551954 Pkts discarded on ingress : 0 Per-priority-pause status : Rx (Inactive), Tx (Inactive) qos-group 4 q-size: 22720, HW MTU: 1500 (1500 configured) drop-type: drop, xon: 0, xoff: 22720 Statistics: Pkts received over the port : 0 Ucast pkts sent to the cross-bar : 0 Mcast pkts sent to the cross-bar : 0 Ucast pkts received from the cross-bar : 0 Pkts sent to the port : 0 Pkts discarded on ingress : 0 Per-priority-pause status : Rx (Inactive), Tx (Inactive)
Si noti che il valore massimo sforzo (qos-gruppo 0) q-size è passato da 360640 a 308160 perché all'argento (qos-gruppo 4) è stato assegnato 2720 di spazio buffer.
Impostare MTU su 9216.
Ethernet1/1 queuing information: TX Queuing qos-group sched-type oper-bandwidth 0 WRR 27 1 WRR 29 4 WRR 44 RX Queuing qos-group 0 q-size: 301120, HW MTU: 9216 (9216 configured) drop-type: drop, xon: 0, xoff: 301120 Statistics: Pkts received over the port : 3 Ucast pkts sent to the cross-bar : 3 Mcast pkts sent to the cross-bar : 0 Ucast pkts received from the cross-bar : 0 Pkts sent to the port : 0 Pkts discarded on ingress : 0 Per-priority-pause status : Rx (Inactive), Tx (Inactive) qos-group 1 q-size: 79360, HW MTU: 2158 (2158 configured) drop-type: no-drop, xon: 20480, xoff: 40320 Statistics: Pkts received over the port : 7842224 Ucast pkts sent to the cross-bar : 7842224 Mcast pkts sent to the cross-bar : 0 Ucast pkts received from the cross-bar : 4555791 Pkts sent to the port : 4555791 Pkts discarded on ingress : 0 Per-priority-pause status : Rx (Inactive), Tx (Inactive) qos-group 4 q-size: 29760, HW MTU: 9216 (9216 configured) drop-type: drop, xon: 0, xoff: 29760 Statistics: Pkts received over the port : 0 Ucast pkts sent to the cross-bar : 0 Mcast pkts sent to the cross-bar : 0 Ucast pkts received from the cross-bar : 0 Pkts sent to the port : 0 Pkts discarded on ingress : 0 Per-priority-pause status : Rx (Inactive), Tx (Inactive)
Silver (qos-group 4) ottiene ora 29760 q-size, fino a 22720.
Deselezionare l'impostazione Packet Drop?
Ethernet1/1 queuing information: TX Queuing qos-group sched-type oper-bandwidth 0 WRR 27 1 WRR 29 4 WRR 44 RX Queuing qos-group 0 q-size: 240640, HW MTU: 9216 (9216 configured) drop-type: drop, xon: 0, xoff: 240640 Statistics: Pkts received over the port : 20 Ucast pkts sent to the cross-bar : 20 Mcast pkts sent to the cross-bar : 0 Ucast pkts received from the cross-bar : 1 Pkts sent to the port : 1 Pkts discarded on ingress : 0 Per-priority-pause status : Rx (Inactive), Tx (Inactive) qos-group 1 q-size: 79360, HW MTU: 2158 (2158 configured) drop-type: no-drop, xon: 20480, xoff: 40320 Statistics: Pkts received over the port : 7837323 Ucast pkts sent to the cross-bar : 7837323 Mcast pkts sent to the cross-bar : 0 Ucast pkts received from the cross-bar : 4552726 Pkts sent to the port : 4552726 Pkts discarded on ingress : 0 Per-priority-pause status : Rx (Inactive), Tx (Inactive) qos-group 4 q-size: 90240, HW MTU: 9216 (9216 configured) drop-type: no-drop, xon: 17280, xoff: 37120 Statistics: Pkts received over the port : 0 Ucast pkts sent to the cross-bar : 0 Mcast pkts sent to the cross-bar : 0 Ucast pkts received from the cross-bar : 0 Pkts sent to the port : 0 Pkts discarded on ingress : 0 Per-priority-pause status : Rx (Inactive), Tx (Inactive)
Notate che la dimensione q Silver (qos-group 4) aumenta fino a 90240, le modifiche di tipo drop diventano no-drop e la dimensione qos-group 0 Best Effort viene ridotta a 240640.
Lo spazio del buffer QoS-group 0 con il massimo sforzo viene riallocato ad altre classi QoS.
Le configurazioni qos predefinite di Nexus 5000 sono simili ma non precise.
P10-5k-a# show running-config ipqos policy-map type network-qos jumbo class type network-qos class-fcoe pause no-drop mtu 2158 class type network-qos class-default mtu 9216 multicast-optimize system qos service-policy type network-qos jumbo
Nexus 5000 nasconde le opzioni predefinite, quindi show running-config ipqos all è necessario per visualizzare l'intera configurazione.
P10-5k-a# show queuing interface Ethernet1/1 queuing information: TX Queuing qos-group sched-type oper-bandwidth 0 WRR 100 1 WRR 0 RX Queuing qos-group 0 q-size: 360640, HW MTU: 9216 (9216 configured) drop-type: drop, xon: 0, xoff: 360640 Statistics: Pkts received over the port : 16 Ucast pkts sent to the cross-bar : 16 Mcast pkts sent to the cross-bar : 0 Ucast pkts received from the cross-bar : 0 Pkts sent to the port : 0 Pkts discarded on ingress : 0 Per-priority-pause status : Rx (Inactive), Tx (Inactive) qos-group 1 q-size: 79360, HW MTU: 2158 (2158 configured) drop-type: no-drop, xon: 20480, xoff: 40320 Statistics: Pkts received over the port : 0 Ucast pkts sent to the cross-bar : 0 Mcast pkts sent to the cross-bar : 0 Ucast pkts received from the cross-bar : 0 Pkts sent to the port : 0 Pkts discarded on ingress : 0 Per-priority-pause status : Rx (Inactive), Tx (Inactive)
Le porte fino all'UCS (Ethernet1/1 - 2) hanno il PFC disattivato (Spegnimento automatico).
P10-5k-a(config-if-range)# show interface priority-flow-control ============================================================ Port Mode Oper(VL bmap) RxPPP TxPPP ============================================================ Ethernet1/1 Auto Off 0 0 Ethernet1/2 Auto Off 0 0 Ethernet1/3 Auto Off 0 0 Ethernet1/4 Auto Off 0 0 Ethernet1/5 Auto Off 0 0 Ethernet1/6 Auto Off 0 0 Ethernet1/7 Auto Off 0 0 Ethernet1/8 Auto Off 0 0 Ethernet1/9 Auto Off 0 0 Ethernet1/10 Auto On (0) 0 0 Ethernet1/11 Auto On (0) 0 0 Ethernet1/12 Auto On (0) 0 0 Ethernet1/13 Auto On (0) 0 0
..snip..
Questi criteri sono presenti per impostazione predefinita in Nexus 5000 ma non sono abilitati, pertanto è sufficiente utilizzarli.
system qos service-policy type queuing input fcoe-default-in-policy service-policy type queuing output fcoe-default-out-policy service-policy type qos input fcoe-default-in-policy
Le porte fino all'UCS (Ethernet1/1 - 2) hanno PFC on (Auto On).
P10-5k-a(config-sys-qos)# sh int priority-flow-control ============================================================ Port Mode Oper(VL bmap) RxPPP TxPPP ============================================================ Ethernet1/1 Auto On (8) 0 0 Ethernet1/2 Auto On (8) 0 0 Ethernet1/3 Auto Off 0 0 Ethernet1/4 Auto Off 0 0
..snip..
PFC(802.1Qbb) spiega come i dispositivi Nexus/UCS creino un fabric senza perdite come parte di Data Center Bridging (DCBX). FCoE richiede un fabric senza perdite, mentre FCoE multi-hop è particolarmente soggetto a questo problema di configurazione. Lo switch upstream, in genere un Nexus 5000, deve corrispondere alle impostazioni QoS configurate su UCS.
Come accennato in precedenza, il protocollo PFC consente agli switch di notificare agli switch adiacenti di interrompersi per inviare altri frame. Considerare questa situazione nel contesto di un ambiente di rete a commutazione multipla con traffico che va in più direzioni contemporaneamente, in questo modo non solo si aggiungono i buffer di path1(source1/destination1), ma si stanno moltiplicando i buffer perché lo switch adiacente probabilmente ha traffico che entra in più porte (buffer multipli). Anche se non è richiesto quando si utilizza lo storage IP, spesso contribuisce a migliorare notevolmente le prestazioni a causa di questo effetto di moltiplicazione del buffer che impedisce inutili perdite di pacchetti.
Un'eccellente panoramica su PFC/DCBX.
Se una classe QoS è definita su uno switch come no-drop e non come no-drop sull'altro, PFC non negozia. Poiché UCS configura Platinum come non-drop ma come out-of-the-box disabilitato, ciò si verifica spesso quando Platinum è abilitato.
Se l'input di accodamento e l'output di accodamento e l'input qos non corrispondono, PFC non esegue la negoziazione.
Per impostazione predefinita, i filer NetApp inviano TUTTO il traffico di storage IP che è contrassegnato dalla VLAN in CoS 4(Gold). Poiché i bit CoS si trovano nell'intestazione .1q quando NetApp è connesso a una porta di accesso, il traffico NetApp viene indirizzato alla massima efficienza.
Un errore di configurazione comune è quello di scegliere un altro colore CoS (Argento) per mettere il traffico NFS Network File System da UCS in e restituire il traffico NFS da una NetApp viene messo in Gold. Il traffico è simile a:
Server | UCS | Nexus 5k | NetApp |
Invio | Argento > | Argento > | Best-effort |
Ricevi | < Oro | < Oro | < Oro |
Se UCS fosse configurato per Silver in modo che sia Jumbo ma NON Gold, si verificherebbero problemi.
Quando una classe QoS (Platinum/Gold/Silver/Bronze) NON è abilitata, i dispositivi UCS e Nexus considerano questi pacchetti come "Best Effort" (Massimo sforzo) e li inseriscono nel gruppo qos 0.
Server | UCS | Nexus 5k | NetApp |
Invio | Argento > | Massimo impegno > | Best-effort |
Ricevi | < Oro | < Massimo sforzo | < Oro |
Nota: i bit CoS del pacchetto NON vengono modificati/contrassegnati, ma i pacchetti vengono trattati in modo diverso.
Il design QoS di VCE non è ideale.
Nexus 1k | UCS | Nexus 5k | |
BE/CoS 0 | 1500 | 1500 | 1600 |
FC / CoS 1 | - | 2158 (senza rilascio) | - |
CoS 6 |
gestione | - | - |
Platinum/CoS 5 |
- | 1500 (senza drop) | 1500 |
Gold/CoS 4 | vmotion | 1500 | 1500 |
Argento / CoS 2 | NFS | - | 9216 (senza rilascio) |
Se si dispone di classi di CoS definite a un livello, ma ignorate a un altro livello, si tratta di un'operazione complessa che potrebbe rendere le cose inutilizzabili rispetto al previsto. Ad esempio, VCE utilizza Silver per NFS, ma se UCS non dispone di Silver definito, il traffico viene accodato con la modalità Ottimale, che non è Jumbo e può causare la perdita o la frammentazione del traffico NFS. La funzionalità PFC non viene negoziata a causa di mancata corrispondenza nei criteri di eliminazione, ma è evidente che questa funzionalità è corretta perché la funzionalità PFC non è richiesta per Ethernet.
I protocolli di archiviazione basati sul protocollo Internet (IP) sono tutti protocolli molto frammentati e spesso sono configurati con 9000 MTU. Per questo motivo, le prestazioni sono scarse in platino/oro/argento/bronzo, a causa della 29760 q-size / 9000 MTU che consente solo 3 pacchetti nel buffer prima che la perdita di coda sia causata.
Il criterio UCS Ethernet consente di aumentare le dimensioni dei buffer vNIC (ring size). Il valore predefinito è 512 e il valore massimo è 4096. se si imposta questo valore sul valore massimo, la latenza del buffer completa (##KB / 10Gbps) aumenta da 0,4 ms a 3,2 ms. Quindi, le modifiche in questo buffer permettono di ridurre le cadute, ma a scapito di una maggiore latenza.
Il punto della configurazione dei frame jumbo è quello di consentire a un dispositivo endpoint di comunicare con un altro dispositivo endpoint con pacchetti layer 3 da 9000 byte. Quando si usano le tecniche di incapsulamento di layer 2, gli switch e i router tra i dispositivi endpoint devono essere in grado di gestire frame di layer 2 leggermente più grandi rispetto ai pacchetti MTU di layer 3 900, per tenere conto del sovraccarico dell'incapsulamento. In caso di dubbio, consentire 9216 MTU sugli switch.
Quando i nuovi pacchetti vengono accodati, il buffer si riempie.
Quando il buffer raggiunge i 20k, il buffer continua a riempirsi.
Quando il buffer raggiunge i 40k, lo switch invia una pausa PPP se la coda è senza drop, che indica allo switch remoto di arrestarsi per inviare il traffico.
Idealmente, il lato remoto si ferma presto per inviare il traffico e il resto del buffer (79360-40320) contiene i pacchetti in-flight in arrivo.
Il contatore "Pkts scartati in entrata" aumenta quando il buffer è pieno.
FC e FCoE è un protocollo senza perdite in una situazione ideale in cui lo switch remoto si arresta per inviare traffico e livelli di buffer alla fine scendono e raggiungono i 20 k. Lo switch invia un altro messaggio PPP unpause per questa coda di mancato rilascio che indica allo switch remoto di ricominciare a inviare il traffico.
Non sono attualmente disponibili informazioni specifiche per la risoluzione dei problemi per questa configurazione.