본 제품에 대한 문서 세트는 편견 없는 언어를 사용하기 위해 노력합니다. 본 설명서 세트의 목적상, 편견 없는 언어는 나이, 장애, 성별, 인종 정체성, 민족 정체성, 성적 지향성, 사회 경제적 지위 및 교차성에 기초한 차별을 의미하지 않는 언어로 정의됩니다. 제품 소프트웨어의 사용자 인터페이스에서 하드코딩된 언어, RFP 설명서에 기초한 언어 또는 참조된 서드파티 제품에서 사용하는 언어로 인해 설명서에 예외가 있을 수 있습니다. 시스코에서 어떤 방식으로 포용적인 언어를 사용하고 있는지 자세히 알아보세요.
Cisco는 전 세계 사용자에게 다양한 언어로 지원 콘텐츠를 제공하기 위해 기계 번역 기술과 수작업 번역을 병행하여 이 문서를 번역했습니다. 아무리 품질이 높은 기계 번역이라도 전문 번역가의 번역 결과물만큼 정확하지는 않습니다. Cisco Systems, Inc.는 이 같은 번역에 대해 어떠한 책임도 지지 않으며 항상 원본 영문 문서(링크 제공됨)를 참조할 것을 권장합니다.
이 문서에서는 Cisco Nexus 7000 Series 플랫폼의 CPU 사용량을 모니터링하고 CPU 사용량이 많은 문제를 해결하는 프로세스에 대해 설명합니다.
Nexus 7000 플랫폼은 모든 프로세스의 CPU 리소스에 대한 공정한 액세스가 가능한 선점형 스케줄러가 포함된 Linux 기반 시스템입니다.
Cisco Catalyst 6500 Series와 달리 별도의 RP(Route Processor)와 SP(Switch Processor)가 없습니다.
Cisco NX-OS 운영 체제는 선점형 CPU 멀티태스킹을 활용하므로, 프로세스에서 유휴 CPU를 활용하여 작업을 더 빨리 완료할 수 있습니다.
따라서 history 옵션은 반드시 문제를 나타내지는 않는 가능한 CPU 스파이크를 보고합니다. 그러나 평균 CPU 사용량이 보통에 비해 계속 높은 경우 특정 네트워크의 기본 CPU 사용량을 확인하여 높은 CPU 사용량을 확인합니다.
Nexus 7000 플랫폼에서 수퍼바이저 인밴드 인터페이스를 보호하기 위해 기본 HWRL(Hardware Rate Limiter) 및 기본 CoPP(Control Plane Policing)가 활성화됩니다.
명령 및 샘플 EEM 스크립트는 Nexus 7000 Release 6.1 이하 버전을 기반으로 하며 향후 릴리스에서 변경될 수 있습니다.
Cisco CLI Analyzer(등록 고객만 해당)는 특정 show 명령을 지원합니다. Cisco CLI Analyzer를 사용하여 show 명령 출력의 분석을 봅니다.
활성 프로세스에 대한 정보를 표시하려면 이 명령을 사용합니다.
switch# show processes
PID State PC Start_cnt TTY Type Process
----- ----- -------- ----------- ---- ---- -------------
1 S 41520eb8 1 - O init
2 S 0 1 - O kthreadd
3 S 0 1 - O migration/0
4 S 0 1 - O ksoftirqd/0
5 S 0 1 - O watchdog/0
6 S 0 1 - O migration/1
7 S 0 1 - O ksoftirqd/1
8 S 0 1 - O watchdog/1
9 S 0 1 - O events/0
10 S 0 1 - O events/1
11 S 0 1 - O khelper
12 S 0 1 - O kblockd/0
필드 | 설명 |
PID | 프로세스 ID |
상태 | 프로세스 상태 |
PC | 16진수 형식의 현재 프로그램 카운터 |
시작_cnt | 프로세스가 시작되거나 재시작된 횟수 |
TTY | 프로세스를 제어하는 터미널. 하이픈(—)은 일반적으로 특정 터미널에서 실행되지 않는 데몬을 의미합니다. |
Process | 프로세스의 이름 |
프로세스 상태 | 설명 |
D | 무정전 절전(일반적으로 I/O) |
R | 실행 가능(실행 대기열) |
초 | 수면 |
T | 추적됨 또는 중지됨 |
Z | 소멸된(좀비) 과정 |
NR | 실행 안 함 |
ER | 실행 중이어야 하지만 현재 실행되고 있지 않습니다. |
시스템 관련 CPU 및 메모리 통계를 표시하려면 이 명령을 사용합니다.
switch#show system resources
Load average: 1 minute: 0.36 5 minutes: 0.39 15 minutes: 0.44
Processes : 1068 total, 1 running
CPU states : 0.5% user, 5.5% kernel, 94.0% idle
Memory usage: 8245436K total, 3289920K used, 4955516K free
Current memory status: OK
필드 | 설명 |
Load | 실행 중인 프로세스의 수입니다. 평균은 지난 1분, 5분, 15분 동안의 시스템 부하를 반영합니다. |
프로세스 | 시스템에 있는 프로세스 수 및 명령이 실행되었을 때 실제로 실행 중인 프로세스 수 |
CPU 상태 | 마지막 1초 동안의 사용자 모드, 커널 모드 및 유휴 시간의 CPU 사용률입니다. 듀얼 코어 수퍼바이저의 경우, CPU는 두 코어 모두에서 평균이 됩니다. |
메모리 사용량 | 총 메모리, 사용된 메모리, 사용 가능한 메모리, 버퍼에 사용된 메모리 및 캐시에 사용된 메모리(킬로바이트 단위). 버퍼 및 캐시는 사용된 메모리 통계에 포함됩니다. |
프로세스 레벨에서 CPU 사용량을 표시하려면 다음 명령을 사용합니다.
switch#show processes cpu | ex 0.0
PID Runtime(ms) Invoked uSecs 1Sec Process
----- ----------- -------- ----- ------ -----------
26 66399 269718 246 0.9% kide/1
2908 115550 11310 10216 2.9% platform
3223 7248 9208 787 0.9% R2D2_usd
CPU util : 1.0% user, 3.0% kernel, 96.0% idle Please note that only processes from the requested vdc are shown above
필드 | 설명 |
런타임(ms) | 프로세스가 사용한 CPU 시간(밀리초) |
호출됨 | 프로세스가 호출된 횟수 |
uSecs | 각 프로세스 호출의 평균 CPU 시간(마이크로초) |
1초 | 마지막 1초 동안의 CPU 사용량 비율 |
특정 프로세스 ID(PID)에 속하는 모든 스레드의 CPU 사용량을 확인하려면 NX-OS 릴리스 6.2x에서 사용할 수 있는 show process cpu detail <pid> 명령을 사용합니다.
최근 60초, 60분 및 72시간 동안의 CPU 사용량을 표시하려면 이 명령을 사용합니다. 평균 CPU 사용량(#)과 스파이크(*)를 확인하십시오.
switch# show processes cpu history
1 131 12 1 1 1 1 2 1 1 1
195388933456577607393535376775867507294877653564353456145546
100
90
80
70
60
50
40 #
30 #
20 ## ## # # #
10 ####### ######## # ################# ######## # ### ## #
0....5....1....1....2....2....3....3....4....4....5....5....
0 5 0 5 0 5 0 5 0 5
CPU% per second (last 60 seconds)
# = average CPU%
222222224221222212222222222642222112221222222222222121221412
523210211239434396322261541608790993139620151432210949597392
100
90
80
70 *
60 *
50 *
40 * ** *
30 * * * * * ***** * * ** *
20 ************************************************************
10 ############################################################
0....5....1....1....2....2....3....3....4....4....5....5....
0 5 0 5 0 5 0 5 0 5
CPU% per minute (last 60 minutes)
* = maximum CPU% # = average CPU%
1
666765454544445544555669844465554466654464446069464554545555665544444474
459056619185613722269482096333506853055519639003005209696949867484693724
100 *
90 * * *
80 ** * *
70 **** *** * ** * ** *
60 ****** * ****** * * **** * **** * * ** **** *
50 ************* ** ********* *************** **** **************** ** **
40 ************************************************************************
30 ************************************************************************
20 ************************************************************************
10 ########################################################################
0....5....1....1....2....2....3....3....4....4....5....5....6....6....7.
0 5 0 5 0 5 0 5 0 5 0 5 0
CPU% per hour (last 72 hours)
* = maximum CPU% # = average CPU%
릴리스 6.2에서 추가된 이 명령은 특정 PID에 속하는 모든 스레드에 대한 CPU 사용량 정보를 표시합니다.
switch# show processes cpu sorted | grep cli
3965 23734 17872 1328 0.0% 0.1% 0.7% - clis
4024 3047 1256 2426 0.0% 0.0% 0.0% - diagclient
4094 787 258 3052 0.0% 0.0% 0.0% - cardclient
4728 227 209 1088 0.0% 0.0% 0.0% - port_client
4729 1351 499 2708 0.0% 0.0% 0.0% - statsclient
4730 2765 550 5028 0.0% 0.0% 0.0% - xbar_client
switch# show processes cpu sorted | grep clis
3965 23734 17872 1328 0.0% 0.1% 0.7% - clis
switch# show process cpu detailed 3965
CPU utilization for five seconds: 3%/3%; one minute: 0%; five minutes: 1%
PID Runtime(ms) Invoked uSecs 5Sec 1Min 5Min TTY Process
----- ----------- -------- ----- ------ ------ ------ --- -----------
3965 23734 17873 1327 0.0% 0.1% 0.6% - clis
4227 45 334 135 0.0% 0.0% 0.0% - clis:clis-cli-t
4228 24 153 162 0.0% 0.0% 0.0% - clis:clis-nvdb-
4760 75 224 335 0.0% 0.0% 0.0% - clis:clis-seria
switch# show processes cpu sorted | grep netstack
4133 353 892 395 0.0% 0.0% 0.0% - netstack
switch# show process cpu detailed 4133
CPU utilization for five seconds: 5%/5%; one minute: 1%; five minutes: 1%
PID Runtime(ms) Invoked uSecs 5Sec 1Min 5Min TTY Process
----- ----------- -------- ----- ------ ------ ------ --- -----------
4133 353 892 395 0.0% 0.0% 0.0% - netstack
4145 322 6492 49 0.0% 0.0% 0.0% - netstack:active
4151 239 247 971 0.0% 0.0% 0.0% - netstack:ip-sys
4153 0 3 162 0.0% 0.0% 0.0% - netstack:mplsda
4155 2 3 717 0.0% 0.0% 0.0% - netstack:mplsct
4163 0 2 240 0.0% 0.0% 0.0% - netstack:ipv6-d
4164 97 957 101 0.0% 0.0% 0.0% - netstack:netsta
4166 15 628 25 0.0% 0.0% 0.0% - netstack:ip-sys
4167 0 3 224 0.0% 0.0% 0.0% - netstack:ip-pm-
4170 1 12 154 0.0% 0.0% 0.0% - netstack:ip-uri
4171 9 30 323 0.0% 0.0% 0.0% - netstack:ip-ipc
4173 0 5 167 0.0% 0.0% 0.0% - netstack:ip-ipc
4175 0 2 305 0.0% 0.0% 0.0% - netstack:ip-ret
4176 12 7 1838 0.0% 0.0% 0.0% - netstack:ip-ppf
4178 4 15 289 0.0% 0.0% 0.0% - netstack:ipv6-c
4179 41 445 93 0.0% 0.0% 0.0% - netstack:disp
4180 0 6 98 0.0% 0.0% 0.0% - netstack:worker
4181 33 501 66 0.0% 0.0% 0.0% - netstack:worker
4182 0 2 232 0.0% 0.0% 0.0% - netstack:worker
4183 0 2 227 0.0% 0.0% 0.0% - netstack:worker
4184 0 3 152 0.0% 0.0% 0.0% - netstack:worker
4185 0 2 278 0.0% 0.0% 0.0% - netstack:worker
4186 0 2 254 0.0% 0.0% 0.0% - netstack:worker
4187 0 3 168 0.0% 0.0% 0.0% - netstack:worker
4188 0 2 266 0.0% 0.0% 0.0% - netstack:worker
4189 0 2 248 0.0% 0.0% 0.0% - netstack:worker
4190 0 2 254 0.0% 0.0% 0.0% - netstack:worker
4191 0 3 201 0.0% 0.0% 0.0% - netstack:worker
4192 0 2 258 0.0% 0.0% 0.0% - netstack:worker
4193 0 7 111 0.0% 0.0% 0.0% - netstack:worker
4194 0 8 78 0.0% 0.0% 0.0% - netstack:worker
4195 0 2 313 0.0% 0.0% 0.0% - netstack:worker
4196 15 632 23 0.0% 0.0% 0.0% - netstack:ptacti
4197 0 5 120 0.0% 0.0% 0.0% - netstack:tcp_ip
4198 4 11 390 0.0% 0.0% 0.0% - netstack:ipv6-m
4199 0 3 240 0.0% 0.0% 0.0% - netstack:ipv6-c
4200 0 1 561 0.0% 0.0% 0.0% - netstack:ipv6-c
4201 0 3 246 0.0% 0.0% 0.0% - netstack:icmpv6
4513 0 5 112 0.0% 0.0% 0.0% - netstack:ipv6-m
4514 0 2 291 0.0% 0.0% 0.0% - netstack:ipv6-m
참고: 모든 프로세스 정보는 NX-OS의 proc를 기반으로 합니다. NX-OS에서는 모든 스레드가 다른 스레드에서 할당한 메모리를 공유하므로 스레드별 정보를 표시할 수 없습니다.
이 명령은 프로세서 활동을 실시간으로 지속적으로 살펴볼 수 있는 Linux의 top 명령과 같습니다.
switch# show system internal processes cpu
top - 23:51:41 up 51 min, 3 users, load average: 0.56, 0.49, 0.46
Tasks: 433 total, 1 running, 431 sleeping, 0 stopped, 1 zombie
Cpu(s): 5.9%us, 7.8%sy, 0.0%ni, 81.9%id, 3.6%wa, 0.1%hi, 0.6%si, 0.0%st
Mem: 8245436k total, 3531776k used, 4713660k free, 5360k buffers
Swap: 0k total, 0k used, 0k free, 1458188k cached
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
3589 svc-isan 25 5 112m 8864 4572 S 5.7 0.1 0:21.60 stats_client
10881 sjlan 20 0 3732 1648 1140 R 3.8 0.0 0:00.04 top
26 root 20 0 0 0 0 S 1.9 0.0 1:07.07 kide/1
3280 root -2 0 101m 6104 3680 S 1.9 0.1 0:32.57 octopus
3570 root 20 0 123m 19m 6456 S 1.9 0.2 0:06.07 diag_port_lb
5151 root 20 0 205m 45m 9.8m S 1.9 0.6 0:02.61 netstack
1 root 20 0 1988 604 524 S 0.0 0.0 0:03.75 init
2 root 15 -5 0 0 0 S 0.0 0.0 0:00.00 kthreadd
3 root RT -5 0 0 0 S 0.0 0.0 0:00.00 migration/0
4 root 15 -5 0 0 0 S 0.0 0.0 0:00.61 ksoftirqd/0
5 root -2 -5 0 0 0 S 0.0 0.0 0:00.06 watchdog/0
6 root RT -5 0 0 0 S 0.0 0.0 0:00.00 migration/1
7 root 15 -5 0 0 0 S 0.0 0.0 0:04.80 ksoftirqd/1
필드 | 설명 |
PID | 프로세스 ID |
사용자 | 프로세스를 담당하는 사용자의 이름입니다. |
홍보 | 프로세스에 할당된 우선 순위 |
NI | 프로세스의 뛰어난 가치 |
처녀자리 | 프로세스에서 사용하는 가상 메모리의 양 |
RES | 프로세스에서 사용 중인 물리적 RAM 양(해당 상주 크기)입니다(킬로바이트 단위) |
SHR | 프로세스에서 사용한 공유 메모리의 양 |
초 | 프로세스의 상태입니다. 가능한 값은 다음과 같습니다.
|
%CPU | 프로세스에서 사용하는 CPU 시간의 백분율 |
%MEM | 프로세스에서 사용하는 사용 가능한 물리적 RAM의 비율 |
시간+ | 프로세스가 시작된 이후 소요된 총 CPU 시간입니다 |
명령을 사용합니다 | 프로세스를 시작하기 위해 입력한 명령의 이름 |
{#seconds} | no-more 옵션을 사용하면 Ctrl-C가 입력될 때까지 #seconds 명령이 자동으로 실행될 수 있습니다. 다음은 샘플 출력입니다.
switch# show system internal processes cpu 5 | no-more
top - 17:31:12 up 4 days, 18:31, 3 users, load average: 0.52, 0.40, 0.32
Tasks: 449 total, 3 running, 446 sleeping, 0 stopped, 0 zombie
Cpu(s): 3.5%us, 4.5%sy, 0.0%ni, 91.2%id, 0.1%wa, 0.1%hi, 0.5%si, 0.0%st
Mem: 8245436k total, 4192740k used, 4052696k free, 27644k buffers
Swap: 0k total, 0k used, 0k free, 1919612k cached
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
2908 root 20 0 112m 8516 5516 S 7.5 0.1 264:44.25 pfm
31487 sjlan 20 0 3732 1652 1140 R 5.6 0.0 0:00.05 top
3059 svc-isan 20 0 80288 7536 4440 S 3.8 0.1 65:44.59 diagmgr
3192 root 20 0 334m 47m 11m S 1.9 0.6 25:36.52 netstack
3578 svc-isan 20 0 118m 13m 6952 S 1.9 0.2 24:57.36 stp
5119 svc-isan 20 0 139m 14m 7028 S 1.9 0.2 3:48.60 urib
5151 root 20 0 209m 46m 11m S 1.9 0.6 38:53.39 netstack
5402 svc-isan 20 0 117m 15m 9140 S 1.9 0.2 36:07.13 stp
6175 svc-isan 20 0 118m 16m 9580 S 1.9 0.2 47:09.41 stp
1 root 20 0 1988 604 524 S 0.0 0.0 0:06.51 init
2 root 15 -5 0 0 0 S 0.0 0.0 0:00.00 kthreadd
3 root RT -5 0 0 0 S 0.0 0.0 0:00.08 migration/0
4 root 15 -5 0 0 0 S 0.0 0.0 1:07.77 ksoftirqd/0
top - 17:31:18 up 4 days, 18:31, 3 users, load average: 0.48, 0.39, 0.32
Tasks: 449 total, 1 running, 448 sleeping, 0 stopped, 0 zombie
Cpu(s): 3.5%us, 4.5%sy, 0.0%ni, 91.2%id, 0.1%wa, 0.1%hi, 0.5%si, 0.0%st
Mem: 8245436k total, 4192592k used, 4052844k free, 27644k buffers
Swap: 0k total, 0k used, 0k free, 1919612k cached
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
2908 root 20 0 112m 8516 5516 S 7.5 0.1 264:44.47 pfm
31490 sjlan 20 0 3732 1656 1140 R 3.8 0.0 0:00.04 top
1 root 20 0 1988 604 524 S 0.0 0.0 0:06.51 init
2 root 15 -5 0 0 0 S 0.0 0.0 0:00.00 kthreadd
3 root RT -5 0 0 0 S 0.0 0.0 0:00.08 migration/0
4 root 15 -5 0 0 0 S 0.0 0.0 1:07.77 ksoftirqd/0
5 root -2 -5 0 0 0 S 0.0 0.0 0:13.74 watchdog/0
6 root RT -5 0 0 0 S 0.0 0.0 0:00.10 migration/1
7 root 15 -5 0 0 0 S 0.0 0.0 0:54.47 ksoftirqd/1
8 root -2 -5 0 0 0 S 0.0 0.0 0:00.20 watchdog/1
9 root 15 -5 0 0 0 S 0.0 0.0 0:02.94 events/0
10 root 15 -5 0 0 0 S 0.0 0.0 0:02.58 events/1
11 root 15 -5 0 0 0 S 0.0 0.0 0:00.00 khelper
top - 17:31:23 up 4 days, 18:31, 3 users, load average: 0.44, 0.39, 0.32
Tasks: 449 total, 1 running, 448 sleeping, 0 stopped, 0 zombie
Cpu(s): 3.5%us, 4.5%sy, 0.0%ni, 91.2%id, 0.1%wa, 0.1%hi, 0.5%si, 0.0%st
Mem: 8245436k total, 4192584k used, 4052852k free, 27644k buffers
Swap: 0k total, 0k used, 0k free, 1919612k cached
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
31493 sjlan 20 0 3732 1656 1140 R 3.8 0.0 0:00.04 top
5004 svc-isan 20 0 118m 13m 6852 S 1.9 0.2 41:35.81 stp
10337 svc-isan 20 0 133m 11m 7948 S 1.9 0.1 1:42.81 mcecm
1 root 20 0 1988 604 524 S 0.0 0.0 0:06.51 init
2 root 15 -5 0 0 0 S 0.0 0.0 0:00.00 kthreadd
3 root RT -5 0 0 0 S 0.0 0.0 0:00.08 migration/0
4 root 15 -5 0 0 0 S 0.0 0.0 1:07.77 ksoftirqd/0
5 root -2 -5 0 0 0 S 0.0 0.0 0:13.74 watchdog/0
6 root RT -5 0 0 0 S 0.0 0.0 0:00.10 migration/1
7 root 15 -5 0 0 0 S 0.0 0.0 0:54.47 ksoftirqd/1
8 root -2 -5 0 0 0 S 0.0 0.0 0:00.20 watchdog/1
9 root 15 -5 0 0 0 S 0.0 0.0 0:02.94 events/0
10 root 15 -5 0 0 0 S 0.0 0.0 0:02.58 events/1
top - 17:31:29 up 4 days, 18:31, 3 users, load average: 0.41, 0.38, 0.32
Tasks: 449 total, 1 running, 448 sleeping, 0 stopped, 0 zombie
Cpu(s): 3.5%us, 4.5%sy, 0.0%ni, 91.2%id, 0.1%wa, 0.1%hi, 0.5%si, 0.0%st
Mem: 8245436k total, 4192708k used, 4052728k free, 27644k buffers
Swap: 0k total, 0k used, 0k free, 1919616k cached
PID별로 프로세스/서비스에 재시작 시간, 충돌 상태, 현재 상태 등의 추가 세부 정보를 표시하려면 이 명령을 사용합니다.
switch# show system internal processes cpu
top - 17:37:26 up 4 days, 18:37, 3 users, load average: 0.16, 0.35, 0.33
Tasks: 450 total, 2 running, 448 sleeping, 0 stopped, 0 zombie
Cpu(s): 3.5%us, 4.5%sy, 0.0%ni, 91.2%id, 0.1%wa, 0.1%hi, 0.5%si, 0.0%st
Mem: 8245436k total, 4193248k used, 4052188k free, 27668k buffers
Swap: 0k total, 0k used, 0k free, 1919664k cached
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
2908 root 20 0 112m 8516 5516 S 7.5 0.1 264:58.67 pfm
31710 sjlan 20 0 3732 1656 1140 R 3.8 0.0 0:00.04 top
3192 root 20 0 334m 47m 11m S 1.9 0.6 25:38.39 netstack
3578 svc-isan 20 0 118m 13m 6952 S 1.9 0.2 24:59.08 stp
5151 root 20 0 209m 46m 11m S 1.9 0.6 38:55.52 netstack
5402 svc-isan 20 0 117m 15m 9140 S 1.9 0.2 36:09.08 stp
5751 root 20 0 209m 46m 10m S 1.9 0.6 41:20.58 netstack
6098 svc-isan 20 0 151m 15m 6188 S 1.9 0.2 3:58.40 mrib
6175 svc-isan 20 0 118m 16m 9580 S 1.9 0.2 47:12.00 stp
1 root 20 0 1988 604 524 S 0.0 0.0 0:06.52 init
2 root 15 -5 0 0 0 S 0.0 0.0 0:00.00 kthreadd
3 root RT -5 0 0 0 S 0.0 0.0 0:00.08 migration/0
4 root 15 -5 0 0 0 S 0.0 0.0 1:07.83 ksoftirqd/0
switch# show system internal sysmgr service pid 2908
Service "Platform Manager" ("platform", 5):
UUID = 0x18, PID = 2908, SAP = 39
State: SRV_STATE_HANDSHAKED (entered at time Mon Oct 15 23:03:45 2012).
Restart count: 1
Time of last restart: Mon Oct 15 23:03:44 2012.
The service never crashed since the last reboot.
Tag = N/A
Plugin ID: 0
이 스크립트는 CPU 사용량이 간헐적으로 증가하는 것을 보여주는 예제 스크립트입니다. 사용된 값과 실행된 명령은 요구 사항에 따라 수정할 수 있습니다.
event manager applet HIGH-CPU
event snmp oid 1.3.6.1.4.1.9.9.109.1.1.1.1.6.1 get-type exact entry-op ge
entry-val 80 exit-val 30 poll-interval 5
action 1.0 syslog msg High CPU hit $_event_pub_time
action 2.0 cli enable
action 3.0 cli show clock >> bootflash:high-cpu.txt
action 4.0 cli show processes cpu sort >> bootflash:high-cpu.txt
참고: 'exit-val'을 정의해야 합니다. 스크립트가 데이터를 수집하면 CPU 사용률이 증가합니다. exit-val 값은 스크립트가 무한 루프로 실행되지 않도록 합니다.
CPU 사용량이 모니터링되면 Cisco IOS® 소프트웨어 플랫폼에서처럼 CPU 사용량을 중단하는 프로세스와 달리 프로세스가 없습니다. CPU 사용량이 많은 원인을 신속하게 확인할 수 있는 방법은 show system internal processes cpu 명령을 사용하는 것입니다. 대부분 트래픽에 의해 트리거되는 CPU 사용량이 많으면 Netstack은 물론 ARP(Address Resolution Protocol) 및 IGMP(Internet Group Management Protocol)와 같은 다른 기능 및 프로세스도 높게 실행될 수 있습니다.
CPU 사용량이 많은 프로세스 및 문제에 따라 특정 명령을 캡처해야 할 수도 있습니다. 이 절에서는 유용한 방법에 대해 설명합니다.
프로세스에 대한 메모리 할당을 표시하려면 이 명령을 사용합니다. 총 메모리를 모니터링하려면 'Grand' 옵션을 사용합니다. 메모리 누수로 인해 프로세스가 잘못되어 CPU 사용량이 많아질 수 있습니다.
Ethanalyzer를 사용하여 CPU에 대한 트래픽을 모니터링합니다.
참고: debug 명령을 사용하기 전에 Debug 명령에 대한 중요 정보를 참조하십시오. 서비스 중단을 방지하려면 프로덕션 스위치에서 디버그 명령을 현명하게 사용하십시오.
가능한 경우 debug logfile 명령을 사용하여 지정된 파일에 출력을 보내고 syslog를 채우기 위해 세션을 잠급니다. 다음은 디버그 SNMP(Simple Network Management Protocol)의 예입니다.
switch# debug logfile snmpdebug
switch# debug snmp all
switch# show debug logfile snmpdebug
2012 Oct 17 23:53:25.905914 snmpd: SDWRAP message Successfully processed
2012 Oct 17 23:53:25.906162 snmpd: Src: 0x00000501/23852 Dst: 0x00000501/28 ID
: 0x006E3C9B Size: 276 [REQ] Opc: 182 (MTS_OPC_DEBUG_WRAP_MSG) RR: 0x006E3C9B
HA_SEQNO: 0x00000000 TS: 0x10ADFFA1666FC REJ:0 SYNC:0 OPTIONS:0x0
2012 Oct 17 23:53:25.906208 snmpd: 01 00 00 00 E7 03 00 00 00 00 00 00 00 00 00 00
2012 Oct 17 23:53:25.906225 snmpd: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
2012 Oct 17 23:53:25.906239 snmpd: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
2012 Oct 17 23:53:25.906255 snmpd: FF FF FF FF 2F 64 65 76 2F 70 74 73 2F 30 00 00
2012 Oct 17 23:53:25.906271 snmpd: 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
switch# show log last 10 2012 Oct 17 17:51:06 SITE1-AGG1 %ETHPORT-5-IF_TX_FLOW_CONTROL: Interface Ethernet10/10, operational Transmit Flow Control state changed to off 2012 Oct 17 17:51:09 SITE1-AGG1 %ETH_PORT_CHANNEL-5-PORT_SUSPENDED: Ethernet10/10: Ethernet10/10 is suspended 2012 Oct 17 17:51:51 SITE1-AGG1 last message repeated 1 time 2012 Oct 17 17:51:51 SITE1-AGG1 %ETHPORT-5-IF_DOWN_LINK_FAILURE: Interface Ethernet10/10 is down (Link failure) 2012 Oct 17 17:51:52 SITE1-AGG1 %ETHPORT-5-SPEED: Interface Ethernet10/10, operational speed changed to 10 Gbps 2012 Oct 17 17:51:52 SITE1-AGG1 %ETHPORT-5-IF_DUPLEX: Interface Ethernet10/10, operational duplex mode changed to Full 2012 Oct 17 17:51:52 SITE1-AGG1 %ETHPORT-5-IF_RX_FLOW_CONTROL: Interface Ethernet10/10, operational Receive Flow Control state changed to off 2012 Oct 17 17:51:52 SITE1-AGG1 %ETHPORT-5-IF_TX_FLOW_CONTROL: Interface Ethernet10/10, operational Transmit Flow Control state changed to off 2012 Oct 17 17:51:55 SITE1-AGG1 %ETH_PORT_CHANNEL-5-PORT_UP: port-channel11: Ethernet10/10 is up 2012 Oct 17 17:51:56 SITE1-AGG1 %ETHPORT-5-IF_UP: Interface Ethernet10/10 is up in mode trunk
가능한 경우 debug-filter 명령을 사용하여 프로덕션 시스템의 출력을 최소화합니다. 예를 들어, 패킷 손실로 인해 UDLD(unidirectional link detection) 빈 에코가 발생합니다.
switch# debug logfile test size 1000000
switch# debug-filter pktmgr direction inbound
switch# debug-filter pktmgr dest-mac 0100.0ccc.cccc
switch# debug pktmgr client uuid 376
switch# debug pktmgr frame
switch# debug pktmgr pkt-errors
switch# debug-filter ?
fabricpath Debug fabricpath events
ip IP events
ipv6 IPv6 events
l2pt L2 Protocol Tunneling events
mpls MPLS events
pktmgr Pm debug-filter
routing Routing events
트래픽으로 인해 CPU 사용량이 많을 경우 다음 툴을 사용합니다.
참고: CoPP와 HWRL은 모두 기본 VDC(가상 장치 컨텍스트)에서만 사용할 수 있습니다. 각 개별 I/O 모듈에 의해 시행됩니다. 여러 모듈의 트래픽을 집계하더라도 CPU에 큰 부담을 줄 수 있습니다.
네트워크 중단은 사용자 개입으로 해결할 수도 있고 자체적으로 복구할 수도 있습니다. 높은 CPU 사용으로 인해 네트워크 중단이 발생한 것으로 의심되는 경우 이 지침을 사용하여 원인을 조사합니다.
CPU 사용량이 많을 경우 나타나는 증상으로는 컨트롤 플레인 불안정, 컨트롤 플레인 장애로 인한 데이터 플레인 연결 문제, HSRP(Hot Standby Router Protocol)/RP 플래핑과 같은 프로토콜 플래핑, UDLD 오류 비활성화, STP(Spanning Tree Protocol) 장애 및 기타 연결 문제가 있습니다.
스위치가 다시 로드되거나 전환되지 않은 경우 이벤트 발생 시 CPU 사용량이 많았는지 확인하기 위해 show processes cpu history 명령을 중단 72시간 내에 실행합니다.
높은 CPU 사용량이 과거 중단의 근본 원인이고 네트워크 트래픽에 의해 중단의 원인이 되었다고 생각되는 경우 CoPP 및 HWRL(hardware rate limiter)을 사용하여 트래픽 유형을 식별할 수 있습니다.
다음은 show policy-map interface control-plane 명령의 샘플 출력입니다.
switch# show policy-map interface control-plane
Control Plane
service-policy input: copp-system-p-policy-strict
class-map copp-system-p-class-critical (match-any)
match access-group name copp-system-p-acl-bgp
match access-group name copp-system-p-acl-bgp6
match access-group name copp-system-p-acl-igmp
match access-group name copp-system-p-acl-msdp
match access-group name copp-system-p-acl-ospf
match access-group name copp-system-p-acl-pim
match access-group name copp-system-p-acl-pim6
match access-group name copp-system-p-acl-rip
match access-group name copp-system-p-acl-rip6
match access-group name copp-system-p-acl-vpc
match access-group name copp-system-p-acl-eigrp
match access-group name copp-system-p-acl-eigrp6
match access-group name copp-system-p-acl-mac-l2pt
match access-group name copp-system-p-acl-mpls-ldp
match access-group name copp-system-p-acl-mpls-oam
match access-group name copp-system-p-acl-ospf6
match access-group name copp-system-p-acl-otv-as
match access-group name copp-system-p-acl-mac-otv-isis
match access-group name copp-system-p-acl-mpls-rsvp
match access-group name copp-system-p-acl-mac-fabricpath-isis
match protocol mpls router-alert
match protocol mpls exp 6
set cos 7
police cir 39600 kbps , bc 250 ms
module 1 :
conformed 1108497274 bytes; action: transmit
violated 0 bytes; action: drop
module 3 :
conformed 0 bytes; action: transmit
violated 0 bytes; action: drop
module 10 :
conformed 0 bytes; action: transmit
.
.
.
다음은 NX-OS 릴리스 6.1 이전의 show hardware rate-limiter mod 1 명령의 샘플 출력입니다.
switch# show hardware rate-limiter mod 1
Units for Config: packets per second
Allowed, Dropped & Total: aggregated since last clear counters
Rate Limiter Class Parameters
------------------------------------------------------------
layer-3 mtu Config : 500
Allowed : 0
Dropped : 0
Total : 0
layer-3 ttl Config : 500
Allowed : 0
Dropped : 0
Total : 0
layer-3 control Config : 10000
Allowed : 0
Dropped : 0
.
.
.
다음은 NX-OS Release 6.1 이상의 show hardware rate-limiter mod 1 명령의 샘플 출력입니다.
switch# show hardware rate-limiter mod 1
switch# show hardware rate-limiter module 1
Units for Config: packets per second
Allowed, Dropped & Total: aggregated since last clear counters
Module: 1
R-L Class Config Allowed Dropped Total
+------------------+--------+---------------+---------------+-----------------+
L3 mtu 500 0 0 0
L3 ttl 500 0 0 0
L3 control 10000 0 0 0
L3 glean 100 0 0 0
L3 mcast dirconn 3000 0 0 0
L3 mcast loc-grp 3000 0 0 0
L3 mcast rpf-leak 500 0 0 0
L2 storm-ctrl Disable
access-list-log 100 0 0 0
copy 30000 0 0 0
receive 30000 40583 0 40583
L2 port-sec 500 20435006 0 20435006
L2 mcast-snoop 10000 0 0 0
L2 vpc-low 4000 0 0 0
L2 l2pt 500 0 0 0
f1 rl-1 4500 0
f1 rl-2 1000 0
f1 rl-3 1000 0
f1 rl-4 100 0
f1 rl-5 1500 0
L2 vpc-peer-gw 5000 0 0 0
L2 lisp-map-cache 5000 0 0 0
삭제된 카운트가 증가하는 클래스를 찾습니다. 구성된 임계값을 초과하는 클래스에 대해 정상 상태인지 확인합니다.
CPU 경로의 삭제, XOFF 흐름 제어, 최대 CPU 수신 및 전송 속도 등을 확인하려면 이 명령을 사용합니다.
switch# show hardware internal cpu-mac inband stats
i82571 registers
=======================================================
RMON counters Rx Tx
----------------------+--------------------+--------------------
total packets 70563313 139905960
good packets 70563313 139905960
64 bytes packets 0 0
65-127 bytes packets 66052368 135828505
128-255 bytes packets 1424632 1327796
256-511 bytes packets 280422 325220
512-1023 bytes packets 17060 14480
1024-max bytes packets 2788831 2409959
broadcast packets 0 0
multicast packets 0 0
good octets (hi) 0 0
good octets (low) 18573099828 25929913975
total octets (hi) 0 0
total octets (low) 18573090123 25929922452
XON packets 0 0
XOFF packets 0 0
-------------> Pause Frame back to R2D2 when the traffic exceeds SUP limit
management packets 0 0
Interrupt counters
-------------------+--
Mine 57079706
Other 0
Assertions 57079706
Rx packet timer 9638
Rx absolute timer 0
Rx overrun 0
Rx descr min thresh 0
Tx packet timer 4189
Tx absolute timer 6476
Tx queue empty 0
Tx descr thresh low 0
txdw ..... 44983549
txqe ..... 2
lsc ...... 0
rxseq .... 0
rxdmt .... 213229
rxo ...... 0
rxt ...... 32433891
mdac ..... 0
rxcfg .... 0
gpi ...... 0
Error counters
--------------------------------+--
CRC errors ..................... 0
Alignment errors ............... 0
Symbol errors .................. 0
Sequence errors ................ 0
RX errors ...................... 0
Missed packets (FIFO overflow) 0
Single collisions .............. 0
Excessive collisions ........... 0
Multiple collisions ............ 0
Late collisions ................ 0
Collisions ..................... 0
Defers ......................... 0
Tx no CRS ..................... 0
Carrier extension errors ....... 0
Rx length errors ............... 0
FC Rx unsupported .............. 0
Rx no buffers .................. 0 ----------------- no buffer
Rx undersize ................... 0
Rx fragments ................... 0
Rx oversize .................... 0
Rx jabbers ..................... 0
Rx management packets dropped .. 0
Tx TCP segmentation context .... 0
Tx TCP segmentation context fail 0
Throttle statistics
-----------------------------+---------
Throttle interval ........... 2 * 100ms
Packet rate limit ........... 32000 pps
Rate limit reached counter .. 0
Tick counter ................ 2132276
Active ...................... 0
Rx packet rate (current/max) 169 / 610 pps ----------------- Rx rate (current/max)
Tx packet rate (current/max) 429 / 926 pps
NAPI statistics
----------------+---------
Weight ......... 64
Poll scheduled . 57079706
Poll rescheduled 0
Poll invoked ... 117135124
Weight reached . 9
Tx packets ..... 139905960
Rx packets ..... 70563313
Rx congested ... 0
Rx redelivered . 0
qdisc stats:
----------------+---------
Tx queue depth . 1000
qlen ........... 0
packets ........ 139905960
bytes .......... 23411617016
drops .......... 0
Bahrain registers (cleared by chip reset only)
=======================================================
revision 0x00000108
scratchpad 0xaaaaaaaa
MAC status 0x00000001
MAC SerDes synced 0x00000001
MAC status 2 0x000100f8
Auto-XOFF config 1
Auto-XOFF status 0
MAC counters MAC0 (R2D2) MAC1 (CPU)
----------------------+---------------------+---------------------
Rx Tx Rx Tx
----------------------+----------+----------+----------+----------
64 bytes packets 0 0 0 0
65-127 bytes packets 66907289 136682635 135828505 66052368
128-255 bytes packets 570131 473705 1327796 1424632
256-511 bytes packets 280003 325182 325220 280422
512-1023 bytes packets 17061 14482 14480 17060
1024-1518 bytes packets 623614 242009 241831 623569
1519-max bytes packets 2165215 2167947 2168128 2165262
----------------------+----------+----------+----------+----------
total packets 70563313 139905960 139905960 70563313
total bytes 405350248 2496404376 160120520 1393236630
----------------------+----------+----------+----------+----------
undersized packets 0 0
fragmented packets 0 0
FCS errors 0 0
----------------------+----------+----------+----------+----------
auto-XOFF state entered 0 times
auto-XOFF reset 0 times
XOFF packets auto-generated 0
XOFF packets 0 0
XON packets 0 0
----------------------+----------+----------+----------+----------
parity error 0 0 0 0
fifo errors 0 0
overflow errors 0 0
----------------------+----------+----------+----------+----------
NX-OS 버전 5.X 이후의 '이벤트'는 PPS(Maximum Packets per Second) 수신(RX) 또는 전송(TX) CPU 속도에 도달하는 시간을 제공하는 명령 옵션입니다. 다음 예에서는 CPU 트래픽의 마지막 피크가 발생한 시간을 확인하는 방법을 보여 줍니다.
switch# show hardware internal cpu-mac inband events
1) Event:TX_PPS_MAX, length:4, at 648617 usecs after Fri Oct 19 13:23:06 2012
new maximum = 926
2) Event:TX_PPS_MAX, length:4, at 648622 usecs after Fri Oct 19 13:15:06 2012
new maximum = 916
3) Event:TX_PPS_MAX, length:4, at 648612 usecs after Fri Oct 19 13:14:06 2012
new maximum = 915
4) Event:TX_PPS_MAX, length:4, at 648625 usecs after Fri Oct 19 13:12:06 2012
new maximum = 914
5) Event:TX_PPS_MAX, length:4, at 648626 usecs after Fri Oct 19 13:11:06 2012
new maximum = 911
6) Event:TX_PPS_MAX, length:4, at 648620 usecs after Fri Oct 19 13:08:06 2012
new maximum = 910
이 명령을 사용하여 CPU에 대해 폴링된 트래픽의 소스를 식별할 수 있습니다.
switch# show system internal pktmgr internal vdc inband e1/5
Interface Src Index VDC ID Packet rcvd
--------------------------------------------------------
Ethernet1/5 0xa1d 1 14640
Netstack은 Nexus 7000의 사용자 공간에 구현된 완전한 IP 스택입니다. 구성 요소에는 L2 패킷 관리자, ARP, 인접성 관리자, IPv4, ICMPv4(Internet Control Message Protocol v4), IPv6, ICMPv6, TCP/UDP 및 소켓 라이브러리가 포함됩니다. CPU에 대한 트래픽이 높은 CPU 사용량을 트리거하면 Netstack 및 해당 프로세스가 높게 실행되고 있는 것을 자주 볼 수 있습니다.
다음 예에서는 사용 중인 Netstack 대기열 처리 알고리즘을 표시하는 방법을 보여 줍니다.
switch# show system inband queuing status
Weighted Round Robin Algorithm
Weights BPDU - 32, Q0 - 8, Q1 - 4, Q2 - 2 Q3 - 64
이 예에서는 KLM(kernel-loadable module) 및 사용자 공간 프로세스의 카운터를 보여 줍니다.
KLM은 기본 VDC에서 실행되고 인밴드 및 관리 인터페이스 모두에서 작동하는 단일 인스턴스입니다. KLM은 인그레스(ingress) 패킷 처리 중에만 화면에 나타나며, 처리를 위해 인그레스 프레임을 올바른 VDC Netstack에 전송합니다.
switch# show system inband queuing statistics
Inband packets unmapped to a queue: 0
Inband packets mapped to bpdu queue: 7732593
Inband packets mapped to q0: 686667
Inband packets mapped to q1: 0
Inband packets mapped to q2: 0
Inband packets mapped to q3: 20128
In KLM packets mapped to bpdu: 7732593
In KLM packets mapped to arp : 912
In KLM packets mapped to q0 : 686667
In KLM packets mapped to q1 : 0
In KLM packets mapped to q2 : 0
In KLM packets mapped to q3 : 20128
In KLM packets mapped to veobc : 0
Inband Queues:
bpdu: recv 1554390, drop 0, congested 0 rcvbuf 2097152, sndbuf 262142 no drop 1
(q0): recv 686667, drop 0, congested 0 rcvbuf 2097152, sndbuf 262142 no drop 0
(q1): recv 0, drop 0, congested 0 rcvbuf 2097152, sndbuf 262142 no drop 0
(q2): recv 0, drop 0, congested 0 rcvbuf 2097152, sndbuf 262142 no drop 0
(q3): recv 20128, drop 0, congested 0 rcvbuf 2097152, sndbuf 262142 no drop 0
이 명령은 앞의 show system inband queuing statistics 명령과 유사하며 여러 세부 정보를 제공합니다.
switch# show system internal pktmgr internal vdc global-stats
VDC KLM global statistics:
Inband packets not mapped to a VDC: 0
Inband diag packets received: 998222
Weighted Round Robin Algorithm
Weights BPDU - 32, Q0 - 8, Q1 - 4, Q2 - 2 Q3 - 64
Inband packets unmapped to a queue: 0
Inband packets mapped to bpdu queue: 7734430 (7734430)
Inband packets mapped to q0: 686779 (686779)
Inband packets mapped to q1: 0 (0)
Inband packets mapped to q2: 0 (0)
Inband packets mapped to q3: 20128 (20128)
Pkt Size History : 2811395 for index 1
Pkt Size History : 274508 for index 2
Pkt Size History : 74284 for index 3
Pkt Size History : 43401 for index 4
Pkt Size History : 70915 for index 5
Pkt Size History : 35602 for index 6
Pkt Size History : 30085 for index 7
Pkt Size History : 29408 for index 8
Pkt Size History : 21221 for index 9
Pkt Size History : 15683 for index 10
Pkt Size History : 13212 for index 11
Pkt Size History : 10646 for index 12
Pkt Size History : 9290 for index 13
Pkt Size History : 50298 for index 14
Pkt Size History : 5473 for index 15
Pkt Size History : 4871 for index 16
Pkt Size History : 4687 for index 17
Pkt Size History : 5507 for index 18
Pkt Size History : 15416 for index 19
Pkt Size History : 11333 for index 20
Pkt Size History : 5478 for index 21
Pkt Size History : 4281 for index 22
Pkt Size History : 3543 for index 23
Pkt Size History : 3059 for index 24
Pkt Size History : 2228 for index 25
Pkt Size History : 4390 for index 26
Pkt Size History : 19892 for index 27
Pkt Size History : 524 for index 28
Pkt Size History : 478 for index 29
Pkt Size History : 348 for index 30
Pkt Size History : 447 for index 31
Pkt Size History : 1545 for index 32
Pkt Size History : 152 for index 33
Pkt Size History : 105 for index 34
Pkt Size History : 1424 for index 35
Pkt Size History : 43 for index 36
Pkt Size History : 60 for index 37
Pkt Size History : 60 for index 38
Pkt Size History : 46 for index 39
Pkt Size History : 58 for index 40
Pkt Size History : 829 for index 41
Pkt Size History : 32 for index 42
Pkt Size History : 26 for index 43
Pkt Size History : 1965 for index 44
Pkt Size History : 21 for index 45
Pkt Size History : 1 for index 46
Pkt Size History : 1 for index 48
Pkt Size History : 1 for index 51
Pkt Size History : 1 for index 52
Pkt Size History : 1 for index 53
Pkt Size History : 3 for index 55
In KLM packets mapped to bpdu: 7734430
In KLM packets mapped to arp : 912
In KLM packets mapped to q0 : 686779
In KLM packets mapped to q1 : 0
In KLM packets mapped to q2 : 0
In KLM packets mapped to q3 : 20128
In KLM packets mapped to veobc : 0
In KLM Queue Mapping (0 1 2 3 4)
Data Available in FDs (0 0 0 0 0)
Inband Queues:
bpdu: recv 1556227, drop 0, congested 0 rcvbuf 2097152, sndbuf 262142 no drop 1
(q0): recv 686779, drop 0, congested 0 rcvbuf 2097152, sndbuf 262142 no drop 0
(q1): recv 0, drop 0, congested 0 rcvbuf 2097152, sndbuf 262142 no drop 0
(q2): recv 0, drop 0, congested 0 rcvbuf 2097152, sndbuf 262142 no drop 0
(q3): recv 20128, drop 0, congested 0 rcvbuf 2097152, sndbuf 262142 no drop 0
Mgmt packets not mapped to a VDC: 227551
Mgmt multicast packets dropped: 92365
Mgmt multicast packets delivered: 0
Mgmt packets broadcast to each VDC: 23119
Mgmt debugging packets copied: 0
Mgmt IPv6 multicast packets delivered: 0
Mgmt IPv6 link-local packets delivered: 0
Mgmt LLDP packets received: 0
인터페이스에서 CPU로 전송된 트래픽의 패킷 속도 및 트래픽 유형(유니캐스트 또는 멀티캐스트)을 확인하려면 이 명령을 사용합니다.
switch# show system internal pktmgr interface e1/5
Ethernet1/5, ordinal: 73
SUP-traffic statistics: (sent/received)
Packets: 63503 / 61491
Bytes: 6571717 / 5840641
Instant packet rate: 0 pps / 0 pps
Packet rate limiter (Out/In): 0 pps / 0 pps
Average packet rates(1min/5min/15min/EWMA):
Packet statistics:
Tx: Unicast 3198, Multicast 60302
Broadcast 3
Rx: Unicast 3195, Multicast 58294
Broadcast 2
이 명령은 패킷 관리자에 등록된 STP 또는 CDP(Cisco Discovery Protocol)와 같은 애플리케이션 및 이러한 애플리케이션에서 보내고 받은 패킷 수를 표시합니다.
switch# show system internal pktmgr client
Client uuid: 268, 4 filters, pid 3127
Filter 1: EthType 0x0806,
Rx: 2650, Drop: 0
Filter 2: EthType 0xfff0, Exc 8,
Rx: 0, Drop: 0
Filter 3: EthType 0x8841, Snap 34881,
Rx: 0, Drop: 0
Filter 4: EthType 0x0800, DstIf 0x150b0000, Excl. Any
Rx: 0, Drop: 0
Options: TO 0, Flags 0x18040, AppId 0, Epid 0
Ctrl SAP: 278, Data SAP 337 (1)
Total Rx: 2650, Drop: 0, Tx: 1669, Drop: 0
Recirc Rx: 0, Drop: 0
Rx pps Inst/Max: 0/20
Tx pps Inst/Max: 0/5
COS=0 Rx: 0, Tx: 0 COS=1 Rx: 912, Tx: 0
COS=2 Rx: 0, Tx: 0 COS=3 Rx: 0, Tx: 0
COS=4 Rx: 0, Tx: 0 COS=5 Rx: 0, Tx: 1669
COS=6 Rx: 0, Tx: 0 COS=7 Rx: 1738, Tx: 0
Client uuid: 270, 1 filters, pid 3128
Filter 1: EthType 0x86dd, DstIf 0x150b0000, Excl. Any
Rx: 0, Drop: 0
Options: TO 0, Flags 0x18040, AppId 0, Epid 0
Ctrl SAP: 281, Data SAP 283 (1)
Total Rx: 0, Drop: 0, Tx: 0, Drop: 0
Recirc Rx: 0, Drop: 0
Rx pps Inst/Max: 0/0
Tx pps Inst/Max: 0/0
COS=0 Rx: 0, Tx: 0 COS=1 Rx: 0, Tx: 0
COS=2 Rx: 0, Tx: 0 COS=3 Rx: 0, Tx: 0
COS=4 Rx: 0, Tx: 0 COS=5 Rx: 0, Tx: 0
COS=6 Rx: 0, Tx: 0 COS=7 Rx: 0, Tx: 0
패킷이 인그레스 경로의 패킷 관리자에 도달하는지, 패킷 관리자가 패킷을 전송하고 있는지 확인하려면 이 명령을 사용합니다. 이 명령은 수신 또는 전송 경로의 버퍼에 문제가 있는지 확인하는 데에도 도움이 됩니다.
switch# show system internal pktmgr stats
Route Processor Layer-2 frame statistics
Inband driver: valid 1, state 0, rd-thr 1, wr-thr 0, Q-count 0
Inband sent: 56441521, copy_drop: 0, ioctl_drop: 0,
unavailable_buffer_hdr_drop: 0
Inband standby_sent: 0
Inband encap_drop: 0, linecard_down_drop: 0
Inband sent by priority [0=11345585,5=164281,6=43280117,7=1651538]
Inband max output queue depth 0
Inband recv: 89226232, copy_drop: 0, ioctl_drop: 0,
unavailable_buffer_hdr_drop: 0
Inband decap_drop: 0, crc_drop: 0, recv by priority: [0=89226232]
Inband bad_si 0, bad_if 0, if_down 0
Inband last_bad_si 0, last_bad_if 0, bad_di 0
Inband kernel recv 44438488, drop 0, rcvbuf 2097152, sndbuf 4194304
Mgmt driver: valid 1, state 0, rd-thr 1, wr-thr 0, Q-count 0
Mgmt sent: 971834, copy_drop: 0, ioctl_drop: 0,
unavailable_buffer_hdr_drop: 0
Mgmt standby_sent: 0
Mgmt encap_drop: 0, linecard_down_drop: 0
Mgmt sent by priority [0=925871,5=45963]
Mgmt max output queue depth 0
Mgmt recv: 1300932, copy_drop: 0, ioctl_drop: 0,
unavailable_buffer_hdr_drop: 0
Mgmt decap_drop: 0, crc_drop: 0, recv by priority: [0=1300932]
Mgmt bad_si 0, bad_if 0, if_down 0
Mgmt last_bad_si 0, last_bad_if 0, bad_di 0
Mgmt kernel recv 1300932, drop 0, rcvbuf 2097152, sndbuf 2097152
Inband2 driver: valid 0, state 1, rd-thr 0, wr-thr 0, Q-count 0
No of packets passed by PM Policy database 876452
No of packets dropped by PM Policy database 0
No of packets bypassed by PM Policy database 424480
No of packets dropped by PM originating from kernel 0
MBUFSK Tx: 57413355 pkts (requested 57413355 denied 0), 62236110 mbufs
function invoked 57413355 denied 0/0 c/realloc 0/0
MBUFSK Rx: 90527161 pkts, 90527421 mbufs (requested 2388154951 denied 0)
function invoked 35132836
Global input drops: bad-interface 0, bad-encap 0, failed-decap 0,
no prot 42371
recv_encaptype_err 0, recv_decap_err 0, recv_mac_mismatch 0, recv_no_client 0
recv_no_svi 0, recv_no_vlan 0, recv_client_notreg 0, recv_enqueue_fail 0
Global output drops:
send_ifdown_fail 13, send_invalid_iod 0
send_invalid_vlan 0, send_security_drop 0 send_loopback_drop 0,
send_small_pkt_fail 0
send_vsl_err 0, send_dce_err 0,send_enqueue_fail 0, send_alloc_fail 0
DCE errors:
misc_err 0, lookup_err 0, encap_err 0, decap_err 0
Platform errors:
generic_encap_err 0, encap_err 0, decap_err 0
vlan_encap_err 0, vlan_decap_err 0
DC3HDR errors:
pkt_err 0, vlan_err 0, ifidx_err 0, portidx_err 0
RECIRC errors:
misc_err 0, lookup_err 0
Lcache errors:
init_err 0, timer_err 0
Stats errors:
misc_err 0, init_err 0, timer_err 0
Client errors:
alloc_err 0, pid_err 0, register_err 0, unregister_err 0
add_err 0, delete_err 0, update_err 0
VDC errors:
alloc_err 0, set_err 0, update_err 0
Misc. errors:
mts_err 0, mbuf_err 0, drop_exception 0
invalid_drv_type 0, interface_err 0
eth_output_err 0, gre_err 0 otv_err 0
tunnel_6to4_err 0, mcec_err 0, invalid_gpc 0 invalid_ftag 0 invalid_l2_type :0
register_err 0, unregister_err 0, invalid_args 0, file_open_err 0
inband_err 0, vlan_err 0, pm_alloc_err 0, pm_ha_err 0, pm_init_err 0
arp_init_err 0, rtm_init_err 0, am_init_err 0, ui_init_err 0, mpls_init_err 0,
evc_init_err 0
sdb_err 95670, sdb_init_err 0
sysmgr_err 0, eth_span_err 0, buf_pool_err 0, feature_err 0
uuid2client_err 16, dot1q_drop 0, nfcache_init_err 0
Crossbar down drops : 0
Exception packets: mtu-fail 0, icmp-redirect 0, icmp-unreach 0, ttl 0
options 0, rpf 0, two-mcast-rpf 0, l3-bridge-drop 0
mcast-next-hop 0, municast 0
drop 0, acl-redirect 0, acl-redir-arp 0, acl-redir-dhcp 0
sup-shim-pkt 229385 Pkts recvd with peergway SUP DI 0
VPC Frame Statistics
VPC Mgr reg state 1, im-ext-sdb-state 1
Ingress BPDUs qualified for redirection 0
Ingress BPDUs redirected to peer 0
Egress BPDUs qualified for redirection 0
Egress BPDUs dropped due to remote down 0
Egress BPDUs redirected to peer 0
Ingress pkts qualified for peergateway tunneling 0
Ingress pkts tunneled to peer with peergateway conf 0
Peer-gw pkts tunneled tx :
From VPC+ leg 0, From VPC leg 0, From l2mp network 0
From orphan port in VPC+ 0, from orphan port in VPC 0
For ARP 0, IP 0, IPv6 0, unknown 0
Total Tunneled packets received from peer 0
Local delivery 0, Transmit down 0, peer-gw tunneled 0
Tunnel rx packets drop due to local vpc leg down 0
Peer-gw pkts tunneled rx :
From VPC+ leg 0, VPC leg 0, From l2mp network 0
From orphan port in VPC+ 0, from orphan port in VPC 0
For ARP 0, IP 0, IPv6 0, unknown 0
Error Statistics
VPC manager: uninit 0, library 0
Tunnel (ingress): non-mct rx 0, bad hdr 0, badpkts 0, non gpc peer 0
Tunnel (ingress): redirlooperror 0
Tunnel (egress): in-bpdu 0, e-bpdu 0, peer-gw 0
MBuf: alloc: 0, prepend: 0, pullup: 0
Invalid filter: 0
Peergw tunneling tx: invalid ftag 0, invalid swid 0
invalid iftype 0, invalid GPC of peer 0
Peergw tunneling rx: invalid msg subtype 0, invalid GPC of core 0
invalid GPC of peer 0, invalid svi 0
Unicast pkts which passed egress redirection check 0
statistics last reset 2w0d
개정 | 게시 날짜 | 의견 |
---|---|---|
3.0 |
28-Jun-2024 |
재인증, 서식 |
2.0 |
09-Jun-2023 |
재인증 |
1.0 |
26-Apr-2013 |
최초 릴리스 |