El conjunto de documentos para este producto aspira al uso de un lenguaje no discriminatorio. A los fines de esta documentación, "no discriminatorio" se refiere al lenguaje que no implica discriminación por motivos de edad, discapacidad, género, identidad de raza, identidad étnica, orientación sexual, nivel socioeconómico e interseccionalidad. Puede haber excepciones en la documentación debido al lenguaje que se encuentra ya en las interfaces de usuario del software del producto, el lenguaje utilizado en función de la documentación de la RFP o el lenguaje utilizado por un producto de terceros al que se hace referencia. Obtenga más información sobre cómo Cisco utiliza el lenguaje inclusivo.
Cisco ha traducido este documento combinando la traducción automática y los recursos humanos a fin de ofrecer a nuestros usuarios en todo el mundo contenido en su propio idioma. Tenga en cuenta que incluso la mejor traducción automática podría no ser tan precisa como la proporcionada por un traductor profesional. Cisco Systems, Inc. no asume ninguna responsabilidad por la precisión de estas traducciones y recomienda remitirse siempre al documento original escrito en inglés (insertar vínculo URL).
Este documento describe cómo utilizar el TCP Dump en el shell de depuración de StarOS para resolver problemas de conexión Diámetro. A menudo se producen casos que solicitan ayuda para solucionar problemas por los que no se activa o se desactiva una conexión Diámetro, aunque (supuestamente) no se han producido cambios en la configuración o la red. La conexión de diámetro puede no establecerse en el nivel de negociación TCP/IP inicial o en el nivel de solicitud de intercambio de capacidades (CER) / respuesta de intercambio de capacidades (CEA).
Sin embargo, si bien no hay un problema típico de peering de diámetro, sí se clasifican en algunas categorías:
Normalmente, el puerto TCP 3868 (predeterminado) se utiliza para el servidor Diámetro, aunque también se pueden especificar otros puertos y se puede confirmar que son diferentes de 3868 en la configuración si las líneas de configuración de peer tienen un número de puerto especificado al final de la línea.
En el ejemplo aquí, los peers para el punto final 3gpp-aaa-s6b fueron informados por show diámetro peer full all y no tienen un número de puerto especificado en las líneas de peer y por lo tanto de forma predeterminada utilizan el puerto 3868, mientras que los peers para Gy utilizan una combinación de 3868, 3869 y 370 para los diversos peers ers.
show diámetro peers all informa todos los peers configurados para todos los extremos de diámetro. Aquí vemos 6 peers configurados y las líneas de configuración asociadas para 3gpp-aaa-s6b (rotas) así como para Gy (en funcionamiento), observando que Gy tiene algunos números de puerto personalizados:
diameter endpoint 3gpp-aaa-s6b origin realm epc.mnc260.mcc310.3gppnetwork.org use-proxy origin host s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org address 10.168.86.144 max-outstanding 64 route-failure threshold 100 route-failure deadtime 600 route-failure recovery-threshold percent 50 dscp af31 peer mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org realm epc.mnc260.mcc310.3gppnetwork.org address 10.160.113.136 peer mp2.elgdra01.dra.epc.mnc260.mcc310.3gppnetwork.org realm epc.mnc260.mcc310.3gppnetwork.org address 10.160.114.136 peer mp2.nvldra01.dra.epc.mnc260.mcc310.3gppnetwork.org realm epc.mnc260.mcc310.3gppnetwork.org address 10.160.115.136 peer tsa06.draaro01.dra.epc.mnc260.mcc310.3gppnetwork.org realm epc.mnc260.mcc310.3gppnetwork.org address 10.162.6.73 peer tsa06.drasyo01.dra.epc.mnc260.mcc310.3gppnetwork.org realm epc.mnc260.mcc310.3gppnetwork.org address 10.164.57.41 peer tsa06.drawsc01.dra.epc.mnc260.mcc310.3gppnetwork.org realm epc.mnc260.mcc310.3gppnetwork.org address 10.177.70.201 route-entry peer mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org route-entry peer mp2.elgdra01.dra.epc.mnc260.mcc310.3gppnetwork.org route-entry peer mp2.nvldra01.dra.epc.mnc260.mcc310.3gppnetwork.org route-entry peer tsa06.draaro01.dra.epc.mnc260.mcc310.3gppnetwork.org route-entry peer tsa06.drasyo01.dra.epc.mnc260.mcc310.3gppnetwork.org route-entry peer tsa06.drawsc01.dra.epc.mnc260.mcc310.3gppnetwork.org #exit [local]IEPCF201# show diameter peers all Friday December 11 20:27:43 UTC 2020 Diameter Peer details ====================== ------------------------------------------------------------------------------- Context: billing Endpoint: 3gpp-aaa-s6b ------------------------------------------------------------------------------- Peer: mp2.daldra01.dra.epc.mnc260.mc Addr:Port 10.160.113.136:3868 Peer: mp2.elgdra01.dra.epc.mnc260.mc Addr:Port 10.160.114.136:3868 Peer: mp2.nvldra01.dra.epc.mnc260.mc Addr:Port 10.160.115.136:3868 Peer: tsa06.draaro01.dra.epc.mnc260. Addr:Port 10.162.6.73:3868 Peer: tsa06.drasyo01.dra.epc.mnc260. Addr:Port 10.164.57.41:3868 Peer: tsa06.drawsc01.dra.epc.mnc260. Addr:Port 10.177.70.201:3868 ------------------------------------------------------------------------------- diameter endpoint credit-control origin realm starent.gy.com use-proxy origin host iepcf201.gy address 10.168.86.151 destination-host-avp always route-failure threshold 100 route-failure deadtime 600 route-failure recovery-threshold percent 50 peer ln24.daldra01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.160.113.136 port 3869 peer ln24.drawsc01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.177.70.201 port 3870 peer tsa05.drachr01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.164.144.88 peer tsa05.draphx01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.198.93.88 peer tsa05.drapol01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.182.16.88 peer tsa06.drachr01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.164.144.89 peer tsa06.draphx01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.198.93.89 peer tsa06.drapol01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.182.16.89 route-entry peer ln24.drawsc01.dra.epc3.mnc260.mcc310.3gppnetwork.org weight 20 route-entry peer ln24.daldra01.dra.epc3.mnc260.mcc310.3gppnetwork.org route-entry peer tsa05.drapol01.dra.epc3.mnc260.mcc310.3gppnetwork.org route-entry peer tsa06.drapol01.dra.epc3.mnc260.mcc310.3gppnetwork.org route-entry peer tsa05.drachr01.dra.epc3.mnc260.mcc310.3gppnetwork.org weight 5 route-entry peer tsa05.draphx01.dra.epc3.mnc260.mcc310.3gppnetwork.org weight 5 route-entry peer tsa06.drachr01.dra.epc3.mnc260.mcc310.3gppnetwork.org weight 5 route-entry peer tsa06.draphx01.dra.epc3.mnc260.mcc310.3gppnetwork.org weight 5 #exit
También cabe destacar que, para la mayoría de las configuraciones, se especifica use-proxy configurable para configurar peering en el lado ASR para utilizar el proceso diamproxy que se ejecuta en todas las tarjetas activas, por ejemplo, se trata de un vPC-DI donde las tarjetas se denominan Tarjetas de función de servicio.
[local]IEPCF201# show task resources facility diamproxy all Friday December 11 20:34:37 UTC 2020 task cputime memory files sessions cpu facility inst used allc used alloc used allc used allc S status ----------------------- ----------- ------------- --------- ------------- ------ 3/0 diamproxy 5 0.12% 90% 41.62M 250.0M 38 2500 -- -- - good 5/0 diamproxy 2 0.11% 90% 41.63M 250.0M 51 2500 -- -- - good 6/0 diamproxy 6 0.13% 90% 41.62M 250.0M 35 2500 -- -- - good 7/0 diamproxy 3 0.12% 90% 41.64M 250.0M 34 2500 -- -- - good 8/0 diamproxy 4 0.13% 90% 41.65M 250.0M 34 2500 -- -- - good 10/0 diamproxy 1 0.10% 90% 41.64M 250.0M 49 2500 -- -- - good Total 6 0.71% 249.8M 241 0 [local]IEPCF201#
Aquí mostrar pares de diámetro completos todo se toma de los detalles de la compatibilidad de show captura el hecho de que los pares Diámetro para el punto final 3gpp-aaa-s6b están todos inactivos. Tenga en cuenta que esta es una versión de depuración especial del comando show diámetro peers full tomado de los detalles de soporte show (SSD) y por lo tanto también muestra todas las conexiones de peer a los procesos aamgr (no muestra la salida aquí) y por lo tanto el conteo final de conexiones es mucho más alto que si se ejecutara normalmente, pero se muestra en la parte inferior el resultado de resumen como si se ejecutara normalmente con el menor número de conexiones (14) 4). La salida COMPLETA se adjunta a este artículo, por lo que sólo se muestran las conexiones de un par (pero con los 6 diamproxies) para obtener una mayor brevedad.
También se muestra un ejemplo de una conexión en funcionamiento abierta para los terminales Gy, donde puede ver un campo adicional llamado Dirección local que captura la conexión activa en el lado ASR, mientras que en los pares 3gpp-aaa-s6b rotos ese campo no existe. (Más adelante se muestra el resultado después de que el problema fue corregido por el cliente para el peer 3gpp-aaa-s6b donde se incluye esa dirección local).
******** show diameter peers full ******* Sunday December 13 15:19:00 UTC 2020 ------------------------------------------------------------------------------- Context: billing Endpoint: 3gpp-aaa-s6b ------------------------------------------------------------------------------- Peer Hostname: mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org Local Hostname: 0001-diamproxy.s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org Peer Realm: epc.mnc260.mcc310.3gppnetwork.org Local Realm: epc.mnc260.mcc310.3gppnetwork.org Peer Address: 10.160.113.136:3868 State: IDLE [TCP] CPU: 10/0 Task: diamproxy-1 Messages Out/Queued: 0/0 Supported Vendor IDs: None Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A Peer Hostname: mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org Local Hostname: 0002-diamproxy.s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org Peer Realm: epc.mnc260.mcc310.3gppnetwork.org Local Realm: epc.mnc260.mcc310.3gppnetwork.org Peer Address: 10.160.113.136:3868 State: IDLE [TCP] CPU: 5/0 Task: diamproxy-2 Messages Out/Queued: 0/0 Supported Vendor IDs: None Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A Peer Hostname: mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org Local Hostname: 0003-diamproxy.s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org Peer Realm: epc.mnc260.mcc310.3gppnetwork.org Local Realm: epc.mnc260.mcc310.3gppnetwork.org Peer Address: 10.160.113.136:3868 State: IDLE [TCP] CPU: 7/0 Task: diamproxy-3 Messages Out/Queued: 0/0 Supported Vendor IDs: None Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A Peer Hostname: mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org Local Hostname: 0004-diamproxy.s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org Peer Realm: epc.mnc260.mcc310.3gppnetwork.org Local Realm: epc.mnc260.mcc310.3gppnetwork.org Peer Address: 10.160.113.136:3868 State: IDLE [TCP] CPU: 8/0 Task: diamproxy-4 Messages Out/Queued: 0/0 Supported Vendor IDs: None Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A Peer Hostname: mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org Local Hostname: 0005-diamproxy.s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org Peer Realm: epc.mnc260.mcc310.3gppnetwork.org Local Realm: epc.mnc260.mcc310.3gppnetwork.org Peer Address: 10.160.113.136:3868 State: IDLE [TCP] CPU: 3/0 Task: diamproxy-5 Messages Out/Queued: 0/0 Supported Vendor IDs: None Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A Peer Hostname: mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org Local Hostname: 0006-diamproxy.s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org Peer Realm: epc.mnc260.mcc310.3gppnetwork.org Local Realm: epc.mnc260.mcc310.3gppnetwork.org Peer Address: 10.160.113.136:3868 State: IDLE [TCP] CPU: 6/0 Task: diamproxy-6 Messages Out/Queued: 0/0 Supported Vendor IDs: None Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A ... ------------------------------------------------------------------------------- Context: billing Endpoint: credit-control ------------------------------------------------------------------------------- ... Peer Hostname: ln24.daldra01.dra.epc3.mnc260.mcc310.3gppnetwork.org Local Hostname: 0001-diamproxy.iepcf201.gy Peer Realm: nsn-gy Local Realm: starent.gy.com Peer Address: 10.160.113.136:3869 Local Address: 10.168.86.151:55584 State: OPEN [TCP] CPU: 10/0 Task: diamproxy-1 Messages Out/Queued: 0/0 Supported Vendor IDs: 10415 Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A Peers Summary: Peers in OPEN state: 1404 Peers in CLOSED state: 468 Peers in intermediate state: 0 Total peers matching specified criteria: 1872
Para referencia, aquí está el resultado normal de este comando que muestra el recuento de conexiones sin los amamgrs:
Peers Summary: Peers in OPEN state: 107 Peers in CLOSED state: 36 Peers in intermediate state: 1 Total peers matching specified criteria: 144
Como se ha explicado, este escenario muestra que TODOS los pares de diámetro están inactivos para el punto final s6b, el problema NO es para una tarjeta/proxy de diamante específica, lo que significa que la colección PCAP para cualquiera de las tarjetas debería representar adecuadamente el problema para propósitos de troubleshooting. Si el problema sólo se veía en un diamproxy específico, sería más importante capturar un PCAP para ese proceso. Esto es importante porque el proceso de recolección requiere especificar una tarjeta específica - no se puede ejecutar en todas las tarjetas con una única captura - y aunque en este escenario el problema se ve de hecho en todas las tarjetas, a continuación se muestran capturas tomadas en dos tarjetas para ayudar a hacer algunos puntos sobre cómo analizar los datos resultantes.
Lo primero que hay que hacer es mirar la tabla de la tarjeta y elegir un par de tarjetas ACTIVE (3 y 5) en las que ejecutar la captura, así como anotar cuál es la tarjeta Demux que no debe especificarse.
[local]IEPCF201# show card table Friday December 11 17:15:28 UTC 2020 Slot Card Type Oper State SPOF Attach ----------- -------------------------------------- ------------- ---- ------ 1: CFC Control Function Virtual Card Active No 2: CFC Control Function Virtual Card Standby - 3: FC 4-Port Service Function Virtual Card Active No <===== 4: FC 4-Port Service Function Virtual Card Standby - 5: FC 4-Port Service Function Virtual Card Active No <===== 6: FC 4-Port Service Function Virtual Card Active No 7: FC 4-Port Service Function Virtual Card Active No 8: FC 4-Port Service Function Virtual Card Active No 9: FC 4-Port Service Function Virtual Card Active No 10: FC 4-Port Service Function Virtual Card Active No [local]IEPCF201# [local]IEPCF201# show session recovery status verbose Saturday December 12 21:43:11 UTC 2020 Session Recovery Status: Overall Status : Ready For Recovery Last Status Update : 4 seconds ago ----sessmgr--- ----aaamgr---- demux cpu state active standby active standby active status ---- ------- ------ ------- ------ ------- ------ ------------------------- 3/0 Active 12 1 12 1 0 Good 4/0 Standby 0 12 0 12 0 Good 5/0 Active 12 1 12 1 0 Good 6/0 Active 12 1 12 1 0 Good 7/0 Active 12 1 12 1 0 Good 8/0 Active 12 1 12 1 0 Good 9/0 Active 0 0 0 0 8 Good (Demux) 10/0 Active 12 1 12 1 0 Good [local]IEPCF201#
Además, es necesario recuperar el número de contexto donde se definen los pares de diámetro; en este caso, el contexto de facturación es #2.
******** show context ******* Sunday December 13 15:14:24 UTC 2020 Context Name ContextID State Description --------------- --------- ---------- ----------------------- local 1 Active billing 2 Active <========== calea 3 Active gi 4 Active sgw 5 Active
A continuación, inicie sesión en el shell de depuración de Linux para las tarjetas donde se va a recopilar el PCAP, en este caso, las tarjetas 3 y 5, en su propia sesión CLI:
Nota: El acceso al shell de depuración no es algo a lo que la mayoría de los operadores probablemente tendrán acceso a menos que se les haya dicho la contraseña específica para el chasis/cliente, dependiendo de cómo se configuró. Tenga cuidado al iniciar sesión en el shell de depuración, ya que está iniciando sesión en el sistema operativo subyacente de la tarjeta (PSC o DPC de ASR 5000 o ASR 5500) o máquina virtual (función de servicio (SF) de vPC-DI).
[local]IEPCF201# cli test password <password> Saturday December 12 21:43:54 UTC 2020 Warning: Test commands enables internal testing and debugging commands USE OF THIS MODE MAY CAUSE SIGNIFICANT SERVICE INTERRUPTION [local]IEPCF201# [local]IEPCF201# debug shell card 3 cpu 0 Saturday December 12 21:44:02 UTC 2020 Last login: Fri Dec 11 19:26:34 +0000 2020 on pts/1 from card1-cpu0. qvpc-di:card3-cpu0#
Ahora ejecute un comando especial de Linux setvr (set virtual router) disponible solamente en esta versión personalizada de StarOS de Linux, especificando el contexto # recuperado anteriormente. Tenga en cuenta que el mensaje cambia:
qvpc-di:card3-cpu0# setvr 2 bash bash-2.05b#
En este punto, el volcado TCP se puede ejecutar usando los parámetros de la siguiente manera. Observe que si el número de puerto es diferente como en el ejemplo anterior para gy, entonces ese número de puerto debe ser utilizado. Además, se puede especificar una dirección IP de host con host <dirección ip de host> si hay una dirección de peer específica para la cual capturar paquetes. Ejecute el comando durante un par de minutos y detenga la captura con Control-C. Si se capturan los paquetes, se muestra el número de paquetes.
bash-2.05b# tcpdump -i any -s 0 -w /tmp/diameter_SF3.pcap "port 3868" tcpdump: listening on any ^C 1458 packets received by filter 0 packets dropped by kernel bash-2.05b#
A continuación, salga del espacio del router virtual con el comando exit y, a continuación, copie el archivo en la memoria flash de la tarjeta de administración activa, que para ASR 5500 sería MIO 5 ó 6, o en el caso de vPC-DI, 1 ó 2.
bash-2.05b# exit exit qvpc-di:card3-cpu0# scp /tmp/diameter_SF3.pcap card1:/flash/sftp/diameter_SF3.pcap diameter_SF3.pcap 100% 110KB 110.4KB/s 00:00 qvpc-di:card3-cpu0# exit [local]IEPCF201#
En ese momento, el archivo se puede recuperar con sftp utilizando los medios que existan dentro de la red para alcanzar el directorio /flash.
Aquí están los comandos para SF 5 también, que es una repetición de lo que se acaba de mostrar para SF 3. Lo ideal es que ambas sesiones se ejecuten al mismo tiempo para tener capturas simultáneas para el análisis (aunque esto puede no ser necesario).
[local]IEPCF201# cli test password <password> Saturday December 12 21:43:28 UTC 2020 Warning: Test commands enables internal testing and debugging commands USE OF THIS MODE MAY CAUSE SIGNIFICANT SERVICE INTERRUPTION [local]IEPCF201# debug shell card 5 cpu 0 Saturday December 12 21:44:13 UTC 2020 qvpc-di:card5-cpu0# qvpc-di:card5-cpu0# setvr 2 bash bash-2.05b# tcpdump -i any -s 0 -w /tmp/diameter_SF5.pcap "port 3868" tcpdump: listening on any ^C 1488 packets received by filter 0 packets dropped by kernel bash-2.05b# exit exit qvpc-di:card5-cpu0# scp /tmp/diameter_SF5.pcap card1:/flash/sftp/diameter_SF5.pcap diameter_SF5.pcap 100% 113KB 112.7KB/s 00:00 qvpc-di:card5-cpu0# exit [local]IEPCF201#
El objetivo aquí es determinar dónde se encuentra la descomposición en el proceso de establecimiento de conexiones de diámetro. Como se mencionó anteriormente, podría estar en la conexión TCP/IP o podría estar en el paso CER/CEA subsiguiente. Para TCP/IP, observe si se envía un TCP SYN y si se recibe un TCP SYN ACK, seguido de un ACK enviado desde ASR. Los paquetes se pueden filtrar con cualquier número de filtros para ayudar con el análisis y, en este caso, el filtro tcp.flag.syn == 1 muestra que se está enviando el SYN para los 6 peers para esta tarjeta en particular. Al observar una vista sin filtrar, haga clic con el botón derecho del ratón en un paquete SYN y aproveche la función de flujo TCP en Wireshark que agrega todos los paquetes TCP que utilizan el mismo número de puerto TCP, eligiendo Seguir ... TCP Stream para ver si hay un intercambio correspondiente de paquetes TCP que establecen la conexión.
En este escenario, observe que NO hay más paquetes más allá del SYN, y esto confirma que el ASR probablemente esté enviando un SYN pero no recuperando ninguna respuesta, lo que eliminaría al ASR de ser la causa de la falla en la configuración de la conexión (aunque este no es el caso, posiblemente el paquete no está siendo enviado, o que la respuesta está siendo descartada, en cuyo caso un PCAP externo sería útil para reducir aún más el problema).
También cabe destacar que el patrón se repite cada 30 segundos, lo que coincide con la configuración predeterminada para el punto final de diámetro de 30 segundos para volver a intentar la conexión; el ASR no se rinde, sino que lo volverá a intentar para siempre hasta que sea exitoso. El PCAP para SF 5 muestra exactamente el mismo comportamiento.
context billing diameter endpoint 3gpp-aaa-s6b connection timeout 30 connection retry-timeout 30
Al unir las cosas, las estadísticas de la base de diámetro muestran que el número de conexiones fallidas aumenta a una velocidad proporcional al número de SF/diamproxies y al tiempo de espera de reintento. La matemática es la siguiente: 6 pares * 6 diamproxies = 36 intentos cada 30 segundos. Por lo tanto, a lo largo de un minuto serían 72 intentos, y esto puede verse ejecutando show diámetro statistics proxy y observando los tiempos de espera de conexión aumentando de 60984 a 61056 = 72 durante un período de minutos, como lo muestran las marcas de tiempo de la CLI.
[local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:10 UTC 2020 Connection Timeouts: 60984 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:12 UTC 2020 Connection Timeouts: 60984 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:14 UTC 2020 Connection Timeouts: 60984 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:17 UTC 2020 Connection Timeouts: 60990 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:19 UTC 2020 Connection Timeouts: 60990 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:21 UTC 2020 Connection Timeouts: 60996 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:25 UTC 2020 Connection Timeouts: 61002 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:27 UTC 2020 Connection Timeouts: 61002 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:29 UTC 2020 Connection Timeouts: 61008 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:32 UTC 2020 Connection Timeouts: 61014 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:35 UTC 2020 Connection Timeouts: 61014 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:37 UTC 2020 Connection Timeouts: 61020 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:40 UTC 2020 Connection Timeouts: 61020 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:43 UTC 2020 Connection Timeouts: 61020 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:45 UTC 2020 Connection Timeouts: 61026 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:47 UTC 2020 Connection Timeouts: 61026 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:50 UTC 2020 Connection Timeouts: 61038 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:56 UTC 2020 Connection Timeouts: 61038 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:58 UTC 2020 Connection Timeouts: 61044 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:01 UTC 2020 Connection Timeouts: 61044 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:03 UTC 2020 Connection Timeouts: 61050 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:05 UTC 2020 Connection Timeouts: 61056 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:07 UTC 2020 Connection Timeouts: 61056 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:09 UTC 2020 Connection Timeouts: 61056 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:12 UTC 2020 Connection Timeouts: 61056 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:14 UTC 2020 Connection Timeouts: 61056 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:16 UTC 2020 Connection Timeouts: 61062 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:18 UTC 2020 Connection Timeouts: 61062 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:20 UTC 2020 Connection Timeouts: 61068 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:22 UTC 2020 Connection Timeouts: 61074 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:25 UTC 2020 Connection Timeouts: 61074 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:27 UTC 2020 Connection Timeouts: 61074 [local]IEPCF201#
Tenga en cuenta también que el número de CER/CEA (en todos los pares de diámetro) es trivial, lo que demuestra que nunca llega al punto de intentar intercambiar estos paquetes, lo que significa que es un problema de configuración TCP/IP.
[local]IEPCF201# show diameter statistics proxy Friday December 11 20:57:09 UTC 2020 ... Capabilities Exchange Requests and Answers statistics: Connection CER sent: 109 Connection CER send errors: 0 CERs received: 0 Connection CER create failures: 0 CEAs received: 108 CEA AVPs unknown: 0 CEA Application ID mismatch: 0 Read CEA Messages: 108 Read CEA Messages Unexpected: 0 Read CEA Missing: 0 Read CEA Negotiation Failure: 0 Read CER Messages: 0 Read CER Messages Unexpected: 0 Read CER Missing: 0 Tw Expire Waiting for CEA: 0
Por último, tenga en cuenta que después de que el cliente resolvió el problema, los Peers en el estado CERRADO vuelven a 0 y el campo Dirección local aparece en mostrar pares de diámetro que completan todos los resultados.
Peer Hostname: mp1.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org Local Hostname: 0001-diamproxy.s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org Peer Realm: epc.mnc260.mcc310.3gppnetwork.org Local Realm: epc.mnc260.mcc310.3gppnetwork.org Peer Address: 10.160.113.133:3868 Local Address: 10.168.86.144:32852 State: OPEN [TCP] CPU: 10/0 Task: diamproxy-1 Messages Out/Queued: 0/0 Supported Vendor IDs: None Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A Peers Summary: Peers in OPEN state: 144 Peers in CLOSED state: 0 Peers in intermediate state: 0 Total peers matching specified criteria: 144 [local]IEPCF101#