tutorial tipos stress software resultados reporte rendimiento pruebas prueba interpretar informe grafico generar español ejemplos ejemplo jmeter performance-testing stress-testing throughput

tipos - pruebas jmeter ejemplos



¿Cómo analizo los resultados del resumen de JMeter? (2)

Sobre el promedio: 738 o 0.7s significa que, por ejemplo, si tiene una solicitud con dos hilos y la primera, completada en 0.9 y la segunda tarda 0.5s, este es el tiempo promedio de respuesta de todas las solicitudes que ha realizado (lo mismo para sus 5000 usuarios si, por ejemplo, están ejecutando 1 solicitud cada uno; el tiempo de respuesta promedio será la suma de todos los tiempos de respuesta divididos por el número de subprocesos (5000)).

Min y Max son el tiempo mínimo y máximo de respuesta que todas las solicitudes registraron como resultado, por lo que si 5000 hilos se ejecutan nuevamente 1 solicitud, uno de los tiempos de respuesta de los muestreadores fue 155 milisegundos y el otro fue 2228 milisegundos.

Acerca del rendimiento: significa el número de transacciones o solicitudes que se pueden realizar en un período de tiempo determinado. Es una medida útil para verificar la capacidad de carga del servidor. Rendimiento = (número de solicitudes) / (tiempo total).

Sé que esta pregunta se ha formulado aquí anteriormente, pero todavía no puedo determinar cuál es la importancia de los parámetros average,min,max and throughput en el informe de resumen de Jmeter.

Aquí está la configuración de JMeter:

No. of threads:5000 Ramp-up period : 1 Loop Count: 1 Results : Average:738 Min:155 Max:2228 Throughput:60.5%

Entonces, ¿eso significa que mis solicitudes de 5k tomaron 738 milisegundos (0.7 s) para completarse? o significa que cada solicitud tomó 0,7 s para completar? Similar, cuál será la interpretación para los parámetros mínimo y máximo.


El rendimiento : es el número de solicitudes por unidad de tiempo (segundos, minutos, horas) que se envían a su servidor durante la prueba.

El tiempo de respuesta : es el tiempo transcurrido desde el momento en que se envía una solicitud determinada al servidor hasta el momento en que el último bit de información ha regresado al cliente.

El rendimiento es la carga real procesada por su servidor durante una ejecución, pero no le dice nada sobre el rendimiento de su servidor durante esta misma ejecución. Esta es la razón por la cual necesita ambas medidas para obtener una idea real sobre el rendimiento de su servidor durante una ejecución. El tiempo de respuesta le indica qué tan rápido su servidor maneja una carga determinada.

Promedio : este es el promedio (Media aritmética μ = 1 / n * Σi = 1 ... n xi) Tiempo de respuesta de sus muestras totales.

Min y Max son el tiempo de respuesta mínimo y máximo.

Una cosa importante de entender es que el valor medio puede ser muy engañoso ya que no muestra cuán cerca (o lejos) están sus valores del promedio. Para este propósito, necesitamos el valor de desviación , ya que el valor promedio puede ser el mismo para diferente tiempo de respuesta de las muestras !!

Desviación : La desviación estándar (σ) mide la distancia media de los valores a su promedio (μ). Le da una buena idea de la dispersión o variabilidad de las medidas a su valor medio.

La siguiente ecuación muestra cómo se calcula la desviación estándar (σ) :

σ = 1 / n * √ Σi = 1 ... n (xi-μ) 2

Para detalles, mira aquí !!

Por lo tanto, si el valor de la desviación es bajo en comparación con el valor medio, le indicará que sus medidas no están dispersas (o más cerca del valor medio) y que el valor medio es significativo .

¡Un ejemplo siempre es mejor para entender! Creo que este artículo te ayudará.