Búsqueda


24 de abril de 2007

Estadísticas y ANS (III)

En el post anterior de esta serie terminamos concluyendo que desde el punto de vista del cliente es recomendable conocer el histograma acumulado de los valores de Tiempo de Logon para la aplicación Web que estamos usando como ejemplo, de tal forma que se pudiera llegar a plantear un SLO del tipo "tiempo de logon a la aplicación inferior a 5sg. para el 90% de los casos". El caso es que para que el proveedor pueda acordar este tipo de objetivo de nivel de servicio es necesario que se haya comprobado si efectivamente lo podrá cumplir o no. ¿Qué herramientas puede utilizar el proveedor para estar seguro de cumplir con este compromiso?

Siempre que me toca dictar un curso de Fundamentos ITIL insisto mucho en que "antes de comprometernos debemos haber medido", pero si sólo me baso en las mediciones puntuales y no realizo ningín tipo de cálculo estadístico al respecto del comportamiento de lo que estoy midiendo puedo caer fácilmente en el error de afirmar que "mi tiempo de logon medio es de 4,1 sg. y eso está por debajo del SLO pactado". Pero nuestro cliente ha cambiado las reglas del juego: ya no estamos midiendo estrictamente el tiempo medio de logon, sino que ahora queremos, además, una estabilidad de esa variable.

Para enfrentarnos a este reto vamos a utilizar una herramienta que todos hemos oido nombrar, incluso la hemos estudiado más de una vez y que los matemáticos llevan utilizando desde principios del Siglo XVIII: la distribución Normal, o "campana de Gauss". Esta distribución tiene toda una serie de características que la hacen especialmente interesante para el estudio estadístico, siempre y cuando los datos que estamos analizando cumplan con la hipótesis de normalidad (de la que ya hablaremos en futuros posts).

Dada una distribución con media μ y desviación estándard σ , la función de densidad para esta distribución será

 de tal forma que vemos que la función de densidad es directamente dependiente de estos dos parámetros: la media y la desviación estandard.  La distribución normal se corresponde con esta curva cuando la media vale 0 y la distribución estándard vale 1. Cuando la desviación estándard se hace mayor, la curva se "aplana" y cuando la desviación se hace menor, la curva se hace cada vez más estrecha y "puntiaguda".

¿Y qué tiene que ver todo esto con la estabilidad de nuestro servicio?

Bueno, pues ocurre que en aquellos casos en que el fenómeno que estamos analizando se ajusta a una distribución normal, veremos que la gran mayoría de casos se agrupan en las zonas próximas a la media y, cuanto menor sea la dispersion de los datos analizados (osea, cuanto menor sea la desviación estándard) veremos que los valores de la frecuencia son cada vez mayores en las zonas próximas a la media. Supongo que si lo vemos en una gráfica todo será más claro.

En la primera gráfica, la que en nuestro ejemplo se corresponde con las muestras que nos dan una desviación estándard de 1,22 vemos que la curva normal es más puntiaguda, y la diferencia que hay entre el histograma y la curva normal es relativamente poca (ya hablaremos de la hipótesis de normalidad... no tengas prisa!) mientras que en la segunda, aquella que tenía como desviación estándard 3,02 la curva es más baja y más ancha.

Así, podemos ver de una forma gráfica que cuanto menor sea la desviación estándard, más se agrupan los valores en torno a la media y, por lo tanto, las frecuencias son mayores en el histograma para esos valores.

Puede ser que nuestra distribución de tiempos de respuesta no se acabe de ajustar claramente a una curva de distribución normal, pero la Naturaleza es muy sabia y sucede una de esas cosas casi mágicas: el Teorema Central del Límite. Sea como sea nuestra distribución, si tomamos un número suficientemente grande de muestras comprobaríamos que la media de estas muestras tiende a ser la media de la distribución y que la desviación estándard de estas muestras tiende a ser y que los valores observados se ajustan a una distribución normal de características .

Basándonos en esto, le pedimos al SPSS las estadísticas descriptivas de nuestras muestras y vemos que en el primer caso, el valor de  es  0,072 y en el segundo caso es de 0,18.

 

Así, en el primer caso podemos afirmar que con un 95% de probabilidad, la media del tiempo de logon de la aplicación va a estar situada entre 4,1 y 4,4 segundos, mientras que en el segundo caso la media estará situada entre 3,9 y 4,6 segundos (mucho más acotado en el primer ejemplo) y por lo tanto el proveedor ya puede empezar a fiarse de sus afirmaciones de una forma más científica que hasta ahora.

Si lo representamos gráficamente, se puede observar claramente cómo en el primer caso el intervalo de confianza está mucho más acotado que en el segundo, precisamente debido a la menor variabilidad del servicio (mostrada por el menor valor de su desviación estándard).

De la misma forma que hemos podido establecer un intervalo de confianza para la media, podremos establecer un intervalo de confianza para el valor del tiempo de logon de nuestra aplicación siempre y cuando podamos concluir que este valor se ajusta a una Normal, pero eso será tema de investigación para el próximo artículo.

PS:: Para corregir y mejorar esta serie de artículos he contado con la inestimable ayuda de Carme Duque, estadística  de estudios, informática de profesión y persona de gran valor que nos dará alguna que otra sorpresa en el futuro. Desde aquí, ¡Gracias!

 

 

1 comentario:

Conejin dijo...

De acuerdo con todo lo dicho, pero la Campana de Gauss solo nos indica donde "Así, podemos ver de una forma gráfica que cuanto menor sea la desviación estándard, más se agrupan los valores en torno a la media y, por lo tanto, las frecuencias son mayores en el histograma para esos valores" (como tu bien dices).
el Cliente quiere seguridad y tu hablas de probabilidad. Aunque yo haria lo mismo que tu claro.
Petons