ISO 9000 y toma de decisiones basada en datos

El título del principio No 7 de la versión del 2000 de ISO 9000, suena bastante sugestivo, aunque nosotros preferimos su enunciado que dice “Toma de decisiones basadas en al análisis de datos” y ¿esto porqué?.

Nuestra experiencia nos ha ratificado permanentemente que la mayoría de las decisiones se toman basados en datos que no son correctamente analizados, lo que fácilmente puede comprobar al revisar los indicadores con que cuenta su empresa:

  • Promedio de ventas mensual
  • Salario promedio
  • Promedio de ventas por empleados

Un ejemplo de no entender el promedio es el llamar la atención a un agente de ventas por estar bajo el promedio, en todo grupo de datos es normal una cierta de cantidad de ellos arriba del promedio y otros debajo de éste. Otro ejemplo escuchado, “no estamos tan mal por lo menos el 50% están sobre el promedio”.

Esto nos recuerda la historia aquella del hombre que ahogó en un río con una profundidad promedio de un metro.

Que otros datos hay además de un promedio: hay un rango, una variación, una moda, una mediana, una varianza etc, valores que en muchos casos son más significativos que el promedio.

Al realizar una encuesta sobre el nivel de satisfacción de empleados: de muy insatisfecho (1) a muy satisfecho (5), se calculó el promedio y se consideró un nivel de satisfacción para x pregunta de 2. Con esos mismos datos se determinó un índice de satisfacción del 22% al tomar la cantidad de respuestas de los valores superiores (de 4 y 5) y dividir por el total de respuestas. Esto permitió contar con un mejor indicador, comparable a otras variables. Al calcular la desviación estándar se encontró que era de 1,17 con un Coeficiente de Variación del 50% (DS/Promedio), lo cual indicaba poca uniformidad en las respuestas. Se cambió radicalmente la percepción de cuando se midió el “nivel de satisfacción” a cuando se estableció un “índice de satisfacción”. (El primero mide que tan satisfechos están los clientes y el segundo cuántos clientes están satisfechos).

Cuando tan solo se utiliza el promedio, se podría caer en el error de decir que la respuesta a dos preguntas es similar por tener un mismo promedio, lo cual no siempre es cierto. Es igual cuando calculamos el peso promedio, la altura promedio, la temperatura promedio, el salario promedio, la producción promedio, el promedio de rechazo.

Aceptación de los datos:

Al hacer análisis más rigurosos de los datos, como por ejemplo una correlación entre las diferentes preguntas o variables bajo estudio, se aceptan solo aquellos resultados que coinciden con el paradigma o con lo obvio. (Nivel de satisfacción del empleado versus su nivel de salario), pero cuando el índice de correlación no coincide con sus paradigmas, se rechaza por inválido, sin mayor análisis de porqué tal valor.

Si bien es cierto un índice de correlación dice que existe una relación entre dos variables o preguntas, no necesariamente una es causa de la otra como se podría mal interpretar, pero si es conveniente analizar el porqué de tal relación. Cuando se eleva el índice de correlación al cuadrado, se puede obtener el coeficiente de determinación el cual indica la probabilidad de que a una determinada respuesta en una pregunta, pueda darse una respuesta similar o inversa en otra pregunta.

Ejemplo para la pregunta 1, de una encuesta se tuvieron las siguientes relaciones:

Pregunta

Correlación

Coef. Determ.

4

.78

61%

6

.22

4%

14

-.84

70%

La pregunta 4 tiene una relación directa con la pregunta 1, la probabilidad de que cuando respondan con un valor alto (por ejemplo 5) en la pregunta 1, se responda con un valor alto en la pregunta 4, es del 61%. La pregunta 6 no tiene relación con la pregunta 1. La pregunta 14 tiene una alta relación pero en sentido inverso con la pregunta 1. La probabilidad de que cuando respondan alto (5) en la pregunta 1, respondan con un valor bajo (por ejemplo 1) en la pregunta 14 es del 70%.

Este tipo de análisis se puede hacer agregando en la encuesta a clientes una pregunta control por ejemplo: “¿En términos generales cuál es el nivel de satisfacción?”, la correlación le permite diferenciar cuáles son aquellas variables que tienen mayor impacto sobre la satisfacción y cuáles son indiferentes.

Los estudios de correlación son muy importantes a la hora de establecer relaciones causa efecto en los indicadores del Balanced Score Card, permitiendo con ello definir su peso con respecto al indicador superior. Adicionalmente permite diferenciar lo que son indicadores (de resultados) de lo que son los inductores (de procesos).

Uso de gráficas:

Las gráficas que se utilizan en las empresas muchas veces tan solo muestran los valores, sin que se indique su tendencia, que en algunos casos es mucho más importante y cuando se utiliza la tendencia tan solo se hace mediante la ecuación de la línea recta o tendencia lineal. Una curva de gran importancia puede ser la curva logarítmica. Si se tiene un gráfico en “excell”, con tan solo posicionarse en cualquiera de los puntos del gráfico, se presiona el botón derecho del “mouse” y aparece en el menú “agregar línea de tendencia”, con las curvas mencionadas y muchas más.

¿Porqué es importante este tipo de análisis?: en una empresa cliente estábamos analizando las ventas mensuales de un producto comparando dos años distintos.

La gráfica de los dos años mostraba un aumento sostenido en las ventas. Al sobreponer las ventas del año 1 con el año 2, mostraba el último año que las ventas eran superiores. Al calcular la curva de tendencia para cada año, se muestra una tendencia positiva para ambos períodos, cuando se cambió la curva de tendencia a una curva logarítmica, se pudo observar que el año anterior, la tendencia aumentaba verticalmente, por el contrario este nuevo año la tendencia se mantenía horizontal y más bien decreciendo. Lo anterior vino a indicar que si bien las ventas estaban aumentando cada año la tasa de aumento iba en disminución. Esto equivale a hacer una gráfica del porcentaje de aumento de las ventas de un mes con respecto al anterior. De estar contentos por el aumento de ventas año con año, hubo preocupación porque la tasa de aumento iba disminuyendo significativamente.

Si la curva logarítmica es hacia arriba (tendencia casi vertical), podría indicar un crecimiento real. Una tendencia horizontal puede indicar decrecimiento, a pesar de que las ventas estén aumentando año con año. Algo similar a lo que se llama rendimientos decrecientes.

Adicionalmente con respecto a las gráficas observamos muchas de ellas en donde tan solo se grafica un determinado valor ya sea individual o promedio, y no se indica el rango, sea éste de los datos con que se calcula el promedio o bien un rango móvil para valores individuales. Se utilizan gráficas sobre porcentajes (P), pero no se utilizan gráficas, de unidades defectuosas (NP), ni de defectos (C), ni mucho menos defectos por unidad (U), pero esto es tema que ampliaremos en “Control Estadístico de Procesos y la Mejora de la Calidad”.

El enemigo de la Calidad:

Cuando se desarrolla un SGC (Sistema de Gestión de la Calidad), se establece con el propósito de contar con productos “estándar”, lograr repetitibilidad, y reproducibilidad, lo cual no siempre se logra escribiendo procedimientos.

Porque?, porque no siempre se establece la forma de controlar el enemigo de todo proceso y por consiguiente de la calidad, que es su variación. La variabilidad de todo proceso puede y debe ser medida, lo cual se logra mediante la utilización de la desviación estándar, esto también podría verse por medio del rango cuando se utiliza una gráfica de valores, otra forma de verificar y medir la variabilidad.

A través de lo hasta aquí planteado, podría suponerse una fuerte formación estadística del autor, lo cual no es así, por lo tanto expertos en la materia podrían profundizar los conceptos aquí expresados.

Aclarado lo anterior, regresamos a la desviación estándar uno de los mejores indicadores, así como de sus múltiples usos. La DS nos permite conocer la variabilidad del proceso (Mas menos 3 DS), calcular la capacidad de ese proceso de cumplir con las especificaciones establecidas (Cpk) o con los requerimientos del cliente (Capacidad para entregar antes de 8 días un pedido), la probabilidad de lograr una meta de ventas(P(z)). Igualmente permite comparar dos procesos o áreas totalmente distintas como las ventas y los tiempos de entrega utilizando el coeficiente de variación, o el coeficiente de determinación. Es factible poder fijar límites que permitan diferenciar cuando los procesos son afectados por causas normales de variación y poder separar las causas especiales. También la DS ayuda en análisis más interesantes como el de asimetría, kurtosis o el análisis de varianza.

Por medio de la DS, se pueden establecer los límites normales de variación a presupuestos, diferenciar vendedores realmente sobresalientes así como estimar la necesidad de tener que revisar todo un lote de productos a partir de una muestra. Motorola nos ha legado el concepto de 6 sigma (6 DS) y su aplicación a procesos tanto de producción como administrativos, así como la importancia de buscar retos cada vez mayores, saliendo del tradicional porcentaje de defectos o errores por una meta más ambiciosa de PPM (Partes por Millón, un 1,5% equivale a 15000 partes por millón).

Un último consejo:

No se crea que de todo lo que hemos hablado requiere de sofisticados programas informáticos, es tan sencillo como contar con “excell”. Es probable que el “excell” de su computadora no tenga activado el análisis de datos y ¿cómo se activa?, sencillo, vaya a “herramientas” (tools), seleccione del menú “complementos” (Add-ins), luego marque las dos opciones “Herramientas para el análisis de datos VBA” y presione aceptar. Cuando regrese de nuevo a “herramientas”, podrá observar en el menú la opción “análisis de datos” (data análisis), con una gran cantidad de opciones estadísticas, más allá de las que es capaz de utilizar.

Conclusión:

El sano principio de “tomar decisiones basada en datos”, viene de las recomendaciones que el Dr. W. E. Deming dio a los japoneses cuando les dijo “En Dios confío, el resto debe de presentar datos”, y aún más debe desconfiarse de la fuente de esos datos, porque decisiones tomadas en datos erróneos o en análisis equivocados nos pueden llevar a decisiones fatales.

Existen cantidad de herramientas estadísticas para el análisis e interpretación de los datos que salen de los procesos, de forma tal que permite a la toma de decisiones tener un componente científico, más allá del simple “feelling”, que aunque siempre será importante, no debe ser el único. Adicionalmente debemos concluir que los datos no son la realidad pero que si la representan de una forma que vale la pena estudiar. Recordamos las clases de investigación en maestría, la sentencia del profesor era muy cierta: “primero está el problema ha ser investigado y luego están los datos”, por lo que es conveniente no andar tomando datos por todo lado sin saber realmente cuál es el problema que queremos investigar.

________________________

Por: Gilberto Quesada para el Grupo Kaizen .S.A.

Hazle saber al autor que aprecias su trabajo

Tu opinión vale, comenta aquíOculta los comentarios

Comentarios

comentarios

Compártelo con tu mundo

Escrito por:

Cita esta página
Quesada Madriz Gilberto. (2005, septiembre 25). ISO 9000 y toma de decisiones basada en datos. Recuperado de https://www.gestiopolis.com/iso-9000-y-toma-de-decisiones-basada-en-datos/
Quesada Madriz, Gilberto. "ISO 9000 y toma de decisiones basada en datos". GestioPolis. 25 septiembre 2005. Web. <https://www.gestiopolis.com/iso-9000-y-toma-de-decisiones-basada-en-datos/>.
Quesada Madriz, Gilberto. "ISO 9000 y toma de decisiones basada en datos". GestioPolis. septiembre 25, 2005. Consultado el 18 de Octubre de 2018. https://www.gestiopolis.com/iso-9000-y-toma-de-decisiones-basada-en-datos/.
Quesada Madriz, Gilberto. ISO 9000 y toma de decisiones basada en datos [en línea]. <https://www.gestiopolis.com/iso-9000-y-toma-de-decisiones-basada-en-datos/> [Citado el 18 de Octubre de 2018].
Copiar
Imagen del encabezado cortesía de alpha_auer en Flickr
DACJ