INTRODUCCION
En este trabajo hablaremos de de la dedicación al control de calidad por algunos artículos. En respuesta a dicho estimulo se han difundido ampliamente la filosofía y las técnicas del control y la administración de la calidad en todos los procesos de producción.
Además, el rápidamente creciente circulo de aplicaciones de la “administración de la calidad total” (TQM: Total Quality Management) ha abarcado mas allá del sector productivo y a llegado al sector de prestaciones de servicios, como los de salud y de asesoría legal.
Vera como las aplicaciones sencillas de algunas ideas que hemos analizado sobre estimación y sobre la prueba de hipótesis se pueden utilizar para el control y el mejoramiento de la calidad. Veremos los diagramas de control y el muestreo de aceptación, dos técnicas de control de calidad de uso común.
¿QUÉ ES
Las cosas que tienen una buena calidad son aquellas que funcionan de la manera en que esperamos que lo hagan. Como lo expreso el experto en calidad Joseph M. Juran, calidad implica estar apto para usarse.
Las definiciones operativas de calidad varían de un contexto a otro, en especial cuando contrastamos bienes y servicios. Pero, en consonancia con nuestra noción de conformidad con los requisitos, la mayoría de las definiciones operativas de la calidad incluirán los conceptos de inconsistencia, confiabilidad y carencia de errores y defectos.
De hecho, el control de calidad no es requisito cuando uno está produciendo bienes y servicio cuando son esencialmente únicos. Sin embargo, cuando la producción es masiva se hizo una práctica común durante el siglo XIX, pronto se dieron cuenta de que las piezas individuales no podían ser idénticas, es inevitable que exista una cierta variación. Y esto conduce a un problema con una variación excesiva, las partes individuales que deberían adaptarse entre si no coinciden. Así pues, uno puede ver por qué la variabilidad es enemiga de la calidad.
CONTROL ESTADISTICO DE PROCESOS
Una variabilidad excesiva no es inevitable. Cuando se encuentra que el resultado de un proceso no es confiable, no siempre de acuerdo con los requisitos, debemos examinar cuidadosamente el proceso y ver cómo se le puede controlar. El sistema de Shewhart control estadístico de procesos fue desarrollado con más detalle y apoyado por su colega de aquel tiempo, W. Edwars Deming. Durante muchos años, Deming fue un profeta sin honores en EEUU; pero cuando Japón estaba en proceso de reconstrucción de su economía adopto las ideas de Deming y las incorporo en su filosofía administrativa.
Tomando una línea de producción que manufactura ejes de transmisión para motores. Se han establecido requisitos para un buen funcionamiento de los ejes. Nos gustaría verificar y mejorar la calidad de los ejes que producimos. Éstos se fabrican en grandes cantidades en un torno automático. Si midiéramos el diámetro de de cada eje después de terminado esperaríamos ver algo de variabilidad en las mediciones alrededor del valor medio. Estas variaciones aleatorias observadas en las mediciones podrían ser el resultado de las variaciones en la dureza del acero utilizado para fabricar los ejes, de fluctuaciones de la corriente eléctrica que afectan el funcionamiento del torno o, incluso de errores al tomar mediciones sobre las piezas acabadas. De este análisis, podemos ver que existen dos tipos de variación observados en el resultado de la mayoría de los procesos, en general, y en la producción de nuestro torno en particular:
• variación aleatoria (en ocasiones conocida como variación común o inherente)
• variación sistemática (conocida como variación asignable o de causa especial)
“La variación es enemiga de la calidad”, es un aforismo que utilizan muchos programas de administración de calidad. De modo que parece ser una paradoja que el control estadístico de procesos implique el estudio de la variación. La clave está en poner énfasis en el control ya que se ha medido un proceso, podemos eliminar o controlar las fuentes no aleatorias de variación y mejorar el proceso para reducir la variación aleatoria.
DIAGRAMAS : DIAGRAMAS DE CONTROL PARA MEDIAS DE PROCESOS
La esencia de del control estadístico de procesos consiste en identificar un parámetro que sea fácil de medir y cuyo valor es importante para la calidad del resultado del proceso, representarlo gráficamente de tal manera que podamos reconocer las variaciones no aleatorias y decidir cuando hacer ajustes a un proceso.
Estas graficas se conocen genéricamente como diagramas de control. Suponga, por el momento, que deseamos producir ejes de transmisión cuyo diámetro esta distribuido normalmente con µ=
.
En cada uno de estos diagramas hemos incluido, también,
• Una línea central (LC), con valor µ = 60
• Una línea límite de control superior (LCS), con valor µ + 3σ = 60 + 3 (0.25)= 60.75
• Una línea límite inferior (LCI), con valor µ - 3σ =60 – 3 (0.25) = 59.25
INTERPRETACION BASICA DE LOS DIAGRAMAS DE CONTROL
En la figura a), todas las observaciones caen dentro de los límites de control, de manera que el proceso esta controlado. En la figura b), la segunda y octava observaciones son externas, están fuera de los límites de control. En la figura c), a pesar de que las diez observaciones caen dentro de los límites de control, éstas no muestran una variación aleatoria. Muestra un marcado patrón de aumento con respecto al tiempo.
DIAGRAMAS EQUIS BARRA CUANDO NO SE CONOCEN µ NI σ.
La gerente de la sucursal del banco en Durhan, desea que las operaciones hechas en la ventanilla rápida se efectúen con un promedio menor de los 60 segundos. Debido a que Lisa no conoce la verdadera media del proceso, µ, utilizará, en su lugar la media de la muestra x. Cada media contiene información proveniente solamente de 6 observaciones, pero cuenta con un total de 120 observaciones disponibles (seis observaciones para cada uno de los 20 días).
ESTIMACION POR INTERVALOS
ESTIMACION POR INTEVALOS DE
La especificación de un rango probable del parámetro, en el que se indica el margen de error con un doble signo más-menos, es crucial para indicar cuan confiable es una estimación.
En esta sección utilizamos la idea de una distribución muestral para constituir una estimación por intervalos de una media poblacional.
Ejemplo:
Suponga que se toma una muestra aleatoria de tamaño 36, y que la distribución muestral de y es normal. * (si se puede asumir que la población es simétrica, se debe utilizar el teorema central del limite.) Suponemos que la desviación estándar poblacional es 18. El valor esperado de y es la media de la población u, el parámetro que queremos estimar, y el error estándar de:
σy= σ / √n = 18 / √36 =3
Con base a la distribución normal, hay un 95% de posibilidades de que y se encuentre a menos de 1.96 errores de u.
P[ u-1.96(3) <>
Dicho de otra manera cada vez que la media muestral observada y se encuentra en el intervalo u= 1.96(3), el intervalo y= 1.96(3) contiene a u..
Como la posibilidad de que y se encuentre en el intervalo u= 1.96(3) es de un 95%, la posibilidad de que el intervalo y= 1.96(3) contenga a u es de un 95%. En la practica por lo general, solo tomamos una muestra de la población de interés. El intervalo y= 1.93(3) que construimos utilizando la media muestral observada se llama intervalo de confianza al 95% para u.
La formula general para el intervalo de confianza de una media poblacional se deriva de la misma manera. Dicha formula es exacta solo cuando la distribución de la población es normal y se conoce la desviación estándar de la población. No obstante, cuando la distribución de la población es simétrica o ligeramente asimétrica, la aproximación que nos proporciona es excelente para tamaños muestrales iguales o mayores a 30.
Intervalo de confianza al 100 (1- a) % para u, con σ conocida
y-za/2 σy <>
Donde σy= σ / √n y za/2 es el valor tabulado que tiene una área igual a a/2 en la cola derecha de la distribución normal estándar o tipificada.
INTERVALOS DE CONFIANZA PARA UNA PROPORCION
El método de los intervalos de confianza de la sección pasada se puede adaptar íntegramente para encontrar un intervalo de confianza para una proporción poblacional. Este método se basa en una aproximación normal a la distribución muestral de una proporción muestral. Como tal es también una aproximación, por lo que requiere de algunas reglas para su uso.
La proporción de éxitos de la muestra, denotada con π, es precisamente el numero Y de éxitos dividido entre el tamaño de la muestra. Como la media y la desviación estándar de la variable aleatoria binomial Y son, respectivamente, nπ y √nπ (1-π), se sigue que con las propiedades desarrolladas el valor esperado y el error estándar de π son, respectivamente,
E(π)= π y σπ= √ π(1- π)/n
Cuando n es suficientemente grande, π tiene una distribución aproximadamente normal; así, por ejemplo:
P (-1.96 < π- π/ σπ <1.96σπ) =.95
Esta expresión tiene aspecto de una formula para el intervalo de confianza, pero tiene el problema de que el error estándar σπ= √ π(1- π)/n, comprende al parámetro poblacional π que se desconoce. Así como podemos reemplazar π(1- π) con π(1- π) en σπ. Esto nos proporciona una formula muy practica para el intervalo de confianza de la proporción poblacional:
Intervalo de confianza al 100(1-a)% para una proporción
π -za/2 √ π(1- π)/n < π < π + za/2 √ π(1- π)/n
Esta formula es la misma que figura en el intervalo de confianza para la media: “estadístico muestral = valor en la tabla multiplicado por el error estándar”. La media muestral y se reemplaza con la proporción muestral π. Análogamente, σy se reemplaza con σπ..
El método del intervalo de confianza tiene como base una aproximación normal a la distribución binomial que es adecuada para n suficientemente grande. La regla es que tanto nπ como n (1- π) deberían ser al menos 5, pero, como π es la proporción de la población que desconocemos, la regla se tiene que basar en nπ y n (1- π). Por lo general, si el tamaño muestral infringe esta regla (o si solo se aproxima a ella), el intervalo de confianza que se obtiene es demasiado amplio como para ser informativo. La regla juzga tan solo la idoneidad del tamaño de la muestra y la precisión del intervalo de confianza basándose en la aproximación normal. Es posible utilizar probabilidades binomiales para encontrar intervalos de confianza exactos, aunque muy amplios, al 90% o 95%.
Tamaño muestral requerido para un intervalo de confianza al 100(1-a)% de amplitud dada para la media poblacional u.
El tamaño muestral requerido para un intervalo de confianza al 100(1-a)% para una media poblacional u de la forma y = E, donde E= za/2 σ/ √n, es:
n= z2a/2σ2
E2
La amplitud del intervalo de confianza es 2E.
Tamaño muestral requerido para un intervalo de confianza al 100(1-a)% de amplitud dada π
El tamaño muestral requerido para obtener un intervalo de confianza
al 100 (1-a)% para π de la forma π = E, donde:
E= za/2√π(1- π)
n
es:
n= z2 a/2 π (1- π)
E
GRAFICAS DE CONTROL
Permiten monitorear la variación en una característica del producto o servicio a lo largo del tiempo. Las graficas de control se utilizan para estudiar el desempeño pasado, para evaluar las condiciones presentes, o para predecir los resultados futuros. La información obtenida al analizar una grafica de control constituye la base para el proceso de mejoramiento. Los diferentes tipos de graficas de control nos permiten analizar diferentes tipos de variables críticas para la calidad (CPC).
Las graficas de control nos ayudan a prevenir dos tipos de errores. El primer tipo de error implica al creencia de que un valor observado representa una causa especial de variación cuando en realidad se debe a una causa común de variación del sistema, a menudo tiene como consecuencia el sobre ajuste de un proceso, conocido también como manipulación, que incrementa la variación del proceso y el segundo tipo de error implica tratar una causa especial de variación como si fuera una causa de variación, este es el resultado de no tomar una acción correctiva inmediata cuando es necesario.
Para construir una grafica de control, se recolectan muestras de las salidas de un proceso a lo largo del tiempo. Las muestras utilizadas para construir graficas de control se conocen como subgrupos, para cada subgrupo se calcula el valor de un estadístico asociado con una variable CPC, estos, comúnmente incluyen la fracción disconforme ya la media y el rango de una variable numérica. Entonces se grafican los valores contra el tiempo y se agregan los limites de control a la grafica. La forma más común de grafica de control establece límites de control que están dentro de + 3 desviación estándar de la media estadística de interés.
GRAFICAS R: GRAFICAS DE CONTROL PARA VARIABILIDAD DE PROCESOS
CONTROL DE
El análisis de la calidad de las primeras dos secciones de este capitulo. Debido a que la calidad implica consistencia, confiabilidad y cumplimiento de los requerimientos, la variabilidad es su enemiga. Dicho de otra manera, la forma de mejorar la calidad es reducir la variabilidad. Pero antes de decidir si la variabilidad es un problema en cualquier caso, debe poder supervisarla.
Los limites de control de las graficas equis barra ponen cuotas a la cantidad de variabilidad que estamos dispuestos a tolerar en las medidas muestrales. Sin embargo, las preocupaciones de calidad están dirigidas a observaciones individuales (diámetros de ejes de transmisión, tiempos de operación de una caja rápida, etc.)
LINEA CENTRAL DE LAS GRAFICAS R
Para controlar la variabilidad de las observaciones individuales, las graficas de control R; en ellas, se grafican los valores de los rangos de cada una de las muestras. La línea central de las graficas R esta situada en . Para obtener los límites de control, necesitamos saber algo acerca de la distribución muestral de R.
La desviación estándar de la distribución muestral de R es:
σR = d3 σ
donde:
• σ = desviación estándar de la población
• d3 = otro factor que depende de n
Se pueden utilizar diferentes tipos de control para monitorear la disposición (es decir, la variabilidad) de una característica de interés medida numéricamente. La más simple y común es la gráfica de control de rango, la gráfica R. se utiliza la gráfica de rango únicamente cuando el tamaño de la muestra sea de 10 o menos. Si el tamaño de la muestra es mayor a 10 es preferible utilizar una gráfica de desviación estándar. Como se utilizan tamaños de muestra de
La grafica R nos permite determinar si la variabilidad en un proceso está bajo control, o si los cambios en la calidad de variabilidad se está dando a lo largo del tiempo. Si el rango del proceso está bajo control entonces la cantidad de variación en el proceso es consistente a lo largo del tiempo, y los resultados de la gráfica R serán útiles para desarrollar los límites del control del promedio.
Para desarrollar los límites de control para el rango, se requiere una estimación del rango promedio de la desviación estándar del rango, como muestra la ecuación 14.3 estos límites de control dependen de dos constantes, el factor 4 q representa la relación entre la desviación estándar y el rango para tamaños de muestra q varían.
SOFTWARE ESTADÍSTICO
• BMDP es uno de los paquetes de software estadísticos más antiguos. El primer manual para BMDP Biomedical Computers Programs se publicó en 1961.
En 1975 pasó a denominarse BMDP. Cubre un amplio abanico de métodos estadísticos pero su capacidad para manejar datos es limitada.
Desventajas. Sus programas se ejecutan por separado: solo puede accederse a uno de ellos en cada ejecución.
Los resultados de cada programa se pueden guardar en un archivo de BMDP y utilizarse como entrada en otros programas.
• CalEst es un paquete de Estadística y Probabilidad, es tanto didáctico como operativo.
CalEst cuenta con una interface amigable que le permitirá obtener cálculos y gráficas rápidamente, fáciles de interpretar. Además, le permite interactuar con diversas distribuciones de probabilidad (densidad y acumulada). Asimismo, incluye diversos tutoriales que permiten experimentar diversos aspectos de estadística y probabilidad.
CalEst fue desarrollado en CONTECK por los científicos Jorge Domínguez y Axel Domínguez.
• EViews es un paquete estadístico para Windows, usado principalmente para análisis econométrico. Ha sido desarrollado por Quantitative Micro Software (QMS). La versión 1.0 salió al mercado en marzo de 1994, reemplazando al MicroTSP. La versión más actualizada del EViews es la 7.0.
El EViews combina la tecnología de hoja de cálculo con tareas tradicionales encontradas en software estadístico tradicional, empleando una interfaz de usuario gráfica. Estas características se combinan con un poderoso lenguaje de programación.
El EViews puede ser empleado para análisis estadístico general, pero es especialmente útil para realizar análisis econométrico, como modelos de corte transversal, datos en panel y estimación y predicción con modelos de series de tiempo. Entre los tipos de archivo con los que es compatible destacan el Excel, SPSS, SAS, Stata, RATS, y TSP.
• Octave o GNU Octave es un programa libre para realizar cálculos numéricos. Como indica su nombre es parte de proyecto GNU. MATLAB es considerado su equivalente comercial. Entre varias características que comparten se puede destacar que ambos ofrecen un intérprete permitiendo ejecutar órdenes en modo interactivo. Nótese que Octava no es un sistema de álgebra computacional como podría ser Máxima, sino que usa un lenguaje que está orientado al análisis numérico.
El proyecto fue creado alrededor del año 1988 pero con una finalidad diferente: ser utilizado en un curso de diseño de reactores químicos. Posteriormente en el año 1992, se decide extenderlo y comienza su desarrollo a cargo de John W. Eaton.1 La primera versión alpha fue lanzada el 4 de enero de 1993. Un año más tarde, el 17 de febrero de 1994 aparece la versión 1.0.
El nombre surge del nombre de un profesor de unos de los autores conocido por sus buenas aproximaciones por medio de cálculos mentales a problemas numéricos.
• KNIME (o Konstanz Information Miner) es una plataforma de minería de datos que permite el desarrollo de modelos en un entorno visual. Está construido bajo la plataforma Eclipse.
KNIME está desarrollado sobre la plataforma Eclipse y programado, esencialmente, en java. Está concebido como una herramienta gráfica y dispone de una serie de nodos (que encapsulan distintos tipos de algoritmos) y flechas (que representan flujos de datos) que se despliegan y combinan de manera gráfica e interactiva.
• LISREL (acrónimo de linear structural relations), es un programa usado en análisis de ecuaciones estructurales. Fue desarrollado en los años setenta por Karl Jöreskog y Dag Sörbom, profesores ambos de
LISREL está principalmente basado en comandos, aunque las versiones más recientes han incorporado una interfaz gráfica. Lo distribuye la empresa SSI (Scientific Software International).
• Minitab es un programa de computadora diseñado para ejecutar funciones estadísticas básicas y avanzadas. Combina lo amigable del uso de Microsoft Excel con la capacidad de ejecución de análisis estadísticos. En 1972, instructores del programa de análisis estadísticos de
• Orange es un programa informático para realizar minería de datos y análisis predictivo desarrollado en la facultad de informática de
• Lenguaje de programación R es un lenguaje y entorno de programación para análisis estadístico y gráfico.
Se trata de un proyecto de software libre, resultado de la implementación GNU del premiado lenguaje S. R y S-Plus -versión comercial de S- son, probablemente, los dos lenguajes más utilizados en investigación por la comunidad estadística, siendo además muy populares en el campo de la investigación biomédica, la bioinformática y las matemáticas financieras. A esto contribuye la posibilidad de cargar diferentes librerías o paquetes con finalidades específicas de cálculo o gráfico.
R se distribuye bajo la licencia GNU GPL y está disponible para los sistemas operativos Windows, Macintosh, Unix y GNU/Linux.
• SAS es un lenguaje de programación desarrollado por SAS Institute a finales de los años sesenta. Existen dos intérpretes de dicho lenguaje: uno desarrollado por SAS Institute y otro por la empresa World Programming.
Posee una sintaxis inspirada en la de PL/I, lenguaje en el que se implementó el primer intérprete.
El lenguaje SAS opera principalmente sobre tablas de datos: puede leerlas, transformarlas, combinarlas, resumirlas, crear informes a partir de ellas, etc. El núcleo del lenguaje (conocido habitualmente como SAS Base) incluye:
• Pasos data que permiten realizar operaciones sobre las filas de un conjunto de datos.
• Procedimientos de manipulación de datos que permiten ordenar tablas, enlazarlas, etc.
• Un intérprete de SQL.
• Un superlenguaje de macros
EJERCICIOS "t" DE STUDENT Y CONTROL ESTADÍSTICO DE PROCESOS DE DE PR DE PROCESOS
graficas
No hay comentarios:
Publicar un comentario