Control estadístico de calidad en analizadores de hematología El control estadístico de calidad realizado en analizadores de hematología tiene muchas diferencias importantes con las técnicas correspondientes en los analizadores de química clínica. Estas diferencias se deben a razones como la alta estabilidad de la tecnología de citometría, la pequeña variación biológica de algunos parámetros hematológicos, los grandes frascos de reactivos y el pequeño tiempo de duración de los controles hematológicos. Debido a las razones anteriores, las cartas de Levey-Jennings en los analizadores de hematología son diferentes de las cartas correspondientes en química clínica. Por ejemplo, las listas de hematología de Levey-Jennings tienen sólo tres líneas (límites superior e inferior y línea central). La razón es que estas cartas de Levey-Jennings no se crean estadísticamente a partir de una distribución normal de datos de control de calidad anteriores, lo que no es posible debido a la muy pequeña variación de los valores de control de calidad de hematología. En los analizadores de hematología los límites de control superior e inferior actúan como los límites de especificaciones en el control de calidad de la industria. La pequeña variación biológica de muchos parámetros de hematología hizo que muchos investigadores establecieran métodos de control de calidad basados únicamente en los resultados de los pacientes. Tales parámetros adecuados son los índices de eritrocitos (MCV, MCHC, MCV) con la menor variación biológica (debido no sólo a la biología, sino principalmente a la tecnología de los analizadores de hematología). Estos atributos inspiraron a Brian Bull (un hematólogo estadounidense) a establecer un nuevo método de control de calidad ampliamente conocido como algoritmo Bulls. El algoritmo Bulls (también conocido como método) detecta errores sistemáticos en MCV, MCHC y MCV y consecuentemente en HgB, Hct y RBC. Su método es una especie de media móvil. Su idea principal es estimar el valor medio de los últimos veinte pacientes, incluyendo en ellos el valor medio del lote de los veinte valores anteriores. El algoritmo en sí es una ecuación bastante complicada que elimina los valores atípicos y estima el promedio móvil de los últimos veinte valores. El algoritmo Bulls ha demostrado ser bastante efectivo para detectar pequeños errores sistemáticos (casi 1) no sólo en los índices de eritrocitos, sino también en casi todos los parámetros hematológicos. Utiliza todos los datos de los pacientes sin excepción. El último hecho hizo Bulls algoritmo el método de control de calidad más barato en medicina de laboratorio. Las muestras de control de calidad de la hematología duran sólo 20 30 días y son muy caras, cuando, por otro lado, las muestras de sangre completa son estables en el refrigerador durante 24 horas. Estos hechos llevaron a algunos investigadores a encontrar métodos que se basan en el análisis repetitivo de muestras de pacientes. Estos métodos se conocen como muestras de pacientes retenidas. En 1988, Cembrowski (químico clínico canadiense) estableció el método de muestras de pacientes retenidos más efectivo. Se basó en el análisis repetitivo de las mismas muestras de pacientes entre dos días sucesivos. Su método se conoce como m / n lim. - Lim significa el límite de control de calidad. Es igual al doble de la desviación estándar del análisis repetitivo (2 x SD). - n representa el número de muestras de pacientes que se analizarán dos veces. - m representa la parte de n número de muestras que se permite estar fuera de los límites (lim). Las simulaciones estadísticas creadas por Cembrowski demostraron la eficacia de su método. Según él la mejor combinación de m, n y lim es 2, 3, 2 o 2/3 2s. Concluyendo, tres métodos diferentes están en la disposición del laboratorio para detectar los errores analíticos en el laboratorio de hematología. Levey-Jennings detecta errores sistemáticos y aleatorios. Por el contrario, el algoritmo de Bulls y los especímenes de pacientes retenidos sólo detectan errores sistemáticos, pero tienen la ventaja del bajo costo. Laboratorio puede elegir la mejor combinación de los tres. T 949955949965964945943945 949957951956941961969963951. 922965961953945954942 921945957959965945961943959965 20, 2013articulo arwma - Clinical Chemistry 43: 4 594 601 (1997). El gráfico de control EWMA: propiedades y comparación con otros procedimientos de control de calidad mediante simulación por ordenador Aljoscha Steffen Neubauer En los últimos años, una carta de control de calidad basada en los promedios móviles exponencialmente ponderados (EWMA) se ha convertido en una herramienta popular para controlar la inexactitud en Control de calidad industrial. En este trabajo, explico los principios de esta técnica, presentar algunos ejemplos numéricos, y por simulación por computadora comparar EWMA con otros gráficos de control actualmente utilizados en la química clínica. La tabla EWMA ofrece un instrumento flexible para visualizar la imprecisión y la inexactitud y es una buena alternativa a otros gráficos para detectar la inexactitud, especialmente cuando son de menor interés. Sin embargo, la detección de la imprecisión con los gráficos EWMA requiere modificaciones especiales. TÉRMINOS DE INDEXACIÓN. Estadística bull exponencialmente ponderada media móvil gráfico de Shewhart, algoritmo de Westgard comparado Un gráfico de control basado en el promedio móvil ponderado exponencial (EWMA) fue descrito por primera vez por Roberts en 1959 1. 1 Considerando que el gráfico de Shewhart sólo toma el control inmediato en Para la prueba estadística, la carta EWMA también utiliza los valores anteriores. En resumen, después de la multiplicación por un factor de ponderación w. La medida de corriente se añade a la suma de todas las mediciones anteriores, que se pondera con (1 2 w). Así, en cada tiempo t (t 5 1,2.), Se puede obtener la estadística de ensayo z t 5 w x t 1 (1 2 w) z t 2 1, con w 01. 2 Los valores zt calculados se muestran en una carta de control a lo largo del tiempo. Debido a que la media x macr t 5 x 1 t 1 x 2 t 1. 1 x nt. / N de las n observaciones de control por ejecución, este gráfico de control se denomina gráfico EWMA-x macr. Otra manera de expresar esto es: z t 5 w O i 5 0 t 2 1 1 2 w. I x macr t 2 i 1 1 2 w. T z 0 con el primer valor z 0 en esta suma generalmente fijado a la media de observaciones anteriores. Este proceso de suavizado significa que la contribución de un valor a la estadística de prueba disminuye exponencialmente por el tiempo o por el número de nuevas observaciones, siendo la velocidad de decaimiento ajustable por el factor de ponderación. Los límites de advertencia y acción de la carta EWMA difieren de los de un gráfico de Shewhart y tienen que calcularse por separado, como se muestra más adelante. El diagrama de control de EWMA difiere del gráfico de Cusum similar usando el factor de ponderación adicional, que permite el ajuste de la sensibilidad de cambio. Debido a esta flexibilidad, la carta EWMA ha atraído cada vez más atención en la práctica de control de calidad industrial durante los últimos años, como lo demuestra el número de publicaciones en El Journal of Quality Technology desde 1989. El alisamiento exponencial se propuso por primera vez para su uso en química clínica ya en 1975 2. Cembrowski et al. Esta vista previa tiene secciones borrosas intencionalmente. Regístrese para ver la versión completa. Este es el final de la vista previa. La meta es monitorear el proceso y no los pacientes Resumen Antecedentes: El promedio móvil de pacientes (MA) es una estrategia de control de calidad utilizando el paciente medio Para controlar continuamente el rendimiento del ensayo. El desarrollo de protocolos de MA sensibles que detectan rápidamente errores sistemáticos (SE) es un reto. Se comparan los protocolos de MA establecidos utilizando un informe previamente publicado como guía y se demuestra el uso de un algoritmo de recocido simulado (SA) para optimizar el rendimiento del protocolo MA. Métodos: Usando 400 días de datos de pacientes, desarrollamos protocolos de MA para 23 ensayos. MA protocolos desarrollados utilizando un informe publicado anteriormente y nuestro algoritmo SA se compararon utilizando el número promedio de muestras de pacientes afectados hasta la detección de errores (ANP ed). RESULTADOS: La comparación de las estrategias demostró que los protocolos desarrollados utilizando el algoritmo SA generalmente demostraron ser superiores. Algunos analitos, como la proteína total, mostraron una mejora considerable, con SE positivo igual a 0,8 g / dL detectado con una ANP ed de 135 muestras utilizando el método publicado anteriormente, mientras que el algoritmo SA detectó esta SE con un ANP ed de 18. No todos los analitos demostraron Mejora similar con el algoritmo SA. El fósforo, por ejemplo, demostró sólo mejoras menores, con un SE positivo de 0,9 mg / dL detectado con un ANP ed de 34 utilizando el método publicado anteriormente frente a un ANP ed de 29 utilizando el algoritmo SA. También demostrar un ejemplo de detección SE en un entorno en vivo utilizando el algoritmo SA derivados de los protocolos de MA. CONCLUSIONES: Los algoritmos desarrollados por el SA en protocolos MA están actualmente en uso en nuestro laboratorio y detectan rápidamente SE, reduciendo el número de muestras que requieren corrección y mejorando la seguridad del paciente. Existen numerosas estrategias de QC que se basan en la alteración de la frecuencia del análisis de QC líquido para monitorear los ensayos de química (1. 2). A pesar de la conciencia de estas estrategias, muchos laboratorios de química clínica medir sólo 2 concentraciones de QC una vez por 24 h. Esta frecuencia, aunque suficiente para cumplir con las normas de los organismos reguladores, es insuficiente para detectar rápidamente el error sistemático (SE). Debido a que SE puede desarrollarse en cualquier momento entre los eventos de control de calidad, el SE puede pasar desapercibido durante horas, afectando a cientos de resultados de pacientes. El aumento de la frecuencia de control de calidad mejora la velocidad de detección de SE, pero también aumenta el costo por el consumo de material de QC, reactivos y tiempo técnico requerido para realizar y registrar los resultados de control de calidad. En resumen, aunque el análisis del material QC es valioso, proporciona sólo una instantánea del rendimiento del ensayo. Los materiales QC también pueden carecer de conmutabilidad al suero nativo porque se fabrican mediante la adición de componentes exógenos a una matriz de suero de base. Estos materiales QC pueden diferir sustancialmente del suero nativo y esta falta de conmutabilidad puede enmascarar la degradación en el rendimiento del ensayo (3, 5). Debido a estas deficiencias algunas publicaciones han propuesto supervisar el valor medio del paciente para los analitos de la química como una estrategia complementaria de control de calidad (6, 13]. Los promedios móviles (MA), o alternativamente el promedio de los normales, pueden detectar SE antes del siguiente evento QC, minimizando el número de resultados de pacientes no confiables informados. En 1965 se publicó el primer artículo que proponía MA para analitos químicos, y los artículos posteriores han refinado el concepto variando el número de muestras de pacientes promediado, aplicando límites de truncamiento (TL) para excluir los valores atípicos o utilizando cálculos exponencialmente ponderados MA (EWMA) 13). El establecimiento de protocolos MA requiere la selección de los límites de control (CL), o la magnitud SE tolerable, el número de resultados de los pacientes a la media (N) y las concentraciones en las que TL se colocan para minimizar el efecto de los valores atípicos. De las técnicas previamente publicadas para seleccionar N exploramos la estrategia publicada en 1984 por Cembrowski y colaboradores (7). En esta estrategia N se selecciona calculando la relación de la población de pacientes SD (Sp) con la imprecisión analítica SD del ensayo (Sa). La relación Sp / Sa cuando se aplica con un nomograma en la misma publicación guía la selección de N (7). Desarrollamos protocolos de MA utilizando esta estrategia para varios analitos químicos y además aprovechamos un algoritmo de recocido simulado (SA) para optimizar nuestros protocolos de MA. El rendimiento de los protocolos desarrollados utilizando ambas estrategias se evaluó mediante la simulación de las condiciones SE en los datos históricos del paciente y el cálculo del número medio de muestras de pacientes afectados hasta que se detectó la SE inducida (ANP ed). Materiales y Métodos DATOS Y PRUEBAS DEL PACIENTE EVALUADOS Cuatrocientos días de los resultados de los pacientes recogidos con el programa Data Innovations Middleware versión 8.10 (Data Innovations) fueron almacenados como archivos de valores separados por comas desde febrero de 2012 hasta marzo de 2013 y compilados a través de Matlab versión R2012a (Mathworks) . Se excluyeron las muestras de los pacientes de 18 a 18 años de edad, el servicio de urgencias y la clínica de hematología, debido a que los pacientes pediátricos tienen diferencias relacionadas con la edad en muchos pacientes de hematología clínica que frecuentemente presentan concentraciones séricas de proteínas y / o calcio anormalmente altas o bajas. Los pacientes con ED pueden presentar anomalías en bases ácidas y electrolitos que difieren sustancialmente de pacientes estables en pacientes ambulatorios o en pacientes hospitalizados. Después de la exclusión de la anterior y todos los QC y duplicar los valores de los pacientes, la matriz final contenía 1915999 resultados. Los ensayos que pasaron a través de middleware con volúmenes de prueba diarios de muestras gt100, así como proteína C reactiva de alta sensibilidad (hsCRP), tiroxina libre, hierro y lipasa, que tenían volúmenes semanales promedio de aproximadamente 300, 230, 200 y 150 muestras, Respectivamente, fueron investigados para la adecuación MA (Tabla 1]. Los analitos con grandes diferencias sexuales como la creatina quinasa no fueron investigados debido a que las fluctuaciones en la distribución del sexo producirían cambios impredecibles en valores medios no relacionados con el rendimiento analítico. Después de la exclusión de la pediatría, la clínica de hematología y los pacientes con ED el menor número de resultados para los ensayos investigados fue para la lipasa con 4101 resultados y el mayor fue el cloruro con 139180 resultados. Comparación de guiado vs algoritmo optimizado protocolos. A DETERMINACIÓN MANUAL DE LOS PARÁMETROS DE MOVIMIENTO DE MEDIDAS Los CLM de MA se determinaron calculando el valor de cambio de referencia (RCV) utilizando la fórmula RCV. Donde Z 1,96 para 2 SD cambian en una distribución de 2 colas CV a 2 CV del ensayo CV i 2 dentro de la variación biológica individual. CL fueron, por tanto, el valor medio del paciente el valor de RCV. La CV analítica se determinó mediante la revisión de los datos históricos del material QC más cercano al valor medio del paciente para cada ensayo. La variación biológica intraindividual se obtuvo a partir de la base de datos de variación biológica deseada compilada en westgard (14). La longitud del filtro o N se determinó como se describe por Cembrowski et al. (7). Brevemente, los datos del paciente se representaron en una tabla de distribución de frecuencia y se calcularon los medios de ensayo individuales y Sp. Sa se determinó mediante la revisión de los datos históricos de QC más cercanos al valor medio del paciente para cada ensayo. La relación Sp / Sa se calculó y se redondeó al número entero más próximo antes de la aplicación al nomograma (7). Las poblaciones internadas y ambulatorias se analizaron por separado para algunos analitos. Para esos ensayos, los datos se subdividieron en matrices de paciente internado y ambulatorio, trazadas en tablas separadas de distribución de frecuencia y medias ambulatorias y de pacientes hospitalizados y Sp determinadas antes del cálculo de la relación Sp / Sa. Las TL sirven para excluir valores extremos del cálculo de MA. Los valores que caen fuera de los TL no se incluyen en el valor medio calculado del paciente. Cuando la distribución de datos fue aproximadamente simétrica TLs se colocaron 4 SD de la media del paciente valor, una práctica influenciada por el middleware proveedor de formación. El valor TL en distribuciones sesgadas fue el punto de inflexión definido por el usuario para el cual la curva de distribución de frecuencia comenzó a nivelarse. Este valor se definió mediante la inspección visual de la distribución y no se intentó optimizar. El porcentaje de valores de los pacientes excluidos por los TL fue variable y osciló entre un mínimo de 0,3 de hierro a una concentración de 170 g / dL a un máximo de 58 para la albúmina a una concentración de 3,6 g / dL. Los porcentajes de muestras de pacientes excluidos para TLs determinados manualmente y algoritmo derivado se enumeran en la Tabla 1 del Suplemento de Datos que acompaña a la versión en línea de este artículo en clinchem. org/content/vol62/issue10. EVALUACIÓN DE LOS PROMEDIOS DE MOVIMIENTO RENDIMIENTO DEL PROTOCOLO Se calculó el ANP por inducción de un paso analítico en la matriz de datos del analito. SE se indujo después de las primeras 100 muestras de pacientes. El número de muestras de pacientes afectadas por SE se calculó como el número de muestras de pacientes individuales que caían entre el punto de inducción de error y el primer valor de MA que excede el CL. Se excluyeron valores de muestra que excedían los TLs del cálculo del valor medio del paciente, pero se incluyeron en el número de muestras afectadas por el SE. Este proceso se repitió con SE inducido desplazado a puntos de datos posteriores y el número de resultados de pacientes afectados promediados para calcular ANP ed. El número total de iteraciones para calcular el ANP dependía del tamaño del conjunto de datos para cada analito, el más pequeño de los cuales era 40 para la lipasa y el mayor de los cuales como 1390 para el cloruro. Por ensayo y error se encontró que el submuestreo por un intervalo de 100 resultados permitió una variación mínima de ANP ed vs el costo computacional de submuestreo más frecuente. Los pasos analíticos se indujeron como fracciones de CL y aumentaron hasta 4 veces CL. El ANP ed para SE igual a CL se utilizó para comparar el rendimiento a través de diferentes protocolos. Otros perfiles de error tales como una deriva gradual que reflejaría más estrechamente el desarrollo natural de SE no se intentaron. OPTIMIZACIÓN A TRAVÉS DEL ALGORITMO DE ANNEALIZACIÓN SIMULADA Para mejorar el rendimiento del protocolo inicial se implementó un algoritmo SA en MatLab que varió estocásticamente los valores de N y TLs superior e inferior (TL H y TL L respectivamente) manteniendo la constante de CL. El algoritmo SA fue diseñado para encontrar valores óptimos de N, TL H y TL L a través de la minimización de una función de coste dado como: (1) donde es un factor de ponderación definido por el usuario diseñado para forzar una baja tasa de error falso positivo (FP rate ). Para todos los analitos, se fijó arbitrariamente en 10000 para penalizar la tasa de FP a un costo de un ANP ed más alto. En este análisis la tasa de FP fue cero para todos los protocolos y ANP ed es típicamente un valor entre 0 y los 100s bajos. La selección de lt10000 puede haber resultado en una menor ANP ed, pero también habría probablemente han dado lugar a una mayor tasa de FP sin embargo, esto no se probó. La selección de un gt10000 también puede afectar a ANP ed, pero en nuestro conjunto de datos a de 10000 resultó en protocolos con una tasa de FP igual a cero y como tal un mayor probablemente no producir cambios sustanciales en el rendimiento. Subdividimos los 400 días de datos en diez conjuntos de 40 días y optimizado a través del algoritmo SA para una validación cruzada de 10 veces. Cada conjunto de condiciones optimizadas se probó con respecto al conjunto completo de datos. Para la sencillez de reporte, informamos solamente datos del bloque 10 a menos que las condiciones de optimización en el bloque 10 produjeran un protocolo que permitiera que la media excediera a CL dentro de las primeras 100 muestras de pacientes del conjunto de datos completo. Cuando esto ocurrió, informamos sobre el rendimiento del bloque 9. Este algoritmo SA típicamente logró convergencia a 20003000 iteraciones, mientras que una búsqueda completa de todas las combinaciones posibles de N, TL H. Y TL L requeriría al menos 50000iteraciones para enumerar el espacio de búsqueda típico de los parámetros. MA protocolos diseñados en este estudio se emplean en nuestro laboratorio utilizando Data Innovations Middleware Versión 8.13. RESULTADOS RENDIMIENTO DE LOS PROTOCOLOS GUIADOS DE SP / SA Para cada analito enumerado en la Tabla 1 se establecieron las siguientes características del protocolo: valor medio del paciente, CL, N y TL como se indica en Materiales y Métodos. Usando MatLab calculamos ANP ed para una SE igual a la CL para un analito dado. La ANP para estos protocolos iniciales varió desde un mínimo de 22 para el colesterol HDL hasta un máximo de 7249 para la bilirrubina total (Tabla 1. protocolos originales). Hubo 5 analitos, alanina aminotransferasa (ALT), nitrógeno ureico en sangre (BUN), calcio sérico, hsCRP, glucosa y hormona estimulante del tiroides (TSH), para lo cual nuestros protocolos originales no detectaron SE igual a CL. Se sospecha que el mal desempeño de algunos protocolos se atribuye a las diferencias en la distribución de analitos entre pacientes hospitalizados y ambulatorios, como los del calcio sérico (Fig. 1) con la concentración media de calcio en el hospital de 8,6 mg / dl y la media ambulatoria igual A 9,6 mg / dl. Estas poblaciones están ampliamente separadas por el tiempo, predominando las poblaciones de pacientes hospitalizados en las primeras horas de la mañana y las poblaciones ambulatorias que dominan el resto del día. La separación temporal de pacientes hospitalizados y ambulatorios se demuestra en una figura animada disponible en línea. 1. La Fig. 1. Gráficos de distribución de frecuencia. Los gráficos de distribución de frecuencia para 400 días de datos de pacientes para (A), sodio, (B), potasio, (C), calcio, (D), bicarbonato, (E), AST, (F), creatinina, Proteína total, y (H) tiroxina libre. La distribución naranja representa todos los datos del paciente púrpura representa el ambulatorio, y verde el subgrupo de pacientes hospitalizados de todos los pacientes. Para mejorar la detección SE se crearon 2 protocolos MA adicionales para analitos seleccionados para el seguimiento ambulatorio y las poblaciones de pacientes hospitalizados por separado. Los protocolos separados produjeron reducciones dramáticas en ANP ed para calcio y proteína total (Tabla 2). La separación de las poblaciones no mejoró universalmente la ANP ed. Los analitos con distribuciones de población similares tuvieron una mejoría marginal de la ANP o se mantuvieron aproximadamente iguales. A la inversa, para algunos analitos como la creatinina, la ANP aumentó después de la separación de las poblaciones ambulatorias y de pacientes hospitalizados. Rendimiento del protocolo guiado: detección de errores sistemáticos. A PERFORMANCE DE PROTOCOLOS OPTIMIZADOS Para maximizar la detección SE de nuestros protocolos MA se empleó un algoritmo SA en MatLab para seleccionar nuevos N y TL para todas las pruebas de la Tabla 1. El algoritmo SA produjo protocolos con disminuciones considerables en ANP ed (Tabla 1. columna derecha ) Que se destacaron por los analitos con grandes diferencias en las poblaciones ambulatorias y de pacientes hospitalizados, como el calcio y la proteína total y aquellos con distribuciones asimétricas, como aspartato aminotransferasa (AST), creatinina y tiroxina libre. Como puede observarse en la Tabla 1, el valor medio del paciente para algunos analitos cambió después de la optimización un efecto atribuible a diferentes TLs seleccionados por el algoritmo SA, porque la inclusión o exclusión de valores atípicos influyó en el valor medio calculado. Para comparar la detección de SE en las estrategias de MA se informan los valores de ANP ed para SE igual a la CL de cada ensayo en nuestro estudio (Tabla 1]. También se ensayaron incrementos menores de SE por debajo de CL para cada ensayo. En la Fig. 2 la ANP de los ensayos seleccionados se traza contra el aumento de SE. En estos gráficos la ausencia de SE inducida se representa en la mitad del eje x y el aumento de SE positivo y negativo se representa como valores crecientes y decrecientes, respectivamente. Las interrupciones en las curvas ANP ed indican condiciones en las que el protocolo MA no detectó SE. Como era de esperar, ANP ed disminuyó a medida que la magnitud SE aumentó, lo que indica que los protocolos de MA detectado SE, incluso si la magnitud era menor que el CL (Fig. 2]. Para algunos analitos, la ANP comenzó a aumentar de nuevo a medida que el SE creció más que el CL. Este fenómeno se debió a un número creciente de resultados que se situaban fuera de la TL a medida que aumentaba la SE. Aunque este fenómeno fue más evidente en algunos protocolos originales (ver sodio, Fig. 2 A) también ocurrió para algunos protocolos siguiendo la optimización del algoritmo de SA (Figura 2). Higo. 2. Número medio de pacientes afectados hasta que se detectó el error en función de la magnitud del error sistemático inducido. Estos gráficos demuestran la ANP ed de (A), sodio, (B), potasio, (C), calcio, (D), bicarbonato, (E), AST, (F), creatinina, (G), proteína total, Y (H), tiroxina libre para aumentar la magnitud del error sistemático. Las curvas definidas por cuadrados rojos representan los protocolos MA originales y los diamantes azules representan los protocolos desarrollados utilizando el algoritmo SA. En cada gráfico, las CL del ensayo están representadas por un cuadrado abierto o un diamante, respectivamente. Consulte la versión en línea para ver una versión en color de esta figura. Aunque ANP ed disminuyó después de la optimización observamos que la detección de SE positivo y negativo no era igual. Para el calcio, se detectó una SE de 1,0 mg / dL con un ANP ed de 55 muestras y una SE negativa de 1,0 mg / dL produjo un ANP ed de 161 muestras (Tabla 3). Para minimizar esta asimetría, se separaron las poblaciones ambulatorias y de pacientes hospitalizados y se reoptimizó. TSH, tiroxina libre, hsCRP y colesterol HDL fueron excluidos del subanálisis debido a que el número de muestras de pacientes internados en nuestro conjunto de datos era bajo. Funcionamiento optimizado del protocolo: separación de las poblaciones ambulatorias y de pacientes hospitalizados. A La optimización de las poblaciones ambulatorias y de pacientes internos redujo aún más las reducciones en la ANP para la mayoría de los analitos (Tabla 3). Al igual que con los protocolos iniciales de MA, se observaron mejoras notables en ANP ed para analitos con grandes diferencias de medias entre poblaciones. Después de la optimización todos los protocolos MA en nuestro laboratorio se actualizaron para que coincidieran con los parámetros seleccionados a través del algoritmo SA. DETECCIÓN DE SE EN UN ENTORNO VIVO Los protocolos de MA definidos anteriormente han estado en uso durante aproximadamente 2 años durante los cuales han detectado varios eventos SE. En la Fig. 3 compartimos un evento representativo. En esta imagen, obtenida del middleware Data Innovations, un electrodo selectivo de iones sodio (cuadrados marrones ISE) experimentó una condición SE positiva que aumentó la concentración media de sodio en gt4 mmol / L (flecha). Los otros ISEs de sodio que no experimentan SE se mantienen más cerca de la media. Después de la recalibración, la concentración media de sodio regresó a la media objetivo. En este ejemplo de la vida real, la condición SE se desarrolló poco después de la calibración de rutina y control de calidad. Debido a que la condición SE se detectó rápidamente sólo 14 muestras de pacientes requerían corrección. Si confiamos únicamente en los métodos tradicionales de QC, muchas más muestras de pacientes podrían haber sido afectadas. Higo. 3. Detección del error sistemático en un entorno vivo. Captura de pantalla de nuestro protocolo ISE de sodio demostrando la detección de errores sistemáticos (flecha) en 1 de 5 ISEs de sodio en nuestro laboratorio. Las combinaciones separadas de símbolos y colores representan diferentes ISE que realizan mediciones de sodio. Cada símbolo individual en este protocolo sólo de pacientes ambulatorios de sodio representa el promedio de 14 resultados de pacientes. La línea verde horizontal en el centro de la gráfica representa la concentración media de sodio en este protocolo. Las líneas rojas horizontales representan las CL del protocolo y las amarillas son iguales a la mitad de las CL. Consulte la versión en línea para ver una versión en color de esta figura. Discusión Hemos demostrado que un algoritmo de SA genera protocolos de MA que detectan rápidamente SE, minimizando el número de resultados de pacientes no confiables informados. Aunque el rendimiento de los algoritmos SA algoritmo optimizado variados que fueron capaces de mejorar la detección SE mediante el desarrollo de protocolos separados ambulatorio y paciente interno. El rendimiento de SA algoritmos derivados de los protocolos de MA fue sustancialmente mejor que la de nuestros protocolos originales. La estrategia de relación de Sp / Sa se puede utilizar para generar protocolos MA, sin embargo, esta estrategia es la más adecuada para analitos con distribuciones normales. Comparación de nuestro estudio con uno previamente publicado demuestra que nuestra estrategia de algoritmo SA detecta SE con un similar ANP ed (8). A diferencia de otras estrategias informadas, la nuestra no generó distribuciones normales de datos (6) o seleccionar aleatoriamente los valores de una distribución (8), sino que optimizó los protocolos en el contexto de las variaciones de los datos naturales del día a día. Para minimizar la tasa de FP, establecimos el factor de ponderación a 10000 en nuestra función de coste del algoritmo SA. Esto forzó la selección de parámetros que redujeron la tasa de FP a cero para todos los protocolos. Una tasa de PF de cero no es estadísticamente posible y es un artefacto de la optimización de nuestros protocolos para el conjunto de datos de 400 días. La aplicación de estos parámetros a otro conjunto de datos produciría una tasa cuantificable de PF. Anecdóticamente hemos experimentado eventos de error falso con estos protocolos en un entorno en vivo. No todas las pruebas de química son susceptibles de monitoreo de MA. SE detección de distorsionado distribuciones fue pobre (Fig. 2 y Tabla 3] y, aunque el algoritmo SA mejorado SE detección, existen oportunidades de mejora. El mal desempeño de la MA de glucosa podría deberse a nuestra incapacidad de separar los resultados de ayuno y no de adiestramiento. Para BUN la limitación probable fue nuestra meta CL estrecha de 2 mg / dL promedio derivado de la RCV. Si hubiéramos seleccionado métodos alternativos para determinar CL, como el Sp, podríamos haber logrado una mejor ANP ed. Pero para la consistencia del estudio esto no fue investigado. Otras técnicas que pueden mejorar la detección de SE como el análisis mediano móvil y EWMA (6.9.15), aunque están disponibles en el software de Data Innovations v.8.13, no fueron investigadas. Hemos elegido utilizar el algoritmo SA por 4 razones. Primero, dado un conjunto de datos suficientemente grande y un conjunto dado de N y TL, el CL podría ajustarse al valor medio máximo y mínimo del paciente en ausencia de SE inducido para minimizar ANP ed. Sin embargo, la inclusión de CL en la optimización SA aumentaría el tamaño del espacio de búsqueda en aproximadamente 2 órdenes de magnitud. Dadas las limitaciones técnicas de nuestro hardware informático no pudimos intentar este estudio. En segundo lugar, el truncamiento de datos es un proceso inherentemente no lineal, que no puede expresarse en una solución de forma cerrada. En tercer lugar, debido al método de muestreo utilizado, los resultados ANP ed mostrarán variación estocástica sobre la media como una función del punto de inicio y el intervalo de paso. En cuarto lugar, debido a que los datos de laboratorio se registran de forma discreta (por ejemplo, 1,6, 1,7, 1,8), nuestro espacio de búsqueda para TL es similarmente discreto (por ejemplo, 1,65, 1,75, 1,85), simplificando así el tamaño de la búsqueda potencial de valores óptimos. Una limitación del estudio es la exclusión de muestras de pediatría, ED, y la clínica de hematología. Esta decisión se basó en observaciones previas de que las concentraciones de muchos analitos de estos pacientes difieren sustancialmente de las de otras poblaciones. En nuestra experiencia los pacientes de la unidad de hemología de la hematología tienen menores valores de proteína total y calcio. Debido a que usamos personal de flebotomía hospitalaria, tendemos a recibir estas muestras de pacientes en masa y los valores medios de proteína total y de calcio pueden ser marcadamente influenciados por este pequeño grupo de pacientes. Este efecto es bastante pronunciado que unos cuantos pacientes analizados simultáneamente pueden desencadenar un evento de detección falsa. Para mitigar este efecto podría desarrollarse un protocolo de MA que utiliza una concentración media de analito por hora de día. Sin embargo, el software MA actual que empleamos no puede acomodar esta estrategia. Desde un punto de vista práctico, la fiabilidad y la sensibilidad de dicho protocolo dependerían de un esquema de flebotomía invariable. Los flebotomistas tendrían que dibujar cada unidad al mismo tiempo a diario porque la variación de la programación podría afectar el rendimiento del protocolo. Basándonos en estas limitaciones, nuestra estrategia de excluir ciertas poblaciones de pacientes sirve como una alternativa aceptable. Debido a que nuestra estrategia de optimización excluyó a estos pacientes, hemos utilizado similarmente una serie de filtros de exclusión para excluir estos valores de los pacientes de los cálculos de MA utilizados en nuestro middleware. Una limitación adicional a nuestra estrategia de uso de datos en formato nativo es que no podemos excluir la posibilidad de que hubiese eventos SE no detectados en nuestro conjunto de datos. El efecto probable de la inclusión de datos afectados por SE en nuestra optimización sería una menor sensibilidad del protocolo. También inducida SE utilizando una estrategia paso a paso en lugar de una degradación gradual en el rendimiento del ensayo como uno puede experimentar en un entorno del mundo real. A step-shift represents the best-case scenario for detecting SE and it could be assumed that SE detection would take longer if assay performance degraded gradually, but this assumption was not tested. Both of these limitations are worthy of future study. A recent publication has proposed a release from the back MA strategy in which the first sample analyzed is not released until the remainder of the MA block is analyzed and found not to surpass the CL (9 ). This strategy should decrease the likelihood of reporting erroneous results while at the same time reducing the costs of frequent QC analysis (9 ). However, the release from the back strategy would initially delay the reporting the first result. For a large reference laboratory this additional delay would be inconsequential owing to a high daily test volume. The release from the back strategy, however, would not be practical for the hospital laboratory because the first result could be pending several hours while the remainder of the block is collected and analyzed. The standard strategy of recalculating the mean value as each new result is released may produce more frequent correction of patient results than the release from the back strategy, but our data demonstrating low ANP ed values indicates SE can be rapidly detected, minimizing the number of samples requiring reanalysis and correction. To our knowledge this is the first study to use an SA algorithm to optimize MA protocols. We show that separate analysis of ambulatory and inpatient populations can improve SE detection. We have used this strategy to successfully establish an MA program in a hospital based laboratory serving both hospitalized and ambulatory patient populations. Our MA protocols continuously monitor assay performance and enable SE detection in advance of the next scheduled QC event, minimizing the number of affected patient samples. Footnotes 3 Nonstandard abbreviations: SE. systematic error MA. moving average TL. truncation limit EWMA. exponentially weighted MA CL. control limit N. number of patient results to average Sp. patient population SD Sa. analytic imprecision SD SA. simulated annealing ANP ed . average number of patients affected until error detected ED. emergency department hsCRP. high sensitivity C-reactive protein RCV. reference change value TL H . high truncation limit TH L . low truncation limit FP rate . false positive rate BUN. blood urea nitrogen TSH. thyroid stimulating hormone AST. aspartate aminotransferase ISE. ion-selective electrode. (see editorial on page 1299 ) Author Contributions: All authors confirmed they have contributed to the intellectual content of this paper and have met the following 3 requirements: (a) significant contributions to the conception and design, acquisition of data, or analysis and interpretation of data (b) drafting or revising the article for intellectual content and (c) final approval of the published article. Authors Disclosures or Potential Conflicts of Interest: Upon manuscript submission, all authors completed the author disclosure form. Disclosures and/or potential conflicts of interest: Employment or Leadership: None declared. Consultant or Advisory Role: None declared. Stock Ownership: None declared. Honoraria: M. A. Cervinski, AACC and Lab RevolutionG2 Intelligence. Research Funding: None declared. Expert Testimony: None declared. Patents: None declared. Role of Sponsor: No sponsor was declared. Received for publication March 2, 2016. Accepted for publication July 6, 2016. 2016 American Association for Clinical Chemistry References Parvin CA . Assessing the impact of the frequency of quality control testing on the quality of reported patient results. Clin Chem 2008 54. 2049 54.Parvin CA , Gronowski AM . Effect of analytical run length on quality-control (QC) performance and the QC planning process. Clin Chem 1997 43. 2149 54.Rej R , Jenny RW , Bretaudiere JP . Quality control in clinical chemistry: characterization of reference materials. Talanta 1984 31. 851 62.Miller WG , Erek A , Cunningham TD , Oladipo O , Scott MG , Johnson RE . Commutability limitations influence quality control results with different reagent lots. Clin Chem 2011 57. 76 83.Carobene A , Guerra E , Ceriotti F . A mechanism-based way to evaluate commutability of control materials for enzymatic measurements. The example of gamma-glutamyltransferase. Clin Chim Acta 2013 424. 153 8.Linnet K . The exponentially weighted moving average (EWMA) rule compared with traditionally used quality control rules. Clin Chem Lab Med 2006 44. 396 9.Cembrowski GS , Chandler EP , Westgard JO . Assessment of average of normals quality control procedures and guidelines for implementation. Am J Clin Pathol 1984 81. 492 9.Ye JJ , Ingels SC , Parvin CA . Performance evaluation and planning for patient-based quality control procedures. Am J Clin Pathol 2000 113. 240 8.Fleming JK , Katayev A . Changing the paradigm of laboratory quality control through implementation of real-time test results monitoring: for patients by patients. Clin Biochem 2015 48. 508 13.Hoffmann RG , Waid ME . The average of normals method of quality control. Am J Clin Pathol 1965 43. 134 41.Reed AH . Use of patient data for quality control of clinical laboratory tests. Clin Chem 1970 16. 129 34.Woo J , LeFever D , Winkelman JW . Use of average of normals quality control procedure in the detection and resolution of assay discrepancies. Am J Clin Pathol 1988 89. 125 9.Westgard JO , Smith FA , Mountain PJ , Boss S . Design and assessment of average of normals (AON) patient data algorithms to maximize run lengths for automatic process control. Clin Chem 1996 42. 1683 8.Westgard QC . Desirable biological variation database specifications. westgard/biodatabase1.htm ( Accessed March 2016 ).Wilson A , Roberts WL , Pavlov I , Fontenot J , Jackson B . Patient result median monitoring for clinical laboratory quality control. Clin Chim Acta 2011 412. 1441 6.
No comments:
Post a Comment