domingo, 6 de julio de 2025

1257-Evolución histórica del Laboratorio de Fisiología (4)

Editor:   Bagnarelli Aníbal E.
Fuente:  Chat Geminis 2.5/ DeepSeek

  • Parte 1- Laboratorio clínico
  • Parte 2- Laboratorio especializado
  • Parte 3- Laboratorio de alta complejidad
  • Parte 4- Laboratorio de fisiología

Parte 4- Laboratorio de Fisiología

Resumen

La evolución histórica del laboratorio de fisiología marca una profunda transformación, desde la investigación filosófica antigua hasta una disciplina científica rigurosa, basada en la evidencia y altamente institucionalizada. Este informe rastrea esta trayectoria, destacando el cambio crucial de la contemplación teórica a la experimentación sistemática, impulsado por un deseo insaciable de desentrañar los complejos mecanismos que subyacen a las funciones corporales. Las primeras observaciones anatómicas, aunque fundamentales, carecían de las metodologías controladas y cuantificables que posteriormente definirían la fisiología experimental. El siglo XIX resultó revolucionario, al presenciar el surgimiento de laboratorios especializados y la invención de instrumentos de precisión que permitieron la medición objetiva y fomentaron una comprensión mecanicista de la vida. Este período también suscitó importantes debates éticos, en particular en relación con la experimentación con animales, que siguen influyendo en las prácticas de investigación actuales.

La institucionalización de la fisiología en las universidades y la formación de sociedades profesionales consolidaron su estatus como campo científico independiente, impulsando tanto la investigación como la educación. Los avances tecnológicos posteriores, desde la electrofisiología hasta sofisticadas técnicas bioquímicas y celulares, profundizaron el enfoque reduccionista, permitiendo el aislamiento y el análisis detallado de los procesos biológicos a escalas cada vez más finas. La segunda mitad del siglo XX y la era actual se caracterizan por el impacto transformador de la genética molecular, la genómica, la proteómica y el floreciente campo de la biología de sistemas, que busca integrar datos diversos para comprender las propiedades emergentes de los sistemas biológicos complejos. Simultáneamente, las tecnologías avanzadas de imagenología y dispositivos portátiles están revolucionando la adquisición de datos y su aplicación clínica. Este informe demuestra la interacción dinámica entre el descubrimiento científico, la innovación tecnológica y la evolución de los valores sociales que ha convertido al laboratorio de fisiología en un pilar indispensable de la ciencia biológica y médica moderna.

Introducción: Definición del Laboratorio de Fisiología

De la investigación filosófica a la ciencia empírica

La fisiología, el estudio científico de las funciones y mecanismos de los sistemas vivos, ha experimentado una profunda transformación a lo largo de los siglos. Su evolución abarca desde reflexiones filosóficas especulativas sobre los procesos vitales hasta una disciplina rigurosa, basada en la evidencia y experimental que hoy sustenta la medicina moderna, las ciencias de la salud y diversos campos de la biología .Esta trayectoria representa un cambio fundamental de la contemplación teórica a la investigación empírica, impulsada por un deseo creciente de desentrañar los complejos mecanismos que subyacen a las funciones corporales.

El concepto de "laboratorio" en fisiología, como un entorno dedicado y controlado para la experimentación sistemática, es relativamente moderno. Si bien las primeras observaciones y disecciones sentaron las bases, el laboratorio fisiológico formal, tal como se entiende comúnmente hoy en día, surgió con claridad en los siglos XVIII y XIX con la llegada de los métodos experimentales cuantificables.

Alcance y contexto histórico

Este informe rastrea minuciosamente la evolución histórica del laboratorio de fisiología, examinando las contribuciones fundamentales de figuras clave, los avances progresivos en las metodologías experimentales, el impacto transformador de las innovaciones tecnológicas y el proceso crucial de institucionalización de la disciplina. Destaca cómo la búsqueda persistente de la comprensión de los intrincados procesos de la vida requirió el desarrollo de espacios especializados, herramientas sofisticadas y marcos éticos en constante evolución, demostrando la trayectoria de la fisiología hasta convertirse en un pilar indispensable de la ciencia biológica y médica.

1- Fundamentos tempranos del pensamiento fisiológico (de la Antigüedad al Renacimiento)

1.1- Civilizaciones antiguas y conocimientos anatómicos tempranos

Los orígenes del pensamiento fisiológico están profundamente entrelazados con la naciente historia de la medicina y la filosofía. Culturas antiguas, como la egipcia, la griega y la india, comenzaron a formular ideas rudimentarias sobre la naturaleza del cuerpo humano y sus funciones.

Los antiguos egipcios fueron de los primeros en intentar comprender el cuerpo humano. Aunque no poseían las herramientas científicas disponibles hoy en día, su conocimiento de la anatomía y los procesos fisiológicos básicos era avanzado para su época. La medicina egipcia se basaba en aplicaciones prácticas, especialmente relacionadas con la momificación, que implicaba la preservación de cuerpos y la observación de su estructura. Esta práctica probablemente condujo a los primeros estudios anatómicos y a una comprensión rudimentaria de los sistemas orgánicos, como el cardiovascular y el digestivo.

Hipócrates, figura clave de la medicina griega antigua, propuso la teoría de los cuatro humores (sangre, flema, bilis amarilla y bilis negra). Creía que estos humores controlaban las funciones corporales y la salud, y que un desequilibrio conducía a la enfermedad. Aunque posteriormente se demostró que esta teoría era incorrecta, influyó profundamente en el pensamiento médico durante siglos, enfatizando el concepto de equilibrio corporal.Esto marcó un intento temprano, aunque teórico, de sistematizar la comprensión de los procesos corporales.

El médico romano Galeno (c.130-200 d.C.) se erige como la figura más influyente en fisiología y medicina durante más de un milenio. Basándose en el trabajo de pensadores griegos anteriores, Galeno realizó extensas disecciones anatómicas, principalmente en animales como monos y cerdos. Sus descubrimientos pioneros sobre el sistema circulatorio, el papel del cerebro en el control de las funciones corporales y las funciones específicas de órganos como el hígado y los riñones se convirtieron en una pieza clave del conocimiento médico durante siglos. A Galeno se le considera ampliamente el fundador de la fisiología experimental debido a su uso temprano y sistemático de la experimentación para obtener información sobre los sistemas del cuerpo.

Estas primeras contribuciones, si bien fundamentales, se desarrollaron en un marco distinto de la definición posterior, más rigurosa, de laboratorio fisiológico. Los primeros "experimentos" de Galeno solían ser más parecidos a observaciones detalladas durante la disección o demostraciones de relaciones anatómicas, que a manipulaciones controladas, basadas en hipótesis y con resultados cuantificables. El enfoque principal se mantuvo en la anatomía macroscópica y los marcos teóricos, como la teoría humoral, en lugar de en procesos fisiológicos dinámicos y mensurables. La ausencia de laboratorios dedicados y con abundante instrumental significó que la investigación se limitara a lo que podía observarse directamente o inferirse filosóficamente. Esto pone de relieve la naturaleza lenta y gradual del progreso científico, donde los cambios conceptuales a menudo preceden a las capacidades tecnológicas. El conocimiento anatómico fundamental acumulado durante este período fue un precursor necesario, pero la ausencia de herramientas experimentales sistemáticas e instalaciones especializadas impidió el surgimiento de la fisiología como una ciencia empírica verdaderamente diferenciada. La temprana dependencia de la disección animal, particularmente por parte de Galeno, también prefiguró los complejos debates éticos que posteriormente rodearían la vivisección en los florecientes laboratorios fisiológicos.

1.2- La Edad Media: conservación y expansión gradual

Durante la Edad Media, la transferencia del conocimiento clásico se vio facilitada significativamente por los eruditos en España, en particular en la famosa biblioteca de Córdoba, donde se conservaban obras de Avicena, Galeno y otros pensadores. En Europa, la Iglesia desempeñó un papel crucial en la salvaguardia del conocimiento médico, con bibliotecas monásticas que albergaban numerosos textos clásicos y monjes que a menudo ejercían como médicos de cabecera. Sin embargo, la práctica médica durante este período siguió siendo mayoritariamente teórica, con un énfasis mínimo en la experimentación sistemática o la disección del cuerpo humano.Esta era vio principalmente la preservación y transmisión del conocimiento existente más que innovación significativa en fisiología experimental.....

1- Leer el artículo completo

2- Laboratorio Claude Bernard

(*) Una vez que esta en la pagina del articulo (2), pulsando el botón derecho puede acceder a su  traducción al idioma español Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. Nueva presentación el 09 de Julio. 
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina




jueves, 3 de julio de 2025

1256- Evolución histórica de un Laboratorio de Alta Complejidad (3)

George J. Race, G. Weldon Tillery, A. Dysert, II. Historia de los laboratorios de patología y medicina en el Baylor University Medical Center. Proc (Baylor Univ Med Cent). 2004; 17(1): 42-55. Department of Pathology, Baylor University Medical Center, Dallas, Texas.

Según los estándares modernos, los laboratorios de un gran centro médico representan un lugar para la síntesis y la aplicación de las ciencias básicas al tratamiento de pacientes mediante la investigación clínica y básica, la realización de miles de procedimientos diarios y la provisión de programas de enseñanza discretos. Estos laboratorios dependen de la institución mientras que la institución y sus estudiantes, médicos y pacientes dependen de ellos.

The laboratories at Baylor University Medical Center (BUMC) han evolucionado hasta convertirse en un servicio completamente automatizado que utiliza la última tecnología para realizar millones de procedimientos cada año para BUMC, hospitales y centros de salud afiliados al Baylor Health Care System (BHCS) y otros hospitales.

Desarrollo temprano del laboratorio de Patología y Medicina

La patología tiene sus orígenes en la medicina antigua, pero se desarrolló solo a medida que avanzaba la ciencia. Herófilo, uno de los grandes médicos griegos, junto con Erasístrato, dieron inicio a la anatomía patológica y la autopsia. Realizaron las primeras disecciones cadavéricas humanas científicas durante un período de 30 a 40 años. Entonces se prohibió la disección humana y no se volvió a permitir durante más de 1.800 años.

Los acontecimientos en el norte de África y el sur de Europa, especialmente en Monte Cassino y Salerno, llevaron al establecimiento de las líneas maestras de la educación médica clásica que prevalecerían durante medio milenio. Los elementos básicos de la teoría fisiológica y patológica siguieron siendo los cuatro humores básicos y las cuatro cualidades; su respectivo equilibrio se entendía como el objetivo de la salud. El desequilibrio humoral o la alteración de la tez pueden diagnosticarse fácilmente mediante el examen de la orina. Los procedimientos terapéuticos siguieron la tríada hipocrática de régimen, fármacos y cirugía, incluida la sangría.

Esta teoría humoral fue refutada durante la Ilustración del siglo XVIII cuando se desarrollaron los hospitales y la educación médica. El estudio de la patología comenzó a desarrollarse rápidamente a medida que las autopsias se realizaban con mayor frecuencia, especialmente aquellas realizadas después de que la enfermedad de un paciente había sido monitoreada en el hospital. Como resultado, los médicos comenzaron a creer que la patología podría informar el diagnóstico. Durante este período, Auenbrugger (1722–1809) desarrolló un método de auscultación (golpear el pecho y notar el sonido resultante) trabajando con cadáveres y luego con pacientes.

En el siglo XIX, la teoría celular avanzó. Theodore Schwann (1810-1882) descubrió células en todos los tejidos humanos. A mediados de la década de 1850, Rudolph Virchow (1821–1902) desarrolló el concepto de patología celular: se podía hacer un diagnóstico de enfermedad examinando las células 

Los avances en el conocimiento científico impactaron tanto en la práctica médica como en la educación médica en Europa y América. La aceptación de la anatomía como base de la enfermedad condujo al estudio de la anatomía, tanto teórica como práctica, “como piedra angular de toda enseñanza médica”.

Durante la primera mitad del siglo XIX, el estudio de la anatomía en los EE. UU. se vio afectado por una “escasez de hospitales y clínicas docentes, la falta de profesores a tiempo completo y, especialmente, la ausencia de un control centralizado sobre lo que se enseñaba y quién podía ejercer la medicina” . La anatomía patológica no se enseñaba como una materia independiente, sino que a menudo se combinaba con la medicina o quizá con la anatomía.

Las reformas muy necesarias en la educación médica se realizaron en los EE. UU. en las décadas posteriores a la Guerra Civil. La Universidad de Harvard hizo reformas en 1871, enfatizando el “aprender haciendo”. Estas reformas fueron seguidas por reformas en la Universidad de Pensilvania y la Universidad de Michigan. Sin embargo, la innovación más espectacular en la historia de la educación médica estadounidense fue la apertura de la Escuela de Medicina Johns Hopkins, que proporcionó dos años de instrucción en ciencias básicas y trabajo de laboratorio obligatorio .

A medida que se hacían avances en Europa y en las ciudades estadounidenses donde las facultades de medicina se desarrollaban sobre una base científica, las nociones fundamentales de patología cambiaron más lentamente en la mayor parte del país:

Las ideas más antiguas sobre la naturaleza de la enfermedad seguían siendo indispensables. Para la mayoría de los médicos de mediados de siglo, una enfermedad aún podía convertirse en otra; la enfermedad seguía siendo, en muchos sentidos, un lugar dentro del espectro de posibilidades fisiológicas, no una entidad categórica capaz de afligir a casi cualquier persona con los mismos patrones de síntomas, como sostenían los más devotos defensores de la medicina francesa.

Las definiciones holísticas de la enfermedad como un estado general del organismo eran consistentes con las actitudes sociales hacia la necesidad y la dependencia, ya que ambas incluían elementos tanto morales como materiales. En ambos, la interacción del individuo y el entorno bien podría generar salud o enfermedad, prosperidad o pobreza. A mediados de siglo, cada aspecto de la relación entre el conocimiento médico y el hospital era incierto y estaba sujeto a negociación futura........

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. Nueva presentación el 06 de Julio. 
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


lunes, 30 de junio de 2025

1255- Evolución histórica del laboratorio especializado (2)


Editor: Bagnarelli Aníbal E.
Fuente: Chat Geminis 2.5

Parte 1- Laboratorio clínico.

Parte 2- Laboratorio especializado
Parte 3- Laboratorio de alta complejidad

                                                    Parte 2- Laboratorio Especializado

1- Laboratorio de Quimica Clínica

La historia del laboratorio de química clínica es un recorrido fascinante desde las observaciones rudimentarias hasta los sistemas altamente automatizados y sofisticados que sustentan la medicina moderna. Su evolución puede dividirse, a grandes rasgos, en varios períodos clave:

I. Primeros comienzos (desde la Antigüedad hasta el siglo XIX):

  • Diagnóstico basado en la observación: Las primeras formas de diagnóstico se basaban en gran medida en la observación visual y sensorial de los fluidos corporales. Los médicos de la antigüedad, incluido Hipócrates, examinaban la orina para determinar su color, claridad e incluso sabor (la orina dulce indicaba diabetes).También observaron las propiedades físicas de la sangre y otras excreciones.

  • Análisis químico rudimentario: Si bien no se trata de química clínica tal como la conocemos, la base de este proceso se sembró con la comprensión temprana de la química. Por ejemplo, a finales del siglo XVII, Frederik Dekkers observó que la orina con proteínas formaba un precipitado al hervirse con ácido acético, un paso fundamental en el análisis de orina.

  • Surgimiento de la química y la fisiología: A finales del siglo XVIII y principios del XIX se produjo el surgimiento de la química orgánica y la química fisiológica, que proporcionaron una base científica para analizar los componentes del cuerpo.Esta época marcó los primeros vínculos entre los laboratorios y la investigación, la enseñanza y, finalmente, el diagnóstico clínico en el ámbito hospitalario, especialmente en Francia y Alemania.

  • Métodos analíticos simples: A mediados del siglo XIX, los avances en la química orgánica permitieron la aplicación de técnicas de análisis de fluidos para el diagnóstico. El análisis de orina (p. ej., para albúmina, cetonas, bilirrubina y urea) y los primeros análisis de sangre (p.ej., glucosa, colesterol y pH) comenzaron a adquirir relevancia. Estos métodos eran mayoritariamente manuales y se basaban en técnicas como la colorimetría y la titulación.

II. El amanecer del laboratorio clínico moderno (finales del siglo XIX y mediados del siglo XX):

  • Formalización de los laboratorios clínicos: A finales del siglo XIX y principios del XX, los laboratorios clínicos se implementaron ampliamente en Europa y Estados Unidos. Los hospitales reconocieron la importancia de contar con instalaciones centralizadas para las pruebas diagnósticas.

  • Profesionalización de los químicos clínicos: A medida que los métodos se volvieron más complejos, surgió una nueva clase de especialistas: químicos, farmaceuticos, bioquímicos clínicos, o científicos de laboratorio, para dirigir la investigación y el trabajo rutinario en los mismos. Se empezaron a formar sociedades profesionales con sus diversaa titulaciones en Europa (p.ej., la Société Française de Biologie Clinique en 1942) y posteriormente AACC en Estados Unidos.

  • Nuevas pruebas y métodos de diagnóstico: A principios del siglo XX se desarrollaron nuevos métodos basados en colorimetría visual en pequeños volúmenes de muestra, lo que impulsó el desarrollo de la química clínica. También este período fue crucial para el desarrollo de pruebas diagnósticas que impulsaron la "época dorada" del desarrollo de fármacos, como el seguimiento de los niveles de glucosa en sangre y orina para el tratamiento con insulina.

  • Automatización inicial: mediados del siglo XX, particularmente de 1948 a 1960, fue una época con la introducción de tecnologías innovadoras como el tubo Vacutainer (para la recolección de muestras), la electroforesis y el radioinmunoensayo. Sin embargo, los laboratorios todavía eran en gran medida manuales, con un uso extensivo de cristalería y técnicas laboriosas.

III. La era de la automatización y la especialización (mediados del siglo XX hasta la actualidad):

  • El autoanalizador (década de 1950): este invento de Leonard Skeggs supuso un punto de inflexión revolucionario.El primer analizador automatizado de química clínica podía realizar numerosas pruebas simultáneamente, lo que aumentaba drásticamente la eficiencia, reducía los errores y estandarizaba los resultados. Esto sentó las bases para las pruebas automatizadas modernas.

  • Avances tecnológicos: La integración de la espectrofotometría, los inmunoensayos y los métodos enzimáticos en analizadores automatizados amplió aún más el alcance y la precisión de las pruebas. El desarrollo de los inmunoensayos por Rosalyn Yalow y Solomon Berson en la década de 1950 (Premio Nobel en 1977) supuso un gran avance, permitiendo pruebas diagnósticas de alta sensibilidad.

  • Especialización en análisis clínicos: a medida que se produjeron avances técnicos, el campo comenzó a dividirse en especializaciones en análisis clínicos cada vez más sofisticado en sangre y orina.

  • Gestión de datos e informatización: A principios de la década de 1980 surgieron los primeros sistemas de información clínica (LIS) para que los laboratorios gestionaran los datos de las pruebas de los pacientes. A finales del siglo XX, se fusionaron el hardware y el software de los analizadores, lo que dio lugar a sofisticados sistemas de gestión de datos y soluciones informáticas.Esto mejoró la eficiencia, la productividad y el cumplimiento normativo.

  • Automatización total de laboratorio (TLA): impulsados por las crecientes demandas de eficiencia, precisión y tiempos de respuesta rápidos, los sistemas TLA integran tecnologías avanzadas en las fases preanalíticas, analíticas y posanalíticas. Esto agiliza los flujos de trabajo, reduce la intervención manual y mejora el control de calidad.

  • Calidad y normativa: La creciente complejidad e importancia de las pruebas de laboratorio condujo a un mayor énfasis en la calidad de sus resultados. Las normativas y certificaciones (p.ej., ISO y CLIA en EE. UU.) adquirieron una relevancia creciente para garantizar precisión y fiabilidad.

IV. Tendencias e innovaciones futuras:

  • Miniaturización y pruebas en el punto de atención (POCT): la tendencia hacia analizadores más pequeños y portátiles está acercando los diagnósticos a los pacientes, reduciendo los tiempos de respuesta y haciendo que las pruebas sean accesibles en diversos entornos (por ejemplo, ubicaciones remotas, ambulancias, atención domiciliaria).

  • Integración de IA y aprendizaje automático: se están integrando algoritmos de IA para analizar conjuntos de datos complejos, identificar patrones, predecir la progresión de enfermedades e incluso recomendar diagnósticos.Esto optimizará los flujos de trabajo, interpretará los resultados y mejorará el análisis de datos.

  • Conectividad mejorada y uso compartido de datos: la integración perfecta de los analizadores con plataformas de salud digital, el monitoreo remoto y la colaboración en tiempo real entre proveedores de atención médica se está volviendo crucial para una atención eficiente al paciente y una toma de decisiones informada.

  • Medicina personalizada: Los avances en el diagnóstico molecular, incluida la secuenciación de próxima generación y las biopsias líquidas, están permitiendo tratamientos personalizados e intervenciones más tempranas basadas en las necesidades individuales de cada paciente.

  • Enfoque en la eficiencia y la dotación de personal: la escasez constante de personal está impulsando la necesidad de una automatización aún mayor para agilizar las operaciones, reducir los errores humanos y permitir que el personal de laboratorio se concentre en tareas más complejas.

En esencia, el laboratorio de química clínica se ha transformado desde un proceso manual y laborioso a un componente altamente automatizado, basado en datos y cada vez más inteligente de la atención médica moderna, adaptándose continuamente para brindar información de diagnóstico más rápida, más precisa y más completa para la atención del paciente.

Leer el artículo completo

(*)  Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 03 de Julio
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina

viernes, 27 de junio de 2025

1254- Evolución histórica del Laboratorio Clínico (1)

Editor: Bagnarelli Aníbal E.
Fuente: Chat Geminis 2.5

  • Parte 1- Laboratorio clínico
  • Parte 2- Laboratorio especializado
  • Parte 3- Laboratorio de alta complejidad
  • Parte 4- Laboratorio de Fisiología

Parte 1- Laboratorio Clínico

Resumen

La evolución del laboratorio de bioquímica y patología clínica en sus diversas denominaciones (en adelante laboratorio clínico) representa una trayectoria notable, desde prácticas diagnósticas rudimentarias hasta instalaciones sofisticadas, automatizadas y altamente especializadas, indispensables para la atención médica moderna. Este informe rastrea esta progresión histórica, destacando los desarrollos paralelos e interconectados entre ellos. Examina cómo los descubrimientos científicos fundamentales, las innovaciones tecnológicas transformadoras, la profesionalización de la ciencia de laboratorio y el impacto catalizador de los acontecimientos globales han moldeado colectivamente estas complejas entidades. La narrativa culmina en la era de la medicina personalizada, impulsada por los avances genómicos, y aborda los profundos desafíos y las aceleraciones generadas por las recientes pandemias, subrayando el papel crucial y en constante evolución de los laboratorios en la salud global.

1. Introducción: Definición del laboratorio moderno y sus raíces históricas

1.1. Conceptualización del laboratorio clínico de alta complejidad

Un laboratorio clínico moderno y de alta complejidad se caracteriza por su carácter multidisciplinario, ya que cuenta con instrumentación avanzada y personal especializado. Su función crucial va más allá de las simples pruebas, abarcando el diagnóstico, el pronóstico, la monitorización del tratamiento y la vigilancia de la salud pública. Estos laboratorios integran diversas disciplinas científicas, desde la química clínica y la microbiología hasta el diagnóstico molecular y la patología, para proporcionar información completa y precisa, esencial para la atención al paciente y la gestión de la salud de la población. Esta definición contemporánea sirve como referencia para medir la trayectoria histórica de estas instituciones vitales.

1.2. Precursores tempranos: de las observaciones antiguas a los talleres alquímicos

Más allá del examen directo del paciente, los primeros talleres especializados, con raíces en la alquimia, la metalurgia y la farmacia, también contribuyeron a la génesis conceptual del laboratorio. Estos espacios se dedicaban a actividades específicas que implicaban el calentamiento, el tratamiento y la separación de sustancias, sentando un precedente para los entornos experimentales controlados.Las prácticas de la uroscopia antigua y los talleres alquímicos, aunque aparentemente dispares y carentes de la comprensión científica moderna, compartían un impulso subyacente común: el impulso humano de analizar sistemáticamente las sustancias y observar los cambios con fines prácticos, ya fueran médicos o materiales. Esta curiosidad precientífica y el establecimiento de espacios dedicados a tales investigaciones sentaron las bases cognitivas y prácticas para los métodos de laboratorio más rigurosos que surgirían mucho más tarde. La idea fundamental de un laboratorio, por lo tanto, es anterior al método científico formal, y evolucionó a partir de la necesidad práctica y del deseo humano inherente de comprender y manipular el mundo natural.

1.3. Ámbito geográfico y periodización

Este informe se centra explícitamente en las trayectorias históricas de los LBPC , reconociendo sus trayectorias de desarrollo, distintas pero a menudo interconectadas. El marco cronológico abarca desde la antigüedad hasta los siglos XVII, XVIII, XIX y XX, y hasta el siglo XXI, ofreciendo una narrativa estructurada de esta compleja evolución.

Las primeras formas de dignosticos y pruebas clínicas se remontan a civilizaciones antiguas, donde se empleaban métodos rudimentarios para comprender las enfermedades.

La antigua China, fue testigo del desarrollo de la Medicina Tradicional China (MTC), cuyos principios se describen en el Canon Interno del Emperador Amarillo, que data del siglo I o II a.C. La MTC estableció cuatro métodos diagnósticos principales que se siguen practicando en la actualidad: Palpación, Auscultación y Olfato, Indagación y Palpación Un aspecto importante de la medicina china antigua fue la uroscopia, en la que se recogía la orina del paciente en un matraz llamado matula y se sometía a una inspección detallada basada en cuatro criterios: Color, Consistencia, Olor y presencia de Precipitado. Se creía que las diferentes características de la orina correspondían a desequilibrios corporales y a regiones específicas del organismo. Reflejaban un enfoque holístico del diagnóstico. El énfasis de la MTC en la observación del paciente y el análisis de los signos corporales, incluyendo un examen detallado de la orina, demuestra una comprensión sofisticada de los indicadores corporales de salud y enfermedad. Los cuatro métodos de diagnóstico proporcionan un marco integral para evaluar el estado del paciente, mientras que los criterios detallados para la inspección de orina ilustran un enfoque sistemático para extraer información diagnóstica de los fluidos corporales.

En el Antiguo Egipto, ya entre el 2630 y el 2611 a.C., la comprensión médica, documentada en textos como el Papiro de Edwin Smith, se centraba en la aplicación del diagnóstico al tratamiento, basándose principalmente en la observación de los síntomas. El Papiro de Ebers, que data de alrededor del 1550 a.C., también detallaba el conocimiento médico; sin embargo, los profesionales de la salud de esa época carecían de los medios para realizar pruebas en el sentido moderno, y se basaban en cambio en la identificación de problemas a través de síntomas relacionados con diferentes organos como el tracto digestivo, el sistema cardiovascular, el hígado, el bazo y el ciclo menstrual. Los antiguos egipcios creían que el cuerpo tenía veintidós vasos sanguíneos conectados a sustancias esenciales como la sangre, el aire y la mucosidad, lo que refleja un intento temprano por comprender sus conexiones fisiológicas. Cabe destacar como ejemplo que desarrollaron formas tempranas de pruebas de embarazo, documentadas en el Papiro Médico de Berlín y el Papiro de Carlsberg, que datan del Imperio Medio, alrededor del 2040-1782 a.C., que consistían en que una mujer orinara sobre bolsas de cebada y trigo y la germinación de los granos se interpretaba como un resultado positivo. Este bioensayo temprano, en el que se utilizó una respuesta biológica como la germinación para detectar un estado fisiológico como el embarazo representa un paso fundamental hacia las pruebas de laboratorio, entrelazando la observación práctica con sus creencias espirituales. Otras pruebas interesantes mencionadas en el Papiro de Carlsberg incluían el uso de excrementos de hipopótamo y ajo para evaluar afecciones relacionadas también con el embarazo. Sin embargo, la práctica de la medicina en el antiguo Egipto estaba estrechamente relacionada con la magia y los hechizos religiosos, que se consideraban esenciales tanto para el diagnóstico como para el tratamiento, junto con remedios empíricos. Además de la orina, otros fluidos corporales como la sangre menstrual, la leche y el semen tenían un significado simbólico y, en ocasiones, había rituales vinculado a las creencias sobre el nacimiento, el renacimiento y la salud general dentro de su marco cultural. La comprensión egipcia de estos fluidos corporales revela un contexto cultural más profundo donde estas sustancias estaban imbuidas de un significado más allá de su naturaleza física.

En la antigua Babilonia, alrededor de 1069-1046 a.C., el Manual de Diagnóstico escrito por Esagil-kin-apli marcó un avance al introducir el empirismo, la lógica y racionalidad en el diagnóstico de enfermedades. Este texto enfatizaba la observación cuidadosa de los síntomas y el uso de reglas lógicas para combinar estas observaciones con un diagnóstico y pronóstico. Los médicos babilónicos ponían minuciosa atención al cuerpo del paciente, anotando meticulosamente cualquier signo que pudiera ser relevante para la enfermedad, incluyendo evaluaciones detalladas de la temperatura corporal mediante el tacto y las características de la flema en casos de neumonía. Los médicos se categorizaban en Asu, los que trataban las enfermedades empíricamente, y Asipu, los que se basaban en conjuros mágicos. Ambos ocupaban posiciones respetadas dentro de la sociedad y reconocían el origen sobrenatural de las enfermedades. La medicina babilónica, aunque aún arraigada en creencias sobrenaturales, demostró una notable progresión hacia la observación sistemática y el razonamiento lógico en el diagnóstico, sentando las bases tempranas del método científico en medicina. El enfoque estructurado del Manual de Diagnóstico para vincular los síntomas observados con diagnósticos específicos sugiere un sistema de razonamiento médico más formalizado en comparación con el enfoque basado en síntomas, predominante en el antiguo Egipto. Si bien las explicaciones sobrenaturales para las enfermedades eran comunes, el enfoque de los Asu en los tratamientos empíricos indica una comprensión creciente de las causas naturales de las enfermedades.

En la antigua Grecia y Roma, la Teoría Humoral, atribuida a Hipócrates (460- 370 a.C.) y posteriormente elaborada por Galeno (129-199/216 d.C.), se convirtió en el paradigma médico dominante. Esta teoría proponía que el cuerpo estaba compuesto por cuatro humores: sangre, flema, bilis amarilla y negra, y que la salud resultaba de un equilibrio perfecto entre ellos, mientras que la enfermedad era causada por su desequilibrio.La Teoría Humoral, a pesar de su posterior refutación, marcó un cambio significativo en Grecia hacia explicaciones naturalistas de las enfermedades. La adopción y expansión romana de estas ideas, junto con su enfoque en la salud pública, indican una comprensión temprana de la prevención de enfermedades a nivel poblacional. La medicina romana, fuertemente influenciada por los griegos, incorporó métodos de diagnóstico como la lectura del pulso, donde los médicos desarrollaron clasificaciones intrincadas creyendo que los diferentes tipos de pulso indicaban dolencias específicas, y el análisis de orina que podía incluir la degustación permitía identificar ciertos sabores y colores asociados con enfermedades y la palpación física. Si bien también tenían creencias espirituales, los médicos romanos, al igual que sus homólogos griegos, se basaban en observaciones naturalistas en lugar de únicamente en rituales espirituales para el diagnóstico. Los romanos también hicieron contribuciones significativas a la salud pública y la higiene, comprendiendo la importancia del saneamiento y el agua potable para prevenir la propagación de enfermedades, como lo demuestra la construcción de acueductos y sistemas de alcantarillado...... 

Leer el artículo completo

(*)  Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 30 de Junio  
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina

martes, 24 de junio de 2025

1253- Modelo seis sigma con analitos urinarios

Qian Liu, Guangrong Bian, Xinkuan Chen, Jingjing Han, Ying Chen, Menglin Wang, Fumeng Yang. Aplicación de un modelo seis sigma para evaluar el rendimiento analítico de analitos bioquímicos urinarios y diseñar para estos ensayos una estrategia de control de calidad estadístico basada en el riesgo: un estudio multicéntrico. J Clin Lab Anal. 2021; 35(11):e24059. Department of Laboratory Medicine, The Second People's Hospital of Lianyungang, Lianyungang, China.

Resumen

Antecedentes: El modelo seis sigma se ha utilizado ampliamente en la gestión de calidad de laboratorios clínicos. En este estudio, primero aplicamos el modelo seis sigma para (a) evaluar el rendimiento analítico de analitos bioquímicos urinarios en cinco laboratorios, (b) diseñar estrategias de control estadístico de calidad (CSC) basadas en riesgos, y (c) formular medidas de mejora para cada analito cuando fuera necesario.

Métodos: Se recopilaron datos de control de calidad interno (CCI) y evaluación de calidad externa (ACE) de analitos bioquímicos urinarios de cinco laboratorios, y se calculó el valor sigma de cada analito con base en los coeficientes de variación, el sesgo y el error total permitido (ET). Posteriormente, se generaron gráficos de decisión del método sigma normalizado para estos analitos bioquímicos urinarios. Se formularon estrategias de CCI basadas en el riesgo y medidas de mejora para cada laboratorio, según el diagrama de flujo de las reglas sigma de Westgard, incluyendo el tamaño de las series y el índice de objetivo de calidad (IGC).

Resultados: Los valores sigma de los analitos bioquímicos urinarios presentaron diferencias significativas en distintos niveles de control de calidad. Si bien se utilizaron plataformas de detección idénticas con reactivos compatibles, también se observaron diferencias en estos analitos entre laboratorios. Se formularon estrategias de control de calidad estadístico (SQC) basadas en el riesgo para analitos bioquímicos urinarios, basándose en el diagrama de flujo de las reglas sigma de Westgard, incluyendo el tamaño de la serie y el rendimiento analítico. Se implementaron medidas de mejora adecuadas para los analitos bioquímicos urinarios con un rendimiento analítico inferior a seis sigma, según el cálculo del QGI.

Conclusiones:  En sistemas de laboratorio con múltiples ubicaciones, un modelo seis sigma es una excelente herramienta de gestión de calidad y puede evaluar cuantitativamente el desempeño analítico y guiar el desarrollo de una estrategia de control de calidad correcto (SQC) basada en riesgos y la implementación de medidas de mejora.

1- Introducción

Los analitos bioquímicos cuantitativos urinarios incluyen principalmente potasio (K), sodio (Na), cloruro (Cl), calcio (Ca), fósforo (P), glucosa (GLU), urea, creatinina (Crea), proteína total (TP) y microalbúmina (mALB), y sus aplicaciones clínicas se están volviendo cada vez más comunes. Los niveles de K, Na, Cl, Ca y P reflejan las funciones de excreción y reabsorción de los riñones. La detección de los niveles de GLU se utiliza principalmente para el diagnóstico auxiliar de diabetes.  Los niveles de urea, Crea, TP y mALB reflejan principalmente el grado de daño renal causado por varias enfermedades. 

Con la aplicación generalizada de analitos bioquímicos urinarios en clínicas, las capacidades de prueba de los laboratorios se están convirtiendo cada vez más en un desafío. Por lo tanto, los laboratorios necesitan urgentemente diseñar una estrategia de evaluación de calidad para evaluar el desempeño analítico de los analitos bioquímicos urinarios.

Como herramienta importante de gestión de calidad, el modelo seis sigma fue introducido por primera vez en los laboratorios clínicos por Nevalainen et al. para evaluar el rendimiento de un proceso analítico. Como parámetro importante para evaluar el rendimiento analítico de los laboratorios, la métrica sigma presenta una ventaja significativa en la evaluación cuantitativa. Una vez que el rendimiento analítico del laboratorio alcanza seis sigma, se producen solo 3,4 errores por cada millón de resultados de pruebas (la tasa de defectos por millón es de 3,4), y la capacidad de detección del laboratorio alcanza un nivel de "clase mundial".

El modelo seis sigma se compone principalmente de tres variables: el error total permitido (TEa), el sesgo y el coeficiente de variación (CV). El sesgo refleja la veracidad de los analitos y el CV refleja su imprecisión; ambos representan el rendimiento analítico del sistema analítico del laboratorio. Sin embargo, el TEa está estrechamente relacionado con el objetivo de calidad seleccionado por el laboratorio y no con el rendimiento analítico del sistema analítico en sí. 

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 27 de Junio
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


viernes, 20 de junio de 2025

1252- Control de calidad: aprendizaje automático en tiempo real basado en el paciente

Nathan Lorde, Shivani Mahapatra, Tejas Kalaria. Editor: Jae-Ho Han. Aprendizaje automático para el control de calidad en tiempo real basado en el paciente (PBRTQC), detección de errores analíticos y preanalíticos en el laboratorio clínico. Blood Sciences, Black Country Pathology Services, The Royal Wolverhampton NHS Trust, Wolverhampton, UK

Resumen

El campo en rápida evolución del aprendizaje automático (AA), junto con la inteligencia artificial en sentido amplio, está revolucionando muchas áreas de la atención médica, incluida el  laboratorio de medicina (LM). La fusión de los campos del AA y los procesos de control de calidad en tiempo real basado en el paciente (PBRTQC) podría mejorar los algoritmos tradicionales de PBRTQC y de detección de errores en el laboratorio. Esta revisión narrativa analiza estudios publicados sobre el uso del AA para la detección de errores sistemáticos, no sistemáticos y combinaciones de diferentes tipos de errores en laboratorios clínicos. Los estudios analizados utilizaron el AA para detectar sesgos, la necesidad de recalibración, muestras contaminadas con fluido intravenoso o EDTA, análisis tardío de muestras, errores de sangre incorrecta en el tubo, interferencias o una combinación de diferentes tipos de errores, comparando el rendimiento de los modelos de AA con validadores humanos o algoritmos tradicionales de PBRTQC. También se han analizado brevemente las ventajas, limitaciones, la creación de modelos de AA estandarizados, aspectos éticos y regulatorios, y posibles desarrollos futuros.

1. Introducción

Los laboratorios clínicos se enfrentan a una demanda de pruebas cada vez mayor, con un aumento anual del 8% al 10% en la carga de trabajo. Además, algunos sistemas de salud han optado por modelos consolidados de servicios de patología para mejorar la eficiencia. Estos cambios en la demanda y el modelo operativo llevan a que los grandes laboratorios alberguen numerosos analizadores para el mismo conjunto de pruebas, operando en paralelo. Uno de los desafíos de dicha transformación, en comparación con los laboratorios más pequeños, es el riesgo de que los validadores técnicos y clínicos humanos se vean abrumados por el volumen y la rotación de los datos. 

Aunque el cerebro humano puede almacenar grandes cantidades de información, las limitaciones en la cantidad de información que puede procesar y la velocidad a la que se procesa la información son bien conocidas. Con la creciente complejidad de la entrada (por ejemplo, más flujos de datos paralelos, repertorio de pruebas más amplio, grupo de pacientes más amplio), el tiempo de procesamiento de la información se alarga (Ley de Hick). La autorización manual de resultados, como se emplea tradicionalmente, de grandes volúmenes de datos de laboratorio tan complejos es un desafío y podría llevar a menores posibilidades de detección de errores y a un mayor riesgo de publicación de resultados erróneos, o bien obstaculizar el progreso hacia mejoras en la detección de errores ( Figura 1 ).

Todos los laboratorios clínicos tienen programas de control de calidad interno ( IQC ) que utilizan la medición de muestras de control de calidad (QC) en momentos específicos. Sin embargo, este enfoque tiene varias limitaciones. Para enumerar algunos: el  IQC es retrospectivo en lugar de en tiempo real y, por lo tanto, se puede detectar un cambio significativo varias horas después. Se sabe que la suposición inherente al programa de  IQC de que los errores se mantienen hasta la siguiente ejecución de QC, no es el caso para todos los errores. Además, el costo de obtener material de QC para cada prueba y la falta ocasional de conmutabilidad de los materiales de QC plantean desafíos adicionales. La naturaleza retrospectiva del  IQC  tradicional en particular puede resultar en la necesidad de repetir muchos o todos los análisis hasta el punto del último resultado satisfactorio de  IQC, lo que genera una mayor carga para el personal del laboratorio, incluida la posibilidad de tener que contactar directamente a los médicos si un análisis repetido arroja un resultado significativamente diferente del publicado anteriormente. Además, las formas tradicionales de  IQC  no evalúan otros aspectos del proceso de prueba total, como los problemas de transporte de muestras en la fase pre-analítica. 

Los datos de pacientes cuidadosamente aprovechados podrían contribuir al control de calidad y al reconocimiento de patrones. El control de calidad en tiempo real basado en el paciente (PBRTQC) es una técnica que utiliza el monitoreo a largo plazo de los datos del paciente a través de cálculos como el promedio móvil (MA), la desviación estándar móvil (MovSD) o la mediana móvil (MM) para cada analito. El PBRTQC a menudo es superior al IQC periódico en la detección de sesgo o imprecisión recientemente introducidos y, por lo tanto, es particularmente útil para analitos que son difíciles de mantener bajo control durante períodos prolongados de tiempo. El PBRTQC requiere un modelado más complejo que los simples gráficos de IQC, ya que los cambios en las prácticas de solicitud en el transcurso de un día o una semana pueden afectar cualquier métrica en tiempo real. 

El PBRTQC no es adecuado para todas las pruebas, como los resultados cualitativos o semicuantitativos de bajo rendimiento, y las ejecuciones de IQC seguirán siendo importantes en escenarios como los controles posteriores al mantenimiento o la calibración. Además, la monitorización simple de estadísticas de resumen, como MA o MM, debe permitir límites suficientemente amplios para que el ruido de la variación aleatoria no provoque interrupciones e investigaciones innecesarias. Sin embargo, estos límites deben ser lo suficientemente estrictos como para detectar errores sistemáticos significativos. Otra limitación clave es que la mayoría de los métodos actuales de PBTRTQC no suelen detectar errores puntuales aleatorios .........


(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 24 de Junio
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina

lunes, 16 de junio de 2025

1251- Indicadores de calidad en el laboratorio clínico

Laura Sciacovelli, Andrea Padoan, Ada Aita, Daniela Basso and Mario Plebani. Opinion Paper: Indicadores de calidad en el laboratorio de medicina: estado del arte, especificaciones de calidad y estrategias futuras. De Gruyter-Clin Chem Lab Med 2023; 61(4): 688–695. Laboratory Medicine Unit, University Hospital of Padova, Padova, Italy.

Resumen

En las últimas décadas, la calidad en el laboratorio de medicina ha evolucionado en sintonía con la transformación y los cambios (tecnológicos, científicos y organizativos) en este sector. Los profesionales de laboratorio se han enfrentado a grandes desafíos, a veces abrumados, pero también involucrados en este progreso. A nivel mundial, los profesionales de laboratorio y las sociedades científicas involucradas  han creado conciencia sobre la necesidad de identificar nuevas herramientas de aseguramiento de la calidad que sean efectivas para reducir la tasa de error y mejorar la seguridad del paciente, además de los procedimientos de Control de Calidad Interno (IQC) y la participación en los Esquemas de Evaluación de Calidad Externa (EQAS). El uso de Indicadores de Calidad (IC), diseñados específicamente para estos laboratorios, es efectivo para evaluar y monitorear todos los eventos críticos que ocurren en las diferentes fases del Proceso de Prueba Total (PTT), en particular, en las fases extraanalíticas. El Modelo de Indicadores de Calidad (MQI), propuesto por el Working Group “Laboratory Errors and Patient Safety” (WG-LEPS) of the International Federation of Clinical Chemistry and Laboratory Medicine (IFCC)) y validado por expertos en conferencias de consenso, representa una importante oportunidad para que el laboratorio clínico demuestre el uso de una herramienta eficaz de garantía de calidad adecuada para este propósito. El objetivo de este artículo es proporcionar una actualización del estado del arte en relación con los datos de los Indicadores de Calidad (IC) más utilizados, recopilados en 2021, y las Especificaciones de Calidad (EC) propuestas para su evaluación. Además, se propone una estrategia de futuro para mejorar el MQI y fomentar su uso en laboratorios clínicos de todo el mundo.

Introducción

El término "calidad" se utiliza principalmente en los laboratorios para referirse a la fiabilidad de su desempeño. Si bien todos los aspectos de este tema parecen estar definidos y conocidos, el continuo progreso en el laboratorio de medicina (LM) exige la revisión continua tanto de las características de calidad que se deben considerar como de los niveles de calidad que se deben alcanzar, con el fin de proporcionar un desempeño que garantice los mejores resultados clínicos posibles y la seguridad del paciente. El interés por la calidad en el LM ha cobrado cada vez mayor relevancia a medida que la evidencia científica destaca su papel crucial en el proceso de toma de decisiones clínicas y el manejo del paciente.

En las últimas décadas, como afirma Plebani, la calidad en el LM ha evolucionado en sintonía con la transformación y los cambios (tecnológicos, científicos y organizativos) en este sector. Los profesionales de laboratorio se han enfrentado a grandes desafíos, a veces abrumados, pero también involucrados en este progreso. Además, se han convertido en actores clave en la contribución a la definición de nuevos enfoques para el diagnóstico y la terapia. 

En los años cincuenta, las herramientas de garantía de calidad se centraron en el control de la calidad analítica diseñada para obtener resultados confiables, determinados manualmente o con el uso de sistemas analíticos precisos. Las herramientas de garantía de calidad en uso permitieron la evaluación y el seguimiento de los rendimientos analíticos, y su comparación con resultados previos dentro del mismo laboratorio (a través de un procedimiento de Control de Calidad Interno,(IQC) y/o con los resultados obtenidos por otros laboratorios a través de la participación en el Programa de Evaluación de Calidad Externa, (EQAP). El uso del IQC y la participación en EQAP han mejorado considerablemente la calidad de la fase intra-analítica, gracias también a los avances tecnológicos que conducen a una automatización cada vez mayor de los sistemas de diagnóstico.

En 1981, Lundberg introdujo el concepto del “brain to brain loop“ (bucle de cerebro a cerebro) según el cual las fases del proceso total de prueba (TTP) se extendieron y definieron en detalle. Sin embargo, solo después de varios años los profesionales de laboratorio adquirieron plena conciencia de la importancia del “bucle cerebro a cerebro” y de la necesidad de desarrollar nuevos sistemas de garantía de calidad para controlar todas las fases del TTP. De hecho, el estudio sobre el tipo y el origen de los errores asociados a las actividades del TTP, publicado en 1997 y 2007 por Plebani y Carraro, destacó la necesidad de evaluar y monitorear, no solo las fases intra-analíticas sino, sobre todo, las fases extra-analíticas, que se encontraron como las de mayor riesgo de error. 

Por lo tanto, se han instaurado sistemas de garantía de calidad además de los procedimientos de IQCy los EQAP. A nivel mundial, los profesionales de laboratorio y las sociedades científicas involucradas en el LM han aumentado la conciencia sobre la necesidad de identificar nuevas herramientas que sean efectivas para reducir la tasa de error y mejorar la seguridad del paciente.

En 2009, con el objetivo de impulsar las actividades diseñadas para controlar y medir la calidad del desempeño del laboratorio, the Working Group “Laboratory Errors and Patient Safety” (WG-LEPS) de la  International Federation of Clinical Chemistry and Laboratory Medicine (IFCC) implemento un Model de Indicadores de Calidad (MQI) para su uso en LM en todo el mundo.

El objetivo de este artículo es proporcionar una actualización del estado del arte sobre los datos de indicadores de calidad (IC) más utilizados, recopilados en 2021, y los estándares de calidad (SQ) propuestos para su evaluación. Además, se propone una estrategia de futuro para mejorar el MQI y fomentar su uso en LM de todo el mundo

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 20 de Junio
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina