lunes, 30 de junio de 2025

1255- Evolución histórica del laboratorio especializado (2)


Editor: Bagnarelli Aníbal E.
Fuente: Chat Geminis 2.5

Parte 1- Laboratorio clínico.

Parte 2- Laboratorio especializado
Parte 3- Laboratorio de alta complejidad

                                                    Parte 2- Laboratorio Especializado

1- Laboratorio de Quimica Clínica

La historia del laboratorio de química clínica es un recorrido fascinante desde las observaciones rudimentarias hasta los sistemas altamente automatizados y sofisticados que sustentan la medicina moderna. Su evolución puede dividirse, a grandes rasgos, en varios períodos clave:

I. Primeros comienzos (desde la Antigüedad hasta el siglo XIX):

  • Diagnóstico basado en la observación: Las primeras formas de diagnóstico se basaban en gran medida en la observación visual y sensorial de los fluidos corporales. Los médicos de la antigüedad, incluido Hipócrates, examinaban la orina para determinar su color, claridad e incluso sabor (la orina dulce indicaba diabetes).También observaron las propiedades físicas de la sangre y otras excreciones.

  • Análisis químico rudimentario: Si bien no se trata de química clínica tal como la conocemos, la base de este proceso se sembró con la comprensión temprana de la química. Por ejemplo, a finales del siglo XVII, Frederik Dekkers observó que la orina con proteínas formaba un precipitado al hervirse con ácido acético, un paso fundamental en el análisis de orina.

  • Surgimiento de la química y la fisiología: A finales del siglo XVIII y principios del XIX se produjo el surgimiento de la química orgánica y la química fisiológica, que proporcionaron una base científica para analizar los componentes del cuerpo.Esta época marcó los primeros vínculos entre los laboratorios y la investigación, la enseñanza y, finalmente, el diagnóstico clínico en el ámbito hospitalario, especialmente en Francia y Alemania.

  • Métodos analíticos simples: A mediados del siglo XIX, los avances en la química orgánica permitieron la aplicación de técnicas de análisis de fluidos para el diagnóstico. El análisis de orina (p. ej., para albúmina, cetonas, bilirrubina y urea) y los primeros análisis de sangre (p.ej., glucosa, colesterol y pH) comenzaron a adquirir relevancia. Estos métodos eran mayoritariamente manuales y se basaban en técnicas como la colorimetría y la titulación.

II. El amanecer del laboratorio clínico moderno (finales del siglo XIX y mediados del siglo XX):

  • Formalización de los laboratorios clínicos: A finales del siglo XIX y principios del XX, los laboratorios clínicos se implementaron ampliamente en Europa y Estados Unidos. Los hospitales reconocieron la importancia de contar con instalaciones centralizadas para las pruebas diagnósticas.

  • Profesionalización de los químicos clínicos: A medida que los métodos se volvieron más complejos, surgió una nueva clase de especialistas: químicos, farmaceuticos, bioquímicos clínicos, o científicos de laboratorio, para dirigir la investigación y el trabajo rutinario en los mismos. Se empezaron a formar sociedades profesionales con sus diversaa titulaciones en Europa (p.ej., la Société Française de Biologie Clinique en 1942) y posteriormente AACC en Estados Unidos.

  • Nuevas pruebas y métodos de diagnóstico: A principios del siglo XX se desarrollaron nuevos métodos basados en colorimetría visual en pequeños volúmenes de muestra, lo que impulsó el desarrollo de la química clínica. También este período fue crucial para el desarrollo de pruebas diagnósticas que impulsaron la "época dorada" del desarrollo de fármacos, como el seguimiento de los niveles de glucosa en sangre y orina para el tratamiento con insulina.

  • Automatización inicial: mediados del siglo XX, particularmente de 1948 a 1960, fue una época con la introducción de tecnologías innovadoras como el tubo Vacutainer (para la recolección de muestras), la electroforesis y el radioinmunoensayo. Sin embargo, los laboratorios todavía eran en gran medida manuales, con un uso extensivo de cristalería y técnicas laboriosas.

III. La era de la automatización y la especialización (mediados del siglo XX hasta la actualidad):

  • El autoanalizador (década de 1950): este invento de Leonard Skeggs supuso un punto de inflexión revolucionario.El primer analizador automatizado de química clínica podía realizar numerosas pruebas simultáneamente, lo que aumentaba drásticamente la eficiencia, reducía los errores y estandarizaba los resultados. Esto sentó las bases para las pruebas automatizadas modernas.

  • Avances tecnológicos: La integración de la espectrofotometría, los inmunoensayos y los métodos enzimáticos en analizadores automatizados amplió aún más el alcance y la precisión de las pruebas. El desarrollo de los inmunoensayos por Rosalyn Yalow y Solomon Berson en la década de 1950 (Premio Nobel en 1977) supuso un gran avance, permitiendo pruebas diagnósticas de alta sensibilidad.

  • Especialización en análisis clínicos: a medida que se produjeron avances técnicos, el campo comenzó a dividirse en especializaciones en análisis clínicos cada vez más sofisticado en sangre y orina.

  • Gestión de datos e informatización: A principios de la década de 1980 surgieron los primeros sistemas de información clínica (LIS) para que los laboratorios gestionaran los datos de las pruebas de los pacientes. A finales del siglo XX, se fusionaron el hardware y el software de los analizadores, lo que dio lugar a sofisticados sistemas de gestión de datos y soluciones informáticas.Esto mejoró la eficiencia, la productividad y el cumplimiento normativo.

  • Automatización total de laboratorio (TLA): impulsados por las crecientes demandas de eficiencia, precisión y tiempos de respuesta rápidos, los sistemas TLA integran tecnologías avanzadas en las fases preanalíticas, analíticas y posanalíticas. Esto agiliza los flujos de trabajo, reduce la intervención manual y mejora el control de calidad.

  • Calidad y normativa: La creciente complejidad e importancia de las pruebas de laboratorio condujo a un mayor énfasis en la calidad de sus resultados. Las normativas y certificaciones (p.ej., ISO y CLIA en EE. UU.) adquirieron una relevancia creciente para garantizar precisión y fiabilidad.

IV. Tendencias e innovaciones futuras:

  • Miniaturización y pruebas en el punto de atención (POCT): la tendencia hacia analizadores más pequeños y portátiles está acercando los diagnósticos a los pacientes, reduciendo los tiempos de respuesta y haciendo que las pruebas sean accesibles en diversos entornos (por ejemplo, ubicaciones remotas, ambulancias, atención domiciliaria).

  • Integración de IA y aprendizaje automático: se están integrando algoritmos de IA para analizar conjuntos de datos complejos, identificar patrones, predecir la progresión de enfermedades e incluso recomendar diagnósticos.Esto optimizará los flujos de trabajo, interpretará los resultados y mejorará el análisis de datos.

  • Conectividad mejorada y uso compartido de datos: la integración perfecta de los analizadores con plataformas de salud digital, el monitoreo remoto y la colaboración en tiempo real entre proveedores de atención médica se está volviendo crucial para una atención eficiente al paciente y una toma de decisiones informada.

  • Medicina personalizada: Los avances en el diagnóstico molecular, incluida la secuenciación de próxima generación y las biopsias líquidas, están permitiendo tratamientos personalizados e intervenciones más tempranas basadas en las necesidades individuales de cada paciente.

  • Enfoque en la eficiencia y la dotación de personal: la escasez constante de personal está impulsando la necesidad de una automatización aún mayor para agilizar las operaciones, reducir los errores humanos y permitir que el personal de laboratorio se concentre en tareas más complejas.

En esencia, el laboratorio de química clínica se ha transformado desde un proceso manual y laborioso a un componente altamente automatizado, basado en datos y cada vez más inteligente de la atención médica moderna, adaptándose continuamente para brindar información de diagnóstico más rápida, más precisa y más completa para la atención del paciente.

Leer el artículo completo

(*)  Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 03 de Julio
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina

viernes, 27 de junio de 2025

1254- Evolución histórica del Laboratorio Clínico (1)

Editor: Bagnarelli Aníbal E.
Fuente: Chat Geminis 2.5

  • Parte 1- Laboratorio clínico
  • Parte 2- Laboratorio especializado
  • Parte 3- Laboratorio de alta complejidad
  • Parte 4- Laboratorio de Fisiología

Parte 1- Laboratorio Clínico

Resumen

La evolución del laboratorio de bioquímica y patología clínica en sus diversas denominaciones (en adelante laboratorio clínico) representa una trayectoria notable, desde prácticas diagnósticas rudimentarias hasta instalaciones sofisticadas, automatizadas y altamente especializadas, indispensables para la atención médica moderna. Este informe rastrea esta progresión histórica, destacando los desarrollos paralelos e interconectados entre ellos. Examina cómo los descubrimientos científicos fundamentales, las innovaciones tecnológicas transformadoras, la profesionalización de la ciencia de laboratorio y el impacto catalizador de los acontecimientos globales han moldeado colectivamente estas complejas entidades. La narrativa culmina en la era de la medicina personalizada, impulsada por los avances genómicos, y aborda los profundos desafíos y las aceleraciones generadas por las recientes pandemias, subrayando el papel crucial y en constante evolución de los laboratorios en la salud global.

1. Introducción: Definición del laboratorio moderno y sus raíces históricas

1.1. Conceptualización del laboratorio clínico de alta complejidad

Un laboratorio clínico moderno y de alta complejidad se caracteriza por su carácter multidisciplinario, ya que cuenta con instrumentación avanzada y personal especializado. Su función crucial va más allá de las simples pruebas, abarcando el diagnóstico, el pronóstico, la monitorización del tratamiento y la vigilancia de la salud pública. Estos laboratorios integran diversas disciplinas científicas, desde la química clínica y la microbiología hasta el diagnóstico molecular y la patología, para proporcionar información completa y precisa, esencial para la atención al paciente y la gestión de la salud de la población. Esta definición contemporánea sirve como referencia para medir la trayectoria histórica de estas instituciones vitales.

1.2. Precursores tempranos: de las observaciones antiguas a los talleres alquímicos

Más allá del examen directo del paciente, los primeros talleres especializados, con raíces en la alquimia, la metalurgia y la farmacia, también contribuyeron a la génesis conceptual del laboratorio. Estos espacios se dedicaban a actividades específicas que implicaban el calentamiento, el tratamiento y la separación de sustancias, sentando un precedente para los entornos experimentales controlados.Las prácticas de la uroscopia antigua y los talleres alquímicos, aunque aparentemente dispares y carentes de la comprensión científica moderna, compartían un impulso subyacente común: el impulso humano de analizar sistemáticamente las sustancias y observar los cambios con fines prácticos, ya fueran médicos o materiales. Esta curiosidad precientífica y el establecimiento de espacios dedicados a tales investigaciones sentaron las bases cognitivas y prácticas para los métodos de laboratorio más rigurosos que surgirían mucho más tarde. La idea fundamental de un laboratorio, por lo tanto, es anterior al método científico formal, y evolucionó a partir de la necesidad práctica y del deseo humano inherente de comprender y manipular el mundo natural.

1.3. Ámbito geográfico y periodización

Este informe se centra explícitamente en las trayectorias históricas de los LBPC , reconociendo sus trayectorias de desarrollo, distintas pero a menudo interconectadas. El marco cronológico abarca desde la antigüedad hasta los siglos XVII, XVIII, XIX y XX, y hasta el siglo XXI, ofreciendo una narrativa estructurada de esta compleja evolución.

Las primeras formas de dignosticos y pruebas clínicas se remontan a civilizaciones antiguas, donde se empleaban métodos rudimentarios para comprender las enfermedades.

La antigua China, fue testigo del desarrollo de la Medicina Tradicional China (MTC), cuyos principios se describen en el Canon Interno del Emperador Amarillo, que data del siglo I o II a.C. La MTC estableció cuatro métodos diagnósticos principales que se siguen practicando en la actualidad: Palpación, Auscultación y Olfato, Indagación y Palpación Un aspecto importante de la medicina china antigua fue la uroscopia, en la que se recogía la orina del paciente en un matraz llamado matula y se sometía a una inspección detallada basada en cuatro criterios: Color, Consistencia, Olor y presencia de Precipitado. Se creía que las diferentes características de la orina correspondían a desequilibrios corporales y a regiones específicas del organismo. Reflejaban un enfoque holístico del diagnóstico. El énfasis de la MTC en la observación del paciente y el análisis de los signos corporales, incluyendo un examen detallado de la orina, demuestra una comprensión sofisticada de los indicadores corporales de salud y enfermedad. Los cuatro métodos de diagnóstico proporcionan un marco integral para evaluar el estado del paciente, mientras que los criterios detallados para la inspección de orina ilustran un enfoque sistemático para extraer información diagnóstica de los fluidos corporales.

En el Antiguo Egipto, ya entre el 2630 y el 2611 a.C., la comprensión médica, documentada en textos como el Papiro de Edwin Smith, se centraba en la aplicación del diagnóstico al tratamiento, basándose principalmente en la observación de los síntomas. El Papiro de Ebers, que data de alrededor del 1550 a.C., también detallaba el conocimiento médico; sin embargo, los profesionales de la salud de esa época carecían de los medios para realizar pruebas en el sentido moderno, y se basaban en cambio en la identificación de problemas a través de síntomas relacionados con diferentes organos como el tracto digestivo, el sistema cardiovascular, el hígado, el bazo y el ciclo menstrual. Los antiguos egipcios creían que el cuerpo tenía veintidós vasos sanguíneos conectados a sustancias esenciales como la sangre, el aire y la mucosidad, lo que refleja un intento temprano por comprender sus conexiones fisiológicas. Cabe destacar como ejemplo que desarrollaron formas tempranas de pruebas de embarazo, documentadas en el Papiro Médico de Berlín y el Papiro de Carlsberg, que datan del Imperio Medio, alrededor del 2040-1782 a.C., que consistían en que una mujer orinara sobre bolsas de cebada y trigo y la germinación de los granos se interpretaba como un resultado positivo. Este bioensayo temprano, en el que se utilizó una respuesta biológica como la germinación para detectar un estado fisiológico como el embarazo representa un paso fundamental hacia las pruebas de laboratorio, entrelazando la observación práctica con sus creencias espirituales. Otras pruebas interesantes mencionadas en el Papiro de Carlsberg incluían el uso de excrementos de hipopótamo y ajo para evaluar afecciones relacionadas también con el embarazo. Sin embargo, la práctica de la medicina en el antiguo Egipto estaba estrechamente relacionada con la magia y los hechizos religiosos, que se consideraban esenciales tanto para el diagnóstico como para el tratamiento, junto con remedios empíricos. Además de la orina, otros fluidos corporales como la sangre menstrual, la leche y el semen tenían un significado simbólico y, en ocasiones, había rituales vinculado a las creencias sobre el nacimiento, el renacimiento y la salud general dentro de su marco cultural. La comprensión egipcia de estos fluidos corporales revela un contexto cultural más profundo donde estas sustancias estaban imbuidas de un significado más allá de su naturaleza física.

En la antigua Babilonia, alrededor de 1069-1046 a.C., el Manual de Diagnóstico escrito por Esagil-kin-apli marcó un avance al introducir el empirismo, la lógica y racionalidad en el diagnóstico de enfermedades. Este texto enfatizaba la observación cuidadosa de los síntomas y el uso de reglas lógicas para combinar estas observaciones con un diagnóstico y pronóstico. Los médicos babilónicos ponían minuciosa atención al cuerpo del paciente, anotando meticulosamente cualquier signo que pudiera ser relevante para la enfermedad, incluyendo evaluaciones detalladas de la temperatura corporal mediante el tacto y las características de la flema en casos de neumonía. Los médicos se categorizaban en Asu, los que trataban las enfermedades empíricamente, y Asipu, los que se basaban en conjuros mágicos. Ambos ocupaban posiciones respetadas dentro de la sociedad y reconocían el origen sobrenatural de las enfermedades. La medicina babilónica, aunque aún arraigada en creencias sobrenaturales, demostró una notable progresión hacia la observación sistemática y el razonamiento lógico en el diagnóstico, sentando las bases tempranas del método científico en medicina. El enfoque estructurado del Manual de Diagnóstico para vincular los síntomas observados con diagnósticos específicos sugiere un sistema de razonamiento médico más formalizado en comparación con el enfoque basado en síntomas, predominante en el antiguo Egipto. Si bien las explicaciones sobrenaturales para las enfermedades eran comunes, el enfoque de los Asu en los tratamientos empíricos indica una comprensión creciente de las causas naturales de las enfermedades.

En la antigua Grecia y Roma, la Teoría Humoral, atribuida a Hipócrates (460- 370 a.C.) y posteriormente elaborada por Galeno (129-199/216 d.C.), se convirtió en el paradigma médico dominante. Esta teoría proponía que el cuerpo estaba compuesto por cuatro humores: sangre, flema, bilis amarilla y negra, y que la salud resultaba de un equilibrio perfecto entre ellos, mientras que la enfermedad era causada por su desequilibrio.La Teoría Humoral, a pesar de su posterior refutación, marcó un cambio significativo en Grecia hacia explicaciones naturalistas de las enfermedades. La adopción y expansión romana de estas ideas, junto con su enfoque en la salud pública, indican una comprensión temprana de la prevención de enfermedades a nivel poblacional. La medicina romana, fuertemente influenciada por los griegos, incorporó métodos de diagnóstico como la lectura del pulso, donde los médicos desarrollaron clasificaciones intrincadas creyendo que los diferentes tipos de pulso indicaban dolencias específicas, y el análisis de orina que podía incluir la degustación permitía identificar ciertos sabores y colores asociados con enfermedades y la palpación física. Si bien también tenían creencias espirituales, los médicos romanos, al igual que sus homólogos griegos, se basaban en observaciones naturalistas en lugar de únicamente en rituales espirituales para el diagnóstico. Los romanos también hicieron contribuciones significativas a la salud pública y la higiene, comprendiendo la importancia del saneamiento y el agua potable para prevenir la propagación de enfermedades, como lo demuestra la construcción de acueductos y sistemas de alcantarillado...... 

Leer el artículo completo

(*)  Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 30 de Junio  
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina

martes, 24 de junio de 2025

1253- Modelo seis sigma con analitos urinarios

Qian Liu, Guangrong Bian, Xinkuan Chen, Jingjing Han, Ying Chen, Menglin Wang, Fumeng Yang. Aplicación de un modelo seis sigma para evaluar el rendimiento analítico de analitos bioquímicos urinarios y diseñar para estos ensayos una estrategia de control de calidad estadístico basada en el riesgo: un estudio multicéntrico. J Clin Lab Anal. 2021; 35(11):e24059. Department of Laboratory Medicine, The Second People's Hospital of Lianyungang, Lianyungang, China.

Resumen

Antecedentes: El modelo seis sigma se ha utilizado ampliamente en la gestión de calidad de laboratorios clínicos. En este estudio, primero aplicamos el modelo seis sigma para (a) evaluar el rendimiento analítico de analitos bioquímicos urinarios en cinco laboratorios, (b) diseñar estrategias de control estadístico de calidad (CSC) basadas en riesgos, y (c) formular medidas de mejora para cada analito cuando fuera necesario.

Métodos: Se recopilaron datos de control de calidad interno (CCI) y evaluación de calidad externa (ACE) de analitos bioquímicos urinarios de cinco laboratorios, y se calculó el valor sigma de cada analito con base en los coeficientes de variación, el sesgo y el error total permitido (ET). Posteriormente, se generaron gráficos de decisión del método sigma normalizado para estos analitos bioquímicos urinarios. Se formularon estrategias de CCI basadas en el riesgo y medidas de mejora para cada laboratorio, según el diagrama de flujo de las reglas sigma de Westgard, incluyendo el tamaño de las series y el índice de objetivo de calidad (IGC).

Resultados: Los valores sigma de los analitos bioquímicos urinarios presentaron diferencias significativas en distintos niveles de control de calidad. Si bien se utilizaron plataformas de detección idénticas con reactivos compatibles, también se observaron diferencias en estos analitos entre laboratorios. Se formularon estrategias de control de calidad estadístico (SQC) basadas en el riesgo para analitos bioquímicos urinarios, basándose en el diagrama de flujo de las reglas sigma de Westgard, incluyendo el tamaño de la serie y el rendimiento analítico. Se implementaron medidas de mejora adecuadas para los analitos bioquímicos urinarios con un rendimiento analítico inferior a seis sigma, según el cálculo del QGI.

Conclusiones:  En sistemas de laboratorio con múltiples ubicaciones, un modelo seis sigma es una excelente herramienta de gestión de calidad y puede evaluar cuantitativamente el desempeño analítico y guiar el desarrollo de una estrategia de control de calidad correcto (SQC) basada en riesgos y la implementación de medidas de mejora.

1- Introducción

Los analitos bioquímicos cuantitativos urinarios incluyen principalmente potasio (K), sodio (Na), cloruro (Cl), calcio (Ca), fósforo (P), glucosa (GLU), urea, creatinina (Crea), proteína total (TP) y microalbúmina (mALB), y sus aplicaciones clínicas se están volviendo cada vez más comunes. Los niveles de K, Na, Cl, Ca y P reflejan las funciones de excreción y reabsorción de los riñones. La detección de los niveles de GLU se utiliza principalmente para el diagnóstico auxiliar de diabetes.  Los niveles de urea, Crea, TP y mALB reflejan principalmente el grado de daño renal causado por varias enfermedades. 

Con la aplicación generalizada de analitos bioquímicos urinarios en clínicas, las capacidades de prueba de los laboratorios se están convirtiendo cada vez más en un desafío. Por lo tanto, los laboratorios necesitan urgentemente diseñar una estrategia de evaluación de calidad para evaluar el desempeño analítico de los analitos bioquímicos urinarios.

Como herramienta importante de gestión de calidad, el modelo seis sigma fue introducido por primera vez en los laboratorios clínicos por Nevalainen et al. para evaluar el rendimiento de un proceso analítico. Como parámetro importante para evaluar el rendimiento analítico de los laboratorios, la métrica sigma presenta una ventaja significativa en la evaluación cuantitativa. Una vez que el rendimiento analítico del laboratorio alcanza seis sigma, se producen solo 3,4 errores por cada millón de resultados de pruebas (la tasa de defectos por millón es de 3,4), y la capacidad de detección del laboratorio alcanza un nivel de "clase mundial".

El modelo seis sigma se compone principalmente de tres variables: el error total permitido (TEa), el sesgo y el coeficiente de variación (CV). El sesgo refleja la veracidad de los analitos y el CV refleja su imprecisión; ambos representan el rendimiento analítico del sistema analítico del laboratorio. Sin embargo, el TEa está estrechamente relacionado con el objetivo de calidad seleccionado por el laboratorio y no con el rendimiento analítico del sistema analítico en sí. 

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 27 de Junio
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


viernes, 20 de junio de 2025

1252- Control de calidad: aprendizaje automático en tiempo real basado en el paciente

Nathan Lorde, Shivani Mahapatra, Tejas Kalaria. Editor: Jae-Ho Han. Aprendizaje automático para el control de calidad en tiempo real basado en el paciente (PBRTQC), detección de errores analíticos y preanalíticos en el laboratorio clínico. Blood Sciences, Black Country Pathology Services, The Royal Wolverhampton NHS Trust, Wolverhampton, UK

Resumen

El campo en rápida evolución del aprendizaje automático (AA), junto con la inteligencia artificial en sentido amplio, está revolucionando muchas áreas de la atención médica, incluida el  laboratorio de medicina (LM). La fusión de los campos del AA y los procesos de control de calidad en tiempo real basado en el paciente (PBRTQC) podría mejorar los algoritmos tradicionales de PBRTQC y de detección de errores en el laboratorio. Esta revisión narrativa analiza estudios publicados sobre el uso del AA para la detección de errores sistemáticos, no sistemáticos y combinaciones de diferentes tipos de errores en laboratorios clínicos. Los estudios analizados utilizaron el AA para detectar sesgos, la necesidad de recalibración, muestras contaminadas con fluido intravenoso o EDTA, análisis tardío de muestras, errores de sangre incorrecta en el tubo, interferencias o una combinación de diferentes tipos de errores, comparando el rendimiento de los modelos de AA con validadores humanos o algoritmos tradicionales de PBRTQC. También se han analizado brevemente las ventajas, limitaciones, la creación de modelos de AA estandarizados, aspectos éticos y regulatorios, y posibles desarrollos futuros.

1. Introducción

Los laboratorios clínicos se enfrentan a una demanda de pruebas cada vez mayor, con un aumento anual del 8% al 10% en la carga de trabajo. Además, algunos sistemas de salud han optado por modelos consolidados de servicios de patología para mejorar la eficiencia. Estos cambios en la demanda y el modelo operativo llevan a que los grandes laboratorios alberguen numerosos analizadores para el mismo conjunto de pruebas, operando en paralelo. Uno de los desafíos de dicha transformación, en comparación con los laboratorios más pequeños, es el riesgo de que los validadores técnicos y clínicos humanos se vean abrumados por el volumen y la rotación de los datos. 

Aunque el cerebro humano puede almacenar grandes cantidades de información, las limitaciones en la cantidad de información que puede procesar y la velocidad a la que se procesa la información son bien conocidas. Con la creciente complejidad de la entrada (por ejemplo, más flujos de datos paralelos, repertorio de pruebas más amplio, grupo de pacientes más amplio), el tiempo de procesamiento de la información se alarga (Ley de Hick). La autorización manual de resultados, como se emplea tradicionalmente, de grandes volúmenes de datos de laboratorio tan complejos es un desafío y podría llevar a menores posibilidades de detección de errores y a un mayor riesgo de publicación de resultados erróneos, o bien obstaculizar el progreso hacia mejoras en la detección de errores ( Figura 1 ).

Todos los laboratorios clínicos tienen programas de control de calidad interno ( IQC ) que utilizan la medición de muestras de control de calidad (QC) en momentos específicos. Sin embargo, este enfoque tiene varias limitaciones. Para enumerar algunos: el  IQC es retrospectivo en lugar de en tiempo real y, por lo tanto, se puede detectar un cambio significativo varias horas después. Se sabe que la suposición inherente al programa de  IQC de que los errores se mantienen hasta la siguiente ejecución de QC, no es el caso para todos los errores. Además, el costo de obtener material de QC para cada prueba y la falta ocasional de conmutabilidad de los materiales de QC plantean desafíos adicionales. La naturaleza retrospectiva del  IQC  tradicional en particular puede resultar en la necesidad de repetir muchos o todos los análisis hasta el punto del último resultado satisfactorio de  IQC, lo que genera una mayor carga para el personal del laboratorio, incluida la posibilidad de tener que contactar directamente a los médicos si un análisis repetido arroja un resultado significativamente diferente del publicado anteriormente. Además, las formas tradicionales de  IQC  no evalúan otros aspectos del proceso de prueba total, como los problemas de transporte de muestras en la fase pre-analítica. 

Los datos de pacientes cuidadosamente aprovechados podrían contribuir al control de calidad y al reconocimiento de patrones. El control de calidad en tiempo real basado en el paciente (PBRTQC) es una técnica que utiliza el monitoreo a largo plazo de los datos del paciente a través de cálculos como el promedio móvil (MA), la desviación estándar móvil (MovSD) o la mediana móvil (MM) para cada analito. El PBRTQC a menudo es superior al IQC periódico en la detección de sesgo o imprecisión recientemente introducidos y, por lo tanto, es particularmente útil para analitos que son difíciles de mantener bajo control durante períodos prolongados de tiempo. El PBRTQC requiere un modelado más complejo que los simples gráficos de IQC, ya que los cambios en las prácticas de solicitud en el transcurso de un día o una semana pueden afectar cualquier métrica en tiempo real. 

El PBRTQC no es adecuado para todas las pruebas, como los resultados cualitativos o semicuantitativos de bajo rendimiento, y las ejecuciones de IQC seguirán siendo importantes en escenarios como los controles posteriores al mantenimiento o la calibración. Además, la monitorización simple de estadísticas de resumen, como MA o MM, debe permitir límites suficientemente amplios para que el ruido de la variación aleatoria no provoque interrupciones e investigaciones innecesarias. Sin embargo, estos límites deben ser lo suficientemente estrictos como para detectar errores sistemáticos significativos. Otra limitación clave es que la mayoría de los métodos actuales de PBTRTQC no suelen detectar errores puntuales aleatorios .........


(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 24 de Junio
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina

lunes, 16 de junio de 2025

1251- Indicadores de calidad en el laboratorio clínico

Laura Sciacovelli, Andrea Padoan, Ada Aita, Daniela Basso and Mario Plebani. Opinion Paper: Indicadores de calidad en el laboratorio de medicina: estado del arte, especificaciones de calidad y estrategias futuras. De Gruyter-Clin Chem Lab Med 2023; 61(4): 688–695. Laboratory Medicine Unit, University Hospital of Padova, Padova, Italy.

Resumen

En las últimas décadas, la calidad en el laboratorio de medicina ha evolucionado en sintonía con la transformación y los cambios (tecnológicos, científicos y organizativos) en este sector. Los profesionales de laboratorio se han enfrentado a grandes desafíos, a veces abrumados, pero también involucrados en este progreso. A nivel mundial, los profesionales de laboratorio y las sociedades científicas involucradas  han creado conciencia sobre la necesidad de identificar nuevas herramientas de aseguramiento de la calidad que sean efectivas para reducir la tasa de error y mejorar la seguridad del paciente, además de los procedimientos de Control de Calidad Interno (IQC) y la participación en los Esquemas de Evaluación de Calidad Externa (EQAS). El uso de Indicadores de Calidad (IC), diseñados específicamente para estos laboratorios, es efectivo para evaluar y monitorear todos los eventos críticos que ocurren en las diferentes fases del Proceso de Prueba Total (PTT), en particular, en las fases extraanalíticas. El Modelo de Indicadores de Calidad (MQI), propuesto por el Working Group “Laboratory Errors and Patient Safety” (WG-LEPS) of the International Federation of Clinical Chemistry and Laboratory Medicine (IFCC)) y validado por expertos en conferencias de consenso, representa una importante oportunidad para que el laboratorio clínico demuestre el uso de una herramienta eficaz de garantía de calidad adecuada para este propósito. El objetivo de este artículo es proporcionar una actualización del estado del arte en relación con los datos de los Indicadores de Calidad (IC) más utilizados, recopilados en 2021, y las Especificaciones de Calidad (EC) propuestas para su evaluación. Además, se propone una estrategia de futuro para mejorar el MQI y fomentar su uso en laboratorios clínicos de todo el mundo.

Introducción

El término "calidad" se utiliza principalmente en los laboratorios para referirse a la fiabilidad de su desempeño. Si bien todos los aspectos de este tema parecen estar definidos y conocidos, el continuo progreso en el laboratorio de medicina (LM) exige la revisión continua tanto de las características de calidad que se deben considerar como de los niveles de calidad que se deben alcanzar, con el fin de proporcionar un desempeño que garantice los mejores resultados clínicos posibles y la seguridad del paciente. El interés por la calidad en el LM ha cobrado cada vez mayor relevancia a medida que la evidencia científica destaca su papel crucial en el proceso de toma de decisiones clínicas y el manejo del paciente.

En las últimas décadas, como afirma Plebani, la calidad en el LM ha evolucionado en sintonía con la transformación y los cambios (tecnológicos, científicos y organizativos) en este sector. Los profesionales de laboratorio se han enfrentado a grandes desafíos, a veces abrumados, pero también involucrados en este progreso. Además, se han convertido en actores clave en la contribución a la definición de nuevos enfoques para el diagnóstico y la terapia. 

En los años cincuenta, las herramientas de garantía de calidad se centraron en el control de la calidad analítica diseñada para obtener resultados confiables, determinados manualmente o con el uso de sistemas analíticos precisos. Las herramientas de garantía de calidad en uso permitieron la evaluación y el seguimiento de los rendimientos analíticos, y su comparación con resultados previos dentro del mismo laboratorio (a través de un procedimiento de Control de Calidad Interno,(IQC) y/o con los resultados obtenidos por otros laboratorios a través de la participación en el Programa de Evaluación de Calidad Externa, (EQAP). El uso del IQC y la participación en EQAP han mejorado considerablemente la calidad de la fase intra-analítica, gracias también a los avances tecnológicos que conducen a una automatización cada vez mayor de los sistemas de diagnóstico.

En 1981, Lundberg introdujo el concepto del “brain to brain loop“ (bucle de cerebro a cerebro) según el cual las fases del proceso total de prueba (TTP) se extendieron y definieron en detalle. Sin embargo, solo después de varios años los profesionales de laboratorio adquirieron plena conciencia de la importancia del “bucle cerebro a cerebro” y de la necesidad de desarrollar nuevos sistemas de garantía de calidad para controlar todas las fases del TTP. De hecho, el estudio sobre el tipo y el origen de los errores asociados a las actividades del TTP, publicado en 1997 y 2007 por Plebani y Carraro, destacó la necesidad de evaluar y monitorear, no solo las fases intra-analíticas sino, sobre todo, las fases extra-analíticas, que se encontraron como las de mayor riesgo de error. 

Por lo tanto, se han instaurado sistemas de garantía de calidad además de los procedimientos de IQCy los EQAP. A nivel mundial, los profesionales de laboratorio y las sociedades científicas involucradas en el LM han aumentado la conciencia sobre la necesidad de identificar nuevas herramientas que sean efectivas para reducir la tasa de error y mejorar la seguridad del paciente.

En 2009, con el objetivo de impulsar las actividades diseñadas para controlar y medir la calidad del desempeño del laboratorio, the Working Group “Laboratory Errors and Patient Safety” (WG-LEPS) de la  International Federation of Clinical Chemistry and Laboratory Medicine (IFCC) implemento un Model de Indicadores de Calidad (MQI) para su uso en LM en todo el mundo.

El objetivo de este artículo es proporcionar una actualización del estado del arte sobre los datos de indicadores de calidad (IC) más utilizados, recopilados en 2021, y los estándares de calidad (SQ) propuestos para su evaluación. Además, se propone una estrategia de futuro para mejorar el MQI y fomentar su uso en LM de todo el mundo

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 20 de Junio
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



domingo, 15 de junio de 2025

15 de junio, Día del Bioquímico


¡¡¡ Feliz Día Colegas !!!


El 15 de junio se celebra en la R. Argentina el Día del Bioquímico, en conmemoración del nacimiento del Doctor Juan Antonio Sánchez, quien fue el propulsor de la creación de la Carrera de Bioquímica. El 28 de noviembre de 1919, luego de una extensa exposición del  eminente profesor frente al Concejo Directivo de la Facultad de Ciencias Médicas de la Universidad de Buenos Aires, se aprobó el proyecto que presento, y así surgió la profesión Bioquímica con profundas bases profesionales y científicas. En este día se festejan  logros y contribuciones del bioquímico para el progreso de la medicina, la biotecnología y ciencias ambientales entre otros campos, reconociendo el impacto que tienen en la sociedad y su papel en la configuración de un futuro mejor para todos.




viernes, 13 de junio de 2025

1250- Laboratorios verdes (Green Labs): sustentabilidad

Joanne Durgan, Marta Rodríguez Martínez, Brendan Rouse. "Green Labs: Una guía para desarrollar ciencia sustentable en su organización.  Wiley-Immunol Cell Biol. 2023;101(4): 289–301. Signalling ISP, Babraham Institute, Cambridge, UK.  Genome Biology, EMBL Heidelberg, Heidelberg, Germany

Resumen ChatGPT-Plus

El artículo ofrece un adecuado marco para integrar la sustentabilidad en los entornos de investigación científica. Los autores abogan por un enfoque sistémico que abarque el desarrollo de políticas, los ajustes operativos y la transformación cultural dentro de las instituciones de investigación.

1. Introducción: El artículo comienza destacando la huella ambiental de los laboratorios de investigación,  su importante contribución al consumo de energía, los residuos químicos y el uso de plásticos. Los autores argumentan que adoptar prácticas sustentables no solo es un imperativo ético, sino que también mejora la eficiencia operativa y la reproducibilidad científica.

2. Desarrollo de políticas y apoyo institucional: se destacan la importancia del compromiso institucional con la sustentabilidad y recomiendan el establecimiento de políticas claras que prioricen las consideraciones ambientales. Dichas políticas deben incluir objetivos de reducción de consumo energético, minimización de residuos y compras sustentables. El apoyo del liderazgo es crucial para integrar la sustentabilidad en la cultura organizacional y garantizar la asignación de recursos a iniciativas verdes.

3. Eficiencia energética en las operaciones de laboratorio: El artículo analiza diversas estrategias para reducir el consumo energético en los laboratorios. Entre las recomendaciones clave se incluye optimizar el uso de ultra-congeladores manteniéndolos a temperaturas más altas y asegurándose de que estén completamente abastecidos para mejorar la eficiencia energética. Además, los autores sugieren implementar prácticas de ahorro energético, como apagar los equipos cuando no estén en uso y utilizar sistemas de iluminación de bajo consumo.

4. Reducción de residuos y gestión de productos químicos: La reducción de los residuos de laboratorio es un tema central del artículo. Los autores abogan por la adopción de principios de química verde para minimizar el uso de sustancias químicas peligrosas y promover alternativas más seguras. Implementar programas de segregación y reciclaje de residuos, junto con protocolos adecuados de eliminación, puede reducir significativamente el impacto ambiental de las operaciones de laboratorio.

5. Prácticas de compras sustentables: Los autores destacan el papel de las adquisiciones en el fomento de la sustentabilidad. Recomiendan adquirir suministros de laboratorio de proveedores que cumplan con las normas ambientales y ofrezcan productos con un impacto ambiental mínimo. También sugieren establecer programas de recuperación de equipos y materiales usados ​​para promover una economía circular en las instituciones de investigación.

6. Cultivar una cultura de laboratorio verde:  El artículo enfatiza la importancia de fomentar una cultura de sustentabilidad en los equipos de investigación. Involucrar al personal de laboratorio mediante capacitaciones, campañas de concientización y la creación de comités de laboratorio ecológico puede impulsar la acción colectiva hacia los estos objetivos. Reconocer y recompensar las prácticas sustentables refuerza aún más esta cultura.

7. Medición e informes de métricas de sustentabilidad: Para evaluar la eficacia de las iniciativas de sustentabilidad, los autores recomiendan desarrollar métricas para monitorear el consumo de energía, la generación de residuos y el consumo de recursos. La presentación periódica de informes sobre estas métricas puede fundamentar la toma de decisiones y demostrar el compromiso de la institución con la sostenibilidad ante las partes interesadas externas.

8. Estudios de casos y ejemplos prácticos: El artículo presenta varios estudios de caso que ilustran la implementación exitosa de prácticas sustentables en laboratorios de investigación. Estos ejemplos sirven como modelos prácticos para otras instituciones que buscan adoptar estrategias similares. Señalan que incluso pequeños cambios, como la reducción del uso de plásticos de un solo uso y la optimización del uso de equipos, pueden generar importantes beneficios ambientales.

9. Desafíos y barreras: Se deben enfrentar los desafíos asociados con la implementación de iniciativas de sustentabilidad, incluyendo limitaciones financieras, resistencia al cambio y  falta de concientización sobre el tema. Sugieren que superar estas barreras requiere un liderazgo sólido, una comunicación clara y la integración de los objetivos de sostenibilidad en la misión y los valores de la institución.

 Conclusión: El artículo concluye reiterando la importancia de la sustentabilidad en la investigación científica. Los autores instan a un esfuerzo colectivo para transformar los laboratorios de investigación en modelos de gestión ambiental. Al adoptar las estrategias descritas en la guía, las instituciones de investigación pueden contribuir al esfuerzo global para mitigar la degradación ambiental, mejorando al mismo tiempo la calidad y la reproducibilidad de la investigación científica......

* (Search Labs): La sostenibilidad y la sustentabilidad son conceptos relacionados, pero no idénticos. La sostenibilidad se refiere a un equilibrio a largo plazo, donde se satisfacen las necesidades del presente sin comprometer la capacidad de las futuras generaciones. En cambio, la sustentabilidad se centra en el uso responsable de los recursos naturales para asegurar su disponibilidad a largo plazo. En resumen, la sostenibilidad busca un equilibrio integral, mientras que la sustentabilidad se enfoca en la conservación de los recursos naturales

Leer el articulo completo

(*)  Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 15 de Junio  
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



martes, 10 de junio de 2025

1249- Criptococosis: una revisión sistemática

Aiken Dao, Hannah Yejin Kim, Katherine Garnham, Sarah Kidd, Hatim Sati, John Perfect  Tania C Sorrell, Thomas Harrison, Volker Rickerts, Valeria Gigante, Ana Alastruey-Izquierdo, Jan-Willem Alffenaar, C Orla Morrissey, Sharon C-A Chen, Justin Beardsley Criptococosis: una revisión sistemática para informar la Lista de patógenos fúngicos prioritarios de la Organización Mundial de la Salud. Med Mycol. 2024 ; 62(6):myae043. Sydney Infectious Diseases Institute, The University of Sydney, Sydney, Australia

Resumen

La criptococosis causa una alta carga de enfermedad a nivel mundial. Esta revisión sistemática resume la literatura sobre infecciones por Cryptococcus neoformans y C. gattii para fundamentar la primera Lista de Patógenos Fúngicos Prioritarios de la Organización Mundial de la Salud. Se utilizaron PubMed y Web of Science para identificar estudios que informaran sobre la incidencia anual, la mortalidad, la morbilidad, la resistencia a los antifúngicos, la prevenibilidad y la distribución/emergencia en los últimos 10 años. Las tasas de mortalidad por C. neoformans fueron del 41% al 61%. Las complicaciones incluyeron insuficiencia renal aguda, hipertensión intracraneal que requirió derivaciones y ceguera. Hubo evidencia moderada de susceptibilidad reducida (rango de CMI: 16-32 mg/l) de C. neoformans al fluconazol, itraconazol, ketoconazol, voriconazol y anfotericina B. Las infecciones por Cryptococcus gattii representaron del 11% al 33% de todos los casos de criptococosis invasiva a nivel mundial. Las tasas de mortalidad fueron del 10% al 23% para las infecciones del sistema nervioso central (SNC) y pulmonares, y de aproximadamente el 43% para las infecciones del torrente sanguíneo. Las complicaciones descritas incluyeron secuelas neurológicas (17% al 27% en infecciones por C. gattii ) y síndrome inflamatorio de reconstitución inmunitaria. Las CMI fueron generalmente bajas para anfotericina B (CMI: 0,25-0,5 mg/l), 5-flucitosina (rango de CMI: 0,5-2 mg/l), itraconazol, posaconazol y voriconazol (rango de CMI: 0,06-0,5 mg/l). Es necesario aumentar la vigilancia del fenotipo y la evolución de la enfermedad, la discapacidad a largo plazo y la susceptibilidad a los fármacos para fundamentar estimaciones sólidas de la carga de enfermedad.

Introducción

Las infecciones fúngicas invasivas representan una amenaza significativa para la salud mundial. Aunque su carga está mal definida, las estimaciones crudas sugieren que causan más de 1,6 millones de muertes al año. La ausencia de sistemas de vigilancia sólidos hace que los médicos tomen decisiones basadas en información limitada sobre la epidemiología local, la resistencia a los antimicrobianos y las estrategias de tratamiento eficaces. En respuesta a esta creciente amenaza, la Organización Mundial de la Salud (OMS) desarrolló una Lista de Patógenos Fúngicos Prioritarios (FPPL). Esta lista, publicada en 2022, se creó a través de un exhaustivo proceso de consulta internacional, utilizando una encuesta que incorporó un experimento de elección discreta. Los patógenos fúngicos individuales, incluidos Cryptococcus neoformans y C. gattii , se clasificaron según los resultados de revisiones sistemáticas, la opinión de expertos y los datos de los experimentos de elección discreta.

La criptococosis es una infección fúngica invasiva potencialmente mortal que plantea un importante desafío para la salud mundial. Históricamente, Cryptococcus se describió como dos especies: C. neoformans (var. grubii y var. neoformans ) y C. gattii . Más recientemente, los análisis filogenéticos han distinguido siete clados que representan especies (VNI-III y VGI-IV), y es probable que haya más, con virulencia y distribución regional variables. Por ejemplo, VGI es prevalente en Australia y Asia, VGII está particularmente asociado con la emergencia en América del Norte, VGIII está aumentando entre individuos inmunocomprometidos en los Estados Unidos y VGIV se encuentra principalmente en África.En particular, la terminología de dos "complejos de especies" criptocócicas sigue siendo común en la práctica clínica, ya que es la más práctica para fines de manejo.

La criptococosis está mejor documentada en personas con VIH/SIDA. Sin embargo, se reconoce cada vez más en otros huéspedes inmunodeprimidos y se presenta en personas con diversas afecciones subyacentes e incluso con factores de riesgo no reconocidos. Los miembros de los complejos de especies C. neoformans y C. gattii son los agentes causales predominantes, 9 con diferencias epidemiológicas específicas de cada especie: por ejemplo, el complejo de especies C. neoformans se ha observado tradicionalmente en pacientes con VIH/SIDA, mientras que la infección por el complejo de especies C. gattii tiende a presentarse en pacientes inmunocompetentes.

Las respuestas innatas y adaptativas trabajan juntas para combatir Cryptococcus spp., siendo las células T CD4+ particularmente importantes para una respuesta adaptativa efectiva. La infección sintomática a menudo indica un sistema inmunitario comprometido, particularmente en individuos con recuentos reducidos de células T CD4+, como las personas que viven con VIH. La latencia y la dormancia también son aspectos importantes de la patogénesis criptocócica. El hongo puede permanecer latente en el huésped debido tanto a la presión inmunitaria como a factores fúngicos, y en ciertos entornos del huésped, incluidos los granulomas, puede evitar la detección inmunitaria. La reactivación de los criptococos latentes se convierte en una preocupación cuando el sistema inmunitario del huésped se ve comprometido, lo que puede conducir a una enfermedad invasiva. Mejorar nuestra comprensión de estos y otros factores es crucial para mejorar las estrategias diagnósticas, terapéuticas y preventivas.

1) Leer el articulo completo

2) Prueba de susceptibilidad antifúngica del complejo Cryptococcus

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 13 de Junio
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



viernes, 6 de junio de 2025

1248- Candida auris: detección evaluación y control

Teresa Fasciana, Andrea Cortegiani , Mariachiara Ippolito, Antonino Giarratano, Orazia Di Quattro, Dario Lipari, Domenico Graceffa, Anna Giammanco Candida auris : descripción general de cómo detectar, evaluar y controlar este patógeno emergente. MDPI-Antibiotics (Basel). 2020 Nov 5;9(11):778. Department of Health Promotion, Mother and Child Care, Internal Medicine and Medical Specialities, University of Palermo, Palermo, Italy.

Resumen

La levadura Candida auris, resistente a múltiples fármacos , se asocia con infecciones invasivas en pacientes críticos y ha sido aislada en diferentes países del mundo. Su fácil propagación, persistencia prolongada en el ambiente y resistencia a fármacos antimicóticos plantean una preocupación significativa para la prevención de la transmisión y el manejo de pacientes con infecciones por C. auris . La identificación temprana y correcta de pacientes colonizados con C. auris es crucial para contener su propagación. Sin embargo, esto puede complicarse por cepas de C. auris que se identifican erróneamente como otros patógenos filogenéticamente relacionados. En esta revisión, ofrecemos una breve descripción general que destaca algunos de los aspectos críticos de la recolección de muestras, la identificación dependiente e independiente del cultivo de laboratorio y el perfil de susceptibilidad de C. auris .

1. Introducción

Candida auris, el patógeno de levadura aislado por primera vez del canal auditivo externo de un paciente japonés en 2009, ha estado involucrado en brotes invasivos asociados a la atención médica y casos esporádicos notificados en varios países del mundo. Se notificaron trescientos cuarenta y nueve casos de C. auris únicamente en la Unión Europea entre enero de 2018 y mayo de 2019: la mayoría de estos (73,6%) fueron colonizaciones y, entre las infecciones, el 24,1% fueron infecciones del torrente sanguíneo.

Este nuevo microorganismo tiene un grave impacto en la salud pública, no sólo porque a menudo es multirresistente, se propaga rápidamente entre los pacientes y coloniza persistentemente la piel y las superficies nosocomiales, sino también porque a menudo es difícil de identificar correctamente.

El grupo colaborativo de la encuesta sobre C. auris del European Centre for Disease Prevention and Control (ECDC) informó que, durante el período 2013-17, varios países europeos carecían de capacidad de laboratorio o de información sobre la incidencia de casos a nivel nacional. Si bien las instalaciones de laboratorio y la concienciación parecen haber mejorado desde 2018, siete países de la UE/EEE aún no cuentan con un laboratorio de referencia en su país. Por lo tanto, los casos de C. auris aún pueden identificarse erróneamente o no identificarse y propagarse en entornos sanitarios.

La identificación errónea de C. auris con otras levaduras (p. ej., C. haemulonii, C. famata, C. guilliermondii, C. lusitaniae, C. parapsilosis ) puede ocurrir debido al uso de métodos bioquímicos estándar y pruebas disponibles comercialmente. De hecho, su correcta identificación a nivel de especie requiere, como se describirá en esta revisión, técnicas más avanzadas, es decir, secuenciación de ADN o desorción/ionización láser asistida por matriz de tiempo de vuelo (MALDI-TOF), o ambas si el microorganismo se aísla de sitios corporales estériles y no estériles, ya que ahora se sabe que la colonización asintomática representa un riesgo para la transmisión de C. auris.

La identificación errónea puede llevar a un retraso en la aplicación de los principios de prevención de infecciones. Este retraso es especialmente grave si se considera la velocidad y la facilidad de transmisión de esta levadura. C. auris puede transmitirse por contacto no solo con pacientes colonizados o personal sanitario, sino también con superficies contaminadas de las que esta levadura es difícil de erradicar. De hecho, su capacidad de cambiar a una forma agregativa le permite a C. auris persistir y sobrevivir incluso bajo los efectos de detergentes físicos y químicos. Los experimentos realizados por Welsh y colegas han documentado el aislamiento de células viables pero no cultivables (VBNC) metabólicamente activas de C. auris durante al menos cuatro semanas, con colonias viables recuperadas por cultivo durante al menos dos semanas, lo que proporciona una primera estimación del tiempo de supervivencia ambiental de esta especie.

Como se mencionó anteriormente, C. auris suele asociarse con resistencia a los antifúngicos, lo que limita las opciones de tratamiento. Además, la relación entre los valores de concentración inhibitoria mínima (CIM) y los resultados clínicos aún no se comprende completamente, lo que genera una falta de consenso sobre los puntos de corte de susceptibilidad para C. auris .

Considerando todo esto, es evidente la necesidad de que los laboratorios clínicos tengan una idea clara de cómo identificar C. auris de forma rápida y correcta . Esto puede facilitar la implementación de estrategias de prevención de infecciones y manejo clínico, y ayudar a evitar los costos y riesgos de brotes que afectan especialmente a pacientes inmunodeprimidos y hospitalizados con enfermedades subyacentes graves. El propósito de esta revisión es ofrecer un informe simplificado y actualizado sobre los métodos disponibles de cribado, identificación y determinación de la sensibilidad a los antifúngicos de C. auris , centrándose en las medidas de cribado y control......

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 10 de junio
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


martes, 3 de junio de 2025

1247- Nuevos antimicóticos para combatir la resistencia

Martin Hoenigl y col. Editor: Ferric C Fang. Nuevos antimicóticos y enfoques de tratamiento para combatir la resistencia y mejorar los resultados de las enfermedades fúngicas invasivas. ASM-Clin Microbiol Rev. 2024; 37(2): e00074-23. Department of Internal Medicine, Division of Infectious Diseases, ECMM Excellence Center for Medical Mycology, Medical University of Graz, Graz, Austria y otras instituciones.

Resumen Chat Geminis 2.0

Descripción general: El artículo aborda la creciente amenaza de las infecciones fúngicas invasivas (IFI) y la creciente resistencia a los antifúngicos existentes. Enfatiza la urgente necesidad de nuevos agentes antifúngicos y enfoques terapéuticos. La revisión destaca las limitaciones de los antifúngicos actuales, el impacto del uso de antifúngicos agrícolas en la resistencia y los prometedores avances en nuevos agentes antifúngicos e inmunoterapias.

Puntos clave:

  • Aumento de las infecciones por hongos: las infecciones por hongos están aumentando debido al aumento de la población en riesgo y al cambio climático.
  • Clases antimicóticas limitadas: actualmente, solo hay cinco clases de antimicóticos disponibles, cada una con limitaciones en eficacia, espectro y toxicidad.
  • Impacto económico de los fungicidas: Los fungicidas son cruciales en la agricultura, ya que protegen el suministro mundial de alimentos del daño causado por los hongos, que cuesta miles de millones de dólares al año.
  • Resistencia en la agricultura: El uso de fungicidas en la agricultura contribuye al desarrollo de resistencia en patógenos vegetales, algunos de los cuales pueden reaccionar de forma cruzada con fármacos antimicóticos utilizados en medicina humana.
  • Necesidad de nuevos agentes: existe una necesidad urgente de nuevos agentes antimicóticos con nuevos mecanismos, mejores perfiles farmacocinéticos y actividad fungicida.
  • Interacciones fármaco-fármaco: comprender las interacciones entre los nuevos antimicóticos y otros medicamentos es fundamental para su uso seguro y eficaz.

Nuevos antifúngicos en desarrollo: el artículo analiza varios agentes antimicóticos nuevos en diversas etapas de desarrollo clínico:

  • Ibrexafungerp: Un antifúngico triterpénico que inhibe la glucano sintasa, con actividad de amplio espectro y formulaciones tanto orales como intravenosas.
  • Fosmanogepix: Un antimicótico de primera clase que inhibe la proteína de Golgi 1 (GWT1) de los hongos y que muestra una potente actividad in vitro contra una amplia gama de hongos.
  • Olorofim: Inhibe la dihidroorotato deshidrogenasa (DHODH), con actividad prometedora contra Aspergillus resistentes a los azoles y otros mohos.
  • Rezafungina: Una equinocandina de próxima generación con una vida media prolongada, lo que permite una dosificación menos frecuente.
  • Oteseconazol: un nuevo antifúngico azólico con una vida media prolongada, aprobado para la candidiasis vulvovaginal recurrente.
  • Opelconazol: Otro nuevo antifúngico azólico con un amplio espectro de actividad.
  • Anfotericina B encocleada: una formulación que encapsula la anfotericina B para mejorar la administración del fármaco y reducir la toxicidad.
  • Antifúngicos inhalados:  Los antimicóticos inhalados pueden administrar altas concentraciones del fármaco directamente a los pulmones, minimizando la toxicidad sistémica y se están desarrollando para infecciones fúngicas pulmonares.

Inmunoterapia: Los enfoques inmunoterapéuticos tienen como objetivo mejorar la respuesta inmunitaria del huésped, entre ellos:

  • Terapia con citocinas: uso de citocinas como el interferón gamma (IFN-γ) y el factor estimulante de colonias de granulocitos y macrófagos (GM-CSF) para potenciar la función de las células inmunitarias.
  • Terapia celular: transferencia de células inmunes, como leucocitos de donantes o células T específicas de antígenos, para mejorar la respuesta inmune del paciente.
  • Anticuerpos monoclonales: desarrollo de anticuerpos que se dirigen a antígenos fúngicos específicos o modulan la respuesta inmunitaria del huésped.

Resistencia a los antifúngicos: El artículo destaca el creciente problema de la resistencia a los antifúngicos, impulsado por el uso clínico y agrícola de antifúngicos. Las preocupaciones específicas incluyen Aspergillus fumigatus resistente a los azoles y Candida auris resistente a múltiples fármacos. El uso de fungicidas triazólicos en la agricultura se ha relacionado con el desarrollo de resistencia a los azoles en A. fumigatus .

Direcciones futuras: El artículo concluye enfatizando la urgente necesidad de:

  • Investigación continua sobre nuevos agentes antimicóticos y estrategias de tratamiento.
  • Una mejor comprensión de la farmacocinética, la farmacodinamia y las interacciones fármaco-fármaco de los nuevos antimicóticos.
  • Desarrollo de métodos confiables para detectar resistencia a los antifúngicos.
  • Uso responsable de antifúngicos tanto en medicina humana como en agricultura para minimizar el desarrollo de resistencia.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 06 de Junio  
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


sábado, 31 de mayo de 2025

1246- FDA autoriza prueba para enfermedad de Alzheimer

Comunicado de prensa FDA: La FDA autoriza la primera prueba en sangre utilizada para diagnosticar la enfermedad de Alzheimer. 16 de mayo de 2025

Una nueva prueba ofrece una opción menos invasiva, reduce la dependencia de las tomografías por emisión de positrones y aumenta la accesibilidad al diagnóstico.

La Administración de Alimentos y Medicamentos de los Estados Unidos (FDA) autorizó hoy la comercialización del primer dispositivo de diagnóstico in vitro que analiza la sangre para facilitar el diagnóstico de la enfermedad de Alzheimer. El Lumipulse G pTau217/ß-Amyloid 1-42 Plasma Ratio está indicado para la detección temprana de placas amiloides asociadas con la enfermedad de Alzheimer en pacientes adultos mayores de 55 años que presenten signos y síntomas de la enfermedad.

“La enfermedad de Alzheimer afecta a demasiadas personas, más que el cáncer de mama y el cáncer de próstata juntos”, afirmó el Dr. Martin A. Makary, MD, MPH, comisionado de la FDA. “Sabiendo que el 10 % de las personas de 65 años o más padecen Alzheimer, y que para 2050 se espera que esa cifra se duplique, tengo la esperanza de que nuevos productos médicos como este ayuden a los pacientes”.

La enfermedad de Alzheimer, un trastorno cerebral conocido por destruir lentamente la memoria y las habilidades de pensamiento, y eventualmente la capacidad de realizar las tareas más simples, es progresiva, lo que significa que la enfermedad empeora con el tiempo. En la mayoría de las personas con Alzheimer, los síntomas clínicos aparecen por primera vez en etapas posteriores de la vida. Las placas amiloides en el cerebro de un paciente son un signo distintivo de la enfermedad de Alzheimer. Si bien las placas amiloides pueden presentarse en otras enfermedades, detectar su presencia, junto con otras evaluaciones, ayuda al médico a determinar la causa probable de los síntomas y hallazgos del paciente. Estas placas pueden detectarse y visualizarse mediante tomografías cerebrales por emisión de positrones (TEP) para amiloide, a menudo años antes de la aparición de los síntomas clínicos, para ayudar a diagnosticar la enfermedad de Alzheimer. Sin embargo, las tomografías PET son una opción costosa y lenta, y exponen a los pacientes a radiación.

El índice plasmático pTau217/ß-amiloide 1-42 de Lumipulse G mide dos proteínas, pTau217 y β-amiloide 1-42, presentes en el plasma humano, un componente de la sangre, y calcula la proporción numérica de sus niveles. Esta proporción se correlaciona con la presencia o ausencia de placas amiloides en el cerebro del paciente, lo que reduce la necesidad de una tomografía por emisión de positrones (TEP). Pruebas similares, autorizadas por la FDA, una de la misma empresa que esta nueva prueba, se utilizan con muestras de líquido cefalorraquídeo (LCR), que se obtienen mediante una punción lumbar invasiva. Esta nueva prueba Lumipulse solo requiere una simple extracción de sangre, lo que la hace menos invasiva y mucho más accesible para los pacientes.  

“Casi 7 millones de estadounidenses viven con la enfermedad de Alzheimer y se proyecta que esta cifra aumente a casi 13 millones”, afirmó la Dra. Michelle Tarver, directora del Centro de Dispositivos y Salud Radiológica. “La autorización de hoy es un paso importante para el diagnóstico de la enfermedad de Alzheimer, ya que facilita y potencialmente hace más accesible el acceso a pacientes estadounidenses en las etapas iniciales de la enfermedad”.

Durante la revisión del índice plasmático Lumipulse G pTau217/ß-amiloide 1-42, la FDA evaluó los datos de un estudio clínico multicéntrico con 499 muestras de plasma de adultos con deterioro cognitivo. Las muestras se analizaron con el índice plasmático Lumipulse G pTau217/ß-amiloide 1-42 y se compararon con los resultados de una tomografía por emisión de positrones (TEP) de amiloide o una prueba de LCR.

En este estudio clínico, el 91,7 % de los pacientes con resultados positivos en la prueba de relación plasmática pTau217/ß-amiloide 1-42 de Lumipulse G presentaron placas amiloides en la tomografía por emisión de positrones (TEP) o en el análisis de LCR, y el 97,3 % de los pacientes con resultados negativos presentaron resultados negativos en la TEP o el análisis de LCR de amiloide. Menos del 20 % de los 499 pacientes evaluados obtuvieron un resultado indeterminado en la prueba de proporción plasmática pTau217/ß-amiloide 1-42 de Lumipulse G.

Estos hallazgos indican que el nuevo análisis de sangre puede predecir con fiabilidad la presencia o ausencia de patología amiloide asociada a la enfermedad de Alzheimer en el momento de la prueba en pacientes con deterioro cognitivo. La prueba está dirigida a pacientes que acuden a un centro de atención especializada con signos y síntomas de deterioro cognitivo. Los resultados deben interpretarse junto con otra información clínica del paciente.

Los riesgos asociados con la prueba Lumipulse G pTau217/ß-Amyloid 1-42 Plasma Ratio son principalmente la posibilidad de obtener resultados falsos positivos y falsos negativos.

Los resultados falsos positivos, junto con otra información clínica, podrían llevar a un diagnóstico inapropiado y a un tratamiento innecesario para la enfermedad de Alzheimer. Esto podría causar angustia psicológica, retraso en el diagnóstico correcto, así como gastos y el riesgo de efectos secundarios por tratamientos innecesarios.

Los resultados falsos negativos podrían requerir pruebas diagnósticas adicionales innecesarias y retrasar la eficacia del tratamiento. Cabe destacar que la proporción plasmática Lumipulse G pTau217/ß-amiloide 1-42 no está diseñada como una prueba de cribado ni como prueba diagnóstica independiente, y se deben utilizar otras evaluaciones clínicas o pruebas adicionales para determinar las opciones de tratamiento.

La FDA evaluo la relación pasmática de pTau217/ß-amiloide 1-42 de Lumipulse G en una  notificación pre-comercialización 510(k) . Una notificación 510(k) es una presentación previa a la comercialización que se presenta ante la FDA para demostrar que un nuevo dispositivo es sustancialmente equivalente a un dispositivo precedente comercializado legalmente. La FDA determinó que la relación plasmática de pTau217/ß-amiloide 1-42 de Lumipulse G es sustancialmente equivalente a la de β-amiloide de Lumipulse G (1-42/1-40), que es la prueba previamente autorizada que utiliza muestras de LCR.

El Lumipulse G pTau217/ß-Amyloid 1-42 en plasma recibió la designación de dispositivo innovador , que es un proceso diseñado para acelerar el desarrollo y la revisión de dispositivos que brindan un tratamiento o diagnóstico más efectivo de enfermedades o afecciones potencialmente mortales o irreversiblemente debilitantes.  La FDA emitió la autorización correspondiente a  Fujirebio Diagnostics, Inc.

Leer el articulo completo

(*)  Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 03 de Junio  
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



martes, 27 de mayo de 2025

1245- Screening neonatal en sangre: actualización 2024

Bradford L Therrell, Carmencita D Padilla, Gustavo J C Borrajo, Issam Khneisser, Peter C J I Schielen , Jennifer Knight-Madden , Helen L Malherbe, Marika Kase, Editor: Barbara K Burton. Estado actual del cribado neonatal de sangre en el mundo 2024: Una revisión exhaustiva de las actividades recientes (2020-2023). Int J Neonatal Screen. 2024;10(2):38. Department of Pediatrics, University of Texas Health Science Center San Antonio, San Antonio, TX 78229, USA

Resumen

El cribado neonatal mediante gotas de sangre (NBS) comenzó a principios de la década de 1960, gracias al trabajo del Dr. Robert “Bob” Guthrie en Buffalo, Nueva York, EE. UU. Su desarrollo de una prueba de cribado para la fenilcetonuria con sangre absorbida en un papel de filtro especial y transportada a un laboratorio remoto fue el inicio de todo. La expansión del NBS a un gran número de afecciones congénitas asintomáticas prospera en muchos entornos, mientras que en otros aún no se ha materializado. La necesidad del NBS como estrategia de prevención de salud pública eficiente y eficaz que contribuye a la reducción de la morbilidad y la mortalidad dondequiera que se implemente es bien conocida en el ámbito médico, pero no necesariamente por los responsables políticos. Reconociendo el valor de los informes nacionales de las NBS publicados en 2007, los autores colaboraron para crear una actualización mundial de las NBS en 2015. En un esfuerzo continuo por revisar el progreso de las NBS a nivel mundial y avanzar hacia un sistema de cribado más armonizado y equitativo, hemos actualizado nuestro informe de 2015 con información disponible a principios de 2024. Se han incluido informes sobre África subsahariana y el Caribe, que faltaban en 2015. Las tablas populares del informe anterior se han actualizado con miras a realizar comparaciones armonizadas. Para destacar las áreas que requieren atención a nivel mundial, hemos utilizado tablas regionales que contienen listas similares de afecciones cribadas, número de laboratorios de cribado y momento en el que se recomienda la recolección de muestras. Las discusiones se limitan al cribado de manchas de sangre.

1. Introducción

Con respecto al inicio del cribado de manchas de sangre en recién nacidos (NBS), el Dr. Robert “Bob” Guthrie, el “Padre” del cribado de manchas de sangre en recién nacidos informó que “ … el cribado tuvo su origen en Jamestown, Nueva York en 1961 ”, cuando comenzó a recibir muestras de dos hospitales de Jamestown poco después de dar una charla deobre fenilcetonuria (PKU) en el capítulo local dela  Association for Retarded Children. La implementación del NBS como un programa de prevención de salud pública comenzó en serio en 1962 cuando the federal Children’s Bureau financió un ensayo nacional destinado a cribar a 400.000 recién nacidos en 29 estados de EE. UU. A mediados de la década de 1960, a medida que se difundió la noticia de la prueba de Guthrie, incluso en la prensa popular , el cribado empezó a expandirse globalmente. Durante más de 60 años transcurridos desde entonces, el NBS ha seguido creciendo y evolucionando de manera diferente en distintos entornos políticos, económicos, culturales y geográficos.

En la mayoría de los países de altos ingresos , el NBS generalmente existe como un sistema eficiente de prevención de enfermedades administrado por un programa de salud pública con el objetivo de reducir la morbilidad y mortalidad neonatal para el beneficio de la familia y la sociedad. Su éxito en este sentido está bien documentado en el CDC de los EE. UU. reconocieron al NBS como contribuyente a uno de los "Diez grandes logros de salud pública" durante los primeros 10 años del siglo y señalaron que "las mejoras en la tecnología y la aprobación de un panel uniforme de detección de enfermedades en recién nacidos han llevado a un tratamiento e intervención más tempranos que salvan vidas para al menos 3400 recién nacidos adicionales cada año con trastornos genéticos y endocrinos seleccionados". Desafortunadamente, este logro no se ha alcanzado plenamente en todos los países, en particular en los países de bajos ingresos donde el NBS aún no existe, en los países de ingresos medianos bajos donde el NBS es relativamente nuevo, y en los países de ingresos medianos altos donde el NBS aún no está bien organizado.

En 2015, la ONU estableció 17 objetivos de desarrollo sustentable (ODS) interrelacionados como parte de un plan para la paz y la prosperidad mundiales, tanto ahora como en el futuro. Los NBS impactan directamente en el Objetivo 3.2, que busca poner fin a las muertes evitables de recién nacidos y niños menores de 5 años para 2030. Como señalamos en nuestro informe sobre el estado de las NBS de 2015, las NBS se vuelven cada vez más significativas en las consideraciones nacionales de salud (tanto presupuestarias como procesales) a medida que la tasa de mortalidad infantil (TMI) se acerca a la de  los adolescentes y a un solo dígito en los países de ingresos bajos y medios. Esto es coherente con  meta 3.2.2 de los ODS, que busca reducir la TMI a al menos 12 por 1000 nacidos vivos, y al ODS 3.2.1, que busca reducir la mortalidad de menores de 5 años (U5M) a menos 25 por 1000 nacidos vivos......

1)  Leer el articulo completo

2) Pesquisa neonatal Argentina

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 31 de Mayo
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


domingo, 25 de mayo de 2025

25 de Mayo creación de la FFyB de la UBA

HISTORIA DE LA FACULTAD DE FARMACIA Y BIOQUIMICA

El 25 de mayo de 1957 se creó la Facultad de Farmacia y Bioquímica de la Universidad de Buenos Aires por Decreto Ley 5293/57 del Poder Ejecutivo Nacional, con las firmas del Presidente Provisional de la Nación, General Pedro E. Aramburu y de su Ministro de Educación y Justicia, el Doctor Acdeel E. Salas.

Eran por entonces Rector Interventor de la Universidad de Buenos Aires el Doctor Alejandro Cevallos, Decano Interventor de la Facultad de Ciencias Médicas el Doctor José A. Caeiro y Delegado Interventor de Farmacia y Bioquímica el Doctor Manuel Domínguez. Es auspicioso para la reflexión histórica recordar que la Universidad de Buenos Aires fue creada el 12 de agosto de 1821, por decreto del Gobernador General Martín Rodríguez y de su Secretario de Gobierno Bernardino Rivadavia, como universidad republicana para difundir el ideario de la libertad, que la Facultad de Ciencias Médicas fue incorporada a la Universidad de Buenos Aires en 1871, siendo anteriormente parte de la Academia Nacional de Medicina y que los estudios de Farmacia se desarrollaban desde 1854 en esa Facultad.

La creación de la Facultad de Farmacia y Bioquímica fue uno de los hechos universitarios del período 1955-1956 que estuvo caracterizado por cambios profundos en las instituciones científicas, culturales y de educación superior de nuestro país, como consecuencia de la interrupción de la segunda presidencia del General Juan D. Perón por el movimiento cívico-militar y la revolución de 1955. Estas modificaciones reflejaron los cambios casi sincrónicos, con aproximadamente un lustro de atraso, a los dados en otros países como respuesta al nuevo orden mundial después de la Segunda Guerra Mundial y al nuevo papel de los estados en el apoyo y la promoción de las actividades científicas y culturales. Así, en el mencionado período, se crearon en nuestro país, con el fin de reestructurar el ámbito científico y cultural, el Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET), el Instituto Nacional de Tecnología Agropecuaria (INTA), el Instituto Nacional de Tecnología Industrial (INTI) y el Fondo Nacional de las Artes.

En la Universidad de Buenos Aires los cambios sustanciales se produjeron en el corto período de 1956 a 1960 e implicaron la plena vigencia de la autonomía universitaria con el establecimiento del Estatuto Universitario, aprobado por la Asamblea Universitaria como código fundamental de organización y gobierno. El nuevo estatuto, preparado por el Rector Risieri Frondizi y discutido, modificado y aprobado por dos Asambleas Universitarias, en 1958 y 1960, estableció el gobierno tripartito, con representación electiva de profesores, graduados y estudiantes en la universidad y en las facultades, por primera vez en la historia del país y del mundo. A partir del concepto de autonomía universitaria, el nuevo código estableció la estructura federativa de la Universidad de Buenos Aires con cada Facultad como una provincia federal de la Universidad–Estado. El revolucionario Estatuto Universitario, tomando como base la actividad académica desarrollada en las Facultades, definió los mecanismos de concursos para la designación de profesores, creó el régimen de dedicación exclusiva y señaló la importancia de la investigación y la función social de la universidad. En corto tiempo estas condiciones llevaron a configurar un período dinámico de crecimiento y desarrollo académico y la Universidad de Buenos Aires alcanzó gran prestigio entre las universidades del mundo, por lo que esa época, interrumpida por el golpe militar de 1966, fue luego conocida como la de la “universidad de oro”.

Las ideas de renovación universitaria de los años 1955 y 1956 se encauzaron en el ámbito de la entonces Escuela de Farmacia y Bioquímica de la Facultad de Ciencias Médicas hacia la creación de la Facultad de Farmacia y Bioquímica. La vía universitaria estricta implicaba las definiciones del Consejo Directivo de la Facultad de Ciencias Médicas, donde prevalecía una actitud de aprobación, y del Consejo Superior de la Universidad de Buenos Aires, donde había una fuerte oposición por parte de la Facultad de Ciencias Exactas y Naturales......

1)  Leer al articulo completo

2) Decreto 5293/57

.


martes, 20 de mayo de 2025

1244- Hepatitis B: recomendaciones CDC 2023

Erin E Conners, Lakshmi Panagiotakopoulos y col. Detección y Pruebas para la Infección por el Virus de la Hepatitis B: Recomendaciones de los CDC-Estados Unidos, 2023. CDC-MMWR Recomm Rep. 2023 ;72(1):1–25. Division of Viral Hepatitis, National Center for HIV, Viral Hepatitis, STD, and TB Prevention, CDC

Resumen Chat DeepSeek

La infección crónica por el virus de la hepatitis B (VHB) sigue siendo un importante problema de salud pública en Estados Unidos, con un estimado de entre 580,000 y 2.4 millones de personas que viven con el VHB crónico. Muchas personas desconocen su infección debido a la progresión asintomática, lo que lleva a casos no diagnosticados y a un mayor riesgo de cirrosis hepática, carcinoma hepatocelular (CHC) y muerte. Los Centros para el Control y la Prevención de Enfermedades (CDC) actualizaron sus directrices de detección y pruebas del VHB en 2023 para mejorar la detección temprana, optimizar la vinculación con la atención médica y reducir la transmisión.

Actualizaciones clave en las recomendaciones de 2023

Detección universal ampliada:  El CDC ahora recomiendan la detección universal del VHB para todos los adultos mayores de 18 años al menos una vez en la vida. Esto reemplaza las pruebas de detección basadas en el riesgo anteriores, ya que las evaluaciones de factores de riesgo a menudo pasan por alto las infecciones.

Mujeres embarazadas: Todas las personas embarazadas deben someterse a una prueba de detección del VHB (prueba de HBsAg) durante cada embarazo, independientemente de su estado de vacunación o pruebas previas. Aquellas personas con estado de VHB desconocido al momento del parto deben someterse a la prueba de inmediato.

Grupos de alto riesgo que requieren pruebas periódicas: Las personas en riesgo continuo (por ejemplo, personas que se inyectan drogas, hombres que tienen relaciones sexuales con hombres, personas encarceladas y personas con múltiples parejas sexuales) deben someterse a pruebas periódicas, incluso si se vacunaron previamente o dieron negativo. Se deben realizar pruebas de detección a los contactos domésticos o parejas sexuales de personas infectadas con el VHB.

Poblaciones con mayor prevalencia: Las personas nacidas en regiones con una prevalencia de VHB ≥2 % (p. ej., Asia, África y partes de Sudamérica) deben someterse a pruebas de detección, incluso si se vacunaron en EE. UU. Las personas nacidas en EE. UU. que no fueron vacunadas en la infancia y cuyos padres provienen de países con alta prevalencia también deben someterse a pruebas de detección.

Algoritmo de pruebas de laboratorio: Las pruebas iniciales deben incluir HBsAg (antígeno de superficie) y anti-HBs (anticuerpo) para determinar la infección o inmunidad. Si el resultado es positivo para HBsAg, se requieren pruebas adicionales (HBeAg, anti-HBe, ADN del VHB, enzimas hepáticas) para evaluar la replicación viral y el daño hepático.

Justificación de las actualizaciones: 

  • Infradiagnóstico: El cribado basado en el riesgo pasó por alto aproximadamente el 40 % de los casos crónicos de VHB. El cribado universal mejora la detección.
  • Reducción de la mortalidad: El diagnóstico temprano permite el tratamiento antiviral (p. ej., tenofovir, entecavir), lo que reduce las complicaciones hepáticas.
  • Prevención de la transmisión vertical: El cribado en mujeres embarazadas garantiza la profilaxis oportuna para los lactantes (vacuna contra el VHB + HBIG dentro de las 12 horas posteriores al nacimiento).
  • Reducción del estigma: El cribado universal evita la discriminación de los grupos de alto riesgo.

Estrategias de implementación

  • Historias clínicas electrónicas (HCE): Impulsar a los profesionales sanitarios a ofrecer la prueba del VHB durante la atención de rutina.
  • Pruebas comunitarias: Ampliar el acceso en zonas de alta prevalencia.
  • Educación de los profesionales sanitarios: Aumentar el conocimiento de las directrices actualizadas.

Conclusión

Las directrices de los CDC de 2023 enfatizan el cribado universal del VHB en adultos, la mejora de las pruebas para los grupos de alto riesgo y un mejor seguimiento de las personas infectadas. Estos cambios buscan reducir la morbilidad y la mortalidad relacionadas con el VHB y se alinean con los objetivos nacionales para la eliminación de la hepatitis viral.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 25 de Mayo
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina