martes, 27 de mayo de 2025

1245- Screening neonatal en sangre: actualización 2024

Bradford L Therrell, Carmencita D Padilla, Gustavo J C Borrajo, Issam Khneisser, Peter C J I Schielen , Jennifer Knight-Madden , Helen L Malherbe, Marika Kase, Editor: Barbara K Burton. Estado actual del cribado neonatal de sangre en el mundo 2024: Una revisión exhaustiva de las actividades recientes (2020-2023). Int J Neonatal Screen. 2024;10(2):38. Department of Pediatrics, University of Texas Health Science Center San Antonio, San Antonio, TX 78229, USA

Resumen

El cribado neonatal mediante gotas de sangre (NBS) comenzó a principios de la década de 1960, gracias al trabajo del Dr. Robert “Bob” Guthrie en Buffalo, Nueva York, EE. UU. Su desarrollo de una prueba de cribado para la fenilcetonuria con sangre absorbida en un papel de filtro especial y transportada a un laboratorio remoto fue el inicio de todo. La expansión del NBS a un gran número de afecciones congénitas asintomáticas prospera en muchos entornos, mientras que en otros aún no se ha materializado. La necesidad del NBS como estrategia de prevención de salud pública eficiente y eficaz que contribuye a la reducción de la morbilidad y la mortalidad dondequiera que se implemente es bien conocida en el ámbito médico, pero no necesariamente por los responsables políticos. Reconociendo el valor de los informes nacionales de las NBS publicados en 2007, los autores colaboraron para crear una actualización mundial de las NBS en 2015. En un esfuerzo continuo por revisar el progreso de las NBS a nivel mundial y avanzar hacia un sistema de cribado más armonizado y equitativo, hemos actualizado nuestro informe de 2015 con información disponible a principios de 2024. Se han incluido informes sobre África subsahariana y el Caribe, que faltaban en 2015. Las tablas populares del informe anterior se han actualizado con miras a realizar comparaciones armonizadas. Para destacar las áreas que requieren atención a nivel mundial, hemos utilizado tablas regionales que contienen listas similares de afecciones cribadas, número de laboratorios de cribado y momento en el que se recomienda la recolección de muestras. Las discusiones se limitan al cribado de manchas de sangre.

1. Introducción

Con respecto al inicio del cribado de manchas de sangre en recién nacidos (NBS), el Dr. Robert “Bob” Guthrie, el “Padre” del cribado de manchas de sangre en recién nacidos informó que “ … el cribado tuvo su origen en Jamestown, Nueva York en 1961 ”, cuando comenzó a recibir muestras de dos hospitales de Jamestown poco después de dar una charla deobre fenilcetonuria (PKU) en el capítulo local dela  Association for Retarded Children. La implementación del NBS como un programa de prevención de salud pública comenzó en serio en 1962 cuando the federal Children’s Bureau financió un ensayo nacional destinado a cribar a 400.000 recién nacidos en 29 estados de EE. UU. A mediados de la década de 1960, a medida que se difundió la noticia de la prueba de Guthrie, incluso en la prensa popular , el cribado empezó a expandirse globalmente. Durante más de 60 años transcurridos desde entonces, el NBS ha seguido creciendo y evolucionando de manera diferente en distintos entornos políticos, económicos, culturales y geográficos.

En la mayoría de los países de altos ingresos , el NBS generalmente existe como un sistema eficiente de prevención de enfermedades administrado por un programa de salud pública con el objetivo de reducir la morbilidad y mortalidad neonatal para el beneficio de la familia y la sociedad. Su éxito en este sentido está bien documentado en el CDC de los EE. UU. reconocieron al NBS como contribuyente a uno de los "Diez grandes logros de salud pública" durante los primeros 10 años del siglo y señalaron que "las mejoras en la tecnología y la aprobación de un panel uniforme de detección de enfermedades en recién nacidos han llevado a un tratamiento e intervención más tempranos que salvan vidas para al menos 3400 recién nacidos adicionales cada año con trastornos genéticos y endocrinos seleccionados". Desafortunadamente, este logro no se ha alcanzado plenamente en todos los países, en particular en los países de bajos ingresos donde el NBS aún no existe, en los países de ingresos medianos bajos donde el NBS es relativamente nuevo, y en los países de ingresos medianos altos donde el NBS aún no está bien organizado.

En 2015, la ONU estableció 17 objetivos de desarrollo sustentable (ODS) interrelacionados como parte de un plan para la paz y la prosperidad mundiales, tanto ahora como en el futuro. Los NBS impactan directamente en el Objetivo 3.2, que busca poner fin a las muertes evitables de recién nacidos y niños menores de 5 años para 2030. Como señalamos en nuestro informe sobre el estado de las NBS de 2015, las NBS se vuelven cada vez más significativas en las consideraciones nacionales de salud (tanto presupuestarias como procesales) a medida que la tasa de mortalidad infantil (TMI) se acerca a la de  los adolescentes y a un solo dígito en los países de ingresos bajos y medios. Esto es coherente con  meta 3.2.2 de los ODS, que busca reducir la TMI a al menos 12 por 1000 nacidos vivos, y al ODS 3.2.1, que busca reducir la mortalidad de menores de 5 años (U5M) a menos 25 por 1000 nacidos vivos......

1)  Leer el articulo completo

2) Pesquisa neonatal Argentina

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 31 de Mayo
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


domingo, 25 de mayo de 2025

25 de Mayo creación de la FFyB de la UBA

HISTORIA DE LA FACULTAD DE FARMACIA Y BIOQUIMICA

El 25 de mayo de 1957 se creó la Facultad de Farmacia y Bioquímica de la Universidad de Buenos Aires por Decreto Ley 5293/57 del Poder Ejecutivo Nacional, con las firmas del Presidente Provisional de la Nación, General Pedro E. Aramburu y de su Ministro de Educación y Justicia, el Doctor Acdeel E. Salas.

Eran por entonces Rector Interventor de la Universidad de Buenos Aires el Doctor Alejandro Cevallos, Decano Interventor de la Facultad de Ciencias Médicas el Doctor José A. Caeiro y Delegado Interventor de Farmacia y Bioquímica el Doctor Manuel Domínguez. Es auspicioso para la reflexión histórica recordar que la Universidad de Buenos Aires fue creada el 12 de agosto de 1821, por decreto del Gobernador General Martín Rodríguez y de su Secretario de Gobierno Bernardino Rivadavia, como universidad republicana para difundir el ideario de la libertad, que la Facultad de Ciencias Médicas fue incorporada a la Universidad de Buenos Aires en 1871, siendo anteriormente parte de la Academia Nacional de Medicina y que los estudios de Farmacia se desarrollaban desde 1854 en esa Facultad.

La creación de la Facultad de Farmacia y Bioquímica fue uno de los hechos universitarios del período 1955-1956 que estuvo caracterizado por cambios profundos en las instituciones científicas, culturales y de educación superior de nuestro país, como consecuencia de la interrupción de la segunda presidencia del General Juan D. Perón por el movimiento cívico-militar y la revolución de 1955. Estas modificaciones reflejaron los cambios casi sincrónicos, con aproximadamente un lustro de atraso, a los dados en otros países como respuesta al nuevo orden mundial después de la Segunda Guerra Mundial y al nuevo papel de los estados en el apoyo y la promoción de las actividades científicas y culturales. Así, en el mencionado período, se crearon en nuestro país, con el fin de reestructurar el ámbito científico y cultural, el Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET), el Instituto Nacional de Tecnología Agropecuaria (INTA), el Instituto Nacional de Tecnología Industrial (INTI) y el Fondo Nacional de las Artes.

En la Universidad de Buenos Aires los cambios sustanciales se produjeron en el corto período de 1956 a 1960 e implicaron la plena vigencia de la autonomía universitaria con el establecimiento del Estatuto Universitario, aprobado por la Asamblea Universitaria como código fundamental de organización y gobierno. El nuevo estatuto, preparado por el Rector Risieri Frondizi y discutido, modificado y aprobado por dos Asambleas Universitarias, en 1958 y 1960, estableció el gobierno tripartito, con representación electiva de profesores, graduados y estudiantes en la universidad y en las facultades, por primera vez en la historia del país y del mundo. A partir del concepto de autonomía universitaria, el nuevo código estableció la estructura federativa de la Universidad de Buenos Aires con cada Facultad como una provincia federal de la Universidad–Estado. El revolucionario Estatuto Universitario, tomando como base la actividad académica desarrollada en las Facultades, definió los mecanismos de concursos para la designación de profesores, creó el régimen de dedicación exclusiva y señaló la importancia de la investigación y la función social de la universidad. En corto tiempo estas condiciones llevaron a configurar un período dinámico de crecimiento y desarrollo académico y la Universidad de Buenos Aires alcanzó gran prestigio entre las universidades del mundo, por lo que esa época, interrumpida por el golpe militar de 1966, fue luego conocida como la de la “universidad de oro”.

Las ideas de renovación universitaria de los años 1955 y 1956 se encauzaron en el ámbito de la entonces Escuela de Farmacia y Bioquímica de la Facultad de Ciencias Médicas hacia la creación de la Facultad de Farmacia y Bioquímica. La vía universitaria estricta implicaba las definiciones del Consejo Directivo de la Facultad de Ciencias Médicas, donde prevalecía una actitud de aprobación, y del Consejo Superior de la Universidad de Buenos Aires, donde había una fuerte oposición por parte de la Facultad de Ciencias Exactas y Naturales......

1)  Leer al articulo completo

2) Decreto 5293/57

.


martes, 20 de mayo de 2025

1244- Hepatitis B: recomendaciones CDC 2023

Erin E Conners, Lakshmi Panagiotakopoulos y col. Detección y Pruebas para la Infección por el Virus de la Hepatitis B: Recomendaciones de los CDC-Estados Unidos, 2023. CDC-MMWR Recomm Rep. 2023 ;72(1):1–25. Division of Viral Hepatitis, National Center for HIV, Viral Hepatitis, STD, and TB Prevention, CDC

Resumen Chat DeepSeek

La infección crónica por el virus de la hepatitis B (VHB) sigue siendo un importante problema de salud pública en Estados Unidos, con un estimado de entre 580,000 y 2.4 millones de personas que viven con el VHB crónico. Muchas personas desconocen su infección debido a la progresión asintomática, lo que lleva a casos no diagnosticados y a un mayor riesgo de cirrosis hepática, carcinoma hepatocelular (CHC) y muerte. Los Centros para el Control y la Prevención de Enfermedades (CDC) actualizaron sus directrices de detección y pruebas del VHB en 2023 para mejorar la detección temprana, optimizar la vinculación con la atención médica y reducir la transmisión.

Actualizaciones clave en las recomendaciones de 2023

Detección universal ampliada:  El CDC ahora recomiendan la detección universal del VHB para todos los adultos mayores de 18 años al menos una vez en la vida. Esto reemplaza las pruebas de detección basadas en el riesgo anteriores, ya que las evaluaciones de factores de riesgo a menudo pasan por alto las infecciones.

Mujeres embarazadas: Todas las personas embarazadas deben someterse a una prueba de detección del VHB (prueba de HBsAg) durante cada embarazo, independientemente de su estado de vacunación o pruebas previas. Aquellas personas con estado de VHB desconocido al momento del parto deben someterse a la prueba de inmediato.

Grupos de alto riesgo que requieren pruebas periódicas: Las personas en riesgo continuo (por ejemplo, personas que se inyectan drogas, hombres que tienen relaciones sexuales con hombres, personas encarceladas y personas con múltiples parejas sexuales) deben someterse a pruebas periódicas, incluso si se vacunaron previamente o dieron negativo. Se deben realizar pruebas de detección a los contactos domésticos o parejas sexuales de personas infectadas con el VHB.

Poblaciones con mayor prevalencia: Las personas nacidas en regiones con una prevalencia de VHB ≥2 % (p. ej., Asia, África y partes de Sudamérica) deben someterse a pruebas de detección, incluso si se vacunaron en EE. UU. Las personas nacidas en EE. UU. que no fueron vacunadas en la infancia y cuyos padres provienen de países con alta prevalencia también deben someterse a pruebas de detección.

Algoritmo de pruebas de laboratorio: Las pruebas iniciales deben incluir HBsAg (antígeno de superficie) y anti-HBs (anticuerpo) para determinar la infección o inmunidad. Si el resultado es positivo para HBsAg, se requieren pruebas adicionales (HBeAg, anti-HBe, ADN del VHB, enzimas hepáticas) para evaluar la replicación viral y el daño hepático.

Justificación de las actualizaciones: 

  • Infradiagnóstico: El cribado basado en el riesgo pasó por alto aproximadamente el 40 % de los casos crónicos de VHB. El cribado universal mejora la detección.
  • Reducción de la mortalidad: El diagnóstico temprano permite el tratamiento antiviral (p. ej., tenofovir, entecavir), lo que reduce las complicaciones hepáticas.
  • Prevención de la transmisión vertical: El cribado en mujeres embarazadas garantiza la profilaxis oportuna para los lactantes (vacuna contra el VHB + HBIG dentro de las 12 horas posteriores al nacimiento).
  • Reducción del estigma: El cribado universal evita la discriminación de los grupos de alto riesgo.

Estrategias de implementación

  • Historias clínicas electrónicas (HCE): Impulsar a los profesionales sanitarios a ofrecer la prueba del VHB durante la atención de rutina.
  • Pruebas comunitarias: Ampliar el acceso en zonas de alta prevalencia.
  • Educación de los profesionales sanitarios: Aumentar el conocimiento de las directrices actualizadas.

Conclusión

Las directrices de los CDC de 2023 enfatizan el cribado universal del VHB en adultos, la mejora de las pruebas para los grupos de alto riesgo y un mejor seguimiento de las personas infectadas. Estos cambios buscan reducir la morbilidad y la mortalidad relacionadas con el VHB y se alinean con los objetivos nacionales para la eliminación de la hepatitis viral.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 25 de Mayo
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina




jueves, 15 de mayo de 2025

1243- HIV: Pruebas rápidas de cuarta generación:

Vincent Guiraud, Angèle Naizet, Habiba Khan , Ghizlane Benhafoun, Pierre Hernandez , Luigi Piccin, Agnès Pichon , Ay Ling Leng1, Léna Yousfi , Agnès Gautheret Dejean Pruebas rápidas de VIH de cuarta generación: mayor sensibilidad y ventana diagnóstica reducida para la detección de la infección primaria por VIH-1. Wiley-J Med Virol. 2024; 96(11): e70044. Laboratoire de Virologie, INSERM, Institut Pierre Louis d′ Epidémiologie et de Santé Publique, APHP, Hôpitaux Universitaires Pitié Salpêtrière-Charles Foix, Sorbonne Université, Paris, France

Resumen Chat DeepSeek

La detección temprana de la infección por VIH-1 es crucial para iniciar el tratamiento antirretroviral (TAR) y reducir la transmisión. Las pruebas rápidas de VIH de cuarta generación han supuesto un avance significativo con respecto a las generaciones anteriores, ya que combinan la detección de anticuerpos (Ac) contra el VIH-1/2 y del antígeno p24 (Ag) para acortar la ventana diagnóstica. Este estudio evalúa el rendimiento de las pruebas rápidas de cuarta generación en el cribado de la infección primaria por VIH-1, destacando su mayor sensibilidad y capacidad para detectar infecciones agudas antes que las pruebas que solo detectan anticuerpos.

Antecedentes 

Desafíos del diagnóstico del VIH: Las pruebas tradicionales de tercera generación solo detectan anticuerpos, lo que genera una ventana diagnóstica de aproximadamente 3 a 4 semanas después de la exposición. Las infecciones tempranas durante este período pueden pasar desapercibidas, lo que aumenta el riesgo de transmisión.

Pruebas de Cuarta Generación: Estos ensayos detectan tanto los anticuerpos contra el VIH como el antígeno p24, una proteína viral que aparece antes que los anticuerpos, lo que reduce el periodo ventana a 2-3 semanas.

Importancia Clínica: La detección temprana permite el inicio rápido del TAR, lo que mejora la evolución de los pacientes y apoya las iniciativas de salud pública para frenar la propagación del VIH.

Objetivos del Estudio 

i) Comparar la sensibilidad y la especificidad de las pruebas rápidas de cuarta generación con las de tercera generación. ii) Evaluar la reducción del periodo ventana diagnóstica. iii) Evaluar la utilidad de estas pruebas en diversos entornos clínicos y con recursos limitados.

Métodos 

Obtención de Muestras: Se analizaron muestras de sangre de personas con sospecha de infección aguda por VIH-1 mediante pruebas rápidas de cuarta generación y se compararon con las pruebas de ácidos nucleicos (NAT) de referencia y los ensayos de tercera generación.

Plataformas de Prueba: Se analizaron múltiples pruebas rápidas de cuarta generación disponibles comercialmente (p. ej., Alere HIV Combo y Determine HIV-1/2 Ag/Ab).

Análisis estadístico: Se calcularon la sensibilidad, la especificidad, el valor predictivo positivo (VPP) y el valor predictivo negativo (VPN).

Resultados clave

Mayor sensibilidad en la infección temprana: Las pruebas de cuarta generación detectaron entre el 85 % y el 95 % de las infecciones agudas por VIH, en comparación con el 50 % y el 70 % de las pruebas de tercera generación.  La detección del antígeno p24 permitió la identificación de infecciones incluso entre 10 y 14 días después de la exposición, antes de la seroconversión.

Ventana diagnóstica reducida: El período de ventana se redujo de 5 a 7 días en comparación con las pruebas de tercera generación. En poblaciones de alto riesgo, esta reducción mejoró significativamente las tasas de diagnóstico temprano.

Alta especificidad:  La especificidad se mantuvo >99 %, lo que minimizó los falsos positivos. La reactividad cruzada con otras infecciones (p. ej., hepatitis B, sífilis) fue poco frecuente.

Rendimiento en entornos con recursos limitados:  Las pruebas rápidas demostraron fiabilidad en entornos sin acceso a pruebas NAT ni ELISA, aunque su sensibilidad fue ligeramente inferior a la de las pruebas ELISA de cuarta generación realizadas en laboratorio.

Discusión

Ventajas de las pruebas rápidas de cuarta generación:

  • Detección temprana: Esencial para prevenir transmisiones secundarias, especialmente en grupos de alto riesgo (p. ej., HSH, parejas serodiscordantes).
  • Utilidad en el punto de atención: Adecuada para clínicas sin infraestructura de laboratorio avanzada.
  • Impacto en la salud pública:  El inicio temprano del TAR reduce la carga viral en la comunidad.
  • Limitaciones: Menor sensibilidad que las NAT: Las pruebas de ARN siguen siendo el método de referencia para la infección muy temprana (p. ej., preantigenemia).
  • Costo y accesibilidad: Las pruebas rápidas de cuarta generación son más caras que los ensayos de tercera generación, lo que plantea desafíos en regiones de bajos recursos.

Implicaciones clínicas 

Actualización de las directrices: El estudio respalda la inclusión de las pruebas rápidas de cuarta generación en los algoritmos de prueba del VIH de la OMS y los CDC. Uso específico: Recomendado para poblaciones de alto riesgo, cribado prenatal y situaciones de emergencia.

Orientaciones futuras: Pruebas de quinta generación: Se está investigando para integrar la detección del ARN del VIH en pruebas rápidas para un diagnóstico aún más temprano.

Reducción de costos: Se están realizando esfuerzos para mejorar la asequibilidad para su expansión global.

Conclusión 

Las pruebas rápidas del VIH de cuarta generación representan un avance importante en el cribado del VIH, mejorando significativamente las tasas de detección temprana y reduciendo la ventana diagnóstica. Su adopción podría impulsar los esfuerzos globales para lograr el control de la epidemia del VIH, especialmente al combinarse con el TAR y las estrategias de prevención.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 20 de Mayo
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



sábado, 10 de mayo de 2025

1242- Virus Sincicial Respiratorio

Julián Ruiz-Galiana, Rafael Cantón y col. Virus Sincicial Respiratorio: una nueva era. Rev Esp Quimioter. 2024; 37(2):134–148. Servicio de Medicina Interna. Hospital Ruber Internacional. Madrid.  Servicio de Microbiología. Hospital Ramón y Cajal e Instituto Ramón y Cajal de Investigación Sanitaria (IRYCIS). Red Española de Investigación en Patología Infecciosa (REIPI). Madrid.

Resumen

El Virus Sincicial Respiratorio (VSR) es un importante problema de salud pública que ha experimentado cambios significativos en los últimos años. En primer lugar, se ha simplificado su diagnóstico con pruebas confirmatorias de alta fiabilidad y rápida disponibilidad. Esto ha permitido comprender mejor su epidemiología, y el VSR ha pasado de ser una enfermedad pediátrica, grave solo en lactantes y niños inmunodeprimidos, a ser una enfermedad frecuente en personas de todas las edades, especialmente importante en pacientes de edad avanzada o con enfermedades inmunodepresoras. Los recientes avances terapéuticos y profilácticos, tanto con anticuerpos monoclonales de larga duración como con vacunas, son otro motivo de satisfacción. Por estas razones, el Comité de COVID y Patógenos Emergentes del Ilustre Colegio Oficial de Médicos de Madrid (ICOMEM) ha considerado pertinente revisar este tema a la luz de los nuevos conocimientos y recursos para el abordaje de esta infección. Hemos formulado una serie de preguntas que creemos serán de interés no sólo para los miembros del Colegio sino también para cualquier persona no experta en esta materia, con especial atención a la situación de la infección por VRS en España.

Introducción

La infección por el Virus Sincicial Respiratorio (VSR) ha entrado en una nueva era, principalmente gracias a nuevas pruebas diagnósticas, altamente fiables y fáciles de realizar. La enfermedad ha dejado de ser una enfermedad potencialmente grave solo en niños menores de 2 años y pacientes inmunodeprimidos para convertirse en una enfermedad a cualquier edad, potencialmente más grave en pacientes mayores, inmunodeprimidos y trasplantados. Es una enfermedad que compite con la propia gripe como causa de hospitalización y muerte, y es una causa reconocida de ingreso en unidades de cuidados intensivos.

La enfermedad por VSR no sólo se puede diagnosticar, sino que también se puede tratar específicamente en pacientes graves y, sobre todo, se puede y se debe prevenir tanto con vacunas como con anticuerpos monoclonales de vida media larga.

Todos estos cambios exigen una nueva concienciación por parte de los médicos y de los profesionales sanitarios en general, así como una actitud decidida por parte de las autoridades sanitarias, que implica importantes recursos económicos.

En vista de lo anterior, el Comité de COVID y Patógenos Emergentes del Ilustre Colegio de Médicos de Madrid (ICOMEM) ha decidido abordar el tema, formulando preguntas tanto a los miembros del Comité como a expertos externos en la materia. A continuación, presentamos el resultado de estas deliberaciones, con especial atención a la situación en España y la postura de las autoridades sanitarias. (corte)

¿Qué métodos de laboratorio pueden confirmar la presencia del VSR?

El diagnóstico de laboratorio del VSR, al igual que el de otros virus respiratorios, ha cambiado drásticamente en los últimos años. El cultivo de líneas celulares se ha abandonado, manteniéndose solo en algunos laboratorios de referencia o con fines de investigación. El uso de técnicas de microscopía de fluorescencia, anteriormente empleadas para confirmar la presencia del VSR en cultivos celulares o para la detección directa en muestras respiratorias, tampoco es frecuente. La detección de anticuerpos también ha perdido interés. El diagnóstico rutinario actual del VSR se basa en la aplicación de técnicas moleculares o en el uso de inmunocromatografía basada en la detección de antígenos conservados del VSR, esencialmente glicoproteínas de membrana. Estas últimas tienen la ventaja de ser sencillas de realizar y rápidas para obtener resultados (15-20 minutos), pero tienen la limitación de una baja sensibilidad.

Actualmente disponemos de técnicas moleculares automatizadas o en formato point-of-care con una sola diana o con varias dianas que detectan también otros virus respiratorios . Antes de la pandemia era habitual detectar en épocas epidémicas de infección respiratoria aguda la detección simultánea deVSR e influenza. Actualmente se ha añadido el SARS-CoV-2, realizándose el estudio de los tres virus, incluso si existe sospecha de solo uno de ellos basándose en criterios clínicos y epidemiológicos; son los denominados paneles sindrómicos basados ​​en técnicas moleculares y orientados a la infección respiratoria también que suelen incluir el VSR.

Al igual que con el SARS-CoV-2 y la influenza, la mejor muestra para la detección del VSR es la nosofaríngea, aunque también se pueden utilizar muestras del tracto respiratorio inferior en pacientes hospitalizados, incluidos aspirados traqueales y muestras de lavado broncoalveolar.

La secuenciación genómica completa con plataformas de última generación también se aplica en laboratorios de referencia para comprender mejor la dispersión de los diferentes genotipos del VSR. Los estudios de filogenia suelen basarse en el análisis del gen correspondiente a la glicoproteína G. Desde un punto de vista epidemiológico, algunos autores abogan por el uso de la secuenciación de Sanger de los genes de la glicoproteína G, o de las proteínas SH y M2......

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 15 de Mayo
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


martes, 6 de mayo de 2025

1241- Pruebas RT-qPCR -Covid 19

Stephen A Bustin. Editor: Eleni Gavriilaki. Pruebas RT-qPCR y métricas de rendimiento en la era de la COVID-19 Int J Mol Sci. 2024; 25(17): 9326. Medical Technology Research Centre, Anglia Ruskin University, Chelmsford, UK;

Resumen

La pandemia de COVID-19 puso de relieve el papel crucial de las pruebas diagnósticas en el manejo de las enfermedades infecciosas, en particular mediante el uso de pruebas de reacción en cadena de la polimerasa cuantitativa con transcripción inversa (RT-qPCR) que ha sido fundamental para detectar y cuantificar el ARN viral, lo que ha permitido la identificación y el manejo de las infecciones por SARS-CoV-2. Sin embargo, a pesar de su uso generalizado, persiste una notable brecha en la comprensión de parámetros diagnósticos fundamentales, como la sensibilidad y la especificidad, entre muchos científicos y profesionales sanitarios. Esta brecha no es meramente académica; tiene profundas implicaciones para la interpretación de los resultados de las pruebas, la toma de decisiones de salud pública y la evolución de los pacientes. Esta revisión pretende aclarar las distinciones entre los parámetros de laboratorio y de campo en el contexto de las pruebas de RT-qPCR para el SARS-CoV-2 y resumir los esfuerzos globales que condujeron al desarrollo y la optimización de estas pruebas durante la pandemia. Su objetivo es mejorar la comprensión de estos conceptos fundamentales entre científicos y profesionales sanitarios que puedan no estar familiarizados con los matices de la evaluación de pruebas diagnósticas. Este conocimiento es crucial para interpretar con precisión los resultados de las pruebas, tomar decisiones informadas en materia de salud pública y, en última instancia, gestionar de forma más eficaz los brotes de enfermedades infecciosas.

1. Introducción

La reacción en cadena de la polimerasa (PCR), la PCR cuantitativa (qPCR) y la PCR cuantitativa con transcripción inversa (RT-qPCR) son posiblemente las tecnologías moleculares más importantes inventadas y han tenido un impacto crítico en la investigación biológica, médica, veterinaria y agrícola. Los ensayos basados ​​en qPCR pueden ser cuantitativos, como suele ser el caso de las aplicaciones de investigación, o cualitativos, como suele ser el caso de las pruebas de diagnóstico. Como era de esperar, su velocidad, sensibilidad y especificidad han hecho de la qPCR y la RT-qPCR las principales herramientas de medición de diagnóstico molecular utilizadas para establecer la identidad de agentes infecciosos específicos que causan infecciones. 

Aunque muy adecuados para esta tarea, los resultados basados ​​en PCR se ven afectados, como cualquier otra herramienta, por cómo y bajo qué condiciones se aplica la tecnología. Esto se ha vuelto especialmente pertinente después del uso omnipresente de la tecnología durante la pandemia de COVID-19. Esto ha dado lugar a su aplicación y a la interpretación de sus resultados por parte de una amplia gama de usuarios y partes interesadas, muchas de las cuales desconocen sus conceptos, detalles técnicos, ventajas y limitaciones. Si bien esta revisión se centra en la detección del SARS-CoV-2, sus conceptos y conclusiones son aplicables en general a todas las pruebas de diagnóstico molecular.

Debido a que las pruebas diagnósticas RT-qPCR se utilizan de tantas maneras diferentes, en distintas condiciones, por distintos usuarios y de forma no estandarizada, la interpretación de los resultados resulta algo compleja. Si bien el ensayo RT-qPCR en sí es sencillo, el procedimiento general de la prueba implica múltiples pasos adicionales previos y posteriores que no están relacionados con la prueba en sí, pero que afectan su rendimiento aparente y la interpretación de los resultados. Cualquiera (o más) de estos pasos puede fallar y hacer que la prueba parezca menos fiable de lo que realmente es .

El proceso de prueba RT-qPCR implica las siguientes etapas:

Toma de muestras: El primer paso es recolectar una muestra de la persona que podría estar infectada con un patógeno. La forma, el lugar y la persona que la toma pueden influir enormemente en el resultado final de la prueba.

Almacenamiento, manipulación y transporte de muestras: Los diferentes hisopos, tubos y soluciones utilizados para almacenar una muestra afectan la estabilidad del virus y pueden introducir inhibidores que afecten los resultados de las pruebas. Dado que muchas muestras se procesan en sitios alejados de donde se tomaron, las condiciones de transporte al laboratorio son importantes. Además, la manipulación de la muestra durante este proceso afecta la integridad del ARN viral .

Extracción de ARN: Además de las proteínas virales y el ARN viral, la muestra de un paciente contiene una mezcla de componentes. Esto generalmente requiere un procedimiento para extraer y purificar el ARN viral. Existen diversas maneras de hacerlo, lo que aumenta las posibles inconsistencias en los resultados.

Transcripción inversa: Este paso convierte el ARN viral en una plantilla de ADN que puede ser amplificada por la Taq polimerasa. Existe una amplia gama de transcriptasas inversas, y esta elección afecta significativamente la sensibilidad de un ensayo de RT-qPCR.

Amplificación: Las propiedades de las diferentes polimerasas Taq también difieren, especialmente en cuanto a velocidad de polimerización, actividad exonucleasa, termoestabilidad, fidelidad y procesividad. Esto las convierte en la principal fuente de sesgo en los perfiles de amplificación con variabilidad adicional introducida por su preferencia por ciertos motivos de secuencias de cebadores.

Detección: El método más común para detectar productos de PCR se basa en la fluorescencia y, para fines de diagnóstico, implica el uso de una sonda específica de amplicón de PCR, generalmente una sonda de hidrólisis o una baliza molecular. Puede ser solo de ADN o tener fracciones de LNA o pentabasa, todo lo cual influye en el rendimiento de un ensayo. Por lo tanto, el número de ciclos necesarios para amplificar el ADN a un nivel detectable puede variar considerablemente entre pruebas de RT-qPCR, incluso para la misma muestra. 

Diferentes pruebas de RT-qPCR pueden necesitar más o menos ciclos de amplificación para detectar la luz emitida por el producto de amplificación de RT-qPCR, y otros factores también pueden marcar la diferencia, como la cantidad inicial de virus en la muestra, las características del virus o qué termociclador se utiliza. Además, los valores del ciclo de cuantificación (Cq) no son una medida definitiva, ya que dependen del análisis de datos subjetivos y, por lo tanto, no se deben utilizar para los ajustes de corte. 

Limitaciones de los valores Cq

Es importante destacar que los umbrales alterados alteran los resultados y, dado que los umbrales calculados por instrumentos de diferentes fabricantes varían dependiendo de qué pocillo o combinación de pocillos se estén analizando, los valores de Cq también difieren. Por lo tanto, un valor de Cq por sí solo nunca se debe utilizar para comparar resultados obtenidos con las mismas muestras o con diferentes muestras en diferentes momentos en diferentes instrumentos utilizando diferentes pruebas o reactivos.

En consecuencia, en términos del uso práctico de una prueba, un valor de corte arbitrario de Cq para etiquetar un virus objetivo como presente o ausente en una muestra no es confiable y solo se debe utilizar, y luego con precaución, si los puntos de corte se han normalizado con enfoques de cuantificación relativa o absoluta. Esta es una razón por la que muchas pruebas de diagnóstico son cualitativas, es decir, registran solo un resultado presente/ausente........ 

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 10 de Mayo
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



viernes, 2 de mayo de 2025

1240- Toxoplasmosis; diagnóstico molecular y serológico

Isa Marianny Ferreira Nascimento Barbosa de Souza, Victor da Silva Siqueira, y  col.  Diagnóstico molecular y serológico de la toxoplasmosis: una revisión sistemática y  metaanálisis.  Inst Med Trop Sao Paulo. 2023 ; 65:e19. Universidade Federal de Jatai, Programa de Pós-Graduação em Ciências Aplicadas à Saúde, Jataí, Goiás, Brazil

Resumen: Chat-Geminis

1- Importancia de la toxoplasmosis y los desafíos diagnósticos

  • La toxoplasmosis, causada por el parásito protozoario Toxoplasma gondii , representa un problema de salud mundial debido a su amplia distribución y diversas manifestaciones clínicas. 
  • Si bien muchas infecciones son asintomáticas, la toxoplasmosis puede provocar complicaciones graves, en particular en personas inmunodeprimidas y mujeres embarazadas, donde existe riesgo de transmisión congénita. 
  • Un diagnóstico preciso y oportuno es crucial para el tratamiento eficaz y la prevención de consecuencias graves. 
  • El artículo aborda las complejidades del diagnóstico de la toxoplasmosis, destacando la necesidad de métodos de diagnóstico confiables y eficientes. 
  • Debido a las diferentes etapas de la enfermedad y los diferentes grupos de pacientes, existe una gran necesidad de herramientas de diagnóstico precisas.

2- Enfoque metodológico: revisión sistemática y metaanálisis

  • El estudio empleó un enfoque de revisión sistemática y metanálisis, adhiriéndose a rigurosos estándares metodológicos.
  • Este enfoque implicó una búsqueda exhaustiva de bases de datos relevantes para identificar estudios que evaluaran el desempeño de las técnicas de diagnóstico molecular y serológico para la toxoplasmosis.
  • Los autores establecieron criterios claros de inclusión y exclusión para garantizar la selección de estudios de alta calidad.
  • La extracción de datos y la evaluación de la calidad se realizaron de forma sistemática para minimizar el sesgo.
  • Se utilizaron técnicas de metanálisis para sintetizar los hallazgos de estudios individuales y proporcionar una estimación general de la sensibilidad y especificidad de cada método de diagnóstico.
  • El estudio utilizó bases de datos como: Eric, Elsevier, Google Scholar, PubMed y SciELO.
  • Los datos se recopilaron de estudios publicados antes de junio de 2021.
  • Para el diagrama de flujo de la investigación de la literatura se utilizó el protocolo PRISMA.

3- Técnicas de diagnóstico clave evaluadas

La revisión abarcó una amplia gama de técnicas de diagnóstico, entre ellas:
  • Ensayos serológicos: ELISA, Western blot, ISAGA, ELFA e inmunoensayos de flujo lateral. Estos métodos detectan los anticuerpos (IgG, IgM, IgA) producidos en respuesta a la infección por T. gondii .
  • Métodos moleculares: qPCR (reacción en cadena de la polimerasa cuantitativa) y LAMP (amplificación isotérmica mediada por bucle). Estas técnicas detectan el ADN de T. gondii , lo que proporciona evidencia directa de infección.
  • Citometría de flujo: un método avanzado utilizado para analizar células y partículas.
  • El estudio analizó la sensibilidad y especificidad de cada una de estas técnicas, que son indicadores cruciales de su precisión diagnóstica.
  • El estudio también analizó las diferentes muestras utilizadas en las pruebas, como: suero, sangre total, calostro y líquido amniótico.

4- Hallazgos e implicaciones

  • El metanálisis reveló variaciones en el rendimiento de diferentes técnicas de diagnóstico.
  • Los métodos moleculares, en particular qPCR y LAMP, demostraron una alta sensibilidad y especificidad, lo que los convierte en herramientas valiosas para confirmar la infección activa.
  • Los ensayos serológicos, como ELISA y Western blot, también mostraron alta especificidad, pero su sensibilidad varió dependiendo de la etapa de la infección.
  • El estudio destacó la importancia de considerar el contexto clínico y la etapa de la infección al interpretar los resultados del diagnóstico. Por ejemplo, los anticuerpos IgM normalmente se detectan durante una infección aguda, mientras que los anticuerpos IgG indican una exposición previa.
  • La investigación demostró que las técnicas qPCR y LAMP fueron más precisas cuando se evaluó la razón de verosimilitud.
  • El metanálisis mostró que ISAGA y el Western blotting tenían valores de sensibilidad bajos, y que LIASON, ELFA y ELISA, utilizando un bioconjugado de sílice, también tenían valores de especificidad bajos.
  • La investigación confirma que no existe una prueba perfecta y que, dependiendo de la condición del paciente y la etapa de la infección, se deben utilizar diferentes pruebas  y  refuerza la importancia de utilizar múltiples pruebas y considerar la condición clínica del paciente al diagnosticar la toxoplasmosis.

5- Importancia clínica y direcciones futuras

  • Los hallazgos de esta revisión tienen implicaciones significativas para la práctica clínica y orientan la selección de pruebas diagnósticas adecuadas para la toxoplasmosis.
  • El estudio subraya la necesidad de protocolos de diagnóstico estandarizados y medidas de control de calidad para garantizar resultados precisos y confiables.
  • Las investigaciones futuras deberían centrarse en el desarrollo de ensayos de diagnóstico más sensibles y específicos, así como en la evaluación de nuevos enfoques de diagnóstico.
  • También se necesitan más estudios para evaluar la relación coste-efectividad de las diferentes estrategias de diagnóstico.
  • La investigación ayuda a los médicos a tomar decisiones informadas sobre el diagnóstico de toxoplasmosis.
  • Esta información es muy importante para poblaciones vulnerables, como mujeres embarazadas y pacientes inmunodeprimidos.

Conclusiones 

En esencia, esta revisión sistemática y metaanálisis ofrece una valiosa perspectiva general del estado actual del diagnóstico de la toxoplasmosis, destacando las fortalezas y limitaciones de diversas técnicas moleculares y serológicas. Sirve como un recurso crucial para médicos e investigadores que buscan mejorar la precisión y la eficiencia del diagnóstico de la toxoplasmosis.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 06 de Mayo
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



jueves, 1 de mayo de 2025

El Ricón del Lector: Los LLM no son el enemigo

Nader Rifai. Grandes modelos de lenguaje para publicaciones científicas: por favor, no los conviertan en un enemigo. Oxford Academ- Clinical Chemistry, 2024; 70 (3): 468–470. Department of Laboratory Medicine, Boston Children’s Hospital, Boston, MA, United States. 

El nacimiento de ChatGPT en noviembre de 2022 con la promesa de acceso masivo a la escritura generada por inteligencia artificial (IA) fue recibido con entusiasmo. Poco después, sin embargo, científicos, estudiantes y profesores, entre otros, comenzaron a anticipar y descubrir el potencial y las amenazas de la tecnología de IA generativa, en los grandes modelos lingüísticos (LLM). 

La capacidad de distinguir entre la escritura generada por máquinas y por humanos adquirió una nueva urgencia. Un informe de Desaire y colegas describió uno de los últimos intentos de crear una herramienta capaz de distinguir entre la escritura científica humana y la de una máquina. Los autores utilizaron artículos de Perspective de Science, con temas que abarcaban desde la biología hasta la física, para generar ejemplos pareados de ChatGPT.

Los artículos de Perspective en Science son escritos por científicos y no por periodistas, y describen el avance de investigación presentado  en el que se publican lugar y descripciones de experimentos o hallazgos novedosos, que ChatGPT no puede crear. Se utilizó un conjunto de  64 artículos de Perspective y 128 ejemplos de ChatGPT, así como dos conjuntos de prueba, cada uno compuesto por 30 artículos de Perspective y 60 ejemplos de ChatGPT. 

Los autores identificaron manualmente 20 características predictivas relacionadas con la longitud y complejidad de los párrafos, la diversidad en la longitud de las oraciones, el uso de la puntuación y los términos o palabras populares. La herramienta descrita fue eficaz para diferenciar textos escritos por humanos de textos escritos por máquinas con una precisión superior al 99 % en documentos completos. Si bien este estudio fue una prueba de concepto, los hallazgos son, no obstante, notables. Este estudio nos deja la sensación de que podríamos estar entrando en una "carrera armamentística". 

En marzo de 2023, se lanzó GPT-4 con una capacidad significativamente mayor que ChatGPT. Las deficiencias de ChatGPT identificadas en este informe podrían haberse solucionado desde entonces, lo que dificulta la detección de diferencias en los estilos de escritura. Además, debemos recordar que los LLM, a diferencia de los humanos, aprenden de sus propios errores y mejoran con el tiempo y un LLM entrenado en el estilo de una revista en particular podría ser prácticamente imposible de detectar. 

Sin embargo, es alentador que el mismo grupo de investigadores probara su modelo en las secciones de introducción de 13 revistas de química y las comparara con textos generados por GPT-4; en ese contexto, lograron detectar textos generados por IA con una precisión del 98% al 100%.

Como ex-editor, considero que los desafíos y las oportunidades que ofrecen los LLM en la publicación científica son tan aterradores como emocionantes. La tecnología no puede ignorarse: hacer la vista gorda, ya que este  es un problema real, especialmente para editoriales y editores, que debe abordarse con cuidado y una mente abierta en cómo aprovechar el potencial de la tecnología sin caer en sus poderes. 

Las respuestas a las numerosas e importantes preguntas legales, logísticas y filosóficas deben encontrarse a medida que avanzamos. Preguntas como: ¿se pueden otorgar derechos de autor para textos o gráficos generados por LLM, especialmente si se basan en el estilo de otra persona? ¿Cuál es el porcentaje aceptable de materiales generados por LLM en un manuscrito? ¿Cómo abordamos la contribución de los LLM al diseño de estudios? ¿Nos sentimos cómodos desafiando las normas establecidas de veracidad? ¿Qué constituye a un autor? 

No pretendo saber la respuesta a ninguna de estas preguntas, pero basado en mi experiencia en este campo intentaré resumir el impacto de los LLM en los 3  individuos  responsables de la creación de una publicación científica: el Editor, el Revisor y el Autor.

Editor

El principal temor de los editores con respecto a los LLM es el posible aumento en la generación de informes científicos falsos, pero convincentes. Las empresas que se especializan en crear y vender manuscritos o autorías podrían aprovechar esta tecnología y proliferar aún más para aumentar sus ganancias. Los editores pueden encontrarse en la posición poco envidiable de tener que investigar a los autores e instituciones para verificar si dichos investigadores existen o si dicha investigación se ha realizado. Los editores han publicado lo que consideran un uso aceptable de esta tecnología en sus revistas. Estas pautas varían ampliamente desde una prohibición total, como Science, hasta la insistencia en la divulgación y la transparencia, como Nature, JAMA, JACC, Diabetes y muchas otras revistas. En mayo de 2023, un estudio mostró que el 17% de los editores y el 70% de las revistas publicaron dichas pautas. Además, los editores están recurriendo a los reguladores para crear medios que permiten monitorear el uso de IA en la publicación científica, como la inclusión de marcas de agua para LLM que son ilegales o muy difíciles de eliminar.......

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 02 de Mayo
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina




viernes, 25 de abril de 2025

1239- Estreptococo del grupo B y embarazo

John A. Morgan; Nowera Zafar; Danielle B. Cooper. Estreptococo del grupo B y embarazo. StatPearls [Internet]. Treasure Island (FL): StatPearls Publishing; August 11, 2024-2025. Louisiana State University.

Actividad de Educación Continua- Introducción- Etiología- Epidemiología- Fisiopatología- Historia- Evaluación: i) Detección de estreptococo del grupo B durante el embarazo, ii) Cultivo de estreptococo del grupo B, iii) NAAT de estreptococo del grupo B- Tratamiento/Manejo-Diagnóstico diferencial- Pronóstico- Complicaciones- Disuasión y educación del paciente

Actividad de Educación Continua

El estreptococo del grupo B, (SGB) o  Streptococcus agalactiae , es una bacteria grampositiva que se encuentra comúnmente en los tractos genital y gastrointestinal de los humanos y, con menor frecuencia, en las vías respiratorias superiores de niños y adultos, lo que plantea riesgos significativos para la salud, en particular para los neonatos, los bebés pequeños, las mujeres embarazadas y las personas con ciertas afecciones médicas. El estreptococo del grupo B puede colonizar los tractos gastrointestinal y vaginal de hasta un tercio de las personas embarazadas y puede causar varias infecciones, incluyendo bacteriuria asintomática, infecciones del tracto urinario, corioamnionitis, endometritis posparto, neumonía, sepsis puerperal y bacteriemia. Aunque el estreptococo del grupo B representa un pequeño porcentaje de las infecciones del tracto urinario y la bacteriemia periparto durante el embarazo, ocasionalmente puede provocar meningitis y endocarditis. Sin embargo, la transmisión vertical del estreptococo del grupo B durante el parto vaginal puede provocar una enfermedad por estreptococo del grupo B de aparición temprana en los recién nacidos, lo que plantea los riesgos más significativos para el neonato, como bacteriemia, sepsis y muerte.

El cribado universal en el tercer trimestre y la profilaxis antibiótica intraparto han reducido significativamente las infecciones neonatales por estreptococo del grupo B, aunque estas medidas pueden tener consecuencias no deseadas para las madres y los lactantes. La prevención eficaz de la enfermedad neonatal por estreptococo del grupo B depende del cribado adecuado, la administración oportuna de antibióticos y la coordinación con los pediatras. A pesar de las recomendaciones de los CDC sobre el cribado rutinario de estreptococo del grupo B y la administración de antibióticos intraparto, este sigue siendo una de las principales causas de sepsis neonatal temprana en Estados Unidos. Hasta el 40 % de las personas que dan positivo en la prueba de estreptococo del grupo B durante la atención prenatal pueden dar negativo en la prueba al parto, lo que provoca un sobretratamiento significativo y un aumento de la resistencia a los antibióticos. Por lo tanto, aún se investigan nuevas terapias para prevenir la colonización por estreptococo del grupo B en el parto. Esta actividad para profesionales sanitarios está diseñada para mejorar la competencia del alumno en el reconocimiento de la importancia del estreptococo del grupo B en el embarazo, la realización de la evaluación recomendada y la implementación de estrategias de manejo preventivo interprofesional adecuadas para mejorar los resultados de las pacientes.

Objetivos:

  • Detectar la infección por SGB durante el embarazo mediante protocolos establecidos.
  • Implementar pautas de profilaxis antibiótica intraparto (PAI) basadas en los resultados de la detección del SGB y los factores de riesgo de la paciente.
  • Seleccionar el tratamiento adecuado para la infección por SGB durante el embarazo.
  • Implementar estrategias de equipo interprofesional para mejorar la coordinación de la atención y los resultados en pacientes con esta infección durante el embarazo.

Introducción

El estreptococo del grupo B (SGB), o Streptococcus agalactiae , es una bacteria grampositiva que se encuentra comúnmente en los tractos genital y gastrointestinal de los humanos y, con menor frecuencia, en las vías respiratorias superiores de niños y adultos. Esta bacteria plantea riesgos significativos para la salud, en particular para los neonatos, los bebés pequeños, las mujeres embarazadas y las personas con ciertas afecciones médicas. [ 1 ] El SGB puede colonizar los tractos gastrointestinal y vaginal de hasta un tercio de las personas embarazadas, lo que resulta en varias infecciones, incluidas bacteriuria asintomática, infecciones del tracto urinario, corioamnionitis, endometritis posparto, neumonía, sepsis puerperal y bacteriemia. [2]  Aunque el SGB representa un pequeño porcentaje de las infecciones del tracto urinario y la bacteriemia periparto durante el embarazo, ocasionalmente puede provocar secuelas maternas más graves, como meningitis y endocarditis. [3] Sin embargo, las infecciones maternas invasivas por SGB plantean los riesgos más significativos para el neonato, incluyendo bacteriemia, sepsis y muerte. [4]

La transmisión vertical del SGB durante el parto vaginal puede provocar enfermedad por SGB de inicio temprano (SGB-EID) en recién nacidos. La colonización materna de SGB en el tracto gastrointestinal y la vagina es el principal factor de riesgo de SGB-EID  en neonatos. Según los Centros para el Control y la Prevención de Enfermedades (CDC), en Estados Unidos se diagnostican aproximadamente 0,23 casos por cada 1000 nacidos vivos con SGB de inicio temprano. [4]  Las medidas preventivas incluyen la correcta toma de muestras, la prueba de amplificación de ácidos nucleicos (NAAT) para la identificación del SGB y regímenes específicos para madres con rotura prematura de membranas, parto prematuro o alergia a la penicilina, junto con la coordinación entre obstetricia y pediatría......

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 01 de Mayo
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina




domingo, 20 de abril de 2025

1238- Diagnóstico y tratamiento de clamidia y gonorrea

Clara E Van Ommen, Sarah Malleson, Troy Grennan. Un enfoque práctico para el diagnóstico y el tratamiento de la clamidia y gonorrea CMAJ. 2023;195(24):E844–E849. Division of Infectious Diseases (Van Ommen, Grennan), University of British Columbia; British Columbia Centre for Disease Control (Malleson, Grennan), Vancouver, BC

Resumen Puntos claves

  • La incidencia de clamidia y gonorrea, dos infecciones de transmisión sexual comunes, está aumentando.
  • Se debe realizar una prueba de detección asintomática anual para clamidia y gonorrea en todos los pacientes sexualmente activos menores de 30 años, y una prueba de detección más frecuente en los pacientes con mayor riesgo.
  • Las pruebas de amplificación de ácidos nucleicos (NAAT) para clamidia y gonorrea se deben realizar tanto en pacientes asintomáticos como sintomáticos en los sitios de exposición sexual, guiadas por una historia sexual cuidadosa.
  • Las recomendaciones de tratamiento para la clamidia y la gonorrea están evolucionando y los médicos deben seguir las directrices locales.
  • La resistencia a los antimicrobianos en la gonorrea está aumentando; el tratamiento óptimo debe guiarse por los principios de gestión antimicrobiana.
Las dos infecciones de transmisión sexual (ITS) bacterianas de notificación obligatoria más frecuentes en todo el mundo y en Canadá son las causadas por Chlamydia trachomatis y Neisseria gonorrhoeae . Las tasas de ambas infecciones han aumentado durante la última década a pesar de los esfuerzos de salud pública destinados a la prevención, las pruebas y el tratamiento. En 2019, se notificaron 139 389 casos de clamidia y 35 443 casos de gonorrea en Canadá, lo que representa un aumento del 33,1 % y del 181,7 %, respectivamente, desde 2010.  Estos aumentos pueden reflejar mejoras en el diagnóstico, un mayor número de pruebas de detección y rastreo de contactos, o un aumento real de la incidencia.

Las infecciones de transmisión sexual tienen un impacto considerable en las personas y comunidades afectadas. Chlamydia trachomatis y N. gonorrhoeae son patógenos comúnmente implicados en la enfermedad inflamatoria pélvica y, si no se tratan, pueden provocar infertilidad. La infección por una ITS bacteriana se asocia con un mayor riesgo de contraer o transmitir el VIH. La transmisión perinatal de C. trachomatis y N. gonorrhoeae puede provocar oftalmía neonatal en los lactantes, entre otras patologías El tratamiento se ha vuelto más complejo debido al aumento de la resistencia a los antimicrobianos en la gonorrea.

Resumimos el manejo de la clamidia y la gonorrea en atención primaria, a medida que los profesionales de la salud trabajan conjuntamente para reducir la frecuencia de estas infecciones y la morbilidad asociada mediante el tratamiento adecuado. Nos basamos en la evidencia de guías de práctica clínica, revisiones sistemáticas y metanálisis ( Cuadro 1)

------------------------------------------------------------------

¿Cómo se deben realizar las pruebas a los pacientes?

En pacientes asintomáticos, los enfoques para la recolección de muestras para la prueba de amplificación de ácidos nucleicos (NAAT) para clamidia y gonorrea incluyen una primera orina (primeros 10-20 ml, en cualquier momento del día, al menos 1 hora desde la micción anterior) o un hisopado vaginal; otras opciones incluyen un hisopado uretral o cervical (Tabla 2 ). En pacientes con vagina, se prefiere un hisopado vaginal al de la primera orina, ya que las pruebas de orina pueden detectar un 10% menos de infecciones. Aquellas con una neovagina o una reconstrucción de pene que afirma el género deben proporcionar una muestra de orina para NAAT. Las opciones de pruebas extragenitales incluyen un hisopado faríngeo o rectal para NAAT de clamidia y gonorrea. En pacientes sintomáticos, se deben recolectar la primera orina de la micción y los hisopados de los sitios de los síntomas informados para NAAT de clamidia y gonorrea, y para cultivo de gonorrea y prueba de sensibilidad. Los hisopos recolectados por el paciente son aceptables, ya que los estudios han demostrado la equivalencia entre los hisopos orales, vaginales y rectales recolectados por el paciente y los recolectados por el médico para las pruebas de clamidia y gonorrea. La autotoma también puede mejorar la aceptación de las pruebas de detección de ITS.

Los profesionales clínicos deben consultar con sus laboratorios locales de microbiología para obtener recomendaciones sobre los protocolos de recolección y transporte en su región. La primera micción puede recolectarse en un recipiente estéril para la prueba de amplificación de ácidos nucleicos (NAAT) para clamidia y gonorrea. Los hisopos incluidos en los kits NAAT para clamidia y gonorrea pueden usarse en el cuello uterino, la uretra, la vagina, la garganta o el recto; los hisopos de estas zonas también pueden enviarse para el cultivo de gonorrea. El cultivo bacteriano para clamidia no se realiza de forma rutinaria en Canadá.

Se puede solicitar la genotipificación de los serotipos de  linfogranuloma venéreo (LGV) si un paciente presenta un síndrome compatible con LGV. Algunas jurisdicciones canadienses analizan automáticamente todos los hisopos rectales positivos para clamidia para detectar serotipos de LGV. Sin embargo, es importante indicar la sospecha de LGV en las solicitudes de laboratorio, ya que las pruebas automáticas de LGV no son universales y las muestras no rectales (p. ej., úlceras genitales) no se analizan automáticamente........

1)  Leer el articulo completo

2)  Pruebas NAAT para clamidia y gonorrea

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 25 de Abril
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



martes, 15 de abril de 2025

1237- Tuberculosis: pruebas de sensibilidad fenotipicas y genotipicas

Kizil A Yusoof , Juan Ignacio García , Alyssa Schami, Andreu Garcia-Vilanova, Holden V Kelley, Shu-Hua Wang, Adrian Rendon, Blanca I Restrepo, Marcel Yotebieng, Jordi B Torrelles. Pruebas de sensibilidad fenotípica y genotípica a fármacos e inmunodiagnóstico para la tuberculosis: una revisión. Front Immunol. 2022 Jul 7;13:870768.  Graduate School of Biomedical Sciences, University of Texas Health San Antonio, San Antonio, TX, United States.

Resumen

La tuberculosis (TB), considerada una enfermedad antigua, sigue matando a una persona cada 21 segundos. El diagnóstico de Mycobacterium tuberculosis (M.tb) aún presenta muchos desafíos, especialmente en países de ingresos bajos y medianos con altas tasas de carga de enfermedad. En las últimas dos décadas, la cantidad de casos de TB resistente a los medicamentos (DR) ha ido en aumento, desde monorresistente (principalmente por resistencia a la isoniazida o rifampicina) hasta TB extremadamente resistente a los medicamentos. La DR-TB es problemática de diagnosticar y tratar, y por lo tanto, necesita más recursos para controlarla. Junto con los síntomas clínicos de la TB+, el diagnóstico fenotípico y genotípico de la TB incluye una serie de pruebas que se pueden utilizar en diferentes muestras para determinar si una persona tiene TB, así como si la cepa de M.tb + que causa la enfermedad es sensible o resistente a los medicamentos. Aquí, revisamos y discutimos las ventajas y desventajas del fenotípico vs. pruebas de susceptibilidad genotípica a medicamentos para la tuberculosis resistente a los medicamentos (DR-TB), avances en el inmunodiagnóstico de la tuberculosis y proponen un llamado para mejorar las pruebas de diagnóstico de la tuberculosis fáciles de implementar y de bajo costo para controlar la carga de la tuberculosis resistente a los medicamentos (DR-TB), especialmente a la luz del aumento de la carga mundial de resistencia bacteriana a los antimicrobianos y el impacto potencialmente a largo plazo de la interrupción de la enfermedad por el coronavirus 2019 (COVID-19) en los programas de tuberculosis.

Introducción

La Organización Mundial de la Salud (OMS) estima que en los próximos 35 años, sin una vigilancia y un diagnóstico adecuados, aproximadamente 75 millones de personas sufrirán tuberculosis (TB) resistente a los medicamentos (DR), lo que le costará a la economía mundial 16,7 billones de dólares. Estas cifras pueden ser insuficientes debido al impacto negativo proyectado de la pandemia de la enfermedad por coronavirus 2019 (COVID-19) en el control de la TB. 

Durante décadas, la OMS se ha basado en un enfoque simplificado y pragmático que ofrece regímenes farmacológicos estandarizados para todos para tratar la TB. Sin embargo, el control y la gestión de la creciente carga de DR-TB requieren acceso universal a pruebas de sensibilidad a medicamentos (DST) y enfoques de tratamiento individualizados.

Actualmente, en países con alta carga de TB, existen opciones de diagnóstico limitadas para realizar pruebas de DR-TB. Pruebas como los tubos indicadores de crecimiento de micobacterias BACTEC™ (MGIT), Xpert o Xpert Ultra ® MTB/RIF, Truenat MTB/MTB Plus/MTB-RIF DX y los ensayos de sonda lineal (LPA), si bien proporcionan resultados para la TB-DR, son costosas y requieren equipos complejos, infraestructuras de laboratorio, necesidades de bioseguridad y capacitación para los técnicos de laboratorio. 

Estos hechos limitan su implementación en entornos de punto de atención (POC) en comunidades de bajos recursos, donde los casos de TB-DR están aumentando, especialmente debido al impacto de la pandemia de COVID-19 que limita las pruebas y el tratamiento de la TB-DR (falta de suministros de medicamentos) y personal dedicado.  Por lo tanto, existe la necesidad de desarrollar mejores pruebas de diagnóstico en el POC para el diagnóstico rápido de la TB-DR y el monitoreo del tratamiento.

A pesar del progreso sustancial en el control general de la tuberculosis, que resultó en una disminución del 47% en la mortalidad por tuberculosis entre 1990 y 2015, la tuberculosis sigue siendo una de las enfermedades infecciosas asociadas con una alta mortalidad. La aparición de varios perfiles de TB-DR en los últimos 30 años ha complicado aún más el uso de regímenes de tratamiento farmacológico estandarizados. Incluso antes de la COVID-19, las estimaciones indicaban que la TB-DR sería responsable de más muertes por resistencia a los antimicrobianos que cualquier otro patógeno. Para frenar la carga de la TB-DR, será necesario acceder a pruebas de sensibilidad a medicamentos de alta calidad que permitan fundamentar y guiar los regímenes individualizados para cada paciente con TB, especialmente en entornos con alta carga y bajos recursos. 

En este artículo, revisamos el panorama diagnóstico actual de la TB-DR, incluyendo los que se encuentran en desarrollo, para evaluar su idoneidad y sostenibilidad para el control de la TB-DR con base en regímenes individualizados. Cabe destacar que exploramos la posibilidad de aplicar pruebas serológicas conocidas para la TB activa, así como para determinar si un paciente determinado responde al tratamiento. También se analiza la necesidad de biomarcadores específicos de M.tb y/o del huésped para diferenciar la TB-DR de la TB-DR mediante una simple prueba en el punto de atención.

1)  Leer el articulo completo 

2)  Recomendaciones OMS sobre tratamiento para la tuberculosis

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 20 de Abril
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



 

jueves, 10 de abril de 2025

1236- Pruebas de susceptibilidad antimicrobiana fenotípicas de próxima generación

Grace Reszetnik, Keely Hammond , Sara Mahshid, Tamer AbdElFatah, Dao Nguyen, Rachel Corsini, Chelsea Caya, Jesse Papenburg, Matthew P Cheng, Cedric P Yansouni . Pruebas rápidas de susceptibilidad antimicrobiana fenotípica de próxima generación. Nature Communication. 2024;15: 9719. Department of Bioengineering, Faculty of Engineering, McGill University, Montreal, Quebec Canada. Temerty Faculty of Medicine, University of Toronto, Toronto, Ontario Canada

Resumen 

El lento progreso hacia la implementación de la bacteriología clínica convencional en entornos de bajos recursos y el gran interés en una mayor velocidad en las pruebas de susceptibilidad a los antimicrobianos (AST) en general han centrado la atención en las tecnologías de AST rápidas de próxima generación. En esta revisión, sintetizamos sistemáticamente publicaciones y presentaciones a agencias reguladoras que describen tecnologías que proporcionan AST fenotípica con mayor rapidez que los métodos convencionales. Caracterizamos más de noventa tecnologías en términos de innovaciones técnicas subyacentes, nivel de madurez tecnológica, grado de validación clínica y tiempo de obtención de resultados. Este trabajo proporciona una guía para que los desarrolladores de tecnología y los microbiólogos clínicos comprendan el panorama tecnológico de AST fenotípica rápida, la línea de desarrollo actual y los hitos de validación específicos de AST.

Introducción

El acceso inadecuado a pruebas bacteriológicas clínicas en entornos de bajos recursos (LRS) impide el manejo de pacientes individuales, la detección de resistencia a los antimicrobianos (AMR) y la implementación de intervenciones efectivas de administración de antimicrobianos (AMS). Esto alimenta el uso excesivo de antimicrobianos empíricos que impulsan la AMR, ahora una de las mayores amenazas que enfrenta la humanidad.

La AMR afecta desproporcionadamente a los países de bajos ingresos, en particular aquellos en África subsahariana y el sur de Asia . Desafortunadamente, solo el 1.3% de los 50,000 laboratorios médicos en 14 países subsaharianos ofrecían alguna prueba bacteriológica clínica a partir de 2019, debido a múltiples factores que frustran la ampliación de la bacteriología convencional . Estos incluyen un requisito de infraestructura especializada, una falta de automatización y un acceso local inadecuado a una cadena de suministro compleja que se ve agravada por distorsiones cambiarias en muchos países. 

Los sectores de diagnóstico centrados en enfermedades específicas como el VIH, la tuberculosis, la malaria o la COVID-19 requieren una lista comparativamente corta de plataformas o suministros. Por el contrario, los laboratorios de bacteriología clínica (BCC) requieren una cadena de suministro compleja, que puede involucrar cientos de componentes de origen estable y calidad garantizada. Aunque suelen ser económicos, a menudo no están disponibles en los LRS o no pueden adquirirse sin divisas, que a menudo son inaccesibles. Las dificultades en materia de recursos humanos y la relativa falta de orientación granular complican aún más la implementación de los BCC.

La piedra angular de los laboratorios de bacteriología clínica es el diagnóstico de infecciones del torrente sanguíneo . Esto implica convencionalmente tres procesos secuenciales: i) detección del crecimiento bacteriano, ii) identificación taxonómica de colonias bacterianas aisladas y iii) pruebas de susceptibilidad a los antimicrobianos (AST). 

La detección del crecimiento bacteriano en frascos de hemocultivo puede tardar hasta 5 días, pero a menudo ocurre dentro de las primeras 24 h de incubación . A continuación, la identificación bacteriana suele tardar otras 24 h. Finalmente, la AST en colonias bacterianas puras normalmente también requiere de 4 a 24 h. 

Se han propuesto pruebas de amplificación de ácidos nucleicos (NAAT) para acelerar este proceso. Por desgracia, la mayoría de los métodos genotípicos se basan actualmente en la detección de un número limitado de objetivos de una manera que no está libre de hipótesis ni permite la detección de los diversos mecanismos de RAM en entornos clínicos. Por ejemplo, un gen de carbapenemasa es identificable en menos del 50 % de las bacterias que se encuentran fenotípicamente resistentes a los carbapenémicos. Por lo tanto, a pesar de las considerables contribuciones del diagnóstico basado en NAAT en los campos de la tuberculosis, el VIH y la malaria, hasta la fecha han surgido pocas tecnologías disponibles que sustituyan adecuadamente a la bacteriología convencional para obtener una AST rápida y precisa. 

La falta de progreso en la implementación de la bacteriología clínica convencional en entornos de bajos recursos, así como el interés en una mayor velocidad y precisión para la AST en general, ha desviado la atención hacia las tecnologías de AST rápidas de nueva generación.

En esta revisión, nuestro objetivo fue comprender la cartera actual de tecnologías de AST y su papel para reducir la brecha diagnóstica que enfrenta actualmente el LRS. Realizamos una revisión exhaustiva de publicaciones científicas y presentaciones a agencias reguladoras que describen tecnologías capaces de proporcionar AST fenotípica en un plazo más corto que los métodos convencionales. Posteriormente, caracterizamos la cartera de tecnologías de AST identificadas en términos de sus innovaciones técnicas subyacentes, nivel de madurez tecnológica (TRL), grado de validación clínica y tiempo esperado estandarizado para obtener resultados desde la recolección de muestras.

Tecnologías identificadas y marcos comparativos

Número de plataformas identificadas

Se identificaron 81 publicaciones que describen plataformas de AST no comercializadas (67 fenotípicas y 14 basadas en ácidos nucleicos ). También se identificaron 18 plataformas comercializadas: 12 de 18 con autorización 510 (k) de la FDA y marcado CE, y 6 de 18 con marcado CE únicamente. Se describieron ocho plataformas comercializadas en 34 publicaciones, antes o después de su comercialización. Se identificaron nueve tecnologías de forma externa a nuestra búsqueda bibliográfica en PubMed y las bases de datos de la FDA mediante consultas con expertos y búsquedas en internet (diagrama PRISMA, Fig.1)....

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 15 de Abril
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


sábado, 5 de abril de 2025

1235- Recomendaciones CDC/ 2024 para las pruebas de sífilis.

John R. Papp, Ina U. Park, Yetunde Fakile, Lara Pereira, Allan Pillay, Gail A. Bolan. Recomendaciones del laboratorio CDC para las pruebas de sífilis en USA, 2024. Recomendaciones e informes / 8 de febrero de 2024 / 73(1);1–32.  Division of STD Prevention, National Center for HIV, Viral Hepatitis, STD, and TB Prevention, CDC, Atlanta, Georgia; University of California San Francisco, San Francisco, California; 3The Task Force for Global Health, Decatur, Georgia

Resumen

Este informe proporciona nuevas recomendaciones de los CDC para las pruebas que pueden respaldar el diagnóstico de sífilis, incluidas las pruebas serológicas y los métodos para la identificación del agente causal Treponema pallidum . Estas recomendaciones integrales son las primeras publicadas por los CDC sobre las pruebas de laboratorio para la sífilis, que tradicionalmente se han basado en algoritmos serológicos para detectar una respuesta inmune humoral a T. pallidum . Estas pruebas se pueden dividir en pruebas no treponémicas y treponémicas dependiendo de si detectan anticuerpos que son ampliamente reactivos a los antígenos lipoidales compartidos por el huésped y T. pallidum o anticuerpos específicos de T. pallidum , respectivamente. Ambos tipos de pruebas se deben usar en conjunto para ayudar a distinguir entre una infección no tratada o una infección pasada que se ha tratado con éxito. Las pruebas serológicas más nuevas permiten la automatización del laboratorio, pero se deben usar en un algoritmo, que también puede involucrar pruebas serológicas manuales más antiguas. La detección directa de T. pallidum continúa evolucionando desde el examen microscópico del material de las lesiones para la visualización de T. pallidum hasta la detección molecular del organismo. En Estados Unidos, la disponibilidad de pruebas de diagnóstico rápido para la sífilis es limitada; una mayor disponibilidad de pruebas de diagnóstico rápido sensibles y específicas podría facilitar la expansión de los programas de cribado y reducir el tiempo transcurrido entre el resultado de la prueba y el tratamiento. Estas recomendaciones están dirigidas a directores de laboratorios clínicos, personal de laboratorio, médicos clínicos y personal de control de enfermedades, quienes deben elegir entre los múltiples métodos de prueba disponibles, establecer procedimientos operativos estándar para la recolección y el procesamiento de muestras, interpretar los resultados de las pruebas para su informe de laboratorio, y asesorar y tratar a los pacientes. Las futuras revisiones de estas recomendaciones se basarán en nuevas investigaciones o avances tecnológicos en el campo de la sífilis en el laboratorio clínico.

Introducción

Treponema pallidum subsp. pallidum, que se transmite principalmente por contacto sexual, se encuentra entre las cuatro especies patógenas del género Treponema, que pertenece a la familia Treponemataceae. Las otras tres especies patógenas de Treponema causan enfermedades cutáneas que se transmiten principalmente por contacto directo de piel a piel. El pian es causado por T. pallidum subsp. pertenue y se encuentra en zonas tropicales de África, Asia y Latinoamérica. La infección por Treponema carateum produce pinta que, aunque es poco frecuente, se encuentra en zonas tropicales de Latinoamérica. La sífilis endémica o bejel, causada por T. pallidum subsp. endemicum , afecta principalmente a niños y se encuentra principalmente en el Mediterráneo oriental, África occidental y Cuba. Sin embargo, el análisis filogenético de muestras de lesiones de ciertos pacientes fuera de las zonas donde el bejel es endémico y que habían recibido un diagnóstico de sífilis reveló que era T. pallidum subsp. El virus endemicum podría transmitirse por vía sexual. Estos pacientes presentan una evolución clínica similar a la sífilis. En este informe, T. pallidum subsp. pallidum se abreviará como T. pallidum, a menos que sea necesaria una mayor distinción entre las subespecies.

T. pallidum causa una infección sistémica y puede llevar a secuelas graves en múltiples sistemas de órganos, incluyendo el sistema nervioso central (SNC) y los sistemas ocular y ótico. La transmisión vertical puede causar sífilis congénita, que puede resultar en abortos espontáneos, abortos espontáneos o muerte fetal; los bebés con sífilis congénita pueden tener signos clínicos de infección al nacer o meses o años después del nacimiento. 

Las características clínicas en adultos progresan a través de diferentes etapas comenzando con la sífilis primaria, que a menudo aparece alrededor de 3 semanas después de la exposición, con un período de incubación de 10 a 90 días. La sífilis primaria se caracteriza por lesiones ulcerativas únicas o múltiples (chancros) que a menudo son indoloras y por lo tanto pueden pasar desapercibidas cuando ocurren dentro de la boca, la vagina o el recto. Los chancros pueden persistir durante 2 a 6 semanas antes de sanar espontáneamente. La sífilis secundaria suele comenzar de 2 a 24 semanas después de que cicatrizan la mayoría de las lesiones primarias y se caracteriza comúnmente por una erupción mucocutánea que aparece en el tronco, las palmas de las manos y las plantas de los pies; en aproximadamente una cuarta parte de los pacientes se presentan manchas mucosas en la boca o condilomas planos en los genitales o el recto. 

Los síntomas de la sífilis primaria y secundaria pueden ocurrir simultáneamente, lo cual es más probable en personas con infección por VIH. Las lesiones húmedas de la sífilis primaria y secundaria contienen T. pallidum infeccioso que puede transmitirse por contacto sexual a personas susceptibles. Las manifestaciones clínicas secundarias también pueden consistir en linfadenopatía, alopecia y, ocasionalmente, manifestaciones neurológicas y oculares. Los signos y síntomas de la sífilis secundaria suelen resolverse en aproximadamente 3 meses, con un rango de 1 a 12 meses, pero pueden reaparecer periódicamente durante los primeros años de infección en ≤25 % de las personas no tratadas.

El intervalo entre la sífilis primaria a secundaria y secundaria a terciaria se conoce como latencia cuando no hay síntomas o signos de sífilis presentes. El intervalo de la sífilis secundaria a la terciaria puede durar años o décadas antes de que aparezcan los síntomas. En hasta dos tercios de los pacientes, la enfermedad puede permanecer latente de por vida y nunca progresar a sífilis terciaria. La sífilis latente asintomática se divide en tres categorías: infecciones latentes tempranas que se cree que se adquirieron en el último año; infecciones latentes tardías que se cree que tienen una duración mayor a 1 año; y sífilis latente de duración desconocida en la que el momento de la adquisición no se puede determinar con base en los datos clínicos, históricos o de laboratorio disponibles. 

Los signos clínicos de la sífilis terciaria, una afección poco común, incluyen sífilis cardiovascular, con aneurismas o estenosis resultantes de la multiplicación de espiroquetas treponémicas en la aorta torácica o las arterias coronarias; Gomas sifilíticos, con crecimientos granulomatosos blandos que pueden causar destrucción tisular en cualquier sistema orgánico, incluyendo huesos y cartílagos; y neurosífilis, con manifestaciones neurológicas tardías, como tabes dorsal y paresia generalizada. La neurosífilis puede presentarse en cualquier etapa de la sífilis y puede ser asintomática o sintomática durante cualquier etapa de la infección.......

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 10 de Abril
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


domingo, 30 de marzo de 2025

1234- PCR digital (dPCR) como procedimiento de medición de referencia

Samreen Falak, Denise M O'Sullivan , Megan H Cleveland , Simon Cowen  y otros. Aplicación de la PCR digital como procedimiento de medición de referencia para respaldar la precisión del aseguramiento de la calidad de las pruebas de diagnóstico molecular de enfermedades infecciosas. Oxford Academic- Clin Chem 2025; 71(3): 378-386. Department, Biomedical Optics, Physikalisch-Technische Bundesanstalt, Berlin, Germany; Biological Metrology, National Measurement Laboratory (NML), LGC, London, United Kingdom y otras instituciones. 

Resumen Chat DeepSeek

El artículo explora la aplicación de la PCR digital (dPCR) como procedimiento de medición de referencia (RMP) para mejorar la precisión y la confiabilidad de las pruebas de diagnóstico molecular de enfermedades infecciosas. Destaca la creciente importancia de las mediciones precisas y estandarizadas en los diagnósticos clínicos, en particular para las enfermedades infecciosas, donde la cuantificación precisa de los patógenos es fundamental para el tratamiento eficaz y el manejo de la enfermedad. Los autores sostienen que la dPCR, con su alta precisión y sus capacidades de cuantificación absoluta, es adecuada para actuar como una RMP, proporcionando una base sólida para el control de calidad en el diagnóstico molecular.

Antecedentes y contexto

Las pruebas de diagnóstico molecular se han convertido en una piedra angular en la detección y el tratamiento de enfermedades infecciosas. Las técnicas como la PCR cuantitativa (qPCR) se utilizan ampliamente debido a su sensibilidad y especificidad. Sin embargo, la qPCR tiene limitaciones, incluida la variabilidad en la medición debido a la dependencia de curvas estándar y posibles sesgos introducidos durante la amplificación. Estas limitaciones pueden afectar la precisión y reproducibilidad de los resultados, lo que plantea desafíos para la toma de decisiones clínicas y el control de calidad.

Para abordar estos problemas, existe la necesidad de RMP que puedan proporcionar mediciones trazables y estandarizadas. Las RMP son métodos de alta precisión que se utilizan para calibrar y validar ensayos de diagnóstico de rutina, lo que garantiza la coherencia en todos los laboratorios y plataformas. El artículo propone la dPCR como un candidato prometedor para esta función, dada su capacidad para proporcionar cuantificación absoluta sin la necesidad de calibración externa.

PCR digital: principios y ventajas

La PCR digital es una mejora de la PCR tradicional que divide la muestra en miles de reacciones individuales, cada una de las cuales contiene un pequeño volumen del ácido nucleico objetivo. Al contar el número de reacciones positivas y negativas, la dPCR puede determinar la concentración absoluta de la molécula objetivo con alta precisión. Este método elimina la necesidad de curvas estándar, lo que reduce la variabilidad y mejora la precisión.

El artículo describe varias ventajas de la dPCR:

  • Cuantificación absoluta: la dPCR proporciona una medición directa de los ácidos nucleicos objetivo, lo que la hace muy confiable para cuantificar objetivos de baja abundancia.
  • Alta precisión: el proceso de partición reduce el impacto de los sesgos de amplificación, lo que da como resultado resultados más consistentes y reproducibles.
  • Robustez: la dPCR es menos susceptible a los inhibidores y los efectos de la matriz, que pueden interferir con los ensayos de qPCR.
  • Trazabilidad: la dPCR se puede utilizar para establecer materiales de referencia y calibradores, lo que respalda la estandarización en todos los laboratorios.

Aplicación en el diagnóstico de enfermedades infecciosas

Los autores analizan el potencial de la dPCR para mejorar la precisión de los diagnósticos moleculares de enfermedades infecciosas. La cuantificación precisa de patógenos, como virus, bacterias y parásitos, es esencial para determinar la carga viral, controlar la respuesta al tratamiento y detectar la resistencia a los medicamentos. Sin embargo, los métodos actuales a menudo carecen de la precisión y la estandarización necesarias para una toma de decisiones clínicas confiable.

La dPCR puede abordar estos desafíos al servir como un RMP para el desarrollo y la validación de ensayos de diagnóstico. Por ejemplo, la dPCR se puede utilizar para:

  • Calibrar ensayos de qPCR: al proporcionar valores de referencia para las concentraciones objetivo, la dPCR puede mejorar la precisión de las mediciones de qPCR.
  • Validar nuevos ensayos: la dPCR se puede utilizar para verificar el rendimiento de nuevas pruebas de diagnóstico molecular, asegurando que cumplan con los estándares regulatorios y clínicos.
  • Monitorear el control de calidad: la dPCR puede respaldar el desarrollo de materiales de control de calidad, lo que permite a los laboratorios monitorear el rendimiento de sus ensayos a lo largo del tiempo.

El artículo proporciona ejemplos de aplicaciones de la dPCR en las pruebas de enfermedades infecciosas, incluida la cuantificación del VIH, el virus de la hepatitis C (VHC) y el citomegalovirus (CMV). Estos ejemplos demuestran la capacidad de la dPCR para proporcionar mediciones precisas y reproducibles, incluso a bajas concentraciones, lo que la convierte en una herramienta valiosa para el diagnóstico clínico.

Desafíos y limitaciones

Si bien la dPCR ofrece ventajas significativas, el artículo también reconoce sus limitaciones y desafíos. Estos incluyen:

  • Costo y complejidad: los instrumentos y reactivos de la dPCR pueden ser costosos, y la tecnología requiere capacitación y experiencia especializadas.
  • Rendimiento: la dPCR generalmente tiene un rendimiento menor en comparación con la qPCR lo que puede limitar su uso en laboratorios clínicos de alto volumen.
  • Estandarización: existe la necesidad de protocolos estandarizados y materiales de referencia para garantizar la coherencia en diferentes plataformas y laboratorios.
  • Análisis de datos: la interpretación de los datos de dPCR puede ser compleja y requiere métodos estadísticos sólidos para garantizar resultados precisos.

A pesar de estos desafíos, los autores sostienen que los beneficios de la dPCR superan sus limitaciones, en particular en el contexto de los RMP y el control de calidad.

Conclusión

La aplicación de la dPCR como método de diagnóstico rápido representa un avance significativo en el diagnóstico molecular y ofrece una herramienta poderosa para garantizar la precisión y la confiabilidad de las pruebas de enfermedades infecciosas. Al proporcionar una cuantificación absoluta y una alta precisión, la dPCR puede abordar las limitaciones de los métodos actuales y respaldar el desarrollo de ensayos de diagnóstico estandarizados. Si bien aún existen desafíos, los beneficios potenciales de la dPCR la convierten en una tecnología prometedora para mejorar la toma de decisiones clínicas y los resultados de los pacientes.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 05 de Abril
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina