viernes, 15 de diciembre de 2017

486- Vitamina D y Tiroides

Kim D. The Role of Vitamin D in Thyroid Diseases. Int J Mol Sci. 2017 Sep 12;18(9). Division of Endocrinology, Department of Internal Medicine, Dankook University College of Medicine,  Chungnam .Korea. 

Resumen

 El papel principal de la vitamina D es la regulación del metabolismo óseo y la homeostasis de calcio y fósforo. En las últimas décadas, se ha estudiado la importancia de la vitamina D en las acciones no esqueléticas, incluyendo el papel de la vitamina D en las enfermedades autoinmunes, los síndromes metabólicos, las enfermedades cardiovasculares, los cánceres y la mortalidad por todas las causas. La evidencia reciente ha demostrado una asociación entre el bajo nivel de vitamina D y las enfermedades tiroideas autoinmunes como la tiroiditis de Hashimoto y la enfermedad de Graves, y la alteración de la señalización de la vitamina D ha sido reportada en cánceres de tiroides. Esta revisión se centrará en datos recientes sobre el posible papel de la vitamina D en las enfermedades de la tiroides, incluyendo las enfermedades tiroideas autoinmunes y los cánceres tiroideos.

1. Introducción

La vitamina D es una molécula esteroide, producida principalmente en la piel, que regula la expresión de un gran número de genes . El receptor de vitamina D (VDR) se encuentra en la mayoría de los tejidos y células del cuerpo. El papel principal de la vitamina D es la regulación del metabolismo óseo y la homeostasis de calcio y fósforo. Evidencia reciente sugiere que la deficiencia de vitamina D, que es común en todo el mundo, también podría tener acciones no esqueléticas incluyendo un papel importante en enfermedades autoinmunes, cánceres, síndromes metabólicos, enfermedades cardiovasculares e infección, así como la mortalidad por todas las causas. Los bajos niveles  de vitamina D también se han asociado con enfermedades autoinmunes de la tiroides (AITD) tales como la tiroiditis de Hashimoto (HT) y la enfermedad de Graves (GD). La alteración de la señalización de la vitamina D se ha informado que fomentar la tumorigénesis tiroidea.

El objetivo de esta revisión es resumir los datos recientes sobre la posible asociación entre la vitamina D y las enfermedades tiroideas, incluyendo AITD y cáncer de tiroides. Esta revisión se basa en una búsqueda electrónica de la literatura en la base de datos PubMed publicada desde enero de 2002 hasta mayo de 2017 utilizando combinaciones de las siguientes palabras clave: deficiencia / insuficiencia de vitamina D o vitamina D y tiroiditis autoinmune, tiroiditis de Hashimoto, enfermedad de Graves, tiroides cáncer o nódulo tiroideo. También se analizaron las referencias incluidas en los artículos de revisión publicados previamente, y se incluyeron también documentos relevantes.

2. Fuentes de vitamina D, Metabolismo y Acción

Hay dos formas de vitamina D, vitamina D 3 (o colecalciferol) y vitamina D 2 (o ergocalciferol). El primero se sintetiza principalmente en la piel mediante la 7-deshidrocolesterol reductasa tras la exposición a la radiación ultravioleta B (UVB), y puede obtenerse también de unas pocas fuentes dietéticas (principalmente los pescados grasos), mientras que el último es producido por plantas y hongos 

Ambas formas de vitamina D se transportan al hígado donde se convierten en 25-hidroxivitamina D (25(OH)D o calcidiol) por la 25-hidroxilasa (CYP27A1 y CYP2R1). La 25(OH)D es la principal forma circulante y almacenada de vitamina D, y los niveles séricos de esta forma se consideran el mejor marcador para medir el estatus dela  vitamina D. Aunque se discute, los valores vitamina D  generalmente se aceptan insuficientes los valores de  50-75 nmol/L de 25 (OH) D y como deficientes los valores menores de 50 nmol/L. ........

Ver el artículo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


domingo, 10 de diciembre de 2017

485- Equilibrio ácido-base

L. Lee Hamm, Nazih Nakhoul, Kathleen S. Hering-Smith. Homeostasis ácido-base. Clin J Am Soc Nephrol. 2015 Dec 7; 10(12): 2232–2242. Department of Medicine, Section of Nephrology, Hypertension and Renal Center of Excellence, Tulane University School of Medicine,  Medicine Service, Southeast Louisiana Veterans Health Care System, New Orleans, Louisiana

Resumen

La homeostasis ácido-base y la regulación del pH son fundamentales tanto para la fisiología normal como para el metabolismo y la función celular. La importancia de esta regulación se evidencia por una variedad de trastornos fisiológicos que se producen cuando el pH del plasma es alto o bajo. Los riñones tienen el papel predominante en la regulación de la concentración sistémica de bicarbonato y por lo tanto, el componente metabólico del equilibrio ácido-base. La función de los riñones tiene dos componentes: la reabsorción de virtualmente todo el HCO3- filtrado  y la producción de nuevo bicarbonato para reemplazar el consumido por los ácidos normales o patológicos. Esta producción o generación de nuevos HCO 3- se realiza mediante la excreción neta de ácido. En condiciones normales, aproximadamente de un tercio a la mitad de la excreción neta de ácido por los riñones está en forma de ácido titulable. La otra mitad a dos tercios es la excreción de amonio. La capacidad de excretar amonio en condiciones de carga ácida es cuantitativamente mucho mayor que la capacidad de incrementar el ácido titulable. Varias vías y procesos a menudo redundantes existen para regular estas funciones renales. Los trastornos en la homeostasis ácido-base, sin embargo, son comunes en la medicina clínica y a menudo pueden estar relacionados con los sistemas implicados en el transporte ácido-base en los riñones.

Introducción

Normalmente, el equilibrio ácido-base sistémico está bien regulado con un pH arterial comprendido entre 7,36 y 7,44; el pH intracelular suele ser de aproximadamente 7,2. Por ejemplo, la acidosis metabólica crónica puede estar asociada con una disminución de la densidad ósea, nefrolitiasis, pérdida muscular y progresión de la enfermedad renal crónica . A nivel celular, muchos procesos celulares esenciales, enzimas metabólicas y procesos de transporte transmembrana son altamente sensibles al pH. Aunque esta revisión tratará la regulación sistémica del pH y el papel de los riñones, las células individuales también tienen una variedad de mecanismos para regular su pH intracelular. Se enfatizarán los conceptos generales más que las vías o procesos específicos, que están bien cubiertos en otros lugares; las referencias son selectivas.

Conceptos básicos

Los buffers intracelulares y extracelulares son el mecanismo más inmediato de defensa contra los cambios en el pH sistémico. El hueso y las proteínas constituyen una proporción sustancial de estos buffers. Sin embargo, el sistema tampón más importante es el sistema buffer HCO 3-/CO2. La  Ecuación de Henderson-Hasselbach describe la relación de pH, y (HCO 3-)/CO2 ...........

Ver el articulo completo

Pagina relacionada: N° 359

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina



martes, 5 de diciembre de 2017

484- Liquido cefalorraquídeo

Hansotto Reiber.  Base de conocimiento para la interpretación de los datos esenciales observados en el liquido cefalorraquídeo en neurología y psiquiatría. Arq. Neuro-Psiquiatr. 2016: 74 (6).  CSF and Complexity Studies, Sao Paulo SP, Brasil; University Goettingen, Former Neurochemistry Laboratory, Goettingen, Germany

Resumen

La base de conocimiento fisiológico y biofísico para las interpretaciones de los datos del líquido cefalorraquídeo (LCR) y los rangos de referencia son esenciales para el patólogo clínico y el neuroquímico. Con la popular descripción de la función  barrera-dependiente del LCR, la dinámica y  gradientes de concentración de proteínas derivadas de la sangre derivadas del cerebro, de las lepto-meníngeas del LCR, y las funciones de especificidad de los linfocitos B en el cerebro, el neurólogo, el psiquiatra y el neurocirujano puede encontrar elementos esenciales para el diagnóstico, la investigación o el desarrollo de terapias. Esta revisión puede ayudar a reemplazar las ideas desactualizadas sobre los modelos de "fuga" de las barreras, las interpretaciones lineales del Índice de inmunoglobulinas o la electroforesis en LCR.  Se describen cálculos, e interpretaciones analíticas para los casos del cocientes de albúmina, la cuantificación de la síntesis de inmunoglobulinas, IgG oligoclonal, análisis de IgM, la reacción de anticuerpos poliespecíficos (MRZ-), el tratamiento estadístico de los datos de LCR y la evaluación del control de calidad en el laboratorio.  La relevancia del diagnóstico está documentada en una revisión bibliográfica

Introducción

Esta presentación muestra que el enfoque conceptual del análisis del líquido cefalorraquídeo (LCR) puede proporcionar información sobre muchos procesos patológicos inflamatorios, parasitarios, oncológicos o hemorrágicos agudos y crónicos en el cerebro, no proporcionados por la electrofisiología ni mediante técnicas reales de imágenes cerebrales. Esto enfatiza la demanda de realizar un análisis LCR con la más alta calidad posible que  no es solo una demanda de precisión analítica. El reconocimiento de los patrones de datos relacionados con la enfermedad es, además, un desafío para una interpretación basada en el conocimiento .

Esta revisión proporciona la base de conocimientos fisiológicos y biofísicos de la interpretación de datos de LCR  junto con los valores de referencia y los comentarios de aspectos analíticos, así como los errores comunes en la interpretación de los analitos correspondientes.

En la práctica mundial de análisis de LCR, métodos obsoletos como electroforesis LCR, índice de IgG lineal, eventualmente la medición de Cl-, Na+ y K+ en LCR todavía están en uso, décadas después de la aparición de mejores analitos, más relevantes y científicamente fundamentados. La interpretación del aumento de las concentraciones de proteína sérica en el LCR, la denominada disfunción de la barrera LCR en sangre, todavía se explica con mayor frecuencia por el modelo de fuga de la barrera, en términos como deterioro de la barrera o ruptura de la barrera. 

Comprender una mayor concentración de proteína sérica en el LCR como consecuencia funcional del flujo del LCR en lugar de esperar una "fuga" morfológica es crucial en neurología, psiquiatría y en neurocirugía. Esto significa que el conocimiento de la base de conocimiento de la interpretación de los datos del LCR es esencial para el clínico en neurología o psiquiatría, así como para el neuropatólogo clínico o neuroquímico.

En muchos países, la neuro-imagen se se prefiere al análisis de LCR. Pero el análisis completo de  inmunoglobulinas (IgG, IgA, IgM) con patrones relacionados con la enfermedad puede proporcionar un diagnóstico más temprano y seguro y también es la base para una evaluación de calidad general en el laboratorio de LCR. El conocimiento sobre las diferentes dinámicas de moléculas derivadas de sangre y cerebro o proteínas lepto-meníngeas en LCR apoyados sobre investigación básica permite identificar la fuente de moléculas en LCR  o proporciona una nueva perspectiva para rápida ubicación de parásitos en enfermedades tropicales .

Ver el artículo completo

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


jueves, 30 de noviembre de 2017

483- Definicion por edad de la enfermedad renal cronica

Pierre Delanaye, Richard J. Glassock, Hans Pottel, Andrew D. Rule. Una definición calibrada por edad  en  la  enfermedad renal crónica:  justificación y beneficios Clin Biochem Rev. 2016 Feb; 37(1): 17–26. Department of Nephrology, Dialysis, Transplantation, University of Liège (ULg CHU), Liège, Belgium; Department of Medicine, Geffen School of Medicine at UCLA, Los Angeles, California, USA.

Resumen

La definición de la enfermedad renal crónica (ERC) es objeto de intenso debate en la literatura actual sobre nefrología. El debate se refiere al valor umbral de la tasa de filtración glomerular estimada (eGFR) que se utiliza para hacer el diagnóstico de la ERC. Las recomendaciones actuales sostienen que se debe usar un umbral universal de 60 mL /min/1,73m2 . Este umbral ha sido defendido por estudios epidemiológicos que muestran que el riesgo de mortalidad o enfermedad renal en etapa terminal aumenta con una eGFR inferior a 60 mL/min/1,73m2 . Sin embargo, un umbral universal no tiene en cuenta la disminución fisiológica de la eGFR por el envejecimiento ni el riesgo de mortalidad de la insuficiencia renal en su etapa terminal, siendo relativo con niveles de eGFR aislados por debajo de 60 mL/min/1,73m2 en sujetos mayores y aumento significativo por sobre ese valor entre pacientes más jóvenes. La sobre-estimación de la prevalencia de ERC en los ancianos  y la sub-estimación de la ERC (potencialmente de enfermedades nefrológicas primarias tratables) en pacientes más jóvenes son de primordial preocupación. Se ha propuesto una definición calibrada por edad de la ERC para distinguir los cambios relacionados con la edad de los cambios relacionados con la enfermedad en la ERC. Para los pacientes menores de 40 años, la ERC se define por eGFR por debajo de 75 mL /min /1,73m2 . Para los pacientes con edades entre 40 y 65 años, la ERC se define por 60 mL/min/1,73m2 . Para sujetos mayores de 65 años sin albuminuria o proteinuria, la ERC se define por eGFR por debajo de 45 mL / min / 1,73m 2 .

Introducción

La enfermedad renal crónica (ERC) se describe a menudo como el "asesino silencioso" en la medicina, ya que esta patología rara vez es sintomática hasta que la tasa de filtración glomerular (eGFR) es severamente disminuida. Por lo tanto, el análisis de sangre y orina durante la atención médica de rutina es de importancia clave. 

Los dos biomarcadores más útiles para evaluar la salud renal son la eGFR y la evaluación de albuminuria (o proteinuria). Existen otras pruebas más específicas para caracterizar la ERC, pero están fuera del alcance de este artículo de revisión. La estimación de la eGFR se basa en biomarcadores serológicos filtrados por vía renal, más comúnmente las ecuaciones basadas en los niveles de creatinina sérica (sCr). El valor de sCr depende de la eGFR, pero también de la masa muscular, la secreción tubular de creatinina y en cierta medida el consumo dietético de carne magra y cocida. Además, la relación entre sCr y eGFR es una función recíproca. 

La estimación de la eGFR por las ecuaciones basadas en la creatinina incluye otras variables como el género, la etnia y, lo que es importante para nuestra discusión, la edad.  Ha habido múltiples ecuaciones basadas en creatinina desarrolladas  así como métodos de albuminuria o pruebas de proteinuria.  Para simplificar el debate, consideraremos las Directivas  de las  Kidney Disease Improving Global Outcome (KDIGO). Ellos recomiendan la  ecuacion Chronic Kidney Disease Epidemiology (CKD-EPI) y la  relacion albumin o protein)/creatinina (UACR)  en una muestra aleatoria de orina obtenida preferentemente  a la mañana.


(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina



sábado, 25 de noviembre de 2017

482- Pruebas de cribado expandido (MS/MS)

Martínez-Morillo E, Prieto García B, Álvarez Menéndez FV. Desafíos para la armonización mundial de los programas de detección del recién nacidos . Clin Chem. 2016 May;62(5):689-98. Metabolic Diseases Laboratory, Laboratory of Medicine, Department of Clinical Biochemistry, Hospital Universitario Central de Asturias, Oviedo, Spain.

Antecedentes:    Los trastornos metabólicos hereditarios (IMD) son causados ​​por un defecto en una vía metabólica, lo que conduce a mal funcionamiento del metabolismo y/o a la acumulación de metabolitos intermedios tóxicos. Hasta la fecha, se han identificado cientos de IMDs y numerosas  de estas enfermedades son condiciones potencialmente mortales que no son evidentes al nacer. Los programas de detección del recién nacidos (NBS) incluyen el examen clínico y de laboratorio de neonatos que en general no presentan problemas de salud, con el objetivo de descubrir a aquellos niños que  de hecho sufren de una condición tratable.

Contenido:   En los últimos años, la introducción de la espectrometría de masas en tándem (MS/MS)  ha permitido la expansión de programas de cribado. Sin embargo, esta expansión ha traído un alto grado de heterogeneidad en los IMDs probados entre diferentes programas NBS y se ha llevado a cabo un intento de armonizar las condiciones metabólicas recomendadas para el mismo En los Estados Unidos y la Unión Europea se han propuesto dos paneles de control uniformes, elaborados por organizaciones bien informadas. Aquí, revisamos los procesos actuales basados ​​en la evidencia para evaluar y expandir los programas NBS. También discutimos los IMDs que recientemente se han introducido en algunos programas de detección, tales como inmunodeficiencias combinadas graves, trastornos de almacenamiento lisosómico y adrenoleucodistrofia.

Resumen:   Los programas de NBS han sido una función de salud pública, establecida durante más de 50 años para identificar de manera eficiente y rentable a los recién nacidos con condiciones severas. Sin embargo, el NBS aún no es óptimo. Esta revisión pretende dilucidar el grado actual de armonización de los programas NBS en todo el mundo, así como describir los principales puntos controvertidos y discutir los múltiples desafíos que deben afrontarse en las estrategias ampliadas de NBS.

Los IMDs son enfermedades genéticas raras pero potencialmente devastadoras que representan un problema de salud pública. Los programas NBS forman parte de la atención médica aceptada en todos los países desarrollados. En la última década, la MS/MS se ha convertido en una tecnología clave para NBS, permitiendo el estudio de decenas de enfermedades metabólicas.  En los últimos años se ha incrementado la presión para agregar más condiciones a los programas de la NBS. Sin embargo, el establecimiento y la ampliación de los programas de cribado plantea muchos desafíos, comenzando con la falta de consenso sobre los IMDs que deben ser examinados.

En esta revisión evaluamos el estado actual de NBS en todo el mundo. los principales grupos de IMDs que se examinan y se enfatizan los puntos más polémicos de los estudios.. También ofrecemos una visión general de los 2 paneles de cribado uniformes que se proponen en los Estados Unidos y Europa y también se analizan los desafíos para expansión y necesidades técnicas y humanas de los programas NBS. Finalmente, resumimos algunas de las tendencias futuras en NBS.

(*) MS/MS: Reactivos para diagnosticos in vitro  PerkinElmer,: son  comercializados en Argentina por
ETC Internacional SA (http://www.etcint.com.ar/)

Ver el articulo completo

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


lunes, 20 de noviembre de 2017

481- Valores de referencia

Q/A: Moderadores: W. Greg Miller, Gary L. Horowitz  Expertos: Ferruccio Ceriotti, James K. Fleming, Neil Greenberg, Alexander Katayev, Graham R.D. Jones, William Rosner,  Ian S. Young.  Intervalos de referencia: puntos fuertes, debilidades y desafíos. Clinical Chemistry 2016; 62(7): 916–923. Department of Pathology, Virginia Commonwealth University, Richmond, VA; 

El intervalo de referencia (RI) es un componente estándar para informar un resultado de laboratorio y transformar un valor numérico en información clínicamente significativa. Un RI tiene la intención de informar al médico que los valores de laboratorio indican una afección no condicionada. 

El enfoque más común es basar un RI en el 95% central de los valores de prueba de laboratorio observados para una población de referencia que está libre de enfermedades que influyen en el resultado de la prueba de laboratorio. Debido a que muchas enfermedades son asintomáticas, se hace difícil calificar a las personas para una enfermedad no condicionada, lo que desvía la selección de individuos de referencia. Además, la información sobre el complemento completo de las condiciones de la enfermedad que influyen en una prueba de laboratorio puede ser desconocida. Por lo tanto, los RI pueden estar influenciados por poblaciones de referencia inapropiadamente seleccionadas.

Otra limitación en la determinación de RI es obtener una muestra adecuada de una población de referencia para hacer una estimación del 95% central de los resultados con una incertidumbre adecuada que sea significativa para interpretar un resultado de la prueba. El requisito de tamaño de muestra se hace aún más grande cuando se necesitan particiones por sexo, edad, etnia, ciclo menstrual y otros parámetros para RI significativos.  La guía CL28 EP28-A3c describe los enfoques de consenso y algunas limitaciones para establecer y verificar RI. Sin embargo, algunos de los enfoques en esta Directiva son estadísticamente insuficientes, de modo que las incertidumbres en los RI persisten

Una situación particularmente desafiante es el requisito de que los laboratorios establezcan un RI para un procedimiento de medición desarrollado por el laboratorio (MP) o para verificar las RI propuestas por el fabricante de un producto de diagnóstico in vitro (IVD). La identificación de una población de referencia adecuada para cada requisito puede ser muy desafiante. Se necesita la evolución en la práctica  para que los laboratorios puedan adoptar RI apropiados. 

Preguntamos a expertos con diferentes perspectivas sobre la forma de poder  abordar los problemas que todos enfrentamos al establecer o verificar RI.

1)¿Cómo puede un fabricante de productos  IVD  tener una muestra adecuada de una población de referencia para establecer un RI?

2)¿Es necesario que cada laboratorio clínico verifique un RI incluido en las instrucciones de uso del fabricante de un producto IVD? Si es así, ¿cuáles son los enfoques prácticos para usar?

3)Muchos fabricantes de productos IVD usan RI publicados en libros de texto o informes de literatura, incluso cuando el procedimiento de medición utilizado para establecer los RI puede no ser conocido. ¿Por qué esta práctica persiste? ¿Cómo podría un laboratorio clínico verificar la idoneidad de tales RI para un procedimiento de medición particular?

4)Se están llevando a cabo actividades por parte de varias organizaciones profesionales para establecer RI comunes adecuados para su uso mediante diferentes procedimientos de medición. ¿Cuáles son las fortalezas y limitaciones de los RI de este tipo?

5)Un RI se puede usar para compensar la falta de armonización entre los resultados de diferentes procedimientos de medición para el mismo mensurando. ¿Cuáles son los problemas que enfrentan los clínicos al interpretar los resultados de laboratorio que tienen diferentes IR?

6)¿Cómo pueden derivarse las IR de los resultados clínicos además de una distribución estadística de resultados para una población de referencia? ¿Hay un rol para cada enfoque?

7)Los informes de laboratorio suelen resaltar los resultados que son "anormales", pero rara vez indican el grado de anormalidad. Por ejemplo, para el caso del Calcio total los límites de referencia de 8.4-10.2 mg/dL (2.10-2.55mmol /L), el informe destacará tanto 10.3 mg/dL como 11.4 mg/dL (2.57 mmol / L y 2.84 mmol / L) como anormalmente alto. Como resultado, los médicos pueden, en ambos casos, ordenar una serie de pruebas de laboratorio adicionales y otros estudios de diagnóstico. ¿Qué pueden hacer los Laboratorios para ayudar a los médicos a no reaccionar de forma exagerada a un valor que se encuentra justo por fuera de los limites, pero cerca de un límite de referencia?


(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina

miércoles, 15 de noviembre de 2017

480- ISO 15189. Vision del CAP

Frank Schneider, Caroline Maurer, Richard C. Friedberg  Organización Internacional para la Estandarización (ISO) 15189.  Ann Lab Med 2017;37:365-370. College of American Pathologists 15189 Committee; College of American Pathologists 15189 Program; College of American Pathologists3, Northfield, IL, USA

Resumen

El College American Pathology (CAP) ofrece una serie de programas de acreditación de laboratorio, incluyendo uno específico para la acreditación en los ISO 15189  relacionado con la gestión de la calidad de los laboratorios médicos. En esta presentación Directivos del CAP presentan una visión general de la ISO 15189 incluyendo sus componentes, auditorías internas, gestión de eventos, control de documentos y gestión de riesgos. Los autores proporcionan una comparación del ISO 15189, con su propio programa CAP 15189, que es  Programa de Acreditación de Laboratorios  Los autores concluyen que los laboratorios deben utilizar la ISO 15189.

Introducción

Aprovechando el conocimiento colectivo de más de 650 expertos en  laboratorios de medicina, el College American Pathology (CAP) ayuda a los laboratorios a acelerar los cambios en el laboratorio de  medicina y en la atención médica a través de nuestros programas integrados de mejora de calidad. Estos programas se centran en la acreditación y las pruebas de aptitud (PT) para garantizar la más alta calidad de atención al paciente y permite mitigar el riesgo de incumplimientos cuando ello sea aplicable. 

La CAP se enorgullece de su CAP Laboratory Accreditation Program (LAP), lanzado hace más de medio siglo. Hoy en día, el CAP acredita más de 8.000 laboratorios en todos sus programas de acreditación, incluyendo aproximadamente 437 laboratorios internacionales en más de 50 países. Otros programas de acreditación del CAP incluyen Forensic Drug Testing, Reproductive, Biorepository  y CAP 15189. El CAP 15189 es un programa de gestión de la calidad diseñado para la acreditación de  los estándares de la ISO 15189, sobre la base del Programa CAP-LAP de larga data. Como tal, el laboratorio debe primero ser acreditado en CAP-LAP antes de buscar la acreditación por la ISO 15189 con CAP 15189. 

La acreditación a la norma ISO 15189 no cumple con los requisitos de la CLIA (US Clinical Laboratory Improvement Amendments) y los laboratorios en USA no puede reemplazar a la acreditación CLIA con la ISO 15189. 

El CAP ofrece la siguientes opiniones sonre la  ISO 15189  del Presidente del Comité CAP 15189, Frank Schneider, (MD, FCAP, patólogo del Hospital de la Fundación Kaiser en Oakland, California) y de Caroline Maurer,(MT ASCP, PMP, del Programa CAP 15189 en Northfield, Illinois. El resumen es una adaptación del capítulo original Quality Management in Anatomic Pathology: Strategies for Assessment, Improvement, and Assurance (pp. 185-193). Northfield, IL: College of American Pathologists de Schneider F, Maurer C. (2017). ISO 15189 ..........

Ver el artículo completo

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


viernes, 10 de noviembre de 2017

479- EQUAL: Control de calidad externo

Anne Stavelin, Xavier Albe, Piet Meijer, Erika Sarkany, Finlay MacKenzie. Una visión general de la Organización Europea sobre  Programas de Calidad Externa en laboratorios de medicina (EQALM)  Biochem Med (Zagreb). 2017; 27(1): 30-36. The Norwegian Quality Improvement of Primary Care Laboratories (Noklus), Haraldsplass  Deaconess Hospital, Bergen, Norway y otros

Resumen

La Organización Europea sobre  Programas de Calidad Externa en Laboratorio de Medicina (EQALM) fue fundada en 1996 y actualmente cuenta con miembros de 29 países europeos  y  6 países fuera de Europa. La EQALM ofrece un foro para la cooperación y el intercambio de conocimientos sobre cuestiones relacionadas con la calidad en el laboratorio de medicina, especialmente en lo que respecta a los programas de evaluación externa de calidad (EQA) en Europa. Además, EQALM representa a los Programas de EQA en  laboratorio de medicina a nivel europeo frente a organismos oficiales, profesionales, científicos y de otro tipo, incluidas las organizaciones de pacientes. Con este fin, la EQALM promueve actividades como organización de reuniones con temas científicos y prácticos para los miembros y otras partes interesadas, la publicación de publicaciones científicas, el desarrollando de proyectos EQA y representa las actividades de EQA de laboratorio de medicina dentro de otras organizaciones y redes. La EQALM desarrolla actividades científicas y educativas en diferentes campos como la frecuencia de encuestas de hematología, hemostasia, microbiología, nomenclatura,  microscopía virtual,  trazabilidad, acreditación y garantía de calidad en el  proceso total de pruebas. El objetivo de esta presentación es dar una visión general de la organización EQALM.

Introducción

Los laboratorios de medicina  juegan un papel importante en el diagnóstico, tratamiento y seguimiento de los pacientes. Es importante que los laboratorios produzcan en sus pruebas resultados de alta calidad, ya que en general son la base para la toma de decisiones clínicas. Por lo tanto, es esencial una adecuada gestión de calidad. Los laboratorios de medicina cuentan con procedimientos internos de control de calidad y participan en programas nacionales y/o internacionales de evaluación externa de la calidad (EQA). Los programas EQA deben ser adecuados para el propósito que cumplen y deben incluir el proceso total de la prueba:  fase preanalítica, analítica y postanalítica. Muchos organizadores de EQA ofrecen programas para todas estas fases, pero hay una amplia variación en cómo se organizan estos programas. Por lo tanto, es importante para los organizadores de EQA que haya un foro en el que puedan compartir conocimientos y cooperar para mejorar constantemente los esquemas EQA.

Historia de la EQALM

La reunión inicial de los organizadores EQA europeos se llevó a cabo en el 8 º  European Congress of Clinical Chemistry en junio de 1989, Milán, Italia. En Bruselas se celebró una reunión de 23 organizadores europeos de EQA, conjuntamente con una reunión sobre métodos de referencia y materiales de referencia, organizada por la European Union Agency Community Bureau of Reference (BCR). Este fue el primer encuentro entre los organizadores de EQA involucrados en bioquímica y endocrinología. Más tarde también hubo reuniones en hematología y microbiología. Con excepción del primer grupo, no hubo efectos a largo plazo de estos encuentros. En enero de 1990, el grupo de bioquímica y hormonas había comenzado con un boletín llamado "EQA News" y con reuniones informales en congresos internacionales y nacionales…………………………..

Ver artículo completo

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina

domingo, 5 de noviembre de 2017

478- CUSUM: Control de calidad interno (III)

Sampson ML, Gounden V, van Deventer HE, Remaley AT. CUSUM-Análisis de regresión logística para una rápida detección de errores en los resultados en las pruebas de laboratorio clínico. Clin Biochem. 2016; 49(3):201-7. Department of Laboratory Medicine, National Institutes of Health Clinical Center,  Rockville Pike, Bethesda, USA. 

Objetivo:   El principal inconveniente del análisis periódico del material de control de calidad (control interno-QC) es que el desempeño de la prueba no se monitorea en tiempo real del análisis, lo que podría conducir a no informar diariamente resultados de pruebas fuera de limites. El objetivo de este estudio fue desarrollar un procedimiento QC basado en el paciente, para la detección más oportuna de los errores de la prueba.

Método:   Para desarrollar el modelo se utilizaron los resultados de un panel Chem-14 medidos en el analizador Beckman LX20. Cada resultado de la prueba se predijo de los otros 13 miembros del panel por regresión múltiple, lo que dio como resultado coeficientes de correlación entre el resultado previsto y medido mayor de 0,7 para 8 de los 14 ensayos. Se desarrolló un modelo de regresión logística que utilizó el resultado de la prueba medida, y el resultado de la prueba prevista, en el día de la semana y  hora del día, para predecir los errores de la prueba. La salida de la regresión logística se registró mediante un enfoque CUSUM diario que se utilizó para predecir errores de prueba, con una especificidad fija del 90%.

Resultados:  La media del número de muestras utilizadas de las corridas (ARL) antes de la detección de errores por CUSUM-Regresión logística (CSLR) fue de 20, con una sensibilidad media de 97%, que fue considerablemente más corto que la ARL media de 53 (sensibilidad 87,5%) para un modelo de predicción simple que sólo utilizó el resultado medido para la detección de errores.

Conclusión

Un análisis CUSUM-Regresión logística de los datos de laboratorio del paciente puede ser un enfoque eficaz para la detección rápida y sensible de errores de laboratorio clínico.

Introducción

La medición periódica del material de control de calidad (QC) es la principal práctica utilizada para monitorear el desempeño analítico de las pruebas de diagnóstico. Un inconveniente importante de este enfoque es que el rendimiento de la prueba no se monitorea en los de tiempo entre los análisis del material de QC. Esto puede resultar en la notificación inexacta de un gran número de resultados de las pruebas antes de  que se descubra el problema, porque el material QC a menudo se analiza sólo una vez al día. El advenimiento de la automatización avanzada de los analizadores químicos y su posterior aumento en el rendimiento de la muestra ha agravado aún más este problema y ello requiere la necesidad de un seguimiento más oportuno de las pruebas clínicas de laboratorio.

Otro problema común que encontramos en nuestras actuales prácticas de control de calidad es que normalmente depende del uso de un material de QC no conmutable. No es raro observar desplazamientos aparentes en los valores de prueba del material QC, pero no en especímenes reales o cambios en especímenes reales que no se reflejan en el material QC debido a sus diferentes matrices de muestra. Otra limitación es que el uso de material estándar de QC no evalúa todos los pasos en el análisis de una muestra. Por ejemplo, no detecta problemas pre-analíticos relacionados con la recolección o procesamiento de muestras ni con problemas post-analiticos relacionados con el cálculo y la notificación de los resultados de las pruebas. La utilización de muestras de pacientes en el procedimiento de QC es un enfoque alternativo para la detección de errores de las pruebas. 

En 1965, Hoffman y col.. describieron el método del Promedio de Valores Normales donde se promedian los resultados de los ensayos de un gran número de pacientes que caen dentro de los intervalos normales de referencia y que se utilizaba para monitorear cambios potenciales en el proceso de prueba. Posteriormente, Cembrowski y col. utilizaron un modelo de simulación por computadora para demostrar los principales factores que afectan la detección de errores por este método. Además del número de valores de los pacientes utilizados para calcular la media, la proporción de la desviación estándar de la población truncada de pacientes con la precisión de un método analítico fue un factor importante en la sensibilidad de la predicción del error. También mostraron que los límites de truncamiento deben ser elegidos de modo que excluyan los valores atípicos, pero todavía incluyen la mayoría de los resultados de la prueba del paciente dentro de la distribución de prueba central...........

Ver el articulo completo



*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


lunes, 30 de octubre de 2017

477- Simplificando reglas de control de calidad- (II)

George S. Cembrowski, Mark A. Cervinski. Editorials:  Desmitificando el control de calidad de la muestra de referencia. Clin. Chem. 2016; 62:7 907–909.  University of Alberta, Edmonton, Alberta, Canada; Geisel School of Medicine, Dartmouth-Hitchcock Medical Center, Lebanon, NH.  

Una de las preguntas más frecuentes hechas por el novel bioquímico clinico es "¿Cómo puedo establecer el control de calidad para un analizador en particular?"  Dos nuevos documentos descritos a continuación ayudarán fácilmente tanto al neófito como al profesional en ejercicio. La práctica del control de calidad en el laboratorio clínico ha ido evolucionando por etapas. Por desgracia, las prácticas de control de calidad en el laboratorio clínico hoy en día están oscurecidas por una complejidad inmerecida, que priva al profesional la intuición tangible sobre control de calidad y según las palabras de Deming, también le priva el orgullo por el esfuerzo empleado. 

En los laboratorios clínicos de los Estados Unidos, las prácticas de control de calidad son enormemente divergentes y además costosas. En una revisión reciente, Kazmierczak declaró que "los costos asociados con la realización de pruebas de control de calidad y los costos asociados con la evaluación, revisión y mantenimiento de los registros de control de calidad no son triviales".  Citó un estudio de una nación en vías de desarrollo que consideró que los costos de calidad representaban el 22% del total de los gastos directos de laboratorio; un 89% de los costos de mantenimiento de la calidad están asociados a la calibración y análisis del material de control de calidad necesario para confirmar la exactitud y fiabilidad en los resultados de las pruebas.

La simplicidad es necesaria en las prácticas de control de calidad de hoy y en el número de este mes , Yago y Alcover, bioquímicos  españoles, proporcionan un nomogramas altamente instructivos que permiten la selección de normas simples de control de calidad para producir bajas frecuencias de resultados defectuosos en las series analíticas.  Estos nomogramas sorprendentemente ordenados y listos para usar son un contraste bienvenido con los complejos conjuntos de reglas empleadas por muchos bioquímicos y elaborados con o sin la ayuda de un software de selección de control de calidad. Los nomogramas de Yago y Alcover dan el número de análisis defectuosos por corridas analíticas de  100 muestras analizadas. Estos nomogramas demuestran visualmente la importancia de seleccionar analizadores con altos sigma (σ) (superiores a  4) para mantener en un 2-3% el número de resultados informados inaceptables no detectados. 

Los autores han presentado la utilidad de los 12s, 12,5s, 13s , 13.5s y 14s para detectar errores sistemáticos. Con sigmas de ensayo por encima de 4, el regla de control 13s  utilizando 3 materiales de control de calidad, producirá solamente 1 % de muestra defectuosos. Los ensayos con sigmas mayor de 5 usando 3 concentraciones de material de control de calidad, con las reglas 13.5s y 14s marcaran entre  0-1 de  muestras defectuosas por cada 100 muestras. El uso de reglas más sensibles (es decir, 12s, 12,5s ) no sería de un beneficio adicional significativo y sólo aumentaría la probabilidad de falsos rechazos.


Nomograma de yago y Alcover


(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina





miércoles, 25 de octubre de 2017

476- Control de calidad Interno en la R. de Chile (I)

Autores:  René Gómez Lagos.  Hugo Moscoso Espinoza,  Eduardo Retamales Castelletto,  Carolina Valenzuela Barros,  Revisores Internos: Mitzy Celis Morales, Paola Pellegrini Pinto, Verónica Ramírez Muñoz, Revisores Externos:  José Díaz Garrote, Claudio Medel Polanco, Carolina Prieto Castillo ”Guía técnica para control de calidad de mediciones cuantitativas en el laboratorio clínico.” (2015) Instituto de Salud Pública, Ministerio de Salud, Republica de Chile. 

Resumen:   Estas recomendaciones corresponden a una actualización y reemplazo del documento ICPCC-03/2009 “Guía técnica normalizada de control de calidad - control de calidad interno y externo para analitos en el Laboratorio Clínico”. Han sido  elaboradas por los Laboratorios Nacional y de Referencia Inmunología, Química Clínica y Hematología del Instituto de Salud Pública y revisadas por un grupo de expertos con demostrada experiencia en el ámbito del aseguramiento de la calidad. El contenido de este documento describe una guía técnica para planificar el control de calidad, entrega definiciones y sugerencias en el uso adecuado de los datos obtenidos en el control de calidad interno y externo, además proporciona herramientas y lineamientos generales que permiten al laboratorio clínico asegurar la calidad de sus resultados como apoyo a las decisiones clínicas. 

Alcance:   Esta guía permite orientar sobre las prácticas aceptadas a nivel internacional para el aseguramiento de la calidad de los resultados analíticos de laboratorio clínicos. Entrega directrices para la elaboración de procedimientos de control de calidad, que les permitan controlar los resultados en una corrida analítica, evaluar la competencia y desempeño analítico del proceso de medición cuantitativo de acuerdo a la calidad prevista para análisis clínicos.

Introducción

El Instituto de Salud Pública de Chile ha elaborado esta guía de control de calidad interno y externo con la participación de los Laboratorios Nacionales y de Referencia de Inmunología, Hematología y Química Clínica, con la finalidad de recomendar un proceso normalizado para el control de calidad interno y externo y a través de ésta forma obtener una mejora continua y uniforme de la calidad de las prestaciones de los laboratorios clínicos del país. En esta última década, la mejora continua de las características de desempeño de los métodos analíticos, donde la diversidad de exámenes, el desarrollo tecnológico y la informática, han contribuido al enorme desarrollo del laboratorio clínico. Hoy, la disponibilidad de herramientas que permiten planear y controlar la calidad analítica de los exámenes asegura la liberación de resultados útiles para el diagnóstico clínico. 

Los primeros ensayos de evaluación de la calidad con el propósito de diseñar estrategias encaminadas a mejorar su desempeño, fueron desarrollados por Levey y Jennings (1950) quienes propusieron la adaptación de los procedimientos de control de calidad industrial empleados por Shewhart a los laboratorios clínicos, transformándose en la primera evidencia de la aplicación de cartas de control en el área del laboratorio clínico. En 1952, Henry y Segalove introducen estándares y muestras de pacientes determinadas por duplicado para la elaboración de cartas de control tipo Levey y Jennings. 

En sus inicios, los criterios de evaluación para juzgar el desempeño de los métodos incluyeron las reglas de control ±2s y ±3s, sin embargo, con el desarrollo y uso más frecuente de multianalizadores, pronto se evidenció que la regla de control ±2s aumentaba el número de eventos falsamente positivos, por lo que luego se la consideró como una regla indicativa de situaciones de “alarma” más que una regla de “control”……….

Ver el artículo completo

Pagina relacionada: N° 7

(*)  Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina

viernes, 20 de octubre de 2017

475- HIV Diagnostico y tratamiento

Zulfiqar HF, Javed A, Sumbal, Afroze B, Ali Q, Akbar K, Nadeem T, Rana MA, Nazar ZA, Nasir IA, Husnain T. Diagnóstico y tratamiento del VIH a través de tecnologías avanzadas. Front Public Health. 2017, 7; 5:32. Centre of Excellence in Molecular Biology, University of the Punjab, Lahore, and Department of Microbiology, Quaid-i-Azam University, Islamabad , Pakistan.

Resumen

El virus de la inmunodeficiencia humana (VIH) es el principal factor que contribuye al costo de la salud mundial. En 2010, el VIH fue la quinta causa principal de discapacidad en personas de todas las edades, principalmente entre 30 y 44 años. Sobre la base de propiedades biológicas, morfológicas y genéticas el HIV es miembro de la familia Retroviridae del género Lentivirus. Infecta a diferentes células del sistema inmunológico, como las células T CD4+ (células T auxiliares), células dendríticas y macrófagos. El VIH tiene dos subtipos: VIH-1 y VIH-2. Entre estas cepas, el VIH-1 es el más virulento y patógeno. Los métodos avanzados de diagnóstico están explorando nuevas formas de tratamiento, contribuyendo a la reducción de los casos de VIH. Las técnicas de diagnóstico como PCR, prueba rápida, EIA, antígeno p24 y western blot han mejorado notablemente el diagnóstico de VIH. La terapia antirretroviral y las vacunas son candidatos prometedores en la provisión de regímenes terapéuticos y preventivos, respectivamente. La aparición de CRISPR/Cas9 es un avance importante en el campo del control de la enfermedad del VIH

Introducción

El virus de la inmunodeficiencia humana (VIH) se origina a partir de un virus infectante de mono, o virus de inmunodeficiencia de simio (SIV), y se han descrito varias teorías a este respecto. Muchas de las características epidemiológicas, filogenéticas y genómicas del VIH son similares a las del SIV, lo que apoya firmemente la idea de transmisión de especies cruzadas. Sobre la base de propiedades biológicas, morfológicas y genéticas el HIV es miembro de la familia Retroviridae del género Lentivirus. Los casos iniciales de VIH fueron reportados al CDC en 1981  y el virus fue aislado por primera en 1983, en pacientes con inmunodeficiencia severa, más tarde denominado Síndrome de Inmunodeficiencia Adquirida (SIDA). Desde entonces, la virología del VIH y la patogénesis de la infección se estudian constantemente. Se han aislado y caracterizado dos tipos de VIH de pacientes infectados con el virus: VIH-1 y VIH-2. Entre estas cepas, el VIH-1 es el más virulento y patógeno, y cuando las personas normalmente hablan de VIH sin indicar el tipo de virus se refieren al VIH-1. Por otra parte, el VIH-2 sólo se limita a algunas zonas de África central y occidental. Una investigación detallada sobre la estructura del VIH y su mecanismo de infección no sólo ha permitido caracterizar y desarrollar vacunas y fármacos nuevos y eficaces, sino que también ha descrito nuevos enfoques para su diagnóstico en el laboratorio. 

Tropismo del VIH

El virus de inmunodeficiencia humana infecta diferentes células del sistema inmune, tales como células T CD4+ (células T auxiliares), células dendríticas y macrófagos. Sin embargo, los linfocitos T CD4+ son el principal objetivo del VIH, y después de la infección, estas células son utilizadas por el VIH como huésped para hacer copias e infectar otras células del cuerpo. Esto conduce al colapso del sistema inmunológico a medida que disminuye el número de células CD4+ en el cuerpo. Esta disminución en el número de células CD4+ indica el desarrollo del VIH al SIDA. La mayoría de los receptores de quimioquinas CCR5 y CXCR4 son usados ​​comúnmente por estos virus para lograr el ingreso en las células T auxiliares. Sin embargo, en algunas células, tales como astrocitos y células epiteliales renales, se produce una infección por VIH independiente de CD4 y la patogénesis subsiguiente depende de la expresión génica del VIH. .........

Ver el artículo completo

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


domingo, 15 de octubre de 2017

474- WHO- Pruebas de Hepatitis B y C

WHO Directivas sobre Pruebas de Hepatitis B y C.  World Health Organization- Geneva; 2017 

Antecedentes

El virus de la hepatitis B (VHB) y la infección por el virus de la hepatitis C (VHC) son las principales causas de enfermedad hepática aguda y crónica del mundo; por ejemplo, la cirrosis y carcinoma hepatocelular causan un estimado de 1,4 millones de muertes al año. Se calcula que, en la actualidad, 248 millones de personas viven con infección crónica por el VHB y que 110 millones de personas con anticuerpos contra el VHC, de los cuales 80 millones tienen infección virosica activa. La carga de pacientes VHB y el VHC crónicos sigue siendo desproporcionadamente alta en los países de ingresos bajos y medianos , particularmente en Asia y África. Además, incluso en áreas de baja prevalencia, ciertas poblaciones tienen altos niveles de infección por VHC y HBV, como las personas que se inyectan drogas, hombres que tienen relaciones sexuales con hombres , personas con VIH,  y comunidades indígenas.

El desarrollo de regímenes de tratamiento con antivirales de acción directa oral  altamente efectivos y bien tolerados con altas tasas de curación después de 8-12 semanas de tratamiento ha revolucionado la teraputica de la infección crónica por VHC, aunque los altos precios de estos nuevos medicamentos siguen siendo  importante en muchos países. También está disponible un tratamiento antiviral eficaz a largo plazo con tenofovir o entecavir para las personas con infección crónica por el VHB. Sin embargo, a pesar de la alta carga global de enfermedad debida a la infección crónica por VHB y VHC y los avances y oportunidades de tratamiento, la mayoría de las personas infectadas con VHB y/o VHC no son conscientes de su infección e infectan a otros. 

Hay varias razones por las que se realizan un  bajo porcentaje de pruebas de hepatitis. Estos incluyen limitadas instalaciones o servicios para las pruebas de hepatitis, falta de políticas sobre el control de pruebas efectivas, carencia de directivas nacionales, complejos algoritmos de diagnóstico y la falta de capacidad de laboratorio y de sistemas de garantía de calidad.

Las pruebas y el diagnóstico de la infección por hepatitis B y C son la puerta de entrada para el acceso a los servicios de prevención y tratamiento, y es un componente crucial para una respuesta eficaz a la epidemia de hepatitis. La identificación temprana de las personas con infección crónica por VHB o VHC les permite recibir la atención y el tratamiento necesarios para prevenir o retrasar la progresión de la enfermedad hepática. Las pruebas también brindan la oportunidad de vincular a las personas con las intervenciones para reducir la transmisión, a través del asesoramiento sobre comportamientos de riesgo y el suministro de productos de prevención (como agujas y jeringas estériles) y la vacunación contra la hepatitis B.

Esta  Directiva está organizado en tres secciones distintas:

Introducción - Parte 1 : Capítulos introductorios sobre epidemiología, historia natural y ensayos de diagnóstico in vitro para la infección por el virus de la hepatitis B y C.

Recomendaciones - Parte 2 : Nueve capítulos con resumen de recomendaciones, evidencia y justificación 

Implementación - Parte 3 : Orientación para apoyar la implementación de estas recomendaciones a nivel de país que incluyen un marco para la toma de decisiones y la planificación en dos áreas clave: cómo organizar los servicios de laboratorio de pruebas de hepatitis (sistemas de selección y evaluación de ensayos y sistemas de garantía de calidad ) y cómo planificar la mejor combinación estratégica en los enfoques de las pruebas...............................

Ver el articulo completo 


(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina