martes, 30 de enero de 2018

495- Marcadores gastro-intestinales

Imran Siddiqui, Hafsa Majid, Shahab Abid Actualización sobre la aplicación clínica y de investigación de biomarcadores fecales para enfermedades gastrointestinales.  World J Gastrointest Pharmacol Ther 2017; 8(1): 39-46. Section of Chemical Pathology, Department of Pathology and Laboratory Medicine, Karachi, Pakistan

Resumen

Las enfermedades gastrointestinales (GI) comprenden un amplio espectro de condiciones clínicas que van desde la indigestión a enfermedades inflamatorias del intestino (IBD) y carcinomas. La endoscopia es el método habitual empleado para diagnosticar estas afecciones. Otra forma no invasiva de evaluar y diagnosticar las condiciones gastrointestinales son los biomarcadores fecales. que  proporcionan información sobre un proceso de enfermedad específico y tal vez sean más aceptables para los médicos y los pacientes por su no invasividad en comparación con la endoscopia. El objetivo de esta revisión fue evaluar el estado actual de los biomarcadores fecales en la investigación clínica y para las enfermedades gastrointestinales. Múltiples tipos de biomarcadores fecales se discuten en esta revisión : marcadores para evaluar la IBD, que se liberan como resultado de un ataque inflamatorio al epitelio intestinal, como son los péptidos antimicrobianos (lactoferrina) o proteínas relacionadas con la inflamación (calprotectina). Mientras que los marcadores relacionados con la función de la digestión se relacionan principalmente con alimentos parcialmente digeridos o proteínas de la mucosa, como la cantidad anormal de grasa fecal, la α1-antitripsina, elastasa y secretaría de IgA. También se discuten próximos biomarcador fecal como la piruvato quinasa M2 y la lipocalina asociada a la gelatinasa de neutrófilos . Además de la mención anterior, están también los biomarcadores fecales bajo investigación para su posible uso clínico en el futuro. 

Introducción

Un biomarcador es una sustancia endógena o exógena que se mide en sangre, plasma u orina cuyos niveles se correlacionan con la aparición o severidad de la enfermedad. Los biomarcadores se utilizan para distinguir una afección patológica de un estado fisiológico y también para controlar el tratamiento y la progresión de la enfermedad. Hay una inclinación general de los médicos, así como de los patólogos, de considerar a los biomarcadores fecales, debido a su naturaleza no invasiva con una probable aceptabilidad para el paciente. Los biomarcadores fecales se pueden subdividir en los siguientes tipos según su aplicación clínica.

Marcadores de enfermedad inflamatoria intestinal:  Estos incluyen proteínas relacionadas con la inflamación, liberadas durante un proceso inflamatorio en el tracto gastrointestinal (GI) por ejemplo  calprotectina, o péptidos antimicrobianos com la lactoferrina.

Biomarcador de cáncer colorrectal:  Estos se encuentran en tejidos y células indiferenciadas con una expresión aumentada en la renovación rápida de tales células, por ejemplo , M2-piruvato quinasa.

Biomarcadores para la evaluación de la malabsorción:  Se identifican múltiples marcadores; la mayoría son partículas de alimentos no digeridos como glóbulos de grasa fecal, enzimas como α1-antitripsina y elastasa para la evaluación de la malabsorción.

Biomarcador para enfermedades alérgicas gastrointestinales:  Las proteínas relacionadas con eosinófilos son liberadas por/o relacionadas con eosinófilos y tienen aplicación para evaluar la infestación alérgica y parasitaria del tracto GI.

Biomarcadores de la salud intestinal:  Este es un grupo interesante de biomarcadores que apuntan hacia la salud general de la mucosa intestinal. Estos biomarcadores evalúan la integridad de las proteínas de barrera intestinal y los productos de fermentación microbiana que se producen, mientras que la fermentación de las partículas de la dieta por bacterias produce diversos productos químicos, algunos de los cuales como los ácidos grasos de cadena corta........ .

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina



jueves, 25 de enero de 2018

494- Metabolómica y diabetes infantil

Brigitte I Frohnert , Marian J Rewers. Metabolómica en diabetes infantil. Pediatr Diabetes. 2016 February ; 17(1): 3–14. Barbara Davis Center for Childhood Diabetes, University of Colorado USA

Resumen

Los recientes aumentos en la incidencia de diabetes tipo 1 (T1D) y diabetes tipo 2 (T2D) en niños y adolescentes señalan la importancia de los factores ambientales en el desarrollo de estas enfermedades. El análisis metabolómico explora la respuesta integrada del organismo a los cambios ambientales. El perfil metabólico puede identificar biomarcadores que son predictivos de la incidencia y el desarrollo de la enfermedad, lo que puede proporcionar información sobre la patogénesis de la enfermedad. Esta revisión proporciona una visión general del papel del análisis metabolómico en la investigación de la diabetes y resume las investigaciones recientes relacionadas con el desarrollo de T1D y T2D en los niños.

Introducción

La metabolómica es la detección y cuantificación del espectro de metabolitos de moléculas pequeñas medidos en una muestra biológica. El análisis del metaboloma representa una evaluación cuantitativa de los cambios integrados producidos por factores endógenos y exógenos en un determinado estado de enfermedad o en respuesta a cambios fisiológicos específicos. 

Actualmente hay casi 42 000 metabolitos registrados en la Human Metabolome Database (HMDB; http://www.hmdb.ca). De estos, se han detectado aproximadamente 4500 en la sangre y se ha demostrado que aproximadamente 2000 de estos son mensurables. Se postula que a medida que avancen los métodos analíticos, el ámbito de los metabolitos cuantificables seguirá creciendo .

La medición del espectro de moléculas pequeñas que comprenden el metaboloma puede presentar un desafío analítico, ya que los metabolitos dentro de una muestra pueden variar en abundancia desde concentraciones sub-nanomolares a milimolares y tienen propiedades químicas variables que requieren enfoques analíticos variables. A pesar de los desafíos técnicos, sin embargo, el análisis metabolómico tiene ventajas significativas en el estudio de la patogénesis de la enfermedad.

Los metabolitos típicamente muestran fluctuaciones más rápidas en respuesta a un cambio fisiológico que el marco de tiempo requerido para detectar cambios en la expresión génica o la producción de proteínas. Además, el análisis de metabolitos permite conocer la asociación entre los genes y sus funciones y ademas tienen la capacidad de controlar la función de las proteínas.

Consideraciones experimentales

Diseño del estudio

Los estudios de perfil metabólico se pueden utilizar para obtener una instantánea en el tiempo, como para la comparación del metaboloma en un estudio de casos y controles. Este tipo de análisis generalmente busca obtener información sobre el desarrollo de la enfermedad mediante la identificación de biomarcadores asociados con el estado de la enfermedad. Si bien la simplicidad de este enfoque de punto único es atractiva, la interpretación de los marcadores asociados a la enfermedad debe abordar la cuestión de si la asociación representa una relación causal, una consecuencia del estado de la enfermedad o un resultado de algún otro factor de confusión. También se debe considerar la selección de sujetos de control. El grupo de control se elige con frecuencia para que coincida con posibles factores de confusión, como la edad y el sexo..............
  
Ver el articulo completo

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


sábado, 20 de enero de 2018

493- Diagnostico de la E. de Chagas

Picado A, Angheben A, Marchiol A, Alarcón de Noya B, Flevaud L, Pinazo MJ, et al. Desarrollo de pruebas diagnósticos para la enfermedad de Chagas: ¿dónde debemos poner nuestros limitados recursos? PLoS Negl Trop Dis 11(1): Jan 2017. Editor: Alain Debrabant, US Food and Drug. Foundation for Innovative New Diagnostics (FIND), Geneva, Switzerland y otras

Según la Organización Mundial de la Salud (OMS), uno de los hitos establecidos por la Declaración de Londres para la enfermedad de Chagas (la interrupción de la transmisión de la enfermedad de Chagas a través de transfusiones de sangre en América Latina) se logró en la mayoría de los países  en 2015. Este es un paso crucial para alcanzar el objetivo de controlar la enfermedad de Chagas en 2020. Sin embargo, quedan muchos desafíos: son tratadas menos del 1% de las 6 a 7 millones de personas infectadas con Trypanosoma cruzi  y aún se producen nuevas infecciones. Entre el 20-30% de los pacientes con enfermedad crónica de Chagas desarrollarán complicaciones cardíacas y/o gastrointestinales. La OMS recomienda tratar a pacientes infectados de T.cruzi con antiparasitarios ya que son muy eficaces en pacientes en fase aguda y reducen el riesgo de progresión de la enfermedad en pacientes en etapa indeterminada que estan infectados crónicamente con T.Cruzi pero sin evidencia de enfermedad cardiaca o gastrointestinal).

El desarrollo de nuevas herramientas para diagnosticar la enfermedad de Chagas es una prioridad. debido a que el T.cruzi puede transmitirse por una variedad de rutas: por ejemplo, transmisión vectorial cuando los parásitos defecan los triatominos, en agentes que succionan sangre y  entran al cuerpo a través de la rotura de la piel causada por la picadura del insecto o a través de otra mucosa,  transmisión oral a través de alimentos contaminados ,  infección congénita,  transfusión de sangre y  trasplante de células, sangre o tejidos y debido a que la mayoría de las personas con infección crónica nunca han sido examinadas y no conocen su estado,  Esto es cierto en los países endémicos, así como en las regiones donde las personas infectadas han migrado en los últimos años (por ejemplo, Europa, Asia y América del Norte). 

Pruebas diagnósticas

A pesar de los esfuerzos concertados para utilizar las herramientas disponibles para diagnosticar la enfermedad de Chagas en diferentes grupos de pacientes, en entornos epidemiológicos y clínicos en los países de América Latina en las últimas cuatro décadas y en los países no-endémicos desde principios de la década de 2000, un gran número de pacientes son diagnosticados tardíamente o no reciben ningún tratamiento. Si bien las razones para estas tendencias de diagnóstico son diversas, varían según los países y grupos de pacientes, una de las principales limitaciones es la falta de pruebas de diagnóstico confiables adaptadas a las necesidades de los pacientes y los sistemas de salud.

Los recursos para desarrollar nuevas herramientas de diagnóstico para la enfermedad de Chagas son escasos, por lo que es importante asignarlos a las necesidades de diagnóstico que no están cubiertas adecuadamente por las herramientas existentes. Acordar prioridades de diagnóstico ayudará a garantizar que los esfuerzos y recursos se dirijan al desarrollo de pruebas que aumenten el acceso al diagnóstico y contribuyan al control de la enfermedad. 

En los últimos años, la OMS, la Organización Panamericana de la Salud (OPS) y los expertos en la enfermedad de Chagas han iniciado este importante proceso al identificar una gama de necesidades de diagnóstico. El siguiente paso es para la comunidad de la enfermedad de Chagas, incluidos los profesionales con diferentes antecedentes, experiencia y ubicaciones geográficas, para clasificar estas necesidades de diagnóstico...............................

Ver el articulo completo

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina



lunes, 15 de enero de 2018

492- Microbioma y su aplicación diagnóstica

Q/A (preguntas/respuestas): Moderator: James Versalovic1. Experts: Joel Dore, Francisco Guarner, Ruth Ann Luna,Yehuda Ringel. Diagnósticos basados ​​en microbiomas: ¿estan listos para su aplicaciones en el laboratorio de medicina? Clin Chem 2017; 63 (11): 1674/79.    Children’s Microbiome Center, Pathology Department,  Department of Pathology and Immunology, Baylor College of Medicine, Houston, Texas.

El laboratorio clinico es un ambiente propicio para un enfoque holístico de las enfermedades humanas que incluye la evaluación de células humanas y microbianas. Los avances en nuestra comprensión del microbioma humano están dando lugar a nuevas ideas  sobre diagnóstico y  tratamiento de las enfermedades. La secuenciación de ácidos nucleicos, la espectrometría de masas y los inmunoensayos facilitan la aplicación de la ciencia del microbioma en microbiología médica y bioquímica clínica. Los avances biomédicos en el microbioma humano ampliarán el alcance del laboratorio clinico y darán lugar a nuevas estrategias de diagnóstico y control de enfermedades.

Las aplicaciones de diagnóstico del microbioma se pueden dividir en dos categorías: diagnóstico de enfermedades infecciosas y control de componentes microbianos de enfermedades crónicas no transmisibles.  

El diagnóstico de las  infecciones humanas y la selección de agentes antimicrobianos se pueden refinar en el contexto del microbioma. En lugar de centrarse únicamente en la identificación de los agentes etiológicos de la infección, los laboratorios clínicos podrían evaluar el microbioma en un sitio específico del cuerpo de interés.  Por ejemplo, la detección rápida del Clostridium difficile en muestras de heces en casos de C. difficile recurrente, se puede analizar en paralelo con la secuenciación del gen del ARNr 16S en heces para evaluar el grado de disbiosis o la concurrencia de otros patógenos entéricos. Los metabolitos microbianos pueden proporcionar biomarcadores microbianos útiles para monitorear el tratamiento efectivo en infecciones crónicas como la enfermedad asociada recurrente por C. difficile. Estas evaluaciones paralelas podrían ayudar en la toma de decisiones médicas con respecto a la selección de agentes antimicrobianos o el trasplante de microbiota fecal . 

Los avances en el descubrimiento de microbiomas también están modificando el campo de la microbiología humana para las enfermedades crónicas no transmisibles con un componente microbiano. Por ejemplo, cambios específicos en la composición microbiana y los patrones de disbiosis intestinal están llevando a consideraciones novedosas de aplicaciones basadas en microbiomas para la estratificación de la enfermedad y el tratamiento en la enfermedad inflamatoria intestinal. También se han identificado microbios intestinales específicos que pueden contribuir a la progresión neoplásica en el cáncer colorrectal y pueden proporcionar un nuevo ángulo diagnóstico y terapéutico en la prevención del cáncer y el tratamiento temprano de la enfermedad. Tales hallazgos pueden cambiar la naturaleza del cribado del cáncer colon-rectal y su detección temprana. 

Preguntas a considerar

1) ¿Puede identificar o describir la emocionante frontera en los próximos 5-10 años en la ciencia del microbioma humano?
2) ¿Puedes describir un ejemplo de aplicaciones de diagnóstico del microbioma en enfermedades humanas?
3) A medida que consideramos nuevas terapias basadas en el microbioma, ¿se pueden establecer nuevos objetivos farmacológicos en las enfermedades humanas?
4) ¿Puede explicar su perspectiva sobre la importancia relativa de la composición microbiana frente a la función en la enfermedad humana?

Ver el articulo completo

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


miércoles, 10 de enero de 2018

491- Ascitis cirrotica

Julie Steen Pedersen, Flemming Bendtsen, Søren Møller. Control de la ascitis cirrótica. Ther Adv Chronic Dis. 2015 May; 6(3): 124–137. Centre of Functional Imaging and Research, Department of Clinical Physiology and Nuclear Medicine, and Gastro Unit, Medical Division, Hvidovre Hospital, Faculty of Health Sciences, University of Copenhagen, Denmark.

Resumen

La complicación más común para la insuficiencia hepática crónica es la ascitis. La formación de ascitis en el paciente cirrótico es causada por una cadena compleja de eventos fisiopatológicos que involucran hipertensión portal y disfunción vascular progresiva. Dado que la formación de ascitis representa un sello distintivo en la historia natural de la insuficiencia hepática crónica, predice un mal próstico con una tasa de mortalidad del 50% en 3 años. Los pacientes con ascitis tienen un alto riesgo de desarrollar complicaciones tales como peritonitis bacteriana espontánea, hiponatremia y deterioro renal progresivo. El manejo adecuado de la ascitis cirrótica y sus complicaciones mejoran la calidad de vida del paciente y aumenta su supervivencia. Este artículo resume la fisiopatología de la ascitis cirrótica y los enfoques de diagnóstico, así como las opciones de tratamiento actuales.

Introducción

La ascitis se define como la acumulación de más de 25 ml de líquido en la cavidad peritoneal. En los países occidentales, el desarrollo de ascitis está en el 75% de los casos debido a cirrosis subyacente [European Association for the Study of the Lever, 2010], pero otras etiologías menos comunes de ascitis como malignidad, insuficiencia cardíaca congestiva, síndrome de Budd Chiari, tuberculosis y pancreatitis debe considerarse, especialmente si la ascitis es el primer síntoma de presentación.

La ascitis es una de las complicaciones más frecuentes de la cirrosis en aproximadamente el 60% de los pacientes dentro de los 10 años posteriores al diagnóstico. El desarrollo de ascitis en el contexto de la cirrosis representa un hito en la historia natural de la misma y predice un mal pronóstico con un 50% de mortalidad en 3 años  En consecuencia, la aparición de ascitis significa la necesidad de considerar la derivación para el trasplante de hígado, que sigue siendo la última opción de tratamiento de la cirrosis.

La formación de ascitis a menudo se desarrolla en pacientes cirróticos que presentan insuficiencia hepática aguda crónica , que es un empeoramiento agudo de la función hepática debido a un evento precipitante, por ejemplo, infección, hemorragia gastrointestinal superior, alteraciones electrolíticas.  La hipertensión portal es un pre-requisito para el desarrollo de ascitis cirrótica. La supervivencia de la cirrosis depende principalmente del grado de hipertensión portal, el grado de insuficiencia hepática y el grado de disfunción circulatoria.


Los principios detrás del tratamiento de la ascitis incluyen diuréticos, paracentesis, inserción de un shunt porto-sistémico intrahepático transyugular, así como el manejo de las complicaciones de la ascitis como la peritonitis bacteriana espontánea (PBE).  La  PBE ocurre en aproximadamente el 25% de los pacientes debido a una translocación bacteriana, que es el cruce de bacterias intestinales o productos bacterianos desde la luz intestinal hasta la sangre y el líquido ascítico. La translocación bacteriana ocurre como resultado de la alteración de la motilidad intestinal, el sobre-crecimiento bacteriano intestinal, el aumento de la permeabilidad intestinal y la alteración de los mecanismos de defensa inmunitaria en el paciente cirrótico......................................

Ver el artículo completo

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. 

Cordiales saludos.  
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


viernes, 5 de enero de 2018

490- Etica en investigación clinica

Mancini Rueda R.*. Normas éticas para la Investigación Clínica. Universidad de Chile.  *Consultor Programa Regional de Bioética, OPS/OMS- 

Primero me referiré a los antecedentes históricos que han motivado una preocupación ética cada vez mayor respecto de la investigación y los ensayos clínicos en seres humanos, incluyendo Latinoamérica. Y enseguida, veremos los principios éticos generales que son aplicables en estas investigaciones.

I. Antecedentes Históricos

Desde tiempos inmemoriales la investigación y la experimentación en seres humanos han formado parte del desarrollo de la medicina. No obstante, por muchos siglos -más precisamente, desde Hipócrates hasta fines del siglo pasado- la investigación clínica se consideró sólo como "fortuita o casual", en la tesis clásica de que "todo acto médico realizado en seres humanos había de tener per se un carácter clínico (diagnóstico o terapéutico) y, por tanto, beneficente y sólo per accidens un carácter investigativo", basado en el principio del doble efecto o del voluntario indirecto (Diego Gracia). De allí que únicamente era aceptado que se realizara en cadáveres, animales y condenados a muerte (seres humanos que "ya eran cadáveres y podían ser redimidos por su colaboración con la ciencia") En esta larga etapa, primó absolutamente el principio ético de la beneficencia.

Ya a mediados del siglo pasado y con mayor claridad a comienzos de este siglo, con precursores tales como Claude Bernard y, más tempranamente aún, Williams Beaumont, se fue estableciendo una forma muy diferente de ver la investigación clínica. Hasta entonces se afirmaba que nada que no fuera clínico (diagnóstico o terapéutico) podía justificarse como experimental, desde ese momento -que coincide con la crisis del conocimiento empírico y el mayor desarrollo del aprendizaje sistematizado en las ciencias de la salud- se comienza a señalar que solamente lo experimentado, lo "validado", tiene aplicación clínica. Por lo tanto "la validación o investigación en seres humanos tiene que ser posible per se y no sólo per accidents" (Diego Gracia) En este período primó el principio de la autonomía, tanto de las personas que deben aceptar la investigación como sujetos de ella, como de los investigadores, que deben tener libertad para experimentar, ya que hasta entonces se creía cerradamente en la "pureza" de las ciencias y los científicos (lo que debían atenerse a los hechos y no a las cuestiones de valor)

Dos tremendos acontecimientos de los años 40: la detonación sobre personas de dos bombas atómicas y las atrocidades llevadas a cabo por médicos en campos de concentración nazis, fueron una exagerada demostración de la equivocación cometida. Los científicos no se autorregularían y la ciencia podía ser "impura".

Este remezón de la conciencia mundial, dio origen, en 1947, al Código de Nuremberg, el primer Código Internacional de Ética para la investigación en seres humanos. De esta forma se inicia formalmente a la ética de la investigación en seres humanos, orientada a impedir toda repetición -por parte de los médicos y los investigadores en general- de violaciones a los derechos y al bienestar de las personas.

El Código de Nuremberg es el documento básico de la ética médica de nuestra época, con un decálogo de reglas que deben cumplirse para experimentar en seres humanos y que pueden agruparse bajo tres conceptos fundamentales:

  • El sujeto de experimentación debe dar un consentimiento voluntario y debe conservar su   libertad y poder de autoconservación permanentemente.
  • El experimento debe ser necesario, preparado correctamente, con riesgos muy bajos de   producir daño, invalidez o muerte.
  • El investigador debe ser calificado, para no producir daño y poder suspender el experimento en caso de peligro.
Al año siguiente de Nuremberg, en Ginebra se estableció la Promesa del Médico, como una versión moderna del juramento hipocrático, incluyendo "el máximo de respeto por la vida humana" entre sus acápites principales. Ambos textos parecieron ser una sólida respuesta que dio la misma comunidad científica a los dramáticos sucesos vividos durante la segunda guerra mundial.


(*)   Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina






sábado, 30 de diciembre de 2017

489- Verificación de resultados de laboratorio

Sediq AM, Abdel-Azeez AG. Diseño de un sistema de autoverificación en los Laboratorios hospitalarios de la Universidad de Zagazig: Evaluación preliminar del perfil de la función tiroidea. Ann Saudi Med. 2014; 34(5):427-32. Clinical and Chemical Pathology, Faculty of Medicine, Zagazig University, Sharqia, Egypt, 

Objetivos:   La práctica actual en los laboratorios hospitalarios de la Universidad de Zagazig (ZUHL) es la verificación manual de todos los resultados para su posterior publicación de informes. Estos procesos consumen tiempo y son tediosos, con una gran variación interindividual que disminuye el tiempo de respuesta (TAT). La auto-verificación es un proceso que compara los resultados de los pacientes, generados a partir de instrumentos con interfaz, contra parámetros de aceptación definidos por el laboratorio. Este estudio describe un sistema de auto-verificación diseñado e implementado en ZUHL, Egipto.

Diseño: Estudio descriptivo realizado en ZUHL, desde enero de 2012 hasta diciembre de 2013.

Materiales y Métodos:  Se utilizó un sistema basado en reglas para diseñar un sistema de auto-verificación. El sistema se evaluó preliminarmente en un panel de función tiroidea. Un total de 563 reglas fueron escritas y probadas en 563 casos simulados y 1673 casos archivados. Las decisiones del sistema se compararon con  4 revisores expertos independientes. Se evaluó el impacto de la implementación del sistema en TAT.

Resultados:  Se logró un acuerdo entre los 4 revisores en el 55,5% de los casos, y con el sistema en el 51,5% de los casos. La tasa de auto-verificación para casos archivados fue del 63,8%. El TAT de las informaciones del laboratorio se redujo en un 34,9% y el segmento TAT desde la conclusión del análisis hasta la verificación se redujo en un 61,8%.

Conclusión :  El sistema de auto-verificación basado en reglas de desarrollado tiene una tasa de verificación comparable a la del software comercialmente disponible. Sin embargo, el desarrollo interno de este sistema había ahorrado al hospital el costo de los disponibles comercialmente. La implementación del sistema acortó el TAT y minimizó el número de muestras que necesitaban la revisión del personal, lo que permitió al mismo dedicar más tiempo y esfuerzo a manejar los resultados de las pruebas problemáticas y a mejorar la calidad del cuidado del paciente. 

Introducción

Las pruebas de laboratorio son un proceso muy complejo. Tradicionalmente, la verificación de los resultados de las pruebas ha dependido de algoritmos mentales realizados por un biquimico/ medico patólogo en un único resultado analítico o un grupo de resultados. Esta noción de la participación humana en el proceso de prueba total fue bien tratada por Lundberg, que lo describió como un " bucle cerebro-cerebro"  como un paso entre varios pasos en el ciclo que comienza y termina con el cerebro clínico.  

El propósito de la fase de verificación es identificar errores potenciales antes de que los resultados se informen a los paciente.  Cuando la verificación de resultados se realiza manualmente, es un proceso largo y tedioso con gran variación interindividual que prolonga el tiempo de respuesta del laboratorio (TAT). Como un enfoque para superar estos defectos de la verificación manual de resultados, y así cumplir con los requisitos de calidad total, el concepto de auto-verificación se ha introducido en las prácticas de laboratorio modernas.  

El College of American Phatologists, en su lista de control general de laboratorio para 2013, definió "la auto-verificación como el proceso mediante el cual los resultados de las pruebas se generan a partir de instrumentos conectados y se envían al sistema informático del laboratorio (LIS)" . Si los resultados se encuentran dentro de estos parámetros definidos, los resultados se liberan automáticamente a los registros médicos del paciente sin ninguna validación adicional por parte del personal del laboratorio. Los resultados que no cumplen con estos parámetros previamente definidos se mantienen para su revisión profesional antes de la verificación manual y la presentación del informes.  Esto significa que el software de auto-verificación no "toma decisiones"; sólo se ocupa de situaciones, datos y patrones de resultados que hayan sido predefinidos por el laboratorio.......... 

Ver el artículo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


lunes, 25 de diciembre de 2017

488- ¿Una sola prueba de hs-TnI para el IAM?

Sandoval Y, Smith SW, Love SA, Sexter A, Schulz K, Apple FS. Una sola prueba de Troponina cardiaca de alta sensibilidad para descartar infarto agudo de miocardio.  Am J Med. 2017; 130(9) :1076-1083. Division of Cardiology. Department of Emergency Medicine, Department of Laboratory Medicine and Pathology, Hennepin County Medical Center and University of Minnesota, Minneapolis.

Resumen

Motivo:  en este estudio se examinó el desempeño de una sola determinación de Troponina I (hs-cTnI) para descartar el infarto agudo de miocardio. (IAM)

Métodos:  es un  estudio prospectivo observacional y consecutivo de pacientes que se presentaron en el servicio de urgencias (n 1631) en los que se obtuvieron las mediciones de cTnI utilizando un solo ensayo hs-cTnI . Los objetivos del estudio fueron determinar:  1) valor predictivo negativo (VPN) y sensibilidad para el diagnóstico del IAM tipo 1 y tipo 2 ;  2) resultados sobre seguridad diagnostica de IAM o muerte cardiaca a los 30 días usando un  límite de detección (LoD menor de 1,9 ng/L) o en el nivel Alto-STEACS (ST-Elevation Acute Coronary Syndrome.) (menor de 5 ng/L) y en combinación con electrocardiograma  normal (ECGn).

Resultados;   El IAM ocurrió en 170 pacientes (10,4%), incluyendo 68 (4,2%) IAM  tipo 1 y 102 (6,3%) tipo 2 . Para hs-cTnI, el menor LoD (27%), el VPN y la sensibilidad  fueron del 99,6% (95% intervalo de confianza 98,9% -100%) y 98,8 (97,2% -100%). Para hs-cTnI menor de 5 ng/L (50%), el VPN y la sensibilidad fueron 98,9% (98,2% -99,6%) y 94,7% (91,3% -98,1%). En combinación con un ECG normal,  1)  el LoD tuvo un VPN de 99,6% (98,9% -100%) y sensibilidad de 99,4% (98,3% -100%); y  2) el limite de 5 ng/L tuvo un VPN de 99,5% (98,8% -100%) y sensibilidad de 98,8% (97,2% -100%).  El VPN y la sensibilidad fueron excelentes para hs-cTnI menor LoD solo o en combinación con un ECG normal, y para hs-cTnI menor 5 ng/L en combinación con un ECGn.

Conclusión:  las estrategias que usan un único hs-cTnI solo o en combinación con un ECGn permiten la identificación inmediata de pacientes poco probables de tener un IAM y que tienen un riesgo muy bajo de eventos adversos a los 30 días.

Introducción

Los ensayos I y T de troponina cardíaca (cTn) de alta sensibilidad son ensayos analíticamente superiores comparados con los ensayos contemporáneos de cTn y son capaces de medir cTn a concentraciones muy bajas con una precisión excelente.  Ambas hs-cTnI y ensayos hs-cTnT están disponibles y se utilizan clínicamente en todo el mundo, pero sólo el ensayo de hs-cTnT fue recientemente autorizado por la FDA para su uso en los USA. La capacidad de medir concentraciones muy bajas de hs-cTn con imprecisión clínicamente aceptable ha permitido el desarrollo de nuevas estrategias de exclusión, que han sugerido que tanto el IAM como la lesión miocárdica pueden ser excluidos con seguridad con una sola medición  …………..

Otras opiniones
Paginas relacionadas N° 23- 26421

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina

miércoles, 20 de diciembre de 2017

487- Estudio caso clínico: protrombina- vitamina K

Mark W.M. Schellings, Moniek P.M. de Maat, Sacha de Lathouder,  Floor Weerkamp. Clinical Prolongación del tiempo de protrombina después de la interrupción del antagonista de la vitamina K. Clin.Chem, 2017; 63:9;  1442–1446. Department of Clinical Chemistry, Maasstad Hospital, Rotterdam, the Netherlands.   

Descripción del caso

Un hombre de 65 años  ingreso en nuestro hospital para una colonoscopia. En 1989 tuvo dos episodios de trombosis venosa profunda de miembros inferiores y comenzó a tomar un antagonista de la vitamina K (acenocumarol). Con el tiempo, su tiempo de protrombina  (PT-INR) fueron estables y se revisaron regularmente en una clínica de anticoagulación. La clínica de anticoagulación le aconsejó detener la ingesta de antagonistas de la vitamina K, 3 días antes de la colonoscopia. Para pacientes sometidos a una colonoscopia, se acepta un INR máximo de 1.7 el día del procedimiento. En nuestro hospital, el día del procedimiento de colonoscopia programada, nuestro paciente tenía un INR de 2,5. Basándose en este valor, la colonoscopia fue cancelada y reprogramada. Además del INR, se realizó un tiempo de tromboplastina parcial activada (APTT), que se prolongó en gran medida (mayor de 125 s).  El paciente aceptó la cancelación del procedimiento pero cuestionó su resultado de INR de 2.5. Por lo tanto, pocas horas después de visitar nuestro hospital, los valores fueron verificados de nuevo en su clínica de anticoagulación, lo que resultó en un INR de 1,2. Intrigado, llamó al laboratorio clínico del hospital y pidió hablar con el bioquímico para una explicación de estos resultados inconsistentes.

Discusión del caso

Buscando la causa de los resultados discrepantes del INR, el bioquimico consideró inicialmente errores preanaliticos. Revisando el tubo tenia un llenado de sangre nomal lo mismo que  el hematocrito del paciente fue normal, excluyendo la posibilidad de una relación de citrato a plasma incorrecta. El llenado insuficiente del tubo es probablemente el error preanáltico más importante. La proporción recomendada de sangre a anticoagulante citrato de sodio en los tubos es de 9: 1. Los tubos con menor llenado contienen proporcionalmente más citrato sódico por volumen de plasma, uniendo más calcio y potencialmente conduciendo a tiempos de coagulación más largos. Otros requisitos previos para la integridad óptima de la muestra, tales como el procesamiento dentro de las 24 h para PT-INR y 4 h para APTT, se cumplieron. La sangre se extrajo mediante punción venosa solo para pruebas de coagulación, excluyendo la posibilidad de que la heparina se traslade a partir de una línea o la contaminación cruzada con aditivos de tubo. Aunque la mayoría de los reactivos PT-INR utilizan heparina neutralizada, se han descrito casos que muestran INR prolongado como resultado de la sensibilidad a la heparina

Después de revisar el historial médico del paciente y de conocer los eventos trombóticos ocurridos a la edad de 39 años, el bioquímico sugirió la realización de pruebas para el síndrome antifosfolípido (APS). Una semana después, se extrajo sangre para anticoagulantes lúpicos (LA), anticuerpos anticardiolipina y pruebas de anticuerpos anti-β2-glicoproteína. Estas pruebas se realizaron mientras el paciente estaba usando su antagonista de la vitamina K, ya que reinició este medicamento el día de la colonoscopia cancelada.

Las pruebas para APS, INR y APTT fueron realizadas por 2 laboratorios independientes . En ambos laboratorios se encontraron una fuerte presencia de LA. Debido a que nuestro paciente estaba usando antagonistas de la vitamina K, el plasma del paciente se diluyó con plasma normal para reducir el efecto de la medicación antes de realizar ensayos de coagulación con LA.  Además, fueron encontrados anticuerpos anticardiolipina IgG y anti-β2-glicoproteína IgG fueron, mientras que los anticuerpos IgM no eran detectables. Curiosamente, se observaron grandes diferencias en los valores de INR y APTT entre los 2 laboratorios.

Preguntas a considerar

1) ¿Cuáles son las posibles causas por las que un PT-INR difiere entre los laboratorios?
2) Considerando el historial médico del paciente, ¿qué diagnóstico sugiere el APTT prolongado?
3) ¿Qué pruebas adicionales se deben hacer para confirmar el diagnóstico en este paciente?

Ver  el artículo completo


(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina





viernes, 15 de diciembre de 2017

486- Vitamina D y Tiroides

Kim D. The Role of Vitamin D in Thyroid Diseases. Int J Mol Sci. 2017 Sep 12;18(9). Division of Endocrinology, Department of Internal Medicine, Dankook University College of Medicine,  Chungnam .Korea. 

Resumen

 El papel principal de la vitamina D es la regulación del metabolismo óseo y la homeostasis de calcio y fósforo. En las últimas décadas, se ha estudiado la importancia de la vitamina D en las acciones no esqueléticas, incluyendo el papel de la vitamina D en las enfermedades autoinmunes, los síndromes metabólicos, las enfermedades cardiovasculares, los cánceres y la mortalidad por todas las causas. La evidencia reciente ha demostrado una asociación entre el bajo nivel de vitamina D y las enfermedades tiroideas autoinmunes como la tiroiditis de Hashimoto y la enfermedad de Graves, y la alteración de la señalización de la vitamina D ha sido reportada en cánceres de tiroides. Esta revisión se centrará en datos recientes sobre el posible papel de la vitamina D en las enfermedades de la tiroides, incluyendo las enfermedades tiroideas autoinmunes y los cánceres tiroideos.

1. Introducción

La vitamina D es una molécula esteroide, producida principalmente en la piel, que regula la expresión de un gran número de genes . El receptor de vitamina D (VDR) se encuentra en la mayoría de los tejidos y células del cuerpo. El papel principal de la vitamina D es la regulación del metabolismo óseo y la homeostasis de calcio y fósforo. Evidencia reciente sugiere que la deficiencia de vitamina D, que es común en todo el mundo, también podría tener acciones no esqueléticas incluyendo un papel importante en enfermedades autoinmunes, cánceres, síndromes metabólicos, enfermedades cardiovasculares e infección, así como la mortalidad por todas las causas. Los bajos niveles  de vitamina D también se han asociado con enfermedades autoinmunes de la tiroides (AITD) tales como la tiroiditis de Hashimoto (HT) y la enfermedad de Graves (GD). La alteración de la señalización de la vitamina D se ha informado que fomentar la tumorigénesis tiroidea.

El objetivo de esta revisión es resumir los datos recientes sobre la posible asociación entre la vitamina D y las enfermedades tiroideas, incluyendo AITD y cáncer de tiroides. Esta revisión se basa en una búsqueda electrónica de la literatura en la base de datos PubMed publicada desde enero de 2002 hasta mayo de 2017 utilizando combinaciones de las siguientes palabras clave: deficiencia / insuficiencia de vitamina D o vitamina D y tiroiditis autoinmune, tiroiditis de Hashimoto, enfermedad de Graves, tiroides cáncer o nódulo tiroideo. También se analizaron las referencias incluidas en los artículos de revisión publicados previamente, y se incluyeron también documentos relevantes.

2. Fuentes de vitamina D, Metabolismo y Acción

Hay dos formas de vitamina D, vitamina D 3 (o colecalciferol) y vitamina D 2 (o ergocalciferol). El primero se sintetiza principalmente en la piel mediante la 7-deshidrocolesterol reductasa tras la exposición a la radiación ultravioleta B (UVB), y puede obtenerse también de unas pocas fuentes dietéticas (principalmente los pescados grasos), mientras que el último es producido por plantas y hongos 

Ambas formas de vitamina D se transportan al hígado donde se convierten en 25-hidroxivitamina D (25(OH)D o calcidiol) por la 25-hidroxilasa (CYP27A1 y CYP2R1). La 25(OH)D es la principal forma circulante y almacenada de vitamina D, y los niveles séricos de esta forma se consideran el mejor marcador para medir el estatus dela  vitamina D. Aunque se discute, los valores vitamina D  generalmente se aceptan insuficientes los valores de  50-75 nmol/L de 25 (OH) D y como deficientes los valores menores de 50 nmol/L. ........

Ver el artículo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


domingo, 10 de diciembre de 2017

485- Equilibrio ácido-base

L. Lee Hamm, Nazih Nakhoul, Kathleen S. Hering-Smith. Homeostasis ácido-base. Clin J Am Soc Nephrol. 2015 Dec 7; 10(12): 2232–2242. Department of Medicine, Section of Nephrology, Hypertension and Renal Center of Excellence, Tulane University School of Medicine,  Medicine Service, Southeast Louisiana Veterans Health Care System, New Orleans, Louisiana

Resumen

La homeostasis ácido-base y la regulación del pH son fundamentales tanto para la fisiología normal como para el metabolismo y la función celular. La importancia de esta regulación se evidencia por una variedad de trastornos fisiológicos que se producen cuando el pH del plasma es alto o bajo. Los riñones tienen el papel predominante en la regulación de la concentración sistémica de bicarbonato y por lo tanto, el componente metabólico del equilibrio ácido-base. La función de los riñones tiene dos componentes: la reabsorción de virtualmente todo el HCO3- filtrado  y la producción de nuevo bicarbonato para reemplazar el consumido por los ácidos normales o patológicos. Esta producción o generación de nuevos HCO 3- se realiza mediante la excreción neta de ácido. En condiciones normales, aproximadamente de un tercio a la mitad de la excreción neta de ácido por los riñones está en forma de ácido titulable. La otra mitad a dos tercios es la excreción de amonio. La capacidad de excretar amonio en condiciones de carga ácida es cuantitativamente mucho mayor que la capacidad de incrementar el ácido titulable. Varias vías y procesos a menudo redundantes existen para regular estas funciones renales. Los trastornos en la homeostasis ácido-base, sin embargo, son comunes en la medicina clínica y a menudo pueden estar relacionados con los sistemas implicados en el transporte ácido-base en los riñones.

Introducción

Normalmente, el equilibrio ácido-base sistémico está bien regulado con un pH arterial comprendido entre 7,36 y 7,44; el pH intracelular suele ser de aproximadamente 7,2. Por ejemplo, la acidosis metabólica crónica puede estar asociada con una disminución de la densidad ósea, nefrolitiasis, pérdida muscular y progresión de la enfermedad renal crónica . A nivel celular, muchos procesos celulares esenciales, enzimas metabólicas y procesos de transporte transmembrana son altamente sensibles al pH. Aunque esta revisión tratará la regulación sistémica del pH y el papel de los riñones, las células individuales también tienen una variedad de mecanismos para regular su pH intracelular. Se enfatizarán los conceptos generales más que las vías o procesos específicos, que están bien cubiertos en otros lugares; las referencias son selectivas.

Conceptos básicos

Los buffers intracelulares y extracelulares son el mecanismo más inmediato de defensa contra los cambios en el pH sistémico. El hueso y las proteínas constituyen una proporción sustancial de estos buffers. Sin embargo, el sistema tampón más importante es el sistema buffer HCO 3-/CO2. La  Ecuación de Henderson-Hasselbach describe la relación de pH, y (HCO 3-)/CO2 ...........

Ver el articulo completo

Pagina relacionada: N° 359

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina



martes, 5 de diciembre de 2017

484- Liquido cefalorraquídeo

Hansotto Reiber.  Base de conocimiento para la interpretación de los datos esenciales observados en el liquido cefalorraquídeo en neurología y psiquiatría. Arq. Neuro-Psiquiatr. 2016: 74 (6).  CSF and Complexity Studies, Sao Paulo SP, Brasil; University Goettingen, Former Neurochemistry Laboratory, Goettingen, Germany

Resumen

La base de conocimiento fisiológico y biofísico para las interpretaciones de los datos del líquido cefalorraquídeo (LCR) y los rangos de referencia son esenciales para el patólogo clínico y el neuroquímico. Con la popular descripción de la función  barrera-dependiente del LCR, la dinámica y  gradientes de concentración de proteínas derivadas de la sangre derivadas del cerebro, de las lepto-meníngeas del LCR, y las funciones de especificidad de los linfocitos B en el cerebro, el neurólogo, el psiquiatra y el neurocirujano puede encontrar elementos esenciales para el diagnóstico, la investigación o el desarrollo de terapias. Esta revisión puede ayudar a reemplazar las ideas desactualizadas sobre los modelos de "fuga" de las barreras, las interpretaciones lineales del Índice de inmunoglobulinas o la electroforesis en LCR.  Se describen cálculos, e interpretaciones analíticas para los casos del cocientes de albúmina, la cuantificación de la síntesis de inmunoglobulinas, IgG oligoclonal, análisis de IgM, la reacción de anticuerpos poliespecíficos (MRZ-), el tratamiento estadístico de los datos de LCR y la evaluación del control de calidad en el laboratorio.  La relevancia del diagnóstico está documentada en una revisión bibliográfica

Introducción

Esta presentación muestra que el enfoque conceptual del análisis del líquido cefalorraquídeo (LCR) puede proporcionar información sobre muchos procesos patológicos inflamatorios, parasitarios, oncológicos o hemorrágicos agudos y crónicos en el cerebro, no proporcionados por la electrofisiología ni mediante técnicas reales de imágenes cerebrales. Esto enfatiza la demanda de realizar un análisis LCR con la más alta calidad posible que  no es solo una demanda de precisión analítica. El reconocimiento de los patrones de datos relacionados con la enfermedad es, además, un desafío para una interpretación basada en el conocimiento .

Esta revisión proporciona la base de conocimientos fisiológicos y biofísicos de la interpretación de datos de LCR  junto con los valores de referencia y los comentarios de aspectos analíticos, así como los errores comunes en la interpretación de los analitos correspondientes.

En la práctica mundial de análisis de LCR, métodos obsoletos como electroforesis LCR, índice de IgG lineal, eventualmente la medición de Cl-, Na+ y K+ en LCR todavía están en uso, décadas después de la aparición de mejores analitos, más relevantes y científicamente fundamentados. La interpretación del aumento de las concentraciones de proteína sérica en el LCR, la denominada disfunción de la barrera LCR en sangre, todavía se explica con mayor frecuencia por el modelo de fuga de la barrera, en términos como deterioro de la barrera o ruptura de la barrera. 

Comprender una mayor concentración de proteína sérica en el LCR como consecuencia funcional del flujo del LCR en lugar de esperar una "fuga" morfológica es crucial en neurología, psiquiatría y en neurocirugía. Esto significa que el conocimiento de la base de conocimiento de la interpretación de los datos del LCR es esencial para el clínico en neurología o psiquiatría, así como para el neuropatólogo clínico o neuroquímico.

En muchos países, la neuro-imagen se se prefiere al análisis de LCR. Pero el análisis completo de  inmunoglobulinas (IgG, IgA, IgM) con patrones relacionados con la enfermedad puede proporcionar un diagnóstico más temprano y seguro y también es la base para una evaluación de calidad general en el laboratorio de LCR. El conocimiento sobre las diferentes dinámicas de moléculas derivadas de sangre y cerebro o proteínas lepto-meníngeas en LCR apoyados sobre investigación básica permite identificar la fuente de moléculas en LCR  o proporciona una nueva perspectiva para rápida ubicación de parásitos en enfermedades tropicales .

Ver el artículo completo

(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina


jueves, 30 de noviembre de 2017

483- Definicion por edad de la enfermedad renal cronica

Pierre Delanaye, Richard J. Glassock, Hans Pottel, Andrew D. Rule. Una definición calibrada por edad  en  la  enfermedad renal crónica:  justificación y beneficios Clin Biochem Rev. 2016 Feb; 37(1): 17–26. Department of Nephrology, Dialysis, Transplantation, University of Liège (ULg CHU), Liège, Belgium; Department of Medicine, Geffen School of Medicine at UCLA, Los Angeles, California, USA.

Resumen

La definición de la enfermedad renal crónica (ERC) es objeto de intenso debate en la literatura actual sobre nefrología. El debate se refiere al valor umbral de la tasa de filtración glomerular estimada (eGFR) que se utiliza para hacer el diagnóstico de la ERC. Las recomendaciones actuales sostienen que se debe usar un umbral universal de 60 mL /min/1,73m2 . Este umbral ha sido defendido por estudios epidemiológicos que muestran que el riesgo de mortalidad o enfermedad renal en etapa terminal aumenta con una eGFR inferior a 60 mL/min/1,73m2 . Sin embargo, un umbral universal no tiene en cuenta la disminución fisiológica de la eGFR por el envejecimiento ni el riesgo de mortalidad de la insuficiencia renal en su etapa terminal, siendo relativo con niveles de eGFR aislados por debajo de 60 mL/min/1,73m2 en sujetos mayores y aumento significativo por sobre ese valor entre pacientes más jóvenes. La sobre-estimación de la prevalencia de ERC en los ancianos  y la sub-estimación de la ERC (potencialmente de enfermedades nefrológicas primarias tratables) en pacientes más jóvenes son de primordial preocupación. Se ha propuesto una definición calibrada por edad de la ERC para distinguir los cambios relacionados con la edad de los cambios relacionados con la enfermedad en la ERC. Para los pacientes menores de 40 años, la ERC se define por eGFR por debajo de 75 mL /min /1,73m2 . Para los pacientes con edades entre 40 y 65 años, la ERC se define por 60 mL/min/1,73m2 . Para sujetos mayores de 65 años sin albuminuria o proteinuria, la ERC se define por eGFR por debajo de 45 mL / min / 1,73m 2 .

Introducción

La enfermedad renal crónica (ERC) se describe a menudo como el "asesino silencioso" en la medicina, ya que esta patología rara vez es sintomática hasta que la tasa de filtración glomerular (eGFR) es severamente disminuida. Por lo tanto, el análisis de sangre y orina durante la atención médica de rutina es de importancia clave. 

Los dos biomarcadores más útiles para evaluar la salud renal son la eGFR y la evaluación de albuminuria (o proteinuria). Existen otras pruebas más específicas para caracterizar la ERC, pero están fuera del alcance de este artículo de revisión. La estimación de la eGFR se basa en biomarcadores serológicos filtrados por vía renal, más comúnmente las ecuaciones basadas en los niveles de creatinina sérica (sCr). El valor de sCr depende de la eGFR, pero también de la masa muscular, la secreción tubular de creatinina y en cierta medida el consumo dietético de carne magra y cocida. Además, la relación entre sCr y eGFR es una función recíproca. 

La estimación de la eGFR por las ecuaciones basadas en la creatinina incluye otras variables como el género, la etnia y, lo que es importante para nuestra discusión, la edad.  Ha habido múltiples ecuaciones basadas en creatinina desarrolladas  así como métodos de albuminuria o pruebas de proteinuria.  Para simplificar el debate, consideraremos las Directivas  de las  Kidney Disease Improving Global Outcome (KDIGO). Ellos recomiendan la  ecuacion Chronic Kidney Disease Epidemiology (CKD-EPI) y la  relacion albumin o protein)/creatinina (UACR)  en una muestra aleatoria de orina obtenida preferentemente  a la mañana.


(*)  Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a la traducción del mismo al idioma español. Este blog de bioquímica-clínica no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo. Las páginas de este blog se renuevan cada 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli, Bioquímico-UBA. Ciudad de Buenos Aires, Argentina