miércoles, 25 de agosto de 2021
801- Calcio: Intervalo de referencia ajustado por albumina
viernes, 20 de agosto de 2021
800- Alteraciones del equilibrio ácido-base
Julian L. Seiftera,Hsin-Yun Chang. Trastornos del equilibrio ácido-base: nuevas perspectivas. Kidney Dis (Basel). 2017; 2(4):170–186. Renal Division, Department of Medicine, Brigham and Women's Hospital, Harvard Medical School, Boston, MA, USA
Resumen
Los trastornos acido-básicos implican la interacción compleja de muchos sistemas de órganos, incluidos el cerebro, los pulmones, los riñones y el hígado. Mientras que las limitaciones de las compensaciones son más evidentes para la mayoría de los trastornos sistémicos, las compensaciones de las alteraciones ácido-base dentro del cerebro son más complejas. Sin embargo, algunas de las limitaciones de las compensaciones son necesarias para la supervivencia, ya que la preservación de la oxigenación, el equilibrio energético, la cognición, los electrolitos y el equilibrio hídrico están conectados de forma mecánica. Esta revisión tiene como objetivo brindar una perspectiva nueva y completa sobre la comprensión del equilibrio ácido-base y la identificación de trastornos asociados. Todos los trastornos metabólicos ácido-base pueden abordarse en el contexto de las pérdidas o ganancias relativas de electrolisis o un cambio en la brecha aniónica en los fluidos corporales. El equilibrio ácido-base y electrolítico están conectados no solo a nivel celular sino también en la práctica clínica diaria. La química de la orina es esencial para comprender la excreción de electrólitos y las compensaciones renales. Muchas modelos son útiles para comprender el ácido-base, pero estos no son mutuamente excluyentes. La electroneutralidad y la estrecha interconexión entre el equilibrio electrolítico y ácido-base son conceptos importantes para aplicar en los diagnósticos ácido-base. Todos los modelos tienen complejidad y atajos que pueden ayudar en la práctica. No hay razón para descartar ninguno de los conceptos actuales, y hay beneficios en un enfoque combinado.
Introducción
La concentración de iones de hidrógeno de los fluidos corporales se mantiene dentro de un rango estrecho con el fin de regular los procesos metabólicos y enzimáticos normales y funciones críticas como la fertilización, el crecimiento, la regulación del volumen celular y la síntesis de proteínas. Dado que el [H+] está en concentraciones nanomolares, en comparación con el bicarbonato en cantidades milimolares, está claro que el [H+] está involucrado en muchas reacciones. El hidrógeno está en equilibrio con el agua que existe en una concentración de 55,5 M; con dióxido de carbono, un gas exhalado por los pulmones (un sistema tampón abierto), con proteínas, ácidos débiles como el fosfato de hidrógeno, y está involucrado en muchas reacciones de reducción de oxidación y síntesis de trifosfato de adenosina (ATP).
Es habitual expresar la acidez como log 1/[H+]. Debido a que la mayoría de las células del cuerpo son electronegativas en el espacio extracelular, el pH de equilibrio dentro de las células es menor que el del líquido externo. Aunque el pH intracelular es más ácido que el extracelular, la mayoría de las células tienen mecanismos disponibles para evitar que el pH aumente o disminuya excesivamente. Es interesante que los mismos transportadores, disponibles para todas las células para controlar su propio pH, sean utilizados por los túbulos renales para eliminar el ácido en la orina. El pH extracelular está normalmente en el rango de 7,35 a 7,45.
Una fuente de ácido en el cuerpo es la producción celular de ácido carbónico, que consiste en dióxido de carbono y agua, en cantidades equimolares; en promedio, esto equivale a aproximadamente 20 moles por día, lo que representa una media de 400 ml de agua. El dióxido de carbono se llama ácido volátil porque se elimina por ventilación alveolar. Su fuente de carbono es la oxidacion de carbohidratos, cetoácidos, grasas y aminoácidos. Otra clase de ácido celular, conocido como ácidos fijos o no volátiles, consiste en sulfatos y fosfatos del metabolismo de proteínas, fosfolípidos y ácidos nucleicos, así como de fuentes inorgánicas como las sales de cloruro. En forma cuantitativa, los ácidos fijos se producen en el orden de 1 mEq de hidrógeno por kg de peso corporal por día. Aunque estos ácidos son comparativamente pequeños en cantidad, la excreción debe realizarse en un medio acuoso, principalmente orina y debe haber tampones en la orina para recoger el hidrógeno. .......
domingo, 15 de agosto de 2021
799- Gammapatía monoclonal de importancia clínica
Angela Dispenzieri. Gammapatías monoclonales de importancia clínica. Hematology Am Soc Hematol Educ Program. 2020; 1: 380-388. Division of Hematology and Division of Clinical Chemistry, Mayo Clinic, Rochester, MN. USA.
Resumen: “Gammapatía monoclonal de importancia clínica” (MGCS) es el término utilizado para describir las gammapatías monoclonales no malignas que causan una enfermedad importante. MGCS es el diagnóstico diferencial para cualquier paciente que se presente en lo que parece ser una gammapatía monoclonal de significado indeterminado, y que también experimenta otros síntomas inexplicables. En términos generales, estas afecciones se pueden dividir en síntomas y signos que se refieren a los nervios, los riñones y la piel. El primer paso para realizar estos diagnósticos es considerarlos; con una condición particular en mente, el siguiente paso es solicitar las pruebas que pueden ayudar a confirmar o descartar un diagnóstico en particular. Casi todas las afecciones renales y dermatológicas se diagnostican mediante biopsias renales y cutáneas, respectivamente. No se puede subestimar la importancia de un patólogo renal y un dermatopatólogo altamente competentes. La biopsia es menos específica para las condiciones neuropáticas. Debido a que varios de los MGCS son síndromes, el reconocimiento de otras manifestaciones también es clave. Las recomendaciones de tratamiento para muchas de estas afecciones son anecdóticas debido a su rareza, pero para varias de las afecciones, la inmunoglobulina intravenosa, el rituximab y la terapia dirigida a células plasmáticas son las mejores opciones de tratamiento.
Objetivos de aprendizaje: • Reconocer el diagnóstico diferencial de una gammapatía monoclonal con neuropatía periférica, anomalías cutáneas o enfermedad renal. • Diagnosticar MGCS
Caso clínico: Aproximadamente 18 meses antes del diagnóstico y a los 67 años, un hombre comenzó a experimentar anorexia, náuseas, vómitos y pérdida de peso. A los 12 meses antes del diagnóstico, había perdido 25 kg. Se realizó una evaluación no diagnóstica extensa, que incluyó tirotropina, autoanticuerpos anticitoplasma de neutrófilos, anticuerpos antinucleares, endoscopias, estudios de vaciamiento gástrico y tomografía por emisión de positrones-tomografía computarizada. Siete meses antes del diagnóstico se encontró una gammapatía monoclonal por inmunoglobulina Aλ. Durante los meses siguientes, este paciente desarrolló neuropatía periférica sensitivomotora, debilidad muscular progresiva, sobrecarga de volumen y seudogota. Fue ingresado en nuestro hospital, donde se le hizo un diagnóstico. Además de las presentaciones anteriores, tuvo desnutrición y anasarca . Estado funcional del Eastern Cooperative Oncology Group 4.
Introducción
El término "gammapatía monoclonal de importancia clínica" (MGCS) se acuñó después de la gammapatía monoclonal de importancia renal (MGRS) cuando se hizo cada vez más evidente que se requería un término para un paciente con un clon pequeño de células B y pequeñas proteínas monoclonales que estaban causando enfermedades graves e incluso potencialmente mortales
La gammapatía monoclonal de "significado indeterminado" (MGUS) es un nombre inapropiado para estas afecciones. Algunos pacientes con MGCS tienen una carga clonal suficiente para satisfacer la definición de mieloma múltiple latente o macroglobulinemia de Waldenstrom latente. En resumen, MGCS es una gammapatía monoclonal que presenta dos características principales: un clon subyacente inactivo y síntomas relacionados con la inmunoglobulina monoclonal o con el clon en sí por mecanismos distintos de la carga tumoral. Los MGCS se dividen mejor en diferentes sistemas que se ven afectados, los más comunes de los cuales son el riñón, el nervio y la piel, reconociendo que en algunos casos hay superposición debido a una presentación y/o curso sistémico y multiorgánico.
MGCS neurológica
Las principales consideraciones de MGCS para un paciente con neuropatía incluyen amiloidosis de cadena ligera amiloide, síndrome polirradiculoneuropatía, organomegalia, endocrinopatía, trastorno de células plasmáticas monoclonales y cambios cutáneos), crioglobulinemia, neuropatía atáxica crónica, oftalmoplejía, inmunoglobulina M paraproteína, paraproteína y aglutina fría anticuerpos disialosil y neuropatía simétrica desmielinizante adquirida distal con proteína M, anteriormente conocida como "neuropatía periférica asociada a GMSI". Las tres primeras son enfermedades con múltiples manifestaciones sistémicas, mientras que las dos últimas se encuentran principalmente en el sistema nervioso únicamente......
martes, 10 de agosto de 2021
798- ADN en celulas urinarias
Ze Zhou, Suk Hang Cheng, y col.. Extremos irregulares del ADN libre de células urinarias: caracterización y evaluación de viabilidad en la detección del cáncer de vejiga. Oxfort Academ.Clini Chem, 2021; 67 (4): 621–630, Li Ka Shing Institute of Health Sciences, Department of Chemical Pathology, The Chinese University of Hong Kong, SAR, China
Resumen
Antecedentes: Se sabe que el ADN bicatenario en plasma tiene extremos monocatenarios, llamados extremos dentados. Los extremos irregulares del ADN plasmático son biomarcadores de estados fisiopatológicos como el embarazo y el cáncer. Se desconoce si las moléculas de ADN libre de células urinarias (ADNcf) tienen extremos irregulares.
Métodos: Los extremos irregulares de cfDNA se detectaron incorporando citosinas no metiladas durante un proceso de reparación de extremos de DNA, seguido de secuenciación con bisulfito. La incorporación de citosinas no metiladas durante la reparación de los extremos dentados redujo los niveles de metilación aparentes medidos por secuenciación de bisulfito y se utilizaron para calcular un índice de extremos dentados. Este enfoque se denomina "análisis de extremos irregulares por secuenciación".
Resultados: El índice de extremo irregular del ADNcf urinario fue más alto que el del ADN plasmático. El perfil de índice de extremos dentados del ADN plasmático mostró varios picos principales que oscilaban fuertemente a intervalos de aproximadamente 165 pb (es decir, tamaño del nucleosoma) y picos menores que oscilaban débilmente con periodicidades de aproximadamente 10 pb. Por el contrario, el perfil del índice de extremos irregulares del ADN urinario mostró picos principales con oscilación débil pero picos menores con oscilación fuerte. El índice de extremos dentados fue generalmente más alto en las regiones de ADN del enlazador nucleosómico. Los pacientes con cáncer de vejiga (n = 46) tenían un índice de ADN urinario con extremos dentados más bajos que los participantes sin cáncer de vejiga (n = 39). El área bajo la curva para diferenciar entre pacientes con y sin cáncer de vejiga fue de 0,83.
Conclusiones: Los extremos irregulares representan una propiedad del ADNcf urinario. La generación de extremos dentados podría estar relacionada con estructuras nucleosómicas, con enriquecimiento en regiones de ADN enlazador. Los extremos irregulares del ADN urinario podrían potencialmente servir como un nuevo biomarcador para la detección del cáncer de vejiga.
Introducción
Las moléculas de ADN libre en células plasmáticas (cfDNA) consisten en fragmentos de ADN. Recientemente, se ha centrado mucho interés en los patrones de fragmentación de tales moléculas de ADN. Los tamaños de los fragmentos y los extremos, por ejemplo, presentan características nucleosómicas en relación con los tejidos de origen. En comparación con el ADN plasmático, las moléculas de ADNcf en celulas urinarias presentan un perfil de tamaño diferente; por lo tanto, las moléculas de ADN urinario están mucho más fragmentadas que el ADN plasmático. La mayoría de las moléculas de ADN urinario son <100 pb, mientras que las moléculas de ADN plasmático son más largas y tienen un tamaño modal de 166 pb. Además, una serie de picos periódicos de 10 pb parece ser más prominente en el ADN urinario que en el ADN plasmático.
Se ha reconocido cada vez más que las ADN nucleasas desempeñan un papel importante en la configuración de la fragmentación del ADNc. Estudios recientes han informado que los motivos terminales de ADN plasmático están asociados con actividades de muchas nucleasas de ADN como DNASE1L3, DNASE1 y factor de fragmentación de ADN β.
Más recientemente, se ha descubierto que el ADN plasmático lleva extremos de ADN de una sola hebra, denominados extremos dentados, que están asociados con las actividades de las ADN nucleasas, especialmente DNASE1. Se ha demostrado que las moléculas fetales circulantes en el plasma materno exhiben una mayor irregularidad en comparación con el ADN del plasma de fondo, principalmente de origen hematopoyético materno. Este aumento de la irregularidad se ha observado en pacientes con carcinoma hepatocelular en comparación con aquellos sin cáncer.
En consecuencia, los extremos dentados del ADN plasmático representan una propiedad intrínseca del ADNcf, lo que proporciona una vía para el desarrollo de biomarcadores. Sin embargo, se desconoce la existencia de extremos irregulares en otros fluidos corporales como la orina. En este estudio, investigamos si los extremos dentados podrían estar presentes en el ADN urinario y, si los hubiera, si los bordes irregulares del ADN urinario podrían usarse como biomarcador en pacientes con cáncer de vejiga........
jueves, 5 de agosto de 2021
797- Diabetes mellitus y sus complicaciones
Fei Huac. Nuevos conocimientos sobre la diabetes mellitus y sus complicaciones: una revisión narrativa. Fei Huac Ann Transl Med. 2020; 8(24) 1689. Department of Endocrinology, the Third Affiliated Hospital of Soochow University, Changzhou, China
Resumen
La diabetes es un trastorno metabólico acompañado de complicaciones de múltiples órganos y sistemas. La nefropatía diabética (ND) es una de las complicaciones letales más prevalentes de la diabetes. Aunque se han aclarado numerosos biomarcadores para el diagnóstico precoz de la ND, la biopsia renal sigue siendo el estándar de oro. Como método de diagnóstico por imágenes no invasivo, la resonancia magnética dependiente del nivel de oxígeno en sangre (BOLD) puede ayudar a comprender el estado de oxigenación renal y el proceso de fibrosis y monitorear la eficacia de nuevos medicamentos para la ND mediante el monitoreo de los niveles de oxígeno en sangre renal. Estudios recientes han demostrado que los ARN no codificantes, incluidos los microARN (miARN), los ARN largos no codificantes (lncRNA) y los ARN circulares (circRNA) estaban involucrados en el desarrollo de ND, que podrían explotarse como estrategia terapéutica para controlarla. La dislipidemia también es una complicación común de la diabetes. La apolipoproteína M (apoM), como una nueva apolipoproteína, puede estar relacionada con el desarrollo y la progresión de la diabetes, que necesitan más investigación. La apnea obstructiva del sueño (AOS) es otra complicación común de la diabetes y es un factor de riesgo independiente de enfermedad cardiovascular. En la actualidad, no existe un método de diagnóstico sencillo, eficaz y rápido para la identificación temprana de la AOS en pacientes con diabetes. Un nomograma que constase de la relación cintura-cadera, tabaquismo, índice de masa corporal, ácido úrico sérico, HOMA-IR y antecedentes de hígado graso podría ser un método alternativo para evaluar temprano el riesgo de AOS.
(NE: El acrónimo HOMA-IR representa las siglas en inglés del modelo homeostático para evaluar la resistencia a la insulina ("homeostatic model assessment"). Utiliza dos simples parámetros de laboratorio, la glucosa y la insulina en ayunas. Valora si existe un "bloqueo o resistencia" periférica a la acción de la insulina y evalúa indirectamente la función de las células beta del páncreas)
Introducción
La diabetes mellitus (DM), como una epidemia creciente de trastorno bipolar, afecta a cerca del 5,6% de la población mundial. Su prevalencia global fue de alrededor del 8% en 2011 y se prevé que aumente al 10% para 2030. Asimismo, su prevalencia en China también aumentó rápidamente del 0,67% en 1980 al 10,4% en 2013. Por tanto, la DM es un factor que contribuye a la morbilidad y mortalidad.
Hasta el momento, diferentes organizaciones han desarrollado diversas pautas diabéticas para aclarar la definición, clasificación, diagnóstico, cribado y prevención de esta enfermedad, que se utilizan no solo para el manejo clínico sino también para el seguimiento y atención continua con controles de laboratorio a intervalos regulares, asesoramiento sobre estilo de vida y prevención de complicaciones relacionadas con la diabetes.
Los criterios de diagnóstico para la DM se basan principalmente en glucosa plasmática en ayunas (FPG), glucosa plasmática aleatoria o prueba de tolerancia a la glucosa oral (OGTT) y glucosa plasmática de 2 horas (2hPG). En 2011, la OMS recomendó que, siempre que las condiciones lo permitan, los países y regiones pueden considerar la adopción de la hemoglobina A1c (HbA1c) ≥ 6,5% como punto de corte para un diagnóstico de diabetes. Varios estudios han demostrado que el valor de corte óptimo de HbA1c para diagnosticar diabetes en adultos chinos es del 6,3%. Sin embargo, la HbA1c aún no se ha incluido en las últimas directrices para la diabetes en China.
La DM se clasifica en cuatro tipos: diabetes mellitus tipo 1 y 2 (DM1, DM2), otros tipos específicos de diabetes y diabetes mellitus gestacional (DMG). La DM2 es la forma más común y se produce cuando el tejido diana (hígado, músculos esqueléticos y tejidos adiposos) pierde sensibilidad a la insulina. En los Estados Unidos, las directivas de la American Diabetes Association (ADA)-European Association for the Study of Diabetes (EASD) y la de la American Association of Clinical Endocrinologists (AACE)-American College of Endocrinology (ACE) son dos de las que se suelen consultar. para determinar las decisiones terapéuticas óptimas en pacientes con DM2.
Las diferencias entre ellas son: (i) la guía ADA/EASD aboga por un enfoque gradual para el control glucémico, comenzando con metformina e intensificando gradualmente a terapia dual y triple a intervalos de 3 meses hasta que el paciente alcance su objetivo individualizado, ii) mientras que la guía AACE/ACE proporciona una selección más amplia de medicamentos de primera línea, con una jerarquía de uso sugerida. Fomenta la terapia inicial doble y triple si el nivel de HbA1c es 7.59.% y > 9.0% en el momento del diagnostico. iii) Comparado con el valor de la guía AACE/ACE, el valor objetivo de HbA1c es más alto en la guía ADA / EASD (≤6.5% vs ≤ 7,0%).
Teniendo en cuenta las características étnicas, la cultura social y los recursos sociales, la Chinese Diabetes Society (CDS) elaboro la última versión de las directivas para la prevención y el cuidado de la DM2 en China en 2019, que puede funcionar mejor para la población de pacientes chinos. Esta guía recomienda el valor objetivo de HbA1c, que es <7% para la mayoría de las adultas no embarazadas con DM2, y la terapia con medicamentos debe iniciarse cuando el valor de HbA1c sea ≥7,0%. La metformina, los inhibidores de la α-glucosidasa o los secretagogos de insulina podrían ser opciones para la monoterapia. Si la monoterapia es insuficiente, se puede prescribir terapia dual y triple o múltiples inyecciones diarias de insulina.......
viernes, 30 de julio de 2021
796- Clearence de creatinina: actualización
Hassan Shahbaz, Mohit Gupta.Clearance de creatinina. StatPearls.Treasure Island (FL): StatPearls Publishing; 2021 Jan. American University of the Caribbean- Sint Maarten and Cleveland Clinic Foundation.Cleveland, Ohio-USA
Introducción
La medición de la función renal precisa es vital para la atención de rutina de los pacientes.La determinación del estado de la función renal puede predecir la progresión de la enfermedad renal y prevenir los niveles de fármacos tóxicos en el cuerpo. La tasa de filtración glomerular (TFG) describe la tasa de flujo de líquido filtrado a través de los riñones. La medición estándar de oro de la TFG implica la inyección de inulina y su eliminación por los riñones. Sin embargo, el uso de inulina es invasivo, requiere mucho tiempo y es un procedimiento costoso. Alternativamente, el marcador bioquímico creatinina que se encuentra en suero y orina se usa comúnmente en la estimación de la TFG.La depuración de creatinina (CrCl) es el volumen de plasma sanguíneo depurado de creatinina por unidad de tiempo. Es un método rápido y rentable para medir la función renal. Tanto el CrCl como la TFG se pueden medir utilizando los valores comparativos de creatinina en sangre y orina.
Tasa de filtración glomerular
La TFG en la medición del volumen de filtración a través de los capilares glomerulares y hacia la cápsula de Bowman por unidad de tiempo. La filtración en el riñón depende de la diferencia en la presión arterial alta y baja creada por las arteriolas aferente (entrada) y eferente (salida), respectivamente. La tasa de aclaramiento de una sustancia dada es igual a la TFG cuando no es secretada ni reabsorbida por los riñones. Para tal sustancia, la concentración de orina multiplicada por el flujo de orina es igual a la masa de sustancia excretada durante el tiempo de recolección de orina. Esta masa dividida por la concentración plasmática es equivalente al volumen de plasma del que se filtró originalmente la masa. A continuación se muestra la ecuación utilizada para determinar la TFG, que normalmente se registra en volumen por tiempo (p. Ej., Ml / min):
TFG = [orina X (mL/mg)] x flujo de orina (mL/min)/ [plasmaX (mL/mg)], donde X es una sustancia que se excreta por completo.
Aproximación de la TFG mediante aclaramiento de creatinina
La creatinina es un producto de degradación de la carne dietética y el fosfato de creatina que se encuentra en el músculo esquelético. Su producción en el cuerpo depende de la masa muscular. La tasa de CrCl se aproxima al cálculo de la TFG ya que el glomérulo filtra libremente la creatinina. Sin embargo, también es secretado por los capilares peritubulares, lo que hace que el CrCl sobrestime la TFG en aproximadamente un 10% - 20%. A pesar del error marginal, es un método aceptado para medir la TFG debido a la facilidad de medición del CrCl.
Fórmula de Cockcroft-Gault: tasa estimada de aclaramiento de creatinina (eCCR)
El aclaramiento de creatinina se puede estimar utilizando los niveles de creatinina sérica. La fórmula de Cockcroft-Gault (CG) utiliza el peso (kg) y el sexo de un paciente para predecir el CrCl (mg / dL). El CrCl resultante se multiplica por 0,85 si el paciente es mujer para corregir el CrCl más bajo en mujeres. La fórmula CG depende de la edad como su principal predictor de CrCl. A continuación se muestra la fórmula:
eCCr = (140 - Edad) x Masa (kg) x [0,85 si es mujer] / 72 x [Creatinina sérica (mg / dL)]
Fórmulas utilizadas en la predicción de la TFG
Las fórmulas derivadas de variables que influyen en la TFG pueden proporcionar diversos grados de precisión en la estimación de la TFG. El Modification of Diet in Renal Disease Study Group (MDRD), ampliamente utilizado, emplea cuatro variables, que incluyen creatinina sérica, edad, origen étnico y niveles de albúmina. Una versión más compleja de MDRD incluye nitrógeno ureico en sangre y albúmina sérica en su fórmula. Sin embargo, dado que la fórmula MDRD no se ajusta al tamaño corporal, los resultados de la TFGe se dan en unidades de ml ^ -1 min ^ -1 1.73m ^ -2, 1.73m ^ 2 debido al área de superficie corporal en un adulto con una masa de 63 kg y 1,7 m de altura.
Otras fórmulas utilizadas para los cálculos de la TFG y sus variables empleadas para estimar la TFG incluyen las fórmulas de Chronic Kidney Disease Epidemiology Collaboration (CKD-EPI). Las fórmulas CKD-EPI están en categorías basadas de pacientes que son mujeres negras, hombres negros, mujeres no negras y hombres no negros. La fórmula de Mayo Quadratic se desarrolló para estimar mejor la TFG en pacientes que han conservado la función renal. La estimación de la TFG en niños utiliza la fórmula de Schwartz, que emplea la creatinina sérica (mg/dL) y la altura del niño (cm).
En la práctica clínica actual, el uso de creatinina derivada de las guías de práctica clínica de KDIGO recomiendan la fórmula CKD-EPI para la estimación de la TFG............
domingo, 25 de julio de 2021
795- ¿Insuficienciua cardiaca con HFpEF y un solo marcador?
Navin Suthahar, Carsten Tschöpe, Rudolf A de Boer. El desafio de evaluar la insuficiencia cardíaca con un diagnóstico de fracción de eyección preservada utizando un único biomarcado. Clin Chem 2021; 67 (1):46–49. University Medical Center Groningen, University of Groningen, Department of Cardiology, Groningen, the Netherlands.
Opinión
La insuficiencia cardíaca (IC) con fracción de eyección preservada (HFpEF) es un trastorno heterogéneo que se desarrolla a partir de múltiples etiologías con mecanismos fisiopatológicos superpuestos. La HFpEF representa una proporción sustancial de pacientes diagnosticados con IC y, según los datos más recientes, el riesgo de por vida de HFpEF y el indice a cualquier edad es de aproximadamente 1/10 tanto para hombres como para mujeres. El abordaje de la HFpEF se ha convertido en el foco de la investigación cardiovascular ya que la tasa de mortalidad a 5 años después de la hospitalización por HFpEF sigue siendo inaceptablemente alta (entre 50% y 75%), y las terapias existentes son generalmente ineficaces para tratar este trastorno. Se cree que las comorbilidades no cardíacas desempeñan un papel más destacado en la patogenia de la HFpEF que las comorbilidades cardíacas, y una visión contemporánea es que la HFpEF es un trastorno multiorgánico que conduce a la alteración de la homeostasis del sistema cardiovascular.
Actualmente, se utilizan 2 algoritmos de diagnóstico de HFpEF. El algoritmo Heart Failure Association (HFA) -PEFF desarrollado por Pieske y sus colegas en nombre de la European Society of Cardiology que utiliza un enfoque escalonado para diagnosticar la HFpEF y se centra más en el examen ecocardiográfico. Se considera HFpEF cuando un individuo con signos y síntomas de HF, y con factores de riesgo/comorbilidades típicos, tiene anomalías estructurales o funcionales cardíacas en el contexto de una fracción de eyección del ventrículo izquierdo normal mayor del 50% durante el examen ecocardiográfico. Además, las directrices de la European Society of Cardiology de 2016 sobre el diagnóstico y el tratamiento de la IC establecen que el aumento de péptidos natriuréticos debe estar presente como parte de la definición de HFpEF.
Por el contrario, la puntuación H2FPEF desarrollada por Reddy y colegas no incluye la prueba de péptidos natriuréticos y hace más hincapié en los parámetros no ecocardiográficos. Con este enfoque, un individuo anciano y obeso (mayor de 60 años) con fibrilación auricular paroxística o persistente, pero con parámetros ecocardiográficos normales, ya tendría una probabilidad del 75% al 80% de HFpEF. Aunque ambos enfoques identifican esencialmente a los individuos con HFpEF de los que tienen disnea no cardíaca, no proporcionan ninguna información sobre los mecanismos fisiopatológicos subyacentes que conducen a este síndrome heterogéneo. Esto se refleja claramente en el éxito terapéutico limitado una vez que se establece el diagnóstico de HFpEF. Por tanto, se justifica una base fisiopatológica para la identificación y clasificación de la HFpEF.
Los biomarcadores circulantes reflejan anomalías cardíacas y no cardíacas, y sus mediciones a menudo proporcionan información sobre los procesos fisiopatológicos asociados con la IC. No obstante, la captación clínica de biomarcadores para el diagnóstico de HFpEF ha sido en general deficiente, y solo los péptidos natriuréticos cardíacos (NP) han emergido como clínicamente relevantes. Específicamente, concentraciones más altas de NP favorecen el diagnóstico de HFpEF, mientras que concentraciones bajas de NP descartan HFpEF aguda descompensada. Sin embargo, el valor de las NP para descartar la IC-FEc en el contexto no agudo sigue siendo controvertido.
Por ejemplo, se espera que el rendimiento de los NP para diagnosticar la HFpEF en la consulta externa sea menor en comparación con un entorno análogo en la IC con fracción de eyección reducida. Esto se debe a que el estrés de la pared cardíaca, un desencadenante clave para la liberación de NP no siempre puede aumentar en individuos con HFpEF subclínica en condiciones normales de reposo debido a la prevalencia de hipertrofia concéntrica del ventrículo izquierdo (VI)..............
martes, 20 de julio de 2021
794- Pruebas geneticas en enfermedades cardiovasculares
Linnea M Baudhuin, Julie De Backer, Jodie Ingles, Dianna M Milewicz, Anne Tybjaerg-Hansen. Q/A La naturaleza dinámica y multifacética de las enfermedades cardiovasculares y el uso de pruebas genéticas para atención clínica: una perspectiva internacional. Clinical Chemistry, 2021, 67(1); 33–40. Department of Laboratory Medicine and Pathology, Mayo Clinic, Rochester, MN.
Hay muchas facetas en la forma en que las pruebas genéticas guían la atención clínica de la enfermedad cardiovascular, desde el diagnóstico de trastornos hereditarios monogénicos hasta proporcionar puntajes de riesgo para afecciones poligénicas complejas, desde ayudar a administrar las farmacoterapias hasta informar las decisiones de intervención quirúrgica. Si bien la mayoría de los trastornos hereditarios son raros, las enfermedades cardiovasculares colectivamente monogénicas y poligénicas son comunes y no conocen límites, y afectan a jóvenes y adultos por igual, incluidas las familias afectadas por la muerte cardíaca súbita. El advenimiento de las tecnologías de análisis genético de alto rendimiento ha transformado el panorama de la predicción y el diagnóstico de enfermedades cardiovasculares.
No obstante, existen muchas lagunas en términos tanto de lo que pueden hacer las tecnologías en su estado actual como de nuestra comprensión de las causas genéticas de todos los tipos de enfermedades cardiovasculares. Por ejemplo, existen muchas incógnitas con respecto al impacto de los modificadores genéticos y las variantes genéticas en las regiones no codificantes del genoma y las puntuaciones de riesgo poligénico en el diagnóstico y los resultados de las enfermedades cardiovasculares.
Si bien el acceso a las pruebas suele estar al alcance de la mano, el valor de ciertos tipos de pruebas para enfermedades cardiovasculares, por ejemplo, la secuenciación del genoma/exoma o las pruebas genómicas in house, puede ser limitado o dar lugar a preguntas sin resolver. Además, la rápida adopción de esta tecnología, las pruebas generan nuevas incertidumbres, por la relación y la comunicación médico-paciente relacionada con el asesoramiento genético antes y después de la prueba.
En esta sesión de preguntas y respuestas de expertos internacionales, exploramos el mundo dinámico y multifacético de las pruebas genéticas cardiovasculares. variantes genéticas en regiones no codificantes del genoma y puntuaciones de riesgo poligénico en el diagnóstico y los resultados de las enfermedades cardiovasculares.
Preguntas a considerar
- Describa su participación en cardiología y genómica cardiovascular.
- ¿Qué áreas de la cardiología cree que se benefician más de las pruebas genéticas en términos de diagnóstico y/o mejora del manejo de la enfermedad?
- ¿Cuáles son algunas de las limitaciones de las pruebas genéticas en su área de especialización cardiovascular?
- ¿Considera que los pacientes tienen acceso limitado a las pruebas genéticas debido a las restricciones del seguro y/o costo de las pruebas?
- ¿Qué tan grande deberíamos llegar en términos de cantidad de genes probados? ¿Se debe realizar la secuenciación del genoma y del exoma para las afecciones cardiovasculares? Desde la perspectiva de un panel de genes específicos, ¿deberían incluirse paneles que incluyan tantos genes como sea posible, incluidos genes de significado incierto o con validez clínica limitada?
- Si bien las tecnologías de secuenciación para realizar análisis genéticos son relativamente sencillas, la interpretación de variantes genéticas es más compleja y puede variar entre laboratorios. ¿Qué soluciones cree que ayudarán tanto a simplificar como a estandarizar la interpretación de las variantes implicadas en las enfermedades cardiovasculares?
- ¿Considera que las pruebas genómicas in hose (p. Ej., directo al consumidor) son valiosas para evaluar enfermedades cardiovasculares genéticas y/o farmacogenética relacionada con las enfermedades cardiovasculares? ¿Cuáles han sido sus experiencias con el asesoramiento de pacientes que se han sometido a pruebas genómicas in house?
- ¿Qué piensa sobre el uso de puntuaciones de riesgo poligénico para orientar la atención clínica para afecciones cardiovasculares no mendelianas, como la enfermedad coronaria?
- Cómo imagina el estado futuro de las pruebas genéticas cardiovasculares que informarán la toma de decisiones clínicas (por ejemplo, más integración con soluciones de inteligencia artificial)?
domingo, 18 de julio de 2021
793- Dislipemia y riesgo cardiovascular
Patrick G O'Malley et.al. Manejo de la dislipidemia para la reducción del riesgo de enfermedades cardiovasculares: Sinopsis de la Updated U.S. Department of Veterans Affairs and U.S. Department of Defense Clinical Practice Guideline. Ann Intern Med 2020;173(10):822-829. Uniformed Services University of the Health Sciences, Bethesda, Maryland.
Resumen
Descripción: En junio de 2020, el Updated U.S. Department of Veterans Affairs and U.S. Department of Defense Clinical Practice Guideline (DoD) publicaron una actualización conjunta de su guía de práctica clínica para controlar la dislipidemia a fin de reducir el riesgo de enfermedad cardiovascular en adultos. Esta sinopsis describe las principales recomendaciones.
Métodos: Del 6 de agosto al 9 de agosto de 2019, el VA/DoD Evidence-Based Practice Work Group (EBPWG), convocó un esfuerzo conjunto de desarrollo de las directrices del VA/DoD que incluyó a partes interesadas clínicas y se ajustó a los principios del Institute of Medicine's Tenets for Trustworthy Clinical Practice Guidelines. El panel de directrices desarrolló preguntas claves, buscó y evaluó sistemáticamente la literatura (publicaciones en inglés del 1 de diciembre de 2013 al 16 de mayo de 2019) desarrolló 27 recomendaciones y un algoritmo simple de una página. Las recomendaciones se clasificaron mediante el sistema GRADE (Grading of Recomendaciones, Evaluación, Desarrollo y Evaluación).
Recomendaciones: Esta sinopsis resume las características de la guía en 7 áreas cruciales: i) focalización de la dosis de estatinas ii) no-metas de colesterol de lipoproteínas de baja densidad, iii) pruebas adicionales para la predicción de riesgos, iv) prevención primaria y secundaria, v) pruebas de laboratorio, vi) actividad física y vii) nutrición............
1) Continúe tratando con la dosis objetivo, no con el nivel de LDL-C. 2) Uso de pruebas adicionales para refinar la predicción de riesgos: la evidencia aún es insuficiente 3) Prevención primaria: todavía se enfatiza la terapia con estatinas en dosis moderadas; No a los inhibidores de la subtilisina/kexina tipo 9 de la proproteína convertasa. 4) Prevención secundaria: inicialmente dosis moderadas de estatinas. e intensificación escalonada en pacientes de mayor riesgo.
5) Pruebas de laboratorio: no se necesita ayuno o control de rutina; "menos es más".
Al igual que en nuestra guía de 2014, seguimos recomendando la evaluación de los niveles de lípidos sin ayuno previo para la evaluación y el seguimiento del riesgo. Los niveles de lípidos en ayunas no añaden valor clínico a la predicción del riesgo en comparación con los niveles sin ayuno y son considerablemente más onerosos en términos de molestias y el costo del paciente.
Debido a que el enfoque en el manejo de los niveles de lípidos ha evolucionado desde los valores de colesterol en sí mismos hasta la terapia basada en el riesgo de ECV, la necesidad de realizar pruebas de lípidos debería disminuir considerablemente. El cálculo del riesgo de ECV se ve afectado sólo mínimamente por los niveles de lípidos y depende mucho más de otros factores de riesgo importantes, como la edad, sexo, y la presencia de hipertensión, diabetes y tabaquismo.
En nuestra revisión sistemática, encontramos que los niveles de lípidos varían poco en un paciente a lo largo del tiempo y que la verdadera variación excede la variación aleatoria solo si las pruebas están espaciadas de 9 a 10 años. Por lo tanto, dada la pequeña contribución de los valores de lípidos para calcular una puntuación de riesgo cardiovascular, el enfoque en la dosificación dirigida (en contraposición a los niveles de colesterol objetivo) y la variación mínima dentro del paciente a lo largo del tiempo, recomendamos medir los niveles de lípidos cada 10 años.
Se puede utilizar de manera confiable el valor de lípidos medido previamente para evaluar el riesgo de ECV. No recomendamos volver a controlar los niveles de lípidos cada vez que se evalúa el riesgo de ECV, porque los niveles de lípidos permanecen estables en las personas a lo largo del tiempo y contribuyen solo en una pequeña cantidad al riesgo predicho en relación con otros factores. Una vez que se prescribe la terapia con estatinas en dosis moderadas (el objetivo terapéutico para controlar los niveles de lípidos en la prevención primaria de las ECV), no vemos ninguna justificación para controlar los niveles de lípidos a partir de entonces.
Reconocemos que pueden existir circunstancias en las que los médicos deseen medir los niveles de lípidos con mayor frecuencia, como al evaluar la adherencia a la terapia o para las estrategias de intensificación en la prevención secundaria para evitar niveles de LDL-C excesivamente bajos. Sin embargo, no recomendamos las pruebas de rutina de los niveles de lípidos para la evaluación y el control de riesgos, a menos que estén específicamente destinadas a guiar la toma de decisiones.
6) Actividad física: mayor ejercicio aeróbico para todos y rehabilitación cardíaca después de una enfermedad cardiovascular reciente. 7) Nutrición, suplementos, niacina y fibratos: sugerir una dieta mediterránea para pacientes de alto riesgo, limite el etilo de icosapent a la prevención secundaria, evite los suplementos y la niacina y evite agregar fibratos a la terapia con estatinas.
sábado, 17 de julio de 2021
792- Mecanismos de propagación de las variantes del SARS-CoV-2
¿Por qué las nuevas variantes del SARS-CoV-2 se propagan más fácilmente? Julio 15, 2021. The Economist: Alok Jha, corresponsal científico. Zanny Minton Beddoes- Editor en jefe
Las mutaciones aleatorias permiten que las nuevas formas del virus se unan mejor a las células humanas.
La naturaleza mutable de los virus se basa en la aleatoriedad inherente al proceso de producir copias de cualquier objeto, lo que hace que los errores sean inevitables. A medida que las células huésped producen copias de SARS-CoV-2, ocurren errores, llamados mutaciones. La gran mayoría de los virus no sobreviven a los errores de replicación. Pero algunos lo hacen, e incluso pueden prosperar como resultado de los cambios, superando a los virus ancestrales y propagándose de manera más eficiente a través de la población de acogida.
Hay algunas partes de la estructura del virus que son más capaces de resistir las mutaciones: la proteína de pico es la más tolerante a los cambios. Los virus mutados que sobreviven y prosperan se denominan variantes.. Estos comenzaron a emerger en serio del SARS-CoV-2 en noviembre de 2020, con la aparición de la variante Alpha y su posterior detección en Kent, en el sureste de Inglaterra. Las nuevas variantes deben tener alguna ventaja sobre las antiguas para que se conviertan en la forma dominante del virus. Esa ventaja podría obtenerse de muchas formas diferentes, pero para una enfermedad respiratoria como el covid-19, uno de los factores más importantes es la transmisibilidad, la facilidad con la que el virus pasa de una persona a otra.
Una de las primeras mutaciones en aumentar la transmisibilidad se denominó N501Y, a veces conocida como "Nelly", una de las ocho mutaciones que caracterizaron la proteína de pico de la variante Alfa. El nombre técnico de la mutación es relativamente sencillo una vez que se comprende que se refiere a cambios en el genoma del virus, y esto a la estructura de aminoácidos que codifica.
El "501" significa que el cambio está sucediendo en el aminoácido 501 en una cadena de 1273 que comprende el pico. El orden y la composición de estos aminoácidos viene dictado por una secuencia de genoma coincidente, de modo que "501" se refiere tanto a la posición en el genoma como a la posición en la cadena de aminoácidos. "N" es la abreviatura de asparagina, que en N501Y se cambia por "Y", que es tirosina. Dado que los diferentes aminoácidos tienen propiedades químicas ligeramente diferentes, este intercambio tiene un impacto en la estructura de la proteína de pico.
Como resultado, cambia la forma en que se distribuye la carga eléctrica a través de él. Esto altera ligeramente la forma de la proteína, ya que las áreas de carga eléctrica positiva atraen áreas de carga negativa. Gracias a esta dinámica, N501Y permite que una parte crucial del pico gire unos 20 grados, lo que le permite encontrar máyor ajuste con el receptor ACE2. Como consecuencia, se produce una mejor unión, lo que significa que es más probable que cualquier copia de la variante que ingrese al cuerpo encuentre su objetivo y comience a replicarse. Esto aumenta la transmisibilidad.
Otras mutaciones realizan un truco similar, liberando diferentes partes del pico de diferentes maneras para que pueda unirse de manera más efectiva a ACE2. la forma en que se distribuye la carga eléctrica a través de él cambia. Esto altera ligeramente la forma de la proteína, ya que las áreas de carga eléctrica positiva atraen áreas de carga negativa. Gracias a esta dinámica, N501Y permite que una parte crucial del pico gire unos 20 grados, lo que le permite encontrar un ajuste más ajustado con el receptor ACE2. Como consecuencia, se produce una mejor unión, lo que significa que es más probable que cualquier copia de la variante que ingrese al cuerpo encuentre su objetivo y comience a replicarse. Esto aumenta la transmisibilidad.
Los cambios en la forma de la espiga no son la única forma de aumentar la transmisibilidad. Delta, la variante que se detectó por primera vez en India y que actualmente se está extendiendo por el mundo, parece ser incluso más transmisible que Alpha y las otras variantes. El motivo no está claro, ya que los estudios estructurales detallados del pico de Delta aún no se han completado.
Pero Ravindra Gupta, virólogo molecular de la Universidad de Cambridge, y sus colegas argumentan que el aumento de la transmisibilidad de Delta se debe, en parte, a una mutación en el sitio 681. Este es el punto del pico donde, después de unirse a ACE2, la proteína está hendido en dos. El Dr. Gupta dice que P681R, ayudado por dos mutaciones que modifican la forma en otros lugares, facilita que la proteína se corte y, por lo tanto, ingrese a las células. Su presencia también significa que, una vez que una célula comienza a producir partículas, sus proteínas de punta pueden llegar a la superficie de la célula precortada. Eso puede conducir a partículas de virus que no tienen las partes que los anticuerpos reconocen y están listas para fusionarse con cualquier célula cercana.
Hay otras mutaciones teóricas que hacen que el virus sea más transmisible y a las que aún no ha llegado (es posible que nunca lo haga, ya que pueden representar contorsiones de la proteína de la punta que no son físicamente posibles). Otros todavía lo ayudan a evadir los anticuerpos que el sistema inmunológico le arroja para proteger al cuerpo de las infecciones, al igual que un pico que se desplaza por un conjunto de mutaciones puede unirse mejor a ACE2. A su vez , otros cambios también pueden dificultar que los anticuerpos se unan al pico.
Actualmente, Delta está tomando el relevo de otras variantes en todo el mundo, su conjunto de mutaciones le permite superarlos en el entorno evolutivo que le presentan los cuerpos humanos. Para que otra variante supere a Delta, necesitará nuevos trucos.
jueves, 15 de julio de 2021
791- Q/A: Estrategias serologicas SARS-CoV-2 en USA
Mark A Cervinski, M Laura Parnas, Barton P Buxton, Justin Choi, Omai Garner, Sean X Neath, Jennifer L Zreloff. Q/A: Estrategias de prueba actuales para el SARS-CoV-2 en los Estados Unidos. Oxford-Clinical Chemistry, 2021; 67 (7):935–940,
Introducción
Desde el descubrimiento y reconocimiento del síndrome respiratorio agudo severo coronavirus 2 (SARS-CoV-2) y la declaración oficial de la pandemia de la enfermedad por coronavirus-2019 (COVID-19) a principios de 2020, se han desarrollado varias metodologías de prueba diferentes en el registro. velocidades y disponibles para el diagnóstico, la detección, la vigilancia y el tratamiento de la infección por SARS-CoV-2 y la enfermedad por COVID-19. Los rápidos avances científicos en la búsqueda de aprender y definir los mecanismos de transmisión, enfermedad y recuperación del SARS-CoV-2, en combinación con los desafíos de salud pública de un virus que se propaga rápidamente, han obligado a la comunidad de atención médica a adaptarse continuamente al desarrollo. pandemia.
Las pautas oficiales de prueba y los algoritmos propuestos continúan evolucionando, a medida que aprendemos más sobre la variedad de síntomas al comienzo de la infección, los cambios en las necesidades de salud pública y la necesidad de volver a las actividades prepandémicas que incluyen asistencia escolar en persona, viajes, deportes, y otras actividades económicas y sociales. Las pautas de prueba iniciales se centraron en la detección del virus SARS-CoV-2 utilizando técnicas moleculares, pero a medida que la pandemia ha progresado, han surgido otras tecnologías, como las pruebas de antígeno del SARS-CoV-2, que están logrando una mayor aceptabilidad y disponibilidad.
Coincidiendo con la evolución de las diferentes metodologías de prueba, los cambios en las técnicas de muestreo, desde hisopos nasofaríngeos hasta hisopos nasales y, potencialmente, los hisopos recolectados por el paciente, complican aún más el desarrollo de estrategias y pautas de prueba.
Si bien los métodos moleculares de alta complejidad para el ARN viral son el estándar de oro para el diagnóstico, se ha hecho evidente un cuello de botella en la capacidad y la velocidad de las pruebas. Este cuello de botella ha llevado al reconocimiento de que las pruebas rápidas del antígeno del SARS-CoV-2 en el lugar de atención o en el laboratorio pueden desempeñar un papel importante en la detección y la vigilancia de la enfermedad por COVID-19.
Para ayudar a responder algunas de las preguntas sobre cómo se están utilizando las pruebas y cómo la industria del diagnóstico in vitro puede ayudar a satisfacer las necesidades de las pruebas de diagnóstico, se convocó a un panel de expertos con el objetivo de obtener información crítica sobre las diferentes estrategias de prueba para el SARS-CoV-2. en una variedad de entornos de atención médica, comunitarios, congregados y de salud pública
Hemos invitado a un grupo selecto de expertos que participaron en el Comité Asesor Científico para compartir sus perspectivas y proporcionar una actualización sobre el estado actual de las estrategias de prueba para el SARS-CoV-2 desde sus respectivos puntos de vista
Preguntas/Respuestas
- Describa brevemente las estrategias de prueba actuales para el SARS-CoV-2 empleadas en su institución. ¿Cómo ha cambiado esto desde el comienzo de la pandemia?
- ¿Qué papel desempeñaría una prueba rápida de antígenos en el punto de atención (POC) o en el laboratorio en la toma de decisiones de admisión y alta? ¿Qué papel juegan las pruebas de antígenos en la reapertura y vigilancia de escuelas, universidades e instalaciones de cuidados a largo plazo?
- ¿Cuáles son las ventajas de las pruebas multiplex para otros virus respiratorios además del SARS-CoV-2?
- ¿Qué información adicional se necesita para determinar la utilidad clínica de las pruebas de anticuerpos? ¿Se necesitan criterios separados para las pruebas de anticuerpos cualitativas y cuantitativas?
- ¿Cómo se pueden incorporar las muestras auto-recolectadas (líquido nasal, nasofaríngeo u oral) en algoritmos de prueba sintomáticos y asintomáticos?
- En comparación con los Consejos Asesores anteriores en los que ha trabajado, ¿qué aspectos del formato virtual le parecieron limitantes? ¿Cree que estas limitaciones afectaron la calidad de las opiniones que se compartieron a través de la sesión virtual / remota?
martes, 13 de julio de 2021
790- Pruebas serológicas del SARS-CoV-2
Ronald W McLawhon, Robert L Fitzgerald. Pruebas serológicas del SARS-CoV-2: hechos, ficción y falacias. Oxford-Clinical Chemistry, 2021; 67,(7):924–926. Department of Pathology, University of California San Diego, San Diego, CA, USA
Editorial
Durante el año pasado, la pandemia de COVID-19 impuso demandas sin precedentes a los proveedores de laboratorios clínicos, fabricantes de diagnósticos in vitro y agencias de salud pública para responder a las necesidades de pruebas de una emergencia de salud pública internacional. Estos esfuerzos incluyeron el desarrollo e implementación de una amplia gama de estrategias de prueba para detectar infecciones sintomáticas y asintomáticas, monitorear las fases aguda y convaleciente y determinar las respuestas inmunes adaptativas al SARS-CoV-2. Hasta la fecha, se estima que se han realizado más de 400 millones de pruebas de SARS-CoV-2 con fines de diagnóstico, detección y vigilancia solo en los Estados Unidos..
El método de referencia para diagnosticar una infección por SARS-CoV-2 siguen siendo las pruebas de amplificación de ácido nucleico. Desafortunadamente, la disponibilidad inicial limitada de estas pruebas (agravada por la escasez de la cadena de suministro), los largos tiempos de respuesta y los gastos impulsaron los esfuerzos para encontrar otras alternativas adecuadas para aumentar la capacidad de prueba de COVID-19, tanto dentro del laboratorio clínico como en el punto de atención.
Los métodos serológicos (prueba de anticuerpos) que se han utilizado eficazmente en el manejo de otras enfermedades infecciosas pronto se introdujeron en todo el mundo y se promocionaron como una posible solución para ayudar a abordar los desafíos de las pruebas COVID-19. Sin embargo, el uso de estas pruebas y su adopción clínica generalizada fueron cuestionados casi de inmediato.
Estas preocupaciones se centraron en la calidad y precisión de las pruebas y la ausencia de datos para respaldar las afirmaciones de desempeño analítico y clínico. También hubo una falta general de comprensión de cómo utilizar e interpretar adecuadamente estas pruebas en diferentes poblaciones objetivo. En particular, la mayoría de los médicos subestimó el impacto de la prevalencia de la enfermedad en los valores predictivos.
En la actualidad, se comercializan a nivel mundial más de 440 pruebas diferentes de anticuerpos contra el SARS-CoV-2, pero solo 75 de estas pruebas han recibido formalmente la autorización de uso de emergencia (EUA) de la Administración de Alimentos y Medicamentos de EE. UU. (FDA). Estas pruebas van desde simples ensayos inmunocromatográficos basados en cartuchos, de un solo paso (exentos de de las aprobación CLIA) hasta inmunoensayos inmunoabsorbentes enzimáticos basados en placas e inmunoensayos basados en quimioluminiscencia en autoanalizadores de acceso aleatorio de alto rendimiento.
Muchos de los formatos de ensayo iniciales detectaron cualitativamente la presencia o ausencia de anticuerpos dirigidos contra una o más de las proteínas virales del SARS-CoV-2. Los principales objetivos son las proteínas de la nucleocápside y la espiga. Más recientemente, los ensayos de anticuerpos de SARS-CoV-2 semicuantitativos y cuantitativos recibieron EUA que reconocen estos objetivos de proteínas virales con un mayor grado de sensibilidad y especificidad. También se han utilizado algunas pruebas de anticuerpos neutralizantes desarrolladas y comercializadas en laboratorio para evaluar la función de las respuestas de anticuerpos........
sábado, 10 de julio de 2021
789- Errores en el proceso total de las pruebas
Cornelia Mrazek, Giuseppe Lippi, Martin H Keppel, Thomas K Felder, Hannes Oberkofler, Elisabeth Haschke-Becher, Janne Cadamuro. Errores dentro del proceso total de pruebas de laboratorio, desde la selección de la prueba hasta la toma de decisiones médicas: una revisión de las causas, consecuencias, vigilancia y soluciones. Biochem Med. 2020; 30 (2): 020502. Department of Laboratory Medicine, Paracelsus Medical University, Salzburg, Austria. Section of Clinical Chemistry, University of Verona, Verona, Italy
Resumen
Los análisis de laboratorio son cruciales para las decisiones de diagnóstico, seguimiento y tratamiento. Dado que los errores en cada paso del proceso de prueba total pueden afectar potencialmente la seguridad del paciente, un conocimiento amplio y una evaluación sistemática de los errores de laboratorio es esencial para futuras mejoras. En esta revisión, nuestro objetivo es discutir los tipos y frecuencias de errores potenciales en el proceso de prueba total, las opciones de gestión de la calidad, así como las soluciones tentativas para la mejora. A diferencia de la mayoría de las revisiones actualmente disponibles sobre este tema, también incluimos errores en la selección de pruebas, informes e interpretación/acción de los resultados de las pruebas. Creemos que los especialistas de laboratorio deberán volver a centrarse en muchos pasos del proceso que pertenecen a las fases extraanalíticas, intensificando las colaboraciones con los médicos y apoyando la selección e interpretación de las pruebas.
Introducción
La atención médica moderna depende inevitablemente de los resultados de laboratorio para el diagnóstico, el pronóstico y / o las decisiones de tratamiento. Por lo tanto, la ejecución precisa de todos los pasos incluidos dentro del circuito tradicional cerebro a cerebro, es decir, pedido/selección de pruebas, recolección de muestras, identificación, transporte, preparación de muestras, análisis, informes de pruebas, interpretación y acción es importante-
Desafortunadamente, cada uno de estos pasos es vulnerable a errores, que luego pueden generar potencialmente resultados erróneos y finalmente poner en peligro la seguridad del paciente. Por mencionar sólo algunos ejemplos, la muestra puede provenir del paciente equivocado; los niveles bajos de calcio y fosfatasa alcalina erróneos pueden malinterpretarse cuando no se identifica la contaminación del K-EDTA); la pseudo-hyperkalaemia debido a leucocitosis extrema puede conducir a un tratamiento innecesario e incluso potencialmente peligroso..
En la actualidad existe evidencia incontrovertible de que la gran mayoría de los errores de laboratorio ocurren en la fase pre analítica (61,9 - 68,2%), que luego son seguidos por errores en las partes post analítica (18,5 - 23,1%) y analítica (13,3 - 15%) de la proceso de prueba total (TTP). Utilizando el mismo diseño de estudio en 1996 y 2006, Carraro y Plebani atribuyeron la disminución de la tasa de error de las muestras contaminadas por fluidos de infusión del 20,6% al 1,9 % a acciones correctivas. Junto con la afirmación de que el 73% de los errores en el TTP parecen prevenibles, esto refuerza la necesidad de vigilancia y seguimiento de la vulnerabilidad del laboratorio.
Como las tasas de error se informan tradicionalmente desde la extracción de sangre hasta el informe de resultados, se ha dado menos énfasis a la idoneidad en la selección de la prueba, la interpretación de los resultados y las fases de acción médica, algunos autores se refieren como fase "pre-pre" - y "post-post" analítica . Para una mejor comprensión, nos abstendremos de utilizar estos términos, ya que los procesos respectivos pueden subsumirse en las fases pre o posanalítica. Sin embargo, los especialistas de laboratorio no deben descuidar estos pasos del TTP, por lo que muchos estudios muestran altas frecuencias de selección de prueba inapropiada e incertidumbre en la interpretación de los resultados. Además, la selección inadecuada de pruebas parece ser especialmente más frecuente que todos los demás errores que se han identificado hasta ahora.
En esta revisión, por lo tanto, queremos describir los tipos y frecuencias de errores que pueden ocurrir durante el TTP ( es decir , el ciclo de cerebro a cerebro), incluida la selección de pruebas y la interpretación/acción médica. Debido a los diferentes diseños de los estudios, las frecuencias de los errores están relacionadas con los datos adquiridos de forma heterogénea y, por lo tanto, no son completamente comparables. Sin embargo, para obtener una descripción general de los números mencionados en la revisión, los representamos en cifras, separados en porcentajes relacionados con análisis/pruebas, encuestados, diagnósticos perdidos de reclamos por negligencia, errores, muestras y flebotomías de un estudio observacional segun Figuras 1-6 del articculo..
miércoles, 7 de julio de 2021
788- Auto-Evaluación 3
Q/A Seminario AACC-2015: Práctica profesional en bioquímica clínica: apoyo a la atención del paciente desde la cuna hasta la tumba
a) Las Preguntas se presentan de acuerdo al interes vigente en nuestro medio. Se editaran en varias sesiones. b) Las Respuestas que figuran al final de la presentación, son las que menciona el articulo original.
Capitulo 3
Diagnóstico rápido de enfermedades infecciosas
1- Las ventajas de pruebas de diagnóstico rápido de la influenza (RIDTs) incluyen las siguientes excepto?. A) Tiempo de respuesta (TAT) rápido. B) Valor predictivo positivo (PPV) alto. C) Baja complejidad. D) Valor negativo (NPV) alto
2- ¿Cuál de los siguientes tipos de influenza no suele incluirse en los análisis de diagnóstico de rutina?. A) Influenza A. B) Influenza B. C) Influenza C. D) Influenza B y C
3- ¿El diagnóstico de C. difficile puede basarse en los síntomas solo con alta precisión?.A) Verdadero. B) Falso
4- ¿Cuál de las siguientes es una limitación de los ensayos moleculares para el diagnóstico de la enfermedad por C. difficile?. A) Alta complejidad. B) Detección de infección. C) Detección de colonización. D) Alto valor predictivo negativo
Medio interno y gases
5- ¿Cuál es el mejor indicador de la concentración de oxígeno en sangre?. A) PO2. B) Hematocrito. C) Contenido de O2. D) Saturación de O2.
6- ¿Cual de los siguientes es verdadero?. A) Una PO2 alveolar normal es más alta en Denver que en Boston porque el aire es más limpio. B) Una oxihemoglobina fraccionada normal es más alta en Denver que en Boston porque tiene menos contaminación del aire.C) Los oxímetros de pulso típicos proporcionan mediciones confiables de la "saturación de oxígeno" para su uso en pacientes con inhalación de humo. D) Se debe usar sangre arterial para obtener una evaluación precisa de las concentraciones de metahemoglobina.
7- ¿Qué principio de método está involucrado en la medición de los porcentajes de oxihemoglobina?. A) Cromatografía de gases. B) Electrodos selectivos de iones. C) Ley de Beer. D) Electrodo de O2, seguido de interpolación de la curva de disociación de oxihemoglobina.
8- ¿Cuál de los siguientes representa los hallazgos típicos en una alcalosis respiratoria?. A) aumento de PCO2, disminución de HCO3. B) aumento de PCO2, aumento de HCO3. C) disminución de PCO2, disminución de HCO3. D) disminuye la PCO2, aumenta el HCO3.
9- ¿Cuál de las siguientes es una causa de una acidosis metabólica con brecha aniónica normal?.A) diarrea. B) cetoacidosis diabética. C) vómitos. D) acidosis láctica
10- La pseudohiponatremia puede ser causada por cuál de los siguientes: A) altas concentraciones de glucosa. B) recuentos bajos de plaquetas. C) altas concentraciones de proteínas séricas (por ejemplo, mieloma múltiple). D) altas concentraciones de ADH.
Medicina transfucional
11- ¿Cuál de los siguientes factores aumenta el riesgo de hemorragia después de la derivación cardiopulmonar?. A) Edad del paciente mayor de 60 años. B) Cirugía de revisión por cardiopatía congénita compleja. C)Necesidad de una disminución sustancial de la temperatura corporal durante la cirugía. D) Historia de sangrado después de una cirugía de rodilla previa. E) Todo lo anterior.
12- ¿Cuál de los siguientes defectos de coagulación requiere el uso de pruebas viscoelásticas de coagulación para una detección rápida?.A) Trombocitopenia. B) Deficiencia de factor de coagulación. C) Heparinización persistente. D) Fibrinólisis. E) Disfunción plaquetaria.
13- Los estudios de algoritmos de transfusión demuestran éxito en la disminución de transfusiones, pero no siempre disminuyen la pérdida de sangre posoperatoria medida por el drenaje del tubo torácico. A) Verdadero. B) Falso
Inmunoensayos en fase sólida en transplantes
14- ¿Cuál de los siguientes es un factor de riesgo para la aloinmunización HLA? (elija todo lo que corresponda). A) Transfusión de sangre. B) Embarazo. C) Trasplante. D) Trauma
15- ¿Que NO es necesario para establecer la compatibilidad entre el posible receptor y la pareja de donantes?. A) Tipificación de HLA del receptor. B) Tipificación de HLA del donante. C) Prueba de anticuerpos anti-HLA del receptor. D) Prueba de anticuerpos anti-HLA del donante.
16- Los 2 tipos principales de ensayos de anticuerpos son celulares y inmunoensayo en fase solida (SPI). Se recomienda realizar tanto un ensayo SPI como celular. ¿Qué 2 métodos cumplen con esta recomendación? (elija todo lo que corresponda). A) AHG-CDC y citometría de flujo. B) Luminex y ELISA. C) AHG-CDC y Luminex. D) Citometría de flujo y ELISA
17- ¿Cuál de los siguientes puede causar una interferencia falsa negativa en el SPI que puede afectar la interpretación de los resultados y resultar en el trasplante de un órgano incompatible? (elija todo lo que corresponda). A) Rituximab. B) IgM. C) ATG. D) Complemento.
Proteinas
18- La mejor combinación de pruebas para detectar proteínas monoclonales es: A) Concentraciones de inmunoglobulina sérica (IgG, IgA, IgM) B) Electroforesis de proteínas séricas y electroforesis por inmunofijación. C) Electroforesis de proteínas en suero y orina. D) Electroforesis de proteínas en orina y electroforesis por inmunofijación
19- Los hallazgos típicos en el mieloma de cadenas ligeras incluyen todos los siguientes EXCEPTO: A) Una banda discreta en la electroforesis de proteínas séricas. B) Hipogammaglobulinemia (sérica). C) Una banda discreta en la electroforesis de proteínas urinarias. D) Una tira reactiva de orina negativa para proteínas.
20- ¿Cuál es el diagnóstico más común asociado a las proteínas monoclonales?. A) Amiloidosis. B) Mieloma múltiple. C) Gammapatía monoclonal de significado indeterminado. D) Macroglobulinemia de Waldenstrom
Respuestas según el articulo original
1-D) Valor negativo (NPV) alto .2-C) Influenza C. 3- B) Falso. 4- C) Detección de colonización. 5- C) Contenido de O2. 6- B) Una oxihemoglobina fraccionada normal es más alta en Denver que en Boston porque tiene menos contaminación del aire.7- C) Ley de Beer.8- C) Disminución de PCO2, y HCO3. 9- A) Diarrea. 10-C) Altas concentraciones de proteínas séricas (por ejemplo, mieloma múltiple) 11- E) Todo lo anterior.12- D) Fibrinólisis.13- B) Falso.14- A), B) C).15-D) Prueba de anticuerpos anti-HLA del donante.16-C) AHG-CDC y Luminex. D) Citometría de flujo y ELISA. 17-B) IgM. C) ATG. D) Complemento.18-C) Electroforesis de proteínas en suero y orina.19-A) Una banda discreta en la electroforesis de proteínas séricas. 20-C) Gammapatía monoclonal de significado indeterminado.
domingo, 4 de julio de 2021
787- Fabricas de "fake-papers"
Holly Else & Richard Van Noorden. La lucha contra las fábricas de papeles falsos que producen ciencia falsa. Nature News feature article 23 March 2021.
Algunos editores dicen que están luchando contra las trampas industrializadas. Un análisis del Nature examina el problema de la "fábrica de papel" y cómo los editores están tratando de afrontarlo.
Cuando Laura Fisher notó sorprendentes similitudes entre los trabajos de investigación presentados a RSC Advances , comenzó a sospechar. Ninguno de los artículos tenía autores o instituciones en común, pero sus gráficos y títulos parecían en forma alarmante similares, dice Fisher, editor ejecutivo de la revista. "Estaba decidido a intentar llegar al fondo de lo que estaba pasando".
Un año después, en enero de 2021, Fisher se retractó de 68 artículos de la revista, y los editores de otros dos títulos de la Royal Society of Chemistry (RSC) se retractaron cada uno por sospechas similares; 15 aún están bajo investigación. Fisher había encontrado lo que parecían ser productos de "fábricas de papel": empresas que producen manuscritos científicos falsos por encargo. El editor de las revistas, el RSC de Londres, anunció en un comunicado que había sido víctima de lo que se creía que era “la producción sistémica de investigaciones falsificadas”.
Lo sorprendente de esto no fue la actividad de la fábrica de papel en sí: los detectives sobre integridad en la investigación habían advertido repetidamente que algunos científicos compran papeles de firmas de terceros para ayudarles en sus carreras. Más bien, era extraordinario que un editor hubiera anunciado públicamente algo sobre lo que las revistas generalmente guardan silencio. “Creemos que es una fábrica de papel, por eso queremos ser abiertos y transparentes”, dice Fisher.
El RSC no estaba solo, agregó su declaración: "Somos uno de los varios editores que se han visto afectados por dicha actividad". Desde enero pasado, las revistas se han retractado de al menos 370 artículos que han sido vinculados públicamente a las fábricas de papel, según un análisis de Nature , y se espera que sigan muchas más retractaciones.
Gran parte de esta limpieza de la literatura se debe a que, el año pasado, detectives externos señalaron públicamente documentos que creen que provienen de fábricas de papel debido a sus características sospechosamente similares. En conjunto, las listas de artículos marcados suman más de 1.000 estudios. Los editores están tan preocupados por el tema que en septiembre pasado, el Comité de Ética de Publicaciones (COPE), un órgano asesor de editores en Londres, celebró un foro dedicado a debatir sobre la “manipulación sistemática del proceso de publicación a través de las fábricas de papel”. Su oradora invitada fue Elisabeth Bik, una analista de integridad de la investigación en California conocida por su habilidad para detectar imágenes duplicadas en documentos, y una de las "detectives" que publica en línea sus preocupaciones sobre las fábricas de papel.
Elizabeth Bik cree que hay miles más de estos artículos en la literatura. El anuncio de RSC es significativo por su apertura, dice. “Es bastante vergonzoso que tantos papeles sean falsos. Felicitaciones a ellos por admitir que han sido engañados ".
En algunas revistas que han tenido una serie de presentaciones aparentes de fábricas de papel, los editores ahora han renovado sus procesos de revisión, con el objetivo de no dejarse engañar de nuevo. La lucha contra las trampas industrializadas requiere una revisión más estricta: decirle a los editores que soliciten datos sin procesar, por ejemplo, y contratar personas específicamente para verificar las imágenes. La publicación científica necesita un "esfuerzo concertado y coordinado para erradicar la investigación falsificada", dijo la RSC.
Detectives de la fábrica de papel
En enero de 2020, Bik y otros detectives de imágenes que trabajan con seudónimos, Smut Clyde, Morty y Tiger BB8, publicaron, en un blog dirigido por el periodista científico Leonid Schneider, una lista de más de 400 artículos publicados que dijeron que probablemente provenían de una fábrica de papel. Bik lo apodó la fábrica de papel 'renacuajo', debido a las formas que aparecían en los análisis de Western blot, que es un tipo de prueba que se utiliza para detectar proteínas en muestras biológicas. Siguió una serie de titulares de los medios. A lo largo del año, los detectives (no siempre trabajando juntos) publicaron hojas de cálculo de otros documentos sospechosos, recogiendo características similares en múltiples estudios. Para marzo de 2021, habían enumerado colectivamente más de 1300 artículos, según el recuento de Nature, como posiblemente provenientes de fábricas de papel.........
Recomendacions de la NIH Funded Research