viernes, 30 de julio de 2021

796- Clearence de creatinina: actualización

Hassan Shahbaz, Mohit Gupta.Clearance de creatinina. StatPearls.Treasure Island (FL): StatPearls Publishing; 2021 Jan. American University of the Caribbean- Sint Maarten and Cleveland Clinic Foundation.Cleveland, Ohio-USA

Introducción

La medición de la función renal precisa es vital para la atención de rutina de los pacientes.La determinación del estado de la función renal puede predecir la progresión de la enfermedad renal y prevenir los niveles de fármacos tóxicos en el cuerpo. La tasa de filtración glomerular (TFG) describe la tasa de flujo de líquido filtrado a través de los riñones. La medición estándar de oro de la TFG implica la inyección de inulina y su eliminación por los riñones. Sin embargo, el uso de inulina es invasivo, requiere mucho tiempo y es un procedimiento costoso. Alternativamente, el marcador bioquímico creatinina que se encuentra en suero y orina se usa comúnmente en la estimación de la TFG.La depuración de creatinina (CrCl) es el volumen de plasma sanguíneo depurado de creatinina por unidad de tiempo. Es un método rápido y rentable para medir la función renal. Tanto el CrCl como la TFG se pueden medir utilizando los valores comparativos de creatinina en sangre y orina.

Tasa de filtración glomerular

La TFG en la medición del volumen de filtración a través de los capilares glomerulares y hacia la cápsula de Bowman por unidad de tiempo. La filtración en el riñón depende de la diferencia en la presión arterial alta y baja creada por las arteriolas aferente (entrada) y eferente (salida), respectivamente. La tasa de aclaramiento de una sustancia dada es igual a la TFG cuando no es secretada ni reabsorbida por los riñones. Para tal sustancia, la concentración de orina multiplicada por el flujo de orina es igual a la masa de sustancia excretada durante el tiempo de recolección de orina. Esta masa dividida por la concentración plasmática es equivalente al volumen de plasma del que se filtró originalmente la masa. A continuación se muestra la ecuación utilizada para determinar la TFG, que normalmente se registra en volumen por tiempo (p. Ej., Ml / min):

TFG = [orina X (mL/mg)] x flujo de orina (mL/min)/ [plasmaX (mL/mg)], donde X es una sustancia que se excreta por completo.

Aproximación de la TFG mediante aclaramiento de creatinina

La creatinina es un producto de degradación de la carne dietética y el fosfato de creatina que se encuentra en el músculo esquelético. Su producción en el cuerpo depende de la masa muscular. La tasa de CrCl se aproxima al cálculo de la TFG ya que el glomérulo filtra libremente la creatinina. Sin embargo, también es secretado por los capilares peritubulares, lo que hace que el CrCl sobrestime la TFG en aproximadamente un 10% - 20%. A pesar del error marginal, es un método aceptado para medir la TFG debido a la facilidad de medición del CrCl.

Fórmula de Cockcroft-Gault: tasa estimada de aclaramiento de creatinina (eCCR)

El aclaramiento de creatinina se puede estimar utilizando los niveles de creatinina sérica. La fórmula de Cockcroft-Gault (CG) utiliza el peso (kg) y el sexo de un paciente para predecir el CrCl (mg / dL). El CrCl resultante se multiplica por 0,85 si el paciente es mujer para corregir el CrCl más bajo en mujeres. La fórmula CG depende de la edad como su principal predictor de CrCl. A continuación se muestra la fórmula:

eCCr = (140 - Edad) x Masa (kg) x [0,85 si es mujer] / 72 x [Creatinina sérica (mg / dL)]

Fórmulas utilizadas en la predicción de la TFG

Las fórmulas derivadas de variables que influyen en la TFG pueden proporcionar diversos grados de precisión en la estimación de la TFG. El Modification of Diet in Renal Disease Study Group (MDRD), ampliamente utilizado, emplea cuatro variables, que incluyen creatinina sérica, edad, origen étnico y niveles de albúmina.  Una versión más compleja de MDRD incluye nitrógeno ureico en sangre y albúmina sérica en su fórmula. Sin embargo, dado que la fórmula MDRD no se ajusta al tamaño corporal, los resultados de la TFGe se dan en unidades de ml ^ -1 min ^ -1 1.73m ^ -2, 1.73m ^ 2 debido al área de superficie corporal en un adulto con una masa de 63 kg y 1,7 m de altura.

Otras fórmulas utilizadas para los cálculos de la TFG y sus variables empleadas para estimar la TFG incluyen las fórmulas de Chronic Kidney Disease Epidemiology Collaboration (CKD-EPI). Las fórmulas CKD-EPI están en categorías basadas de pacientes que son mujeres negras, hombres negros, mujeres no negras y hombres no negros. La fórmula de Mayo Quadratic se desarrolló para estimar mejor la TFG en pacientes que han conservado la función renal. La estimación de la TFG en niños utiliza la fórmula de Schwartz, que emplea la creatinina sérica (mg/dL) y la altura del niño (cm).

En la práctica clínica actual, el uso de creatinina derivada de las guías de práctica clínica de KDIGO recomiendan la fórmula CKD-EPI para la estimación de la TFG............ 

Leer el libro completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. Las páginas de este blog , se renuevan dentro de 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico-UBA.
Ciudad de Buenos Aires, R. Argentina



domingo, 25 de julio de 2021

795- ¿Insuficienciua cardiaca con HFpEF y un solo marcador?

Navin Suthahar, Carsten Tschöpe, Rudolf A de Boer. El desafio de evaluar la insuficiencia cardíaca con un diagnóstico de fracción de eyección preservada utizando un único biomarcado. Clin Chem 2021; 67 (1):46–49. University Medical Center Groningen, University of Groningen, Department of Cardiology, Groningen, the Netherlands.

Opinión

La insuficiencia cardíaca (IC) con fracción de eyección preservada (HFpEF) es un trastorno heterogéneo que se desarrolla a partir de múltiples etiologías con mecanismos fisiopatológicos superpuestos. La HFpEF representa una proporción sustancial de pacientes diagnosticados con IC y, según los datos más recientes, el riesgo de por vida de HFpEF y el indice a cualquier edad es de aproximadamente 1/10 tanto para hombres como para mujeres. El abordaje de la HFpEF se ha convertido en el foco de la investigación cardiovascular ya que la tasa de mortalidad a 5 años después de la hospitalización por HFpEF sigue siendo inaceptablemente alta (entre 50% y 75%), y las terapias existentes son generalmente ineficaces para tratar este trastorno. Se cree que las comorbilidades no cardíacas desempeñan un papel más destacado en la patogenia de la HFpEF que las comorbilidades cardíacas, y una visión contemporánea es que la HFpEF es un trastorno multiorgánico que conduce a la alteración de la homeostasis del sistema cardiovascular.

Actualmente, se utilizan 2 algoritmos de diagnóstico de HFpEF. El algoritmo Heart Failure Association (HFA) -PEFF desarrollado por Pieske y sus colegas en nombre de la European Society of Cardiology que utiliza un enfoque escalonado para diagnosticar la HFpEF y se centra más en el examen ecocardiográfico. Se considera HFpEF cuando un individuo con signos y síntomas de HF, y con factores de riesgo/comorbilidades típicos, tiene anomalías estructurales o funcionales cardíacas en el contexto de una fracción de eyección del ventrículo izquierdo normal mayor del  50% durante el examen ecocardiográfico. Además, las directrices de la European Society of Cardiology de 2016 sobre el diagnóstico y el tratamiento de la IC establecen que el aumento de péptidos natriuréticos debe estar presente como parte de la definición de HFpEF. 

Por el contrario, la puntuación H2FPEF desarrollada por Reddy y colegas no incluye la prueba de péptidos natriuréticos y hace más hincapié en los parámetros no ecocardiográficos. Con este enfoque, un individuo anciano y obeso (mayor de 60 años) con fibrilación auricular paroxística o persistente, pero con parámetros ecocardiográficos normales, ya tendría una probabilidad del 75% al ​​80% de HFpEF. Aunque ambos enfoques identifican esencialmente a los individuos con HFpEF de los que tienen disnea no cardíaca, no proporcionan ninguna información sobre los mecanismos fisiopatológicos subyacentes que conducen a este síndrome heterogéneo. Esto se refleja claramente en el éxito terapéutico limitado una vez que se establece el diagnóstico de HFpEF. Por tanto, se justifica una base fisiopatológica para la identificación y clasificación de la HFpEF.

Los biomarcadores circulantes reflejan anomalías cardíacas y no cardíacas, y sus mediciones a menudo proporcionan información sobre los procesos fisiopatológicos asociados con la IC. No obstante, la captación clínica de biomarcadores para el diagnóstico de HFpEF ha sido en general deficiente, y solo los péptidos natriuréticos cardíacos (NP) han emergido como clínicamente relevantes. Específicamente, concentraciones más altas de NP favorecen el diagnóstico de HFpEF, mientras que concentraciones bajas de NP descartan HFpEF aguda descompensada. Sin embargo, el valor de las NP para descartar la IC-FEc en el contexto no agudo sigue siendo controvertido. 

Por ejemplo, se espera que el rendimiento de los NP para diagnosticar la HFpEF en la consulta externa sea menor en comparación con un entorno análogo en la IC con fracción de eyección reducida. Esto se debe a que el estrés de la pared cardíaca, un desencadenante clave para la liberación de NP no siempre puede aumentar en individuos con HFpEF subclínica en condiciones normales de reposo debido a la prevalencia de hipertrofia concéntrica del ventrículo izquierdo (VI).............. 

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. Las páginas de este blog , se renuevan dentro de 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico-UBA.
Ciudad de Buenos Aires, R. Argentina


martes, 20 de julio de 2021

794- Pruebas geneticas en enfermedades cardiovasculares

Linnea M Baudhuin, Julie De Backer, Jodie Ingles, Dianna M Milewicz, Anne Tybjaerg-Hansen. Q/A La naturaleza dinámica y multifacética de las enfermedades cardiovasculares y el uso de pruebas genéticas para atención clínica: una perspectiva internacional. Clinical Chemistry, 2021, 67(1); 33–40. Department of Laboratory Medicine and Pathology, Mayo Clinic, Rochester, MN.

Hay muchas facetas en la forma en que las pruebas genéticas guían la atención clínica de la enfermedad cardiovascular, desde el diagnóstico de trastornos hereditarios monogénicos hasta proporcionar puntajes de riesgo para afecciones poligénicas complejas, desde ayudar a administrar las farmacoterapias hasta informar las decisiones de intervención quirúrgica. Si bien la mayoría de los trastornos hereditarios son raros, las enfermedades cardiovasculares colectivamente monogénicas y poligénicas son comunes y no conocen límites, y afectan a jóvenes y adultos por igual, incluidas las familias afectadas por la muerte cardíaca súbita. El advenimiento de las tecnologías de análisis genético de alto rendimiento ha transformado el panorama de la predicción y el diagnóstico de enfermedades cardiovasculares. 

No obstante, existen muchas lagunas en términos tanto de lo que pueden hacer las tecnologías en su estado actual como de nuestra comprensión de las causas genéticas de todos los tipos de enfermedades cardiovasculares. Por ejemplo, existen muchas incógnitas con respecto al impacto de los modificadores genéticos y las variantes genéticas en las regiones no codificantes del genoma y las puntuaciones de riesgo poligénico en el diagnóstico y los resultados de las enfermedades cardiovasculares. 

Si bien el acceso a las pruebas suele estar al alcance de la mano, el valor de ciertos tipos de pruebas para enfermedades cardiovasculares, por ejemplo, la secuenciación del genoma/exoma o las pruebas genómicas in house, puede ser limitado o dar lugar a preguntas sin resolver. Además, la rápida adopción de esta tecnología, las pruebas generan nuevas incertidumbres, por la relación y la comunicación médico-paciente relacionada con el asesoramiento genético antes y después de la prueba. 

En esta sesión de preguntas y respuestas de expertos internacionales, exploramos el mundo dinámico y multifacético de las pruebas genéticas cardiovasculares. variantes genéticas en regiones no codificantes del genoma y puntuaciones de riesgo poligénico en el diagnóstico y los resultados de las enfermedades cardiovasculares. 

Preguntas a considerar

  1. Describa su participación en cardiología y genómica cardiovascular.
  2. ¿Qué áreas de la cardiología cree que se benefician más de las pruebas genéticas en términos de diagnóstico y/o mejora del manejo de la enfermedad?
  3. ¿Cuáles son algunas de las limitaciones de las pruebas genéticas en su área de especialización cardiovascular?
  4. ¿Considera que los pacientes tienen acceso limitado a las pruebas genéticas debido a las restricciones del seguro y/o  costo de las pruebas?
  5. ¿Qué tan grande deberíamos llegar en términos de cantidad de genes probados? ¿Se debe realizar la secuenciación del genoma y del exoma para las afecciones cardiovasculares? Desde la perspectiva de un panel de genes específicos, ¿deberían incluirse paneles que incluyan tantos genes como sea posible, incluidos genes de significado incierto o con validez clínica limitada?
  6. Si bien las tecnologías de secuenciación para realizar análisis genéticos son relativamente sencillas, la interpretación de variantes genéticas es más compleja y puede variar entre laboratorios. ¿Qué soluciones cree que ayudarán tanto a simplificar como a estandarizar la interpretación de las variantes implicadas en las enfermedades cardiovasculares?
  7. ¿Considera que las pruebas genómicas in hose (p. Ej., directo al consumidor) son valiosas para evaluar enfermedades cardiovasculares genéticas y/o farmacogenética relacionada con las enfermedades cardiovasculares? ¿Cuáles han sido sus experiencias con el asesoramiento de pacientes que se han sometido a pruebas genómicas in house?
  8. ¿Qué piensa sobre el uso de puntuaciones de riesgo poligénico para orientar la atención clínica para afecciones cardiovasculares no mendelianas, como la enfermedad coronaria?
  9. Cómo imagina el estado futuro de las pruebas genéticas cardiovasculares que informarán la toma de decisiones clínicas (por ejemplo, más integración con soluciones de inteligencia artificial)?

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. Las páginas de este blog , se renuevan dentro de 5 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico-UBA.
Ciudad de Buenos Aires, R. Argentina


domingo, 18 de julio de 2021

793- Dislipemia y riesgo cardiovascular

Patrick G O'Malley et.al. Manejo de la dislipidemia para la reducción del riesgo de enfermedades cardiovasculares: Sinopsis de la Updated U.S. Department of Veterans Affairs and U.S. Department of Defense Clinical Practice Guideline. Ann Intern Med 2020;173(10):822-829. Uniformed Services University of the Health Sciences, Bethesda, Maryland.

Resumen

Descripción: En junio de 2020, el Updated U.S. Department of Veterans Affairs and U.S. Department of Defense Clinical Practice Guideline (DoD) publicaron una actualización conjunta de su guía de práctica clínica para controlar la dislipidemia a fin de reducir el riesgo de enfermedad cardiovascular en adultos. Esta sinopsis describe las principales recomendaciones.

Métodos:  Del 6 de agosto al 9 de agosto de 2019, el VA/DoD Evidence-Based Practice Work Group (EBPWG), convocó un esfuerzo conjunto de desarrollo de las directrices del VA/DoD que incluyó a partes interesadas clínicas y se ajustó a los principios del Institute of Medicine's Tenets for Trustworthy Clinical Practice Guidelines. El panel de directrices desarrolló preguntas claves, buscó y evaluó sistemáticamente la literatura (publicaciones en inglés del 1 de diciembre de 2013 al 16 de mayo de 2019) desarrolló 27 recomendaciones y un algoritmo simple de una página. Las recomendaciones se clasificaron mediante el sistema GRADE (Grading of Recomendaciones, Evaluación, Desarrollo y Evaluación).

Recomendaciones: Esta sinopsis resume las características de la guía en 7 áreas cruciales: i) focalización de la dosis de estatinas ii) no-metas de colesterol de lipoproteínas de baja densidad, iii) pruebas adicionales para la predicción de riesgos, iv) prevención primaria y secundaria, v) pruebas de laboratorio, vi) actividad física y vii) nutrición............

1) Continúe tratando con la dosis objetivo, no con el nivel de LDL-C. 2) Uso de pruebas adicionales para refinar la predicción de riesgos: la evidencia aún es insuficiente 3) Prevención primaria: todavía se enfatiza la terapia con estatinas en dosis moderadas; No a los inhibidores de la subtilisina/kexina tipo 9 de la proproteína convertasa. 4) Prevención secundaria: inicialmente dosis moderadas de estatinas. e  intensificación escalonada en pacientes de mayor riesgo. 

5) Pruebas de laboratorio: no se necesita ayuno o control de rutina; "menos es más".

Al igual que en nuestra guía de 2014, seguimos recomendando la evaluación de los niveles de lípidos sin ayuno previo para la evaluación y el seguimiento del riesgo.  Los niveles de lípidos en ayunas no añaden valor clínico a la predicción del riesgo en comparación con los niveles sin ayuno y son considerablemente más onerosos en términos de molestias y el costo del paciente.

Debido a que el enfoque en el manejo de los niveles de lípidos ha evolucionado desde los valores de colesterol en sí mismos hasta la terapia basada en el riesgo de ECV, la necesidad de realizar pruebas de lípidos debería disminuir considerablemente. El cálculo del riesgo de ECV se ve afectado sólo mínimamente por los niveles de lípidos y depende mucho más de otros factores de riesgo importantes, como la edad, sexo, y la presencia de hipertensión, diabetes y tabaquismo.

En nuestra revisión sistemática, encontramos que los niveles de lípidos varían poco en un paciente a lo largo del tiempo y que la verdadera variación excede la variación aleatoria solo si las pruebas están espaciadas de 9 a 10 años. Por lo tanto, dada la pequeña contribución de los valores de lípidos para calcular una puntuación de riesgo cardiovascular, el enfoque en la dosificación dirigida (en contraposición a los niveles de colesterol objetivo) y la variación mínima dentro del paciente a lo largo del tiempo, recomendamos medir los niveles de lípidos  cada 10 años. 

Se puede utilizar de manera confiable el valor de lípidos medido previamente para evaluar el riesgo de ECV. No recomendamos volver a controlar los niveles de lípidos cada vez que se evalúa el riesgo de ECV, porque los niveles de lípidos permanecen estables en las personas a lo largo del tiempo y contribuyen solo en una pequeña cantidad al riesgo predicho en relación con otros factores. Una vez que se prescribe la terapia con estatinas en dosis moderadas (el objetivo terapéutico para controlar los niveles de lípidos en la prevención primaria de las ECV), no vemos ninguna justificación para controlar los niveles de lípidos a partir de entonces.

Reconocemos que pueden existir circunstancias en las que los médicos deseen medir los niveles de lípidos con mayor frecuencia, como al evaluar la adherencia a la terapia o para las estrategias de intensificación en la prevención secundaria para evitar niveles de LDL-C excesivamente bajos. Sin embargo, no recomendamos las pruebas de rutina de los niveles de lípidos para la evaluación y el control de riesgos, a menos que estén específicamente destinadas a guiar la toma de decisiones.

6) Actividad física: mayor ejercicio aeróbico para todos y rehabilitación cardíaca después de una enfermedad cardiovascular reciente. 7) Nutrición, suplementos, niacina y fibratos: sugerir una dieta mediterránea para pacientes de alto riesgo, limite el etilo de icosapent a la prevención secundaria, evite los suplementos y la niacina y evite agregar fibratos a la terapia con estatinas.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. Las páginas de este blog , se renuevan dentro de 2 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico-UBA.
Ciudad de Buenos Aires, R. Argentina


sábado, 17 de julio de 2021

792- Mecanismos de propagación de las variantes del SARS-CoV-2

¿Por qué las nuevas variantes del SARS-CoV-2 se propagan más fácilmente? Julio 15, 2021. The Economist:  Alok Jha, corresponsal científico.  Zanny Minton Beddoes- Editor en jefe

Las mutaciones aleatorias permiten que las nuevas formas del virus se unan mejor a las células humanas.

Los virus al igual que todos los otros organismos, tienen su ciclos de vida. En este caso son parasitos parásitos, comenzando cuando un virus padre infecta a otra criatura y secuestra sus células para hacer copias de sí mismo. En el caso del SARS-CoV-2, el virus que está causando la pandemia, esto sucede cuando se adhiere a una enzima llamada ACE2 en la membrana de algunas células humanas y desliza su genoma a través de la célula. Esta invasión celular es ayudada por una proteína que se clava en la superficie del virus, conocida como pico. Los cambios en el pico, impulsados ​​por cambios genéticos por mutación , alteran las propiedades generales del virus, particularmente su capacidad para propagarse a través de las poblaciones.

La naturaleza mutable de los virus se basa en la aleatoriedad inherente al proceso de producir copias de cualquier objeto, lo que hace que los errores sean inevitables. A medida que las células huésped producen copias de SARS-CoV-2, ocurren errores, llamados mutaciones. La gran mayoría de los virus no sobreviven a los errores de replicación. Pero algunos lo hacen, e incluso pueden prosperar como resultado de los cambios, superando a los virus ancestrales y propagándose de manera más eficiente a través de la población de acogida. 

Hay algunas partes de la estructura del virus que son más capaces de resistir las mutaciones: la proteína de pico es la más tolerante a los cambios. Los virus mutados que sobreviven y prosperan se denominan variantes.. Estos comenzaron a emerger en serio del SARS-CoV-2 en noviembre de 2020, con la aparición de la variante Alpha y su posterior detección en Kent, en el sureste de Inglaterra. Las nuevas variantes deben tener alguna ventaja sobre las antiguas para que se conviertan en la forma dominante del virus. Esa ventaja podría obtenerse de muchas formas diferentes, pero para una enfermedad respiratoria como el covid-19, uno de los factores más importantes es la transmisibilidad, la facilidad con la que el virus pasa de una persona a otra.

Una de las primeras mutaciones en aumentar la transmisibilidad se denominó N501Y, a veces conocida como "Nelly", una de las ocho mutaciones que caracterizaron la proteína de pico de la variante Alfa. El nombre técnico de la mutación es relativamente sencillo una vez que se comprende que se refiere a cambios en el genoma del virus, y esto a la estructura de aminoácidos que codifica. 

El "501" significa que el cambio está sucediendo en el aminoácido 501 en una cadena de 1273 que comprende el pico. El orden y la composición de estos aminoácidos viene dictado por una secuencia de genoma coincidente, de modo que "501" se refiere tanto a la posición en el genoma como a la posición en la cadena de aminoácidos. "N" es la abreviatura de asparagina, que en N501Y se cambia por "Y", que es tirosina. Dado que los diferentes aminoácidos tienen propiedades químicas ligeramente diferentes, este intercambio tiene un impacto en la estructura de la proteína de pico. 

Como resultado, cambia la forma en que se distribuye la carga eléctrica a través de él. Esto altera ligeramente la forma de la proteína, ya que las áreas de carga eléctrica positiva atraen áreas de carga negativa. Gracias a esta dinámica, N501Y permite que una parte crucial del pico gire unos 20 grados, lo que le permite encontrar máyor  ajuste con el receptor ACE2. Como consecuencia, se produce una mejor unión, lo que significa que es más probable que cualquier copia de la variante que ingrese al cuerpo encuentre su objetivo y comience a replicarse. Esto aumenta la transmisibilidad.

Otras mutaciones realizan un truco similar, liberando diferentes partes del pico de diferentes maneras para que pueda unirse de manera más efectiva a ACE2. la forma en que se distribuye la carga eléctrica a través de él cambia. Esto altera ligeramente la forma de la proteína, ya que las áreas de carga eléctrica positiva atraen áreas de carga negativa. Gracias a esta dinámica, N501Y permite que una parte crucial del pico gire unos 20 grados, lo que le permite encontrar un ajuste más ajustado con el receptor ACE2. Como consecuencia, se produce una mejor unión, lo que significa que es más probable que cualquier copia de la variante que ingrese al cuerpo encuentre su objetivo y comience a replicarse. Esto aumenta la transmisibilidad. 

Los cambios en la forma de la espiga no son la única forma de aumentar la transmisibilidad. Delta, la variante que se detectó por primera vez en India y que actualmente se está extendiendo por el mundo, parece ser incluso más transmisible que Alpha y las otras variantes. El motivo no está claro, ya que los estudios estructurales detallados del pico de Delta aún no se han completado. 

Pero Ravindra Gupta, virólogo molecular de la Universidad de Cambridge, y sus colegas argumentan que el aumento de la transmisibilidad de Delta se debe, en parte, a una mutación en el sitio 681. Este es el punto del pico donde, después de unirse a ACE2, la proteína está hendido en dos. El Dr. Gupta dice que P681R, ayudado por dos mutaciones que modifican la forma en otros lugares, facilita que la proteína se corte y, por lo tanto, ingrese a las células. Su presencia también significa que, una vez que una célula comienza a producir partículas, sus proteínas de punta pueden llegar a la superficie de la célula precortada. Eso puede conducir a partículas de virus que no tienen las partes que los anticuerpos reconocen y están listas para fusionarse con cualquier célula cercana.

Hay otras mutaciones teóricas que hacen que el virus sea más transmisible y a las que aún no ha llegado (es posible que nunca lo haga, ya que pueden representar contorsiones de la proteína de la punta que no son físicamente posibles). Otros todavía lo ayudan a evadir los anticuerpos que el sistema inmunológico le arroja para proteger al cuerpo de las infecciones, al igual que un pico que se desplaza por un conjunto de mutaciones puede unirse mejor a ACE2. A su vez , otros cambios también pueden dificultar que los anticuerpos se unan al pico. 

Actualmente, Delta está tomando el relevo de otras variantes en todo el mundo, su conjunto de mutaciones le permite superarlos en el entorno evolutivo que le presentan los cuerpos humanos. Para que otra variante supere a Delta, necesitará nuevos trucos.

Leer el articulo original

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. La página de este blog, se renueva dentro de 1 día en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico-UBA.
Ciudad de Buenos Aires, R. Argentina


jueves, 15 de julio de 2021

791- Q/A: Estrategias serologicas SARS-CoV-2 en USA

Mark A Cervinski, M Laura Parnas, Barton P Buxton, Justin Choi, Omai Garner, Sean X Neath, Jennifer L Zreloff. Q/A: Estrategias de prueba actuales para el SARS-CoV-2 en los Estados Unidos. Oxford-Clinical Chemistry, 2021; 67 (7):935–940, 

Introducción

Desde el descubrimiento y reconocimiento del síndrome respiratorio agudo severo coronavirus 2 (SARS-CoV-2) y la declaración oficial de la pandemia de la enfermedad por coronavirus-2019 (COVID-19) a principios de 2020, se han desarrollado varias metodologías de prueba diferentes en el registro. velocidades y disponibles para el diagnóstico, la detección, la vigilancia y el tratamiento de la infección por SARS-CoV-2 y la enfermedad por COVID-19. Los rápidos avances científicos en la búsqueda de aprender y definir los mecanismos de transmisión, enfermedad y recuperación del SARS-CoV-2, en combinación con los desafíos de salud pública de un virus que se propaga rápidamente, han obligado a la comunidad de atención médica a adaptarse continuamente al desarrollo. pandemia.

Las pautas oficiales de prueba y los algoritmos propuestos continúan evolucionando, a medida que aprendemos más sobre la variedad de síntomas al comienzo de la infección, los cambios en las necesidades de salud pública y la necesidad de volver a las actividades prepandémicas que incluyen asistencia escolar en persona, viajes, deportes, y otras actividades económicas y sociales. Las pautas de prueba iniciales se centraron en la detección del virus SARS-CoV-2 utilizando técnicas moleculares, pero a medida que la pandemia ha progresado, han surgido otras tecnologías, como las pruebas de antígeno del SARS-CoV-2, que están logrando una mayor aceptabilidad y disponibilidad.

Coincidiendo con la evolución de las diferentes metodologías de prueba, los cambios en las técnicas de muestreo, desde hisopos nasofaríngeos hasta hisopos nasales y, potencialmente, los hisopos recolectados por el paciente, complican aún más el desarrollo de estrategias y pautas de prueba.

Si bien los métodos moleculares de alta complejidad para el ARN viral son el estándar de oro para el diagnóstico, se ha hecho evidente un cuello de botella en la capacidad y la velocidad de las pruebas. Este cuello de botella ha llevado al reconocimiento de que las pruebas rápidas del antígeno del SARS-CoV-2 en el lugar de atención o en el laboratorio pueden desempeñar un papel importante en la detección y la vigilancia de la enfermedad por COVID-19.

Para ayudar a responder algunas de las preguntas sobre cómo se están utilizando las pruebas y cómo la industria del diagnóstico in vitro puede ayudar a satisfacer las necesidades de las pruebas de diagnóstico, se convocó a un panel de expertos con el objetivo de obtener información crítica sobre las diferentes estrategias de prueba para el SARS-CoV-2. en una variedad de entornos de atención médica, comunitarios, congregados y de salud pública

Hemos invitado a un grupo selecto de expertos que participaron en el Comité Asesor Científico para compartir sus perspectivas y proporcionar una actualización sobre el estado actual de las estrategias de prueba para el SARS-CoV-2 desde sus respectivos puntos de vista

Preguntas/Respuestas

  1. Describa brevemente las estrategias de prueba actuales para el SARS-CoV-2 empleadas en su institución. ¿Cómo ha cambiado esto desde el comienzo de la pandemia?
  2. ¿Qué papel desempeñaría una prueba rápida de antígenos en el punto de atención (POC) o en el laboratorio en la toma de decisiones de admisión y alta? ¿Qué papel juegan las pruebas de antígenos en la reapertura y vigilancia de escuelas, universidades e instalaciones de cuidados a largo plazo?
  3. ¿Cuáles son las ventajas de las pruebas multiplex para otros virus respiratorios además del SARS-CoV-2?
  4. ¿Qué información adicional se necesita para determinar la utilidad clínica de las pruebas de anticuerpos? ¿Se necesitan criterios separados para las pruebas de anticuerpos cualitativas y cuantitativas?  
  5. ¿Cómo se pueden incorporar las muestras auto-recolectadas (líquido nasal, nasofaríngeo u oral) en algoritmos de prueba sintomáticos y asintomáticos?
  6. En comparación con los Consejos Asesores anteriores en los que ha trabajado, ¿qué aspectos del formato virtual le parecieron limitantes? ¿Cree que estas limitaciones afectaron la calidad de las opiniones que se compartieron a través de la sesión virtual / remota?

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. Las páginas de este blog , se renuevan dentro de 2 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico-UBA.
Ciudad de Buenos Aires, R. Argentina


martes, 13 de julio de 2021

790- Pruebas serológicas del SARS-CoV-2

Ronald W McLawhon, Robert L Fitzgerald. Pruebas serológicas del SARS-CoV-2: hechos, ficción y falacias. Oxford-Clinical Chemistry, 2021; 67,(7):924–926. Department of Pathology, University of California San Diego, San Diego, CA, USA

Editorial

Durante el año pasado, la pandemia de COVID-19 impuso demandas sin precedentes a los proveedores de laboratorios clínicos, fabricantes de diagnósticos in vitro y agencias de salud pública para responder a las necesidades de pruebas de una emergencia de salud pública internacional. Estos esfuerzos incluyeron el desarrollo e implementación de una amplia gama de estrategias de prueba para detectar infecciones sintomáticas y asintomáticas, monitorear las fases aguda y convaleciente y determinar las respuestas inmunes adaptativas al SARS-CoV-2. Hasta la fecha, se estima que se han realizado más de 400 millones de pruebas de SARS-CoV-2 con fines de diagnóstico, detección y vigilancia solo en los Estados Unidos..

El método de referencia para diagnosticar una infección por SARS-CoV-2 siguen siendo las pruebas de amplificación de ácido nucleico. Desafortunadamente, la disponibilidad inicial limitada de estas pruebas (agravada por la escasez de la cadena de suministro), los largos tiempos de respuesta y los gastos impulsaron los esfuerzos para encontrar otras alternativas adecuadas para aumentar la capacidad de prueba de COVID-19, tanto dentro del laboratorio clínico como en el punto de atención.

Los métodos serológicos (prueba de anticuerpos) que se han utilizado eficazmente en el manejo de otras enfermedades infecciosas pronto se introdujeron en todo el mundo y se promocionaron como una posible solución para ayudar a abordar los desafíos de las pruebas COVID-19. Sin embargo, el uso de estas pruebas y su adopción clínica generalizada fueron cuestionados casi de inmediato. 

Estas preocupaciones se centraron en la calidad y precisión de las pruebas y la ausencia de datos para respaldar las afirmaciones de desempeño analítico y clínico. También hubo una falta general de comprensión de cómo utilizar e interpretar adecuadamente estas pruebas en diferentes poblaciones objetivo. En particular, la mayoría de los médicos subestimó el impacto de la prevalencia de la enfermedad en los valores predictivos.

En la actualidad, se comercializan a nivel mundial más de 440 pruebas diferentes de anticuerpos contra el SARS-CoV-2, pero solo 75 de estas pruebas han recibido formalmente la autorización de uso de emergencia (EUA) de la Administración de Alimentos y Medicamentos de EE. UU. (FDA). Estas pruebas van desde simples ensayos inmunocromatográficos basados ​​en cartuchos, de un solo paso (exentos de de las aprobación CLIA) hasta inmunoensayos inmunoabsorbentes enzimáticos basados ​​en placas e inmunoensayos basados ​​en quimioluminiscencia en autoanalizadores de acceso aleatorio de alto rendimiento. 

Muchos de los formatos de ensayo iniciales detectaron cualitativamente la presencia o ausencia de anticuerpos dirigidos contra una o más de las proteínas virales del SARS-CoV-2. Los principales objetivos son las proteínas de la nucleocápside y la espiga. Más recientemente, los ensayos de anticuerpos de SARS-CoV-2 semicuantitativos y cuantitativos recibieron EUA que reconocen estos objetivos de proteínas virales con un mayor grado de sensibilidad y especificidad. También se han utilizado algunas pruebas de anticuerpos neutralizantes desarrolladas y comercializadas en laboratorio para evaluar la función de las respuestas de anticuerpos........

Leer el Editorial completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. Las páginas de este blog , se renuevan dentro de 2 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico-UBA.
Ciudad de Buenos Aires, R. Argentina


sábado, 10 de julio de 2021

789- Errores en el proceso total de las pruebas

Cornelia Mrazek, Giuseppe Lippi, Martin H Keppel, Thomas K Felder, Hannes Oberkofler, Elisabeth Haschke-Becher, Janne Cadamuro. Errores dentro del proceso total de pruebas de laboratorio, desde la selección de la prueba hasta la toma de decisiones médicas: una revisión de las causas, consecuencias, vigilancia y soluciones. Biochem Med. 2020; 30 (2): 020502. Department of Laboratory Medicine, Paracelsus Medical University, Salzburg, Austria. Section of Clinical Chemistry, University of Verona, Verona, Italy

Resumen

Los análisis de laboratorio son cruciales para las decisiones de diagnóstico, seguimiento y tratamiento. Dado que los errores en cada paso del proceso de prueba total pueden afectar potencialmente la seguridad del paciente, un conocimiento amplio y una evaluación sistemática de los errores de laboratorio es esencial para futuras mejoras. En esta revisión, nuestro objetivo es discutir los tipos y frecuencias de errores potenciales en el proceso de prueba total, las opciones de gestión de la calidad, así como las soluciones tentativas para la mejora. A diferencia de la mayoría de las revisiones actualmente disponibles sobre este tema, también incluimos errores en la selección de pruebas, informes e interpretación/acción de los resultados de las pruebas. Creemos que los especialistas de laboratorio deberán volver a centrarse en muchos pasos del proceso que pertenecen a las fases extraanalíticas, intensificando las colaboraciones con los médicos y apoyando la selección e interpretación de las pruebas.

Introducción

La atención médica moderna depende inevitablemente de los resultados de laboratorio para el diagnóstico, el pronóstico y / o las decisiones de tratamiento. Por lo tanto, la ejecución precisa de todos los pasos incluidos dentro del circuito tradicional cerebro a cerebro, es decir, pedido/selección de pruebas, recolección de muestras, identificación, transporte, preparación de muestras, análisis, informes de pruebas, interpretación y acción es importante- 

Desafortunadamente, cada uno de estos pasos es vulnerable a errores, que luego pueden generar potencialmente resultados erróneos y finalmente poner en peligro la seguridad del paciente. Por mencionar sólo algunos ejemplos, la muestra puede provenir del paciente equivocado; los niveles bajos de calcio y fosfatasa alcalina erróneos pueden malinterpretarse cuando no se identifica la contaminación del K-EDTA); la pseudo-hyperkalaemia debido a leucocitosis extrema puede conducir a un tratamiento innecesario e incluso potencialmente peligroso..

En la actualidad existe evidencia incontrovertible de que la gran mayoría de los errores de laboratorio ocurren en la fase pre analítica (61,9 - 68,2%), que luego son seguidos por errores en las partes post analítica (18,5 - 23,1%) y analítica (13,3 - 15%) de la proceso de prueba total (TTP). Utilizando el mismo diseño de estudio en 1996 y 2006, Carraro y Plebani atribuyeron la disminución de la tasa de error de las muestras contaminadas por fluidos de infusión del 20,6% al 1,9 % a acciones correctivas. Junto con la afirmación de que el 73% de los errores en el TTP parecen prevenibles, esto refuerza la necesidad de vigilancia y seguimiento de la vulnerabilidad del laboratorio. 

Como las tasas de error se informan tradicionalmente desde la extracción de sangre hasta el informe de resultados, se ha dado menos énfasis a la idoneidad en la selección de la prueba, la interpretación de los resultados y las fases de acción médica, algunos autores se refieren como fase "pre-pre" - y "post-post" analítica . Para una mejor comprensión, nos abstendremos de utilizar estos términos, ya que los procesos respectivos pueden subsumirse en las fases pre o posanalítica. Sin embargo, los especialistas de laboratorio no deben descuidar estos pasos del TTP, por lo que muchos estudios muestran altas frecuencias de selección de prueba inapropiada e incertidumbre en la interpretación de los resultados. Además, la selección inadecuada de pruebas parece ser especialmente más frecuente que todos los demás errores que se han identificado hasta ahora. 

En esta revisión, por lo tanto, queremos describir los tipos y frecuencias de errores que pueden ocurrir durante el TTP ( es decir , el ciclo de cerebro a cerebro), incluida la selección de pruebas y la interpretación/acción médica. Debido a los diferentes diseños de los estudios, las frecuencias de los errores están relacionadas con los datos adquiridos de forma heterogénea y, por lo tanto, no son completamente comparables. Sin embargo, para obtener una descripción general de los números mencionados en la revisión, los representamos en cifras, separados en porcentajes relacionados con análisis/pruebas, encuestados, diagnósticos perdidos de reclamos por negligencia, errores, muestras y flebotomías de un estudio observacional segun Figuras 1-6 del articculo..

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. Las páginas de este blog , se renuevan dentro de 3 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico-UBA.
Ciudad de Buenos Aires, R. Argentina



miércoles, 7 de julio de 2021

788- Auto-Evaluación 3

Q/A Seminario AACC-2015: Práctica profesional en bioquímica clínica: apoyo a la atención del paciente desde la cuna hasta la tumba

a) Las Preguntas se presentan de acuerdo al interes vigente en nuestro medio. Se editaran en varias sesiones. b) Las Respuestas que figuran al final de la presentación, son las que menciona el articulo original.

Capitulo 3

Diagnóstico rápido de enfermedades infecciosas

1- Las ventajas de pruebas de diagnóstico rápido de la influenza (RIDTs) incluyen las siguientes excepto?. A) Tiempo de respuesta (TAT) rápido. B) Valor predictivo positivo (PPV) alto. C) Baja complejidad. D) Valor negativo (NPV) alto

2- ¿Cuál de los siguientes tipos de influenza no suele incluirse en los análisis de diagnóstico de rutina?. A) Influenza A. B) Influenza B. C) Influenza C. D) Influenza B y C

3- ¿El diagnóstico de C. difficile puede basarse en los síntomas solo con alta precisión?.A) Verdadero. B) Falso

4- ¿Cuál de las siguientes es una limitación de los ensayos moleculares para el diagnóstico de la enfermedad por C. difficile?. A) Alta complejidad. B) Detección de infección. C) Detección de colonización. D) Alto valor predictivo negativo

Medio interno y gases

5- ¿Cuál es el mejor indicador de la concentración de oxígeno en sangre?. A) PO2. B) Hematocrito. C) Contenido de O2. D) Saturación de O2.

6- ¿Cual de los siguientes es verdadero?. A) Una PO2 alveolar normal es más alta en Denver que en Boston porque el aire es más limpio. B) Una oxihemoglobina fraccionada normal es más alta en Denver que en Boston porque tiene menos contaminación del aire.C) Los oxímetros de pulso típicos proporcionan mediciones confiables de la "saturación de oxígeno" para su uso en pacientes con inhalación de humo. D) Se debe usar sangre arterial para obtener una evaluación precisa de las concentraciones de metahemoglobina.

7- ¿Qué principio de método está involucrado en la medición de los porcentajes de oxihemoglobina?. A) Cromatografía de gases. B) Electrodos selectivos de iones. C) Ley de Beer. D) Electrodo de O2, seguido de interpolación de la curva de disociación de oxihemoglobina.

8- ¿Cuál de los siguientes representa los hallazgos típicos en una alcalosis respiratoria?. A) aumento de PCO2, disminución de HCO3. B) aumento de PCO2, aumento de HCO3. C) disminución de PCO2, disminución de HCO3. D) disminuye la PCO2, aumenta el HCO3.

9- ¿Cuál de las siguientes es una causa de una acidosis metabólica con brecha aniónica normal?.A) diarrea. B) cetoacidosis diabética. C) vómitos. D) acidosis láctica

10- La pseudohiponatremia puede ser causada por cuál de los siguientes: A) altas concentraciones de glucosa. B) recuentos bajos de plaquetas. C) altas concentraciones de proteínas séricas (por ejemplo, mieloma múltiple). D) altas concentraciones de ADH.

Medicina transfucional

11- ¿Cuál de los siguientes factores aumenta el riesgo de hemorragia después de la derivación cardiopulmonar?. A) Edad del paciente mayor de 60 años. B) Cirugía de revisión por cardiopatía congénita compleja. C)Necesidad de una disminución sustancial de la temperatura corporal durante la cirugía. D) Historia de sangrado después de una cirugía de rodilla previa. E) Todo lo anterior.

12- ¿Cuál de los siguientes defectos de coagulación requiere el uso de pruebas viscoelásticas de coagulación para una detección rápida?.A) Trombocitopenia. B) Deficiencia de factor de coagulación. C) Heparinización persistente. D) Fibrinólisis. E) Disfunción plaquetaria.

13- Los estudios de algoritmos de transfusión demuestran éxito en la disminución de transfusiones, pero no siempre disminuyen la pérdida de sangre posoperatoria medida por el drenaje del tubo torácico. A) Verdadero. B) Falso

Inmunoensayos en fase sólida en transplantes

14- ¿Cuál de los siguientes es un factor de riesgo para la aloinmunización HLA? (elija todo lo que corresponda). A) Transfusión de sangre. B) Embarazo. C) Trasplante. D) Trauma

15- ¿Que  NO es necesario para establecer la compatibilidad entre el posible receptor y la pareja de donantes?. A) Tipificación de HLA del receptor. B) Tipificación de HLA del donante. C) Prueba de anticuerpos anti-HLA del receptor. D) Prueba de anticuerpos anti-HLA del donante.

16- Los 2 tipos principales de ensayos de anticuerpos son celulares y inmunoensayo en fase solida (SPI). Se recomienda realizar tanto un ensayo SPI como celular. ¿Qué 2 métodos cumplen con esta recomendación? (elija todo lo que corresponda). A) AHG-CDC y citometría de flujo. B) Luminex y ELISA. C) AHG-CDC y Luminex. D) Citometría de flujo y ELISA

17- ¿Cuál de los siguientes puede causar una interferencia falsa negativa en el SPI que puede afectar la interpretación de los resultados y resultar en el trasplante de un órgano incompatible? (elija todo lo que corresponda). A) Rituximab. B) IgM. C) ATG. D) Complemento.

Proteinas 

18- La mejor combinación de pruebas para detectar proteínas monoclonales es: A) Concentraciones de inmunoglobulina sérica (IgG, IgA, IgM) B) Electroforesis de proteínas séricas y electroforesis por inmunofijación. C) Electroforesis de proteínas en suero y orina. D) Electroforesis de proteínas en orina y electroforesis por inmunofijación

19- Los hallazgos típicos en el mieloma de cadenas ligeras incluyen todos los siguientes EXCEPTO: A) Una banda discreta en la electroforesis de proteínas séricas. B) Hipogammaglobulinemia (sérica). C) Una banda discreta en la electroforesis de proteínas urinarias. D) Una tira reactiva de orina negativa para proteínas.

20- ¿Cuál es el diagnóstico más común asociado a las proteínas monoclonales?. A) Amiloidosis. B) Mieloma múltiple. C) Gammapatía monoclonal de significado indeterminado. D) Macroglobulinemia de Waldenstrom

Respuestas según el articulo original   

1-D) Valor negativo (NPV) alto .2-C) Influenza C. 3- B) Falso. 4- C) Detección de colonización. 5- C) Contenido de O2. 6- B) Una oxihemoglobina fraccionada normal es más alta en Denver que en Boston porque tiene menos contaminación del aire.7- C) Ley de Beer.8- C) Disminución de PCO2, y HCO3. 9- A) Diarrea. 10-C) Altas concentraciones de proteínas séricas (por ejemplo, mieloma múltiple) 11- E) Todo lo anterior.12- D) Fibrinólisis.13- B) Falso.14- A), B) C).15-D) Prueba de anticuerpos anti-HLA del donante.16-C) AHG-CDC y Luminex.  D) Citometría de flujo y ELISA. 17-B) IgM. C) ATG. D) Complemento.18-C) Electroforesis de proteínas en suero y orina.19-A) Una banda discreta en la electroforesis de proteínas séricas. 20-C) Gammapatía monoclonal de significado indeterminado.

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. Las páginas de este blog , se renuevan dentro de 3 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico-UBA.
Ciudad de Buenos Aires, R. Argentina


domingo, 4 de julio de 2021

787- Fabricas de "fake-papers"

Holly Else & Richard Van Noorden. La lucha contra las fábricas de papeles falsos que producen ciencia falsa. Nature  News feature  article 23 March 2021.

Algunos editores dicen que están luchando contra las trampas industrializadas. Un análisis del Nature examina el problema de la "fábrica de papel" y cómo los editores están tratando de afrontarlo.

Cuando Laura Fisher notó sorprendentes similitudes entre los trabajos de investigación presentados a RSC Advances , comenzó a sospechar. Ninguno de los artículos tenía autores o instituciones en común, pero sus gráficos y títulos parecían en forma alarmante similares, dice Fisher, editor ejecutivo de la revista. "Estaba decidido a intentar llegar al fondo de lo que estaba pasando".

Un año después, en enero de 2021, Fisher se retractó de 68 artículos de la revista, y los editores de otros dos títulos de la Royal Society of Chemistry (RSC) se retractaron cada uno por sospechas similares; 15 aún están bajo investigación. Fisher había encontrado lo que parecían ser productos de "fábricas de papel": empresas que producen manuscritos científicos falsos por encargo. El editor de las revistas, el RSC de Londres, anunció en un comunicado que había sido víctima de lo que se creía que era “la producción sistémica de investigaciones falsificadas”.

Lo sorprendente de esto no fue la actividad de la fábrica de papel en sí: los detectives sobre integridad en la investigación habían advertido repetidamente que algunos científicos compran papeles de firmas de terceros para ayudarles en sus carreras. Más bien, era extraordinario que un editor hubiera anunciado públicamente algo sobre lo que las revistas generalmente guardan silencio. “Creemos que es una fábrica de papel, por eso queremos ser abiertos y transparentes”, dice Fisher.

El RSC no estaba solo, agregó su declaración: "Somos uno de los varios editores que se han visto afectados por dicha actividad". Desde enero pasado, las revistas se han retractado de al menos 370 artículos que han sido vinculados públicamente a las fábricas de papel, según un análisis de Nature , y se espera que sigan muchas más retractaciones.

Gran parte de esta limpieza de la literatura se debe a que, el año pasado, detectives externos señalaron públicamente documentos que creen que provienen de fábricas de papel debido a sus características sospechosamente similares. En conjunto, las listas de artículos marcados suman más de 1.000 estudios. Los editores están tan preocupados por el tema que en septiembre pasado, el Comité de Ética de Publicaciones (COPE), un órgano asesor de editores en Londres, celebró un foro dedicado a debatir sobre la “manipulación sistemática del proceso de publicación a través de las fábricas de papel”. Su oradora invitada fue Elisabeth Bik, una analista de integridad de la investigación en California conocida por su habilidad para detectar imágenes duplicadas en documentos, y una de las "detectives" que publica en línea sus preocupaciones sobre las fábricas de papel.

Elizabeth Bik cree que hay miles más de estos artículos en la literatura. El anuncio de RSC es significativo por su apertura, dice. “Es bastante vergonzoso que tantos papeles sean falsos. Felicitaciones a ellos por admitir que han sido engañados ".

En algunas revistas que han tenido una serie de presentaciones aparentes de fábricas de papel, los editores ahora han renovado sus procesos de revisión, con el objetivo de no dejarse engañar de nuevo. La lucha contra las trampas industrializadas requiere una revisión más estricta: decirle a los editores que soliciten datos sin procesar, por ejemplo, y contratar personas específicamente para verificar las imágenes. La publicación científica necesita un "esfuerzo concertado y coordinado para erradicar la investigación falsificada", dijo la RSC.

Detectives de la fábrica de papel

En enero de 2020, Bik y otros detectives de imágenes que trabajan con seudónimos, Smut Clyde, Morty y Tiger BB8, publicaron, en un blog dirigido por el periodista científico Leonid Schneider, una lista de más de 400 artículos publicados que dijeron que probablemente provenían de una fábrica de papel. Bik lo apodó la fábrica de papel 'renacuajo', debido a las formas que aparecían en los análisis de Western blot, que es un tipo de prueba que se utiliza para detectar proteínas en muestras biológicas. Siguió una serie de titulares de los medios. A lo largo del año, los detectives (no siempre trabajando juntos) publicaron hojas de cálculo de otros documentos sospechosos, recogiendo características similares en múltiples estudios. Para marzo de 2021, habían enumerado colectivamente más de 1300 artículos, según el recuento de Nature, como posiblemente provenientes de fábricas de papel.........

Leer el articulo completo

Recomendacions de la NIH Funded Research

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a profesionales bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. Las páginas de este blog , se renuevan dentro de 3 días en forma automática. Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico-UBA.
Ciudad de Buenos Aires, R. Argentina