miércoles, 30 de julio de 2025

1265- Directivas 2025 de la KSLM para la recolección de sangre venosa.

Jeonghyun Chang y col. en nombre del Working Group on Venous Blood Collection Guideline of the Korean Society for Laboratory Medicine. Normas y directrices de práctica para la recolección de sangre venosa: recomendaciones de consenso de la Korean Society for Laboratory Medicine. Ann Lab Med 2025; 45(4): 343-357. Department of Laboratory Medicine, Inje University Ilsan Paik Hospital, Goyang, Korea

Resumen

Las muestras de alta calidad son esenciales para obtener resultados de laboratorio precisos. Los errores pre-analíticos debidos a problemas como hemólisis, microcoagulación y volumen insuficiente de la muestra representan entre el 60 % y el 70 % de los errores de laboratorio y, con frecuencia, se deben a técnicas inadecuadas de extracción de sangre o a negligencia durante el proceso. Por lo tanto, se requieren directrices estandarizadas para la extracción de sangre y formación continua. En Corea, los procedimientos estandarizados de extracción de sangre venosa aún no se han establecido por completo, lo que pone de relieve la necesidad de un protocolo basado en la evidencia y adaptado a los requisitos locales. La guía de extracción de sangre venosa que se presenta aquí se adaptó a partir de estándares internacionales para cumplir con las prácticas reconocidas mundialmente y abordar el contexto clínico coreano. La guía, desarrollada por la Korean Society for Laboratory Medicine, describe los pasos críticos en la extracción de sangre venosa, desde la identificación y el consentimiento del paciente hasta el manejo posterior a la extracción. Se ofrecen recomendaciones prácticas para estudiantes, médicos, enfermeros y técnicos de laboratorio. La guía aborda consideraciones específicas para pacientes pediátricos y mayores, así como para personas que se someten a hemocultivos, con énfasis en minimizar errores y promover la seguridad de los pacientes y el personal médico. La guía incluye herramientas prácticas, como listas de verificación e información detallada sobre los dispositivos de muestreo, para facilitar su implementación. Esta iniciativa contribuiría a estandarizar las prácticas de recolección de sangre, mejorar la calidad de las muestras y optimizar la atención al paciente al garantizar resultados de laboratorio precisos en entornos clínicos.

Introducción

La precisión de los resultados de las pruebas de laboratorio depende de la calidad de las muestras. Los errores pre-analíticos, que representan entre el 60 % y el 70 % de los errores de laboratorio, se deben con frecuencia a la hemólisis, la microcoagulación y un volumen de muestra insuficiente. Los problemas de calidad en las muestras de sangre suelen deberse a procedimientos de recolección inadecuados, lo que pone de relieve la necesidad de contar con directrices de recolección estandarizadas y formación continua. En muchas instituciones sanitarias coreanas, persisten prácticas inadecuadas durante todo el proceso de manipulación de las muestras, incluyendo la identificación del paciente, el etiquetado con códigos de barras, la recolección de sangre, el pre-procesamiento de las muestras y el transporte .

La presente guía tiene como objetivo proporcionar recomendaciones concisas y basadas en la evidencia para la recolección de sangre venosa, el tipo de extracción de sangre realizado con mayor frecuencia. Existen guías similares con objetivos comparables. Sin embargo, la presente compilación pretende respaldar la estandarización de las técnicas de recolección de sangre venosa en Corea. 

Actualmente, falta una recomendación estandarizada basada en el consenso para la recolección de sangre venosa en Corea. Las “Guías de Habilidades Clínicas Básicas, 3.ª Edición”, emitidas por la Asociación Coreana de Facultades de Medicina, ofrecen material instructivo para estudiantes. Sin embargo, no reflejan los estándares internacionales actuales y recomiendan métodos de transferencia de sangre que entran en conflicto con la Norma de Aplicación de la Ley de Seguridad y Salud Ocupacional emitida por el Ministerio de Legislación Gubernamental de Corea.

En respuesta, la Korean Society for Laboratory Medicine creó un grupo de trabajo para desarrollar una guía específica para cada contexto, adaptando los estándares internacionales establecidos. Tras revisar la literatura relevante y realizar una revisión exhaustiva para alcanzar un consenso, se elaboró un borrador.

Las fuentes clave consultadas incluyeron las guías del Instituto del Clinical and Laboratory Standards Institute (CLSI) guidelines , the World Health Organization (WHO) venous blood collection guidelines, the European Federation of Clinical Chemistry and Laboratory Medicine (EFLM) of the Latin America Confederation of Clinical Biochemistry recommendations y bibliografía adicional.

Esta guía está diseñada para estudiantes y profesionales de la medicina y la salud, incluyendo que participan en la extracción de sangre venosa. La guía describe procedimientos estandarizados paso a paso y proporciona estrategias prácticas para abordar las dificultades que surgen durante la venopunción. Además, introduce herramientas de evaluación objetivas y estandarizadas para la educación y el monitoreo, con el objetivo de mejorar la seguridad y la eficiencia de las prácticas de extracción de sangre en entornos clínicos.

 El objetivo de esta guía para la extracción de sangre venosa es minimizar los errores en el proceso de extracción, garantizar la calidad de las muestras y contribuir a un diagnóstico preciso y un tratamiento eficaz basado en resultados fiables........

1) Leer el articulo completo

2) Reducir volumen de extracción

3) Flebotomía y anemia iatrogénica

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 03 de Agosto. 
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



domingo, 27 de julio de 2025

1264- Evaluación de biomarcadores en LCR

Linda Karlsson, Jacob Vogel, Ida Arvidsson, Kalle Åström, Shorena Janelidze, Kaj Blennow, Sebastian Palmqvist, Erik Stomrud, Niklas Mattsson-Carlgren, Oskar Hansson. Las proteínas de referencia del líquido cefalorraquídeo aumentan la precisión e interpretación de los biomarcadores de enfermedades cerebrales.. Nat Commun. 2024 May 1;15:3676. Department of Clinical Sciences in Malmö, Clinical Memory Research Unit, Lund University, Lund, Sweden.

Resumen

Los biomarcadores del líquido cefalorraquídeo (LCR) reflejan la fisiopatología cerebral y se utilizan ampliamente en la investigación traslacional, así como en la práctica clínica, para el diagnóstico de enfermedades neurológicas, como la enfermedad de Alzheimer (EA). Sin embargo, las concentraciones de biomarcadores en el LCR pueden verse influenciadas por variabilidad interindividual no relacionada con la enfermedad. En este estudio, utilizamos un enfoque basado en datos para demostrar la existencia de variabilidad interindividual en los niveles promedio estandarizados de proteínas en el LCR. Demostramos que estas diferencias no relacionadas con la enfermedad hacen que muchos biomarcadores del LCR comúnmente informados presenten una alta correlación, lo que produce resultados engañosos si no se tienen en cuenta. Para ajustar esta variabilidad interindividual, identificamos y evaluamos proteínas de referencia de alto rendimiento que mejoraron la precisión diagnóstica de biomarcadores clave de la EA en el LCR. Nuestro método de proteínas de referencia atenúa el riesgo de falsos positivos y mejora la sensibilidad y especificidad de los biomarcadores del LCR, con amplias implicaciones tanto para la investigación como para la práctica clínica.

Introducción

Los trastornos neurodegenerativos y la demencia son comunes y tienen una prevalencia cada vez mayor en todo el mundo. La necesidad de técnicas de diagnóstico precisas y confiables para identificar, examinar y monitorear estas enfermedades está creciendo. Una técnica de diagnóstico informativa y rentable es la medición de las concentraciones de proteínas en el líquido cefalorraquídeo (LCR), aquí denominadas biomarcadores del LCR . 

En la enfermedad de Alzheimer (EA), que es la enfermedad neurodegenerativa más común, los biomarcadores del LCR se utilizan en la práctica clínica como herramientas de diagnóstico. Dsde el punto de vista neuropatológico, la EA se define por la presencia combinada de placas de amiloide (A)-β y ovillos neurofibrilares tau. Los biomarcadores del LCR relacionados con estas patologías incluyen Aβ42 y (P)-tau fosforilada soluble . Estos marcadores del LCR pueden mejorar sustancialmente la evaluación diagnóstica de la enfermedad, lo cual es cada vez más importante debido al reciente desarrollo de tratamientos efectivos modificadores de la enfermedad.

Sin embargo, el uso de biomarcadores del LCR puede complicarse por la variabilidad interindividual en ciertos fenómenos fisiológicos no relacionados con la enfermedad, como (aunque no limitados) a variaciones a nivel de sujeto en las tasas de transporte de proteínas del parénquima cerebral al LCR o a  variaciones en las tasas de producción/ aclaramiento del LCR. Dichas diferencias interindividuales podrían conducir a diferencias no relacionadas con la enfermedad en los niveles de proteína del LCR, lo que podría afectar el rendimiento general de los biomarcadores del LCR. 

Hipotéticamente, el ajuste de la variabilidad individual en los niveles de proteína del LCR o de proteínas de referencia seleccionadas podría optimizar el rendimiento de biomarcadores del LCR ya eficientes, reducir los hallazgos falsos positivos (al atenuar las asociaciones de biomarcadores que son impulsadas por la variabilidad no relacionada con la enfermedad) y aumentar la probabilidad de hacer nuevos descubrimientos biológica y clínicamente relevantes. 

Enfoques similares se aplican comúnmente en otras áreas de la medicina. Por ejemplo, los biomarcadores en la orina se normalizan,  a un marcador de referencia (a menudo creatinina) para ajustar las variaciones en la concentración de orina cuando la muestra se recoge en un deerminado tiempo.....

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 30 de Julio. 
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina




  

viernes, 25 de julio de 2025

1263- Injuria renal: biomarcadores vs maquinas (Podcast)

Lama Ghazi , Kassem Farhat , Melanie P Hoenig , Thomas J S Durant , Joe M El-Khoury. Biomarcadores vs. máquinas: La carrera por predecir la lesión renal aguda. Oxford Academic-Clin Chem 2024; 70 (6): 805–819. Department of Epidemiology, School of Public Health, University of Alabama at Birmingham, United States.

Antecedentes:  La lesión renal aguda (LRA) es una complicación grave que afecta hasta al 15% de los pacientes hospitalizados. El diagnóstico temprano es crucial para prevenir un daño renal irreversible que, de lo contrario, podría causar una morbilidad y mortalidad significativas. Sin embargo, la LRA es un síndrome clínicamente asintomático, y su detección actual se basa principalmente en la medición del aumento de la creatinina sérica, un marcador imperfecto que puede reaccionar lentamente al desarrollo de la LRA. Durante la última década, han surgido innovaciones en forma de biomarcadores y herramientas de inteligencia artificial para facilitar el diagnóstico temprano y la predicción de la LRA inminente.

Contenido: Esta revisión resume y evalúa críticamente los últimos avances en la detección y predicción de IRA mediante biomarcadores emergentes e inteligencia artificial. Las principales guías y estudios que se analizan incluyen aquellos que evalúan la utilidad clínica de marcadores de filtración alternativa, como la cistatina C, y marcadores de lesión estructural, como la lipocalina asociada a la gelatinasa de neutrófilos y el inhibidor tisular de la metaloproteasa 2 con la proteína de unión al factor de crecimiento similar a la insulina 7, así como algoritmos de aprendizaje automático para la detección y predicción de IRA en poblaciones adultas y pediátricas. También se ofrecen recomendaciones para las prácticas clínicas que consideran la adopción de estas nuevas herramientas.

Resumen

La carrera para detectar la LRA se está intensificando. La aprobación regulatoria de biomarcadores selectos para uso clínico y la aparición de algoritmos de aprendizaje automático capaces de predecir la LRA inminente con gran precisión son avances prometedores. Sin embargo, la carrera está lejos de estar ganada. Se necesitan futuras investigaciones centradas en estudios de resultados clínicos que demuestren la utilidad y la validez de implementar estas nuevas herramientas en la práctica clínica.

Introducción

La lesión renal aguda (LRA) es una disminución repentina de la función renal, con o sin daño renal estructural, que es bien reconocida como una complicación intrahospitalaria grave de cirugía, afecciones cardíacas y sepsis. Se estima que afecta del 10% al 15% de todas las hospitalizaciones y hasta aproximadamente el 50% de todos los pacientes en la unidad de cuidados intensivos, donde puede asociarse con una alta tasa de eventos renales adversos mayores y mortalidad. Afortunadamente, la LRA a menudo se puede prevenir. Como lo mostró una estimación the National Institute for Health and Care Excellence, si la LRA se reconociera y tratara con atención a la hidratación y la medicación, se podrían prevenir 100.000 casos y evitar hasta 42.000 muertes anualmente.

 Aunque algunos de los predictores de los resultados de la LRA no son modificables (como la función renal basal y la LRA previa), otros si lo son (como la sobrecarga de volumen), y la modificación de estos factores puede tener un impacto positivo potencial en los resultados de la LRA. Por esta razón, el diagnóstico temprano es fundamental para poder iniciar el tratamiento y prevenir o limitar el daño renal irreversible que de otro modo podría provocar una morbilidad y mortalidad significativas....

1-  Leer el articulo completo

2-  Podcast (Ingles): Biomarcadores vs maquinas

(*) Una vez que esta en la pagina del articulo y/o del Podcast, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma.
 Nueva presentación el 27 de Agosto
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Cordiales saludos. 
Ciudada de Buenos Aires. R. Argentina



miércoles, 23 de julio de 2025

El Rincón del Lector: Ministerio de Salud: Resolución 2214/2025

Comunicado de Prensa

El Ministerio de Salud completa la implementación de la receta electrónica: 
ahora también será obligatoria para estudios, prácticas y procedimientos

El proceso iniciado en enero con la prescripción electrónica de medicamentos se extiende a todas las indicaciones médicas. De esta manera, se consolida la política integral de prescripción electrónica, garantizando la interoperabilidad, confidencialidad y trazabilidad de la información.

Mediante la Resolución 2214/2025, el Ministerio de Salud de la Nación oficializó la extensión de la receta electrónica al conjunto de las indicaciones médicas: medicamentos de prescripción restringida, estudios, prácticas, procedimientos y dispositivos médicos. De esta manera, se completa el proceso iniciado el 1° de enero con la obligatoriedad de la receta electrónica para medicamentos, en cumplimiento de la Ley 27.553.

A partir de ahora, todas las órdenes médicas deberán emitirse de forma electrónica a través de plataformas registradas en el Registro Nacional de Plataformas Digitales de Salud (ReNaPDiS), lo que asegura un sistema unificado, interoperable y trazable en todo el país. Para asegurar la sinergia del circuito de digitalización, la normativa vigente establece que los repositorios deben estar abiertos a todas las plataformas o sistemas de prescripción, en función del financiador o cobertura de salud del paciente.

Uno de los principales avances que introduce esta normativa es la implementación de la identificación unívoca y segura tanto del paciente como de cada receta emitida. Para garantizar la correcta identificación de la persona, se utilizará el CUIL como dato principal en todo el sistema de prescripción. A su vez, cada receta contará con una Clave Única de Identificación de Receta (CUIR), que permitirá ubicar cada prescripción de manera precisa y segura, sin alterar ni duplicar los registros originales. Esta clave será fundamental para fortalecer la trazabilidad de los tratamientos y garantizar la transparencia en todo el proceso.

Además, la nueva regulación establece un mecanismo específico para digitalizar las recetas archivadas o de prescripción restringida, como las que incluyen psicotrópicos y estupefacientes. Las plataformas digitales deberán garantizar el resguardo de estas prescripciones durante un plazo mínimo de tres años, asegurando el acceso a la información para tareas de monitoreo y fiscalización. De esta manera, el sistema de receta electrónica no solo facilita el acceso y la continuidad de los tratamientos, sino que también refuerza el control sanitario y la supervisión del uso de medicamentos sensibles.

Los prestadores y plataformas de servicios de salud tendrán un plazo de 45 días para la identificación unívoca de las recetas, 90 días para la implementación de la solución de prescripción de medicamentos de receta archivada y 120 días para las de receta restringida. Desde el Ministerio de Salud se coordinarán los aspectos técnicos necesarios con los actores involucrados para facilitar el proceso. Cabe aclarar que, para aquellas situaciones en las que no sea posible su implementación, como ocurre en localidades alejadas o con dificultades de conectividad, seguirá vigente el uso de la receta en papel.

Con esta medida, el Ministerio de Salud de la Nación avanza en la consolidación de un sistema de salud más moderno, eficiente y transparente. La implementación de la receta electrónica refleja el uso de la tecnología al servicio de la integridad, la confidencialidad y la seguridad de la información médica. No solo busca facilitar la vida de las personas, sino también garantizar la trazabilidad, el control y el uso responsable de los recursos públicos.

Leer Resolución 2214/2025

(*) Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma.
 Nueva presentación el 25 de Agosto
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Cordiales saludos. 
Ciudada de Buenos Aires. R. Argentina


lunes, 21 de julio de 2025

1262- Límites de referencia de creatinina sérica en la población pediátrica

Gwo-Tsann Chuang, I-Jung Tsai, Yong-Kwei Tsau. Límites de referencia de creatinina sérica en la población pediátrica: una base de datos de registros médicos electrónicos de un solo centro en Taiwán. Front Pediatr. 2021;9: 793446. Department of Pediatrics, National Taiwan University Children's Hospital, Taipei, Taiwan

Resumen

Objetivo: Evaluar los niveles de creatinina sérica específicos para la edad y el sexo en una población pediátrica utilizando una base de datos hospitalaria en Taiwán.

Diseño del estudio: Los datos sobre los niveles de creatinina sérica se obtuvieron de la Base de Datos Médica Integrada del Hospital Universitario Nacional de Taiwán (NTUH-iMD). Debido a la posibilidad de presentar lesión renal aguda o enfermedad renal crónica, se excluyó a los individuos con múltiples determinaciones de creatinina sérica y, posteriormente, se eliminaron los valores atípicos en cada grupo de edad y sexo. Se analizaron las determinaciones de creatinina restantes de cada grupo y se establecieron límites de referencia del 95 %.

Resultados: Se recuperaron los datos de creatinina sérica de individuos de entre 1 mes y 18 años, entre mayo de 2011 y enero de 2018. Tras aplicar los criterios de exclusión, se incluyeron 27.911 individuos con una única medición de creatinina sérica correspondiente. Se generaron límites de referencia para la creatinina sérica para cada grupo de edad y sexo. Los límites superiores de referencia (LRS), especialmente útiles en la práctica clínica, siguieron la tendencia natural de aumento de la creatinina sérica con la edad.

Conclusión: Generamos límites de referencia de creatinina sérica a partir de una única base de datos médica integrada en hospitales de Taiwán para diferentes grupos de niños según edad y sexo. Nuestros resultados ayudarán a los médicos en la práctica clínica en la evaluación de la función renal, especialmente en pacientes sin un nivel basal reciente de creatinina sérica.

Introducción

La creatinina sérica es un índice extremadamente útil cuando se trata de evaluar la función renal. Además de la tasa de filtración glomerular (TFG), la masa muscular tiene una fuerte influencia en el nivel de creatinina sérica. A partir de 1 mes de edad, la creatinina sérica aumenta gradualmente con la edad en los niños debido a un aumento en la masa muscular y, en consecuencia, el nivel difiere cada año. Por lo tanto, los rangos de referencia presentados en grupos de edad amplios (como 0 a 4, 4 a 7 y 7 a 10 años) serían insuficientes para usar clínicamente en niños. Por ejemplo, la referencia citada por el Nelson Textbook of Pediatrics, que la mayoría de los pediatras generales usan, establece que el URL de creatinina sérica es de 0,50 mg/dL para niños menores de 4 años. Sin embargo, usar esto puede llevar a una subestimación de la función renal anormal en bebés y niños pequeños.

Por lo tanto, es crucial establecer límites de referencia para la creatinina sérica en una población pediátrica específica, especialmente para aquellos hospitalizados. Una vez establecidos, los valores de creatinina superiores a los límites superiores podrían alertar a los médicos para que realicen evaluaciones adicionales de la función renal del paciente y eviten la lesión renal iatrogénica, como el control de la medicación y el estado de los líquidos. 

Por lo tanto, el objetivo de este estudio fue generar límites de referencia para la creatinina sérica específicos para la edad y el sexo, utilizando datos de una base de datos hospitalaria para su uso clínico en niños de Taiwán e incluso de otros países del este de Asia.

1- Leer el articulo completo

 2- Cistatina C en niños

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 23 de Julio 
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


viernes, 18 de julio de 2025

1261 Estandarización de pruebas e informes de lípidos

Julia S Kenkre, Tina Mazaheri, R Dermot G Neely, Handrean Soran, Dev Datta, Peter Penson, Paul Downie, Alexandra M Yates, Katharine Hayden, Mayur Patel, Jaimini Cegla  Standardising lipid testing and reporting in the United Kingdom; a joint statement by HEART UK and The Association for Laboratory Medicine. Sage Journal-Ann Clin Biochem 2025 31:45632251315303. Department of Clinical Biochemistry, Imperial College Healthcare NHS Trust, Charing Cross Hospital, London, UK.

Resumen

La enfermedad cardiovascular aterosclerótica sigue siendo una de las principales causas de muerte prematura en el Reino Unido. Las pruebas lipídicas son una herramienta clave para evaluar el riesgo cardiovascular y orientar las decisiones clínicas. Actualmente, no existen directivas nacionales que ofrezcan recomendaciones basadas en la evidencia sobre las pruebas lipídicas y su notificación para los laboratorios y profesionales clínicos del Reino Unido. Presentamos una guía de consenso, tras la revisión de la evidencia publicada por un grupo multidisciplinario de expertos del Reino Unido de diversos servicios clínicos y de laboratorio. Las recomendaciones incluyen: la composición de un perfil lipídico estándar; las indicaciones, la composición de un perfil lipídico mejorado, incluyendo la apolipoproteína B y la lipoproteína (a), el uso del cálculo de Sampson-NIH para la estimación del c-LDL y la orientación sobre cuándo señalar resultados anormales. Esta guía de consenso sobre las pruebas lipídicas y su notificación en el Reino Unido, ha sido avalada por el HEART UK y The Association for Laboratory Medicine.

Introducción

La enfermedad cardiovascular aterosclerótica (ASCVD) sigue siendo la principal causa de muerte en todo el mundo y en el Reino Unido representa una cuarta parte de todas las muertes prematuras. Las lipoproteínas pequeñas que contienen apolipoproteína B (ApoB) pueden atravesar la barrera endotelial vascular y acumularse en la pared arterial, lo que lleva a la formación de placa ateromatosa que es un precursor del bloqueo posterior de los vasos sanguíneos y las secuelas clínicas del infarto de miocardio, el accidente cerebrovascular u otra enfermedad vascular. El exceso de lípidos pro-aterogénicos contribuye causalmente a un mayor riesgo de ASCVD y este riesgo se puede cuantificar y predecir midiendo las concentraciones sanguíneas de partículas lipídicas pro-aterogénicas o su contenido de colesterol, expresado más comúnmente como colesterol de lipoproteína de baja densidad, calculado como (LDL-c) pero también colesterol de lipoproteína de densidad no alta (no HDL-c) y/o concentraciones de ApoB. 

Es importante destacar que la optimización y reducción de estos lípidos pro-aterogénicos reduce el riesgo futuro de eventos cardiovasculares primarios y secundarios. Durante muchos años, el c-LDL, calculado mediante la ecuación de Friedewald (EF), ha sido el informe predominante de lípidos y la gestión del riesgo cardiovascular a nivel mundial. El c-LDL sigue siendo importante tanto por su papel causal demostrado en la aterosclerosis como por la relación consistente encontrada entre la reducción del c-LDL y la reducción del riesgo cardiovascular observada. 

Como tal, ha sido un criterio de entrada y un punto final primario o secundario de muchos ensayos clínicos para medicamentos hipolipemiantes, se acepta como un punto final sustituto para el propósito de la aprobación regulatoria de nuevos medicamentos y sigue siendo un objetivo de gestión clave en muchas pautas. Además, en la práctica clínica, los profesionales de la salud, particularmente en atención primaria, pueden estar más familiarizados con su uso. 

Sin embargo, se reconoce que existen limitaciones importantes en el uso del c-LDL como una medida del riesgo asociado a los lípidos y, de hecho, en la EF a partir de la cual se estima más comúnmente. La FE asume una relación constante entre la concentración medida de triglicéridos séricos y el contenido de colesterol de VLDL (colesterol de lipoproteínas de muy baja densidad o c-VLDL), que debe restarse del c-no-HDL para obtener el c-LDL estimado. En consecuencia, la EF requiere una muestra en ayunas (para eliminar quilomicrones), puede ser inexacta con concentraciones bajas de c-LDL y tiene un uso limitado con triglicéridos elevados, un problema que se observa cada vez más en la práctica clínica a medida que la obesidad y la dislipidemia relacionada con la diabetes se han vuelto más prevalentes. 

Además, a pesar de la aparente reducción óptima del c-LDL calculado por la EF, los eventos de ASCVD aún ocurren con frecuencia. Por lo tanto, existe una necesidad clínica de medidas alternativas que hayan demostrado ser confiables para su uso en la gestión del riesgo cardiovascular, como el c-no-HDL y, en ciertos casos, la ApoB y la Lp(a) para estimar el riesgo residual. Más recientemente, el desarrollo de ecuaciones mejoradas para calcular el c-LDL parece ofrecer mayor precisión, en particular en aquellos con hipertrigliceridemia o c-LDL normal o bajo, o en aquellos que ya toman una medicación para reducir los lípidos. El uso de estas medidas en la práctica clínica actual es inconsistente y, si bien existen directrices nacionales bien establecidas para ayudar a los médicos a evaluar y gestionar el riesgo de ECVA,se carece de recomendaciones para las pruebas de laboratorio de lípidos y su notificación en el Reino Unido. 

Por lo tanto, este artículo revisa la evidencia actual sobre las pruebas de lípidos en el contexto de la evaluación del riesgo de ASCVD. Contiene recomendaciones basadas en la evidencia sobre la composición de un perfil lipídico estándar y mejorado, junto con orientación sobre cuándo y cómo realizar la prueba y cuándo alertar al médico solicitante en los límites de decisión clave (resumidas en una tabla de recomendaciones.

Queda fuera del alcance de estas recomendaciones abordar en profundidad las pruebas genómicas, las  pediátricas o las investigaciones diagnósticas para trastornos raros del metabolismo de las lipoproteínas (p.ej, lipodistrofia), que se realizan en clínicas de lipidología. Estos temas se referencian brevemente cuando es relevante en esta guía y se citan varios recursos que abordan estas áreas. 

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 21 de Julio 
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina




martes, 15 de julio de 2025

1260- El Rincón del Lector: Consentimiento Informado

Ana Borovecki, Ana Mlinaric, Martina Horvat, Vesna Supak Smolcic.Consentimiento informado y aprobación del comité de ética en el laboratorio de medicina. Biochem Med (Zagreb). 2018; 28(3):030201. Escuela de Salud Pública “Andrija Štampar”, Facultad de Medicina de la Universidad de Zagreb, Zagreb, Croacia. Editor de Integridad de la Investigación, Biochemia Medica.

Resumen

El consentimiento informado es un proceso mediante el cual un sujeto humano que va a participar en una investigación debe dar su consentimiento tras ser informado adecuadamente de los beneficios esperados, así como de los posibles daños, de la investigación que se realizará. La función y el propósito del comité de ética de la investigación es garantizar que la investigación que se llevará a cabo cumpla con las normas éticas pertinentes. Esto significa que el comité debe evaluar la idoneidad del diseño del estudio revisado. La investigación en el laboratorio de medicina presenta características específicas, como el uso de muestras sobrantes tras análisis rutinarios, la recopilación de datos de bases de datos con información de pacientes, la minería de datos, la recopilación de datos de gestión del laboratorio, la comparación y validación de métodos e instrumentos, etc. Dado que la mayoría de estas investigaciones son retrospectivas o no se asocian directamente con pacientes, surge la pregunta de si todos los tipos de investigación requieren el consentimiento informado y la aprobación del comité de ética. Este artículo pretende aclarar las particularidades de la obtención del consentimiento informado y la aprobación ética en el laboatorio de medicina, proporcionar una guía general sobre los requisitos de consentimiento informado y aprobación ética según el tipo de estudio y qué información debe incluirse en las solicitudes de aprobación ética y consentimiento informado. Esto también podría proporcionar cierta orientación para futuros contribuyentes en la Revista Biochemia Medica.

Introducción

La investigación es una actividad que, al utilizar sujetos, tiene una intención cognitiva por naturaleza y busca reflexivamente proporcionar una prueba formulada lógicamente de una hipótesis científica. El objetivo principal de los investigadores es el avance del conocimiento científico. La beneficencia y la no maleficencia tienen significados diferentes en este caso: los riesgos y beneficios de la investigación se sopesan frente a su valor para los individuos, pero también frente al bien común: el conocimiento científico. 

Es por esto que, en la primera mitad del siglo XX , la primacía del supuesto "bien común" sobre el destino de un individuo condujo a una serie de episodios infames relacionados con experimentos con sujetos humanos. Las consecuencias de estos eventos fueron triples: la introducción del proceso de consentimiento informado para los participantes en la investigación, la introducción de comités de ética en la investigación y la implementación de estrictas reglas, protocolos y estándares legales nacionales e internacionales que regulan la investigación en el campo de las ciencias biomédicas, especialmente la investigación realizada en humanos.

El consentimiento informado es un proceso en el cual un sujeto humano que va a participar en una investigación debe dar su consentimiento después de ser informado adecuadamente de los beneficios esperados, así como del daño potencial de la investigación que se realizará. Al dar el consentimiento, el sujeto debe ser legalmente capaz de decidir. El sujeto no debe ser menor de edad ni una persona cuya capacidad legal esté disminuida. La persona no debe ser obligada de ninguna manera (física, financiera o emocional/ mentalmente) a participar en la investigación y debe decidir libremente. 

El proceso de obtener el consentimiento informado es un proceso de intercambio de información. En él, los sujetos son informados claramente y de una manera que comprendan: a) la naturaleza de una investigación en la que participarían, b) los beneficios potenciales para él/ ella, un grupo específico de pacientes o la sociedad en general, y c) el daño potencial para él/ ella (molestias, procedimientos dolorosos incluidos en la investigación, etc.). Después de que el sujeto haya recibido toda la información relevante, debe decidir si desea participar en la investigación o no. Si la respuesta es afirmativa, lo confirmarán firmando el formulario de consentimiento. Es importante destacar que el sujeto puede negarse a participar en la investigación o retirar su consentimiento incluso después de haberlo otorgado y una vez iniciada la investigación .

El Comité de Etica de la Investigación (CEI) o la Junta de Revisión Institucional (JRI) tiene la función de asegurar que el diseño de la investigación esté de acuerdo con los estándares éticos relevantes. También tiene que evaluar la idoneidad del diseño del estudio revisado. La estructura de membresía de un CEI es interdisciplinaria. La selección de miembros se centra en las competencias de sus miembros para evaluar la aceptabilidad de la investigación con respecto a sus estándares legales, práctica profesional y aceptación de la comunidad. La constitución y el funcionamiento del CEI están en la mayoría de los casos regulados por diferentes tipos de disposiciones legales e implementados en varios documentos internacionales:  The Council for International Organizations of Medical Sciences (CIOMS) guidelines, the Helsinki Declaration, the Oviedo Convention of the Council of Europe, Regulation (EU) No 536/2014 of the European Parliament and of the Council).

Preguntas a considerar:

¿Cuál es la diferencia entre el consentimiento informado para el tratamiento y el consentimiento informado para la investigación?

Existe una diferencia entre el proceso de consentimiento informado para el tratamiento y el proceso de consentimiento informado en la investigación. El consentimiento informado obtenido para el tratamiento es resultado de la relación terapéutica médico-paciente. Es una conversación entre socios iguales (médico y paciente) sobre las mejores opciones de tratamiento posibles para el paciente. El paciente siempre es un sujeto en este proceso, nunca un objeto.

La relación entre médico/investigador y paciente/sujeto se rige por un conjunto diferente de reglas: la selección de sujetos idóneos y el tratamiento apropiado de dichos sujetos, la aplicación cuidadosa de la metodología de investigación y la adquisición de datos de alta calidad, todo ello con el fin de comprobar una hipótesis científica. Si bien el propósito de la ética en la relación tradicional médico-paciente se basa en hacer el bien, en esta nueva relación médico/investigador, paciente/sujeto, los altos estándares éticos se equiparan con la alta calidad de la ciencia. El consentimiento informado en la investigación implica que los participantes en la investigación futura autorizan al investigador a tratarlos para esta investigación específica como objeto de la misma......

1-  Leer el artículo completo

2-  Consentimiento informado en investigación clínica (2023)

3-  IFCC-Ética en el laboratorio clínico (2020)

4- Argentina: Ley 26.529 (2009)

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 18 de Julio 
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina




sábado, 12 de julio de 2025

1259- Relación cTn I/T y riesgo de eventos cardiovasculares y no cardiovasculares.

Marie de Bakker, Paul Welsh, Naveed Sattar, Bertil Lindahl, Ola Hammarsten, Torbjørn Omland, Archie Campbell, Caroline Hayward, Cathie L M Sudlow, Nicholas L Mills , Dorien M Kimenai, Kai M Eggers. Relación de troponina cardíaca I y T y riesgo de eventos cardiovasculares o no cardiovasculares en una población general . Oxford Academic Clin Chem, 2025; 71(5): 599–608. British Heart Foundation Centre for Cardiovascular Science, University of Edinburgh,United Kingdom. 

Resumen

Antecedentes: Nuevas evidencias sugieren que la relación entre la troponina cardíaca (cTn) I/ T puede proporcionar información sobre el riesgo de resultados adversos en personas con enfermedad cardiovascular. Se desconoce siesta relación proporciona información pronóstica en la población general.

Métodos: Se calculó el cociente cTn I/T en 8.855 participantes (43 % mujeres, mediana de edad de 56 años) del Generation Scotland Study, donde las concentraciones de cTnI y cTnT superaron el límite del blanco. Se utilizaron modelos multivariables de riesgos proporcionales de Cox para cada causa específica para estimar la asociación entre el cociente cTn I/T y el resultado principal de muerte cardiovascular o no cardiovascular.

Resultados:  La mediana del cociente cTn I/T fue de 0,5 (percentil 25-75, 0,3-0,8) y la mediana del seguimiento fue de 11,4 (10,8-12,7) años. Los individuos ubicados en el tercil del cociente más alto (≥0,64) tenían mayor probabilidad de ser varones, tener un índice de masa corporal y una presión arterial sistólica más elevados, y antecedentes de enfermedad cardiovascular. Los del tercil ubicados con el cociente más bajo (<0,38) tenían más probabilidades de ser fumadores o  diabéticos. Después del ajuste por factores de riesgo cardiovascular en el cociente cTn I/T, se observó una relación  directa positiva con la muerte cardiovascular (por cada aumento de duplicación, cociente de riesgos instantáneos ajustado [HR] 1,16 % (1,05-1,28), y una relación inversa con la muerte no-cardiovascular (HR 0,89 [IC del 95 %, 0,81-0,99]).

Conclusiones: El cociente cTn I/T se asocia positivamente con la muerte cardiovascular en la población general, mientras que se asocia inversamente con la muerte no cardiovascular. Se requieren investigaciones futuras para desentrañar los mecanismos subyacentes y determinar si este cociente cTn I/T proporciona información valiosa sobre el riesgo de mortalidad cardiovascular y no cardiovascular para orientar el manejo futuro.

Introducción

La troponina cardíaca (cTn) I y T son fundamentales para la definición de infarto agudo de miocardio. Las cTn también han surgido como biomarcadores prometedores para la predicción del riesgo de resultados adversos en pacientes con afecciones cardíacas agudas y crónicas, así como en la población general. Si bien estas proteínas se expresan como un complejo fijo 1:1 en el tejido cardíaco y se eliminan con una cinética similar una vez que llegan a la circulación, las concentraciones de cTnI y cTnT a menudo difieren. Además, estudios previos sugieren que las asociaciones de cTnI y cTnT con la enfermedad cardíaca y los resultados clínicos adversos pueden seguir patrones diferentes. 

Específicamente, la cTnI está fuertemente asociada con la enfermedad de la arteria coronaria y los eventos isquémicos. Por el contrario, es más probable que la cTnT se vea influenciada por afecciones no cardíacas, como la enfermedad renal crónica y los trastornos musculoesqueléticos, y está fuertemente asociada con la muerte por causas no cardiovasculares .

Población de estudio: (leer en el articulo completo)

Mediciones de troponina cardíaca

Se recogieron muestras de sangre venosa en ayunas al inicio del estudio, se centrifugaron y el suero se conservó en alícuotas a -80 °C según un protocolo estandarizado hasta el análisis del lote entre los años 2016- 2017. Las concentraciones de cTnI y cTnT se midieron en la primera descongelación.

Las concentraciones de cTnI de alta sensibilidad (ensayo de troponina I de alta sensibilidad ARCHITECTSTAT, Abbott Laboratories, Abbott Diagnostics) y cTnT de alta sensibilidad (ensayo de troponina T de alta sensibilidad Elecsys®, Roche Diagnostics) se midieron en los analizadores i1000SR y Cobas e411, respectivamente, utilizando los calibradores y controles de calidad de los fabricantes. 

El ensayo de cTnI tiene un límite de blanco de 1,2 ng/L y un límite de detección de 1,9 ng/L, mientras que el ensayo de cTnT tiene un límite de blanco de 3 ng/L y un límite de detección de 5 ng/L (19). 

Durante la realización de este estudio, participamos en el UK National External Quality Assurance Scheme (UKNEQAS) tanto para cTnI como para cTnT.....


(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 15 de Julio 
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



miércoles, 9 de julio de 2025

1258- Galectinas: sus funciones en la salud y la enfermedad

F Troncoso, María T Elola, Ada G Blidner, Luciana Sarrias , María V Espelt , Gabriel A Rabinovich. El universo de los ligandos de unión a galectina y sus funciones en la salud y la enfermedad", J Biol Chem. 2023 ;299(12):105400. Departamento de Química Biológica, Facultad de Farmacia y Bioquímica, Universidad de Buenos Aires, Instituto de Química y Fisicoquímica Biológicas (IQUIFIB) Prof Alejandro C. Paladini, CONICET, Universidad de Buenos Aires. Laboratorio de Glicomedicina, Instituto de Biología y Medicina Experimental (IBYME-CONICET), Buenos Aires, Facultad de Ciencias Exactas y Naturales, Universidad de Buenos Aires, Argentina

Resumen ChatGeminis 2.5

El artículo analiza las Galectinas, una familia de proteínas que se unen a glicanos. Estas proteínas son cruciales para diversos procesos biológicos, como la reparación tisular, la adipogénesis, la homeostasis de las células inmunitarias, la angiogénesis y el reconocimiento de patógenos.

Los puntos claves

Papel en la salud y la enfermedad: Las galectinas desempeñan un papel fundamental en diversos procesos biológicos. Sin embargo, su desregulación y la de sus ligandos se relacionan con diversas patologías, como el cáncer, la inflamación autoinmune, las infecciones, la fibrosis y los trastornos metabólicos.

Mecanismo de acción: Las galectinas interactúan mediante interacciones proteína-glicano o proteína-proteína, influyendo en el inicio, la perpetuación y la resolución de estos procesos biológicos y patológicos. Esto sugiere su potencial para el seguimiento y el tratamiento de enfermedades.

Complejidad y desafíos: A pesar del progreso significativo en la comprensión de las galectinas, aún se está desarrollando una comprensión completa de su biología y potencial terapéutico debido a su diversidad, numerosos objetivos celulares y promiscuidad de receptores.

Enfoque del artículo: El artículo se centra específicamente en discutir los múltiples ligandos de unión de galectina encontrados en diferentes tipos de células y sus contribuciones a entornos fisiológicos y patológicos seleccionados.

Implicaciones futuras: comprender la base molecular de las interacciones galectina-ligando, incluida su dependencia de glicano, la naturaleza bioquímica de receptores específicos y los eventos de señalización subyacentes, podría ayudar a desarrollar estrategias terapéuticas racionales para una amplia gama de condiciones patológicas.

Resumen del articulo

Las galectinas, una familia de proteínas de unión a glicanos conservadas evolutivamente, desempeñan un papel fundamental en diversos procesos biológicos, como la reparación tisular, la adipogénesis, la homeostasis de las células inmunitarias, la angiogénesis y el reconocimiento de patógenos. La desregulación de las galectinas y sus ligandos se ha observado en una amplia gama de afecciones patológicas, como el cáncer, la inflamación auto inmune, las infecciones, la fibrosis y los trastornos metabólicos. Mediante interacciones proteína-glicano o proteína-proteína, estas lectinas endógenas pueden influir en el inicio, la perpetuación y la resolución de estos procesos, lo que sugiere su posible papel en el seguimiento y el tratamiento de enfermedades. Sin embargo, a pesar de los considerables avances, no se ha alcanzado una comprensión completa de la biología y el potencial terapéutico de las galectinas debido a su diversidad, la multiplicidad de dianas celulares y la promiscuidad de sus receptores. En este artículo, analizamos las múltiples parejas de unión a galectinas presentes en diferentes tipos celulares, centrándonos en su contribución a determinados contextos fisiológicos y patológicos. Comprender las bases moleculares de las interacciones galectina-ligando, particularmente su dependencia de glicano, la naturaleza bioquímica de receptores seleccionados y los eventos de señalización subyacentes, podría contribuir al diseño de estrategias terapéuticas racionales para controlar una amplia gama de condiciones patológicas.

Introducción

Las galectinas son una familia de proteínas de unión a glicanos conservadas evolutivamente que reconocen múltiples unidades de N- acetil-lactosamina (LacNAc, Galβ1,4GlcNAc) presentes en N- y O -glicanos en los glicoconjugados de la superficie celular. Estas lectinas se definen por al menos un dominio de reconocimiento de carbohidratos (CRD) con afinidad por β-galactósidos y motivos de secuencia conservados. 

Hasta la fecha, se han descrito 15 galectinas en mamíferos y según sus características estructurales, se clasifican en tres grupos: las galectinas “prototipo” (galectina-1, galectina-2, galectina-5, galectina-7, galectina-10, galectina-11/-15, galectina-13, galectina-14 y galectina-16) contienen un CRD y pueden dimerizar; Las galectinas de tipo repetición en tándem (galectina-4, galectina-6, galectina-8, galectina-9 y galectina-12) contienen dos CRD distintos en tándem, conectados por un péptido conector; y la galectina-3 de tipo quimera, que consiste en tramos cortos inusuales ricos en prolina y glicina fusionados al CRD. En particular, se han identificado en tejidos humanos las galectinas-1, 1-2-3-4-7-8 -9-10-12-13-14- y 16 ......

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 12 de Julio 
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina




domingo, 6 de julio de 2025

1257-Evolución histórica del Laboratorio de Fisiología (4)

Editor:   Bagnarelli Aníbal E.
Fuente:  Chat Geminis 2.5/ DeepSeek

  • Parte 1- Laboratorio clínico
  • Parte 2- Laboratorio especializado
  • Parte 3- Laboratorio de alta complejidad
  • Parte 4- Laboratorio de fisiología

Parte 4- Laboratorio de Fisiología

Resumen

La evolución histórica del laboratorio de fisiología marca una profunda transformación, desde la investigación filosófica antigua hasta una disciplina científica rigurosa, basada en la evidencia y altamente institucionalizada. Este informe rastrea esta trayectoria, destacando el cambio crucial de la contemplación teórica a la experimentación sistemática, impulsado por un deseo insaciable de desentrañar los complejos mecanismos que subyacen a las funciones corporales. Las primeras observaciones anatómicas, aunque fundamentales, carecían de las metodologías controladas y cuantificables que posteriormente definirían la fisiología experimental. El siglo XIX resultó revolucionario, al presenciar el surgimiento de laboratorios especializados y la invención de instrumentos de precisión que permitieron la medición objetiva y fomentaron una comprensión mecanicista de la vida. Este período también suscitó importantes debates éticos, en particular en relación con la experimentación con animales, que siguen influyendo en las prácticas de investigación actuales.

La institucionalización de la fisiología en las universidades y la formación de sociedades profesionales consolidaron su estatus como campo científico independiente, impulsando tanto la investigación como la educación. Los avances tecnológicos posteriores, desde la electrofisiología hasta sofisticadas técnicas bioquímicas y celulares, profundizaron el enfoque reduccionista, permitiendo el aislamiento y el análisis detallado de los procesos biológicos a escalas cada vez más finas. La segunda mitad del siglo XX y la era actual se caracterizan por el impacto transformador de la genética molecular, la genómica, la proteómica y el floreciente campo de la biología de sistemas, que busca integrar datos diversos para comprender las propiedades emergentes de los sistemas biológicos complejos. Simultáneamente, las tecnologías avanzadas de imagenología y dispositivos portátiles están revolucionando la adquisición de datos y su aplicación clínica. Este informe demuestra la interacción dinámica entre el descubrimiento científico, la innovación tecnológica y la evolución de los valores sociales que ha convertido al laboratorio de fisiología en un pilar indispensable de la ciencia biológica y médica moderna.

Introducción: Definición del Laboratorio de Fisiología

De la investigación filosófica a la ciencia empírica

La fisiología, el estudio científico de las funciones y mecanismos de los sistemas vivos, ha experimentado una profunda transformación a lo largo de los siglos. Su evolución abarca desde reflexiones filosóficas especulativas sobre los procesos vitales hasta una disciplina rigurosa, basada en la evidencia y experimental que hoy sustenta la medicina moderna, las ciencias de la salud y diversos campos de la biología .Esta trayectoria representa un cambio fundamental de la contemplación teórica a la investigación empírica, impulsada por un deseo creciente de desentrañar los complejos mecanismos que subyacen a las funciones corporales.

El concepto de "laboratorio" en fisiología, como un entorno dedicado y controlado para la experimentación sistemática, es relativamente moderno. Si bien las primeras observaciones y disecciones sentaron las bases, el laboratorio fisiológico formal, tal como se entiende comúnmente hoy en día, surgió con claridad en los siglos XVIII y XIX con la llegada de los métodos experimentales cuantificables.

Alcance y contexto histórico

Este informe rastrea minuciosamente la evolución histórica del laboratorio de fisiología, examinando las contribuciones fundamentales de figuras clave, los avances progresivos en las metodologías experimentales, el impacto transformador de las innovaciones tecnológicas y el proceso crucial de institucionalización de la disciplina. Destaca cómo la búsqueda persistente de la comprensión de los intrincados procesos de la vida requirió el desarrollo de espacios especializados, herramientas sofisticadas y marcos éticos en constante evolución, demostrando la trayectoria de la fisiología hasta convertirse en un pilar indispensable de la ciencia biológica y médica.

1- Fundamentos tempranos del pensamiento fisiológico (de la Antigüedad al Renacimiento)

1.1- Civilizaciones antiguas y conocimientos anatómicos tempranos

Los orígenes del pensamiento fisiológico están profundamente entrelazados con la naciente historia de la medicina y la filosofía. Culturas antiguas, como la egipcia, la griega y la india, comenzaron a formular ideas rudimentarias sobre la naturaleza del cuerpo humano y sus funciones.

Los antiguos egipcios fueron de los primeros en intentar comprender el cuerpo humano. Aunque no poseían las herramientas científicas disponibles hoy en día, su conocimiento de la anatomía y los procesos fisiológicos básicos era avanzado para su época. La medicina egipcia se basaba en aplicaciones prácticas, especialmente relacionadas con la momificación, que implicaba la preservación de cuerpos y la observación de su estructura. Esta práctica probablemente condujo a los primeros estudios anatómicos y a una comprensión rudimentaria de los sistemas orgánicos, como el cardiovascular y el digestivo.

Hipócrates, figura clave de la medicina griega antigua, propuso la teoría de los cuatro humores (sangre, flema, bilis amarilla y bilis negra). Creía que estos humores controlaban las funciones corporales y la salud, y que un desequilibrio conducía a la enfermedad. Aunque posteriormente se demostró que esta teoría era incorrecta, influyó profundamente en el pensamiento médico durante siglos, enfatizando el concepto de equilibrio corporal.Esto marcó un intento temprano, aunque teórico, de sistematizar la comprensión de los procesos corporales.

El médico romano Galeno (c.130-200 d.C.) se erige como la figura más influyente en fisiología y medicina durante más de un milenio. Basándose en el trabajo de pensadores griegos anteriores, Galeno realizó extensas disecciones anatómicas, principalmente en animales como monos y cerdos. Sus descubrimientos pioneros sobre el sistema circulatorio, el papel del cerebro en el control de las funciones corporales y las funciones específicas de órganos como el hígado y los riñones se convirtieron en una pieza clave del conocimiento médico durante siglos. A Galeno se le considera ampliamente el fundador de la fisiología experimental debido a su uso temprano y sistemático de la experimentación para obtener información sobre los sistemas del cuerpo.

Estas primeras contribuciones, si bien fundamentales, se desarrollaron en un marco distinto de la definición posterior, más rigurosa, de laboratorio fisiológico. Los primeros "experimentos" de Galeno solían ser más parecidos a observaciones detalladas durante la disección o demostraciones de relaciones anatómicas, que a manipulaciones controladas, basadas en hipótesis y con resultados cuantificables. El enfoque principal se mantuvo en la anatomía macroscópica y los marcos teóricos, como la teoría humoral, en lugar de en procesos fisiológicos dinámicos y mensurables. La ausencia de laboratorios dedicados y con abundante instrumental significó que la investigación se limitara a lo que podía observarse directamente o inferirse filosóficamente. Esto pone de relieve la naturaleza lenta y gradual del progreso científico, donde los cambios conceptuales a menudo preceden a las capacidades tecnológicas. El conocimiento anatómico fundamental acumulado durante este período fue un precursor necesario, pero la ausencia de herramientas experimentales sistemáticas e instalaciones especializadas impidió el surgimiento de la fisiología como una ciencia empírica verdaderamente diferenciada. La temprana dependencia de la disección animal, particularmente por parte de Galeno, también prefiguró los complejos debates éticos que posteriormente rodearían la vivisección en los florecientes laboratorios fisiológicos.

1.2- La Edad Media: conservación y expansión gradual

Durante la Edad Media, la transferencia del conocimiento clásico se vio facilitada significativamente por los eruditos en España, en particular en la famosa biblioteca de Córdoba, donde se conservaban obras de Avicena, Galeno y otros pensadores. En Europa, la Iglesia desempeñó un papel crucial en la salvaguardia del conocimiento médico, con bibliotecas monásticas que albergaban numerosos textos clásicos y monjes que a menudo ejercían como médicos de cabecera. Sin embargo, la práctica médica durante este período siguió siendo mayoritariamente teórica, con un énfasis mínimo en la experimentación sistemática o la disección del cuerpo humano.Esta era vio principalmente la preservación y transmisión del conocimiento existente más que innovación significativa en fisiología experimental.....

1- Leer el artículo completo

2- Laboratorio Claude Bernard

(*) Una vez que esta en la pagina del articulo (2), pulsando el botón derecho puede acceder a su  traducción al idioma español Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. Nueva presentación el 09 de Julio. 
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina




jueves, 3 de julio de 2025

1256- Evolución histórica de un Laboratorio de Alta Complejidad (3)

George J. Race, G. Weldon Tillery, A. Dysert, II. Historia de los laboratorios de patología y medicina en el Baylor University Medical Center. Proc (Baylor Univ Med Cent). 2004; 17(1): 42-55. Department of Pathology, Baylor University Medical Center, Dallas, Texas.

Según los estándares modernos, los laboratorios de un gran centro médico representan un lugar para la síntesis y la aplicación de las ciencias básicas al tratamiento de pacientes mediante la investigación clínica y básica, la realización de miles de procedimientos diarios y la provisión de programas de enseñanza discretos. Estos laboratorios dependen de la institución mientras que la institución y sus estudiantes, médicos y pacientes dependen de ellos.

The laboratories at Baylor University Medical Center (BUMC) han evolucionado hasta convertirse en un servicio completamente automatizado que utiliza la última tecnología para realizar millones de procedimientos cada año para BUMC, hospitales y centros de salud afiliados al Baylor Health Care System (BHCS) y otros hospitales.

Desarrollo temprano del laboratorio de Patología y Medicina

La patología tiene sus orígenes en la medicina antigua, pero se desarrolló solo a medida que avanzaba la ciencia. Herófilo, uno de los grandes médicos griegos, junto con Erasístrato, dieron inicio a la anatomía patológica y la autopsia. Realizaron las primeras disecciones cadavéricas humanas científicas durante un período de 30 a 40 años. Entonces se prohibió la disección humana y no se volvió a permitir durante más de 1.800 años.

Los acontecimientos en el norte de África y el sur de Europa, especialmente en Monte Cassino y Salerno, llevaron al establecimiento de las líneas maestras de la educación médica clásica que prevalecerían durante medio milenio. Los elementos básicos de la teoría fisiológica y patológica siguieron siendo los cuatro humores básicos y las cuatro cualidades; su respectivo equilibrio se entendía como el objetivo de la salud. El desequilibrio humoral o la alteración de la tez pueden diagnosticarse fácilmente mediante el examen de la orina. Los procedimientos terapéuticos siguieron la tríada hipocrática de régimen, fármacos y cirugía, incluida la sangría.

Esta teoría humoral fue refutada durante la Ilustración del siglo XVIII cuando se desarrollaron los hospitales y la educación médica. El estudio de la patología comenzó a desarrollarse rápidamente a medida que las autopsias se realizaban con mayor frecuencia, especialmente aquellas realizadas después de que la enfermedad de un paciente había sido monitoreada en el hospital. Como resultado, los médicos comenzaron a creer que la patología podría informar el diagnóstico. Durante este período, Auenbrugger (1722–1809) desarrolló un método de auscultación (golpear el pecho y notar el sonido resultante) trabajando con cadáveres y luego con pacientes.

En el siglo XIX, la teoría celular avanzó. Theodore Schwann (1810-1882) descubrió células en todos los tejidos humanos. A mediados de la década de 1850, Rudolph Virchow (1821–1902) desarrolló el concepto de patología celular: se podía hacer un diagnóstico de enfermedad examinando las células 

Los avances en el conocimiento científico impactaron tanto en la práctica médica como en la educación médica en Europa y América. La aceptación de la anatomía como base de la enfermedad condujo al estudio de la anatomía, tanto teórica como práctica, “como piedra angular de toda enseñanza médica”.

Durante la primera mitad del siglo XIX, el estudio de la anatomía en los EE. UU. se vio afectado por una “escasez de hospitales y clínicas docentes, la falta de profesores a tiempo completo y, especialmente, la ausencia de un control centralizado sobre lo que se enseñaba y quién podía ejercer la medicina” . La anatomía patológica no se enseñaba como una materia independiente, sino que a menudo se combinaba con la medicina o quizá con la anatomía.

Las reformas muy necesarias en la educación médica se realizaron en los EE. UU. en las décadas posteriores a la Guerra Civil. La Universidad de Harvard hizo reformas en 1871, enfatizando el “aprender haciendo”. Estas reformas fueron seguidas por reformas en la Universidad de Pensilvania y la Universidad de Michigan. Sin embargo, la innovación más espectacular en la historia de la educación médica estadounidense fue la apertura de la Escuela de Medicina Johns Hopkins, que proporcionó dos años de instrucción en ciencias básicas y trabajo de laboratorio obligatorio .

A medida que se hacían avances en Europa y en las ciudades estadounidenses donde las facultades de medicina se desarrollaban sobre una base científica, las nociones fundamentales de patología cambiaron más lentamente en la mayor parte del país:

Las ideas más antiguas sobre la naturaleza de la enfermedad seguían siendo indispensables. Para la mayoría de los médicos de mediados de siglo, una enfermedad aún podía convertirse en otra; la enfermedad seguía siendo, en muchos sentidos, un lugar dentro del espectro de posibilidades fisiológicas, no una entidad categórica capaz de afligir a casi cualquier persona con los mismos patrones de síntomas, como sostenían los más devotos defensores de la medicina francesa.

Las definiciones holísticas de la enfermedad como un estado general del organismo eran consistentes con las actitudes sociales hacia la necesidad y la dependencia, ya que ambas incluían elementos tanto morales como materiales. En ambos, la interacción del individuo y el entorno bien podría generar salud o enfermedad, prosperidad o pobreza. A mediados de siglo, cada aspecto de la relación entre el conocimiento médico y el hospital era incierto y estaba sujeto a negociación futura........

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. Nueva presentación el 06 de Julio. 
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


lunes, 30 de junio de 2025

1255- Evolución histórica del laboratorio especializado (2)


Editor: Bagnarelli Aníbal E.
Fuente: Chat Geminis 2.5

Parte 1- Laboratorio clínico.

Parte 2- Laboratorio especializado
Parte 3- Laboratorio de alta complejidad

                                                    Parte 2- Laboratorio Especializado

1- Laboratorio de Quimica Clínica

La historia del laboratorio de química clínica es un recorrido fascinante desde las observaciones rudimentarias hasta los sistemas altamente automatizados y sofisticados que sustentan la medicina moderna. Su evolución puede dividirse, a grandes rasgos, en varios períodos clave:

I. Primeros comienzos (desde la Antigüedad hasta el siglo XIX):

  • Diagnóstico basado en la observación: Las primeras formas de diagnóstico se basaban en gran medida en la observación visual y sensorial de los fluidos corporales. Los médicos de la antigüedad, incluido Hipócrates, examinaban la orina para determinar su color, claridad e incluso sabor (la orina dulce indicaba diabetes).También observaron las propiedades físicas de la sangre y otras excreciones.

  • Análisis químico rudimentario: Si bien no se trata de química clínica tal como la conocemos, la base de este proceso se sembró con la comprensión temprana de la química. Por ejemplo, a finales del siglo XVII, Frederik Dekkers observó que la orina con proteínas formaba un precipitado al hervirse con ácido acético, un paso fundamental en el análisis de orina.

  • Surgimiento de la química y la fisiología: A finales del siglo XVIII y principios del XIX se produjo el surgimiento de la química orgánica y la química fisiológica, que proporcionaron una base científica para analizar los componentes del cuerpo.Esta época marcó los primeros vínculos entre los laboratorios y la investigación, la enseñanza y, finalmente, el diagnóstico clínico en el ámbito hospitalario, especialmente en Francia y Alemania.

  • Métodos analíticos simples: A mediados del siglo XIX, los avances en la química orgánica permitieron la aplicación de técnicas de análisis de fluidos para el diagnóstico. El análisis de orina (p. ej., para albúmina, cetonas, bilirrubina y urea) y los primeros análisis de sangre (p.ej., glucosa, colesterol y pH) comenzaron a adquirir relevancia. Estos métodos eran mayoritariamente manuales y se basaban en técnicas como la colorimetría y la titulación.

II. El amanecer del laboratorio clínico moderno (finales del siglo XIX y mediados del siglo XX):

  • Formalización de los laboratorios clínicos: A finales del siglo XIX y principios del XX, los laboratorios clínicos se implementaron ampliamente en Europa y Estados Unidos. Los hospitales reconocieron la importancia de contar con instalaciones centralizadas para las pruebas diagnósticas.

  • Profesionalización de los químicos clínicos: A medida que los métodos se volvieron más complejos, surgió una nueva clase de especialistas: químicos, farmaceuticos, bioquímicos clínicos, o científicos de laboratorio, para dirigir la investigación y el trabajo rutinario en los mismos. Se empezaron a formar sociedades profesionales con sus diversaa titulaciones en Europa (p.ej., la Société Française de Biologie Clinique en 1942) y posteriormente AACC en Estados Unidos.

  • Nuevas pruebas y métodos de diagnóstico: A principios del siglo XX se desarrollaron nuevos métodos basados en colorimetría visual en pequeños volúmenes de muestra, lo que impulsó el desarrollo de la química clínica. También este período fue crucial para el desarrollo de pruebas diagnósticas que impulsaron la "época dorada" del desarrollo de fármacos, como el seguimiento de los niveles de glucosa en sangre y orina para el tratamiento con insulina.

  • Automatización inicial: mediados del siglo XX, particularmente de 1948 a 1960, fue una época con la introducción de tecnologías innovadoras como el tubo Vacutainer (para la recolección de muestras), la electroforesis y el radioinmunoensayo. Sin embargo, los laboratorios todavía eran en gran medida manuales, con un uso extensivo de cristalería y técnicas laboriosas.

III. La era de la automatización y la especialización (mediados del siglo XX hasta la actualidad):

  • El autoanalizador (década de 1950): este invento de Leonard Skeggs supuso un punto de inflexión revolucionario.El primer analizador automatizado de química clínica podía realizar numerosas pruebas simultáneamente, lo que aumentaba drásticamente la eficiencia, reducía los errores y estandarizaba los resultados. Esto sentó las bases para las pruebas automatizadas modernas.

  • Avances tecnológicos: La integración de la espectrofotometría, los inmunoensayos y los métodos enzimáticos en analizadores automatizados amplió aún más el alcance y la precisión de las pruebas. El desarrollo de los inmunoensayos por Rosalyn Yalow y Solomon Berson en la década de 1950 (Premio Nobel en 1977) supuso un gran avance, permitiendo pruebas diagnósticas de alta sensibilidad.

  • Especialización en análisis clínicos: a medida que se produjeron avances técnicos, el campo comenzó a dividirse en especializaciones en análisis clínicos cada vez más sofisticado en sangre y orina.

  • Gestión de datos e informatización: A principios de la década de 1980 surgieron los primeros sistemas de información clínica (LIS) para que los laboratorios gestionaran los datos de las pruebas de los pacientes. A finales del siglo XX, se fusionaron el hardware y el software de los analizadores, lo que dio lugar a sofisticados sistemas de gestión de datos y soluciones informáticas.Esto mejoró la eficiencia, la productividad y el cumplimiento normativo.

  • Automatización total de laboratorio (TLA): impulsados por las crecientes demandas de eficiencia, precisión y tiempos de respuesta rápidos, los sistemas TLA integran tecnologías avanzadas en las fases preanalíticas, analíticas y posanalíticas. Esto agiliza los flujos de trabajo, reduce la intervención manual y mejora el control de calidad.

  • Calidad y normativa: La creciente complejidad e importancia de las pruebas de laboratorio condujo a un mayor énfasis en la calidad de sus resultados. Las normativas y certificaciones (p.ej., ISO y CLIA en EE. UU.) adquirieron una relevancia creciente para garantizar precisión y fiabilidad.

IV. Tendencias e innovaciones futuras:

  • Miniaturización y pruebas en el punto de atención (POCT): la tendencia hacia analizadores más pequeños y portátiles está acercando los diagnósticos a los pacientes, reduciendo los tiempos de respuesta y haciendo que las pruebas sean accesibles en diversos entornos (por ejemplo, ubicaciones remotas, ambulancias, atención domiciliaria).

  • Integración de IA y aprendizaje automático: se están integrando algoritmos de IA para analizar conjuntos de datos complejos, identificar patrones, predecir la progresión de enfermedades e incluso recomendar diagnósticos.Esto optimizará los flujos de trabajo, interpretará los resultados y mejorará el análisis de datos.

  • Conectividad mejorada y uso compartido de datos: la integración perfecta de los analizadores con plataformas de salud digital, el monitoreo remoto y la colaboración en tiempo real entre proveedores de atención médica se está volviendo crucial para una atención eficiente al paciente y una toma de decisiones informada.

  • Medicina personalizada: Los avances en el diagnóstico molecular, incluida la secuenciación de próxima generación y las biopsias líquidas, están permitiendo tratamientos personalizados e intervenciones más tempranas basadas en las necesidades individuales de cada paciente.

  • Enfoque en la eficiencia y la dotación de personal: la escasez constante de personal está impulsando la necesidad de una automatización aún mayor para agilizar las operaciones, reducir los errores humanos y permitir que el personal de laboratorio se concentre en tareas más complejas.

En esencia, el laboratorio de química clínica se ha transformado desde un proceso manual y laborioso a un componente altamente automatizado, basado en datos y cada vez más inteligente de la atención médica moderna, adaptándose continuamente para brindar información de diagnóstico más rápida, más precisa y más completa para la atención del paciente.

Leer el artículo completo

(*)  Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 03 de Julio
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina

viernes, 27 de junio de 2025

1254- Evolución histórica del Laboratorio Clínico (1)

Editor: Bagnarelli Aníbal E.
Fuente: Chat Geminis 2.5

  • Parte 1- Laboratorio clínico
  • Parte 2- Laboratorio especializado
  • Parte 3- Laboratorio de alta complejidad
  • Parte 4- Laboratorio de Fisiología

Parte 1- Laboratorio Clínico

Resumen

La evolución del laboratorio de bioquímica y patología clínica en sus diversas denominaciones (en adelante laboratorio clínico) representa una trayectoria notable, desde prácticas diagnósticas rudimentarias hasta instalaciones sofisticadas, automatizadas y altamente especializadas, indispensables para la atención médica moderna. Este informe rastrea esta progresión histórica, destacando los desarrollos paralelos e interconectados entre ellos. Examina cómo los descubrimientos científicos fundamentales, las innovaciones tecnológicas transformadoras, la profesionalización de la ciencia de laboratorio y el impacto catalizador de los acontecimientos globales han moldeado colectivamente estas complejas entidades. La narrativa culmina en la era de la medicina personalizada, impulsada por los avances genómicos, y aborda los profundos desafíos y las aceleraciones generadas por las recientes pandemias, subrayando el papel crucial y en constante evolución de los laboratorios en la salud global.

1. Introducción: Definición del laboratorio moderno y sus raíces históricas

1.1. Conceptualización del laboratorio clínico de alta complejidad

Un laboratorio clínico moderno y de alta complejidad se caracteriza por su carácter multidisciplinario, ya que cuenta con instrumentación avanzada y personal especializado. Su función crucial va más allá de las simples pruebas, abarcando el diagnóstico, el pronóstico, la monitorización del tratamiento y la vigilancia de la salud pública. Estos laboratorios integran diversas disciplinas científicas, desde la química clínica y la microbiología hasta el diagnóstico molecular y la patología, para proporcionar información completa y precisa, esencial para la atención al paciente y la gestión de la salud de la población. Esta definición contemporánea sirve como referencia para medir la trayectoria histórica de estas instituciones vitales.

1.2. Precursores tempranos: de las observaciones antiguas a los talleres alquímicos

Más allá del examen directo del paciente, los primeros talleres especializados, con raíces en la alquimia, la metalurgia y la farmacia, también contribuyeron a la génesis conceptual del laboratorio. Estos espacios se dedicaban a actividades específicas que implicaban el calentamiento, el tratamiento y la separación de sustancias, sentando un precedente para los entornos experimentales controlados.Las prácticas de la uroscopia antigua y los talleres alquímicos, aunque aparentemente dispares y carentes de la comprensión científica moderna, compartían un impulso subyacente común: el impulso humano de analizar sistemáticamente las sustancias y observar los cambios con fines prácticos, ya fueran médicos o materiales. Esta curiosidad precientífica y el establecimiento de espacios dedicados a tales investigaciones sentaron las bases cognitivas y prácticas para los métodos de laboratorio más rigurosos que surgirían mucho más tarde. La idea fundamental de un laboratorio, por lo tanto, es anterior al método científico formal, y evolucionó a partir de la necesidad práctica y del deseo humano inherente de comprender y manipular el mundo natural.

1.3. Ámbito geográfico y periodización

Este informe se centra explícitamente en las trayectorias históricas de los LBPC , reconociendo sus trayectorias de desarrollo, distintas pero a menudo interconectadas. El marco cronológico abarca desde la antigüedad hasta los siglos XVII, XVIII, XIX y XX, y hasta el siglo XXI, ofreciendo una narrativa estructurada de esta compleja evolución.

Las primeras formas de dignosticos y pruebas clínicas se remontan a civilizaciones antiguas, donde se empleaban métodos rudimentarios para comprender las enfermedades.

La antigua China, fue testigo del desarrollo de la Medicina Tradicional China (MTC), cuyos principios se describen en el Canon Interno del Emperador Amarillo, que data del siglo I o II a.C. La MTC estableció cuatro métodos diagnósticos principales que se siguen practicando en la actualidad: Palpación, Auscultación y Olfato, Indagación y Palpación Un aspecto importante de la medicina china antigua fue la uroscopia, en la que se recogía la orina del paciente en un matraz llamado matula y se sometía a una inspección detallada basada en cuatro criterios: Color, Consistencia, Olor y presencia de Precipitado. Se creía que las diferentes características de la orina correspondían a desequilibrios corporales y a regiones específicas del organismo. Reflejaban un enfoque holístico del diagnóstico. El énfasis de la MTC en la observación del paciente y el análisis de los signos corporales, incluyendo un examen detallado de la orina, demuestra una comprensión sofisticada de los indicadores corporales de salud y enfermedad. Los cuatro métodos de diagnóstico proporcionan un marco integral para evaluar el estado del paciente, mientras que los criterios detallados para la inspección de orina ilustran un enfoque sistemático para extraer información diagnóstica de los fluidos corporales.

En el Antiguo Egipto, ya entre el 2630 y el 2611 a.C., la comprensión médica, documentada en textos como el Papiro de Edwin Smith, se centraba en la aplicación del diagnóstico al tratamiento, basándose principalmente en la observación de los síntomas. El Papiro de Ebers, que data de alrededor del 1550 a.C., también detallaba el conocimiento médico; sin embargo, los profesionales de la salud de esa época carecían de los medios para realizar pruebas en el sentido moderno, y se basaban en cambio en la identificación de problemas a través de síntomas relacionados con diferentes organos como el tracto digestivo, el sistema cardiovascular, el hígado, el bazo y el ciclo menstrual. Los antiguos egipcios creían que el cuerpo tenía veintidós vasos sanguíneos conectados a sustancias esenciales como la sangre, el aire y la mucosidad, lo que refleja un intento temprano por comprender sus conexiones fisiológicas. Cabe destacar como ejemplo que desarrollaron formas tempranas de pruebas de embarazo, documentadas en el Papiro Médico de Berlín y el Papiro de Carlsberg, que datan del Imperio Medio, alrededor del 2040-1782 a.C., que consistían en que una mujer orinara sobre bolsas de cebada y trigo y la germinación de los granos se interpretaba como un resultado positivo. Este bioensayo temprano, en el que se utilizó una respuesta biológica como la germinación para detectar un estado fisiológico como el embarazo representa un paso fundamental hacia las pruebas de laboratorio, entrelazando la observación práctica con sus creencias espirituales. Otras pruebas interesantes mencionadas en el Papiro de Carlsberg incluían el uso de excrementos de hipopótamo y ajo para evaluar afecciones relacionadas también con el embarazo. Sin embargo, la práctica de la medicina en el antiguo Egipto estaba estrechamente relacionada con la magia y los hechizos religiosos, que se consideraban esenciales tanto para el diagnóstico como para el tratamiento, junto con remedios empíricos. Además de la orina, otros fluidos corporales como la sangre menstrual, la leche y el semen tenían un significado simbólico y, en ocasiones, había rituales vinculado a las creencias sobre el nacimiento, el renacimiento y la salud general dentro de su marco cultural. La comprensión egipcia de estos fluidos corporales revela un contexto cultural más profundo donde estas sustancias estaban imbuidas de un significado más allá de su naturaleza física.

En la antigua Babilonia, alrededor de 1069-1046 a.C., el Manual de Diagnóstico escrito por Esagil-kin-apli marcó un avance al introducir el empirismo, la lógica y racionalidad en el diagnóstico de enfermedades. Este texto enfatizaba la observación cuidadosa de los síntomas y el uso de reglas lógicas para combinar estas observaciones con un diagnóstico y pronóstico. Los médicos babilónicos ponían minuciosa atención al cuerpo del paciente, anotando meticulosamente cualquier signo que pudiera ser relevante para la enfermedad, incluyendo evaluaciones detalladas de la temperatura corporal mediante el tacto y las características de la flema en casos de neumonía. Los médicos se categorizaban en Asu, los que trataban las enfermedades empíricamente, y Asipu, los que se basaban en conjuros mágicos. Ambos ocupaban posiciones respetadas dentro de la sociedad y reconocían el origen sobrenatural de las enfermedades. La medicina babilónica, aunque aún arraigada en creencias sobrenaturales, demostró una notable progresión hacia la observación sistemática y el razonamiento lógico en el diagnóstico, sentando las bases tempranas del método científico en medicina. El enfoque estructurado del Manual de Diagnóstico para vincular los síntomas observados con diagnósticos específicos sugiere un sistema de razonamiento médico más formalizado en comparación con el enfoque basado en síntomas, predominante en el antiguo Egipto. Si bien las explicaciones sobrenaturales para las enfermedades eran comunes, el enfoque de los Asu en los tratamientos empíricos indica una comprensión creciente de las causas naturales de las enfermedades.

En la antigua Grecia y Roma, la Teoría Humoral, atribuida a Hipócrates (460- 370 a.C.) y posteriormente elaborada por Galeno (129-199/216 d.C.), se convirtió en el paradigma médico dominante. Esta teoría proponía que el cuerpo estaba compuesto por cuatro humores: sangre, flema, bilis amarilla y negra, y que la salud resultaba de un equilibrio perfecto entre ellos, mientras que la enfermedad era causada por su desequilibrio.La Teoría Humoral, a pesar de su posterior refutación, marcó un cambio significativo en Grecia hacia explicaciones naturalistas de las enfermedades. La adopción y expansión romana de estas ideas, junto con su enfoque en la salud pública, indican una comprensión temprana de la prevención de enfermedades a nivel poblacional. La medicina romana, fuertemente influenciada por los griegos, incorporó métodos de diagnóstico como la lectura del pulso, donde los médicos desarrollaron clasificaciones intrincadas creyendo que los diferentes tipos de pulso indicaban dolencias específicas, y el análisis de orina que podía incluir la degustación permitía identificar ciertos sabores y colores asociados con enfermedades y la palpación física. Si bien también tenían creencias espirituales, los médicos romanos, al igual que sus homólogos griegos, se basaban en observaciones naturalistas en lugar de únicamente en rituales espirituales para el diagnóstico. Los romanos también hicieron contribuciones significativas a la salud pública y la higiene, comprendiendo la importancia del saneamiento y el agua potable para prevenir la propagación de enfermedades, como lo demuestra la construcción de acueductos y sistemas de alcantarillado...... 

Leer el artículo completo

(*)  Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 30 de Junio  
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina