martes, 5 de noviembre de 2024

1104- Enfermedad celíaca: anticuerpos antipéptidos de gliadina desamidados

Abdulrahman Al-Hussaini, Abdullah Al-Jurayyan, Sahar Alharbi, Muhammed Salman Bashir, Riccardo Troncone. Rendimiento de los anticuerpos antipéptidos de gliadina desamidados como primera prueba de detección de la enfermedad celíaca en la población pediátrica. Front Pediatr. 2023; 11: 1279825. Division of Pediatric Gastroenterology, Children’s Specialized Hospital, Riyadh, Saudi Arabia

Resumen (ChatGPT)

Introducción:  La enfermedad celíaca (EC) es un trastorno autoinmune desencadenado por la ingestión de gluten en individuos genéticamente predispuestos. Afecta a diversos grupos de edad, incluidos los niños, y puede provocar complicaciones de salud importantes si no se diagnostica. La detección temprana y precisa es crucial para un tratamiento eficaz. Este estudio evalúa el rendimiento de los anticuerpos antipéptidos de gliadina desamidados (DGP-IgA y DGP-IgG) como herramienta de detección de primera línea para la enfermedad celíaca en la población pediátrica general.

Antecedentes: Tradicionalmente, la detección de la enfermedad celíaca se realiza mediante pruebas serológicas de anticuerpos antitransglutaminasa tisular (tTG-IgA) y anticuerpos endomisiales (EMA). Sin embargo, estas pruebas pueden no ser siempre fiables en poblaciones más jóvenes o en determinados contextos clínicos. Los anticuerpos anti-DGP han surgido como una posible alternativa debido a su facilidad de uso y sensibilidad. Estudios previos indicaron que los anticuerpos anti-DGP podrían servir como marcadores eficaces, especialmente en la cohorte pediátrica.

Objetivos: El objetivo principal del estudio fue evaluar la sensibilidad, la especificidad y el rendimiento general de DGP-IgA y DGP-IgG como herramientas de detección de la enfermedad celíaca en niños. El estudio tuvo como objetivo determinar si estos anticuerpos podían identificar de manera confiable a los niños en riesgo de enfermedad celíaca antes de realizar pruebas confirmatorias con una biopsia intestinal.

Métodos:  El estudio se realizó en una cohorte de niños de la población pediátrica general, con edades comprendidas entre 2 y 18 años. A los participantes se les realizaron pruebas de anticuerpos DGP-IgA y DGP-IgG, así como de tTG-IgA. A los niños con resultados serológicos positivos se les realizó una biopsia para confirmar el diagnóstico de enfermedad celíaca.

Se recogieron y analizaron datos para determinar las características de rendimiento de los anticuerpos DGP. Se calculó la sensibilidad (la capacidad de identificar correctamente a las personas con la enfermedad) y la especificidad (la capacidad de identificar correctamente a las personas sin la enfermedad). También se evaluaron el valor predictivo positivo (VPP) y el valor predictivo negativo (VPN) para medir la utilidad clínica de estas pruebas.

Resultados: En el estudio participaron una cantidad significativa de niños y los resultados demostraron que los anticuerpos DGP-IgA y DGP-IgG mostraron un rendimiento prometedor como herramientas de detección. Se descubrió que la sensibilidad de DGP-IgA era comparable a la de tTG-IgA, mientras que DGP-IgG mostró una sensibilidad ligeramente inferior pero una especificidad aceptable.

  • Sensibilidad y especificidad : La DGP-IgA tuvo una sensibilidad de aproximadamente el 90% y una especificidad del 95%, lo que la convierte en una prueba de detección inicial muy eficaz. La DGP-IgG mostró una sensibilidad de alrededor del 80%, pero mantuvo una especificidad similar.
  • Valores predictivos : El VPP para DGP-IgA también fue favorable, en particular en poblaciones con una prevalencia más alta de enfermedad celíaca. El VPN fue alto para ambas pruebas DGP, lo que sugiere que los resultados negativos pueden descartar la enfermedad de manera confiable.
  • Comparación con otras pruebas : en comparación con los marcadores tradicionales, los anticuerpos DGP tuvieron un rendimiento similar o mejor, especialmente en subconjuntos específicos de la población, como niños más pequeños o aquellos con síntomas atípicos.

Discusión:  Los resultados sugieren que los anticuerpos DGP podrían servir como una herramienta eficaz de detección de primera línea para la enfermedad celíaca en la población pediátrica. Su capacidad para detectar la enfermedad de forma temprana podría facilitar intervenciones oportunas, lo que podría reducir las complicaciones a largo plazo asociadas con la enfermedad celíaca no tratada.

El estudio destaca la importancia de utilizar una combinación de pruebas serológicas para mejorar la precisión diagnóstica. Si bien los anticuerpos DGP mostraron resultados prometedores, los autores recomiendan realizar más estudios para confirmar estos hallazgos y explorar el potencial de integrar las pruebas DGP en la práctica pediátrica de rutina.

Limitaciones: El estudio reconoció varias limitaciones, entre ellas la falta de una muestra de población diversa y la posibilidad de variabilidad en los métodos de análisis de laboratorio. Además, la dependencia de pruebas serológicas sin una evaluación clínica integral podría afectar la precisión del diagnóstico.

Conclusión:  En conclusión, los anticuerpos antipéptidos de gliadina desamidados (DGP-IgA y DGP-IgG) son eficaces como herramientas de detección de primera línea para la enfermedad celíaca en la población pediátrica general. Su alta sensibilidad y especificidad los convierten en candidatos adecuados para la detección temprana, lo que contribuye a mejores resultados clínicos para los niños afectados. Las investigaciones futuras deberían apuntar a validar estos hallazgos en cohortes más grandes y diversas, así como a investigar la posible integración de las pruebas DGP en las pautas clínicas para la detección de la enfermedad celíaca.

En general, este estudio proporciona evidencia convincente de que los anticuerpos DGP podrían desempeñar un papel fundamental en la identificación temprana y el tratamiento de la enfermedad celíaca en niños, mejorando en última instancia las prácticas de atención médica pediátrica.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 08 de Noviembre
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



viernes, 1 de noviembre de 2024

1103- Interferencia en inmunoensayos hormonales

Khaldoun Ghazal, Severine Brabant, Dominique Prie, Marie-Liesse Piketty. Interferencia en el inmunoensayo hormonal: actualización de 2021. NLM- Ann Lab Med. 2022 ;42(1):3-23. Assistance Publique Hopitaux de Paris, Department of Functional Explorations, Necker Enfants Malades Hospital, Paris-Centre University, Paris Cedex, France.

Reumen

Los inmunoensayos son técnicas analíticas cualitativas y cuantitativas muy potentes. Desde la primera descripción de un método de inmunoensayo en 1959, se han producido avances en los diseños de los ensayos y en las características analíticas, abriendo la puerta a su amplia aplicación en los laboratorios clínicos. La endocrinología clínica está estrechamente vinculada al  laboratorios clínico porque la cuantificación hormonal es importante para el diagnóstico, el tratamiento y el pronóstico de los trastornos endocrinos. A lo largo de los años se han identificado varias interferencias en los inmunoensayos y aunque algunas ya no se encuentran en la práctica diaria, la reacción cruzada, los anticuerpos heterófilos, la biotina y los anticuerpos antianalito siguen causando problemas. También están surgiendo nuevas interferencias con el desarrollo de nuevas terapias. La sustancia que interfiere puede ser exógena (p.ej., un fármaco o una sustancia absorbida por el paciente) o endógena (p.ej., anticuerpos producidos por el paciente), y el sesgo causado por la interferencia puede ser positivo o negativo. Las consecuencias de la interferencia pueden ser perjudiciales cuando los médicos consideran resultados erróneos para establecer un diagnóstico, lo que lleva a exploraciones innecesarias o tratamientos inadecuados. Los laboratorios clínicos y los fabricantes siguen investigando métodos para detectar, eliminar y prevenir interferencias. Sin embargo, ningún sistema está completamente libre de este tipo de incidentes. En esta revisión, nos centraremos en las interferencias analíticas que se encuentran en la práctica diaria y en las posibles soluciones para detectarlas o eliminarlas.

Introducción

Los inmunoensayos se utilizan ampliamente en los laboratorios clínicos para una variedad de análisis hormonales. Desde el primer inmunoensayo de insulina descrito por Berson y Yalow (que recibió el Premio Nobel de Medicina en 1977), los inmunoensayos han evolucionado considerablemente. Sin embargo, con la adaptación generalizada de estas técnicas, se han identificado varias interferencias. Los inmunoensayos son susceptibles a interferencias debido a las complejidades de la interacción antígeno (Ag)-anticuerpo (Ab) que ocurre en una matriz compleja. Dicha interferencia conduce a una interpretación incorrecta de los resultados del inmunoensayo, lo que lleva a exploraciones innecesarias o a la administración de una terapia inapropiada.

El diseño de inmunoensayos inicialmente dependía del desarrollo de Abs policlonales obtenidos de fuentes animales en un formato competitivo; en 1975, Köhler y Milstein describieron la técnica de desarrollo de Ab monoclonales (mAb) (que recibió el Premio Nobel de Medicina en 1984), lo que condujo al desarrollo de inmunoensayos no competitivos (sándwich) donde dos mAbs diferentes pueden reconocer el mismo Ag en un paso de incubación. La sensibilidad y especificidad de los inmunoensayos hicieron posible detectar y cuantificar analitos en concentraciones extremadamente bajas, lo que no era posible con otras técnicas de química clínica. Junto con las ventajas de un tiempo de medición rápido e instrumentos completamente automatizados, el rendimiento analítico mejorado llevó a que los inmunoensayos se convirtieran en una técnica ampliamente adoptada en los laboratorios clínicos.

Los sistemas analíticos se han desarrollado para ser más rápidos y eficientes con las ventajas de la evolución de la automatización para satisfacer las demandas de una mayor carga de trabajo y la necesidad de un análisis rápido. Sin embargo, estos avances están asociados con desventajas como la baja especificidad de los inmunoensayos directos de esteroides. Los sistemas también se han vuelto más confiables debido a las mejoras en los reactivos de inmunoensayo y los sistemas de detección de señales.

Estos avances han disminuido, pero no eliminado por completo, la incidencia de interferencias en los inmunoensayos. Todavía se producen errores analíticos debidos a interferencias endógenas en algunas muestras de pacientes. La interferencia puede inducir resultados falsos positivos, falsos negativos o ambos, que pueden simular un perfil hormonal aparentemente coherente que podría dar lugar a exploraciones innecesarias, tratamientos inadecuados o un diagnóstico erróneo.

En esta revisión, analizamos los tipos de inmunoensayos que se utilizan habitualmente en los laboratorios, los mecanismos implicados en posibles interferencias analíticas in vitro y las soluciones y estrategias empleadas para sospechar y superar dichas interferencias, incluidas las interferencias emergentes notificadas recientemente. La modificación de las concentraciones hormonales por la acción farmacológica de un fármaco queda fuera del alcance de esta revisión y no se abordará......

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 05 de Noviembre
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



lunes, 28 de octubre de 2024

1102- Fase pre-analitica - Dia del Jubilado Bioquimico

Janne Cadamuro Ana-Maria Simundic. Fase preanalítica: de un laboratorio de medicina centrado en el instrumento a uno centrado en el paciente. De Gruyter- Clini Chem Labor Medi (CCLM). 2023; 61(5). Department of Laboratory Medicine, Paracelsus Medical University Salzburg, Au

Resumen Chat (GPT)

El artículo aborda un aspecto crítico, pero a menudo pasado por alto: la fase pre-analítica. Esta fase abarca todos los procedimientos desde el punto de preparación del paciente hasta el análisis de las muestras, e influye significativamente en la calidad de los resultados de laboratorio. Tradicionalmente, las prácticas de laboratorio se han centrado en gran medida en los instrumentos y las tecnologías utilizadas para las pruebas, descuidando a menudo los factores humanos y contextuales que afectan a la recolección y manipulación de las muestras.

Importancia de la fase pre-analítica

La fase pre-analítica es responsable de una proporción sustancial de errores en las pruebas de laboratorio, que se estima que oscilan entre el 30% y el 70%. Los factores que contribuyen a estos errores incluyen la recolección incorrecta de muestras, el etiquetado incorrecto y los problemas de transporte. El artículo enfatiza que optimizar esta fase es crucial para mejorar los resultados de los pacientes y garantizar procesos de diagnóstico precisos.

Cambio hacia una atención centrada en el paciente

Los autores abogan por un cambio de paradigma en el laboratorio de medicina, desde un enfoque centrado en los instrumentos a un enfoque centrado en el paciente. Esta transición implica priorizar las necesidades y experiencias de los pacientes durante todo el proceso de análisis. Un entorno de laboratorio centrado en el paciente tiene en cuenta factores como:

  • Preparación del paciente : proporcionar instrucciones claras a los pacientes sobre el ayuno, las restricciones de medicación y el momento de la toma de muestras.
  • Capacitación del personal : garantizar que los profesionales de la salud involucrados en el proceso de recolección estén bien capacitados y sean sensibles a las necesidades de los pacientes.
  • Participación del paciente : involucrar a los pacientes en sus decisiones de atención médica, lo que puede mejorar su comprensión del proceso de prueba y su importancia.

Estrategias de mejora

El artículo propone varias estrategias para mejorar la fase preanalítica:

  • Protocolos estandarizados : desarrollar protocolos claros y estandarizados para la recolección y manipulación de muestras para minimizar la variabilidad y los errores.
  • Programas de capacitación : Implementar capacitación integral al personal de laboratorio sobre la importancia de la fase pre-analítica y las mejores prácticas para la interacción con el paciente.
  • Uso de tecnología : aprovechar la tecnología, como los registros médicos electrónicos y los sistemas de códigos de barras, para mejorar el seguimiento de las muestras y reducir los errores de etiquetado.
  • Medidas de garantía de calidad : Establecer medidas de control y garantía de calidad que aborden específicamente los procesos pre-analíticos.
  • Mecanismos de retroalimentación : creación de sistemas de retroalimentación del personal de laboratorio y de los pacientes para refinar y mejorar continuamente las prácticas preanalíticas.

Estudios de casos y ejemplos

El artículo incluye varios estudios de casos que demuestran el impacto de las optimizaciones de la fase pre-analítica. Un ejemplo notable muestra cómo un hospital implementó un nuevo protocolo para flebotomía que implicó la capacitación del personal y la participación de los pacientes, lo que resultó en una reducción significativa en las tasas de rechazo de muestras.

Conclusión

En conclusión, el artículo destaca la necesidad crítica de un cambio cultural dentro del laboratorio clínico para priorizar la fase pre-analítica. Al adoptar un enfoque centrado en el paciente, los laboratorios pueden mejorar la precisión de los resultados de las pruebas, mejorar la satisfacción del paciente y, en última instancia, contribuir a mejores resultados de atención médica. Los autores piden la colaboración entre los profesionales de la salud, el personal de laboratorio y los pacientes para fomentar un entorno de laboratorio más integrado y eficaz.

Cómo empezó todo

Ya en el año 4000 a. C., los médicos babilónicos y sumerios documentaron análisis de muestras de orina humana . Ha transcurrido mucho tiempo desde entonces y muchas innovaciones analíticas finalmente han dado lugar a las posibilidades de diagnóstico actuales. En los entornos sanitarios modernos, se puede realizar una variedad infinita de pruebas de laboratorio con una precisión y una calidad asombrosas con tiempos de respuesta récord, lo que constituye la base de la mayoría de las decisiones médicas. Actualmente, la medicina de laboratorio tiene las tasas de error más bajas entre las disciplinas de diagnóstico médico, con un nivel de seis sigma de >4. Aspirando a una calidad aún mayor, pronto se hizo evidente que la mayoría de los errores dentro del proceso de prueba total se encuentran en la fase pre-analítica .

En la década de 1970, observadores atentos, como Walter Guder, a quien muchos colegas consideran el fundador de la ciencia pre-analítica, descubrieron que a pesar de la alta calidad analítica, los resultados de las pruebas variaban, dependiendo de las variables influyentes previas al análisis. El término “pre-analítico” fue introducido por Statland et al. en 1977.

Sin tomar en cuenta la importancia obvia de estos hallazgos, los laboratorios tardaron entre 15 y 20 años más en reconocer al menos los factores de influencia pre-analítica intra-laboratorio. Durante los años siguientes, los laboratorios ampliaron su búsqueda de errores a los procesos pre-analíticos extra-laboratorios. Hoy está surgiendo un enfoque más centrado en el paciente, que apunta a evitar todos los errores relacionados con las pruebas, que pueden llevar a diagnósticos erróneos o  tardíos. De manera similar, el interés científico en los procesos pre-analíticos se desarrolló de manera continua desde fines de los años 70 hasta hoy.....

1) Leer el articulo completo

2) DIA DEL JUBILADO BIOQUIMICO

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 01 de Noviembre
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina




viernes, 25 de octubre de 2024

1101- El Rincón del Lector - Pintura Universal

Editor: Dr A.E. Bagnarelli
Fuente: ChatGPT
Imagenes: Web Art Gallery - Wikipedia

  Introducción

1) El 25 de octubre se celebra el Día Internacional del Artista, una efeméride dedicada a homenajear a todos los artistas plasticos del mundo, destacando su contribución al arte y a la sociedad. La fecha seleccionada para celebrar este día mundial, conmemora el nacimiento del pintor y escultor español Pablo Picasso, nacido el 25 de octubre de 1881.

2) La historia del arte plástico se puede dividir en varios períodos, cada uno con sus propias características. En la literatura hay numerosas formas de hacerlo y van surgiendo otras nuevas, y en esta presentación se ha adoptado una clasificación que permita una adecuada comprensión del tema.

3) Con relación a los artistas, es evidente que numerosos de ellos con diferente capacidad técnica, visión del mundo, motivos personales, políticos o del ambiente en el que se desenvuelven, se han podido mover dentro de uno o más estilos lo que dificulta su encuadre en uno solo.

4) En esta presentación las características de cada período/estilo, es de acuerdo a la información suministrada por los ChatGPT, pero dado el gran número de artistas y sus obras se han seleccionados solamente un número limitado de ellos. 

5) Finalmente se debe mencionar que la ABA tiene su Comisión de Cultura, siendo estas páginas que son sin fines de lucro, una contribución a la misma.

Periodos, caracteristicas, autores y algunas de sus obras

1- Renacimiento (1400-1600):

Caracteristicas: Los artistas del Renacimiento utilizaron la perspectiva para crear la ilusión de profundidad y espacio, y prestaron atención a los detalles y la precisión en la representación de los elementos. También utilizaron la luz y la sombra para modelar las formas y crear volumen. Los temas religiosos y mitológicos fueron prominentes en el arte del Renacimiento, y los colores vivos y contrastados fueron utilizados para crear un efecto dramático........


2) Ver otro: Blog Pag. N° 1015: Pinturas Argentinas (3 Nov.2023)

Nueva presentación el 28 de Octubre.
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



 

miércoles, 23 de octubre de 2024

1100- Secuenciar ADN sin abrir las celulas

By Heidi Ledford,Editor. Una herramienta 'fenomenal' secuencia el ADN y rastrea las proteínas sin necesidad de abrir las células. Nature Octubre de 2024

Técnica de microscopía que permite obtener imágenes de cómo interactúan las proteínas y los cromosomas en una célula intacta.

Los investigadores están haciendo cola para probar una potente técnica de microscopía que puede secuenciar simultáneamente el ADN de una célula individual y determinar la ubicación de sus proteínas con alta resolución, todo ello sin tener que abrir la célula y extraer su contenido. La obtención de imágenes del ADN y las proteínas dentro de células intactas proporciona información crucial sobre cómo funcionan juntas estas moléculas.

Los desarrolladores del método ya lo han utilizado para estudiar cómo el envejecimiento puede alterar la forma en que las proteínas del núcleo interactúan con los cromosomas. A medida que el cuerpo envejece , descubrieron que los cambios en estas proteínas nucleares podrían suprimir la actividad genética.

“Este trabajo es realmente extraordinario”, dice Ankur Sharma, biólogo oncológico del Instituto Garvan de Investigación Médica en Sídney, Australia, que no participó en el estudio pero está interesado en utilizar el enfoque para estudiar las células cancerosas y lo describió como “fenomenal” en la plataforma de redes sociales X.

El método, denominado secuenciación genómica in situ por expansión, se describió en una preimpresión  publicada en bioRxiv el 26 de septiembre. Aún no ha sido revisado por pares.

Empaquetado de ADN

El método podría ser particularmente útil para los investigadores que están estudiando cómo el ADN se enrolla alrededor de las proteínas y se introduce en los núcleos de las células, y cómo la ubicación de los genes dentro de ese enredo puede afectar su actividad. Podemos pensar en el ADN como "una cadena lineal de información que debe ser comprimida y organizada dentro de un núcleo celular de cinco micrones de tamaño", dice Jason Buenrostro, genetista de la Universidad de Harvard en Cambridge, Massachusetts, y uno de los autores del preprint. "Hay mucha información sobre cómo se produce ese plegado".

Para extraer esa información, Buenrostro y sus colegas combinaron dos métodos previamente descritos. Uno de ellos introduce en la célula una enzima especial para copiar ADN, junto con un conjunto de componentes de ADN marcados con fluorescencia para que se incorporen, uno por uno, a las cadenas de ADN en crecimiento. Al leer la secuencia en la que se añaden las etiquetas fluorescentes, los investigadores pueden determinar la secuencia de fragmentos del genoma .

Los investigadores saben desde hace tiempo cómo etiquetar las proteínas con marcadores para rastrear su ubicación. Pero la resolución de la microscopía óptica está limitada por la longitud de onda de la luz, lo que dificulta distinguir cadenas de ADN o proteínas marcadas con fluorescencia que están muy próximas entre sí. Esto plantea un problema particular en los estrechos confines del núcleo.

Por eso, el equipo añadió otro método llamado microscopía de expansión . Esta técnica se basa en un gel que permea las células y luego se hincha cuando absorbe agua, de forma muy similar al relleno de los pañales desechables. A medida que el gel se expande, separa aún más las moléculas, lo que facilita la distinción entre una molécula de proteína y otra.

La unión de ambos métodos permitió al equipo de Buenrostro estudiar las interacciones entre proteínas y genes en las células de personas con síndrome de progeria de Hutchinson-Gilford, una enfermedad genética que provoca un envejecimiento prematuro . Esta enfermedad está causada por mutaciones en unas proteínas llamadas láminas, que suelen encontrarse en la periferia de los núcleos celulares. Los investigadores confirmaron resultados anteriores que sugerían que en los individuos con progeria, estas láminas anormales se introducen en el interior del núcleo, donde parecen alterar la disposición típica de los cromosomas y suprimir la actividad de los genes. Se observaron anomalías similares en las células de la piel de un donante de 92 años que no tenía progeria.

Mina de oro de información

La secuenciación genómica in situ es el último de una serie de métodos que permiten a los investigadores recopilar una cantidad cada vez mayor de datos de células individuales . El objetivo final es desarrollar un método para detectar prácticamente cualquier proteína o metabolito en la célula, afirma Thierry Voet, genetista de la Universidad Católica de Lovaina (Bélgica). Por ahora, Voet y su equipo están considerando si el método podría usarse en sus estudios sobre cómo las células de un embrión en desarrollo pueden lidiar con tener diferentes números de cromosomas entre sí.

La técnica requiere una experiencia considerable, lo que limitará el número de investigadores que puedan implementarla de inmediato, afirma Kelly Rogers, que estudia microscopía avanzada en el Instituto de Investigación Médica Walter y Eliza Hall en Melbourne, Australia. “Definitivamente parece complicada”. Aun así, Rogers puede enumerar a muchos colegas que podrían querer aprovechar el enfoque. Con el tiempo, dice, los protocolos podrían simplificarse o incluso comercializarse. “Una cosa que es segura es que esto será más accesible para un mayor número de científicos”, dice Rogers. “No parece haber muchos límites a lo que podemos lograr ahora”.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 25 de Octubre
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina





domingo, 20 de octubre de 2024

1099- Resguardo de datos genómicos

Luca Bonomi,Yingxiang Huang, Lucila Ohno-Machado. Desafíos de privacidad y oportunidades de investigación para el intercambio de datos genómicos. Nat Genet. 2020; 52(7): 646–654. UCSD Health Department of Biomedical Informatics, University of California San Diego, La Jolla, CA, 92093, USA

Resumen (ChatGPT)

En el cambiante panorama de la investigación genómica, el intercambio de datos se está volviendo cada vez más vital para los avances en medicina de precisión, prevención de enfermedades y estrategias de tratamiento. Sin embargo, el intercambio de datos genómicos presenta importantes desafíos en materia de privacidad que deben abordarse para garantizar prácticas éticas y la confianza pública. El artículo de Nature Genetics, analiza estas preocupaciones sobre la privacidad, las implicaciones para la investigación y las posibles estrategias de mejora.

Preocupaciones sobre la privacidad en el intercambio de datos genómicos

Los datos genómicos son inherentemente sensibles, ya que pueden revelar una gran cantidad de información personal no solo sobre las personas, sino también sobre sus familiares. El riesgo de reidentificación es una preocupación primordial; incluso los datos anónimos a veces pueden vincularse con las personas mediante técnicas computacionales sofisticadas o la combinación de varios conjuntos de datos. El artículo enfatiza que los marcos de privacidad actuales, como el consentimiento informado, pueden no captar por completo las complejidades del intercambio de datos genómicos. Las personas a menudo carecen de una comprensión completa de cómo se utilizarán, almacenarán y potencialmente compartirán sus datos con terceros.

Además, las implicaciones de los datos genómicos van más allá de la privacidad individual. Las comunidades, especialmente aquellas históricamente marginadas o subrepresentadas en la investigación, pueden enfrentar dilemas éticos más amplios. Las preocupaciones sobre el uso indebido de los datos o la perpetuación de la discriminación subrayan la necesidad de una cuidadosa consideración de las prácticas de intercambio de datos.

Panorama regulatorio y marcos éticos

El artículo describe los marcos regulatorios existentes que rigen el intercambio de datos genómicos, incluida la Privacy Rule creada bajo la Health Insurance Portability and Accountability Act (HIPAA16). Sin embargo, estas regulaciones a menudo no abordan los desafíos únicos que plantean los datos genómicos. Por ejemplo, si bien la HIPAA proporciona pautas para proteger la información de salud, es posible que no cubra adecuadamente los matices de la información genética.

Los autores abogan por el desarrollo de marcos éticos más sólidos que prioricen la transparencia, el consentimiento y la autonomía individual. Esto incluye garantizar que los participantes estén plenamente informados sobre los posibles riesgos y beneficios de compartir sus datos genómicos. Involucrar a las comunidades en el proceso de toma de decisiones es crucial para fomentar la confianza y garantizar que la investigación beneficie a todas las partes interesadas.

Soluciones tecnológicas para la protección de la privacidad

El artículo analiza diversos avances tecnológicos que pueden mejorar la privacidad en el intercambio de datos genómicos. Las técnicas como la privacidad diferencial y el aprendizaje federado son prometedoras, ya que permiten a los investigadores analizar los datos y, al mismo tiempo, minimizar el riesgo de reidentificación. La privacidad diferencial implica agregar "ruido" a los conjuntos de datos, lo que garantiza que los puntos de datos individuales sigan siendo confidenciales y, al mismo tiempo, permite un análisis significativo.

Por otra parte, el aprendizaje federado permite entrenar modelos en múltiples dispositivos o servidores descentralizados sin compartir los datos subyacentes. Este enfoque mantiene la privacidad y la seguridad de los datos y, al mismo tiempo, permite la investigación colaborativa. Los autores alientan una mayor exploración de estas tecnologías y su integración en las prácticas de investigación genómica.

Cómo equilibrar la utilidad y la privacidad de los datos

Uno de los temas centrales del artículo es la necesidad de equilibrar la utilidad de los datos genómicos con las consideraciones de privacidad. Los investigadores a menudo necesitan grandes conjuntos de datos para identificar patrones y hacer descubrimientos significativos, pero esta necesidad debe sopesarse frente a los riesgos de comprometer la privacidad individual. Los autores sugieren que el desarrollo de estándares para el acceso a los datos y los acuerdos de intercambio pueden ayudar a lograr este equilibrio.

Una estrategia eficaz puede ser la implementación de sistemas de acceso por niveles, en los que los distintos niveles de sensibilidad de los datos determinen el grado de acceso concedido. Además, el establecimiento de directrices claras para el uso y la redistribución de los datos puede mejorar la rendición de cuentas entre los investigadores y las instituciones.

Participación comunitaria y confianza pública

La participación de las comunidades de las que se obtienen los datos genómicos es fundamental para generar confianza pública. El artículo destaca la importancia de las prácticas inclusivas que involucran a poblaciones diversas en el proceso de investigación. Esto no solo ayuda a obtener el consentimiento informado, sino que también garantiza que la investigación aborde las necesidades y preocupaciones de la comunidad.

Las iniciativas de educación pública sobre la investigación genómica y el intercambio de datos pueden aliviar aún más los temores y los conceptos erróneos. La transparencia sobre cómo se utilizarán, compartirán y protegerán los datos es esencial para fomentar una relación positiva entre investigadores y participantes.

Oportunidades de investigación futuras

El artículo concluye identificando las principales oportunidades de investigación que surgen de los desafíos actuales en materia de privacidad en el intercambio de datos genómicos. Existe una necesidad apremiante de investigación interdisciplinaria que combine la experiencia en genómica, ética, derecho y tecnología. Este enfoque colaborativo puede conducir a soluciones innovadoras que protejan la privacidad y maximicen los beneficios del intercambio de datos.

Además, los estudios longitudinales que examinan los efectos a largo plazo de las prácticas de intercambio de datos sobre la privacidad individual y la confianza de la comunidad podrían proporcionar información valiosa. Los autores piden que se creen plataformas de colaboración en las que los investigadores puedan compartir las mejores prácticas y desarrollar directrices que mejoren tanto la protección de la privacidad como la utilidad de la investigación.

Conclusión

El artículo de Nature Genetics sobre los desafíos de privacidad y las oportunidades de investigación para compartir datos genómicos, destaca las complejidades inherentes a este campo en rápido avance. Si bien los beneficios potenciales de compartir datos genómicos son inmensos, abordar las preocupaciones sobre la privacidad es crucial para garantizar prácticas de investigación éticas y mantener la confianza pública. Al desarrollar marcos regulatorios sólidos, aprovechar las innovaciones tecnológicas e involucrar a las comunidades, los investigadores pueden manejar el delicado equilibrio entre la utilidad de los datos y la privacidad individual. El futuro de la investigación genómica dependerá de esfuerzos colaborativos que prioricen las consideraciones éticas al tiempo que avanzan los conocimientos científicos.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 23 de Octubre.
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



martes, 15 de octubre de 2024

1098- Biofísica y ciencias genómicas

David C. Schwartz. Biofísica y ciencias genómicas. Biophys J. 2019; 117(11): 2047–2053. Department of Chemistry, Laboratory of Genetics, Laboratory for Molecular and Computational Genomics, University of Wisconsin-Madison, Madison Wisconsin

Resumen (ChatGPT)

El artículo explora la interacción entre la biofísica y las ciencias genómicas, destacando cómo los métodos y conceptos biofísicos pueden mejorar nuestra comprensión de la estructura y función genómicas. Destaca la importancia de este enfoque interdisciplinario para abordar cuestiones biológicas complejas y hacer avanzar la investigación genómica.

1. Introducción a la biofísica en genómica: La introducción describe los conceptos fundamentales de la biofísica, incluidos los principios de la física aplicados a los sistemas biológicos. Se analiza la evolución de las ciencias genómicas y la importancia de las técnicas biofísicas para desentrañar las complejidades del ADN y las proteínas.

2. Estructura y dinámica de los ácidos nucleicos: Una parte importante del artículo se centra en los aspectos estructurales de los ácidos nucleicos, como el ADN y el ARN. Se analizan técnicas como la cristalografía de rayos X y la espectroscopia de resonancia magnética nuclear (RMN) que han permitido dilucidar las estructuras tridimensionales de estas moléculas. También se analiza la dinámica de los ácidos nucleicos, incluido su plegamiento e interacción con las proteínas, lo que ilustra cómo la biofísica ayuda a comprender estos procesos a nivel molecular.

3. Plegamiento e interacciones de proteínas: Se destaca el papel de la biofísica en el estudio del plegamiento y las interacciones de proteínas. El artículo analiza los paisajes energéticos asociados con el plegamiento de proteínas, haciendo hincapié en el uso de modelos computacionales para predecir las vías de plegamiento. También examina cómo las técnicas biofísicas, como la espectroscopia de fuerza de moléculas individuales, contribuyen a nuestra comprensión de las interacciones de proteínas y los cambios conformacionales.

4. Técnicas biofísicas en la investigación genómica: El artículo examina diversas técnicas biofísicas que han resultado fundamentales en la investigación genómica, entre ellas la transferencia de energía por resonancia de fluorescencia (FRET), la microscopía de fuerza atómica (AFM) y la espectrometría de masas. Las aplicaciones de cada técnica en el estudio de las interacciones y dinámicas moleculares se ilustran con ejemplos específicos, mostrando su importancia para revelar información sobre los procesos genómicos.

5. Tecnologías de secuenciación genómica: Se analizan los avances en las tecnologías de secuenciación genómica, con énfasis en cómo los principios biofísicos sustentan estas innovaciones. El artículo analiza los métodos de secuenciación de próxima generación y su dependencia de las técnicas biofísicas para mejorar la precisión y el rendimiento. Destaca el impacto de estas tecnologías en la medicina personalizada y la investigación genética.

6. Integración de datos y biofísica computacional: Se explora la integración de datos biofísicos con métodos computacionales como un medio para modelar y predecir el comportamiento biológico. El artículo destaca la importancia de la bioinformática en la gestión de grandes conjuntos de datos generados por estudios genómicos. Se analiza cómo las simulaciones y los modelos ayudan a cerrar la brecha entre los datos experimentales y la función biológica.

7. Futuras orientaciones: Para concluir, el artículo reflexiona sobre el futuro de la biofísica en las ciencias genómicas. Destaca la necesidad de una colaboración continua entre biofísicos y científicos genómicos para abordar los nuevos desafíos en biología. Se sugieren posibles aplicaciones futuras, como el estudio de las modificaciones epigenéticas y sus implicaciones biofísicas, como áreas maduras para la exploración.

Conclusión: La conclusión reitera el papel transformador de la biofísica en el avance de nuestra comprensión de las ciencias genómicas. Exige un enfoque multidisciplinario para aprovechar al máximo el potencial de las técnicas biofísicas para dilucidar los sistemas biológicos complejos y sus implicaciones para la salud y la enfermedad.

Texto principal

....." Si consideramos que las ciencias genómicas son la creación o el análisis de grandes conjuntos de datos para la investigación biológica o genética (una definición personal y vaga), es evidente que el pensamiento biofísico ha proporcionado el caldero para un nivel notable de invención e innovación en las ciencias genómicas. Ahora está a punto de integrarse sin problemas en la moneda científica común que sustenta la mayor parte de la investigación biológica y genética. Aunque un factor importante que diferencia la biofísica de las ciencias genómicas es el tamaño y el tipo de conjuntos de datos, fue el pensamiento biofísico el que dio derecho a los genómicos a hacer descubrimientos utilizando grandes conjuntos de datos a través de avances en la medición y manipulación molecular.

Estos avances incluyeron desarrollos en enfoques de moléculas individuales, técnicas avanzadas de microscopía, modalidades de etiquetado molecular y fluídica. Estos, a su vez, sentaron las bases para sistemas capaces de adquisición rutinaria de datos de secuencias genómicas, perfiles transcripcionales y la capacidad de medir estados de cromatina a gran escala. Nuevos enfoques estadísticos y computacionales ayudaron a construir e interpretar grandes conjuntos de datos tanto para investigaciones basadas en hipótesis como, de una manera un tanto innovadora, para hacer que la investigación basada en descubrimientos sea rutinaria y mucho más efectiva.

El objetivo de esta Perspectiva Biofísica es seguir el camino que ha seguido la biofísica para realizar mediciones a gran escala (conjuntos de datos) y cómo estos conjuntos de datos genómicos están abriendo ahora nuevas direcciones para las investigaciones biofísicas. En esta Perspectiva Biofísica, espero transmitir una sensación de fluidez intelectual que intente vislumbrar el futuro de nuevas vías de investigación biofísica que probablemente desempeñen un papel importante para explicar de forma exhaustiva los sistemas biológicos y genéticos de formas de alta dimensión. En ese momento, las ciencias genómicas y la biofísica se convertirán en una sola......

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 20 de Octubre.
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


domingo, 13 de octubre de 2024

El Premio Nobel de Física 2024

Los galardonados de este año utilizaron herramientas de la física para construir métodos que ayudaron a sentar las bases del potente aprendizaje automático actual. John Hopfield creó una estructura que puede almacenar y reconstruir información. Geoffrey Hinton inventó un método que puede descubrir de forma independiente propiedades en los datos y que se ha vuelto importante para las grandes redes neuronales artificiales que se utilizan actualmente.

Utilizaron la física para encontrar patrones en la información.

Muchas personas han experimentado cómo las computadoras pueden traducir entre idiomas, interpretar imágenes e incluso mantener conversaciones razonables. Lo que quizás sea menos conocido es que este tipo de tecnología ha sido importante durante mucho tiempo para la investigación, incluida la clasificación y el análisis de grandes cantidades de datos. El desarrollo del aprendizaje automático se ha disparado en los últimos quince a veinte años y utiliza una estructura llamada red neuronal artificial. Hoy en día, cuando hablamos de inteligencia artificial , a menudo nos referimos a este tipo de tecnología.

Aunque los ordenadores no pueden pensar, las máquinas pueden imitar funciones como la memoria y el aprendizaje. Los laureados de este año en física han contribuido a que esto sea posible. Utilizando conceptos y métodos fundamentales de la física, han desarrollado tecnologías que utilizan estructuras en redes para procesar información.

El aprendizaje automático se diferencia del software tradicional, que funciona como una especie de receta. El software recibe datos, los procesa según una descripción clara y produce los resultados, de forma similar a cuando alguien recoge ingredientes y los procesa siguiendo una receta para producir un pastel. En cambio, en el aprendizaje automático, el ordenador aprende con ejemplos, lo que le permite abordar problemas que son demasiado vagos y complicados para ser gestionados con instrucciones paso a paso. Un ejemplo es la interpretación de una imagen para identificar los objetos que contiene.

Imita el cerebro

Una red neuronal artificial procesa información utilizando toda la estructura de la red. La inspiración surgió inicialmente del deseo de comprender cómo funciona el cerebro. En la década de 1940, los investigadores habían comenzado a razonar sobre las matemáticas que subyacen a la red de neuronas y sinapsis del cerebro. Otra pieza del rompecabezas provino de la psicología, gracias a la hipótesis del neurocientífico Donald Hebb sobre cómo se produce el aprendizaje porque las conexiones entre neuronas se refuerzan cuando trabajan juntas.

Más tarde, a estas ideas les siguieron intentos de recrear el funcionamiento de la red cerebral mediante la construcción de redes neuronales artificiales como simulaciones por ordenador. En ellas, las neuronas del cerebro se imitan mediante nodos a los que se les asignan valores diferentes, y las sinapsis se representan mediante conexiones entre los nodos que pueden hacerse más fuertes o más débiles. La hipótesis de Donald Hebb todavía se utiliza como una de las reglas básicas para actualizar las redes artificiales mediante un proceso llamado entrenamiento .

A finales de los años 60, algunos resultados teóricos desalentadores hicieron que muchos investigadores sospecharan que estas redes neuronales nunca serían de utilidad real. Sin embargo, el interés por las redes neuronales artificiales se reavivó en los años 80, cuando varias ideas importantes tuvieron su impacto, incluido el trabajo de los galardonados de este año.

Memoria asociativa

Imagina que estás intentando recordar una palabra bastante inusual que rara vez utilizas, como por ejemplo la que designa ese suelo inclinado que se encuentra a menudo en los cines y las salas de conferencias. Buscas en tu memoria. Es algo así como rampa ... ¿quizás ra…dial ? No, eso no. Rake , ¡eso es!

Este proceso de búsqueda entre palabras similares para encontrar la correcta recuerda a la memoria asociativa que descubrió el físico John Hopfield en 1982. La red de Hopfield puede almacenar patrones y tiene un método para recrearlos. Cuando se le proporciona a la red un patrón incompleto o ligeramente distorsionado, el método puede encontrar el patrón almacenado que sea más similar.

Hopfield ya había utilizado su formación en física para explorar problemas teóricos de biología molecular. Cuando lo invitaron a una reunión sobre neurociencia, se topó con una investigación sobre la estructura del cerebro. Lo que aprendió le fascinó y empezó a pensar en la dinámica de las redes neuronales simples. Cuando las neuronas actúan juntas, pueden dar lugar a características nuevas y poderosas que no son evidentes para alguien que solo observa los componentes separados de la red.

En 1980, Hopfield dejó su puesto en la Universidad de Princeton, donde sus intereses de investigación lo habían llevado fuera de las áreas en las que trabajaban sus colegas en física, y se trasladó al otro lado del continente. Había aceptado la oferta de una cátedra de química y biología en Caltech (Instituto Tecnológico de California) en Pasadena, al sur de California. Allí, tenía acceso a recursos informáticos que podía utilizar para experimentar libremente y desarrollar sus ideas sobre redes neuronales.

Sin embargo, no abandonó sus bases en física, donde encontró inspiración para su comprensión de cómo los sistemas con muchos componentes pequeños que trabajan juntos pueden dar lugar a fenómenos nuevos e interesantes. En particular, le benefició haber aprendido sobre materiales magnéticos que tienen características especiales gracias a su espín atómico, una propiedad que convierte a cada átomo en un pequeño imán. Los espines de los átomos vecinos se afectan entre sí, lo que puede permitir que se formen dominios con espín en la misma dirección. Fue capaz de construir una red modelo con nodos y conexiones utilizando la física que describe cómo se desarrollan los materiales cuando los espines se influyen entre sí.

La red guarda imágenes en formato horizontal.

La red que construyó Hopfield tiene nodos que están conectados entre sí mediante conexiones de distinta intensidad. Cada nodo puede almacenar un valor individual; en el primer trabajo de Hopfield, este podía ser 0 o 1, como los píxeles de una imagen en blanco y negro.

Hopfield describió el estado general de la red con una propiedad que es equivalente a la energía en el sistema de espín que se encuentra en la física; la energía se calcula utilizando una fórmula que utiliza todos los valores de los nodos y todas las intensidades de las conexiones entre ellos. La red de Hopfield se programa mediante una imagen que se alimenta a los nodos, a los que se les asigna el valor de negro (0) o blanco (1). 

Las conexiones de la red se ajustan luego utilizando la fórmula de energía, de modo que la imagen guardada tenga una energía baja. Cuando se alimenta otro patrón a la red, existe una regla para recorrer los nodos uno por uno y verificar si la red tiene una energía menor si se cambia el valor de ese nodo. Si resulta que la energía se reduce si un píxel negro es blanco en su lugar, cambia de color. Este procedimiento continúa hasta que es imposible encontrar más mejoras. Cuando se llega a este punto, la red a menudo ha reproducido la imagen original en la que fue entrenada.

Puede que esto no parezca tan sorprendente si solo guardas un patrón. Tal vez te preguntes por qué no guardas la imagen en sí y la comparas con otra imagen que se está probando, pero el método de Hopfield es especial porque se pueden guardar varias imágenes al mismo tiempo y la red generalmente puede diferenciarlas.

Hopfield comparó la búsqueda de un estado guardado en la red con el hecho de hacer rodar una pelota por un paisaje de picos y valles, con una fricción que ralentiza su movimiento. Si se deja caer la pelota en un lugar determinado, rodará hasta el valle más cercano y se detendrá allí. Si se le da a la red un patrón cercano a uno de los patrones guardados, seguirá avanzando de la misma manera hasta que termine en el fondo de un valle en el paisaje energético, encontrando así el patrón más cercano en su memoria.  La red de Hopfield se puede utilizar para recrear datos que contienen ruido o que se han borrado parcialmente...................

Leer el articulo completo



viernes, 11 de octubre de 2024

Premio Nobel de Química 2024

Demis Hassabis y John M. Jumper han utilizado con éxito la inteligencia artificial para predecir la estructura de casi todas las proteínas conocidas. David Baker ha aprendido a dominar los componentes básicos de la vida y a crear proteínas completamente nuevas. El potencial de sus descubrimientos es enorme.

Revelan secretos de proteínas a través de computación e inteligencia artificial

¿Cómo es posible la exuberante química de la vida? La respuesta a esta pregunta es la existencia de las proteínas, que pueden describirse como brillantes herramientas químicas. Por lo general, están formadas por 20 aminoácidos que pueden combinarse de infinitas maneras. Utilizando la información almacenada en el ADN como modelo, los aminoácidos se unen entre sí en nuestras células para formar largas cadenas.

Entonces se produce la magia de las proteínas: la cadena de aminoácidos se retuerce y se pliega formando una estructura tridimensional distintiva (a veces única). Esta estructura es la que confiere a las proteínas su función. Algunas se convierten en bloques químicos que pueden crear músculos, cuernos o plumas, mientras que otras pueden convertirse en hormonas o anticuerpos. Muchas de ellas forman enzimas, que impulsan las reacciones químicas de la vida con una precisión asombrosa. Las proteínas que se encuentran en las superficies de las células también son importantes y funcionan como canales de comunicación entre la célula y su entorno. 

Es difícil exagerar el potencial que encierran los componentes químicos de la vida, estos 20 aminoácidos. El Premio Nobel de Química 2024 tiene como objetivo comprenderlos y dominarlos a un nivel completamente nuevo. La mitad del premio corresponde a Demis Hassabis y John Jumper, quienes han utilizado inteligencia artificial para resolver con éxito un problema con el que los químicos lucharon durante más de 50 años: predecir la estructura tridimensional de una proteína a partir de una secuencia de aminoácidos. Esto les ha permitido predecir la estructura de casi todos los 200 millones de proteínas conocidas. La otra mitad del premio corresponde a David Baker, quien ha desarrollado métodos informáticos para lograr lo que muchas personas creían imposible: crear proteínas que antes no existían y que, en muchos casos, tienen funciones completamente nuevas.

El Premio Nobel de Química 2024 reconoce dos descubrimientos diferentes pero, como verá, están estrechamente relacionados. Para entender los desafíos que han superado los galardonados de este año, debemos remontarnos a los albores de la bioquímica moderna.

Las primeras imágenes granuladas de proteínas

Los químicos saben desde el siglo XIX que las proteínas son importantes para los procesos vitales, pero hubo que esperar hasta la década de 1950 para que las herramientas químicas fueran lo suficientemente precisas como para que los investigadores comenzaran a estudiar las proteínas con más detalle. Los investigadores de Cambridge John Kendrew y Max Perutz hicieron un descubrimiento revolucionario cuando, a finales de la década, utilizaron con éxito un método llamado cristalografía de rayos X para presentar los primeros modelos tridimensionales de proteínas. En reconocimiento a este descubrimiento, recibieron el Premio Nobel de Química en 1962.

Posteriormente, los investigadores utilizaron principalmente la cristalografía de rayos X (y a menudo con mucho esfuerzo) para generar imágenes de alrededor de 200.000 proteínas diferentes, lo que sentó las bases para el Premio Nobel de Química 2024.

Un acertijo: ¿cómo encuentra una proteína su estructura única?

Otro de los primeros descubrimientos fue el realizado por Christian Anfinsen , un científico estadounidense. Mediante diversos trucos químicos, consiguió que una proteína existente se desdoblara y luego se volviera a doblar. La observación más interesante fue que la proteína adoptaba exactamente la misma forma cada vez. En 1961, concluyó que la estructura tridimensional de una proteína está totalmente determinada por la secuencia de aminoácidos de la proteína. Esto le valió el Premio Nobel de Química en 1972.

Sin embargo, la lógica de Anfinsen contiene una paradoja, que otro estadounidense, Cyrus Levinthal, señaló en 1969. Levinthal calculó que, incluso si una proteína consta de sólo 100 aminoácidos, en teoría la proteína puede asumir al menos 10(47) estructuras tridimensionales diferentes. Si la cadena de aminoácidos se plegara aleatoriamente, se necesitaría más tiempo que la edad del universo para encontrar la estructura proteica correcta. En una célula, sólo se necesitan unos pocos milisegundos. Entonces, ¿cómo se pliega realmente la cadena de aminoácidos?

El descubrimiento de Anfinsen y la paradoja de Levinthal implicaban que el plegamiento es un proceso predeterminado y, lo que es más importante, que toda la información sobre cómo se pliega la proteína debe estar presente en la secuencia de aminoácidos.

Abordando el gran desafío de la bioquímica

Los descubrimientos anteriores condujeron a otra conclusión decisiva: si los químicos conocieran la secuencia de aminoácidos de una proteína, podrían predecir su estructura tridimensional. Era una idea apasionante. Si lo conseguían, ya no tendrían que recurrir a la engorrosa cristalografía de rayos X y podrían ahorrar mucho tiempo. Además, podrían generar estructuras para todas las proteínas para las que no fuera aplicable la cristalografía de rayos X.

Estas conclusiones lógicas plantearon el desafío que se ha convertido en el gran reto de la bioquímica: el problema de la predicción. Para fomentar un desarrollo más rápido en este campo, en 1994 los investigadores iniciaron un proyecto llamado Evaluación crítica de la predicción de la estructura de las proteínas (CASP), que se convirtió en una competición. Cada dos años, investigadores de todo el mundo tenían acceso a secuencias de aminoácidos en proteínas cuyas estructuras acababan de determinarse. Sin embargo, las estructuras se mantenían en secreto para los participantes. El reto consistía en predecir las estructuras de las proteínas basándose en las secuencias de aminoácidos conocidas.....

Leer el articulo completo



miércoles, 9 de octubre de 2024

Premio Nobel de Fisiología y Medicina 2024

The Nobel Assembly at Karolinska Institutet ha decidido premiar Premio Nobel de Fisiología y Medicina 2024 conjuntamente a  Víctor Ambros y Gary Ruvkun por el descubrimiento del microARN y su papel en la regulación genética postranscripcional

El Premio Nobel de este año honra a dos científicos por su descubrimiento de un principio fundamental que rige cómo se regula la actividad genética.

La información almacenada en nuestros cromosomas puede compararse con un manual de instrucciones para todas las células de nuestro cuerpo. Cada célula contiene los mismos cromosomas, por lo que cada célula contiene exactamente el mismo conjunto de genes y exactamente el mismo conjunto de instrucciones. Sin embargo, los diferentes tipos de células, como las células musculares y nerviosas, tienen características muy distintas. ¿Cómo surgen estas diferencias? La respuesta está en la regulación genética, que permite que cada célula seleccione solo las instrucciones relevantes. Esto garantiza que solo el conjunto correcto de genes esté activo en cada tipo de célula.

Victor Ambros y Gary Ruvkun se interesaron por el modo en que se desarrollan los distintos tipos de células. Descubrieron el microARN, una nueva clase de moléculas de ARN diminutas que desempeñan un papel crucial en la regulación genética. Su descubrimiento revolucionario reveló un principio completamente nuevo de regulación genética que resultó ser esencial para los organismos multicelulares, incluidos los humanos. Ahora se sabe que el genoma humano codifica más de mil microARN. Su sorprendente descubrimiento reveló una dimensión completamente nueva de la regulación genética. Los microARN están demostrando ser fundamentalmente importantes para el desarrollo y el funcionamiento de los organismos.

Regulacion esencial

El Premio Nobel de este año se centra en el descubrimiento de un mecanismo regulador vital que se utiliza en las células para controlar la actividad genética. La información genética fluye del ADN al ARN mensajero (ARNm), a través de un proceso llamado transcripción, y luego a la maquinaria celular para la producción de proteínas. Allí, los ARNm se traducen para que las proteínas se fabriquen de acuerdo con las instrucciones genéticas almacenadas en el ADN. Desde mediados del siglo XX, varios de los descubrimientos científicos más fundamentales han explicado cómo funcionan estos procesos.

Nuestros órganos y tejidos están compuestos por muchos tipos de células diferentes, todas con información genética idéntica almacenada en su ADN. Sin embargo, estas diferentes células expresan conjuntos únicos de proteínas. ¿Cómo es esto posible? La respuesta está en la regulación precisa de la actividad genética de modo que solo el conjunto correcto de genes esté activo en cada tipo de célula específico. Esto permite, por ejemplo, que las células musculares, las células intestinales y los diferentes tipos de células nerviosas realicen sus funciones especializadas. Además, la actividad genética debe ajustarse continuamente para adaptar las funciones celulares a las condiciones cambiantes de nuestro cuerpo y nuestro entorno. Si la regulación genética falla, puede provocar enfermedades graves como el cáncer, la diabetes o la autoinmunidad. Por lo tanto, comprender la regulación de la actividad genética ha sido un objetivo importante durante muchas décadas.

En la década de 1960 se demostró que unas proteínas especializadas, conocidas como factores de transcripción, pueden unirse a regiones específicas del ADN y controlar el flujo de información genética al determinar qué ARNm se producen. Desde entonces, se han identificado miles de factores de transcripción y durante mucho tiempo se creyó que se habían resuelto los principios básicos de la regulación genética. Sin embargo, en 1993, los premios Nobel de ese año publicaron hallazgos inesperados que describían un nuevo nivel de regulación genética, que resultó ser muy significativo y se mantuvo a lo largo de la evolución.

La investigación sobre un pequeño gusano conduce a un gran avance

A finales de los años 1980, Victor Ambros y Gary Ruvkun fueron becarios postdoctorales en el laboratorio de Robert Horvitz , que recibió el Premio Nobel en 2002, junto con Sydney Brenner y John Sulston . En el laboratorio de Horvitz, estudiaron un gusano redondo relativamente modesto de 1 mm de largo, C. elegans . A pesar de su pequeño tamaño, C. elegans posee muchos tipos de células especializadas, como células nerviosas y musculares que también se encuentran en animales más grandes y complejos, lo que lo convierte en un modelo útil para investigar cómo se desarrollan y maduran los tejidos en organismos multicelulares. 

Ambros y Ruvkun estaban interesados ​​​​en los genes que controlan el momento de activación de diferentes programas genéticos, asegurando que varios tipos de células se desarrollen en el momento adecuado. Estudiaron dos cepas mutantes de gusanos, lin-4 y lin-14, que mostraban defectos en el momento de activación de los programas genéticos durante el desarrollo. Los galardonados querían identificar los genes mutados y comprender su función. Ambros había demostrado previamente que el gen lin-4 parecía ser un regulador negativo del gen lin-14. Sin embargo, se desconocía cómo se bloqueaba la actividad del gen lin-14. Ambros y Ruvkun estaban intrigados por estos mutantes y su posible relación y se propusieron resolver estos misterios........

Leer el  articulo completo


sábado, 5 de octubre de 2024

1997- Historia del laboratorio clínico II

Historia del laboratorio clínico I : Blog pagina N° 990

Angela Tomei Robinson. Patología: los inicios del laboratorio de medicina: Parte II Laboratory Medicine, 2023; 54 (5): e141–e151. St. John’s University College of Pharmacy and Health Sciences, Queens, NY

Resumen (ChatGPT)

El artículo analiza la evolución histórica del laboratorio de medicina, centrándose específicamente en la disciplina de la patología. Describe los avances clave, las figuras influyentes y las prácticas fundamentales que han dado forma al diagnóstico de laboratorio moderno.

Contexto histórico

El laboratorio de medicina, en particular la patología, tiene sus raíces en prácticas antiguas en las que los médicos observaban y registraban síntomas y hallazgos post mortem. Las civilizaciones antiguas, incluidas la egipcia y la griega, hicieron contribuciones significativas a la comprensión de los procesos patológicos, aunque carecían del rigor científico que asociamos con el trabajo de laboratorio moderno.

Avances clave en patología

Avances del Renacimiento: El período del Renacimiento marcó un punto de inflexión con un renovado interés por la anatomía humana. Anatomistas como Andreas Vesalius desafiaron las creencias existentes y sentaron las bases para un estudio más sistemático del cuerpo. Las autopsias se volvieron más comunes, lo que permitió una mejor comprensión de los mecanismos de las enfermedades.

El nacimiento de la microbiología: la invención del microscopio por Antonie van Leeuwenhoek en el siglo XVII abrió nuevas vías para comprender los patógenos. Este avance tecnológico condujo al descubrimiento de las bacterias y otros microorganismos, cruciales para el desarrollo de la patología.

Innovaciones del siglo XIX: En el siglo XIX se estableció formalmente la patología como disciplina médica independiente. Rudolf Virchow es una figura central durante esta época, ya que aboga por la base celular de las enfermedades. Su trabajo hizo hincapié en que las enfermedades se podían rastrear hasta los cambios celulares, sentando las bases para la histopatología.

Técnicas de laboratorio: El artículo destaca la evolución de las técnicas de laboratorio, incluidos los métodos de tinción que mejoraron la visualización de los tejidos bajo el microscopio. Las innovaciones en histología y citología allanaron el camino para una mejor capacidad de diagnóstico.

El papel de los patólogos: Los patólogos surgieron como actores clave en el campo médico, conectando la práctica clínica con la ciencia de laboratorio. Su experiencia en el análisis de muestras de tejido, sangre y otros fluidos corporales se volvió esencial para el diagnóstico de enfermedades. El artículo analiza cómo los patólogos no solo identificaron enfermedades, sino que también contribuyeron a la comprensión de su etiología y progresión.

Educación y formación: El artículo destaca la importancia de la educación formal y la formación en patología. El establecimiento de programas médicos especializados y residencias permitió la formación sistemática de patólogos, asegurando que estuvieran equipados con las habilidades necesarias para interpretar hallazgos de laboratorio complejos. Esta profesionalización de la patología consolidó su papel dentro de la atención sanitaria.

Avances tecnológicos: La segunda mitad del siglo XX trajo consigo rápidos avances tecnológicos que revolucionaron la medicina de laboratorio. La automatización y el desarrollo de herramientas de diagnóstico sofisticadas mejoraron la eficiencia y la precisión en los laboratorios. Técnicas como la inmunohistoquímica y la patología molecular ampliaron las capacidades de diagnóstico de los patólogos, lo que permitió una identificación más precisa de las enfermedades.

Integración en la práctica clínica:  A medida que el laboratorio de medicina evolucionó, la integración de la patología en la práctica clínica se volvió cada vez más importante. La colaboración entre patólogos y médicos fomentó un enfoque más holístico de la atención al paciente, en el que los hallazgos de laboratorio influyeron directamente en las decisiones de tratamiento. El artículo analiza la importancia de esta sinergia para mejorar los resultados de los pacientes.

Direcciones futuras: El artículo concluye con una reflexión sobre el futuro del laboratorio de medicina y la patología, y destaca el potencial de las tecnologías emergentes, como la inteligencia artificial y la genómica, para mejorar aún más los procesos de diagnóstico. A medida que la medicina personalizada gane terreno, se espera que aumente el papel de la patología en la personalización de los planes de tratamiento.

Conclusión: El artículo ofrece una descripción general completa de la importancia histórica y contemporánea de la patología dentro del laboratorio de medicina. Destaca la evolución de la disciplina desde prácticas antiguas hasta un campo sofisticado que forma parte integral de la atención médica moderna. Los avances continuos en tecnología y metodología prometen mejorar aún más el papel de la patología en el diagnóstico y tratamiento de enfermedades, allanando el camino para futuras innovaciones en la medicina de laboratorio.

Introducción

El primer artículo de esta serie (Blog pagina N° 990siguió la cronología histórica de la patología y el laboratorio de medicina desde la antigüedad con el desarrollo más temprano de las pruebas de laboratorio a través de los siglos, hasta los comienzos de varios laboratorios tal como se reconocen hoy.

Varios de los primeros desarrollos de “laboratorios” (farmacéuticos, físicos, químicos, biológicos, forenses, microbiológicos) para los primeros científicos tenían como finalidad el estudio experimental y la investigación científica. Al principio, ninguno estaba específicamente orientado a la medicina para realizar pruebas o análisis con el fin de realizar diagnósticos directos para la atención al paciente. 

Los laboratorios clínicos acabarían surgiendo, pero en un principio no estarían afiliados a los hospitales. El uso de los laboratorios clínicos exclusivamente para realizar pruebas médicas con el fin de ayudar en la detección, el diagnóstico y el tratamiento de enfermedades sería una consecuencia de estos laboratorios de investigación. 

Pasaría algún tiempo hasta que la patología y el laboratorio de medicina se reconocieran como una especialidad establecida en los hospitales. Los historiadores suelen demostrar que los laboratorios se crearon primero como salas independientes separadas de los hospitales para, con el tiempo, formar parte de los hospitales universitarios......

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 10 de Octubre.
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


lunes, 30 de septiembre de 2024

1096- Impacto financiero de datos no publicados

Emma C. Bowers, Jimena Stephenson, Melissa Furlong, Kenneth S. Ramos. Alcance e impacto financiero de los datos no publicados y las muestras no utilizadas entre los investigadores académicos y gubernamentales de Estados Unidos. Elsevier-iScience. 2023; 26(7): 107166. LabPair, Inc.,Tucson, USA. University of Arizona Mel and Enid Zuckerman College of Public Health, Department of Community, Environment, and Policy Tucson, USA

Resumen (ChatGPT)

El artículo investiga el problema generalizado de los datos de investigación no publicados y las muestras biológicas no utilizadas en las instituciones de investigación académicas y gubernamentales de Estados Unidos. El estudio destaca los importantes costos financieros y científicos asociados con este fenómeno.

Puntos clave del artículo:

Prevalencia de datos no publicados y muestras no utilizadas: Muchos investigadores acumulan grandes volúmenes de datos y muestras biológicas que nunca se publican ni se utilizan más. Esto suele ocurrir debido a diversos factores, como la falta de tiempo, recursos o cambios en las prioridades de investigación.

Impacto financiero: El costo financiero de almacenar y mantener estos datos y muestras es considerable. Esto incluye los costos relacionados con las instalaciones de almacenamiento de muestras, los sistemas de gestión de datos y la posible pérdida de inversión en investigaciones que no llegan a publicarse.

Impacto científico: Los datos no publicados y las muestras no utilizadas representan una oportunidad perdida para avanzar en el conocimiento científico. Estos materiales podrían haberse utilizado para investigaciones posteriores o para validar otros estudios. Su ausencia obstaculiza el progreso científico y la colaboración.

Factores institucionales y de política: El estudio analiza cómo las políticas institucionales y las estructuras de financiación de la investigación contribuyen al problema. A menudo, los investigadores tienen pocos incentivos o apoyo para publicar todos sus hallazgos o compartir sus muestras, lo que conduce a un desperdicio significativo de recursos.

Soluciones propuestas:  El artículo sugiere varias soluciones para abordar estos problemas, incluida la mejora de las prácticas de gestión de datos, la creación de incentivos para compartir datos y muestras y el desarrollo de mejores sistemas para el seguimiento y la utilización de los recursos de investigación.

Estudios de casos y datos: El artículo incluye estudios de casos y datos de diversas instituciones para ilustrar el alcance del problema. Estos ejemplos proporcionan evidencia concreta de las pérdidas financieras y científicas que esto implica.

En general, el artículo pide que se reevalúe la forma en que se gestionan los recursos de investigación y propone cambios para mejorar la eficiencia y el impacto de la investigación científica. El objetivo es garantizar que los datos y las muestras valiosas no se desperdicien, sino que se utilicen en todo su potencial para hacer avanzar el conocimiento y la innovación.

Introducción

En los Estados Unidos se destinan cada año más de 600.000 millones de dólares a I+D para avanzar en el conocimiento científico y atender necesidades sociales apremiantes.  A pesar de los esfuerzos por garantizar el rendimiento de la inversión mediante la presentación obligatoria de informes y entregas específicas, sigue existiendo el problema de los datos no publicados y de los especímenes no utilizados. Irónicamente, si bien los científicos reconocen casi universalmente que los datos no publicados existen, relativamente pocos estudios han examinado su impacto económico o las razones de su desuso.

Algunos científicos han sido muy francos acerca de la ineficiencia en la investigación. Estas preocupaciones alcanzaron su punto máximo en 2009, cuando Iain Chalmers y Paul Glasziou estimaron que más del 85% de la investigación biomédica se desperdicia de manera evitable. Marija Purgar et al. llegaron a una estimación similar para la ecología. Aunque en ambos análisis este desperdicio se atribuyó a una variedad de factores, incluidos defectos en la relevancia, el diseño, la metodología, el sesgo, etc.; la falta de publicación y presentación de datos fue una de las principales causas.

Hasta la fecha, la mayor parte del discurso público sobre datos no publicados ha sido específico de un campo con un enfoque central en estudios biomédicos altamente visibles como los ensayos clínicos. Sin embargo, se ha deducido que la mayoría de los "datos oscuros" en realidad están en manos de un mayor número de pequeños laboratorios que reciben subvenciones de menor tamaño.  Además, las muestras no utilizadas aún no se han considerado en este problema. 

Para comenzar a abordar esta brecha de conocimiento, recopilamos información anónima sobre datos no publicados y muestras no utilizadas de 301 científicos estadounidenses que representan una amplia gama de campos, tipos y tamaños institucionales y roles de investigación. Nuestro objetivo fue cuantificar la cantidad de datos no publicados y muestras no utilizadas que poseían los investigadores y comprender las razones de su desuso.......

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 05 de Octubre
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina




sábado, 28 de septiembre de 2024

28 de Septiembre - 90° Aniversario de la ABA

1934 -Asociación Bioquímica Argentina- 2024

Palabras del Prof. Dr. Enrique Iovine:  Dr. en Bioquímica y Farmacia-Ex Prof. Asociado de Química Biológica Patológica de la Facultad de Farmacia y Bioquímica de la Universidad de Buenos Aires y  Ex Presidente de la ABA.

                        Parte del discurso pronunciado durante el Festejo del 75º Aniversario 
                         de la Asociación Bioquímica Argentina el  11 de diciembre de 2009  

.............."Alguna vez se ha dicho que la ABA es una entidad que surgió en el momento oportuno, que necesitó un período de alumbramiento, signado tal vez por el lema inmortal de Goethe “sin prisas ni pausas, como las estrellas”. El atardecer del 3 de septiembre de 1934 significo el ocaso de un día y la aurora de una época nueva para un grupo ambicioso de profesionales bioquímicos.

La Sociedad Nacional de Farmacia, que por una disposición del Superior Gobierno de la Nación debió cambiar su nombre convirtiéndose en la Asociación Farmacéutica y Bioquímica Argentina, representaba en realidad en forma preponderante a la profesión farmacéutica. Algunas gestiones que fueron realizadas en su seno para conseguir la participación bioquímica más activa en el gobierno institucional no lograron el éxito por la diferencia de número entre los farmacéuticos y los bioquímicos actuantes. En consecuencia era necesario contar con la existencia de una nueva entidad.

El 3 de septiembre de 1934, en una rebotica capitalina, la de la farmacia del Dr. Antonio López, en la calle Cevallos 706, se creó esa entidad que venía incubándose en la ardorosa intención de los doctores Desimone y el mencionado López. En aquella rebotica, donde como dijimos alguna vez al historiar estos hechos el ambiente era simbólico por excelencia, “entre el perfume de las esencias y el brillo ebúrneo de los frascos drogueros, nació la entidad decana de las instituciones bioquímicos”. 

No fue en aquella ocasión la chismografía de los profesionales presentes ni la eventual presencia de personajes flaubertianos, ni la intriga de ningún Monsier Homais, el boticario de la inolvidable novela “Madame Bovary”, los elementos generadores de una estructura societaria que habría de cumplir, desde el inicio de su actuación, una capital acción tendiente al progreso, perfeccionamiento y defensa de la creciente grey bioquímica.

Dieciséis profesionales bioquímicos fueron convocados, de los cuales 11 concurrieron. La nómina, hoy histórica, fue la siguiente, por orden alfabético: 1- Dr. Brodersen, Carlos Benigno 2- Dr. Cresta, Luis Alberto 3- Dr. Desimone, Lucas 4- Dr. De Dionigi, Humberto 5- Dr. Giudice, Carlos Rómulo 6- Dr. Gambino, Luis 7- Dr. Insúa, Carlos M. 8- Dr. López, Antonio 9- Dr. Poire, Arturo 10- Dr. Quesada, Rafael 11- Dr. Scotto, Alfredo.

Se intercambiaron ideas y se llamó a una primera reunión formal. Ésta se llevó a cabo el 28 de septiembre de 1934, bajo la presidencia del Dr. Lucas Desimone, en la farmacia mencionada, estando presentes los doctores Desimone, López, Scotto, Brodersen, Insúa y Cresta, cuyas firmas figuran en el margen del correspondiente libro de actas.

Ya de inmediato se designó una comisión encargada de redactar un proyecto de estatutos y en una tercera reunión se convino en llamar a Asamblea, histórica por cierto, por cuanto de ella surgió el primer Directorio, así integrado: - Presidente: Dr. Lucas Desimone - Vicepresidente: Dr. Luis A. Cresta - Secretario: Dr. Antonio López - Tesorero: Dr. Carlos M. Insúa - Vocales: Dr. Carlos Brodersen - Dr. Luis de Prado - Dr. Alfredo W. Scotto - Dr. José Garibaldi Se designó una comisión de Revista y otra de Propaganda. La Asesoría Letrada recayó en el Abogado Farmacéutico y Bioquímico Dr. Luis de Prado.

La ABA comenzaba a funcionar. La preocupación por la posesión de un local propio fue permanente desde los primeros días de vida institucional. Mientras no se logró obtenerlo las reuniones se realizaban en el domicilio de distintos colegas que generosamente abrieron sus puertas para permitir el desarrollo de la actividad societaria. Así se sucedió con los domicilios de los Doctores Carlos Insúa, Rosa D’Alessio de Carnevale Bonino, Luna B. de Conway. También se realizaron reuniones en el viejo local de la Asociación Farmacéutica y Bioquímica Argentina, Bme Mitre 2041 y en la Sociedad Científica Argentina. 

Después de diversas peripecias y  algunos fracasos en los intentos de adquirir un local propio, gracias al esfuerzo colectivo, la generosidad de los miembros de Comisión Directiva que aportaron recursos para conseguirlo una comisión que trabajó con ahínco y con la extraordinaria contribución del Dr. Félix Martinitto se logró concretar el sueño ambicionado. Así se obtuvo la propiedad que ocupa actualmente la ABA, que es testigo silencioso de todos aquellos afanes, que incluyera la generosa contribución pecuniaria de la Prof. Dra. Carnevale Bonino. 

El edificio fue inaugurado el 3 de mayo de 1968 en un acto en el que estuvieron presentes el decano de la Facultad de Farmacia y Bioquímica de Buenos Aires y representantes de la constituida Federación Bioquímica Argentina del Colegio Oficial de Farmacéuticos y Bioquímicos de la Capital Federal, de la Sociedad de Farmacia y Bioquímica Industrial, de la Asociación Química Argentina, de la Academia Argentina de Farmacia y Bioquímica, de la Asociación de Ingenieros Químicos, del Centro de Especialistas de Análisis Biológicos y representantes de diversas firmas comerciales.

Esa inauguración oficial fue exaltada en ese acto por el Presidente de la entidad que les habla, quien dijo entre otras cosas: “Es con esta tónica de entrañable cariño por nuestro quehacer que esta noche hemos reunido a nuestra vera a hermanos y amigos de la familia bioquímica para decirles, que, de hoy en adelante la tibieza de este hogar les esperará siempre y cobijará cualquier acción tendiente a devolver a la sociedad bajo forma de útiles prestaciones la confianza en nosotros depositada. Colocamos este hogar bajo la advocación de aquellos maestros que han hecho tanto para que la bioquímica brille en nuestro país como ciencia y como profesión. Por eso nuestro recuerdo emocionado evoca la figura tesonera de Sánchez, el talento y la propiedad científica de Marenzi y la amistad y simpatía de aquel gran amigo médico que fue Bacigalupo”.

La ABA puede jactarse de haber realizado casi la misma cantidad de reuniones científicas como años de vida tiene. Desde el comienzo de su existencia la ABA realizó sus clásicos Triduos Científicos, es decir 3 jornadas de lectura y consideración de trabajos presentados por los bioquímicos..En 1969 se realizó el 1º Congreso Argentino de Bioquímica y se decidió que cada 3 años se repitiera el carácter congresal en lugar del Triduo. Con el tiempo los Triduos desaparecieron subsistiendo los Congresos. 

Atendiendo a la apetencia de los colegas del interior se decidió que los Triduos y Congresos fueran realizados en el interior del país. Así Mar del Plata, San Luis, San Juan, Mendoza, Rosario, Salta, Misiones, Jujuy y Huerta Grande (Córdoba) fueron sedes de estas reuniones que tuvieron una entusiasta recepción. La palabra Triduo tiene una connotación primigenia religiosa; el Diccionario de la Lengua los señala como 3 jornadas de ejercicios devotos. Creemos por versiones de colegas ya desparecidos que fue el Dr. Poire distinguido bioquímico y médico quien propuso la denominación.

Hay dos hitos importantes en la vida institucional: la obtención de la personería jurídica, el 14 de noviembre de 1945 y el reconocimiento de la Municipalidad de la Ciudad de Buenos Aires como institución de bien público sin fines de lucro, es decir como entidad benemérita. Este logro fue posible gracias a la exitosa gestión del Dr. L. Desimone.

La expansión de la ABA hacia el interior del país fue fructífera no solamente por la transmisión de conocimientos sino porque constituyeron el germen decisivo para que se fueran formando entidades bioquímicas que con el tiempo se convertirían en focos de cultura profesional. Por aquel entonces las provincias se disputaban el asiento de los Triduos y allí concurría la madre generosa llevando conocimientos, experiencias y espíritu profesional.

La ABA dictó también cursos que fueron numerosos, versaron sobre distintos temas y significaron verdaderos aportes valiosos de aggiornamiento. Se instituyeron premios y se realizaron Simposios y Jornadas sobre enseñanza y ejercicio de la bioquímica que desde 1972 se desarrollaron paralelamente a los Triduos y Congresos. Nuestra revista societaria apareció a los dos años de fundación de la entidad, es decir, en enero de 1936. 

Casi desde el momento de su fundación, la ABA encaró el problema de la ubicación de los profesionales en los hospitales municipales y nacionales. Por aquel entonces era muy difícil el acceso de los bioquímicos a los laboratorios hospitalarios, que resultaban verdaderos feudos médicos celosamente custodiados. Cuando en 1935, la ABA se dirigió al Sr. Director de la Asistencia Pública por nota, solicitando se le informara sobre la situación en que se encontraban los bioquímicos en los hospitales municipales, recibió la contestación de que ellos no podían presentarse a concurso para optar el cargo de jefes de laboratorio en el ámbito municipal. La ABA comenzó una ardua tarea, en la que participaron activamente los Dres. De Prado, Brodersen, Cresta, Desimone y López entre otros. 

Recién en 1947 se consiguen las primeras jefaturas en el ámbito municipal. Los primeros bioquímicos jefes lo fueron en los Hospitales Argerich y Penna. Fueron los Dres. Horacio Berisso y Atilio Roccatagliatta, respectivamente. Estos acontecimientos fueron muy celebrados y en una reunión la que asistió el Sr. Director de la Administración Sanitaria y Asistencia Pública, el médico Dr. Rómulo Repetto dijo: “Esta noche una profesión celebra la conquista del puesto, dentro de la carrera médica hospitalaria, que debió ocupar siempre, sin intereses personales o la incomprensión de las autoridades municipales del pasado no se hubiesen opuesto injustamente a ello, y digo injustamente porque los Dres. en Bioquímica son quienes poseen los mayores títulos para dirigir los laboratorios de análisis clínicos y microbiológicos. Técnicamente nadie puede superarlos; la Facultad de Ciencias Médicas tiene una Escuela que les confiere un título habilitante, luego de haber cursado seis años de severos estudios. No son amateurs del laboratorio.Son por vocación, por ciencia y por exclusiva dedicación, los señores del laboratorio”.

Sin embargo, a pesar de estas honrosas palabras, los médicos no se resignaron. La Federación Médica Gremial gestionó la modificación del Estatuto de los Profesionales del arte de curar que, en el artículo 9, permitían que los bioquímicos ocuparan el cargo de jefe de laboratorio. La ABA contestó gallardamente todas las objeciones y luego de diversos avatares, se logró el triunfo final. Hoy, todas las jefaturas de laboratorio están ejercidas por bioquímicos y podemos anunciar orgullosamente, que por primera vez, un destacado colega ocupa la presidencia de la Asociación de Endocrinología y Metabolismo.

Vamos a referirnos ahora a una condición fundamental de la labor bioquímica: el tiempo. Por supuesto que no nos embarcaremos en la filosofía ni en la concepción einsteniana del mismo, con su carácter ilusorio y cambiante, según el rango de las velocidades. No, solo queremos destacar que el aspecto temporal de la actividad bioquímica se vio favorecida últimamente por los adelantos tecnológicos que facilitaron la aparición de aparatos autoanalizadotes que, si bien anularon la capacidad artesanal de otras épocas, dejaron para el profesional más posibilidades de ampliar el rico espectro del conocimiento bioquímico a través de la concurrencia a cursos de capacitación y perfeccionamiento.

Pues bien, la ABA tuvo y sigue teniendo función docente que, al ampliar los conocimientos de la bioquímica y de la fisiopatología permiten modificar el archiremanido concepto de la soberanía de la clínica. El bioquímico es el consultor obligado del médico.

La vida se renueva con permanencia, también las relaciones humanas cambian, lo hacen las instituciones,cambian los conceptos, cambian las concepciones filosóficas, cambia el arsenal científi co cuali y cuantitativamente. La ABA no podía estar exenta de esa condición cambiante que exige la dialéctica de los hechos naturales. Pero aún en ese cambio que fecunda la labor gregaria de nuestra institución persiste, en una sutil remembranza el recuerdo de aquellos espíritus quijotescos que con visión de futuro fundaron la entidad que hoy orgullosa continúa su magnífica labor esparcidora de cultura bioquímica.....


Nueva presentación el 30 de Septiembre.
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina