miércoles, 20 de noviembre de 2024

1108- Entrevistas: biopsias líquidas, imágenes e inteligencia artificial

Stefan Foser, Kenneth Maiese, Subba R Digumarthy, Joan Anton Puig-Butille, Christian Rebhan. Mirando hacia el futuro de la detección temprana del cáncer: biopsias líquidas, imágenes e inteligencia artificial. Entrevistas. Oxford Academic-Clini Chem 2024; 70 (1): 27–32. Center of Diagnostics for Innovation Oncology, Siemens Healthcare Diagnostics Products GmbH, Cologne, Germany.

Resumen ChatGPT

El artículo analiza en profundidad los avances en la detección temprana del cáncer, haciendo hincapié en tres tecnologías fundamentales: biopsias líquidas, técnicas de diagnóstico por imágenes avanzadas e inteligencia artificial (IA). Destaca cómo estas innovaciones están redefiniendo el diagnóstico y el tratamiento del cáncer, con el objetivo último de mejorar los resultados de los pacientes.

Biopsias liquidas

Las biopsias líquidas representan un avance significativo en el diagnóstico del cáncer. A diferencia de las biopsias de tejido tradicionales, que pueden ser invasivas e incómodas, las biopsias líquidas analizan biomarcadores que se encuentran en los fluidos corporales, principalmente la sangre. Este método permite la detección de ADN tumoral circulante (ctDNA), exosomas y otras sustancias relacionadas con el cáncer, lo que proporciona información sobre la genética y la biología de los tumores.

Ventajas:

  • Mínimamente invasivas: las biopsias líquidas solo requieren una muestra de sangre, lo que las hace más fáciles y menos riesgosas para los pacientes.
  • Monitoreo en tiempo real: Permiten el monitoreo continuo de la dinámica tumoral, lo cual es crucial para evaluar las respuestas al tratamiento y la progresión de la enfermedad.
  • Detección temprana: estas pruebas pueden identificar el cáncer en etapas más tempranas, posiblemente antes de que aparezcan los síntomas.

El artículo señala varios estudios y ensayos clínicos en curso cuyo objetivo es validar la eficacia de las biopsias líquidas en varios tipos de cáncer. La integración de estas biopsias en la práctica clínica habitual podría dar lugar a intervenciones más tempranas y terapias personalizadas.

Técnicas avanzadas de imagenología

Las tecnologías de diagnóstico por imágenes, como la resonancia magnética, la tomografía computarizada y la tomografía por emisión de positrones, desempeñan un papel fundamental en la detección del cáncer. Los avances recientes en el campo de las imágenes han mejorado la sensibilidad y la especificidad, lo que permite una identificación más temprana y precisa de los tumores.

Tecnologías emergentes:

  • Imágenes híbridas: las técnicas que combinan diferentes modalidades de imágenes (por ejemplo, PET/CT) mejoran las capacidades de diagnóstico al proporcionar vistas integrales de los tumores.
  • Imágenes moleculares: este enfoque se centra en procesos celulares específicos, lo que permite la detección de tumores a nivel molecular.

El artículo analiza cómo estas innovaciones en imágenes pueden ayudar a diferenciar entre lesiones benignas y malignas, reduciendo biopsias innecesarias y mejorando la precisión de la estadificación del cáncer.

Inteligencia artificial

La inteligencia artificial y el aprendizaje automático están transformando el panorama de la detección del cáncer. Estas tecnologías analizan grandes cantidades de datos para identificar patrones y hacer predicciones, mejorando la precisión y la eficiencia del diagnóstico.

Aplicaciones

  • Análisis de imágenes: los algoritmos de IA pueden interpretar los resultados de las imágenes con mayor rapidez y precisión que los métodos tradicionales. Son particularmente útiles para detectar cambios sutiles que pueden indicar un cáncer en etapa temprana.
  • Análisis predictivo: la IA puede evaluar los datos del paciente, incluida la información genética, para predecir el riesgo de cáncer y las respuestas al tratamiento, lo que permite enfoques personalizados.

El artículo destaca los esfuerzos de investigación en curso para integrar la IA en los flujos de trabajo clínicos, enfatizando el potencial para reducir los errores de diagnóstico y mejorar los resultados a través de una mejor toma de decisiones.

Desafíos y direcciones futuras

A pesar de los prometedores avances, el artículo reconoce varios desafíos en la implementación de estas tecnologías. Los obstáculos regulatorios, la necesidad de protocolos estandarizados y la importancia de garantizar la seguridad de los datos y la privacidad del paciente son preocupaciones importantes. Además, la integración de la IA y los resultados de la biopsia líquida en la práctica clínica requiere una mayor validación mediante estudios a gran escala.

El futuro de la detección temprana del cáncer reside en un enfoque multimodal que combine estas tecnologías innovadoras. El artículo aboga por la colaboración entre investigadores, médicos y bioquímicos para crear sistemas robustos que aprovechen las ventajas de las biopsias líquidas, las imágenes y la inteligencia artificial.

Conclusión:  En conclusión, el artículo presenta un panorama optimista sobre el futuro de la detección del cáncer. La integración de biopsias líquidas, técnicas avanzadas de diagnóstico por imagen e inteligencia artificial tiene el potencial de revolucionar la forma en que se diagnostican y tratan los cánceres. Al permitir una detección más temprana y estrategias de tratamiento más personalizadas, estas innovaciones apuntan a mejorar las tasas de supervivencia y mejorar la calidad de vida de los pacientes con cáncer.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 23 de Noviembre
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina




 

viernes, 15 de noviembre de 2024

1107- Detección del cáncer colon rectal

Joseph F. Toth III, Mehul Trivedi,Samir Gupta .Detección del cáncer colon rectal: el papel de los laboratorios clínicos. Oxford Academic -Clin Chem 2024; 70 (1):150–164. Department of Internal Medicine, University of California San Diego Health, La Jolla, CA, United States. 

Resumen (Chat GPT) 

El cáncer colorrectal (CCR) sigue siendo una de las principales causas de morbilidad y mortalidad relacionadas con el cáncer en todo el mundo. A medida que aumentan los esfuerzos de detección, los laboratorios clínicos desempeñan un papel fundamental para facilitar la detección temprana y mejorar los resultados de los pacientes. En este artículo se analizan los diversos métodos de detección del CCR, el papel de los laboratorios clínicos en estos procesos y la importancia de integrar nuevas tecnologías y enfoques para mejorar la eficacia de la detección.

Antecedentes sobre el cáncer colon rectal

El cáncer colorrectal se desarrolla en el colon o el recto y suele comenzar como pólipos, que pueden volverse malignos con el tiempo. La incidencia del cáncer colorrectal ha mostrado una tendencia preocupante, en particular en las poblaciones más jóvenes, lo que pone de relieve la necesidad de estrategias de detección eficaces. El artículo señala que la detección temprana es crucial, ya que mejora significativamente el pronóstico y las tasas de supervivencia.

Métodos de detección actuales

El artículo analiza varias modalidades de detección establecidas para el CCR:

  • Prueba inmunoquímica fecal (FIT) : una prueba no invasiva que detecta sangre en las heces. La FIT se recomienda para personas con riesgo promedio a partir de los 45 años. Su sensibilidad y especificidad la convierten en un método ampliamente adoptado.
  • Colonoscopia : considerada el método de referencia, permite la visualización directa y la biopsia del colon. Si bien es eficaz, es invasiva, requiere preparación intestinal y conlleva riesgos.
  • Sigmoidoscopia flexible : este método examina solo la parte inferior del colon y puede combinarse con FIT para mejorar las estrategias de detección.
  • Colonografía por TC : también conocida como colonoscopia virtual, esta técnica de imágenes es menos invasiva y puede identificar pólipos, pero requiere una colonoscopia de seguimiento para su confirmación.
  • Pruebas de ADN en heces : las tecnologías emergentes que analizan muestras de heces en busca de marcadores genéticos asociados con el cáncer colorrectal están ganando terreno. Estas pruebas prometen una mayor sensibilidad, pero actualmente están menos disponibles.

El papel de los laboratorios clínicos: Los laboratorios clínicos son fundamentales para el proceso de detección y ofrecen servicios cruciales que garantizan un diagnóstico preciso y oportuno. El artículo destaca varias funciones clave:

  • Validación e implementación de pruebas: los laboratorios deben validar las nuevas pruebas de detección para garantizar que cumplan con los estándares clínicos. Esto implica medidas rigurosas de control de calidad y participación en programas de evaluación de calidad externos.
  • Interpretación de los resultados: los patólogos y los bioquímicos desempeñan un papel fundamental en la interpretación de los resultados de las pruebas. Su experiencia es esencial para distinguir entre hallazgos benignos y malignos, lo que puede afectar significativamente las decisiones de tratamiento.
  • Educación y apoyo al paciente: los laboratorios clínicos también contribuyen a la educación del paciente al brindar información sobre la importancia de las pruebas de detección y qué esperar de las diferentes pruebas. Esta función educativa puede mejorar el cumplimiento y alentar a las personas a participar en los programas de detección.
  • Gestión de datos y presentación de informes: los sistemas de gestión de datos eficaces son fundamentales para hacer un seguimiento de los resultados de las pruebas de detección y garantizar que se lleven a cabo los procedimientos de seguimiento necesarios. Los laboratorios deben desarrollar mecanismos de presentación de informes sólidos para transmitir la información a los proveedores de atención médica con prontitud.
  • Integración de Nuevas Tecnologías: El artículo analiza la necesidad de que los laboratorios clínicos se adapten a los avances tecnológicos. Las innovaciones en biología molecular y pruebas genéticas están dando forma al futuro de la detección del cáncer colorrectal. Los laboratorios están incorporando cada vez más técnicas de secuenciación de nueva generación (NGS) para identificar mutaciones genéticas asociadas con el riesgo de cáncer colorrectal, lo que permite estrategias de detección personalizadas.

Además, la integración de la inteligencia artificial (IA) en el análisis de muestras histopatológicas promete mejorar la precisión del diagnóstico. Los algoritmos de IA pueden ayudar a los patólogos a identificar cambios cancerosos de manera más eficiente, mejorando así los programas de detección.

Desafíos y consideraciones: A pesar de los avances, aún quedan varios desafíos por resolver. El artículo destaca cuestiones como:

  • Acceso y disparidades : existen disparidades significativas en el acceso a las pruebas de detección en función del nivel socioeconómico, la ubicación geográfica y los recursos de atención médica. Los esfuerzos deben centrarse en garantizar un acceso equitativo a las pruebas de detección para todas las poblaciones.
  • Cumplimiento por parte de los pacientes : es fundamental alentar a los pacientes a participar en los programas de detección. Las iniciativas educativas y los sistemas de recordatorio pueden ayudar a mejorar los índices de cumplimiento.
  • Rentabilidad : evaluar la rentabilidad de los distintos métodos de detección es esencial para la toma de decisiones en materia de políticas sanitarias. A medida que surgen nuevas pruebas, es fundamental analizar su impacto económico en comparación con los métodos tradicionales.
  • Consideraciones éticas y regulatorias : el rápido avance de las tecnologías de detección plantea desafíos regulatorios. Los laboratorios deben adaptarse a estas regulaciones para garantizar que las nuevas pruebas sean seguras y efectivas.

Direcciones futuras: El artículo destaca la importancia de la investigación continua y la colaboración entre laboratorios clínicos, proveedores de atención médica y organizaciones de salud pública. Las futuras estrategias de detección deberían centrarse en:

  • Detección personalizada : adaptar los enfoques de detección en función de los factores de riesgo individuales, las predisposiciones genéticas y los antecedentes familiares podría mejorar la eficacia.
  • Participación de la comunidad : involucrar a las comunidades en campañas de concientización puede promover la detección y reducir el estigma asociado con el CCR.
  • Educación continua : La educación continua para los profesionales de laboratorio sobre las tecnologías emergentes y las mejores prácticas en la detección del CCR es crucial.

Conclusión:  El papel de los laboratorios clínicos en la detección del cáncer colorrectal es esencial para mejorar la detección y los resultados de los pacientes. Mediante la integración de tecnologías avanzadas y la resolución de los desafíos en materia de acceso y cumplimiento, los laboratorios pueden contribuir significativamente a la lucha contra el cáncer colorrectal. La colaboración entre los laboratorios clínicos y los médicos será clave para dar forma al futuro de la detección del cáncer colorrectal, lo que en última instancia conducirá a mejores tasas de supervivencia y calidad de vida para los pacientes. 

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 20 de Noviembre
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina




domingo, 10 de noviembre de 2024

1106- Embarazos expuestos a sustancias tóxicas.

Gwendolyn A McMillin, Anna W Morad, Jessica M Boyd, Kamisha L Johnson-Davis, Torri D Metz, Marcela C Smid, Matthew D Krasowski. Pruebas e interpretación de los resultados de laboratorio asociados con la detección de recién nacidos expuestos a sustancias. Oxford Academic-Clin Chem, 2024; 70 (7): 934–947. Department of Pathology and ARUP Laboratories, University of Utah Health, Salt Lake City United States.

Resumen 

Antecedentes: El consumo de sustancias durante el embarazo es común, al igual que las pruebas biológicas que tienen como objetivo ayudar a identificar exposiciones prenatales. Sin embargo, no existe un requisito estandarizado para las pruebas biológicas con muestras maternas o de recién nacidos, ni tampoco hay una estandarización relacionada con cuándo se realizan las pruebas, con qué frecuencia se realizan, qué muestras se deben analizar, qué sustancias se deben analizar o cómo realizar las pruebas.

Contenido:  Revisamos los tipos de muestras comunes que se analizan para detectar la exposición de la madre y el recién nacido a sustancias, con especial atención a la orina, el meconio y el tejido del cordón umbilical. También revisamos los métodos analíticos comunes que se utilizan para realizar las pruebas, incluidos los inmunoensayos y las plataformas de espectrometría de masas. Se enfatizan las consideraciones sobre la utilización de las pruebas en relación con el propósito de la prueba, el analito o los analitos de interés, la prueba específica empleada y la interpretación de los resultados para ayudar a orientar las decisiones sobre el uso clínico de las pruebas. También destacamos ejemplos específicos de resultados inesperados que se pueden utilizar para orientar la interpretación y los próximos pasos apropiados.

Conclusiones: Existen puntos sólidos y limitaciones asociados con todos los enfoques para detectar la exposición a sustancias en embarazadas, así como con las pruebas biológicas para evaluar a un recién nacido con posible exposición a sustancias. Es necesaria una estandarización para fundamentar mejor las decisiones en torno a la evaluación de la exposición a sustancias en embarazadas y recién nacidos. Si se opta por el muestreo biológico, las opciones y los resultados de las pruebas deben revisarse en el contexto clínico, reconociendo que pueden producirse y, de hecho, se producen resultados falsos positivos y negativos.

Introducción

El consumo de sustancias, ya sea terapéutico (prescrito o no) o recreativo (legal o ilícito), es común entre las embarazadas. Al menos el 70% de las embarazadas toman uno o más medicamentos recetados y más del 20% admiten el consumo de drogas recreativas, incluido el alcohol y la marihuana. Se estima que el consumo de drogas ilícitas y el Trastorno por Consumo de Sustancias (SUD) se producen en el 5% al ​​10% de las embarazadas. 

La detección del consumo o la exposición a sustancias puede implicar pruebas biológicas, aunque la idoneidad de analizar muestras recogidas de embarazadas y recién nacidos es un tema muy debatido sin un consenso claro. Actualmente, ninguna organización recomienda la realización de pruebas universales de muestras biológicas. Tampoco se recomiendan las pruebas basadas en el riesgo debido a los antecedentes de SUD, la edad, el nivel socioeconómico, la raza y la etnia, o la atención prenatal tardía. 

Los resultados de los estudios que evalúan el rendimiento diagnóstico de las pruebas biológicas frente a las herramientas de detección son contradictorios y señalan que existen numerosos escollos a la hora de interpretar una prueba toxicológica.

Está bien documentado que la falta de información sobre el consumo de sustancias durante el embarazo es común, en gran medida porque las mujeres embarazadas se sienten estigmatizadas o temen las posibles ramificaciones legales y sociales asociadas con la divulgación del consumo de sustancias. Es posible que una persona embarazada no crea que es importante divulgar el consumo de sustancias terapéuticas o recreativas y que no sea consciente del potencial aumento del riesgo de daño al recién nacido, incluidos los síntomas de abstinencia. Si una persona embarazada informa del consumo de sustancias ilícitas, es poco probable que se conozca la pureza de las sustancias ilícitas y la cantidad total consumida. Las sustancias ilícitas pueden contener compuestos inesperados y, a menudo, contienen componentes farmacológicamente activos o adulterantes como el levamisol con cocaína y la xilacina con fentanilo......

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 15 de Noviembre
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


viernes, 8 de noviembre de 2024

1105- Test nacional de antígeno para el diagnóstico de dengue

Fundacion Instituo Leloir: Andrea Gamarnik, Belén García Fabiani, Marcelo Yanovsky.  Laboratorio Lemos: Jorge Carradori. La ANMAT aprobó el primer test nacional de antígeno para el diagnóstico de dengue.  30 Oct 2024

"Desarrollado por investigadores de nuestro Laboratorio de Virología Molecular, el kit Detect-AR Dengue permite establecer la infección por cualquiera de los cuatro serotipos del virus, al identificar una proteína viral en la sangre de pacientes que cursan la fase aguda de la enfermedad. Será producido y comercializado por el Laboratorio Lemos.

La Administración Nacional de Medicamentos, Alimentos y Tecnología Médica (ANMAT) acaba de aprobar para su comercialización el Kit Detect-AR Dengue TEST de ELISA NS1, el primer test de antígeno nacional para el diagnóstico de la enfermedad que durante el verano 2023/2024 causó en el país el mayor brote desde que se tiene registro, con 583.297 casos confirmados y 419 personas fallecidas. Desarrollado en el Laboratorio de Virología Molecular que dirige la investigadora del CONICET Andrea Gamarnik en nuestro Instituto, el nuevo test está destinado a laboratorios de análisis clínicos, para ser utilizado por personal capacitado. Será producido y comercializado por la empresa argentina Laboratorio Lemos y aspira a resolver la falta de insumos ante una posible nueva crisis sanitaria como la que ocurrió a comienzos de este año.

“Antes de ponernos a trabajar en este desarrollo hicimos un sondeo entre especialistas de laboratorios de análisis clínicos, para entender cuáles eran las urgencias en cuanto al diagnóstico de dengue y fue contundente la necesidad de poder detectar al antígeno viral NS1”, resalta Gamarnik. Y añade: “Existen dos métodos principales para diagnosticar al dengue: uno detecta la presencia de las proteínas del virus en la sangre; el otro, al ARN viral por medio de técnicas moleculares como PCR. Ambos procedimientos son complementarios y dan información útil. Sin embargo, a diferencia de los métodos de detección del ARN del virus, el test que desarrollamos en nuestro laboratorio tiene la ventaja de ser más sencillo de medir y es menos costoso, ya que no es necesario equipamiento sofisticado o insumos adicionales”.

El kit Detect-AR Dengue permite establecer la infección por cualquiera de los cuatro serotipos del virus al identificar la proteína viral NS1 en pacientes que cursan la fase aguda de la enfermedad. El resultado se obtiene en tres horas y se pueden procesar hasta 92 muestras en simultáneo.

“Hasta ahora no existían en Argentina test de ELISA para dengue desarrollados y producidos en el país. El Detect-AR Dengue cumple con los requisitos de especificidad y sensibilidad comparables a los test comerciales que se usan en el ámbito clínico en la actualidad y que son producidos por compañías extranjeras”, asegura la bioquímica Belén García Fabiani, quien desde el laboratorio de Gamarnik coordinó el desarrollo del flamante kit.

Por su parte, Gamarnik enfatiza: “Poder contar con estos test de producción local es importante no sólo desde el punto de vista clínico, al permitir el diagnóstico temprano de la infección por virus dengue, sino también para poder afianzar nuestra soberanía en cuanto al control sanitario y el seguimiento epidemiológico de un agente infeccioso de tanta relevancia en nuestra región”. “Al ser un desarrollo nacional –continúa– permitirá reemplazar importaciones, lo que redundará en un ahorro de costos, y garantizar el acceso a herramientas fundamentales en momentos de brotes epidémicos”.

Como la infección causada por el virus dengue puede presentar síntomas inespecíficos (fiebre, dolor de cabeza, dolor muscular y articular), no es fácil obtener un diagnóstico preciso sólo basándose en una evaluación clínica. Por eso es importante realizar un análisis de laboratorio que pueda identificar la presencia (o no) del virus en la sangre. Si bien no existe un tratamiento específico para el dengue, determinar la causa del cuadro clínico es clave para tomar decisiones en cuanto al manejo correcto de los síntomas y la prevención de complicaciones. Ocurre que, en los casos más graves, la enfermedad puede evolucionar hacia situaciones potencialmente mortales como el shock hemorrágico."

Leer el articulo completo

(*)  Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 10 de Noviembre
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



martes, 5 de noviembre de 2024

1104- Enfermedad celíaca: anticuerpos antipéptidos de gliadina desamidados

Abdulrahman Al-Hussaini, Abdullah Al-Jurayyan, Sahar Alharbi, Muhammed Salman Bashir, Riccardo Troncone. Rendimiento de los anticuerpos antipéptidos de gliadina desamidados como primera prueba de detección de la enfermedad celíaca en la población pediátrica. Front Pediatr. 2023; 11: 1279825. Division of Pediatric Gastroenterology, Children’s Specialized Hospital, Riyadh, Saudi Arabia

Resumen (ChatGPT)

Introducción:  La enfermedad celíaca (EC) es un trastorno autoinmune desencadenado por la ingestión de gluten en individuos genéticamente predispuestos. Afecta a diversos grupos de edad, incluidos los niños, y puede provocar complicaciones de salud importantes si no se diagnostica. La detección temprana y precisa es crucial para un tratamiento eficaz. Este estudio evalúa el rendimiento de los anticuerpos antipéptidos de gliadina desamidados (DGP-IgA y DGP-IgG) como herramienta de detección de primera línea para la enfermedad celíaca en la población pediátrica general.

Antecedentes: Tradicionalmente, la detección de la enfermedad celíaca se realiza mediante pruebas serológicas de anticuerpos antitransglutaminasa tisular (tTG-IgA) y anticuerpos endomisiales (EMA). Sin embargo, estas pruebas pueden no ser siempre fiables en poblaciones más jóvenes o en determinados contextos clínicos. Los anticuerpos anti-DGP han surgido como una posible alternativa debido a su facilidad de uso y sensibilidad. Estudios previos indicaron que los anticuerpos anti-DGP podrían servir como marcadores eficaces, especialmente en la cohorte pediátrica.

Objetivos: El objetivo principal del estudio fue evaluar la sensibilidad, la especificidad y el rendimiento general de DGP-IgA y DGP-IgG como herramientas de detección de la enfermedad celíaca en niños. El estudio tuvo como objetivo determinar si estos anticuerpos podían identificar de manera confiable a los niños en riesgo de enfermedad celíaca antes de realizar pruebas confirmatorias con una biopsia intestinal.

Métodos:  El estudio se realizó en una cohorte de niños de la población pediátrica general, con edades comprendidas entre 2 y 18 años. A los participantes se les realizaron pruebas de anticuerpos DGP-IgA y DGP-IgG, así como de tTG-IgA. A los niños con resultados serológicos positivos se les realizó una biopsia para confirmar el diagnóstico de enfermedad celíaca.

Se recogieron y analizaron datos para determinar las características de rendimiento de los anticuerpos DGP. Se calculó la sensibilidad (la capacidad de identificar correctamente a las personas con la enfermedad) y la especificidad (la capacidad de identificar correctamente a las personas sin la enfermedad). También se evaluaron el valor predictivo positivo (VPP) y el valor predictivo negativo (VPN) para medir la utilidad clínica de estas pruebas.

Resultados: En el estudio participaron una cantidad significativa de niños y los resultados demostraron que los anticuerpos DGP-IgA y DGP-IgG mostraron un rendimiento prometedor como herramientas de detección. Se descubrió que la sensibilidad de DGP-IgA era comparable a la de tTG-IgA, mientras que DGP-IgG mostró una sensibilidad ligeramente inferior pero una especificidad aceptable.

  • Sensibilidad y especificidad : La DGP-IgA tuvo una sensibilidad de aproximadamente el 90% y una especificidad del 95%, lo que la convierte en una prueba de detección inicial muy eficaz. La DGP-IgG mostró una sensibilidad de alrededor del 80%, pero mantuvo una especificidad similar.
  • Valores predictivos : El VPP para DGP-IgA también fue favorable, en particular en poblaciones con una prevalencia más alta de enfermedad celíaca. El VPN fue alto para ambas pruebas DGP, lo que sugiere que los resultados negativos pueden descartar la enfermedad de manera confiable.
  • Comparación con otras pruebas : en comparación con los marcadores tradicionales, los anticuerpos DGP tuvieron un rendimiento similar o mejor, especialmente en subconjuntos específicos de la población, como niños más pequeños o aquellos con síntomas atípicos.

Discusión:  Los resultados sugieren que los anticuerpos DGP podrían servir como una herramienta eficaz de detección de primera línea para la enfermedad celíaca en la población pediátrica. Su capacidad para detectar la enfermedad de forma temprana podría facilitar intervenciones oportunas, lo que podría reducir las complicaciones a largo plazo asociadas con la enfermedad celíaca no tratada.

El estudio destaca la importancia de utilizar una combinación de pruebas serológicas para mejorar la precisión diagnóstica. Si bien los anticuerpos DGP mostraron resultados prometedores, los autores recomiendan realizar más estudios para confirmar estos hallazgos y explorar el potencial de integrar las pruebas DGP en la práctica pediátrica de rutina.

Limitaciones: El estudio reconoció varias limitaciones, entre ellas la falta de una muestra de población diversa y la posibilidad de variabilidad en los métodos de análisis de laboratorio. Además, la dependencia de pruebas serológicas sin una evaluación clínica integral podría afectar la precisión del diagnóstico.

Conclusión:  En conclusión, los anticuerpos antipéptidos de gliadina desamidados (DGP-IgA y DGP-IgG) son eficaces como herramientas de detección de primera línea para la enfermedad celíaca en la población pediátrica general. Su alta sensibilidad y especificidad los convierten en candidatos adecuados para la detección temprana, lo que contribuye a mejores resultados clínicos para los niños afectados. Las investigaciones futuras deberían apuntar a validar estos hallazgos en cohortes más grandes y diversas, así como a investigar la posible integración de las pruebas DGP en las pautas clínicas para la detección de la enfermedad celíaca.

En general, este estudio proporciona evidencia convincente de que los anticuerpos DGP podrían desempeñar un papel fundamental en la identificación temprana y el tratamiento de la enfermedad celíaca en niños, mejorando en última instancia las prácticas de atención médica pediátrica.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 08 de Noviembre
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



viernes, 1 de noviembre de 2024

1103- Interferencia en inmunoensayos hormonales

Khaldoun Ghazal, Severine Brabant, Dominique Prie, Marie-Liesse Piketty. Interferencia en el inmunoensayo hormonal: actualización de 2021. NLM- Ann Lab Med. 2022 ;42(1):3-23. Assistance Publique Hopitaux de Paris, Department of Functional Explorations, Necker Enfants Malades Hospital, Paris-Centre University, Paris Cedex, France.

Reumen

Los inmunoensayos son técnicas analíticas cualitativas y cuantitativas muy potentes. Desde la primera descripción de un método de inmunoensayo en 1959, se han producido avances en los diseños de los ensayos y en las características analíticas, abriendo la puerta a su amplia aplicación en los laboratorios clínicos. La endocrinología clínica está estrechamente vinculada al  laboratorios clínico porque la cuantificación hormonal es importante para el diagnóstico, el tratamiento y el pronóstico de los trastornos endocrinos. A lo largo de los años se han identificado varias interferencias en los inmunoensayos y aunque algunas ya no se encuentran en la práctica diaria, la reacción cruzada, los anticuerpos heterófilos, la biotina y los anticuerpos antianalito siguen causando problemas. También están surgiendo nuevas interferencias con el desarrollo de nuevas terapias. La sustancia que interfiere puede ser exógena (p.ej., un fármaco o una sustancia absorbida por el paciente) o endógena (p.ej., anticuerpos producidos por el paciente), y el sesgo causado por la interferencia puede ser positivo o negativo. Las consecuencias de la interferencia pueden ser perjudiciales cuando los médicos consideran resultados erróneos para establecer un diagnóstico, lo que lleva a exploraciones innecesarias o tratamientos inadecuados. Los laboratorios clínicos y los fabricantes siguen investigando métodos para detectar, eliminar y prevenir interferencias. Sin embargo, ningún sistema está completamente libre de este tipo de incidentes. En esta revisión, nos centraremos en las interferencias analíticas que se encuentran en la práctica diaria y en las posibles soluciones para detectarlas o eliminarlas.

Introducción

Los inmunoensayos se utilizan ampliamente en los laboratorios clínicos para una variedad de análisis hormonales. Desde el primer inmunoensayo de insulina descrito por Berson y Yalow (que recibió el Premio Nobel de Medicina en 1977), los inmunoensayos han evolucionado considerablemente. Sin embargo, con la adaptación generalizada de estas técnicas, se han identificado varias interferencias. Los inmunoensayos son susceptibles a interferencias debido a las complejidades de la interacción antígeno (Ag)-anticuerpo (Ab) que ocurre en una matriz compleja. Dicha interferencia conduce a una interpretación incorrecta de los resultados del inmunoensayo, lo que lleva a exploraciones innecesarias o a la administración de una terapia inapropiada.

El diseño de inmunoensayos inicialmente dependía del desarrollo de Abs policlonales obtenidos de fuentes animales en un formato competitivo; en 1975, Köhler y Milstein describieron la técnica de desarrollo de Ab monoclonales (mAb) (que recibió el Premio Nobel de Medicina en 1984), lo que condujo al desarrollo de inmunoensayos no competitivos (sándwich) donde dos mAbs diferentes pueden reconocer el mismo Ag en un paso de incubación. La sensibilidad y especificidad de los inmunoensayos hicieron posible detectar y cuantificar analitos en concentraciones extremadamente bajas, lo que no era posible con otras técnicas de química clínica. Junto con las ventajas de un tiempo de medición rápido e instrumentos completamente automatizados, el rendimiento analítico mejorado llevó a que los inmunoensayos se convirtieran en una técnica ampliamente adoptada en los laboratorios clínicos.

Los sistemas analíticos se han desarrollado para ser más rápidos y eficientes con las ventajas de la evolución de la automatización para satisfacer las demandas de una mayor carga de trabajo y la necesidad de un análisis rápido. Sin embargo, estos avances están asociados con desventajas como la baja especificidad de los inmunoensayos directos de esteroides. Los sistemas también se han vuelto más confiables debido a las mejoras en los reactivos de inmunoensayo y los sistemas de detección de señales.

Estos avances han disminuido, pero no eliminado por completo, la incidencia de interferencias en los inmunoensayos. Todavía se producen errores analíticos debidos a interferencias endógenas en algunas muestras de pacientes. La interferencia puede inducir resultados falsos positivos, falsos negativos o ambos, que pueden simular un perfil hormonal aparentemente coherente que podría dar lugar a exploraciones innecesarias, tratamientos inadecuados o un diagnóstico erróneo.

En esta revisión, analizamos los tipos de inmunoensayos que se utilizan habitualmente en los laboratorios, los mecanismos implicados en posibles interferencias analíticas in vitro y las soluciones y estrategias empleadas para sospechar y superar dichas interferencias, incluidas las interferencias emergentes notificadas recientemente. La modificación de las concentraciones hormonales por la acción farmacológica de un fármaco queda fuera del alcance de esta revisión y no se abordará......

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 05 de Noviembre
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



lunes, 28 de octubre de 2024

1102- Fase pre-analitica - Dia del Jubilado Bioquimico

Janne Cadamuro Ana-Maria Simundic. Fase preanalítica: de un laboratorio de medicina centrado en el instrumento a uno centrado en el paciente. De Gruyter- Clini Chem Labor Medi (CCLM). 2023; 61(5). Department of Laboratory Medicine, Paracelsus Medical University Salzburg, Au

Resumen Chat (GPT)

El artículo aborda un aspecto crítico, pero a menudo pasado por alto: la fase pre-analítica. Esta fase abarca todos los procedimientos desde el punto de preparación del paciente hasta el análisis de las muestras, e influye significativamente en la calidad de los resultados de laboratorio. Tradicionalmente, las prácticas de laboratorio se han centrado en gran medida en los instrumentos y las tecnologías utilizadas para las pruebas, descuidando a menudo los factores humanos y contextuales que afectan a la recolección y manipulación de las muestras.

Importancia de la fase pre-analítica

La fase pre-analítica es responsable de una proporción sustancial de errores en las pruebas de laboratorio, que se estima que oscilan entre el 30% y el 70%. Los factores que contribuyen a estos errores incluyen la recolección incorrecta de muestras, el etiquetado incorrecto y los problemas de transporte. El artículo enfatiza que optimizar esta fase es crucial para mejorar los resultados de los pacientes y garantizar procesos de diagnóstico precisos.

Cambio hacia una atención centrada en el paciente

Los autores abogan por un cambio de paradigma en el laboratorio de medicina, desde un enfoque centrado en los instrumentos a un enfoque centrado en el paciente. Esta transición implica priorizar las necesidades y experiencias de los pacientes durante todo el proceso de análisis. Un entorno de laboratorio centrado en el paciente tiene en cuenta factores como:

  • Preparación del paciente : proporcionar instrucciones claras a los pacientes sobre el ayuno, las restricciones de medicación y el momento de la toma de muestras.
  • Capacitación del personal : garantizar que los profesionales de la salud involucrados en el proceso de recolección estén bien capacitados y sean sensibles a las necesidades de los pacientes.
  • Participación del paciente : involucrar a los pacientes en sus decisiones de atención médica, lo que puede mejorar su comprensión del proceso de prueba y su importancia.

Estrategias de mejora

El artículo propone varias estrategias para mejorar la fase preanalítica:

  • Protocolos estandarizados : desarrollar protocolos claros y estandarizados para la recolección y manipulación de muestras para minimizar la variabilidad y los errores.
  • Programas de capacitación : Implementar capacitación integral al personal de laboratorio sobre la importancia de la fase pre-analítica y las mejores prácticas para la interacción con el paciente.
  • Uso de tecnología : aprovechar la tecnología, como los registros médicos electrónicos y los sistemas de códigos de barras, para mejorar el seguimiento de las muestras y reducir los errores de etiquetado.
  • Medidas de garantía de calidad : Establecer medidas de control y garantía de calidad que aborden específicamente los procesos pre-analíticos.
  • Mecanismos de retroalimentación : creación de sistemas de retroalimentación del personal de laboratorio y de los pacientes para refinar y mejorar continuamente las prácticas preanalíticas.

Estudios de casos y ejemplos

El artículo incluye varios estudios de casos que demuestran el impacto de las optimizaciones de la fase pre-analítica. Un ejemplo notable muestra cómo un hospital implementó un nuevo protocolo para flebotomía que implicó la capacitación del personal y la participación de los pacientes, lo que resultó en una reducción significativa en las tasas de rechazo de muestras.

Conclusión

En conclusión, el artículo destaca la necesidad crítica de un cambio cultural dentro del laboratorio clínico para priorizar la fase pre-analítica. Al adoptar un enfoque centrado en el paciente, los laboratorios pueden mejorar la precisión de los resultados de las pruebas, mejorar la satisfacción del paciente y, en última instancia, contribuir a mejores resultados de atención médica. Los autores piden la colaboración entre los profesionales de la salud, el personal de laboratorio y los pacientes para fomentar un entorno de laboratorio más integrado y eficaz.

Cómo empezó todo

Ya en el año 4000 a. C., los médicos babilónicos y sumerios documentaron análisis de muestras de orina humana . Ha transcurrido mucho tiempo desde entonces y muchas innovaciones analíticas finalmente han dado lugar a las posibilidades de diagnóstico actuales. En los entornos sanitarios modernos, se puede realizar una variedad infinita de pruebas de laboratorio con una precisión y una calidad asombrosas con tiempos de respuesta récord, lo que constituye la base de la mayoría de las decisiones médicas. Actualmente, la medicina de laboratorio tiene las tasas de error más bajas entre las disciplinas de diagnóstico médico, con un nivel de seis sigma de >4. Aspirando a una calidad aún mayor, pronto se hizo evidente que la mayoría de los errores dentro del proceso de prueba total se encuentran en la fase pre-analítica .

En la década de 1970, observadores atentos, como Walter Guder, a quien muchos colegas consideran el fundador de la ciencia pre-analítica, descubrieron que a pesar de la alta calidad analítica, los resultados de las pruebas variaban, dependiendo de las variables influyentes previas al análisis. El término “pre-analítico” fue introducido por Statland et al. en 1977.

Sin tomar en cuenta la importancia obvia de estos hallazgos, los laboratorios tardaron entre 15 y 20 años más en reconocer al menos los factores de influencia pre-analítica intra-laboratorio. Durante los años siguientes, los laboratorios ampliaron su búsqueda de errores a los procesos pre-analíticos extra-laboratorios. Hoy está surgiendo un enfoque más centrado en el paciente, que apunta a evitar todos los errores relacionados con las pruebas, que pueden llevar a diagnósticos erróneos o  tardíos. De manera similar, el interés científico en los procesos pre-analíticos se desarrolló de manera continua desde fines de los años 70 hasta hoy.....

1) Leer el articulo completo

2) DIA DEL JUBILADO BIOQUIMICO

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 01 de Noviembre
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina




viernes, 25 de octubre de 2024

1101- El Rincón del Lector - Pintura Universal

Editor: Dr A.E. Bagnarelli
Fuente: ChatGPT
Imagenes: Web Art Gallery - Wikipedia

  Introducción

1) El 25 de octubre se celebra el Día Internacional del Artista, una efeméride dedicada a homenajear a todos los artistas plasticos del mundo, destacando su contribución al arte y a la sociedad. La fecha seleccionada para celebrar este día mundial, conmemora el nacimiento del pintor y escultor español Pablo Picasso, nacido el 25 de octubre de 1881.

2) La historia del arte plástico se puede dividir en varios períodos, cada uno con sus propias características. En la literatura hay numerosas formas de hacerlo y van surgiendo otras nuevas, y en esta presentación se ha adoptado una clasificación que permita una adecuada comprensión del tema.

3) Con relación a los artistas, es evidente que numerosos de ellos con diferente capacidad técnica, visión del mundo, motivos personales, políticos o del ambiente en el que se desenvuelven, se han podido mover dentro de uno o más estilos lo que dificulta su encuadre en uno solo.

4) En esta presentación las características de cada período/estilo, es de acuerdo a la información suministrada por los ChatGPT, pero dado el gran número de artistas y sus obras se han seleccionados solamente un número limitado de ellos. 

5) Finalmente se debe mencionar que la ABA tiene su Comisión de Cultura, siendo estas páginas que son sin fines de lucro, una contribución a la misma.

Periodos, caracteristicas, autores y algunas de sus obras

1- Renacimiento (1400-1600):

Caracteristicas: Los artistas del Renacimiento utilizaron la perspectiva para crear la ilusión de profundidad y espacio, y prestaron atención a los detalles y la precisión en la representación de los elementos. También utilizaron la luz y la sombra para modelar las formas y crear volumen. Los temas religiosos y mitológicos fueron prominentes en el arte del Renacimiento, y los colores vivos y contrastados fueron utilizados para crear un efecto dramático........


2) Ver otro: Blog Pag. N° 1015: Pinturas Argentinas (3 Nov.2023)

Nueva presentación el 28 de Octubre.
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



 

miércoles, 23 de octubre de 2024

1100- Secuenciar ADN sin abrir las celulas

By Heidi Ledford,Editor. Una herramienta 'fenomenal' secuencia el ADN y rastrea las proteínas sin necesidad de abrir las células. Nature Octubre de 2024

Técnica de microscopía que permite obtener imágenes de cómo interactúan las proteínas y los cromosomas en una célula intacta.

Los investigadores están haciendo cola para probar una potente técnica de microscopía que puede secuenciar simultáneamente el ADN de una célula individual y determinar la ubicación de sus proteínas con alta resolución, todo ello sin tener que abrir la célula y extraer su contenido. La obtención de imágenes del ADN y las proteínas dentro de células intactas proporciona información crucial sobre cómo funcionan juntas estas moléculas.

Los desarrolladores del método ya lo han utilizado para estudiar cómo el envejecimiento puede alterar la forma en que las proteínas del núcleo interactúan con los cromosomas. A medida que el cuerpo envejece , descubrieron que los cambios en estas proteínas nucleares podrían suprimir la actividad genética.

“Este trabajo es realmente extraordinario”, dice Ankur Sharma, biólogo oncológico del Instituto Garvan de Investigación Médica en Sídney, Australia, que no participó en el estudio pero está interesado en utilizar el enfoque para estudiar las células cancerosas y lo describió como “fenomenal” en la plataforma de redes sociales X.

El método, denominado secuenciación genómica in situ por expansión, se describió en una preimpresión  publicada en bioRxiv el 26 de septiembre. Aún no ha sido revisado por pares.

Empaquetado de ADN

El método podría ser particularmente útil para los investigadores que están estudiando cómo el ADN se enrolla alrededor de las proteínas y se introduce en los núcleos de las células, y cómo la ubicación de los genes dentro de ese enredo puede afectar su actividad. Podemos pensar en el ADN como "una cadena lineal de información que debe ser comprimida y organizada dentro de un núcleo celular de cinco micrones de tamaño", dice Jason Buenrostro, genetista de la Universidad de Harvard en Cambridge, Massachusetts, y uno de los autores del preprint. "Hay mucha información sobre cómo se produce ese plegado".

Para extraer esa información, Buenrostro y sus colegas combinaron dos métodos previamente descritos. Uno de ellos introduce en la célula una enzima especial para copiar ADN, junto con un conjunto de componentes de ADN marcados con fluorescencia para que se incorporen, uno por uno, a las cadenas de ADN en crecimiento. Al leer la secuencia en la que se añaden las etiquetas fluorescentes, los investigadores pueden determinar la secuencia de fragmentos del genoma .

Los investigadores saben desde hace tiempo cómo etiquetar las proteínas con marcadores para rastrear su ubicación. Pero la resolución de la microscopía óptica está limitada por la longitud de onda de la luz, lo que dificulta distinguir cadenas de ADN o proteínas marcadas con fluorescencia que están muy próximas entre sí. Esto plantea un problema particular en los estrechos confines del núcleo.

Por eso, el equipo añadió otro método llamado microscopía de expansión . Esta técnica se basa en un gel que permea las células y luego se hincha cuando absorbe agua, de forma muy similar al relleno de los pañales desechables. A medida que el gel se expande, separa aún más las moléculas, lo que facilita la distinción entre una molécula de proteína y otra.

La unión de ambos métodos permitió al equipo de Buenrostro estudiar las interacciones entre proteínas y genes en las células de personas con síndrome de progeria de Hutchinson-Gilford, una enfermedad genética que provoca un envejecimiento prematuro . Esta enfermedad está causada por mutaciones en unas proteínas llamadas láminas, que suelen encontrarse en la periferia de los núcleos celulares. Los investigadores confirmaron resultados anteriores que sugerían que en los individuos con progeria, estas láminas anormales se introducen en el interior del núcleo, donde parecen alterar la disposición típica de los cromosomas y suprimir la actividad de los genes. Se observaron anomalías similares en las células de la piel de un donante de 92 años que no tenía progeria.

Mina de oro de información

La secuenciación genómica in situ es el último de una serie de métodos que permiten a los investigadores recopilar una cantidad cada vez mayor de datos de células individuales . El objetivo final es desarrollar un método para detectar prácticamente cualquier proteína o metabolito en la célula, afirma Thierry Voet, genetista de la Universidad Católica de Lovaina (Bélgica). Por ahora, Voet y su equipo están considerando si el método podría usarse en sus estudios sobre cómo las células de un embrión en desarrollo pueden lidiar con tener diferentes números de cromosomas entre sí.

La técnica requiere una experiencia considerable, lo que limitará el número de investigadores que puedan implementarla de inmediato, afirma Kelly Rogers, que estudia microscopía avanzada en el Instituto de Investigación Médica Walter y Eliza Hall en Melbourne, Australia. “Definitivamente parece complicada”. Aun así, Rogers puede enumerar a muchos colegas que podrían querer aprovechar el enfoque. Con el tiempo, dice, los protocolos podrían simplificarse o incluso comercializarse. “Una cosa que es segura es que esto será más accesible para un mayor número de científicos”, dice Rogers. “No parece haber muchos límites a lo que podemos lograr ahora”.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 25 de Octubre
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina





domingo, 20 de octubre de 2024

1099- Resguardo de datos genómicos

Luca Bonomi,Yingxiang Huang, Lucila Ohno-Machado. Desafíos de privacidad y oportunidades de investigación para el intercambio de datos genómicos. Nat Genet. 2020; 52(7): 646–654. UCSD Health Department of Biomedical Informatics, University of California San Diego, La Jolla, CA, 92093, USA

Resumen (ChatGPT)

En el cambiante panorama de la investigación genómica, el intercambio de datos se está volviendo cada vez más vital para los avances en medicina de precisión, prevención de enfermedades y estrategias de tratamiento. Sin embargo, el intercambio de datos genómicos presenta importantes desafíos en materia de privacidad que deben abordarse para garantizar prácticas éticas y la confianza pública. El artículo de Nature Genetics, analiza estas preocupaciones sobre la privacidad, las implicaciones para la investigación y las posibles estrategias de mejora.

Preocupaciones sobre la privacidad en el intercambio de datos genómicos

Los datos genómicos son inherentemente sensibles, ya que pueden revelar una gran cantidad de información personal no solo sobre las personas, sino también sobre sus familiares. El riesgo de reidentificación es una preocupación primordial; incluso los datos anónimos a veces pueden vincularse con las personas mediante técnicas computacionales sofisticadas o la combinación de varios conjuntos de datos. El artículo enfatiza que los marcos de privacidad actuales, como el consentimiento informado, pueden no captar por completo las complejidades del intercambio de datos genómicos. Las personas a menudo carecen de una comprensión completa de cómo se utilizarán, almacenarán y potencialmente compartirán sus datos con terceros.

Además, las implicaciones de los datos genómicos van más allá de la privacidad individual. Las comunidades, especialmente aquellas históricamente marginadas o subrepresentadas en la investigación, pueden enfrentar dilemas éticos más amplios. Las preocupaciones sobre el uso indebido de los datos o la perpetuación de la discriminación subrayan la necesidad de una cuidadosa consideración de las prácticas de intercambio de datos.

Panorama regulatorio y marcos éticos

El artículo describe los marcos regulatorios existentes que rigen el intercambio de datos genómicos, incluida la Privacy Rule creada bajo la Health Insurance Portability and Accountability Act (HIPAA16). Sin embargo, estas regulaciones a menudo no abordan los desafíos únicos que plantean los datos genómicos. Por ejemplo, si bien la HIPAA proporciona pautas para proteger la información de salud, es posible que no cubra adecuadamente los matices de la información genética.

Los autores abogan por el desarrollo de marcos éticos más sólidos que prioricen la transparencia, el consentimiento y la autonomía individual. Esto incluye garantizar que los participantes estén plenamente informados sobre los posibles riesgos y beneficios de compartir sus datos genómicos. Involucrar a las comunidades en el proceso de toma de decisiones es crucial para fomentar la confianza y garantizar que la investigación beneficie a todas las partes interesadas.

Soluciones tecnológicas para la protección de la privacidad

El artículo analiza diversos avances tecnológicos que pueden mejorar la privacidad en el intercambio de datos genómicos. Las técnicas como la privacidad diferencial y el aprendizaje federado son prometedoras, ya que permiten a los investigadores analizar los datos y, al mismo tiempo, minimizar el riesgo de reidentificación. La privacidad diferencial implica agregar "ruido" a los conjuntos de datos, lo que garantiza que los puntos de datos individuales sigan siendo confidenciales y, al mismo tiempo, permite un análisis significativo.

Por otra parte, el aprendizaje federado permite entrenar modelos en múltiples dispositivos o servidores descentralizados sin compartir los datos subyacentes. Este enfoque mantiene la privacidad y la seguridad de los datos y, al mismo tiempo, permite la investigación colaborativa. Los autores alientan una mayor exploración de estas tecnologías y su integración en las prácticas de investigación genómica.

Cómo equilibrar la utilidad y la privacidad de los datos

Uno de los temas centrales del artículo es la necesidad de equilibrar la utilidad de los datos genómicos con las consideraciones de privacidad. Los investigadores a menudo necesitan grandes conjuntos de datos para identificar patrones y hacer descubrimientos significativos, pero esta necesidad debe sopesarse frente a los riesgos de comprometer la privacidad individual. Los autores sugieren que el desarrollo de estándares para el acceso a los datos y los acuerdos de intercambio pueden ayudar a lograr este equilibrio.

Una estrategia eficaz puede ser la implementación de sistemas de acceso por niveles, en los que los distintos niveles de sensibilidad de los datos determinen el grado de acceso concedido. Además, el establecimiento de directrices claras para el uso y la redistribución de los datos puede mejorar la rendición de cuentas entre los investigadores y las instituciones.

Participación comunitaria y confianza pública

La participación de las comunidades de las que se obtienen los datos genómicos es fundamental para generar confianza pública. El artículo destaca la importancia de las prácticas inclusivas que involucran a poblaciones diversas en el proceso de investigación. Esto no solo ayuda a obtener el consentimiento informado, sino que también garantiza que la investigación aborde las necesidades y preocupaciones de la comunidad.

Las iniciativas de educación pública sobre la investigación genómica y el intercambio de datos pueden aliviar aún más los temores y los conceptos erróneos. La transparencia sobre cómo se utilizarán, compartirán y protegerán los datos es esencial para fomentar una relación positiva entre investigadores y participantes.

Oportunidades de investigación futuras

El artículo concluye identificando las principales oportunidades de investigación que surgen de los desafíos actuales en materia de privacidad en el intercambio de datos genómicos. Existe una necesidad apremiante de investigación interdisciplinaria que combine la experiencia en genómica, ética, derecho y tecnología. Este enfoque colaborativo puede conducir a soluciones innovadoras que protejan la privacidad y maximicen los beneficios del intercambio de datos.

Además, los estudios longitudinales que examinan los efectos a largo plazo de las prácticas de intercambio de datos sobre la privacidad individual y la confianza de la comunidad podrían proporcionar información valiosa. Los autores piden que se creen plataformas de colaboración en las que los investigadores puedan compartir las mejores prácticas y desarrollar directrices que mejoren tanto la protección de la privacidad como la utilidad de la investigación.

Conclusión

El artículo de Nature Genetics sobre los desafíos de privacidad y las oportunidades de investigación para compartir datos genómicos, destaca las complejidades inherentes a este campo en rápido avance. Si bien los beneficios potenciales de compartir datos genómicos son inmensos, abordar las preocupaciones sobre la privacidad es crucial para garantizar prácticas de investigación éticas y mantener la confianza pública. Al desarrollar marcos regulatorios sólidos, aprovechar las innovaciones tecnológicas e involucrar a las comunidades, los investigadores pueden manejar el delicado equilibrio entre la utilidad de los datos y la privacidad individual. El futuro de la investigación genómica dependerá de esfuerzos colaborativos que prioricen las consideraciones éticas al tiempo que avanzan los conocimientos científicos.

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 23 de Octubre.
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina



martes, 15 de octubre de 2024

1098- Biofísica y ciencias genómicas

David C. Schwartz. Biofísica y ciencias genómicas. Biophys J. 2019; 117(11): 2047–2053. Department of Chemistry, Laboratory of Genetics, Laboratory for Molecular and Computational Genomics, University of Wisconsin-Madison, Madison Wisconsin

Resumen (ChatGPT)

El artículo explora la interacción entre la biofísica y las ciencias genómicas, destacando cómo los métodos y conceptos biofísicos pueden mejorar nuestra comprensión de la estructura y función genómicas. Destaca la importancia de este enfoque interdisciplinario para abordar cuestiones biológicas complejas y hacer avanzar la investigación genómica.

1. Introducción a la biofísica en genómica: La introducción describe los conceptos fundamentales de la biofísica, incluidos los principios de la física aplicados a los sistemas biológicos. Se analiza la evolución de las ciencias genómicas y la importancia de las técnicas biofísicas para desentrañar las complejidades del ADN y las proteínas.

2. Estructura y dinámica de los ácidos nucleicos: Una parte importante del artículo se centra en los aspectos estructurales de los ácidos nucleicos, como el ADN y el ARN. Se analizan técnicas como la cristalografía de rayos X y la espectroscopia de resonancia magnética nuclear (RMN) que han permitido dilucidar las estructuras tridimensionales de estas moléculas. También se analiza la dinámica de los ácidos nucleicos, incluido su plegamiento e interacción con las proteínas, lo que ilustra cómo la biofísica ayuda a comprender estos procesos a nivel molecular.

3. Plegamiento e interacciones de proteínas: Se destaca el papel de la biofísica en el estudio del plegamiento y las interacciones de proteínas. El artículo analiza los paisajes energéticos asociados con el plegamiento de proteínas, haciendo hincapié en el uso de modelos computacionales para predecir las vías de plegamiento. También examina cómo las técnicas biofísicas, como la espectroscopia de fuerza de moléculas individuales, contribuyen a nuestra comprensión de las interacciones de proteínas y los cambios conformacionales.

4. Técnicas biofísicas en la investigación genómica: El artículo examina diversas técnicas biofísicas que han resultado fundamentales en la investigación genómica, entre ellas la transferencia de energía por resonancia de fluorescencia (FRET), la microscopía de fuerza atómica (AFM) y la espectrometría de masas. Las aplicaciones de cada técnica en el estudio de las interacciones y dinámicas moleculares se ilustran con ejemplos específicos, mostrando su importancia para revelar información sobre los procesos genómicos.

5. Tecnologías de secuenciación genómica: Se analizan los avances en las tecnologías de secuenciación genómica, con énfasis en cómo los principios biofísicos sustentan estas innovaciones. El artículo analiza los métodos de secuenciación de próxima generación y su dependencia de las técnicas biofísicas para mejorar la precisión y el rendimiento. Destaca el impacto de estas tecnologías en la medicina personalizada y la investigación genética.

6. Integración de datos y biofísica computacional: Se explora la integración de datos biofísicos con métodos computacionales como un medio para modelar y predecir el comportamiento biológico. El artículo destaca la importancia de la bioinformática en la gestión de grandes conjuntos de datos generados por estudios genómicos. Se analiza cómo las simulaciones y los modelos ayudan a cerrar la brecha entre los datos experimentales y la función biológica.

7. Futuras orientaciones: Para concluir, el artículo reflexiona sobre el futuro de la biofísica en las ciencias genómicas. Destaca la necesidad de una colaboración continua entre biofísicos y científicos genómicos para abordar los nuevos desafíos en biología. Se sugieren posibles aplicaciones futuras, como el estudio de las modificaciones epigenéticas y sus implicaciones biofísicas, como áreas maduras para la exploración.

Conclusión: La conclusión reitera el papel transformador de la biofísica en el avance de nuestra comprensión de las ciencias genómicas. Exige un enfoque multidisciplinario para aprovechar al máximo el potencial de las técnicas biofísicas para dilucidar los sistemas biológicos complejos y sus implicaciones para la salud y la enfermedad.

Texto principal

....." Si consideramos que las ciencias genómicas son la creación o el análisis de grandes conjuntos de datos para la investigación biológica o genética (una definición personal y vaga), es evidente que el pensamiento biofísico ha proporcionado el caldero para un nivel notable de invención e innovación en las ciencias genómicas. Ahora está a punto de integrarse sin problemas en la moneda científica común que sustenta la mayor parte de la investigación biológica y genética. Aunque un factor importante que diferencia la biofísica de las ciencias genómicas es el tamaño y el tipo de conjuntos de datos, fue el pensamiento biofísico el que dio derecho a los genómicos a hacer descubrimientos utilizando grandes conjuntos de datos a través de avances en la medición y manipulación molecular.

Estos avances incluyeron desarrollos en enfoques de moléculas individuales, técnicas avanzadas de microscopía, modalidades de etiquetado molecular y fluídica. Estos, a su vez, sentaron las bases para sistemas capaces de adquisición rutinaria de datos de secuencias genómicas, perfiles transcripcionales y la capacidad de medir estados de cromatina a gran escala. Nuevos enfoques estadísticos y computacionales ayudaron a construir e interpretar grandes conjuntos de datos tanto para investigaciones basadas en hipótesis como, de una manera un tanto innovadora, para hacer que la investigación basada en descubrimientos sea rutinaria y mucho más efectiva.

El objetivo de esta Perspectiva Biofísica es seguir el camino que ha seguido la biofísica para realizar mediciones a gran escala (conjuntos de datos) y cómo estos conjuntos de datos genómicos están abriendo ahora nuevas direcciones para las investigaciones biofísicas. En esta Perspectiva Biofísica, espero transmitir una sensación de fluidez intelectual que intente vislumbrar el futuro de nuevas vías de investigación biofísica que probablemente desempeñen un papel importante para explicar de forma exhaustiva los sistemas biológicos y genéticos de formas de alta dimensión. En ese momento, las ciencias genómicas y la biofísica se convertirán en una sola......

Leer el articulo completo

(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su  traducción al idioma español. Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma. 
Nueva presentación el 20 de Octubre.
Cordiales saludos. 
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Ciudad de Buenos Aires, R. Argentina


domingo, 13 de octubre de 2024

El Premio Nobel de Física 2024

Los galardonados de este año utilizaron herramientas de la física para construir métodos que ayudaron a sentar las bases del potente aprendizaje automático actual. John Hopfield creó una estructura que puede almacenar y reconstruir información. Geoffrey Hinton inventó un método que puede descubrir de forma independiente propiedades en los datos y que se ha vuelto importante para las grandes redes neuronales artificiales que se utilizan actualmente.

Utilizaron la física para encontrar patrones en la información.

Muchas personas han experimentado cómo las computadoras pueden traducir entre idiomas, interpretar imágenes e incluso mantener conversaciones razonables. Lo que quizás sea menos conocido es que este tipo de tecnología ha sido importante durante mucho tiempo para la investigación, incluida la clasificación y el análisis de grandes cantidades de datos. El desarrollo del aprendizaje automático se ha disparado en los últimos quince a veinte años y utiliza una estructura llamada red neuronal artificial. Hoy en día, cuando hablamos de inteligencia artificial , a menudo nos referimos a este tipo de tecnología.

Aunque los ordenadores no pueden pensar, las máquinas pueden imitar funciones como la memoria y el aprendizaje. Los laureados de este año en física han contribuido a que esto sea posible. Utilizando conceptos y métodos fundamentales de la física, han desarrollado tecnologías que utilizan estructuras en redes para procesar información.

El aprendizaje automático se diferencia del software tradicional, que funciona como una especie de receta. El software recibe datos, los procesa según una descripción clara y produce los resultados, de forma similar a cuando alguien recoge ingredientes y los procesa siguiendo una receta para producir un pastel. En cambio, en el aprendizaje automático, el ordenador aprende con ejemplos, lo que le permite abordar problemas que son demasiado vagos y complicados para ser gestionados con instrucciones paso a paso. Un ejemplo es la interpretación de una imagen para identificar los objetos que contiene.

Imita el cerebro

Una red neuronal artificial procesa información utilizando toda la estructura de la red. La inspiración surgió inicialmente del deseo de comprender cómo funciona el cerebro. En la década de 1940, los investigadores habían comenzado a razonar sobre las matemáticas que subyacen a la red de neuronas y sinapsis del cerebro. Otra pieza del rompecabezas provino de la psicología, gracias a la hipótesis del neurocientífico Donald Hebb sobre cómo se produce el aprendizaje porque las conexiones entre neuronas se refuerzan cuando trabajan juntas.

Más tarde, a estas ideas les siguieron intentos de recrear el funcionamiento de la red cerebral mediante la construcción de redes neuronales artificiales como simulaciones por ordenador. En ellas, las neuronas del cerebro se imitan mediante nodos a los que se les asignan valores diferentes, y las sinapsis se representan mediante conexiones entre los nodos que pueden hacerse más fuertes o más débiles. La hipótesis de Donald Hebb todavía se utiliza como una de las reglas básicas para actualizar las redes artificiales mediante un proceso llamado entrenamiento .

A finales de los años 60, algunos resultados teóricos desalentadores hicieron que muchos investigadores sospecharan que estas redes neuronales nunca serían de utilidad real. Sin embargo, el interés por las redes neuronales artificiales se reavivó en los años 80, cuando varias ideas importantes tuvieron su impacto, incluido el trabajo de los galardonados de este año.

Memoria asociativa

Imagina que estás intentando recordar una palabra bastante inusual que rara vez utilizas, como por ejemplo la que designa ese suelo inclinado que se encuentra a menudo en los cines y las salas de conferencias. Buscas en tu memoria. Es algo así como rampa ... ¿quizás ra…dial ? No, eso no. Rake , ¡eso es!

Este proceso de búsqueda entre palabras similares para encontrar la correcta recuerda a la memoria asociativa que descubrió el físico John Hopfield en 1982. La red de Hopfield puede almacenar patrones y tiene un método para recrearlos. Cuando se le proporciona a la red un patrón incompleto o ligeramente distorsionado, el método puede encontrar el patrón almacenado que sea más similar.

Hopfield ya había utilizado su formación en física para explorar problemas teóricos de biología molecular. Cuando lo invitaron a una reunión sobre neurociencia, se topó con una investigación sobre la estructura del cerebro. Lo que aprendió le fascinó y empezó a pensar en la dinámica de las redes neuronales simples. Cuando las neuronas actúan juntas, pueden dar lugar a características nuevas y poderosas que no son evidentes para alguien que solo observa los componentes separados de la red.

En 1980, Hopfield dejó su puesto en la Universidad de Princeton, donde sus intereses de investigación lo habían llevado fuera de las áreas en las que trabajaban sus colegas en física, y se trasladó al otro lado del continente. Había aceptado la oferta de una cátedra de química y biología en Caltech (Instituto Tecnológico de California) en Pasadena, al sur de California. Allí, tenía acceso a recursos informáticos que podía utilizar para experimentar libremente y desarrollar sus ideas sobre redes neuronales.

Sin embargo, no abandonó sus bases en física, donde encontró inspiración para su comprensión de cómo los sistemas con muchos componentes pequeños que trabajan juntos pueden dar lugar a fenómenos nuevos e interesantes. En particular, le benefició haber aprendido sobre materiales magnéticos que tienen características especiales gracias a su espín atómico, una propiedad que convierte a cada átomo en un pequeño imán. Los espines de los átomos vecinos se afectan entre sí, lo que puede permitir que se formen dominios con espín en la misma dirección. Fue capaz de construir una red modelo con nodos y conexiones utilizando la física que describe cómo se desarrollan los materiales cuando los espines se influyen entre sí.

La red guarda imágenes en formato horizontal.

La red que construyó Hopfield tiene nodos que están conectados entre sí mediante conexiones de distinta intensidad. Cada nodo puede almacenar un valor individual; en el primer trabajo de Hopfield, este podía ser 0 o 1, como los píxeles de una imagen en blanco y negro.

Hopfield describió el estado general de la red con una propiedad que es equivalente a la energía en el sistema de espín que se encuentra en la física; la energía se calcula utilizando una fórmula que utiliza todos los valores de los nodos y todas las intensidades de las conexiones entre ellos. La red de Hopfield se programa mediante una imagen que se alimenta a los nodos, a los que se les asigna el valor de negro (0) o blanco (1). 

Las conexiones de la red se ajustan luego utilizando la fórmula de energía, de modo que la imagen guardada tenga una energía baja. Cuando se alimenta otro patrón a la red, existe una regla para recorrer los nodos uno por uno y verificar si la red tiene una energía menor si se cambia el valor de ese nodo. Si resulta que la energía se reduce si un píxel negro es blanco en su lugar, cambia de color. Este procedimiento continúa hasta que es imposible encontrar más mejoras. Cuando se llega a este punto, la red a menudo ha reproducido la imagen original en la que fue entrenada.

Puede que esto no parezca tan sorprendente si solo guardas un patrón. Tal vez te preguntes por qué no guardas la imagen en sí y la comparas con otra imagen que se está probando, pero el método de Hopfield es especial porque se pueden guardar varias imágenes al mismo tiempo y la red generalmente puede diferenciarlas.

Hopfield comparó la búsqueda de un estado guardado en la red con el hecho de hacer rodar una pelota por un paisaje de picos y valles, con una fricción que ralentiza su movimiento. Si se deja caer la pelota en un lugar determinado, rodará hasta el valle más cercano y se detendrá allí. Si se le da a la red un patrón cercano a uno de los patrones guardados, seguirá avanzando de la misma manera hasta que termine en el fondo de un valle en el paisaje energético, encontrando así el patrón más cercano en su memoria.  La red de Hopfield se puede utilizar para recrear datos que contienen ruido o que se han borrado parcialmente...................

Leer el articulo completo



viernes, 11 de octubre de 2024

Premio Nobel de Química 2024

Demis Hassabis y John M. Jumper han utilizado con éxito la inteligencia artificial para predecir la estructura de casi todas las proteínas conocidas. David Baker ha aprendido a dominar los componentes básicos de la vida y a crear proteínas completamente nuevas. El potencial de sus descubrimientos es enorme.

Revelan secretos de proteínas a través de computación e inteligencia artificial

¿Cómo es posible la exuberante química de la vida? La respuesta a esta pregunta es la existencia de las proteínas, que pueden describirse como brillantes herramientas químicas. Por lo general, están formadas por 20 aminoácidos que pueden combinarse de infinitas maneras. Utilizando la información almacenada en el ADN como modelo, los aminoácidos se unen entre sí en nuestras células para formar largas cadenas.

Entonces se produce la magia de las proteínas: la cadena de aminoácidos se retuerce y se pliega formando una estructura tridimensional distintiva (a veces única). Esta estructura es la que confiere a las proteínas su función. Algunas se convierten en bloques químicos que pueden crear músculos, cuernos o plumas, mientras que otras pueden convertirse en hormonas o anticuerpos. Muchas de ellas forman enzimas, que impulsan las reacciones químicas de la vida con una precisión asombrosa. Las proteínas que se encuentran en las superficies de las células también son importantes y funcionan como canales de comunicación entre la célula y su entorno. 

Es difícil exagerar el potencial que encierran los componentes químicos de la vida, estos 20 aminoácidos. El Premio Nobel de Química 2024 tiene como objetivo comprenderlos y dominarlos a un nivel completamente nuevo. La mitad del premio corresponde a Demis Hassabis y John Jumper, quienes han utilizado inteligencia artificial para resolver con éxito un problema con el que los químicos lucharon durante más de 50 años: predecir la estructura tridimensional de una proteína a partir de una secuencia de aminoácidos. Esto les ha permitido predecir la estructura de casi todos los 200 millones de proteínas conocidas. La otra mitad del premio corresponde a David Baker, quien ha desarrollado métodos informáticos para lograr lo que muchas personas creían imposible: crear proteínas que antes no existían y que, en muchos casos, tienen funciones completamente nuevas.

El Premio Nobel de Química 2024 reconoce dos descubrimientos diferentes pero, como verá, están estrechamente relacionados. Para entender los desafíos que han superado los galardonados de este año, debemos remontarnos a los albores de la bioquímica moderna.

Las primeras imágenes granuladas de proteínas

Los químicos saben desde el siglo XIX que las proteínas son importantes para los procesos vitales, pero hubo que esperar hasta la década de 1950 para que las herramientas químicas fueran lo suficientemente precisas como para que los investigadores comenzaran a estudiar las proteínas con más detalle. Los investigadores de Cambridge John Kendrew y Max Perutz hicieron un descubrimiento revolucionario cuando, a finales de la década, utilizaron con éxito un método llamado cristalografía de rayos X para presentar los primeros modelos tridimensionales de proteínas. En reconocimiento a este descubrimiento, recibieron el Premio Nobel de Química en 1962.

Posteriormente, los investigadores utilizaron principalmente la cristalografía de rayos X (y a menudo con mucho esfuerzo) para generar imágenes de alrededor de 200.000 proteínas diferentes, lo que sentó las bases para el Premio Nobel de Química 2024.

Un acertijo: ¿cómo encuentra una proteína su estructura única?

Otro de los primeros descubrimientos fue el realizado por Christian Anfinsen , un científico estadounidense. Mediante diversos trucos químicos, consiguió que una proteína existente se desdoblara y luego se volviera a doblar. La observación más interesante fue que la proteína adoptaba exactamente la misma forma cada vez. En 1961, concluyó que la estructura tridimensional de una proteína está totalmente determinada por la secuencia de aminoácidos de la proteína. Esto le valió el Premio Nobel de Química en 1972.

Sin embargo, la lógica de Anfinsen contiene una paradoja, que otro estadounidense, Cyrus Levinthal, señaló en 1969. Levinthal calculó que, incluso si una proteína consta de sólo 100 aminoácidos, en teoría la proteína puede asumir al menos 10(47) estructuras tridimensionales diferentes. Si la cadena de aminoácidos se plegara aleatoriamente, se necesitaría más tiempo que la edad del universo para encontrar la estructura proteica correcta. En una célula, sólo se necesitan unos pocos milisegundos. Entonces, ¿cómo se pliega realmente la cadena de aminoácidos?

El descubrimiento de Anfinsen y la paradoja de Levinthal implicaban que el plegamiento es un proceso predeterminado y, lo que es más importante, que toda la información sobre cómo se pliega la proteína debe estar presente en la secuencia de aminoácidos.

Abordando el gran desafío de la bioquímica

Los descubrimientos anteriores condujeron a otra conclusión decisiva: si los químicos conocieran la secuencia de aminoácidos de una proteína, podrían predecir su estructura tridimensional. Era una idea apasionante. Si lo conseguían, ya no tendrían que recurrir a la engorrosa cristalografía de rayos X y podrían ahorrar mucho tiempo. Además, podrían generar estructuras para todas las proteínas para las que no fuera aplicable la cristalografía de rayos X.

Estas conclusiones lógicas plantearon el desafío que se ha convertido en el gran reto de la bioquímica: el problema de la predicción. Para fomentar un desarrollo más rápido en este campo, en 1994 los investigadores iniciaron un proyecto llamado Evaluación crítica de la predicción de la estructura de las proteínas (CASP), que se convirtió en una competición. Cada dos años, investigadores de todo el mundo tenían acceso a secuencias de aminoácidos en proteínas cuyas estructuras acababan de determinarse. Sin embargo, las estructuras se mantenían en secreto para los participantes. El reto consistía en predecir las estructuras de las proteínas basándose en las secuencias de aminoácidos conocidas.....

Leer el articulo completo