sábado, 30 de octubre de 2010

84- Citometría de flujo

I) Barrera Ramírez LM, Drago Ma E Serrano, Pérez RamosJ, Zamora AC, Gómez Arroyo F, Del Rosario Sainz Espuñes T, Mendoza Pérez F. Citometría de flujo: vínculo entre la investigación básica y la aplicación clínica. Revisión. Rev Inst Nac Enf Resp Mex 2004; 17 (1): 42-55

Resumen
La citometría de flujo es un método analítico que permite la medición rápida de ciertas características físicas y químicas de células o partículas suspendidas en líquido que producen una señal de forma individual al interferir con una fuente de luz. Una de las características analíticas más importantes de los citómetros de flujo es su capacidad de medir múltiples parámetros celulares, como el tamaño, forma y complejidad y, por supuesto, cualquier componente celular o función que pueda ser marcada con un fluorocromo. Las aplicaciones más relevantes de la citometría de flujo en la práctica médica se relacionan con la hematología e inmunología clínicas, midiendo parámetros como número y clasificación de células sanguíneas. Esta técnica es empleada también en el conteo de subpoblaciones de linfocitos en pacientes con el virus de la inmunodeficiencia humana, así como la caracterización de leucemias agudas y síndromes linfoproliferativos crónicos, entre otros padecimientos. En los últimos 20 años, el análisis de enfermedades pulmonares de origen inmunológico por citometría de flujo ha jugado un papel importante en el entendimiento y diagnóstico de enfermedades como sarcoidosis, neumonía eosinofílica o neumonitis por hipersensibilidad. Las aplicaciones de la citometría de flujo son numerosas, lo cual ha permitido el empleo de estos instrumentos de manera amplia en los campos, tanto de la investigación biológica como médica. Esta revisión brinda un panorama general de los principios básicos de la citometría de flujo y la muestra como una herramienta reproducible y aplicable a una gran variedad de campos médicos, así como su empleo en el campo de las enfermedades pulmonares.....

II) Ruiz-Argüelles A. Simplificando la interpretación de la citometría de flujo en hemopatías malignas. Resumen de Simposio. Revista de Hematología 2010; 11 (1) Abril-Mayo 2010; p. 40-41

     La citometría de flujo es una herramienta de la citómica que permite la detección simultánea de diversas características celulares mediante propiedades intrínsecas de las células o a través del empleo de diversas sondas moleculares conjugadas con trazadores fluorescentes. La citometría de flujo (CF) se aplica en la actualidad en muy diversas áreas de la medicina de laboratorio, pero son las hemopatías malignas los padecimientos cuya biología, diagnóstico, clasificación, pronóstico, tratamiento y seguimiento se han favorecido más de esta tecnología.
     En estos padecimientos, el establecimiento del linaje y estadio de maduración celular ha permitido re-clasificar a estos padecimientos con ventajas clínicas considerables: el pronóstico de distintas variedades inmunológicas de leucemia puede ahora establecerse con mayor precisión, lo que determina que la elección de la terapia sea más adecuada. Al recibir los pacientes con variedades inmunofenotípicas de leucemia de pronóstico desfavorable, esquemas de tratamiento más agresivos, y aquellos con mejor pronóstico, formas más conservadoras de terapia, la sobrevida a largo plazo, de unos y otros casos, se he incrementado notablemente en los últimos años.
     El beneficio económico que se obtiene al omitir procedimientos innecesarios, como resultado directo de la clasificación precisa, sobradamente permite la introducción rutinaria de la CF en los servicios especializados en este tipo de patología. En pacientes que han recibido tratamiento, la CF, complementándose con algunas técnicas de biología molecular, permite la detección de enfermedad residual en pacientes en quienes los métodos tradicionales son incapaces de identificar su presencia…………….







jueves, 28 de octubre de 2010

83- Automatización analitica

SEQC Comisión de Instrumentación y Sistemas Analíticos. JL Bedini Chesa, S Esteve Poblador, L García Beltrán, JM Gasalla Herraiz, C Macías Blanco, M Martínez Casademont, JM Moreno Cebeira, V Martínez Vázquez, B Prieto García, G Serrano Olmedo, J Torres Nicolau. Criterios para la selección de un modelo de automatización del laboratorio. Documento Definitivo.

Indice
0. Introducción
1. Objeto y campo de aplicación
2. Modelos de automatización
3. Fase preanalítica 3.1. Identificación de los pacientes: hospitalizados y ambulatorios 3.2. Tipos de contenedores 3.3. Identificación de la muestra 3.4. Configuración 3.5. Trazabilidad
4. Fase Analítica 4.1. Versatilidad de la automatización en la fase analítica 4.2. Gestión de prioridades 4.3. Control de la integridad de las muestras 4.4. Gestión de muestras especiales una vez dentro del proceso analítico 4.5. Gestión de los módulos del sistema automatizado 4.6. Acceso a la información generada sobre la muestra a tiempo real y validación técnica de resultados 4.7. Control de la calibración y controles de calidad. 4.8. Recursos humanos necesarios para la gestión y manteni-miento del sistema de automatización en la fase analítica.
5. Fase Postanalítica 5.1. Recuperación de muestras ya procesadas 5.2. Archivo de muestras. Indicación de caducidad o días de conservación 5.3. Capacidad de almacenamiento 5.4. Trazabilidad de las muestras 5.5. Conexión de los autoanalizadores con el sistema de in-formación del laboratorio 6. Conclusiones 7. Bibliografía

Introducción
     Los avances tecnológicos desarrollados en los últimos años pueden condicionar la aparición e implantación de nuevos sistemas organizativos, que permitirán agrupar la actividad de varias especialidades del laboratorio clínico, de manera que compartan espacio físico, recursos humanos y técnicos. Las constantes mejoras en la instrumentación han conducido a un incremento notable de la capacidad productiva del laboratorio clínico.
     La automatización ha permitido hacer más con menos y los nuevos descubrimientos científicos han creado, a su vez, nuevas necesidades y procedimientos que han repercutido en un aumento de la demanda de servicios al laboratorio clínico, los cuales se ven sometidos a la presión de los usuarios para la puesta a punto de nuevos procedimientos diagnósticos.
     En este complejo escenario, los profesionales de los laboratorios no pueden además olvidar su misión, que consistirá, fundamentalmente, en adecuar la tecnología necesaria para el estudio de fluidos y tejidos del cuerpo humano, con el fin de servir de apoyo a la clínica, proporcionándole información fiable y útil para el correcto diagnóstico de las enfermedades, para el seguimiento evolutivo de las mismas y para el control de la eficacia de la terapéutica aplicada.
     A la hora de seleccionar un modelo de automatización se estudiará la fiabilidad y la practicabilidad de las soluciones disponibles. La fiabilidad nos habla de la capacidad que tiene un sistema para man¬tener una adecuada calidad analítica (veracidad e incertidumbre) a lo largo del tiempo. Por otro lado, la practicabilidad es un índice de información sobre las prestaciones del modelo de interés bajo las condiciones particulares del laboratorio donde se implanta…………………


martes, 26 de octubre de 2010

82- Incertidumbre en resultados del laboratorio

Bagnarelli A.E. Incertidumbre en los resultados del laboratorio clínico. Bioq y Patol Clín- 2008;  72 (1): 11-16. ABA

Resumen

Este documento esta dedicado a tratar el problema de la Incertidumbre de una Medición (IM), que es una herramienta metrologica que permite una estimación cuantitativa de la calidad del resultado de una prueba del laboratorio. Hace unos años algunos organismos internacionales desarrollaron un documento para estimar dicha incertidumbre, bajo el titulo Guía para la Medición de la Incertidumbre (GUM) principalmente dedicado a magnitudes físicas y de laboratorios de ensayo, que presentaban un marco adecuado sobre los érminos y métodos para ser utilizados en este campo. Posteriormente la Norma ISO 15189 los adaptó a la problemática del laboratorio clínico debido a la compleja matriz del material biológico que se utiliza en los ensayos. Hemos estudiado su aplicación en la prueba de calcio en suero y la relación calcio/ creatinina en orina y también se ha estudiado la prueba del antígeno carcino-embrionario, para estimar la IM en los niveles de decisión clínica. En estos estudios, las variables introducidas se han obtenido de información brindada por equipos reactivo, instrumental y referencias bibliográficas.

Introducción

En 1927 Werner Heisenberg (Premio Nóbel de Física 1932) enunció el llamado Principio de Incertidumbre o de indeterminación, donde menciona que no es posible conocer con precisión arbitraria y a masa constante, la posición y el momento de una partícula. 

La introducción del concepto de Incertidumbre en una Medición (IM) supone la imposibilidad práctica de llevar a cabo mediciones perfectas, ya que el operador, su entorno y las demás partículas presentes influyen sobre la medida que se está llevando a cabo. Una medición puede ser separada en determinado número de etapas, cada una de las cuales tiene su propia IM. El total de la IM combinadas, tienen parte de los componentes de las etapas metrológicas (o analíticas) que la integran y se la puede calcular según Reglas de Propagación de Incertidumbre y su conocimiento permite mejorar la calidad de la información brindada. 

Además cuando se utiliza puntos de corte o niveles de decisión clínica para establecer estrategias diagnosticas es importante conocer el grado de IM de una prueba para comprender el real significado de la información brindada. También se debe mencionar que la Norma ISO 15189 especifica que si bien no es posible que los laboratorios en la práctica diaria informen las IM de cada resultado que entrega, dicha información debe estar disponible y ser accesible cuando por razones medicas, éticas o legales le sea requerida.  

En 1993 ISO elaboro una Guía para la Expresión de la Incertidumbre de Medición (GUM) para la calibración de magnitudes químicas y físicas (mecánica, electricidad, temperatura, etc) y donde no se consideraba la problemática del análisis clínico. Posteriormente y debido a la complejidad del material biológico que se debía procesar y los principios de aplicación de la IM, algunas sociedades bioquímicas utilizaron esa Guía para adaptarla a las pruebas del laboratorio clínico 

Ver el articulo completo


domingo, 24 de octubre de 2010

81- Cáncer de mama

Gallegos Velasco IB, Coutiño R, Martínez G y Hernández Cruz P. Marcadores glicosilados en cáncer de mama. Rev Educ Bioq 2008; 27(2): 52-59
 
Resumen
     El cáncer de mama es la segunda causa de muerte de mujeres en el mundo, sin embargo si es diagnosticado oportunamente puede ser curado. Recientemente se ha observado que cambios en la estructura de los oligosacáridos de las proteínas de membrana, se relacionan con los procesos de transformación y proliferación celular, los cuales pueden originar el cáncer de mama. En esta revisión se presenta una visión general de los marcadores glicosilados que se han asociado al cáncer de mama

Introducción
     Las neoplasias son crecimientos descontrolados de células en cualquier tipo de tejido. En la actualidad el cáncer de mama es la principal causa de muerte en mujeres en países desarrollados. Las glándulas mamarias se localizan en el tejido subcutáneo, están constituidas de tejido parenquimatoso que se divide en un número de 15 a 20 lóbulos. Cada lóbulo está formado por una serie de conductos intralobulillares que desembocan en los conductos galactóforos que se vierten a nivel del pezón. Los conductos galactóforos tienen un epitelio cilíndrico o cúbico con células que tienen un núcleo redondeado y en el citoplasma contienen pocas mitocondrias y escaso retículo endoplásmico rugoso.
     En 1957, Bloom y Richardson propusieron el sistema de clasificación histológico que actualmente se emplea en la tipificación del grado de avance del cáncer de mama. El cáncer ductal infiltrante se inicia en el sistema de pequeños conductos que llevan la leche de los lóbulos al pezón. Empieza cuando las células epiteliales anormales que recubren los ductos, se dividen, se multiplican y, posteriormente, estas células invaden el ducto y, en su fase más dañina, llegan a invadir el estroma que rodea a los ductos.
     El diagnóstico del cáncer de mama se realiza mediante la correlación de la exploración clínica, la mastografía y la confirmación siempre se hace con el estudio histopatológico. Además de la caracterización histológica mediante la tinción con hematoxilina-eosina, se realizan pruebas de inmunohistoquímica, en donde se utilizan una serie de marcadores tumorales, como por ejemplo: los receptores de estrógenos y progesterona, el antígeno nuclear de proliferación celular, la catepsina D, el c-erb-2, Bcl-2 y P53, entre otros. ………………..

viernes, 22 de octubre de 2010

80- Optimizar el laboratorio clínico


Comisión de Gestión del Laboratorio Clínico del Comité Científico de la Sociedad Española de Bioquímica Clínica y Patología Molecular. España. Ana Garca Raja A, Imma Caballe Martín I, Giménez Marín A. Uso adecuado del laboratorio clínico: necesidad y tendencias. Documento. Rev Lab Clin. 2008;1(2):75–82

Introducción

     El aumento de la utilización de los servicios de laboratorio, con una tasa de crecimiento anual del 6,15%, es motivo de preocupación para los servicios de salud con un gasto sanitario cada vez mayor y unos recursos limitados Para algunos el aumento de costes requiere un mayor control y contención, si bien esta perspectiva olvida el valor que aporta el laboratorio clínico Sabemos que asimismo hay una demanda inadecuada que genera un uso excesivo del laboratorio, lo que irı´a precisamente en la dirección contraria a la creación de valor. Las solicitudes de análisis innecesarios hacen que los costes aumenten sin que los resultados en salud mejoren, por ello las organizaciones sanitarias se plantean como objetivo el uso eficiente del laboratorio. También se sabe que hay una gran variabilidad en la utilización del laboratorio entre países, entre regiones de un mismo país y entre los mismos clínicos. Estas variaciones reducen el coste-efectividad. 

Para adecuar la demanda a las necesidades clínicas y evitar el uso inapropiado, es imprescindible que los profesionales de la clínica y los laboratorios trabajen conjuntamente. En la actualidad se recomienda una mejora en la selección de magnitudes, que las solicitudes se realicen guiadas por algoritmos elaborados siguiendo los criterios de la medicina basada en la evidencia (MBE). Por otra parte, es imprescindible la evaluación y valoración rigurosa y crítica de las nuevas ofertas antes de que se incorporen a la cartera de servicios, la eliminación de técnicas obsoletas y de paneles fijados sin criterios clínicos y, en especial, evitar peticiones redundantes y repeticiones innecesarias.

Objetivo

     El presente documento tiene como objetivo sentar las bases de lo que significa uso adecuado del laboratorio, identificar situaciones de uso inapropiado y resaltar las propuestas actuales que parece que pueden influir mas positivamente en la adecuación del uso…….....

miércoles, 20 de octubre de 2010

79- Proteinuria

Escalante-Gómez C, Zeledón-Sánchez F, Ulate-Montero G. Proteinuria, fisiología y fisiopatología aplicada. Revisión. Rev AMC, 2007; 49 (2): 83-89

Resumen
     La proteinuria está definida por la presencia de proteínas en la orina. En los adultos se refiere a una excreción urinaria de estas superior a 150 mg en 24 horas. Se ha utilizado como un marcador de lesión renal, constituyéndose en uno de los datos más importantes para el nefrólogo. Sin embargo, patologías tan comunes como la hipertensión arterial y la Diabetes Mellitas frecuentemente manifiestan sus afecciones renales con la presencia de proteinuria, convirtiéndose ahora en un marcador de enfermedades sistémicas y no solo renales. Normalmente, un individuo filtra 5000 mg de proteínas cada día, de los cuales 4950 mg son reabsorbidos en el túbulo proximal del riñón, de manera que la cantidad excretada es poca. En el presente artículo se exponen los diferentes tipos de proteinuria con base en conceptos fisiopatológicos. Hay varios métodos de laboratorio que permiten la cuantificación de la proteinuria, siendo la relación proteinuria / creatinuria y la orina de 24 horas las más utilizadas. La relevancia de esta revisión se muestra al tomar en cuenta que la proteinuria es el factor aislado más importante para determinar el avance y progresión de la enfermedad renal. También se ha mostrado que el riesgo añadido por la presencia de proteinuria fue superior al causado por el tabaco, la diabetes o la hipertrofia ventricular izquierda para la presencia de eventos isquémicos cardiovasculares. La proteinuria es más que solo proteínas en la orina, es una señal de alerta.
Introducción
     Históricamente, la proteinuria se ha utilizado como un marcador de lesión renal, constituyéndose en uno de los datos más importantes para el nefrólogo. Sin embargo, con los avances en los campos de la fisiología, la fisiopatología y la medicina interna, el estudio y manejo de algunas proteinurias ha pasado de las manos de los especialistas hacia las de los médicos de atención primaria. Patologías tan comunes como la hipertensión arterial y Diabetes Mellitas frecuentemente manifiestan sus afecciones renales con la presencia de proteinuria, convirtiéndose ahora en un marcador de enfermedades sistémicas y no solo renales.
    No todas las proteinurias son iguales. Existen proteinurias “aisladas”, las cuales no se asocian con disfunción renal patológica, como lo es la proteinuria ortostática, que solo requieren más que un seguimiento periódico. Pero también existen proteinurias “asociadas”, producto de alguna disfunción renal o sistémica, como lo es un síndrome nefrótico, que requieren la participación activa del médico para evitar el progreso a una falla renal severa. Es únicamente con el conocimiento del funcionamiento renal normal y la manera como las enfermedades pueden alterar este equilibro, que se logra entender los mecanismos por los cuales se produce la proteinuria.
     En esta revisión se abarca la definición, fisiología, fisiopatología, métodos de diagnóstico y algunas generalidades del tratamiento de las proteinurias, con el propósito de que el médico tenga un concepto integral de lo que significa la presencia de proteínas en la orina. …………………….

lunes, 18 de octubre de 2010

78- Hepatitis auto inmune

Orts Costa JA, Zúñiga Cabrera A, Alarcón Torres I. Hepatitis autoinmune. An. Med. Interna (Madrid) 2004; 21 (7): 340-354. Aran Ediciones, S.L.

Resumen
     La hepatitis autoinmune es una inflamación hepatocelular que se presenta cuando el sistema inmunológico actúa frente a los hepatocitos y que se caracteriza por hallazgos histológicos (hepatitis de interfase con afectación periportal, infiltración de células plasmáticas y necrosis en sacabocados), bioquímicos (hipertransaminasemia e hipergammaglobulinemia) y autoinmunes (presencia de ciertos autoanticuerpos). Este trastorno es relativamente poco frecuente y suele afectar a mujeres de mediana edad. Al no existir un marcador patognomónico para su diagnóstico se requiere una exclusión cuidadosa de otras causas de enfermedad hepática conjuntamente con un patrón clínico y analítico compatible. El criterio de puntuación propuesto por el Grupo Internacional de la Hepatitis Autoinmune para su diagnóstico no es suficientemente específico como para definir la prognosis y el tratamiento. La hepatitis autoinmune se clasifica, según los autoanticuerpos presentes, en subtipos 1 y 2, aunque esta clasificación no muestra repercusiones clínicas importantes. El anteriormente conocido como subtipo 3 no difiere clínicamente del 1 en forma significativa y por tanto debe incluirse dentro de este último grupo. Todavía permanecen por dilucidar la etiología y las bases moleculares de esta enfermedad, originada probablemente por la interacción de diversos factores como la predisposición genética (haplotipos HLA-DR3 y DR4), pérdida de tolerancia inmunológica, formación de neoantígenos por factores desencadenantes como virus o fármacos, y por mimetismo molecular. La terapia inmunosupresora (corticosteroides, azatioprina) ofrece excelentes resultados. Nuestro objetivo es revisar esta enfermedad bajo diferentes puntos de vista, considerando: los aspectos clínicos, histopatológicos, etiológicos, genéticos, bioquímicos, autoinmunes, de tratamiento y pronóstico.
Introducción
     Conocida inicialmente como “hepatitis crónica viral”, se considera que fue descrita con rigor por primera vez en 1950 por Waldeström, al observar en Suecia un tipo de hepatitis persistente que afectaba principalmente a mujeres jovenes y se asociaba con infiltración hepática de células plasmáticas, hipergammaglobulinemia, amenorrea y manifestaciones dermatológicas.
     En 1955, Joske describió la presencia del fenómeno LE (anticuerpos antinucleares, ANA) en hepatitis crónicas activas y en 1956 MacKay la denominó (erróneamente, pues no estárelacionada con el lupus) como hepatitis lupoide. También fue denominada como: cirrosis con síndrome adrenogenital y hepatitis plasmocelular. Posteriormente, en 1966, Whittingham observó la asociación con anticuerpos anti-músculo liso (SMA) y denominó la enfermedad como hepatitis crónica activa autoinmune, estableciéndola como una entidad diferenciada.
     Actualmente, la HAI se considera como una enfermedad necro-inflamatoria del hígado, infrecuente, usualmente crónica y progresiva, de etiología no suficientemente conocida que se caracteriza por la presencia de alteraciones inmunológicas entre las que se encuentran la hipergammaglobulinemia y la presencia de autoanticuerpos, con una buena respuesta al tratamiento con inmunosupresores y mayor prevalencia en mujeres.
     No existe un marcador patognomónico de esta enfermedad. La enfermedad quedó definida en 1992 por el Grupo Internacional de Hepatitis Autoinmune (GIHA) siguiendo un sistema de puntuación que fue revisado posteriormente . Basándose en diferentes patrones autoinmunitarios puede clasificarse dos subtipos: 1 y 2. Los principales problemas que se encuentran para mantener un concepto unitario sobre las hepatitis autoinmunes son:  la ausencia de rasgos clínicos y analíticos patognomónicos, dificultad para la identificación de los autoanticuerpos y autoantígenos implicados, y la compresión todavía parcial de los mecanismos inmunológicos responsables. ……………………………..




sábado, 16 de octubre de 2010

77- Carga global de la enfermedad


Catalá López F, Álvarez Martín E, Gènova Maleras R, Morant Ginestar C. Los estudios de carga de enfermedad en el establecimiento de prioridades en salud: réplica. Rev Esp Salud Pública 2009; 83: 589-591

     El trabajo Relación en España entre la investigación sanitaria financiada por el Sistema Nacional de Salud (SNS) y la carga de enfermedad en la comunidad nos brinda la oportunidad de reflexionar sobre varios aspectos relacionados con la elaboración y utilización de indicadores sanitarios, en concreto sobre las medidas de carga de enfermedad (CdE). García-Fulgueiras y cols. ponen de manifiesto en su carta el problema de la atribución causal para el caso particular de las hepatitis B y C (como factor de riesgo causal de la cirrosis y el cáncer hepático).
     En nuestro trabajo, de acuerdo a los principios de la Clasificación Internacional de Enfermedades (CIE), siguiendo las propuestas del estudio mundial de Carga Global de Enfermedad (CGE) de la Organización Mundial de la Salud (OMS) calculamos el patrón de CdE en la población siguiendo un sistema de clasificación de enfermedades exhaustivo y excluyente, que permite la descomposición aditiva de las defunciones de lo que resulta que la CdE para el conjunto de la población es el agregado de aquélla generada por cada una de las causas consideradas. Este aspecto es crucial cuando, como en nuestro caso, se pretende estimar la carga global de enfermedad en una población (incluyendo todas las causas) en lugar de valorar todas las consecuencias (como enfermedad y también como factor de riesgo para otras enfermedades) de una patología específica.
     Un aspecto determinante en los estudios de CdE lo constituye la definición de las enfermedades estudiadas y la asignación de códigos CIE a cada una de las subcategorías de enfermedad. Ello puede llevar a modificaciones en los resultados absolutos al tener en cuenta las distintas manifestaciones y consecuencias de las enfermedades y/o de los factores de riesgo, tal y como sugieren los autores en su carta. …………..

jueves, 14 de octubre de 2010

76- Preeclamsia

Joerin VN, Dozdor LA, Brés SA. Avena JL. Preeclampsia eclampsia. Rev Posgrado VIa Cátedra de Medicina UNR, 2007; 165 (1): 20-25

Resumen

     La preeclampsia es una enfermedad de origen desconocido y multifactorial cuyo tratamiento definitivo es el parto, además de ser causal de repercusiones sobre la madre y el recién nacido, es motivo de hospitalizaciones prolongadas y repercusiones económicas para la familia, los establecimientos de salud y el sistema de salud del país. Este trastorno hipertensivo multisistémico exclusivo del ser humano complica aproximadamente el 10% de todos los embarazos con una incidencia ligeramente mayor en los países en desarrollo, constituye una de las principales causas de muerte materna de causa obstétrica y es responsable de una alta morbi- mortalidad fetal. La eclampsia es la presencia de convulsiones tónico-clónicas focales o generalizadas, que ocurren la mayoría de las veces durante el trabajo de parto o el puerperio inmediato y complican uno de cada 2000 a 3000 embarazos teniendo una alta tasa de mortalidad.  Aunque existen tantas teorías para explicar su origen, como investigadores se han abocado al tema, no esta claro todavía cual es su causa etiológica y quizás por ello no es posible todavía prevenirla eficazmente. En el presente trabajo, se revisa cuales son los síntomas y signos que contribuyen al diagnóstico de la preeclampsia-eclampsia, se resalta la importancia del control prenatal y se evalúa cual es el tratamiento más adecuado para resolver dicha patología.

Introducción

     Las alteraciones hipertensivas durante el embarazo son una importante causa de muerte materna y morbimortalidad fetal en todo el mundo. La OMS estima que existen anualmente más de 166 mil muertes por preeclampsia. Su incidencia es del 5 al 10% de los embarazos, pero la mortalidad es de 5 a 9 veces mayor en los países en vía de desarrollo. En Latinoamérica, la morbilidad perinatal es de 8 al 45% y la mortalidad del 1 al 33%.
    
 La HTA es la complicación médica más frecuente del embarazo. La elevación tensional de la embarazada tiene diversas causas y expresiones. En primer lugar el embarazo puede inducir elevación tensional y daño renal especifico para esta condición. Por otra parte, un número importante de mujeres hipertensas en edad fértil son susceptibles de quedar embarazadas y finalmente otras, con predisposición genética para desarrollar hipertensión, la expresan en forma transitoria durante la gestación, al estar sometidas a las alteraciones hemodinámicas y hormonales de esta condición. Las diferentes patologías hipertensivas durante el embarazo y/o el puerperio precoz se agrupan bajo el nombre de síndromes hipertensivos del embarazo. Si bien sus etiologías y riesgos difieren, su enfoque diagnóstico y terapéutico es similar. .......


N.R. Los kit reactivos para diagnostico uso in vitro e instrumentos mencionados en este trabajo, son comercializados en Argentina por ETC Internacional- C.A.B.A  http://www.etcint.com.ar

martes, 12 de octubre de 2010

75- Rotura de membrana

Ochoa A , Pérez Dettoma J. Amenaza de parto prematuro. Rotura prematura de membranas. Corioamnionitis. An. Sist. Sanit. Navar. 2009, 32 (1), 105-119

Resumen

     Cuanto menor es la edad gestacional al nacer, mayor es el riesgo de morbimortalidad perinatal y de morbilidad materna (aumento del número de cesáreas, metritis postparto). Es importante diagnosticar a tiempo una amenaza de parto prematuro (APP) para comenzar con el tratamiento tocolítico y conseguir una maduración pulmonar fetal eficaz. También es necesario distinguir lo que es una verdadera de una falsa APP. Hay una alta incidencia de sobrediagnóstico y de sobretratamiento y es frecuente la hospitalización prolongada.
     Con las pruebas que informan sobre la modificación cervical y la dinámica uterina se puede establecer un diagnóstico certero que conlleve una conducta adecuada. La identificación temprana y la prevención primaria no están tan desarrolladas como la actitud terapeútica, pero es importante tener en cuenta mecanismos para identificar pacientes de alto riesgo. Entre ellos están los antecedentes de parto pretérmino, signos y síntomas, modificación cervical, etc. La rotura prematura de membranas y la corioamnionitis conllevan riesgo de parto pretérmino si se producen en edades gestaciones tempranas.

Introducción

     La amenaza de parto pretérmino (APP) se define como la presencia de contracciones con un ritmo de 4 cada 20 minutos o de 8 en 60 minutos entre la 22 y 37 semanas de gestación. Este hecho se debe asociar al menos a una de las siguientes circunstancias: modificación progresiva del cérvix y dilatación cervical ≥ a 2 cm y borramiento ≥80%.  La prevalencia del parto pretérmino es del 7-10%. Supone un 65% de muertes perinatales y la principal causa de morbilidad neonatal. El 80% de las consultas por APP no terminarán en un parto prematuro. Dos tercios de las APP no parirán en las siguientes 48 horas, y más de un tercio llegarán a término.........

Ver artículo completo

N.R. Los kit reactivos para diagnostico uso in vitro e instrumentos mencionados en este trabajo, son comercializados en Argentina por ETC Internacional- C.A.B.A  http://www.etcint.com.ar



domingo, 10 de octubre de 2010

74- Cribado neonatal

J. L. Marín Soria, L. Aldamiz-Echevarria, D.E. Castiñeiras Ramos, J. Dalmau Serra, A. Fernández Sánchez, D. González Lamuño, Mª. J. Juan Fita, L. M. Jiménez Jiménez, C. Pérez – Cerdá. Programas de cribado neonatal en España: actualización y propuestas de futuro. Documento de consenso. Auspician AECOM, AEP-SEIM, SEQC-DP

Prólogo

El cribado neonatal de enfermedades genéticas comenzó en los años 60 cuando el microbiólogo Robert Guthrie y el bioquímico Louis Woolf desarrollaron análisis sencillos y sensibles para la detección, entre otras aminoacidopatías, de la fenilcetonuria, enfermedad que si no es tratada precozmente, tiene efectos devastadores sobre el desarrollo mental de los niños que la padecen.
En España, bajo la iniciativa del Prof Federico Mayor Zaragoza, iniciamos el primer programa de cribado neonatal en Granada en el año 1968, que posteriormente se extendió a toda España gracias, entre otras muchas acciones, a la puesta en marcha del Plan Nacional de Prevención de la Subnormalidad, con el apoyo inestimable de su Majestad la Reina Dª Sofia.

En los últimos años, el desarrollo de nuevas tecnologías, particularmente la espectrometría de masas en tandem y las plataformas de “alto rendimiento” para el análisis de mutaciones, ha hecho posible que se puedan detectar más de 50 enfermedades genéticas diferentes en una única muestra de sangre en papel del recién nacido.

Es cierto que existen dos categorías de enfermedades genéticas detectables; un grupo relativamente pequeño de ellas bien conocidas y tratables, que satisfacen los criterios clásicos de Wilson-Jungner para ser incluidas en los programas de cribado neonatal, y otro grupo potencialmente mayor, constituido por enfermedades poco conocidas y algunas sin tratamiento, que sólo cumplen algunos de los criterios. El principal objetivo de la detección del primer grupo es el tratamiento precoz y efectivo del recién nacido afecto. El objetivo, no menos importante, de la detección del segundo grupo sería el avance científico en el conocimiento de la enfermedad, que redundaría finalmente, en el hallazgo de un tratamiento eficaz.
En la comunidad internacional, los programas de cribado neonatal han “crecido” de forma diferente. En EEUU, el American College of Medical Genetics (ACGM), en el año 2005, recomendaba incluir en los programas de cribado un panel de 29 enfermedades principales y otras 25 de forma secundaria, y en la actualidad, prácticamente en todos los estados ya se ha adoptado el panel principal. También en Europa se ha implementado el cribado neonatal expandido en numerosos países como Austria, Bélgica, Dinamarca, Holanda, Polonia, Italia, Portugal, Alemania, etc.

En España, ya hay varias comunidades autónomas, Galicia, Murcia y Andalucía, que lo han implantado, y en las que ya se han detectado precozmente numerosos niños afectos pero asintomáticos. Y hay que seguir adelante intentando conseguir una cartera de servicios consensuada de manera que ningún recién nacido de este país sufra una enfermedad metabólica hereditaria que pudiéndose técnicamente detectar precozmente, no se haga por falta de voluntad política.

Este documento tiene como objetivo principal aportar el conocimiento y la experiencia de los profesionales implicados en el diagnóstico, tratamiento y seguimiento de pacientes con enfermedades metabólicas hereditarias a la prevención de estos defectos. Cuenta con el apoyo incondicional de la Federación Española de Asociaciones de Padres de niños afectados por fenilcetonuria (PKU) y otros trastornos del metabolismo (OTM). Es más, son ellos, los padres de los niños con enfermedades metabólicas hereditarias y ellos mismos, los niños diagnosticados y tratados precozmente, los que nos animan a seguir trabajando día a día en la prevención e investigación de estas enfermedades.
Índice

Introducción- Patologías asociadas al metabolismo de los aminoácidos- Patologías asociadas al metabolismo de la β-oxidación de ácidos grasos- Patologías asociadas al metabolismo de los Ácidos orgánicos- Otras patologías endocrino-metabólicas ..........

Ver artículo completo

N.R. Los kit reactivos para diagnostico uso in vitro e instrumentos mencionados en este trabajo, son comercializados en Argentina por ETC Internacional- C.A.B.A  http://www.etcint.com.ar

viernes, 8 de octubre de 2010

73- Fluorometrìa de tiempo demorado (DELFIA)

Parra M D., Martínez-Subiela S., Cerón J. J. Fluorometría en Tiempo Retardado: conceptos generales y aplicaciones en medicina veterinaria. An. Vet. (Murcia) 2004; 20: 35-47

Resumen

    La fluorometría en tiempo retardado es una tecnología novedosa que surge con la intención de reemplazar al radioinmunoanálisis y se presenta como una posible alternativa al ELISA. Este sistema de detección ha permitido el desarrollo de inmunoensayos altamente sensibles en los que antígenos o anticuerpos son marcados con quelatos de lantánidos, emisores de fluorescencia susceptible de ser cuantificada. Su gran sensibilidad hace que sea una herramienta eficaz en el análisis de compuestos que se encuentran en pequeñas concentraciones en diferentes fluidos orgánicos, tales como orina, sangre o saliva. Los crecientes avances en esta metodología han proporcionado ensayos ultrarrápidos y ultrasensibles para la determinación de proteínas de fase aguda y marcadores de infarto de miocardio en medicina humana, mientras que en medicina veterinaria una de sus principales aplicaciones se centra en la determinación de hormonas

1- Introducción

     El comienzo del empleo de la fluorescencia en inmunología data de 1941 cuando Coons y colaboradores marcaron por primera vez anticuerpos con compuestos fluorescentes para visualizar antígenos. A partir de los años ochenta, la determinación fluorométrica con sus aplicaciones en fluoroinmunoensayos homogéneos y en técnicas in situ (inmunocitoquímica, citometría de flujo), empezó a ser considerada como un sistema de detección muy sensible e incluso como una alternativa para reemplazar a los marcadores radiactivos en el campo de los inmunoensayos.

De hecho, la detección fluorométrica es una técnica extremadamente sensible, de manera que un compuesto fluorescente puede ser excitado más de 200.000 veces en un segundo y producir aproximadamente el mismo número de fotones emitidos. Sin embargo, los fluoroinmunoensayos de compuestos biológicos estuvieron durante mucho tiempo limitados por el background o fluorescencia residual producida por la unión no específica de los compuestos fluorescentes a determinados componentes del ensayo o el equipo, tales como los propios anticuerpos, plásticos, lentes, espejos...etc. Era evidente pues, que para que la fluorometría pudiera sustituir el contaje radiactivo, la señal específica tenía que ser separada de las interferencias de fondo o bien ser ampliada varios órdenes de magnitud.

Una de las alternativas más exitosas para solventar el problema fue el desarrollo de la fluorometría en tiempo retardado (TRF). En este sistema la señal se distingue del background residual por resolución temporal, es decir, la fluorescencia no es medida inmediatamente después de la excitación del compuesto fluorescente, sino que se deja pasar un cierto tiempo (400 microsegundos en el caso de compuestos marcados con europio) que permite excluir el background de corta duración...........

N.R. Los kit reactivos para diagnostico uso in vitro e instrumentos mencionados en este trabajo, son comercializados en Argentina por ETC Internacional- C.A.B.A  http://www.etcint.com.ar

miércoles, 6 de octubre de 2010

72- MS/MS Tandem

Cynthia Fernández-Lainez, Marcela Vela-Amieva, M. en C. Isabel Ibarra-González. Espectrometría de masas en Tándem: una nueva herramienta para el estudio de la metabolómica en pediatría. Acta Pediatr Mex 2009;30(5):258-63

Resumen

Los recientes avances en tecnología han revolucionado la manera en que los sistemas biológicos se visualizan y se estudian. Los avances en espectrometría de masas (EM, MS en inglés) han permitido el análisis de proteínas celulares y metabolitos (proteoma y metaboloma respectivamente) en una escala inimaginable. El término metabolómica se refiere al estudio, identificación y cuantificación de compuestos de bajo peso molecular en células, tejidos o fluidos biológicos, producto de las reacciones metabólicas en los seres vivos, cuya cuantificación proporciona un amplio panorama del estatus bioquímico.

La EM es una técnica analítica que permite la separación, identificación y cuantificación de múltiples metabolitos, en diferentes matrices biológicas, en un tiempo muy corto y de manera simultánea. En un principio, fue creada para la investigación, en la actualidad, la accesibilidad a esta tecnología ha abierto el camino al desarrollo de diversas aplicaciones por ejemplo, análisis de miles de compuestos presentes en nuestro organismo, el ambiente, los medicamentos, materiales manufacturados, alimentos, toxicología y medicina forense.

Una de las aplicaciones más comunes de la EM es el tamiz neonatal, cuya rápida expansión ha dado pautas para nuevas aplicaciones en el campo de la metabolómica y representa un modelo para futuros estudios de tamiz en enfermedades que afectan tanto a neonatos como a adultos.

El objetivo del presente trabajo es explicar los fundamentos de la EM, mencionar algunas aplicaciones clínicas y diagnósticas que la han convertido en la principal herramienta para el desarrollo de la metabolómica y dar un enfoque de éstas a la pediatría.

Introducción

Los recientes avances en tecnología han revolucionado la manera en que los sistemas biológicos se visualizan y se estudian. Los avances en espectrometría de masas (MS) han permitido el análisis de proteínas celulares y metabolitos (proteoma y metaboloma respectivamente) en una escala inimaginable.

El término metabolómica se refiere al estudio, la identificación y cuantificación sistemática de compuestos de bajo peso molecular en ciertas células, tejidos o fluidos biológicos que son producto de las reacciones metabólicas en los seres vivos. Uno de sus principales objetivos, es identificar cambios sutiles en los perfiles metabólicos entre sistemas biológicos en diferentes estados fisiológicos o patológicos. Los componentes del metaboloma pueden entenderse como los productos finales de la expresión genética y definen el fenotipo bioquímico de una célula, tejido u organismo. La cuantificación de estos metabolitos proporciona un amplio panorama del estatus bioquímico, que puede ser utilizado para vigilar y establecer la función de un gen.........


N.R. Los kit reactivos para diagnostico uso in vitro mencionados en este trabajo, son comercializados en Argentina por ETC Internacional- C.A.B.A  http://www.etcint.com.ar


(*) Este blog de bioquímica-clínica  no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos;  la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo..  




lunes, 4 de octubre de 2010

71- Genetica II- Citogenética

SEQC, Comisión de Genética Molecular* Alonso Cerezo C. Bases cromosómicas de las alteraciones genéticas humanas Quimica Clinica 2007; 26(4): 224-28

Indice
1. Introducción 2. Ciclo celular 3. Alteraciones cromosómicas 3.1 Anomalías numéricas de los cromosomas 3.2. Anomalías estructurales de los cromosomas 4. Técnicas de estudio de los cromosomas: citogenética 4.1 Citogenética convencional (cariotipo de bandas G) 4.2. Citogenética molecular (hibridación in situ con fluorescencia) 4.3 CGH (hibridación genómica comparada) 4.4 Cariotipo multicolor (SKY-FISH) 5. Origen y consecuencias de las alteraciones cromosómicas 5.1. No disyunción en la mitosis 5.2. No disyunción en la meiosis  5.3 Reordenamientos estructurales


1. Introducción
     Los cromosomas son estructuras filiformes formadas por cromatina presentes en el núcleo de las células. Cuando la célula se divide, la cromatina nuclear se condensa y toma la apariencia de orgánulos en forma de bastoncillo que se denominan cromosomas (Chroma, color y soma, cuerpo) porque se tiñen con algunos colorantes biológicos. La cromatina está formada por ácido desoxirribonucleico (ADN) y complejos de proteínas. Los genes se encuentran a lo largo de los cromosomas en un locus o posición concreta. La citogenética humana estudia las características de los cromosomas, su estructura y su herencia. El conjunto de los cromosomas constituye el cariotipo.
     En 1956, en Zaragoza, Tjio y Levan establecieron el número de cromosomas de las células somáticas humanas: cuarenta y seis cromosomas, que se dividen en cuarenta y cuatro autosomas, iguales en hombres y mujeres, y dos cromosomas sexuales, XY en hombres y XX en mujeres. Los cromosomas homólogos o miembros de un par contienen los mismos loci genéticos en la misma secuencia. En condiciones normales, se hereda un miembro de cada par cromosómico del padre, y el otro de la madre.
     El cromosoma tiene una morfología linear con dos cromátides que se unen por el centrómero y le divide en un brazo corto o brazo “p” (petite) y un brazo largo o brazo “q”. Los extremos de cada cromosoma se denominan telómeros. Algunos cromosomas presentan satélites en el brazo corto. Los cromosomas poseen un patrón de bandas características que se ubican en regiones y se enumeran desde el centrómero hacia el telómero del brazo correspondiente. Una banda se define por el número de cromosoma, el símbolo del brazo, el número de la región y el número de la banda dentro de la región.
     Se ha estandarizado la descripción del cariotipo normal y patológico a través del Sistema Internacional de Nomenclatura para la Citogenética Humana (ISCN) .Esta clasificación se basa en el tamaño de los cromosomas y en la posición del centrómero. Si el centrómero se  localiza a mitad del cromosoma y los dos brazos presentan aproximadamente igual longitud se denominan metacéntricos. Cuando la longitud de un brazo del cromosoma es algo menor que la del otro se denominan submetacéntricos. Cuando un brazo es muy corto (p) y el otro largo (q) se denominan acrocéntricos. En la especie humana no existen los cromosomas telocéntricos, con el centrómero en un extremo ……………………..

sábado, 2 de octubre de 2010

70 - Genetica I- Transmisión

SEQC- Comisión de Genética Molecular. Sánchez De Abajo AM. Transmisión de la información genética. Quimica Clinica 2007; 26(5): 265-71

Indice
1. Introducción . 2. Estructura del ADN. 3. Replicación del ADN 3.1. Replicación de los extremos de un cromosoma (telómeros) 4. Transcripción del ADN 4.1 Etapas de la transcripción • Iniciación • Elongación • Terminación • Maduración 5. Traducción del ADN 5.1 Etapas de la traducción • Activación de los aminoácidos • Iniciación • Elongación • Terminación 6. Conclusiones 7. Bibliografía
1. Introducción
     Entre las numerosas propiedades de los organismos vivos, hay una que es esencial para la continuación de la vida: un organismo debe ser capaz de replicarse. En una célula la información necesaria para su replicación se encuentra en el material genético, en una molécula llamada ácido desoxirribonucleico o ADN.      
     La información sólo es útil si existe un mecanismo para expresarla. De este modo, en los sistemas biológicos la información contenida en el ADN se copia en una molécula llamada ácido ribonucleico o ARN mediante un proceso llamado transcripción y, a continuación, esta información se traduce en forma de una proteína. Así, la información biológica almacenada en el ADN fluye del ADN al ARN y, por último, a las proteínas
2. Estructura del ADN
      El ADN está formado por dos cadenas complementarias de polinucleótidos dispuestas en forma de doble hélice antiparalelaa. El esqueleto de azúcar-fosfato se dispone en el exterior de la hélice y las bases nitrogenadas se apilan en el interior. Las dos cadenas están unidas entre sí mediante puentes de hidrógeno que se establecen entre bases complementarias. La adenina (A) se aparea siempre con la timina (T) mediante dos puentes de hidrógeno, y la guanina (G) con la citosina (C) mediante tres puentes de hidrógeno
3. Replicación del ADN
     La transferencia de la información genética desde una célula parental a las dos células hijas exige duplicar de forma precisa la molécula de ADN. Una vez resuelta la estructura molecular del ADN en 1953, James D. Watson y Francis H. Crick comprendieron que la estructura en sí sugería un posible mecanismo de replicación, en el cual cada una de las hebras actuaría de molde para la síntesis de su cadena complementaria. Posteriormente, se comprobó que el modelo de replicación semiconservativab era correcto.
     En eucariotas, la replicación del ADN se inicia cuando el complejo multiproteico de reconocimiento de orígenes de replicación (ORIs) se une al ADN en regiones ORI y recluta las helicasas, polimerasas y factores asociados necesarios para la replicación del ADN (figura 1). Cada cromosoma contiene numerosos ORIs, pero no todos los ORIs son funcionales en cada ronda de replicación. La etapa del desarrollo embrionario, el tipo celular u otros factores determinan el subgrupo de ORIs activos en cada ronda de replicación. La replicación progresa bidireccionalmente a partir de los ORIs activos hasta que el cromosoma completo se ha replicado. No todas las regiones ORIs de un organismo son idénticas. De hecho, recuerdan a las secuencias promotoras de la trascripción (ver más adelante) en el sentido de que son estructuras modulares altamente variables y complejas (2). ………………

(N de R):  Se denomina eucariotas a todas las células que tienen su material hereditario fundamental (su información genética) encerrado dentro de una doble membrana, la envoltura nuclear, que delimita un núcleo celular. Igualmente estas células vienen a ser microscópicas pero de tamaño grande y variado comparado con las otras células.  La alternativa a la organización eucariótica de la célula la ofrece la llamada célula procariota. En estas células el material hereditario se encuentra en una región específica denominada nucleoide, no aislada por membranas en el seno del citoplasma.