jueves, 28 de octubre de 2010

83- Automatización analitica

SEQC Comisión de Instrumentación y Sistemas Analíticos. JL Bedini Chesa, S Esteve Poblador, L García Beltrán, JM Gasalla Herraiz, C Macías Blanco, M Martínez Casademont, JM Moreno Cebeira, V Martínez Vázquez, B Prieto García, G Serrano Olmedo, J Torres Nicolau. Criterios para la selección de un modelo de automatización del laboratorio. Documento Definitivo.

Indice
0. Introducción
1. Objeto y campo de aplicación
2. Modelos de automatización
3. Fase preanalítica 3.1. Identificación de los pacientes: hospitalizados y ambulatorios 3.2. Tipos de contenedores 3.3. Identificación de la muestra 3.4. Configuración 3.5. Trazabilidad
4. Fase Analítica 4.1. Versatilidad de la automatización en la fase analítica 4.2. Gestión de prioridades 4.3. Control de la integridad de las muestras 4.4. Gestión de muestras especiales una vez dentro del proceso analítico 4.5. Gestión de los módulos del sistema automatizado 4.6. Acceso a la información generada sobre la muestra a tiempo real y validación técnica de resultados 4.7. Control de la calibración y controles de calidad. 4.8. Recursos humanos necesarios para la gestión y manteni-miento del sistema de automatización en la fase analítica.
5. Fase Postanalítica 5.1. Recuperación de muestras ya procesadas 5.2. Archivo de muestras. Indicación de caducidad o días de conservación 5.3. Capacidad de almacenamiento 5.4. Trazabilidad de las muestras 5.5. Conexión de los autoanalizadores con el sistema de in-formación del laboratorio 6. Conclusiones 7. Bibliografía

Introducción
     Los avances tecnológicos desarrollados en los últimos años pueden condicionar la aparición e implantación de nuevos sistemas organizativos, que permitirán agrupar la actividad de varias especialidades del laboratorio clínico, de manera que compartan espacio físico, recursos humanos y técnicos. Las constantes mejoras en la instrumentación han conducido a un incremento notable de la capacidad productiva del laboratorio clínico.
     La automatización ha permitido hacer más con menos y los nuevos descubrimientos científicos han creado, a su vez, nuevas necesidades y procedimientos que han repercutido en un aumento de la demanda de servicios al laboratorio clínico, los cuales se ven sometidos a la presión de los usuarios para la puesta a punto de nuevos procedimientos diagnósticos.
     En este complejo escenario, los profesionales de los laboratorios no pueden además olvidar su misión, que consistirá, fundamentalmente, en adecuar la tecnología necesaria para el estudio de fluidos y tejidos del cuerpo humano, con el fin de servir de apoyo a la clínica, proporcionándole información fiable y útil para el correcto diagnóstico de las enfermedades, para el seguimiento evolutivo de las mismas y para el control de la eficacia de la terapéutica aplicada.
     A la hora de seleccionar un modelo de automatización se estudiará la fiabilidad y la practicabilidad de las soluciones disponibles. La fiabilidad nos habla de la capacidad que tiene un sistema para man¬tener una adecuada calidad analítica (veracidad e incertidumbre) a lo largo del tiempo. Por otro lado, la practicabilidad es un índice de información sobre las prestaciones del modelo de interés bajo las condiciones particulares del laboratorio donde se implanta…………………


martes, 26 de octubre de 2010

82- Incertidumbre en resultados del laboratorio

Bagnarelli A.E. Incertidumbre en los resultados del laboratorio clínico. Bioq y Patol Clín- 2008;  72 (1): 11-16. ABA

Resumen

Este documento esta dedicado a tratar el problema de la Incertidumbre de una Medición (IM), que es una herramienta metrologica que permite una estimación cuantitativa de la calidad del resultado de una prueba del laboratorio. Hace unos años algunos organismos internacionales desarrollaron un documento para estimar dicha incertidumbre, bajo el titulo Guía para la Medición de la Incertidumbre (GUM) principalmente dedicado a magnitudes físicas y de laboratorios de ensayo, que presentaban un marco adecuado sobre los érminos y métodos para ser utilizados en este campo. Posteriormente la Norma ISO 15189 los adaptó a la problemática del laboratorio clínico debido a la compleja matriz del material biológico que se utiliza en los ensayos. Hemos estudiado su aplicación en la prueba de calcio en suero y la relación calcio/ creatinina en orina y también se ha estudiado la prueba del antígeno carcino-embrionario, para estimar la IM en los niveles de decisión clínica. En estos estudios, las variables introducidas se han obtenido de información brindada por equipos reactivo, instrumental y referencias bibliográficas.

Introducción

En 1927 Werner Heisenberg (Premio Nóbel de Física 1932) enunció el llamado Principio de Incertidumbre o de indeterminación, donde menciona que no es posible conocer con precisión arbitraria y a masa constante, la posición y el momento de una partícula. 

La introducción del concepto de Incertidumbre en una Medición (IM) supone la imposibilidad práctica de llevar a cabo mediciones perfectas, ya que el operador, su entorno y las demás partículas presentes influyen sobre la medida que se está llevando a cabo. Una medición puede ser separada en determinado número de etapas, cada una de las cuales tiene su propia IM. El total de la IM combinadas, tienen parte de los componentes de las etapas metrológicas (o analíticas) que la integran y se la puede calcular según Reglas de Propagación de Incertidumbre y su conocimiento permite mejorar la calidad de la información brindada. 

Además cuando se utiliza puntos de corte o niveles de decisión clínica para establecer estrategias diagnosticas es importante conocer el grado de IM de una prueba para comprender el real significado de la información brindada. También se debe mencionar que la Norma ISO 15189 especifica que si bien no es posible que los laboratorios en la práctica diaria informen las IM de cada resultado que entrega, dicha información debe estar disponible y ser accesible cuando por razones medicas, éticas o legales le sea requerida.  

En 1993 ISO elaboro una Guía para la Expresión de la Incertidumbre de Medición (GUM) para la calibración de magnitudes químicas y físicas (mecánica, electricidad, temperatura, etc) y donde no se consideraba la problemática del análisis clínico. Posteriormente y debido a la complejidad del material biológico que se debía procesar y los principios de aplicación de la IM, algunas sociedades bioquímicas utilizaron esa Guía para adaptarla a las pruebas del laboratorio clínico 

Ver el articulo completo


domingo, 24 de octubre de 2010

81- Cáncer de mama

Gallegos Velasco IB, Coutiño R, Martínez G y Hernández Cruz P. Marcadores glicosilados en cáncer de mama. Rev Educ Bioq 2008; 27(2): 52-59
 
Resumen
     El cáncer de mama es la segunda causa de muerte de mujeres en el mundo, sin embargo si es diagnosticado oportunamente puede ser curado. Recientemente se ha observado que cambios en la estructura de los oligosacáridos de las proteínas de membrana, se relacionan con los procesos de transformación y proliferación celular, los cuales pueden originar el cáncer de mama. En esta revisión se presenta una visión general de los marcadores glicosilados que se han asociado al cáncer de mama

Introducción
     Las neoplasias son crecimientos descontrolados de células en cualquier tipo de tejido. En la actualidad el cáncer de mama es la principal causa de muerte en mujeres en países desarrollados. Las glándulas mamarias se localizan en el tejido subcutáneo, están constituidas de tejido parenquimatoso que se divide en un número de 15 a 20 lóbulos. Cada lóbulo está formado por una serie de conductos intralobulillares que desembocan en los conductos galactóforos que se vierten a nivel del pezón. Los conductos galactóforos tienen un epitelio cilíndrico o cúbico con células que tienen un núcleo redondeado y en el citoplasma contienen pocas mitocondrias y escaso retículo endoplásmico rugoso.
     En 1957, Bloom y Richardson propusieron el sistema de clasificación histológico que actualmente se emplea en la tipificación del grado de avance del cáncer de mama. El cáncer ductal infiltrante se inicia en el sistema de pequeños conductos que llevan la leche de los lóbulos al pezón. Empieza cuando las células epiteliales anormales que recubren los ductos, se dividen, se multiplican y, posteriormente, estas células invaden el ducto y, en su fase más dañina, llegan a invadir el estroma que rodea a los ductos.
     El diagnóstico del cáncer de mama se realiza mediante la correlación de la exploración clínica, la mastografía y la confirmación siempre se hace con el estudio histopatológico. Además de la caracterización histológica mediante la tinción con hematoxilina-eosina, se realizan pruebas de inmunohistoquímica, en donde se utilizan una serie de marcadores tumorales, como por ejemplo: los receptores de estrógenos y progesterona, el antígeno nuclear de proliferación celular, la catepsina D, el c-erb-2, Bcl-2 y P53, entre otros. ………………..

viernes, 22 de octubre de 2010

80- Optimizar el laboratorio clínico


Comisión de Gestión del Laboratorio Clínico del Comité Científico de la Sociedad Española de Bioquímica Clínica y Patología Molecular. España. Ana Garca Raja A, Imma Caballe Martín I, Giménez Marín A. Uso adecuado del laboratorio clínico: necesidad y tendencias. Documento. Rev Lab Clin. 2008;1(2):75–82

Introducción

     El aumento de la utilización de los servicios de laboratorio, con una tasa de crecimiento anual del 6,15%, es motivo de preocupación para los servicios de salud con un gasto sanitario cada vez mayor y unos recursos limitados Para algunos el aumento de costes requiere un mayor control y contención, si bien esta perspectiva olvida el valor que aporta el laboratorio clínico Sabemos que asimismo hay una demanda inadecuada que genera un uso excesivo del laboratorio, lo que irı´a precisamente en la dirección contraria a la creación de valor. Las solicitudes de análisis innecesarios hacen que los costes aumenten sin que los resultados en salud mejoren, por ello las organizaciones sanitarias se plantean como objetivo el uso eficiente del laboratorio. También se sabe que hay una gran variabilidad en la utilización del laboratorio entre países, entre regiones de un mismo país y entre los mismos clínicos. Estas variaciones reducen el coste-efectividad. 

Para adecuar la demanda a las necesidades clínicas y evitar el uso inapropiado, es imprescindible que los profesionales de la clínica y los laboratorios trabajen conjuntamente. En la actualidad se recomienda una mejora en la selección de magnitudes, que las solicitudes se realicen guiadas por algoritmos elaborados siguiendo los criterios de la medicina basada en la evidencia (MBE). Por otra parte, es imprescindible la evaluación y valoración rigurosa y crítica de las nuevas ofertas antes de que se incorporen a la cartera de servicios, la eliminación de técnicas obsoletas y de paneles fijados sin criterios clínicos y, en especial, evitar peticiones redundantes y repeticiones innecesarias.

Objetivo

     El presente documento tiene como objetivo sentar las bases de lo que significa uso adecuado del laboratorio, identificar situaciones de uso inapropiado y resaltar las propuestas actuales que parece que pueden influir mas positivamente en la adecuación del uso…….....

miércoles, 20 de octubre de 2010

79- Proteinuria

Escalante-Gómez C, Zeledón-Sánchez F, Ulate-Montero G. Proteinuria, fisiología y fisiopatología aplicada. Revisión. Rev AMC, 2007; 49 (2): 83-89

Resumen
     La proteinuria está definida por la presencia de proteínas en la orina. En los adultos se refiere a una excreción urinaria de estas superior a 150 mg en 24 horas. Se ha utilizado como un marcador de lesión renal, constituyéndose en uno de los datos más importantes para el nefrólogo. Sin embargo, patologías tan comunes como la hipertensión arterial y la Diabetes Mellitas frecuentemente manifiestan sus afecciones renales con la presencia de proteinuria, convirtiéndose ahora en un marcador de enfermedades sistémicas y no solo renales. Normalmente, un individuo filtra 5000 mg de proteínas cada día, de los cuales 4950 mg son reabsorbidos en el túbulo proximal del riñón, de manera que la cantidad excretada es poca. En el presente artículo se exponen los diferentes tipos de proteinuria con base en conceptos fisiopatológicos. Hay varios métodos de laboratorio que permiten la cuantificación de la proteinuria, siendo la relación proteinuria / creatinuria y la orina de 24 horas las más utilizadas. La relevancia de esta revisión se muestra al tomar en cuenta que la proteinuria es el factor aislado más importante para determinar el avance y progresión de la enfermedad renal. También se ha mostrado que el riesgo añadido por la presencia de proteinuria fue superior al causado por el tabaco, la diabetes o la hipertrofia ventricular izquierda para la presencia de eventos isquémicos cardiovasculares. La proteinuria es más que solo proteínas en la orina, es una señal de alerta.
Introducción
     Históricamente, la proteinuria se ha utilizado como un marcador de lesión renal, constituyéndose en uno de los datos más importantes para el nefrólogo. Sin embargo, con los avances en los campos de la fisiología, la fisiopatología y la medicina interna, el estudio y manejo de algunas proteinurias ha pasado de las manos de los especialistas hacia las de los médicos de atención primaria. Patologías tan comunes como la hipertensión arterial y Diabetes Mellitas frecuentemente manifiestan sus afecciones renales con la presencia de proteinuria, convirtiéndose ahora en un marcador de enfermedades sistémicas y no solo renales.
    No todas las proteinurias son iguales. Existen proteinurias “aisladas”, las cuales no se asocian con disfunción renal patológica, como lo es la proteinuria ortostática, que solo requieren más que un seguimiento periódico. Pero también existen proteinurias “asociadas”, producto de alguna disfunción renal o sistémica, como lo es un síndrome nefrótico, que requieren la participación activa del médico para evitar el progreso a una falla renal severa. Es únicamente con el conocimiento del funcionamiento renal normal y la manera como las enfermedades pueden alterar este equilibro, que se logra entender los mecanismos por los cuales se produce la proteinuria.
     En esta revisión se abarca la definición, fisiología, fisiopatología, métodos de diagnóstico y algunas generalidades del tratamiento de las proteinurias, con el propósito de que el médico tenga un concepto integral de lo que significa la presencia de proteínas en la orina. …………………….

lunes, 18 de octubre de 2010

78- Hepatitis auto inmune

Orts Costa JA, Zúñiga Cabrera A, Alarcón Torres I. Hepatitis autoinmune. An. Med. Interna (Madrid) 2004; 21 (7): 340-354. Aran Ediciones, S.L.

Resumen
     La hepatitis autoinmune es una inflamación hepatocelular que se presenta cuando el sistema inmunológico actúa frente a los hepatocitos y que se caracteriza por hallazgos histológicos (hepatitis de interfase con afectación periportal, infiltración de células plasmáticas y necrosis en sacabocados), bioquímicos (hipertransaminasemia e hipergammaglobulinemia) y autoinmunes (presencia de ciertos autoanticuerpos). Este trastorno es relativamente poco frecuente y suele afectar a mujeres de mediana edad. Al no existir un marcador patognomónico para su diagnóstico se requiere una exclusión cuidadosa de otras causas de enfermedad hepática conjuntamente con un patrón clínico y analítico compatible. El criterio de puntuación propuesto por el Grupo Internacional de la Hepatitis Autoinmune para su diagnóstico no es suficientemente específico como para definir la prognosis y el tratamiento. La hepatitis autoinmune se clasifica, según los autoanticuerpos presentes, en subtipos 1 y 2, aunque esta clasificación no muestra repercusiones clínicas importantes. El anteriormente conocido como subtipo 3 no difiere clínicamente del 1 en forma significativa y por tanto debe incluirse dentro de este último grupo. Todavía permanecen por dilucidar la etiología y las bases moleculares de esta enfermedad, originada probablemente por la interacción de diversos factores como la predisposición genética (haplotipos HLA-DR3 y DR4), pérdida de tolerancia inmunológica, formación de neoantígenos por factores desencadenantes como virus o fármacos, y por mimetismo molecular. La terapia inmunosupresora (corticosteroides, azatioprina) ofrece excelentes resultados. Nuestro objetivo es revisar esta enfermedad bajo diferentes puntos de vista, considerando: los aspectos clínicos, histopatológicos, etiológicos, genéticos, bioquímicos, autoinmunes, de tratamiento y pronóstico.
Introducción
     Conocida inicialmente como “hepatitis crónica viral”, se considera que fue descrita con rigor por primera vez en 1950 por Waldeström, al observar en Suecia un tipo de hepatitis persistente que afectaba principalmente a mujeres jovenes y se asociaba con infiltración hepática de células plasmáticas, hipergammaglobulinemia, amenorrea y manifestaciones dermatológicas.
     En 1955, Joske describió la presencia del fenómeno LE (anticuerpos antinucleares, ANA) en hepatitis crónicas activas y en 1956 MacKay la denominó (erróneamente, pues no estárelacionada con el lupus) como hepatitis lupoide. También fue denominada como: cirrosis con síndrome adrenogenital y hepatitis plasmocelular. Posteriormente, en 1966, Whittingham observó la asociación con anticuerpos anti-músculo liso (SMA) y denominó la enfermedad como hepatitis crónica activa autoinmune, estableciéndola como una entidad diferenciada.
     Actualmente, la HAI se considera como una enfermedad necro-inflamatoria del hígado, infrecuente, usualmente crónica y progresiva, de etiología no suficientemente conocida que se caracteriza por la presencia de alteraciones inmunológicas entre las que se encuentran la hipergammaglobulinemia y la presencia de autoanticuerpos, con una buena respuesta al tratamiento con inmunosupresores y mayor prevalencia en mujeres.
     No existe un marcador patognomónico de esta enfermedad. La enfermedad quedó definida en 1992 por el Grupo Internacional de Hepatitis Autoinmune (GIHA) siguiendo un sistema de puntuación que fue revisado posteriormente . Basándose en diferentes patrones autoinmunitarios puede clasificarse dos subtipos: 1 y 2. Los principales problemas que se encuentran para mantener un concepto unitario sobre las hepatitis autoinmunes son:  la ausencia de rasgos clínicos y analíticos patognomónicos, dificultad para la identificación de los autoanticuerpos y autoantígenos implicados, y la compresión todavía parcial de los mecanismos inmunológicos responsables. ……………………………..




sábado, 16 de octubre de 2010

77- Carga global de la enfermedad


Catalá López F, Álvarez Martín E, Gènova Maleras R, Morant Ginestar C. Los estudios de carga de enfermedad en el establecimiento de prioridades en salud: réplica. Rev Esp Salud Pública 2009; 83: 589-591

     El trabajo Relación en España entre la investigación sanitaria financiada por el Sistema Nacional de Salud (SNS) y la carga de enfermedad en la comunidad nos brinda la oportunidad de reflexionar sobre varios aspectos relacionados con la elaboración y utilización de indicadores sanitarios, en concreto sobre las medidas de carga de enfermedad (CdE). García-Fulgueiras y cols. ponen de manifiesto en su carta el problema de la atribución causal para el caso particular de las hepatitis B y C (como factor de riesgo causal de la cirrosis y el cáncer hepático).
     En nuestro trabajo, de acuerdo a los principios de la Clasificación Internacional de Enfermedades (CIE), siguiendo las propuestas del estudio mundial de Carga Global de Enfermedad (CGE) de la Organización Mundial de la Salud (OMS) calculamos el patrón de CdE en la población siguiendo un sistema de clasificación de enfermedades exhaustivo y excluyente, que permite la descomposición aditiva de las defunciones de lo que resulta que la CdE para el conjunto de la población es el agregado de aquélla generada por cada una de las causas consideradas. Este aspecto es crucial cuando, como en nuestro caso, se pretende estimar la carga global de enfermedad en una población (incluyendo todas las causas) en lugar de valorar todas las consecuencias (como enfermedad y también como factor de riesgo para otras enfermedades) de una patología específica.
     Un aspecto determinante en los estudios de CdE lo constituye la definición de las enfermedades estudiadas y la asignación de códigos CIE a cada una de las subcategorías de enfermedad. Ello puede llevar a modificaciones en los resultados absolutos al tener en cuenta las distintas manifestaciones y consecuencias de las enfermedades y/o de los factores de riesgo, tal y como sugieren los autores en su carta. …………..

jueves, 14 de octubre de 2010

76- Preeclamsia

Joerin VN, Dozdor LA, Brés SA. Avena JL. Preeclampsia eclampsia. Rev Posgrado VIa Cátedra de Medicina UNR, 2007; 165 (1): 20-25

Resumen

     La preeclampsia es una enfermedad de origen desconocido y multifactorial cuyo tratamiento definitivo es el parto, además de ser causal de repercusiones sobre la madre y el recién nacido, es motivo de hospitalizaciones prolongadas y repercusiones económicas para la familia, los establecimientos de salud y el sistema de salud del país. Este trastorno hipertensivo multisistémico exclusivo del ser humano complica aproximadamente el 10% de todos los embarazos con una incidencia ligeramente mayor en los países en desarrollo, constituye una de las principales causas de muerte materna de causa obstétrica y es responsable de una alta morbi- mortalidad fetal. La eclampsia es la presencia de convulsiones tónico-clónicas focales o generalizadas, que ocurren la mayoría de las veces durante el trabajo de parto o el puerperio inmediato y complican uno de cada 2000 a 3000 embarazos teniendo una alta tasa de mortalidad.  Aunque existen tantas teorías para explicar su origen, como investigadores se han abocado al tema, no esta claro todavía cual es su causa etiológica y quizás por ello no es posible todavía prevenirla eficazmente. En el presente trabajo, se revisa cuales son los síntomas y signos que contribuyen al diagnóstico de la preeclampsia-eclampsia, se resalta la importancia del control prenatal y se evalúa cual es el tratamiento más adecuado para resolver dicha patología.

Introducción

     Las alteraciones hipertensivas durante el embarazo son una importante causa de muerte materna y morbimortalidad fetal en todo el mundo. La OMS estima que existen anualmente más de 166 mil muertes por preeclampsia. Su incidencia es del 5 al 10% de los embarazos, pero la mortalidad es de 5 a 9 veces mayor en los países en vía de desarrollo. En Latinoamérica, la morbilidad perinatal es de 8 al 45% y la mortalidad del 1 al 33%.
    
 La HTA es la complicación médica más frecuente del embarazo. La elevación tensional de la embarazada tiene diversas causas y expresiones. En primer lugar el embarazo puede inducir elevación tensional y daño renal especifico para esta condición. Por otra parte, un número importante de mujeres hipertensas en edad fértil son susceptibles de quedar embarazadas y finalmente otras, con predisposición genética para desarrollar hipertensión, la expresan en forma transitoria durante la gestación, al estar sometidas a las alteraciones hemodinámicas y hormonales de esta condición. Las diferentes patologías hipertensivas durante el embarazo y/o el puerperio precoz se agrupan bajo el nombre de síndromes hipertensivos del embarazo. Si bien sus etiologías y riesgos difieren, su enfoque diagnóstico y terapéutico es similar. .......


N.R. Los kit reactivos para diagnostico uso in vitro e instrumentos mencionados en este trabajo, son comercializados en Argentina por ETC Internacional- C.A.B.A  http://www.etcint.com.ar

martes, 12 de octubre de 2010

75- Rotura de membrana

Ochoa A , Pérez Dettoma J. Amenaza de parto prematuro. Rotura prematura de membranas. Corioamnionitis. An. Sist. Sanit. Navar. 2009, 32 (1), 105-119

Resumen

     Cuanto menor es la edad gestacional al nacer, mayor es el riesgo de morbimortalidad perinatal y de morbilidad materna (aumento del número de cesáreas, metritis postparto). Es importante diagnosticar a tiempo una amenaza de parto prematuro (APP) para comenzar con el tratamiento tocolítico y conseguir una maduración pulmonar fetal eficaz. También es necesario distinguir lo que es una verdadera de una falsa APP. Hay una alta incidencia de sobrediagnóstico y de sobretratamiento y es frecuente la hospitalización prolongada.
     Con las pruebas que informan sobre la modificación cervical y la dinámica uterina se puede establecer un diagnóstico certero que conlleve una conducta adecuada. La identificación temprana y la prevención primaria no están tan desarrolladas como la actitud terapeútica, pero es importante tener en cuenta mecanismos para identificar pacientes de alto riesgo. Entre ellos están los antecedentes de parto pretérmino, signos y síntomas, modificación cervical, etc. La rotura prematura de membranas y la corioamnionitis conllevan riesgo de parto pretérmino si se producen en edades gestaciones tempranas.

Introducción

     La amenaza de parto pretérmino (APP) se define como la presencia de contracciones con un ritmo de 4 cada 20 minutos o de 8 en 60 minutos entre la 22 y 37 semanas de gestación. Este hecho se debe asociar al menos a una de las siguientes circunstancias: modificación progresiva del cérvix y dilatación cervical ≥ a 2 cm y borramiento ≥80%.  La prevalencia del parto pretérmino es del 7-10%. Supone un 65% de muertes perinatales y la principal causa de morbilidad neonatal. El 80% de las consultas por APP no terminarán en un parto prematuro. Dos tercios de las APP no parirán en las siguientes 48 horas, y más de un tercio llegarán a término.........

Ver artículo completo

N.R. Los kit reactivos para diagnostico uso in vitro e instrumentos mencionados en este trabajo, son comercializados en Argentina por ETC Internacional- C.A.B.A  http://www.etcint.com.ar



domingo, 10 de octubre de 2010

74- Cribado neonatal

J. L. Marín Soria, L. Aldamiz-Echevarria, D.E. Castiñeiras Ramos, J. Dalmau Serra, A. Fernández Sánchez, D. González Lamuño, Mª. J. Juan Fita, L. M. Jiménez Jiménez, C. Pérez – Cerdá. Programas de cribado neonatal en España: actualización y propuestas de futuro. Documento de consenso. Auspician AECOM, AEP-SEIM, SEQC-DP

Prólogo

El cribado neonatal de enfermedades genéticas comenzó en los años 60 cuando el microbiólogo Robert Guthrie y el bioquímico Louis Woolf desarrollaron análisis sencillos y sensibles para la detección, entre otras aminoacidopatías, de la fenilcetonuria, enfermedad que si no es tratada precozmente, tiene efectos devastadores sobre el desarrollo mental de los niños que la padecen.
En España, bajo la iniciativa del Prof Federico Mayor Zaragoza, iniciamos el primer programa de cribado neonatal en Granada en el año 1968, que posteriormente se extendió a toda España gracias, entre otras muchas acciones, a la puesta en marcha del Plan Nacional de Prevención de la Subnormalidad, con el apoyo inestimable de su Majestad la Reina Dª Sofia.

En los últimos años, el desarrollo de nuevas tecnologías, particularmente la espectrometría de masas en tandem y las plataformas de “alto rendimiento” para el análisis de mutaciones, ha hecho posible que se puedan detectar más de 50 enfermedades genéticas diferentes en una única muestra de sangre en papel del recién nacido.

Es cierto que existen dos categorías de enfermedades genéticas detectables; un grupo relativamente pequeño de ellas bien conocidas y tratables, que satisfacen los criterios clásicos de Wilson-Jungner para ser incluidas en los programas de cribado neonatal, y otro grupo potencialmente mayor, constituido por enfermedades poco conocidas y algunas sin tratamiento, que sólo cumplen algunos de los criterios. El principal objetivo de la detección del primer grupo es el tratamiento precoz y efectivo del recién nacido afecto. El objetivo, no menos importante, de la detección del segundo grupo sería el avance científico en el conocimiento de la enfermedad, que redundaría finalmente, en el hallazgo de un tratamiento eficaz.
En la comunidad internacional, los programas de cribado neonatal han “crecido” de forma diferente. En EEUU, el American College of Medical Genetics (ACGM), en el año 2005, recomendaba incluir en los programas de cribado un panel de 29 enfermedades principales y otras 25 de forma secundaria, y en la actualidad, prácticamente en todos los estados ya se ha adoptado el panel principal. También en Europa se ha implementado el cribado neonatal expandido en numerosos países como Austria, Bélgica, Dinamarca, Holanda, Polonia, Italia, Portugal, Alemania, etc.

En España, ya hay varias comunidades autónomas, Galicia, Murcia y Andalucía, que lo han implantado, y en las que ya se han detectado precozmente numerosos niños afectos pero asintomáticos. Y hay que seguir adelante intentando conseguir una cartera de servicios consensuada de manera que ningún recién nacido de este país sufra una enfermedad metabólica hereditaria que pudiéndose técnicamente detectar precozmente, no se haga por falta de voluntad política.

Este documento tiene como objetivo principal aportar el conocimiento y la experiencia de los profesionales implicados en el diagnóstico, tratamiento y seguimiento de pacientes con enfermedades metabólicas hereditarias a la prevención de estos defectos. Cuenta con el apoyo incondicional de la Federación Española de Asociaciones de Padres de niños afectados por fenilcetonuria (PKU) y otros trastornos del metabolismo (OTM). Es más, son ellos, los padres de los niños con enfermedades metabólicas hereditarias y ellos mismos, los niños diagnosticados y tratados precozmente, los que nos animan a seguir trabajando día a día en la prevención e investigación de estas enfermedades.
Índice

Introducción- Patologías asociadas al metabolismo de los aminoácidos- Patologías asociadas al metabolismo de la β-oxidación de ácidos grasos- Patologías asociadas al metabolismo de los Ácidos orgánicos- Otras patologías endocrino-metabólicas ..........

Ver artículo completo

N.R. Los kit reactivos para diagnostico uso in vitro e instrumentos mencionados en este trabajo, son comercializados en Argentina por ETC Internacional- C.A.B.A  http://www.etcint.com.ar

viernes, 8 de octubre de 2010

73- Fluorometrìa de tiempo demorado (DELFIA)

Parra M D., Martínez-Subiela S., Cerón J. J. Fluorometría en Tiempo Retardado: conceptos generales y aplicaciones en medicina veterinaria. An. Vet. (Murcia) 2004; 20: 35-47

Resumen

    La fluorometría en tiempo retardado es una tecnología novedosa que surge con la intención de reemplazar al radioinmunoanálisis y se presenta como una posible alternativa al ELISA. Este sistema de detección ha permitido el desarrollo de inmunoensayos altamente sensibles en los que antígenos o anticuerpos son marcados con quelatos de lantánidos, emisores de fluorescencia susceptible de ser cuantificada. Su gran sensibilidad hace que sea una herramienta eficaz en el análisis de compuestos que se encuentran en pequeñas concentraciones en diferentes fluidos orgánicos, tales como orina, sangre o saliva. Los crecientes avances en esta metodología han proporcionado ensayos ultrarrápidos y ultrasensibles para la determinación de proteínas de fase aguda y marcadores de infarto de miocardio en medicina humana, mientras que en medicina veterinaria una de sus principales aplicaciones se centra en la determinación de hormonas

1- Introducción

     El comienzo del empleo de la fluorescencia en inmunología data de 1941 cuando Coons y colaboradores marcaron por primera vez anticuerpos con compuestos fluorescentes para visualizar antígenos. A partir de los años ochenta, la determinación fluorométrica con sus aplicaciones en fluoroinmunoensayos homogéneos y en técnicas in situ (inmunocitoquímica, citometría de flujo), empezó a ser considerada como un sistema de detección muy sensible e incluso como una alternativa para reemplazar a los marcadores radiactivos en el campo de los inmunoensayos.

De hecho, la detección fluorométrica es una técnica extremadamente sensible, de manera que un compuesto fluorescente puede ser excitado más de 200.000 veces en un segundo y producir aproximadamente el mismo número de fotones emitidos. Sin embargo, los fluoroinmunoensayos de compuestos biológicos estuvieron durante mucho tiempo limitados por el background o fluorescencia residual producida por la unión no específica de los compuestos fluorescentes a determinados componentes del ensayo o el equipo, tales como los propios anticuerpos, plásticos, lentes, espejos...etc. Era evidente pues, que para que la fluorometría pudiera sustituir el contaje radiactivo, la señal específica tenía que ser separada de las interferencias de fondo o bien ser ampliada varios órdenes de magnitud.

Una de las alternativas más exitosas para solventar el problema fue el desarrollo de la fluorometría en tiempo retardado (TRF). En este sistema la señal se distingue del background residual por resolución temporal, es decir, la fluorescencia no es medida inmediatamente después de la excitación del compuesto fluorescente, sino que se deja pasar un cierto tiempo (400 microsegundos en el caso de compuestos marcados con europio) que permite excluir el background de corta duración...........

N.R. Los kit reactivos para diagnostico uso in vitro e instrumentos mencionados en este trabajo, son comercializados en Argentina por ETC Internacional- C.A.B.A  http://www.etcint.com.ar

miércoles, 6 de octubre de 2010

72- MS/MS Tandem

Cynthia Fernández-Lainez, Marcela Vela-Amieva, M. en C. Isabel Ibarra-González. Espectrometría de masas en Tándem: una nueva herramienta para el estudio de la metabolómica en pediatría. Acta Pediatr Mex 2009;30(5):258-63

Resumen

Los recientes avances en tecnología han revolucionado la manera en que los sistemas biológicos se visualizan y se estudian. Los avances en espectrometría de masas (EM, MS en inglés) han permitido el análisis de proteínas celulares y metabolitos (proteoma y metaboloma respectivamente) en una escala inimaginable. El término metabolómica se refiere al estudio, identificación y cuantificación de compuestos de bajo peso molecular en células, tejidos o fluidos biológicos, producto de las reacciones metabólicas en los seres vivos, cuya cuantificación proporciona un amplio panorama del estatus bioquímico.

La EM es una técnica analítica que permite la separación, identificación y cuantificación de múltiples metabolitos, en diferentes matrices biológicas, en un tiempo muy corto y de manera simultánea. En un principio, fue creada para la investigación, en la actualidad, la accesibilidad a esta tecnología ha abierto el camino al desarrollo de diversas aplicaciones por ejemplo, análisis de miles de compuestos presentes en nuestro organismo, el ambiente, los medicamentos, materiales manufacturados, alimentos, toxicología y medicina forense.

Una de las aplicaciones más comunes de la EM es el tamiz neonatal, cuya rápida expansión ha dado pautas para nuevas aplicaciones en el campo de la metabolómica y representa un modelo para futuros estudios de tamiz en enfermedades que afectan tanto a neonatos como a adultos.

El objetivo del presente trabajo es explicar los fundamentos de la EM, mencionar algunas aplicaciones clínicas y diagnósticas que la han convertido en la principal herramienta para el desarrollo de la metabolómica y dar un enfoque de éstas a la pediatría.

Introducción

Los recientes avances en tecnología han revolucionado la manera en que los sistemas biológicos se visualizan y se estudian. Los avances en espectrometría de masas (MS) han permitido el análisis de proteínas celulares y metabolitos (proteoma y metaboloma respectivamente) en una escala inimaginable.

El término metabolómica se refiere al estudio, la identificación y cuantificación sistemática de compuestos de bajo peso molecular en ciertas células, tejidos o fluidos biológicos que son producto de las reacciones metabólicas en los seres vivos. Uno de sus principales objetivos, es identificar cambios sutiles en los perfiles metabólicos entre sistemas biológicos en diferentes estados fisiológicos o patológicos. Los componentes del metaboloma pueden entenderse como los productos finales de la expresión genética y definen el fenotipo bioquímico de una célula, tejido u organismo. La cuantificación de estos metabolitos proporciona un amplio panorama del estatus bioquímico, que puede ser utilizado para vigilar y establecer la función de un gen.........


N.R. Los kit reactivos para diagnostico uso in vitro mencionados en este trabajo, son comercializados en Argentina por ETC Internacional- C.A.B.A  http://www.etcint.com.ar


(*) Este blog de bioquímica-clínica  no persigue fin de lucro alguno. Está destinado a profesionales bioquímicos y médicos;  la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den al mismo..  




lunes, 4 de octubre de 2010

71- Genetica II- Citogenética

SEQC, Comisión de Genética Molecular* Alonso Cerezo C. Bases cromosómicas de las alteraciones genéticas humanas Quimica Clinica 2007; 26(4): 224-28

Indice
1. Introducción 2. Ciclo celular 3. Alteraciones cromosómicas 3.1 Anomalías numéricas de los cromosomas 3.2. Anomalías estructurales de los cromosomas 4. Técnicas de estudio de los cromosomas: citogenética 4.1 Citogenética convencional (cariotipo de bandas G) 4.2. Citogenética molecular (hibridación in situ con fluorescencia) 4.3 CGH (hibridación genómica comparada) 4.4 Cariotipo multicolor (SKY-FISH) 5. Origen y consecuencias de las alteraciones cromosómicas 5.1. No disyunción en la mitosis 5.2. No disyunción en la meiosis  5.3 Reordenamientos estructurales


1. Introducción
     Los cromosomas son estructuras filiformes formadas por cromatina presentes en el núcleo de las células. Cuando la célula se divide, la cromatina nuclear se condensa y toma la apariencia de orgánulos en forma de bastoncillo que se denominan cromosomas (Chroma, color y soma, cuerpo) porque se tiñen con algunos colorantes biológicos. La cromatina está formada por ácido desoxirribonucleico (ADN) y complejos de proteínas. Los genes se encuentran a lo largo de los cromosomas en un locus o posición concreta. La citogenética humana estudia las características de los cromosomas, su estructura y su herencia. El conjunto de los cromosomas constituye el cariotipo.
     En 1956, en Zaragoza, Tjio y Levan establecieron el número de cromosomas de las células somáticas humanas: cuarenta y seis cromosomas, que se dividen en cuarenta y cuatro autosomas, iguales en hombres y mujeres, y dos cromosomas sexuales, XY en hombres y XX en mujeres. Los cromosomas homólogos o miembros de un par contienen los mismos loci genéticos en la misma secuencia. En condiciones normales, se hereda un miembro de cada par cromosómico del padre, y el otro de la madre.
     El cromosoma tiene una morfología linear con dos cromátides que se unen por el centrómero y le divide en un brazo corto o brazo “p” (petite) y un brazo largo o brazo “q”. Los extremos de cada cromosoma se denominan telómeros. Algunos cromosomas presentan satélites en el brazo corto. Los cromosomas poseen un patrón de bandas características que se ubican en regiones y se enumeran desde el centrómero hacia el telómero del brazo correspondiente. Una banda se define por el número de cromosoma, el símbolo del brazo, el número de la región y el número de la banda dentro de la región.
     Se ha estandarizado la descripción del cariotipo normal y patológico a través del Sistema Internacional de Nomenclatura para la Citogenética Humana (ISCN) .Esta clasificación se basa en el tamaño de los cromosomas y en la posición del centrómero. Si el centrómero se  localiza a mitad del cromosoma y los dos brazos presentan aproximadamente igual longitud se denominan metacéntricos. Cuando la longitud de un brazo del cromosoma es algo menor que la del otro se denominan submetacéntricos. Cuando un brazo es muy corto (p) y el otro largo (q) se denominan acrocéntricos. En la especie humana no existen los cromosomas telocéntricos, con el centrómero en un extremo ……………………..

sábado, 2 de octubre de 2010

70 - Genetica I- Transmisión

SEQC- Comisión de Genética Molecular. Sánchez De Abajo AM. Transmisión de la información genética. Quimica Clinica 2007; 26(5): 265-71

Indice
1. Introducción . 2. Estructura del ADN. 3. Replicación del ADN 3.1. Replicación de los extremos de un cromosoma (telómeros) 4. Transcripción del ADN 4.1 Etapas de la transcripción • Iniciación • Elongación • Terminación • Maduración 5. Traducción del ADN 5.1 Etapas de la traducción • Activación de los aminoácidos • Iniciación • Elongación • Terminación 6. Conclusiones 7. Bibliografía
1. Introducción
     Entre las numerosas propiedades de los organismos vivos, hay una que es esencial para la continuación de la vida: un organismo debe ser capaz de replicarse. En una célula la información necesaria para su replicación se encuentra en el material genético, en una molécula llamada ácido desoxirribonucleico o ADN.      
     La información sólo es útil si existe un mecanismo para expresarla. De este modo, en los sistemas biológicos la información contenida en el ADN se copia en una molécula llamada ácido ribonucleico o ARN mediante un proceso llamado transcripción y, a continuación, esta información se traduce en forma de una proteína. Así, la información biológica almacenada en el ADN fluye del ADN al ARN y, por último, a las proteínas
2. Estructura del ADN
      El ADN está formado por dos cadenas complementarias de polinucleótidos dispuestas en forma de doble hélice antiparalelaa. El esqueleto de azúcar-fosfato se dispone en el exterior de la hélice y las bases nitrogenadas se apilan en el interior. Las dos cadenas están unidas entre sí mediante puentes de hidrógeno que se establecen entre bases complementarias. La adenina (A) se aparea siempre con la timina (T) mediante dos puentes de hidrógeno, y la guanina (G) con la citosina (C) mediante tres puentes de hidrógeno
3. Replicación del ADN
     La transferencia de la información genética desde una célula parental a las dos células hijas exige duplicar de forma precisa la molécula de ADN. Una vez resuelta la estructura molecular del ADN en 1953, James D. Watson y Francis H. Crick comprendieron que la estructura en sí sugería un posible mecanismo de replicación, en el cual cada una de las hebras actuaría de molde para la síntesis de su cadena complementaria. Posteriormente, se comprobó que el modelo de replicación semiconservativab era correcto.
     En eucariotas, la replicación del ADN se inicia cuando el complejo multiproteico de reconocimiento de orígenes de replicación (ORIs) se une al ADN en regiones ORI y recluta las helicasas, polimerasas y factores asociados necesarios para la replicación del ADN (figura 1). Cada cromosoma contiene numerosos ORIs, pero no todos los ORIs son funcionales en cada ronda de replicación. La etapa del desarrollo embrionario, el tipo celular u otros factores determinan el subgrupo de ORIs activos en cada ronda de replicación. La replicación progresa bidireccionalmente a partir de los ORIs activos hasta que el cromosoma completo se ha replicado. No todas las regiones ORIs de un organismo son idénticas. De hecho, recuerdan a las secuencias promotoras de la trascripción (ver más adelante) en el sentido de que son estructuras modulares altamente variables y complejas (2). ………………

(N de R):  Se denomina eucariotas a todas las células que tienen su material hereditario fundamental (su información genética) encerrado dentro de una doble membrana, la envoltura nuclear, que delimita un núcleo celular. Igualmente estas células vienen a ser microscópicas pero de tamaño grande y variado comparado con las otras células.  La alternativa a la organización eucariótica de la célula la ofrece la llamada célula procariota. En estas células el material hereditario se encuentra en una región específica denominada nucleoide, no aislada por membranas en el seno del citoplasma.


jueves, 30 de septiembre de 2010

69- Infecciones bacterianas

Olaechea PM. Infecciones bacterianas en el paciente crítico: revisión de los estudios publicados entre 2006 y 2008. Med Intensiva. 2009;33(4) :196-206

Resumen
     Se ha realizado una revisión de las publicaciones médicas entre los años 2006 y 2008 sobre infecciones bacterianas que afectan a los pacientes críticos. Se han seleccionado cuatro temas: neumonía adquirida en la comunidad, neumonía asociada a ventilación mecánica, bacteriemia asociada a catéter y nuevos tratamientos antimicrobianos.
     En neumonía comunitaria se debe seguir las guías de práctica clínica adaptadas localmente, identificar a los pacientes con relacionados con los sistemas sociosanitarios e ingresar a los pacientes en UCI según criterios clínicos, por la ausencia de normativas completamente fiables. Es necesario aprovechar cualquier información microbiológica para el diagnóstico de neumonía asociada a ventilación mecánica. Ante el riesgo de patógenos multirresistentes, hay que iniciar tratamiento combinado y luego pasar a monoterapia ajustada al antibiograma. Se debe implantar medidas de prevención de neumonía asociada a ventilación mecánica y bacteriemias relacionadas con catéter ya establecidas y que hayan resultado eficaces.
      El tratamiento empírico de la bacteriemia relacionada con catéter debe ir dirigido contra los patógenos más probables según el lugar de punción. Los nuevos antibióticos recientemente comercializados están dirigidos básicamente hacia bacterias grampositivas resistentes, mientras que para el tratamiento de los bacilos gramnegativos resistentes es necesario combinar el uso de los nuevos antimicrobianos con una nueva valoración de los antibióticos utilizados desde hace años y la posibilidad de elegir distintas formas de administración

Introducción
     Al acercarnos a la literatura médica publicada en los últimos 2 años sobre las infecciones bacterianas en pacientes críticos, podemos observar dos grandes apartados; por un lado, lo referido a la fisiopatología, el diagnóstico, el tratamiento y la prevención de infecciones bacterianas como tales y, por otro, el diagnóstico precoz y el manejo del cuadro de sepsis o shock séptico que estas infecciones producen.
     En los últimos años se ha publicado gran cantidad de artículos relacionados con el manejo de la sepsis en general, principalmente sobre los marcadores de sepsis y las recomendaciones de la Surviving Sepsis Campaign. En este artículo se presenta una revisión sistemática de la literatura médica referida a las infecciones bacterianas como tales, dejando de lado el amplísimo campo relacionado con sus efectos en la sepsis.
     El campo de las infecciones bacterianas en los pacientes críticos, de todos modos, es muy amplio para revisarlo en un solo artículo, por lo que parece necesario elegir ciertos temas que por su actualidad son de mayor interés: neumonía adquirida en la comunidad (NAC), neumonía asociada a ventilación mecánica (NAVM), bacteriemias (fundamentalmente las asociadas a catéter) y nuevos tratamientos antimicrobianos.
Sobre estos temas sobrevuela el aspecto más general de la multirresistencia que afecta a todas las infecciones descritas y, sin abordarla directamente como tema aparte, está en el trasfondo de muy buena parte de lo que se está estudiando en estos días.
     El objetivo de este artículo es presentar los aspectos más destacados de una revisión sistemática en infecciones bacterianas en medicina intensiva, repasando la literatura médica publicada entre enero de 2006 y junio de 2008…………

martes, 28 de septiembre de 2010

68- El Origen de las cosas

I) Moisés. Libro Primero: Génesis

………1:26 Entonces dijo Dios: Hagamos al hombre a nuestra imagen, conforme a nuestra semejanza; y señoree en los peces del mar, en las aves de los cielos, en las bestias, en toda la tierra, y en todo animal que se arrastra sobre la tierra…….1:27 Y creó Dios al hombre a su imagen, a imagen de Dios lo creó; varón y hembra los creó….... 1:31 Y vio Dios todo lo que había hecho, y he aquí que era bueno en gran manera. Y fue la tarde y la mañana el día sexto…….

II) Kornblihtt AR. Creacionismo vs evolución biológica. Diario Perfil.com (20.10.2006)
Profesor Titular plenario de la FCEN-UBA: Laboratorio de Investigación de Fisiología y Biología Molecular. Investigador Superior del CONICET

      En 1986 el biólogo molecular norteamericano James Watson visitó la Argentina, invitado por el entonces Secretario de Ciencia y Técnica, el matemático Manuel Sadosky. Watson había obtenido el Premio Nobel en 1962 junto a Francis Crick por el descubrimiento de la estructura en doble hélice del ADN, la sustancia química portadora de la información genética en todos los seres vivos. Además de dar una conferencia magistral en el Centro Cultural San Martín, Watson dialogó con un público de más de mil estudiantes, profesores e investigadores que colmaron el aula magna de la Facultad de Ciencias Exactas de la UBA.          
      Cuando un estudiante levantó la mano y le preguntó qué lo había motivado en su juventud a dedicarse a la ciencia, Watson dijo: "Como no creo en Dios, quería averiguar el origen de las cosas". Esta sintética respuesta ilustra cabalmente el tema central de esta clase.
     La religión no permite averiguar el origen de las cosas, lo da por sabido y lo relata. La ciencia en cambio, que al igual que la religión son inventos exclusivamente humanos -otros seres vivos no los practican- intenta averiguar el origen y el funcionamiento de "las cosas". Explícitamente digo "intenta" para descartar de entrada la idea de que la ciencia camine sobre senderos de certidumbre o logre siempre sus cometidos. Pero aún en la incertidumbre e imperfección, la explicación que la ciencia da del mundo que nos rodea es totalmente incompatible con la que dan las religiones, justamente porque estas últimas se basan en dogmas, creencias o actos de fe, que podrán eventualmente satisfacer necesidades espirituales y morales de algunos hombres pero que, por no poder ser puestas a prueba, no pueden reemplazar la evidencia experimental, la argumentación racional y el pensamiento crítico.

Ciencia versus creencia
      Aunque para muchos parezca mentira, el debate entre ciencia y creencia se ha revitalizado en los últimos años, en particular en los Estados Unidos, gracias al gobierno del Sr. Bush. La derecha ultra conservadora norteamericana, aliada con sectores religiosos fundamentalistas están tratando de imponer en los programas de biología de la escuela secundaria la enseñanza del diseño inteligente en reemplazo de, o al menos al mismo nivel que, la "teoría" de la evolución biológica por selección natural de Darwin y Wallace. ¿Qué es el diseño inteligente? Es la afirmación de que el ser humano es tan perfecto que la única explicación posible de tanta belleza, ajuste y complejidad es que haya sido creado por un ser inteligente, un ser sobrenatural, un dios. Por lo tanto, para los abogados del diseño inteligente, la especie humana no es el resultado de selección natural sino de creación. No postulan que todos los animales y plantas hayan sido creados como figura en la Biblia, sino sólo del hombre. Los otros seres vivos podrían ser el resultado de la evolución pero la perfección del hombre sólo responde a la perfección de un creador. Nada nuevo bajo el sol para el pensamiento religioso.
      El argumento de los defensores del diseño inteligente para imponer sus ideas es que la teoría de la evolución es sólo una teoría y que por lo tanto puede ser contrastada con otras teorías alternativas. Es decir que se trataría de un debate entre dos hipótesis científicas. Y he aquí la falacia. La teoría de la evolución no es una teoría más. Se la llama teoría por tradición histórica pero deberíamos dejar de llamarla así si no se entiende que una teoría científica no es lo mismo que una idea loca o arbitraria, sino que es un cuerpo conceptual sustentado en múltiples e independientes observaciones y que permite hacer predicciones verificables. Así, que los seres vivos y entre ellos el hombre no hayamos sido creados como tales sino que seamos el resultado de procesos evolutivos de especiación que ocurrieron a lo largo de cientos de millones de años, se encuentra mucho más cerca de la categoría de hecho que de la de teoría. Lo sustentan la paleontología, la anatomía y fisiología comparadas, la biogeografía, la ecología, la genética de poblaciones y la genética molecular. Por todos los vericuetos que un biólogo se meta durante una investigación se topa con la evidencia incontestable de la evolución.
      Aunque su formación o convicción religiosas traten de impedírselo, aunque se resista, la evidencia macroscópica y molecular de la evolución lo abofetean y lo despiertan del absurdo sueño creacionista. Pero aun si esta evidencia no fuera tan contundente, incluso si la idea de selección natural no hubiese sido verificada experimentalmente desde las bacterias hasta el hombre, el diseño inteligente carecería de entidad porque se basa en un dogma que no da lugar a la verificación experimental. Por lo tanto, el problema es que no se pueden poner en el mismo nivel ideas científicas y creencias dogmáticas. No tienen el mismo valor epistémico y por ende no son comparables. El diseño inteligente no es ciencia y quienes pretendan lo contrario están atacando las bases mismas del pensamiento científico. Prueba de ello es el artilugio dialéctico con que el Consejo de Educación de Kansas, uno de los estados norteamericanos que milita contra la enseñanza de la evolución junto con Minessota, Nuevo México, Ohio y Pensilvania, redefine a la ciencia, disfrazando de manera políticamente correcta al diseño inteligente. La ciencia, dicen, es "un método sistemático de investigación continua que usa la observación,… experimentación, argumentación lógica, que llevan a explicaciones adecuadas de fenómenos naturales".................
     

domingo, 26 de septiembre de 2010

67- Mala praxis

Apuntes sobre la responsabilidad médica legal y la mala praxis. La presencia en el tema de la Asociación Médica Argentina y sociedades médicas afines.
Dra. Lidia Nora Iraola - Médica. MTAMA - Presidente del TEPLAS.
Dr. Hernán Gutiérrez Zaldívar - Asesor Letrado MHN AMA - Presidente Comité Peritos AMA

1.- Mala Praxis, definición conceptual: Existirá mala praxis en el área de la salud, cuando se provoque un daño en el cuerpo o en la salud de la persona humana, sea este daño parcial o total, limitado en el tiempo o permanente, como consecuencias de un accionar profesional realizado con imprudencia o negligencia, impericia en su profesión o arte de curar o por inobservancia de los reglamentos o deberes a su cargo con apartamiento de la normativa legal aplicable.-
2.- Análisis y contenido del concepto:
2.1) En primer lugar debe existir un daño constatable en el cuerpo, entendido como organismo, o en la salud, extendiéndose el concepto tanto a la salud física como a la mental, siendo ésta comprensiva de todas las afecciones y trastornos de orden psiquiátrico, psicológico, laborales, individuales y de relación, con incidencia en las demás personas. La amplitud del concepto, abarca no solo el daño directo al individuo, sino que por extensión, se proyecta inclusive sobre prácticamente la totalidad de las actividades del afectado.-
2.2) En segundo lugar, el daño causado debe necesariamente originarse en un acto imprudente o negligente o fruto de la impericia o por el apartamiento de las normas y deberes a cargo del causante del daño o apartamiento de la normativa vigente aplicable. De acuerdo a la normativa del art. 902 del Código Civil, la calidad de profesional de la salud en el agente involucrado en el daño, agrava cualquiera de las conductas negativas descriptas. Veamos:
     a) Imprudencia: La imprudencia es entendida como falta de tacto, de mesura, de la cautela, precaución, discernimiento y buen juicio debidos, por parte del profesional de la salud.-
     b) Negligencia: Es entendida como la falta de cuidado y abandono de las pautas de tratamiento, asepsia y seguimiento del paciente, que están indicadas y forman parte de los estudios en las profesiones de la salud.-
    c) Impericia: Está genéricamente determinada por la insuficiencia de conocimientos para la atención del caso, que se presumen y se consideran adquiridos, por la obtención del título profesional y el ejercicio de la profesión.-
    d) Inobservancia de los Reglamentos y/o Apartamiento de la Normativa Legal Aplicable: El ejercicio de la Medicina, la Odontología y las actividades de colaboración profesional de la salud, en el orden Nacional están regidas genéricamente, por la ley 17.132, 23.873 y por sus Decretos Reglamentarios Nº 6.216/67 y 10/03.-
     Cada Provincia y también las Municipalidades, dictan Leyes y Reglamentos atinentes al desempeño de las profesiones destinadas al servicio de la salud, que usualmente revisten tanto el carácter de imperativas como orientativas para el eficaz cumplimiento y prestación de dichos servicios.- Su conocimiento y permanente lectura, permiten a los profesionales, mantener presente la buena praxis, a la par que les referencia sobre las conductas debidas e indebidas.-
2.3) Principio general del Derecho.- Quien invoca la producción del daño debe probar la efectiva responsabilidad de los agentes de la salud intervinientes en la producción del daño.- Esta condición deriva del principio general del derecho vigente, que establece a cargo de quien invoca un daño y un perjuicio, la obligación de probarlo y acreditarlo.
     Sin perjuicio de ello, existen pautas de conducta profesional que deben ser siempre adoptadas por dichos profesionales, para procurar su mejor defensa ante la acusación. De tal manera y para responder ante las acusaciones de imprudencia, impericia o negligencia, los agentes de la salud deben llevar a cabo, entre otros elementos importantes, una clara, completa y secuenciada Historia Clínica, la que debe contener además las pertinentes observaciones de quien las redacta.
     Otro elemento hábil en la defensa del agente de la salud, será el previo consentimiento informado del paciente y/o sus responsables, acerca de las conductas terapéuticas que se vayan implementando, así como la razón que las aconseja. El consentimiento informado por escrito, es legalmente exigible en todos los casos de trasplantes de órganos y es siempre, en todos los juicios derivados de "mala praxis", un antecedente evaluado por los jueces.-…………(continúa)…….


viernes, 24 de septiembre de 2010

66- Responsabilidad profesional

Monreal JI. Responsabilidad del profesional del laboratorio clínico. SEQC. Ed Cont Lab Clín; 13: 70-79

Introducción
     La actividad del Laboratorio Clínico está consolidada, tecnificada, sometida a controles, que la hacen estable y de referencia. Su veteranía ha ido decantando modos de hacer definitivos que, tanto en rutina como en urgencia, en el laboratorio central o a la cabecera, alcanzan la máxima información y rigor, con plena seguridad para los demandantes de pruebas. Esta firmeza técnica se adapta en la práctica a las necesidades de nueva información, diseñando y evaluando pruebas que mejoran día a día la atención clínica.
     Evidentemente, este párrafo, que puede servir para vender nuestro producto, está escrito para provocar a los que trabajamos en Servicios de análisis. En verdad, así podría ser nuestra profesión, pero la realidad deja grietas que hay que reparar. Las funciones habituales que configuran en mayor o menor grado nuestros laboratorios (asistencia, docencia, investigación y gestión) no se alcanzan plenamente y los equipos de trabajo pocas veces pueden dar la cobertura que necesitan los facultativos con asistencia directa, por falta de iniciativa, exigencia formativa y de actualización, etc.
      Paulatinamente, algunos temas surgen en las especialidades como soplos de aire que renuevan lo que la rutina vuelve gris, mueven la hojarasca y nos empujan. Así sucede con la utilización intra-laboratorio de los elementos de gestión económica, la dirección de recursos humanos, los principios éticos y la propia responsabilidad profesional. Con el devenir del tiempo, pasan a delimitar el sendero y a establecerse como objetivos o retos que aúnan los intereses de quienes comparten la actividad.
      El simple planteamiento de la propia responsabilidad denota madurez y reflexión. Se trata de una atmósfera que envuelve el trabajo, con muy pocas coordenadas establecidas y aceptadas. La mayor parte de la responsabilidad de la profesión tiene límites indefinidos, interpretables y muy personales. No se puede descargar, por ejemplo, en los principiantes el peso de todos sus actos y decisiones, dada su insuficiente preparación y, tal vez, la necesidad de haber andado antes de descubrir las exigencias que esto desencadena. La responsabilidad individual es débil en las fases iniciales del ejercicio profesional, quedando depositada en el formador que instruye, supervisa y asume prudentemente los resultados propios y/o de su pupilo. Si el alumno es autodidacta, sería un irresponsable si pretende alcanzar la madurez ejercitando sin preparación las actividades que aprende o aprendiendo directamente de lo que ejercita.        
      Parece más adecuado, aprender sin riesgos, con red y con un monitor cercano. Sin embargo, su irresponsabilidad no le resta culpa si es dueño de sus decisiones. La curva de aprendizaje es un buen exponente de esta situación. En las profesiones más técnicas (sirve el argumento para algunas especialidades quirúrgicas, por ejemplo), donde haciendo se aprende a hacer, la curva es muy visible y descansa en la confianza de que el alumno sea despejado y aprenda pronto, porque sólo cabe el aprendizaje con fuego real.
       En las organizaciones o colectivos, la asunción de responsabilidad crece gradualmente y se escalona de acuerdo a la posición que cada uno ocupa en el organigrama del Servicio. En estas estructuras, la delegación de funciones se acompaña del traslado de responsabilidad, si bien no exime al superior de la última palabra y de la última explicación de las decisiones delegadas a sus subordinados…….………