jueves, 10 de noviembre de 2011

128- Enfermedad renal- Síndrome metabolico

Landecho MF, Colina I, Huerta A, Fortuño A, Zalba G, Beloqui O. Relación entre las fases precoces de la enfermedad renal y el síndrome metabólico. Rev Esp Cardiol. 2011; 64 (5) :373-8.

Introducción y objetivos
La enfermedad renal avanzada es un importante problema sanitario por su alta morbimortalidad cardiovascular. La detección y el tratamiento precoces podrían ayudar a evitar su progresión. El síndrome metabólico y la insulinorresistencia se han implicado en la patogenia del daño renal avanzado. Nuestros objetivos son estudiar la relación entre la enfermedad renal precoz (ERP), el síndrome metabólico y la insulinorresistencia y valorar su asociación con marcadores de arteriosclerosis subclínica.

Métodos
El estudio incluyó a 1.498 pacientes. La insulinorresistencia se definió como HOMA ≥ 3,7 mmol (μU)/l2 y la ERP, como los estadios 1 y 2 de la NKF-KDOQI. Se utilizó el grosor íntima-media carotídeo como marcador de arteriosclerosis subclínica.

Resultados
La presencia de un componente de síndrome metabólico se asoció con una odds ratio (OR) de ERP de 2,3 (intervalo de confianza [IC] del 95%, 1,18-4,48), que aumentó hasta 6,72 (IC del 95%, 3,56-13,69) en sujetos con el síndrome. Todos los componentes salvo el bajo valor de lipoproteínas de alta densidad se asociaron con OR elevada de ERP. El incremento del HOMA también se asoció en relación directa con la probabilidad de ERP, que llegó a OR = 3,89 (IC del 95%,1,99-7,59) para los sujetos del cuarto cuartil. Los sujetos con síndrome metabólico y ERP mostraron un grosor íntima-media carotídeo aumentado frente a aquellos sin enfermedad renal.

Conclusiones
La insulinorresistencia, el síndrome metabólico y sus componentes, salvo bajo valor de lipoproteínas de alta densidad, se asociaron significativamente con OR aumentada de ERP. El síndrome metabólico y la ERP se asociaron de forma independiente y aditiva con arteriosclerosis subclínica.

Ver artículo completo

Buccini GS., Wolfthal DL.Valores de corte para índices de insulinorresistencia, insulinosensibilidad e insulinosecreción derivados de la fórmula HOMA y del programa HOMA2. Interpretación de los datos. Rev. argent. Endocr. metab. 2008;.45(1)- ene./mar. Online




sábado, 5 de noviembre de 2011

127- Enfermedad celíaca

Polanco Allué I. Estado actual del diagnóstico de la enfermedad celíaca en el niño y adolescente. Evid Pediatr. 2011;7:52.

La enfermedad celíaca (EC) es un proceso autoinmune y multisistémico que ocurre en individuos genéticamente predispuestos y consiste en una intolerancia permanente a las proteínas del gluten del trigo (gliadina), del centeno (secalina), de la cebada (hordeína) y del triticale (híbrido de trigo y centeno). Estudios recientes sugieren que la avena en estado puro (no contaminada por harina de trigo) no parece influir en la patogénesis de la enfermedad. La causa de la EC es multifactorial y a su desarrollo contribuyen factores genéticos (HLA DQ2 y DQ8), ambientales (gluten) e inmunológicos.....

Los marcadores séricos son de gran utilidad como indicadores de EC, siempre que su interpretación sea correcta (edad, ingesta de gluten, tratamiento con fármacos inmunosupresores, etc.). Ayudan a seleccionar a los individuos con mayor probabilidad de presentarla, siendo particularmente útiles en aquellos sin síntomas gastrointestinales, en pacientes con enfermedades asociadas a la EC y para su búsqueda en familiares de primer grado de enfermos diagnosticados. Debe considerarse, no obstante, que la negatividad de estos marcadores no excluye definitivamente el diagnóstico, siendo necesario en ocasiones recurrir a pruebas más complejas (estudio genético) cuando la sospecha diagnóstica es elevada.

Los anticuerpos antitransglutaminasa tisular humana de clase IgA (AAtTG) se han mostrado como los marcadores más útiles, baratos y rentables en el cribado de la enfermedad, debiendo solicitarse sistemáticamente, junto con los niveles plasmáticos de IgA sérica total, ante la sospecha clínica de EC. No es excepcional encontrar un déficit de IgA en la población de celíacos, lo que podría condicionar un falso negativo en la determinación de anticuerpos. En tal situación, pueden analizarse los AAtTG de clase IgG y, solo en caso negativo, validar definitivamente la serología como negativa………….


Pagina relacionada Nº 30


domingo, 30 de octubre de 2011

126- Intolerancia a la lactosa

Luna Gil NCIL, Pereira Scromeda MC, Torres EE, Rott CM. Intolerancia a la lactosa en pediatria. Rev Posgr VIa Cáte Med 2010; 16: (198): 16-20

Resumen

Desde la época de Galeno, hace ya más de 2000 años, se conoce que la leche puede inducir diarrea y otros síntomas gastrointestinales en determinadas personas. Las primeras observaciones de que la lactosa producía diarrea en perros datan de 1860 y fue en 1958 cuando Durand describió que la intolerancia a la lactosa se asociaba con diarrea crónica en el lactante. Estudios posteriores confirmaron que esta malabsorción se debía a una “deficiencia de las enzimas que desdoblan los azúcares” y en 1963 se publicaron las primeras observaciones sobre la malabsorción de lactosa en adultos.

En la actualidad, se estima que las dos terceras partes de la población mundial presentan intolerancia a la lactosa, con una distribución muy variable entre las diferentes razas y áreas geográficas, e incluso entre subpoblaciones y tribus. Los niños con sospecha de intolerancia a la lactosa pueden ser evaluados clínicamente, mediante la eliminación de lactosa en la dieta o la realización de pruebas no invasivas como la del hidrógeno espirado o invasivas como la determinación de la concentración de lactasa (y otras disacaridasas) en la biopsia intestinal.

El tratamiento consiste en el consumo de productos lácteos que contienen lactasa, suplementos orales de lactasa, la limitación de alimentos que contienen lactosa o la eliminación de productos lácteos. La Academia Americana de Pediatría sostiene que el consumo de productos lácteos constituye una importante fuente de calcio para la salud mineral de los huesos, y de otros nutrientes que facilitan el crecimiento en niños y adolescentes. Si se eliminan los productos lácteos, se deben ingerir otras fuentes o suplementos de calcio en la alimentación...................


martes, 25 de octubre de 2011

125- Diabetes gestacional

Corcoy, Rosa; Lumbreras, Blanca; Bartha, Jose L.; Ricart, Wifredo.Nuevos criterios diagnósticos de diabetes mellitus gestacional a partir del estudio HAPO. ¿Son válidos en nuestro medio? Endocrinol Nutr. 2010;57 (6) :277-80.


Introducción


El cribado y diagnóstico de la diabetes mellitus gestacional (DMG) ha sido siempre un tema controvertido por aquellos que dudaban de los beneficios del diagnóstico y tratamiento y por la profusión de distintos criterios diagnósticos. Los beneficios de su diagnóstico y tratamiento quedaron bien establecidos después del estudio Australian Carbohydrate Intolerance Study in Pregnant Women (ACHOIS), que comparaba los beneficios del diagnóstico y tratamiento específico frente al seguimiento obstétrico habitual.

En cuanto a los criterios diagnósticos, los más utilizados han sido los criterios de la OMS y los de O’Sullivan, que inicialmente fueron definidos a partir de valores de glucosa en sangre total. Posteriormente, los valores fueron adaptados a glucosa en plasma venoso, transformación que Carpenter y Coustan (CC) demostraron como inexacta en 1982. Sin embargo, las recomendaciones de las International Wokshop-Conferences on Gestational Diabetes Mellitus (IWCGDM) no cambiaron hasta el año 1998 con los resultados del Toronto Trihospital Gestational Diabetes Project.

Según este estudio, la aplicación de los criterios CC incrementaba un 50% la prevalencia inicial de 3,8% y la morbilidad estaba claramente aumentada en las mujeres con diabetes gestacional «sólo según CC». ......................



Páginas relacionadas: Nº 22, 29, 42, 104, 124










jueves, 20 de octubre de 2011

124- Hemoglobina glicosilada

Rius Riu, Ferran. La hemoglobina glucosilada como criterio diagnóstico de diabetes mellitas. Endocrinol Nutr. 2010; 57 (04):127-9.

La publicación reciente de las recomendaciones del comité de expertos para el diagnóstico de la diabetes mellitus (DM) ha provocado un debate considerable. Por supuesto, la trascendencia que tiene un cambio en los criterios diagnósticos de una enfermedad como la DM justifica de sobras la polémica suscitada, aunque la postura que finalmente ha adoptado la Asociación Americana de Diabetes (ADA) es probable que tranquilice, por lo menos en parte, los ánimos. Vamos a analizar aquí algunas de las consecuencias, ventajas e inconvenientes que puede tener la utilización de la hemoglobina glucosilada (HbA1C) para el diagnóstico de la DM, de acuerdo con la información disponible hasta la fecha, fundamentalmente desde el punto de vista clínico.


La DM está causada por la incapacidad del organismo de mantener unas concentraciones de glucosa plasmáticas dentro de la normalidad, debido a un déficit de insulina, una falta de acción de ésta o una combinación de ambos defectos. Como en la mayoría de los parámetros biológicos, la glucemia tiene una distribución normal en la mayor parte de las poblaciones humanas; esto conlleva que la definición de DM tenga que basarse en criterios arbitrarios.

El establecimiento de un valor determinado se puede fundamentar en diversos criterios, pero parece lógico esperar que el diagnóstico de DM tenga relación con las consecuencias de la enfermedad y que este diagnóstico conlleve intervenciones efectivas para evitarlas.


A pesar de ser una enfermedad conocida desde la antigüedad, no fue hasta 1979 que el National Diabetes Data Group propuso los primeros criterios diagnósticos aceptados de forma general, adoptados también por la Organización Mundial de la Salud (OMS). Estos primeros criterios utilizaban básicamente datos de poblaciones con alta prevalencia de la enfermedad, en los que la respuesta a la prueba de tolerancia oral a la glucosa es bimodal, para definir el punto de corte para el diagnóstico de la DM  pero no se consideró de ninguna forma el impacto sobre las complicaciones crónicas, puesto que tampoco se disponía de la información para hacerlo. .........................



Paginas relacionadas: Nº 22, 29, 42, 104













sábado, 15 de octubre de 2011

123- Testoterona

Sanabria Pérez, Concepción; Díaz Pérez, José Angel. Valoración de niveles de testosterona mediante diferentes métodos analíticos en varones sanos. Endocrinol Nutr. 2010;57(7):301-5.

Resumen: Las determinaciones plasmáticas de testosterona son fundamentales para el diagnóstico de las distintas causas de hipogonadismo, incluido el hipogonadismo de inicio tardío. Existen dificultades para interpretar los resultados de las concentraciones de testosterona debido a los cambios que se presentan con la edad y por la variabilidad de los distintos métodos utilizados.

Objetivos: Estudiar los rangos de normalidad de testosterona en varones jóvenes sanos y comparar los resultados de los distintos métodos analíticos utilizados.

Material y métodos: Se incluyeron 20 hombres sanos con una edad media de 24,5 años (desviación estándar (DE): 5,04), un índice de masa corporal (IMC) medio de 23,8% (DE: 3,3). Se determinaron las concentraciones de testosterona total (TT) mediante inmunoquimioluminiscencia (ICLA), de testosterona libre (TL) mediante radioinmunoensayo (RIA), y se calculó la testosterona libre calculada (TLc) y la testosterona biodisponible (TB) mediante la fórmula de Vermeulen. Se midieron las concentraciones séricas de lutropina (LH), folitropina (FSH) y proteína ligadora de hormonas sexuales (SHBG) por método inmunorradiométrico (IRMA).

Resultados: Las concentraciones medias de TT fueron de 20nmol/l (DE 4,96), las de TL de 0,054nmol/l (DE 0,01), los de TLc de 0,3834nmol/l (DE 0,09) y los de TB de 9,9nmol/l (DE: 2,8 ). No se encontró correlación entre las concentraciones de testosterona medidos por los distintos métodos, excepto entre TL y TLc (r=0,662; p<0,003) y entre TLc y TB (r=0,979; p<0,0001). Existe una asociación inversa entre IMC y las concentraciones de testosterona total (r: −0,52; p<0,017).

Conclusiones: Es necesario establecer el intervalo de normalidad para la testosterona en hombres jóvenes sanos en función del método analítico utilizado.

lunes, 10 de octubre de 2011

122- Síndrome de Cushing II

Garduno-García, José de Jesús; Reza-Albarrán, Alfredo; Escamilla Márquez, Marco Antonio; Gómez Pérez, Francisco Javier. Adenoma adrenal como etiología de síndrome de Cushing: veinte años de experiencia en un centro mexicano de tercer nivel. Endocrinol Nutr. 2010; 57(9) :421-5.

Introducción El síndrome de Cushing (SC) incluye una amplia gama de manifestaciones clínicas y de laboratorio resultado final de la exposición crónica a glucocorticoides. Los adenomas adrenales son una causa infrecuente de SC en adultos.

Objetivo Describir las características y la evolución de los pacientes con SC causados por adenomas adrenales en un hospital de tercer nivel.

Métodos Se trata de un estudio retrospectivo, transversal, observacional. Se estudiaron individuos con el diagnóstico de SC causado por adenomas adrenales, en 20 años. Se describió la experiencia clínica en el diagnóstico y tratamiento.

Resultados Se encontró un total de 20 pacientes, 19 mujeres y un hombre. Edad promedio 25,9 años (14 a 52). Los datos clínicos que se documentaron con mayor frecuencia fueron hirsutismo y cara de luna llena. La concentración promedio de cortisol basal fue de 2,9±10,7mcg/dl; del cortisol por la tarde 24,4±8,5mcg/dl y de corticotropina (ACTH) 24±19,4pg/ml. Sólo 4 pacientes (20%) tenían concentraciones de ACTH por debajo de 5pg/ml. Los resultados en las pruebas dinámicas con dexametasona sugirieron adenoma adrenal en el 100% de los casos. El 70% de los adenomas se encontraron en la glándula izquierda. El tamaño promedio de las lesiones fue de 2,8±0,47cm.

Conclusiones En las pruebas dinámicas los criterios de no supresión con dosis altas de dexametasona estuvieron presentes en prácticamente todos los pacientes. La medición de ACTH en nuestro centro no resulta confiable para discriminar como causa de hipercortisolismo a los adenomas adrenales.

miércoles, 5 de octubre de 2011

121- Sindrome de Cushing

Leal-Cerro, Alfonso; Soto Moreno, Alfonso; Angel Mangas, Miguel; León Justel, Antonio; Webb, Susan. Tratamiento farmacológico y seguimiento del síndrome de Cushing. Endocrinol Nutr. 2009;56 (4):187-94.

Resumen

El síndrome de Cushing es el resultado de la exposición excesiva, prolongada o inadecuada de glucocorticoides y conlleva un aumento significativo de la morbilidad y la mortalidad de estos pacientes. El tratamiento de elección, en la mayoría de los casos, es la cirugía. Sin embargo, sus consecuencias metabólicas, como hipertensión arterial, diabetes mellitus, etc., pueden aumentar los riesgos en el entorno de la cirugía y cuando no es posible resolver la enfermedad tras la cirugía.

El hipercortisolismo y sus secuelas pueden controlarse adecuadamente con tratamiento médico, bien temporalmente antes de la intervención o bien durante un intervalo de tiempo prolongado en casos particulares. El tratamiento farmacológico tiene por objetivo controlar la secreción de cortisol; actúa por mecanismos que regulan la secreción de CRH/ACTH en el hipotálamo o la hipófisis, el cortisol suprarrenal o incluso en los receptores de glucocorticoides. En esta revisión se discute la eficacia de los distintos fármacos utilizados en el tratamiento del síndrome de Cushing, los criterios de su utilización, así como la de fármacos recientes que pueden mejorar las expectativas del tratamiento médico en el futuro.

Nota: Finalmente, se discute también el seguimiento a corto y largo plazo de los pacientes con síndrome de Cushing después de la cirugía, observandose la  variación de varios parámetros del laboratorio.



viernes, 30 de septiembre de 2011

120- Bioquimica en escala humana

Ken Sikaris. La bioquímica en una escala humana. Clin Biochem Rev 2010, 31, 121-28

Introducción

La “práctica” de la medicina ha sido considerada como un arte, pero se está convirtiendo en una ciencia. El registro y análisis de los parámetros de salud de un individuo están siendo continuamente movidos de la mente del clínico a la historia clínica electrónica, donde se digitaliza su progreso y se mide en números. ¿Pueden los conceptos de calidad de la salud y la enfermedad ser descriptos en términos numéricos? En una serie de artículos sobre "Medicina y las Matemáticas", Altman exploró la unión entre la estadísticas y la ética en medicine (1). Por ejemplo, si la probabilidad de finalización de un embarazo de 4-5 semanas es más de 1:100.000, ¿cómo un médico puede transmitir esto a de sus pacientes, sus colegas o un tribunal? ¿Ello es poco probable o científicamente posible?


Matemáticas y filosofía

La interacción entre las matemáticas y la actividad humana se remonta a la antigua Grecia. Aunque Arquímedes (287 - 212 AC) es considerado el padre de las matemáticas, antes que él, Pitágoras (570 a 490 AC) adquirió fama sobre todo por su teorema sobre las longitudes de los lados de un triángulo rectángulo. Este teorema de la geometría es utilizado en bioquímica clínica como el principio de la suma de la varianza CV Total 2 = √ (CV1)2 + (CV2)2

Alentados por la habilidad de las matemáticas para describir el mundo físico, la escuela de Pitágoras llegó a ser un movimiento religioso y que, en palabras de Aristóteles, «creía que los principios de las matemáticas eran el principio de todas las cosas". La matemática se extendió a la teoría de la música, la astronomía y medicina, y se llego a una conjunción que ha sido representada por el número 4, que simbolizaban a los cuatro elementos fundamentales: fuego, agua, tierra y aire.

Los principales avances en las matemáticas se hicieron en la Edad Media que fue, cuando los eruditos occidentales descubrieron que la enseñanza del griego clásico no solo había avanzado y había sido conservado por los eruditos árabes, sino que también habían mejorado a través de la asimilación de la comprensión de la matemática oriental. Un de los más destacados matemáticos fue Fibonacci (1170-1250) que había sido formado en El Cairo y en Constantinopla donde escribió su Liber Abaci (Libro de Cálculo), en que figuraba el uso del sistema de escritura numérica oriental (Modus Indorum) o los llamados números arábigos que usamos hoy en día.....................




domingo, 25 de septiembre de 2011

119- Sedimento urinario

Baños-Laredo ME., Núñez-Álvarez CA., Cabiedes J. Análisis de sedimento urinario Reumatol Clin. 2010; 6 (5): 268-72

Resumen

El examen general de orina es una de las pruebas más solicitadas dentro del laboratorio de análisis clínicos e incluye el análisis físico, químico y análisis microscópico. En este último, se analiza el sedimento urinario en búsqueda de distintos elementos formes (leucocitos, cilindros, etc.) con diferente utilidad diagnóstica. El análisis de sedimento urinario se puede valorar mediante métodos manuales y automatizados. En el diagnóstico por el laboratorio de las enfermedades autoinmunes el análisis de sedimento urinario esta principalmente orientada hacia el apoyo y valoración renal en pacientes con nefritis lúpica, una de las manifestaciones clínicas más frecuentes en pacientes con lupus eritematoso generalizado. Adicionalmente, su utilidad radica fundamentalmente en su valoración en la mayoría de los criterios diagnósticos y de afección renal, así como en los diferentes índices de daño en pacientes con lupus eritematoso generalizado. En los últimos años, diversos grupos de investigación han buscado nuevos biomarcadores urinarios de afección renal en pacientes con lupus eritematoso generalizado, sin embargo se requiere un mayor número de estudios para determinar su verdadero valor diagnóstico en este grupo de pacientes.


Introducción


Desde el punto de vista del laboratorio clínico una de las pruebas más solicitadas de manera rutinaria es el examen general de orina (EGO), en el cual se realiza el análisis químico (pH, glucosa, urobilinógeno, etc.), análisis físico (color, aspecto) y de manera conjunta el análisis microscópico del sedimento urinario (SU) en busca de elementos formes (eritrocitos, leucocitos, bacterias, cilindros, etc.)1. Si bien es una prueba considerada «de rutina» es de suma importancia su adecuada interpretación ya que nos proporciona datos sumamente importantes. El objetivo de la presente revisión será enfocada al análisis del SU como herramienta de apoyo al diagnóstico y seguimiento en pacientes con lupus eritematoso generalizado (LEG) debido a la alta frecuencia de daño renal en este grupo de pacientes, en base a una descripción de utilidad para el personal clínico y de laboratorio. De manera conjunta se presenta una breve descripción de su importancia clínica y finalmente evidencias que apoyan hacía la búsqueda de nuevos biomarcadores útiles para el diagnóstico y seguimiento de afección renal en pacientes con LEG.


















martes, 20 de septiembre de 2011

118- Gota

Editorial. Fernando Pérez Ruiz. Gota: pasado, presente y futuro. Reumatol Clin. 2011;7(4):217–219

Pasado

     La gota ha sido una enfermedad paradigmática en cuanto a la percepción del alto grado de conocimiento académico que poseíamos de ella. Sin embargo, cuando se han realizado revisiones sistemáticas de la evidencia, hemos encontrado que las lagunas de conocimiento eran extensas y que el empirismo ha guiado la práctica clínica en gran medida.
Varios ejemplos pueden ilustrar esta afirmación. En cuanto a fisiopatología, carecíamos de conocimiento sobre los transportadores renales de urato, teniendo en cuenta que la mayor parte de los pacientes con gota mostraban una inadecuada excreción renal de ácido úrico, bien primaria, bien secundaria. Desconocíamos los principales mediadores de la inflamación, tanto aguda como crónica, en las artritis cristalinas. Sólo conocíamos el mecanismo farmacodinámico del allopurinol, aunque se intuía desde hace 50 años que los uricosúricos interactuaban con algún transportador renal, pero paradójicamente se afirmaba que los diuréticos inducían hiperuricemia por contracción del volumen circulante y reducción del filtrado glomerular o del flujo tubular.
    
 En lo referente al diagnóstico, la variabilidad en la concordancia entre observadores y laboratorios llegaba a hacer cuestionar que el diagnóstico basado en la observación de cristales en muestras biológicas pudiese considerarse como «patrón oro»

     Disponíamos de escasos ensayos clínicos bien diseñados para los antiinflamatorios no esteroideos (AINE) y ningún ensayo comparativo con corticosteroides en pacientes con episodios de inflamación aguda. Desconocíamos con qué fármacos y en qué dosis se conseguía una profilaxis óptima e incluso cuánto debía mantenerse. La profilaxis con AINE era absolutamente empírica, ya que no se disponía de estudios que avalaran su eficacia y seguridad. La cuantificación del depósito de urato se basaba en la presencia de alteraciones en radiografías simples y en la presencia de nódulos subcutáneos compatibles con tofos en la exploración física.


     El tratamiento de la hiperuricemia no salía mejor parado: hasta el año 1999 no se publica el primer ensayo aleatorizado con allopurinol, carecíamos de información sobre la eficacia del allopurinol con dosis elevadas, salvo por escasos estudios abiertos y, de ellos, muy pocos comparativos. Los uricosúricos eran fármacos escasamente empleados, con un supuesto alto riesgo de inducir litiasis renal y recomendándose de forma absolutamente empírica que todos los pacientes debieran tomar alcalinos para conseguir pH urinario superior a 6. Además, en todos los libros de texto y revisiones se les demonizaba por no ser supuestamente eficaces en pacientes con insuficiencia renal leve a moderada.
   
 Por último, en cuanto a medidas de desenlace, desconocíamos si un ataque de gota autorreferido por el paciente era fiable, no se había validado ningún método físico o de imagen para medir los tofos y había discordancia entre los expertos en fijar un punto de corte de uricemia como diana para el tratamiento hipouricemiante....................................

jueves, 15 de septiembre de 2011

117- Anticuerpos antinucleares

Cabiedes J, Núñez-Álvarez C.A. Anticuerpos antinucleares. Reumatol Clin. 2010, 6 (4) 224-30.

Resumen

Los anticuerpos antinucleares son inmunoglobulinas que reconocen componentes celulares autólogos (nucleares y citoplasmáticos). Además de los ANA autoinmunes, pueden estar en circulación ANA infecciosos y naturales. La detección de ANA debe realizarse mediante inmunofluorescencia indirecta (IFI) en líneas celulares como prueba de tamizado inicial debido a su alta sensibilidad. Una muestra positiva para ANA, detectados mediante IFI, debe confirmarse mediante técnicas más sensibles y específicas como ELISA, electroinmunotransferencia (Western blot) u otras. Los ANA detectados por IFI deben ser evaluados en base al patrón y al título. La detección específica de diversos autoanticuerpos (anti-ENA, ADNcd, etc.) resulta útil en el diagnóstico y seguimiento de pacientes con enfermedades autoinmunes. Por tal motivo, su detección debe realizarse de manera ordenada y razonable, empleando las guías o estrategias enfocadas al buen uso e interpretación de la presencia de autoanticuerpos. El objetivo de la revisión es presentar una recopilación de la literatura y nuestra experiencia en la detección y estudio de los ANA.


Introducción

El estudio de los anticuerpos antinucleares (ANA) se inició con la identificación en pacientes con lupus eritematoso generalizado (LEG) de las células LE, descrito por Hargraves en 1948. La detección de las células LE fue durante mucho tiempo una prueba utilizada para confirmar el diagnóstico de LEG. Sin embargo, años después se demostró su baja especificidad, ya que pueden estar presentes en pacientes con artritis reumatoide (25%), síndrome de Sjögren (15–20%), cirrosis pancreática (33%), hepatitis crónica activa (50–70%) y en otras enfermedades (1–2% miastenia gravis y púrpura trombocitopenia idiopática). En 1959, Holman mostró que el fenómeno de las células LE se debía a la presencia de anticuerpos que reconocen antígenos nucleares. Lo anterior llevó al desarrollo de técnicas como la inmunodifusión (doble difusión radial u Ouchterlony y contrainmunoelectroforesis), hemoaglutinación, fijación de complemento, etc. y de técnicas de microscopía, empleando anticuerpos conjugados con moléculas fluorescentes (inmunofluorescencia indirecta [IFI]) que aumentaron la especificidad y sensibilidad para la detección. Actualmente, la técnica más utilizada para la detección de los ANA es la IFI, la cual fue desarrollada en 1950 por Conns et al y, posteriormente, modificada por Tan4 en 1966, que empleaba como sustratos cortes de hígado o riñón de ratón. Diez años más tarde, publicaron los resultados de la estandarización para la detección de los ANA en pacientes con padecimientos reumáticos.



Páginas relacionadas Nº 40, 78 y 116





sábado, 10 de septiembre de 2011

116- Respuesta inmunitaria

Respuesta inmunitaria. Prof. Dra. Brandan, Nora y col. Profesora Titular. Cátedra de Bioquímica. Facultad de Medicina. Universidad Nacional del Noreste. Argentina 

Introducción

En este trabajo haremos algunas veces de guías de un viaje a través del complejo sistema inmunológico. Un viaje destinado a brindar una mayor comprensión a algunos de los mecanismos más interesantes de nuestro sistema de defensa.
El propósito de este, es dar el puntapié inicial al interés del lector, haciendo un breve y sistemático resumen de la respuesta inmunitaria. Buscando despertar su curiosidad para con la inmunología.

Nuestro viaje comienza con la descripción de los componentes de la inmunidad innata y adaptativa, y ofrecer una exposición detallada de sus mecanismos efectores. La siguiente parada consiste en analizar el importante rol de las citoquinas como un nexo entre ambos tipo de inmunidad. La última estación del viaje a través del sistema inmunológico, trata de realizar una descripción anatomofuncional de la respuesta inmunitaria.

1. Inmunidad Innata

Se conoce a la respuesta inmunitaria innata como la primera línea de defensa del huésped frente a los microorganismos. Este sistema lleva ese nombre debido a que sus mecanismos efectores existen aun antes de que aparezca la noxa.
Esta tipo de inmunidad debe su importancia a básicamente tres funciones:
Es la respuesta inicial a los microorganismos, previene infecciones e incluso puede eliminar completamente a cierto tipo de noxas. Sus mecanismos efectores estimulan a la inmunidad adaptativa e influyen en el tipo de respuesta. La inmunidad adaptativa utiliza, además de sus mecanismos, a los de la inmunidad innata Para comprender estas fenomenos de la inmunidad innata dividiremos su estudio en: la apreciación de sus componentes y sus principales funciones, para luego abordar a sus mecanismos efectores

Ver articulo completo

Páginas relacionadas Nº 40 y 78

lunes, 5 de septiembre de 2011

115- Citometria y discrasia celular


Natividad de los Reyes, Jorge Monserrat-Coll, María V Martínez-Sánchez, José A Campillo, Adela Periago, Consuelo González, Jerónima Ibáñez, José M Moraleda, María R Álvarez-López, Alfredo Minguela-Puras. La citometría de flujo en el estudio de las discrasias de células Plasmáticas. Rev Hematol Mex 2011;12(2):90-98.

Resumen

En la última década, la supervivencia de los pacientes afectados por discrasias de células plasmáticas se ha incrementado, principalmente por el mejor conocimiento de las alteraciones celulares y moleculares implicadas en cada paciente. La citometría de flujo y los estudios genéticos han contribuido de forma decisiva a definir mejor las diferentes afecciones y a establecer pautas terapéuticas adecuadas en cada caso. La citometría de flujo permite caracterizar fenotípicamente las células plasmáticas (CD38++CD138+) y diferenciar las patológicas (generalmente CD19-CD56+) de las sanas o reactivas (generalmente CD19+CD56-), a la vez que proporciona información de marcadores con utilidad pronóstica (CD27, CD28, CD45, CD117, CD200 y CD221). El estudio de la clonalidad de las cadenas pesadas o ligeras de las inmunoglobulinas ayuda a definir y a cuantificar con exactitud el ratio de células plasmáticas patológicas-sanas, otro parámetro con impacto pronóstico. La citometría de flujo aporta información adicional de utilidad pronostica, como la aneuploidía y los índices de proliferación y apoptosis de las células plasmáticas. La elevada sensibilidad de la citometría de flujo multípara métrica hace que sea también una herramienta de utilidad para la monitorización de la enfermedad residual tras el tratamiento, una información predictiva de la evolución de la enfermedad, particularmente de utilidad en la era de los nuevos fármacos, como bortezomib y lenalidomida. Por tanto, la citometría de flujo se ha convertido en una herramienta útil para el diagnóstico, el establecimiento de terapias adaptadas al pronóstico de la enfermedad y el seguimiento de las discrasias de células plasmáticas

Avance en el diagnostico y manejo clínico de las discrasias de las células plasmáticas

El avance de las ciencias básicas aplicadas al estudio de las neoplasias hematológicas ha promovido profundos cambios en los algoritmos terapéuticos. Entre ellos, la caracterización de marcadores en los clones tumorales mediante citometría de flujo ha permitido una mejor tipificación de las distintas gammapatías monoclonales, facilitando así su diagnóstico diferencial. Para explicar el incremento de la supervivencia alcanzada durante la última década en el mieloma múltiple hay que añadir, además, la identificación de alteraciones citogenéticas con impacto pronóstico al diagnóstico, la optimización de las terapias de soporte y, en particular, el mejor conocimiento de la biología y patogenia molecular de las gammapatías monoclonales que ha permitido el desarrollo de fármacos más eficaces. A mediados del decenio de 1990, la mediana de supervivencia del mieloma múltiple era de tres años, mientras que actualmente se estima en más de cinco años; incluido 20% de pacientes con supervivencia que excede los 10 años. En paralelo, se han venido modificando los criterios diagnósticos de las gammapatías monoclonales y los parámetros de estadiaje y  la definición de respuesta al tratamiento …………………

Paginas relacionadas Nº 37, 58 y 84

martes, 30 de agosto de 2011

114- Control de calidad en coagulación


Adriana Aurelia Ruiz-de-Chávez Ochoa, Evangelina Núñez-Pérez, Beatriz Muñoz-Muñoz, Abraham Majluf-Cruz. El control de la calidad en el laboratorio de coagulación. Rev Med Inst Mex Seguro Soc 2008; 46 (3): 339-348.

Resumen

Se presenta una revisión de las causas de error más frecuentes en los procedimientos analíticos y los lineamientos generales del control de calidad que deben considerarse, evaluarse y vigilarse para mejorar los resultados en el laboratorio de coagulación. Esta revisión es motivada por los avances recientes en equipo y reactivos aunados a que las hemorragias y las trombosis son importantes causas de muerte. Los resultados analíticos de los exámenes de laboratorio son un hecho científico sin significado médico como tal, que deben interpretarse para que se les considere un hallazgo médico. El programa interno de control de la calidad se inicia cuando el médico prescribe los análisis y concluyen cuando interpreta los resultados de los mismos. Los resultados de las pruebas de hemostasia en el laboratorio dependen de la calidad de la muestra, el método, los equipos, los reactivos, y la capacidad y compromiso del personal que realiza las pruebas. Se describen sugerencias básicas para realizar la toma de muestras con calidad y la vigilancia extrema en los errores preanalíticos. Actualmente, la realización de programas internos de calidad y la participación en programas de evaluación externa son obligatorias según los criterios establecidos en las normas oficiales mexicanas.

Introducción

El concepto de calidad en el campo de la salud ha cambiado; actualmente se asocia con ética, excelencia y obligatoriedad que incluye al laboratorio clínico, en el cual los procesos analíticos se validan en un programa interno de controlde la calidad, obligatorio en México desde el 2002: la Norma Oficial Mexicana NOM-166-SSAI-1997 para la organización y funcionamiento de los laboratorios clínicos, la cual señala que los laboratorios deben cumplir con el capítulo 9 sobre aseguramiento de la calidad, que establece:
9.1 Deben aplicar un programa interno de control de calidad que incluya las etapas preanalítica, analítica y posanalítica.
9.2 Deben participar al menos en un programa de evaluación externa de la calidad, integrando los análisis que realice y que incluya el programa.
9.3 Deben acreditar la evaluación de cada una de las pruebas incluidas en programas externos,y desarrollar una investigación dirigida a solucionar la problemática de los análisis
en los que la calidad no sea satisfactoria

Los trabajadores sanitarios deben comprometerse con la calidad para trabajar eficientemente disminuyendo los costos al evitar repeticiones y optimando tiempo, reactivos y equipos. La medicina en México se ha modificado: con los programas de certificación comenzó la búsqueda de su misión, visión y objetivos. Para el laboratorio clínico, éstos se plantearon y definieron desde 1975-6. Un análisis no tiene valor sin interpretación médica; así, el control de calidad se inicia cuando el médico solicita estudios y concluye con la interpretación de los resultados, por lo tanto, el médico debe relacionarse con el laboratorio…………….

Ver el artículo completo

http://edumed.imss.gob.mx/edumed/rev_med/pdf/gra_art/A141.pdf



sábado, 20 de agosto de 2011

113- Hemostasia y trombosis


Mª Luz Juan Marco. Ana I. Rosell Mas. F. Javier Rafecas Renau. Hemostasia y Trastornos Hemorrágicos. Servicio de Hematología y Hemoterapia . Hospital Universitario Dr. Peset. Valencia.

Indice

I .   Fisiología de la hemostasia ( pag. 3)
I.1.  Hemostasia Primaria
I.2.  Hemostasis Secundaria (pag. 4)

II.  Evaluación de la hemostasia y pruebas diagnósticas.(pag. 7)
II.1. Anamnesis y exploración física
II.2. Exploraciones complementarias (pag. 8)

III. Alteraciones de las plaquetas: trombopenias y trombopatías. (pag. 10)
III.1. Trombopenias
III.2. Púrpura trombocitopénica inmune (PTI) (pag. 12)
III.3. Trombopenias no inmunes microangiopáticas: PTT Y
         SHU. (pag. 13)
III.4. Trombopatías hereditarias (pag. 15)

IV.   Púrpuras angiopáticas o vasculares (pag 16)
IV.1 Introducción y clasificación
IV.2. Púrpura Anafilactoide de Schönlein-Henoch. (pag. 16)

V.    Coagulopatias congénitas (pag. 17)
V.1  Clasificación
V.2. Hemofilia (pag. 18)
V.3. Enfermedad de von Willebrand (pag. 21)

VI.   Coagulopatías adquiridas (pag. 22)
VI.1. Deficit de factores dependientes de Vit K
VI.2. Enfermedad hepatocelular
VI.3. Inhibidores adquiridos
VI.4. Coagulación intravascular diseminada (CID) (pag. 23)

VII.  Resumenes:
        Figura 6 (pag. 24
      Figura 7 (pag. 25)
      Figura 8 (pag. 26)

VIII. Bibliografia (pag. 27)

 IX.  Test de autoevaluación con respuestas (pag. 30)

Ver artículo completo




miércoles, 10 de agosto de 2011

112- Hiperparatiroidismo primario


José Manuel Quesada Gómez. Evaluación diagnóstica y diagnóstico diferencial del hiperparatiroidismo primario. Endocrinol Nutr. 2009;56 (Supl 1):14-9

Resumen

El hiperparatiroidismo primario (HP) se caracteriza por la producción autónoma de parathormona (PTH), en el cual hay hipercalcemia o calcio sérico normal-alto, con valores séricos de PTH elevados o inapropiadamente “normales”.Excepcionalmente, en pacientes sintomáticos, el diagnóstico puede hacerse a partir de la sintomatología. El HP siempre debe cribarse en pacientes con historia de cálculos renales, nefrocalcinosis, dolor óseo, fracturas patológicas, resorción subperióstica o que presenten osteoporosis-osteopenia en densitometría ósea de doble fotón o con historia personal previa de irradiación en cuello o familiar de neoplasia endocrina múltiple tipo 1 o 2.El diagnóstico de HP es bioquímico. La hipercalcemia (calcio total corregido por albúmina), asintomática, sin signos ni síntomas guía, es la manifestación más frecuente de la enfermedad. Para el diagnóstico diferencial, además de la PTH1-84, debe medirse fósforo, cloro, 25-hidroxivitamina D, 1,25-dihidroxivitamina D y calciuria. La PTH1-84 suprimida, o inapropiadamente baja, orienta el diagnóstico a hipercalcemia tumoral y, de forma menos frecuente, a enfermedades granulomatosas (sarcoidosis, tuberculosis, etc.), toma inadecuada de calcitriol o 1α-hidroxivitamina D, intoxicación por vitamina D o A, toma de litio, endocrinopatías (hipertiroidismo, enfermedad de Addison, etc.), o tratamiento con tiazidas, entre otras.El diagnóstico de HP se confirma cuando hay hipercalcemia, o calcio en el rango normal-alto, en presencia de PTH1-84 alta o inapropiadamente normal, excepto si la excreción urinaria de calcio corregido por creatinina es menor de 0,01, en ausencia de toma de tiazidas, o deficiencia grave de vitamina D, que orienta el diagnóstico a la hipocalciuria hipercalcémica familiar.Las técnicas de imagen son útiles para localizar HP, pero no para su diagnóstico.............


lunes, 1 de agosto de 2011

111- Nodulo tiroides

Raúl Rivera-Moscoso, Sergio Hernández-Jiménez, Alejandro Ochoa-Sosa, Sandra Rodríguez-Carranza, Pedro Torres-Ambriz.Diagnóstico y tratamiento del nódulo tiroideo. Posición de la Sociedad Mexicana de Nutrición y Endocrinología, A.C. Medigraphic. Revista de Endocrinología y Nutrición 2010;18(1):34-50

Introducción.

El presente trabajo se deriva de una serie de reuniones de miembros de la Sociedad Mexicana de Nutrición y Endocrinología, que fueron invitados a elaborar un documento que muestre la posición de la SMNE en el diagnóstico y tratamiento del nódulo tiroideo. El objetivo del presente documento es ofrecer una visión integral y una estrategia aplicable para el estudio de este tipo de pacientes, la cual contribuya a obtener el mayor beneficio de las herramientas diagnósticas y terapéuticas a nuestro alcance y de los avances tecnológicos por venir.
Para el desarrollo de esta guía se analizó de manera exhaustiva la información disponible en la literatura, y a lo largo de toda la guía se menciona el grado de recomendación de acuerdo a la escala de evidencia que se ha encontrado para el diagnóstico y manejo de esta patología (Asociación Americana de Endocrinólogos Clínicos).

Definición.

Un nódulo tiroideo es un aumento focal de volumen o consistencia localizado en la tiroides, que se detecta por palpación o mediante estudios de imagen, y cuyas características permiten su distinción del resto del parénquima. En general, ambos métodos son complementarios; sin embargo, puede presentarse la situación de que los estudios de imagen no corroboren la presencia de un nódulo, o bien que éste se detecte incidentalmente en estudios realizados con otro propósito (incidentalomas).
El método de detección no hace diferencia en cuanto a las recomendaciones para su estudio, las cuales tienen como objetivo fundamental excluir la posibilidad de una lesión maligna y evaluar la función tiroidea…………….


Pagina relacionada Nª 61

viernes, 15 de julio de 2011

110- Microbiologia clinica

Procedimientos en Microbiología Clínica. Recomendaciones de la Sociedad Española de Enfermedades Infecciosas y Microbiología Clínica Coordinador: Carlos Sánchez Carrillo Autores:Carmen Guerrero Gómez Carlos Sánchez Carrillo Editores: Emilia Cercenado y Rafael Cantón

1. Introducción

La actividad que desarrolla el laboratorio de microbiología está orientada esencialmente al diagnóstico microbiológico de las enfermedades infecciosas. Una parte importante de esa actividad consiste en el aislamiento, la identificación y la determinación de la sensibilidad a los antimicrobianos de los microorganismos causales de estas enfermedades. Otra parte importante de la actividad de un laboratorio de microbiología consiste en la detección de anticuerpos, antígenos y ácidos nucleicos en diversas muestras (sangre, líquidos estériles, orina, etc.), técnicas que resultan muy útiles en el diagnóstico precoz de determinadas enfermedades infecciosas. La gran diversidad de muestras clínicas y de métodos diagnósticos aplicables, son dos aspectos que diferencian el laboratorio de microbiología de otros laboratorios clínicos.
Este documento pretende exponer de forma resumida los aspectos referentes a la recogida, transporte y procesamiento de las muestras que son relevantes para que la actividad del laboratorio de microbiología se desarrolle de manera eficaz y eficiente. Los aspectos relacionados con las pruebas rápidas de detección de anticuerpos, antígenos y ácidos nucleicos no se describen en el presente procedimiento y serán desarrollados en otros posteriores.

2. Consideraciones Clínicas

El primer paso del diagnóstico microbiológico comienza con la obtención de la muestra clínica adecuada. Para ello es preciso conocer los posibles agentes etiológicos de las enfermedades infecciosas y los mecanismos patogénicos de los mismos. La muestra debe ser representativa del proceso infeccioso que se pretende diagnosticar, teniendo siempre en cuenta que en determinadas infecciones, muestras no relacionadas directamente con la focalidad clínica, pueden tener también un buen rendimiento microbiológico. El síndrome clínico y los posibles agentes etiológicos implicados condicionan no sólo el tipo de muestra a enviar sino también su procedimiento de obtención y el transporte al laboratorio. Se muestra un resumen los distintos tipos de muestras adecuadas en función de las infecciones más comunes. Igualmente, la información clínica es la que permite al laboratorio aplicar las técnicas diagnósticas disponibles de manera más eficiente. Por ello es fundamental que el microbiólogo esté en estrecha comunicación con los clínicos y que participe activamente en el proceso diagnóstico del paciente. A su vez, el laboratorio de microbiología debe poner a disposición de los clínicos toda la información necesaria sobre las posibilidades diagnósticas que el laboratorio ofrece. Para ello, debe elaborar y distribuir la cartera de servicios disponible. .....................

viernes, 1 de julio de 2011

109. Revisiones sistematicas y metaanalisis

Ignacio Ferreira González, Gerard Urrútia, Pablo Alonso-Coello. Revisiones sistemáticas y metaanálisis: bases conceptuales e interpretación. Rev Esp Cardiol.2011, 64 (08), 688-96

Resumen

Las revisiones sistemáticas son investigaciones científicas en las cuales la unidad de análisis son los estudios originales primarios. Constituyen una herramienta esencial para sintetizar la información científica disponible, incrementar la validez de las conclusiones de estudios individuales e identificar áreas de incertidumbre donde sea necesario realizar investigación. Además, son imprescindibles para la práctica de una medicina basada en la evidencia y una herramienta fundamental en la toma de decisiones médicas. Sin embargo, la realización de una revisión sistemática de calidad no es una tarea sencilla, como en ocasiones tampoco lo es su interpretación. En este artículo especial se presentan las bases conceptuales para la realización y la interpretación de revisiones sistemáticas, poniendo especial énfasis en los puntos clave durante su ejecución mediante un ejemplo hipotético

Introducción

Has finalizado una semana agotadora. Al final de la semana, te sientas tranquilo y reflexionas sobre las decisiones que has tenido que tomar. Entre otras, has indicado una intervención quirúrgica a un paciente con enfermedad de tres vasos, tuviste que decidir si se fibrinolizaba o se trasladaba a tu centro para angioplastia primaria a un paciente de 82 años con infarto inferior de 70 min de duración, y en consultas externas decidiste anticoagular a una paciente con fibrilación auricular. Aunque estás razonablemente convencido de que tus decisiones se basaron en la mejor evidencia disponible, la duda te asalta. ¿Se habrá publicado algún estudio que ponga en cuestión mis decisiones?, ¿diferentes estudios sobre la misma intervención pueden discrepar en los resultados? Lo cierto es que en los últimos meses no has tenido mucho tiempo para leer. Te das cuenta de que para despejar tus dudas necesitas rápidamente una síntesis concisa, actualizada y rigurosa sobre la mejor evidencia disponible en las decisiones que tuviste que tomar. Dicho de otra manera, necesitas una revisión sistemática (RS). Se considera que las RS son la fuente más fiable para informar la toma de decisiones médicas2. Quizá por ello, cada vez son más populares, y se han incrementado de forma muy importante las RS publicadas en los últimos años. Sin embargo, la realización de una RS de calidad no es una tarea sencilla. De hecho, existen normas para su elaboración y, al igual que otros diseños, recomendaciones para la forma de presentación de sus resultados acorde con unos estándares de calidad, que han sido desarrollados por grupos internacionales multidisciplinarios de expertos, que incluyen a autores de RS, metodólogos, clínicos y editores. En este artículo se presentan las bases conceptuales para la realización y la interpretación de RS, poniendo especial énfasis en los puntos clave durante su ejecución mediante un ejemplo hipotético