Lectura crítica e interpretación de la evidencia

Importancia de la lectura crítica

Siguiendo el desarrollo de las cinco etapas que constituyen el proceso de la EBE, y tras la localización de la mejor evidencia disponible que supuestamente responde a la pregunta que nos hemos formulado, el siguiente paso es su análisis crítico. La lectura crítica es el proceso sistemático desarrollado para evaluar el diseño y la metodología del estudio, la calidad de los datos y analizar e interpretar los resultados. Este análisis nos permite establecer la validez y el significado de los resultados y su relevancia para nuestra práctica.

Es evidente que no podemos “dar por bueno” todo aquello que leemos por el solo hecho de estar recogido en un artículo con una estructura metodológica “científica” y haber sido publicado en una revista o estar incluido en una base de datos bibliográfica. Si queremos ser honestos con nuestras propias elecciones para la toma de decisiones sobre el cuidado de nuestros pacientes, debemos plantearnos y preguntarnos sobre la efectividad, la idoneidad y la aplicabilidad de los resultados que los diferentes artículos escogidos nos ofrecen. Cada una de las fuentes de información posibles (revisión sistemática, guía de práctica clínica, editoriales y artículos de revistas) puede tener su valor. Los problemas surgen cuando, como ocurre a menudo, diversas fuentes proporcionan diversas sugerencias respecto a los cuidados de los pacientes. Sin una manera crítica de valorar la información que recibimos, es difícil decidir qué debemos incorporar en nuestra práctica.

Fig. 1-1

Fig. 6-1. Lectura crítica. Tercera fase de la EBE

Frente al conocimiento intuitivo, la rutina o la tradición se propone una alternativa que busca fundamentar las actuaciones de cuidados, gestión y docentes combinando los resultados provenientes de la investigación clínica y básica de calidad con la experiencia individual en la práctica profesional. La lectura crítica forma parte fundamental de esta alternativa. Sin una forma de valorar críticamente la información recibida, los profesionales de la salud estamos relativamente desamparados a la hora de decidir cuál es la nueva información que debe incorporarse a la práctica. La lectura crítica permite discriminar los estudios a partir de los puntos fuertes y débiles de la metodología utilizada y, por lo tanto, ayuda a los profesionales a tomar decisiones adecuadas ante una situación clínica o de gestión concretas.

Para realizar una lectura crítica es imprescindible conocer cómo se evalúan los diseños de investigación y cómo se utilizan los instrumentos de evaluación existentes. Para tratar este problema, en 1981 el Departamento de Epidemiología y Bioestadística Clínica en la Universidad de McMaster (Canadá) publicó una serie denominada Users’ Guides to the Medical Literature (Guías para usuarios de literatura médica), para informar a los clínicos sobre cómo leer los artículos clínicos acerca de intervenciones diagnósticas, de pronóstico, de la etiología y de la terapia de las enfermedades de sus pacientes. La necesidad de dar respuesta a problemas de pacientes verdaderos ha inspirado la elaboración de nuevas guías. En ellas se pone mayor énfasis en las habilidades que se requieren para encontrar la evidencia (las guías incluyen las estrategias para buscar eficientemente la literatura científica) y al tipo de lectura. Después de identificar los estudios relevantes, además de decidir si creer la información, se decide si debe ser aplicada en el cuidado del paciente. La primera versión en castellano se publicó en 1997.

Las guías de la lectura crítica han sido revisadas y difundidas gracias al Programa de habilidades en lectura crítica (CASP-Critical Appraisal Skills Programme). El CASP surgió en el Reino Unido en 1993, en el Institute of Health Sciences de Oxford (Universidad de Oxford y NHS R&D). Es un programa para ayudar a adquirir habilidades en la búsqueda de información y en lectura crítica de la literatura científica en salud. El CASP tiene ámbito internacional y en España está representado por el Programa de Habilidades para la Lectura Crítica en español (CASPe).

Las guías para usuarios de la literatura sanitaria, elaboradas por diferentes instituciones, permiten analizar artículos de diferentes diseños y temáticas y garantizan la valoración crítica de las partes relevantes del estudio.

Calidad de la evidencia

A partir de los artículos seleccionados, debemos iniciar la lectura con el título y el resumen. Esto nos permitirá analizar el tipo de diseño de cada investigación y seleccionar aquellos que cumplan los criterios de inclusión (es decir, que responden a la pregunta de investigación planteada). A partir del texto completo se debe analizar de forma detallada la metodología y los resultados que aportan, realizar una síntesis crítica de estos resultados y finalmente dar una utilidad práctica a esta síntesis. Este proceso, aparentemente tan complejo, puede verse facilitado si nos guiamos por alguna de las listas de preguntas de comprobación que ofrecen los recursos de lectura crítica antes citados y que sirven para analizar la calidad de los artículos. Las preguntas permiten establecer la validez y el significado de los resultados y su relevancia para nuestra práctica.

Todas las guías, independientemente de cuál sea la fuente de información primaria (estudios originales) o secundaria (revisiones sistemáticas, guías de práctica clínica), contienen tres preguntas clave o principales comunes a todas ellas.

Las preguntas clave para la lectura crítica son :

  • ¿Son válidos los resultados del estudio?
  • ¿Cuáles han sido los resultados?
  • ¿Me resultarán útiles los resultados en el cuidado de mis pacientes?

La técnica de lectura variará en función del nivel de evidencia que se considere. Antes de responder a estas preguntas valoraremos el grado de evidencia científica de los estudios de investigación elegidos. El grado de evidencia científica se valora mediante escalas que permiten clasificar los estudios de manera jerárquica según el rigor del diseño. Las recomendaciones para la práctica realizadas a partir de estos diseños dependen de su metodología y del rigor científico.

Existen diferentes escalas de jerarquización de la calidad de las evidencias científicas. Entre ellas tenemos a la Agència d’Avaluació de Tecnologia i Recerca Mèdiques (AATM) o Agencia de Evaluación de Tecnología e Investigación Médica de Cataluña, que para los estudios sobre intervenciones o tratamientos propone el esquema que se presenta en la Tabla 1. El antecedente más destacable de estas escalas tiene su origen en Canadá, ya en 1976, en un trabajo desarrollado por el Ministerio de Sanidad y Consumo, donde valoraban la calidad y la efectividad de las intervenciones publicadas.

Tabla 1. Niveles de calidad de la evidencia científica (AATM)
NivelEvidenciaTipo de diseñoCondiciones de rigurosidad científica
IAdecuadaMetaanálisis de ECA (Ensayo Controlado Aleatorizado)Análisis de datos individuales de los pacientes.
No heterogeneidad.
Diferentes técnicas de análisis.
Metarregresión.
Megaanálisis.
Calidad de los estudios.
IIAdecuadaECA de muestra grandeEvaluación del poder estadístico.
Multicéntrico.
Calidad del estudio.
IIIBuena a regularECA de muestra pequeñaEvaluación del poder estadístico.
Calidad del estudio.
IVBuena a regularEnsayo prospectivo controlado no aleatorizadoControles coincidentes en el tiempo.
Multicéntrico.
Calidad del estudio.
VRegularEnsayo retrospectivo controlado no aleatorizadoControles históricos.
Calidad del estudio.
VIRegularEstudios de cohorteMulticéntrico.
Apareamiento.
Calidad del estudio.
VIIRegularEstudios de casos y controlesMulticéntrico
Calidad del estudio
VIIIPobreSeries clínicas no controladas.
Estudios descriptivos.
Vigilancia epidemiológica.
Encuestas.
Registros.
Bases de datos.
Comités de expertos.
Conferencias de consenso.
Multicéntrico
IXPobreAnécdotas o casos únicos 

En 1979, la Canadian Task Force on the Periodoc Health Examination publicó este sistema de evaluación de la calidad de la evidencia científica, que definía tres niveles de evidencia ordenados en orden decreciente según la calidad del estudio. La Tabla 2 muestra los distintos niveles.


Tabla 2. Niveles de evidencia según la Canadian Task Force on the Periodoc Health Examination

Nivel I. Evidencia obtenida al menos de un ensayo clínico controlado y aleatorizado diseñado de forma adecuada.

Nivel II.1. Evidencia obtenida a partir de ensayos controlados no aleatorizados y bien diseñados.

Nivel II.2. Evidencia obtenida a partir de estudios cohorte o caso-control bien diseñados, realizados preferentemente en más de un centro o por más de un grupo de investigación.

Nivel II.3. Evidencia obtenida mediante estudios comparativos de tiempo o lugar, con o sin intervención. Algunos estudios no controlados pero con resultados espectaculares (como los resultados de la penicilina en los años cuarenta) también pueden ser considerados en este grado de evidencia.

Nivel III. Opiniones basadas en experiencias clínicas estudios descriptivos o informes de comités de expertos.


La evidencia a la que nos referimos es aquella centrada en la formulación de preguntas sobre intervenciones terapéuticas. Es decir, aquella que oriente sobre el impacto o consecuencias de las acciones (educativas, de gestión de recursos, de relación de ayuda), que los/as enfermeros/as realizan sobre los pacientes. Actualmente a esta clasificación se le ha sumado, en el nivel máximo de calidad científica, la obtenida a partir de las revisiones sistemáticas con meta-análisis, como la fuente de información de mayor rigor disponible para generar conocimiento científico.

Las revisiones sistemáticas a través de un análisis estadístico denominado meta-análisis, valoran de manera conjunta los resultados de varios estudios que generan así datos más precisos que los generados por los estudios individuales de la estimación del efecto de una intervención. Estos resultados producen mayor credibilidad y poder explicativo que los resultados surgidos de métodos más sencillos como son la observación y la descripción de casos. Es importante destacar que esta jerarquía de evidencia es adecuada cuando lo que se pretende analizar es la efectividad de una intervención, cuando la pregunta de investigación plantee otras incertidumbres, la jerarquía de evidencia seguramente será distinta.

Es importante tener en cuenta que no todas las dudas que se plantean en nuestra práctica diaria tienen la respuesta mediante un mismo tipo de estudio. Las limitaciones éticas, de recursos temporales y las inherentes a la naturaleza de las preguntas proporcionan pistas sobre el tipo de diseño adecuado para cada problema.

El propio Sackett comenta que el proceso de la búsqueda de “la mejor evidencia científica disponible” no se limita a los Ensayos Clínicos Aleatorizados (ECA) ni al meta-análisis, y que en ocasiones la podemos encontrar en diseños transversales o de estudios de cohortes. Sólo cuando se plantean preguntas sobre tratamientos o intervenciones se debe optar por los ECA, que se convierten así en los estudios de referencia (gold standard).

Los/as enfermeros/as debemos ser conscientes de cuál es la base de la decisión que estamos tomando (el patrón de conocimientos sobre el que se sustenta) que le conducirán a teorías de enfermería, modos de indagación y evidencias diversas. La construcción y búsqueda de evidencias útiles para la resolución de problemas aplicados puede basarse en el paradigma cuantitativo, pero también en el cualitativo. Es evidente, sin embargo, que la búsqueda de evidencias dentro del primer paradigma está más desarrollado y es más conocido por parte de la población enfermera española.

Lectura crítica de la investigación cuantitativa

En este apartado se desarrolla la lectura crítica de un ensayo clínico. Como hemos dicho en el punto anterior, tres son las preguntas que resulta útil plantearse para valorar la calidad y aplicabilidad de un estudio:

  • ¿Son válidos los resultados del estudio?
  • ¿Cuáles han sido los resultados?
  • ¿Me resultarán útiles los resultados para el cuidado de mis pacientes?

La respuesta a las dos primeras preguntas nos indica la validez interna del estudio. La validez interna de un estudio depende de la adecuación metodológica de su diseño y desarrollo que garantiza que sus resultados no son sesgados. Se define como el grado en que los resultados son aplicables a la población misma del estudio y, por tanto, permite una buena estimación de la eficacia real de la intervención de estudio.

Cuanto más válido sea un estudio, mejor se aproxima a la verdad en sus resultados. La tercera pregunta se centra en valorar la validez externa y hace referencia a la medida en que el resultado es aplicable a otra población distinta a la utilizada en el ensayo.

Para hacer más comprensible las etapas de la lectura crítica que ahora iniciamos, les planteamos un caso práctico. Para su resolución utilizaremos la valoración de un ensayo clínico sobre una intervención de enfermería, y como hilo conductor de la lectura crítica se emplea la propuesta por Guyatt en 1993 y que contesta a las tres preguntas antes citadas.

El trabajo original al que hacemos referencia tiene como objetivo de estudio analizar la efectividad, beneficios y perjuicios de la aplicación de enemas con dos tipos de sondas distintas: la sonda rectal y la sonda vesical utilizada como sonda rectal y con el globo inflado.

Validez interna: ¿son válidos los resultados del estudio?

Según expone la revista JAMA en su monográfico de medicina basada en la evidencia (guías del usuario de la literatura científica), la primera cuestión hace referencia a la validez o exactitud de los resultados y analiza si el efecto del tratamiento que se presenta en el artículo corresponde al verdadero sentido y magnitud del efecto de la intervención analizada. Podríamos formular esta misma pregunta de un modo diferente: ¿los resultados de este estudio representan una estimación no sesgada del efecto de la intervención o, por el contrario, se han visto influenciados de algún modo sistemático para conducir a conclusiones falsas?

Podemos abordar la pregunta en dos niveles, el primero llamado de criterios primarios, donde se dan unos criterios de validez que pueden ser aplicados rápidamente por lectores con poco tiempo, y otros llamados secundarios, que pueden reservarse para los lectores y artículos que necesiten de una revisión más profunda.

Criterios primarios

¿Se han realizado de manera aleatoria la asignación de los tratamientos de los pacientes?

Los resultados de una práctica clínica sobre unos individuos tienen su origen en muchas causas y la intervención enfermera no es más que una de ellas. La gravedad de la enfermedad que padece la persona, la presencia de patología concomitante y multitud de otros factores pronóstico (conocidos o desconocidos) a menudo se sobreponen al posible efecto de la intervención en estudio. Los estudios en los que el tratamiento o intervención se asigna por cualquier método que no sea una distribución aleatoria, tiende a mostrar unos efectos de intervención mayores que los de los ensayos con asignación aleatoria. Este sesgo recibe el nombre de sesgo de selección y la única manera de contrarrestarlo es asignando los pacientes a los grupos de intervención o experimental y grupo control mediante un procedimiento aleatorio. La ventaja de la distribución aleatoria es que, si el tamaño de la muestra es lo suficientemente amplio (en nuestro ejemplo se aplicó una fórmula para el cálculo del tamaño muestral), garantiza que los factores determinantes del resultado se distribuyan por igual en los grupos de intervención y control.

En nuestro ejemplo, el artículo en el apartado de Material y métodos comenta que el estudio es un ECA al que se ha realizado una adjudicación de la secuencia de aleatorización de los individuos a estudio. La secuencia aleatoria se establece a partir de una hoja distribuida a las unidades que participaron del estudio. Este método de aleatorización no garantiza que el resultado de la intervención sea debido al azar.

¿Se han tenido en cuenta adecuadamente todos los pacientes incluidos en el ensayo y se los ha considerado a la conclusión del mismo? ¿Se ha realizado el tratamiento completo?

Este criterio analiza dos elementos: ¿se ha realizado un control evolutivo completo? y ¿se han analizado a los pacientes en los grupos a los que fueron asignados aleatoriamente?

El primer punto observa que todo paciente que se haya incorporado al ensayo debe ser tenido en cuenta a la conclusión del mismo. Cuanto mayor sea el número de individuos estudiados cuyas monitorizaciones de sus seguimientos se pierden, mayor sesgo puede presentar el ensayo, ya que es frecuente que los pacientes de los que no se dispone de seguimiento tengan pronósticos diferentes de los de aquellos que permanecen en el estudio, y pueden llegar a no permanecer en el estudio por resultados adversos o porque evolucionan bien. Es un buen consejo para el lector suponer en los casos de pérdidas del seguimiento en el grupo intervención que evolucionan mal y en las pérdidas para el grupo control que lo hacen en positivo, volviendo a calcular resultados con estos nuevos supuestos.

Para poder llevar a cabo esta verificación, resulta imprescindible que el estudio reporte detalladamente el número total de pacientes al inicio del estudio, así como las pérdidas y abandonos a lo largo del seguimiento en cada rama del estudio y sus posibles causas.

En nuestro ejemplo, el tratamiento se realiza de forma completa y en el apartado de resultados y discusión se señalan los motivos de exclusión del estudio (18 individuos excluidos por deficiencias en la cumplimentación del cuestionario de recogida de datos). El artículo no precisa cuál fue el número total de individuos que cumplieron los criterios de inclusión en el estudio y que formaban parte de la población a valorar (habla de 100 cuestionarios enviados a las unidades de estudio), por lo que resulta difícil determinar el punto que tratamos.

¿Se han analizado los pacientes en los grupos a los que fueron asignados aleatoriamente?

Los pacientes incluidos en los ensayos con asignación aleatoria a veces pueden dejar de asumir una intervención aceptada cuando se ha informado y se ha dado su consentimiento al entrar en el estudio. Se puede pensar que en estos casos los individuos pueden quedar excluidos de los análisis de eficacia. Pero no es así.

Al excluir del análisis a las personas que no cumplen con la intervención se deja a fuera a los enfermos que pueden mostrar mejor evolución y se destruye la comparación no sesgada que proporciona la asignación aleatoria.

Este principio de atribuir todos los pacientes al grupo al que se han asignado aleatoriamente y considerados en el análisis, independientemente de si recibieron o no el tratamiento asignado conduce a un análisis por intención de tratar y preserva el valor de la distribución aleatoria.

En nuestro ejemplo se sobreentiende que es difícil que se produzca la situación que se plantea en este punto. Pero teniendo en cuenta que se han excluido a 18 pacientes, sería interesante conocer si el cuestionario se administra antes del proceso de la aleatorización o después. La primera situación nos llevaría a cuestionarnos el diseño del estudio, en la segunda estaría indicado un análisis por intención de tratar.

Criterios secundarios

¿Se ha mantenido un diseño “ciego” respecto al tratamiento aplicado, en cuanto a los pacientes, los clínicos y el personal del estudio?

Los pacientes que conocen qué intervención se les está realizando y qué supuestos, en cuanto a eficacia, se tiene de ellos por parte de los profesionales que se los aplican pueden distorsionar los resultados, ya que disponen de una opinión formada al respecto que lógicamente influye en el resultado final del estudio. Lo mismo ocurre con los investigadores y el personal encargados de recoger los datos y evaluar las respuestas obtenidas. A este fenómeno se le conoce como sesgo de detección. La mejor forma de contrarrestarlo es con el diseño a doble ciego o doble enmascaramiento, que se aplica en los ensayos de medicamentos mediante la administración al grupo control de un placebo que es indistinguible del tratamiento en activo.

Existen intervenciones, como la de nuestro ejemplo, en que no se puede mantener el ciego respecto a los pacientes y el clínico (como sería en el caso del artículo que estamos comentando) pero sí podría mantenerse ante los investigadores que evalúan los resultados finales.

¿Eran similares los grupos al inicio del ensayo?

Para asegurarse de la validez de un estudio, los lectores querrán que se les informe de que los grupos de tratamiento y de control eran similares respecto a todos los factores que determinan el resultado de interés excepto uno, es decir, el empleo del tratamiento experimental (en nuestro caso, la efectividad del uso de las sondas vesicales con balón como sondas rectales). La distribución aleatoria no siempre produce grupos bien equilibrados en cuanto a los factores pronósticos conocidos. Si estas diferencias son grandes, pueden comprometer la validez del estudio.

A medida que aumenta el tamaño de la muestra la posibilidad de que este desequilibrio se mantenga disminuye. Cuando se den diferencias sustanciales entre los grupos (intervención y control), podemos acudir a técnicas estadísticas de ajuste que tengan en cuenta estas diferencias basales.

En nuestro artículo de referencia, en el apartado de Resultados y Discusión, los autores hablan de la comparación entre grupos en relación con variables como edad, sexo, motivo de administración del enema, proporción de pacientes desorientados, solución utilizada y unidad de procedencia, sin obtener diferencias significativas. En el artículo se habla de la variable de solución utilizada (lactulosa, casen, resincalcio, jabonosa), así como de la variable de cantidad administrada en el enema. De estas dos variables se extrae un resultado común en relación con su administración con sonda rectal y sonda vesical. Sería necesario realizar también un análisis de resultado de estas dos variables analizando cada grupo de forma estratificada para garantizar la comparación entre grupos. Aparte de la intervención experimental, ¿se ha tratado a los grupos de la misma forma?

La asistencia prestada a los grupos de intervención y control puede diferir en muchas maneras, aparte de la intervención a investigar. Estas diferencias pueden distorsionar los resultados; este fenómeno se denomina sesgo de realización. Si en un grupo se ha hecho un control más estricto, podría ser más probable la notificación de determinados hechos y los pacientes podrían recibir una intervención más intensa con otras medidas que no sean las investigadas. Este fenómeno puede ser neutralizado con las técnicas de enmascaramiento.

Si no se tiene en cuenta este sesgo, podríamos caer en el error de aplicar intervenciones distintas de las del estudio. Más importante aun, si se tiene en cuenta que muchas de estas “cointervenciones” (apoyo psicológico, atención sobre el dolor, ansiedad) proceden de valoraciones que la enfermera, como profesional que recoge los aspectos psico-emocionales de la persona, podría proporcionar sin ser consciente del sesgo que introduciría en el estudio. Nos podemos proteger de este sesgo si en el apartado de Métodos se describen las cointervenciones aceptadas en el estudio y en qué medida se han aplicado.

Nuestro artículo de referencia habla de “criterios unificados” para la realización de la técnica de administración del enema con sonda vesical y describe en ellos unas pautas de actuación concreta. Otras aportaciones interesantes podrían ser el establecer más cointervenciones que la enfermera pudiera realizar durante la atención al paciente en esta situación y, sobre todo, de qué manera se debería administrar los enemas con sonda rectal.

Validez interna: ¿cuáles han sido los resultados del estudio?

Hasta aquí, hemos considerado los criterios que mejor nos pueden ayudar a valorar la validez del ensayo clínico. Si la valoración ha sido positiva, podemos pasar a considerar cuales son los resultados.

¿Cuál ha sido la magnitud del efecto del tratamiento?

En los ensayos clínicos con asignación aleatoria se realiza una vigilancia cuidadosa de la frecuencia con la que los pacientes experimentan determinados episodios o resultados adversos. Para expresar el efecto de una intervención hay distintos índices, todos ellos correctos y legítimos. Lo más frecuente es que el resultado se presente en cada paciente mediante una variable binaria (variable del tipo sí o no, que representa un evento que puede ocurrir o no ocurrir). Como ejemplo de estas variables dicotómicas de evaluación del resultado tenemos la cicatrización de una herida, la ausencia de dolor y la muerte. Los pacientes presentan o no estos episodios y el artículo indica la proporción de pacientes que lo manifiestan. Otra forma de expresar resultados es en el caso de variables continuas (escala de dolor, nivel de tolerancia ante una exploración) donde se utilizan diferencias de medias, mediana, moda y desviación estándar.

Para las variables binarias son varios los estimadores que se utilizan para ilustrar las probabilidades o riesgos de que un efecto tenga o no lugar. Su comprensión resulta necesaria para poder entender qué es lo que nos están diciendo los resultados de los ensayos clínicos. Su cálculo numérico parte de una tabla de 2x2 para cada una de las variables de resultado consideradas. La Tabla 3 muestra un ejemplo de tabla 2x2.

Tabla 3. Ejemplo de tabla 2 x 2
 Resultado de interés 
GrupoSí (presente)No (ausente) 
Grupo experimentalaba+b (Total de pacientes del grupo experimental)
Grupo controlcda+d (Total de pacientes del grupo control)
 a+c (Total de pacientes que presentan el resultado de interés)b+d (Total de pacientes que no presentan el resultado de interés)Total

Estimadores de efecto

Los nombres que reciben los distintos índices son:

  • Riesgo: probabilidad de que ocurra un evento dado. Se estima por la proporción de individuos en los que se observa el evento. Si en un grupo de 100 individuos se observan 15 eventos, el riesgo estimado es de 0,15 o 15%.

    Una fuente de confusión proviene de que a veces se estudian eventos adversos (muerte, dolor) y otras eventos beneficiosos (sobrevivir, curación) y para ambos se utiliza el mismo término, riesgo, que hace pensar sólo en efectos adversos.

    En la tabla 2x2, el riesgo de presentar el resultado de interés en el grupo experimental o de intervención (en nuestro ejemplo efectividad de los enemas con sonda vesical) es: TEE=a/a+b, mientras que el riesgo de presentar el resultado de interés en el grupo control (en nuestro ejemplo efectividad de los enemas con sonda rectal) es: TEC=c/c+d.

  • Riesgo relativo (RR): es el cociente entre el riesgo en el grupo tratado y el riesgo en el grupo control. Es una medida de la eficacia de un tratamiento. Si es igual a 1, el efecto de la intervención no es distinto del efecto del control. Si el RR es mayor (o menor) que 1, el efecto de la intervención es mayor (o menor) que el del control.

  • Reducción absoluta del riesgo (RAR): es la diferencia entre el riesgo en el grupo control y riesgo en el grupo tratado. También llamado riesgo atribuible.

    En la tabla 2x2, la RAR es: TEC- TEE. Aplicando a nuestro ejemplo sería: 0,53- 0,76= 0,23 (23%). Es lo mismo que decir que hay una diferencia entre el grupo control (enemas aplicados con sonda rectal) y el grupo intervención (enemas aplicados con sonda vesical) del 23% en relación a los resultados de efectividad en la administración de enemas con uno u otro tipo de sonda.

  • Reducción relativa del riesgo (RRR): es el cociente entre la RAR y el riesgo en el grupo control. Generalmente se expresa en porcentaje. También llamada fracción atribuible.

    En la tabla 2X2, la RRR es: TEE/TEC. En nuestro caso hablaríamos de una RRR= 23/53=0,43 (en porcentaje, un 43%).

  • Odds ratio (OR): es el cociente entre los odds del grupo intervención y el grupo control. Si es igual a 1, el efecto de la intervención no es distinto del efecto del control. Si el OR es mayor (o menor) de 1, el efecto de la intervención es mayor (o menor) que el del control. En la tabla 2x2, el OR es:

$$\frac{\frac{TEE}{1 - TEE}}{TEC_{i} - TEC}$$

$$OR = \frac{76,2}{53,8} = 1,41$$

  • NNT: representa el número de personas que deberían recibir el tratamiento o intervención experimental (en nuestro caso el enema con sonda vesical), en lugar del tratamiento control (el enema con sonda rectal tradicional), para que un paciente adicional obtenga el beneficio (o, de forma equivalente, evite el perjuicio si el episodio en estudio es adverso). El NNT se calcula como el inverso de la reducción absoluta del riesgo (RAR).

    Cuanto mayor sea el efecto del tratamiento menor será el NNT; un tratamiento con el que necesitemos tratar a cinco pacientes para salvar una vida es, en principio, mejor que otro con el que necesitemos tratar a 20.

    En nuestro ejemplo sería: 1/0,23= 4,3. Como el NNT se interpreta en números de personas, tomaremos valores enteros: el NNT es un valor de 4 y nos indica que necesitamos tratar a 4 personas para asegurar que una consiga la total productividad del enema con sonda vesical.

  • NND: representa el número necesario a tratar para producir un daño o perjuicio. La tasa de efectos adversos surge de dividir uno por la tasa de eventos adversos en el grupo intervención. En nuestro artículo, nos encontramos con que los autores no describen los efectos adversos posibles al realizar la intervención controlada y en estudio (administración de enemas con sonda vesical y con sonda rectal) como podría ser la perforación de colón, hemorragias, dolor, etc. Por tanto, esta medida de efecto no puede ser aplicada.

¿Con qué precisión se ha estimado el efecto del mismo?

El verdadero efecto de una intervención es desconocido. La medida observada en el ensayo clínico no es más que una estimación de la real, ya que trabajamos con muestras y los resultados difieren con cada muestra. La forma más común de conocer la precisión con que se ha calculado el efecto de la intervención es mediante el intervalo de confianza (es el intervalo o rango de valores dentro del que se encuentra la verdadera magnitud del efecto, con un grado prefijado de seguridad, suponiendo que el estudio sea válido). Se suelen utilizar intervalos del 95% de confianza. Quiere decir que dentro de este intervalo se encontraría el verdadero valor en el 95% de los casos. El intervalo de confianza es, por tanto, un modo de cuantificar lo generalizable de los resultados de un estudio. La precisión está muy relacionada con el tamaño de la muestra, de modo que a mayor número de participantes mayor es la precisión y más estrecho es el intervalo. Esta propiedad del IC se asemeja mucho al grado significación estadística convencional de p<0,05.

En nuestro ejemplo, cuando se analiza la productividad de la efectividad del enema con sonda vesical, se habla de un 76,2% con una p<0,05 en comparación con el 53,8% de productividad con los enemas rectales.

Siendo la “p” estadísticamente significativa, necesitaríamos saber el intervalo (valor inferior y superior) de cada variable de resultado para poder determinar si este significado también es clínicamente significativo.

Tras haber determinado la magnitud y la precisión del efecto del tratamiento o intervención, el lector puede pasar a la última pregunta sobre cómo aplicar los resultados del artículo a sus propios pacientes y a su práctica profesional habitual.

Validez externa: ¿me resultarán útiles los resultados para atender a mis pacientes?

¿Pueden aplicarse los resultados a la asistencia de mi paciente?

Si un paciente al que asistes en tu lugar de trabajo cumple con los requisitos de inclusión en el estudio y no viola ninguno de los criterios de exclusión, no hay porque pensar que los resultados no le sean aplicables. Si éste no es el caso se habría de valorar la situación.

Otra cuestión que frecuentemente surge se da cuando nuestros pacientes presentan las características de un subgrupo de pacientes del estudio analizado.

Los autores del artículo de nuestro ejemplo han analizado diferentes subgrupos con relación a la edad, proporción de pacientes desorientados y solución utilizada. En ocasiones estos pueden interpretar estos análisis “dependientes de los datos” como indicativos de que la intervención presenta realmente un efecto diferente en un subgrupo de pacientes que en otros. Es probable que la intervención aporte realmente un mayor o menor beneficio siempre y cuando la diferencia en los efectos de la intervención a analizar en los subgrupos tenga las siguientes características: es alta; es improbable que se deba al azar; resulta de un análisis que se ha previsto como hipótesis antes del inicio del estudio; corresponde a uno de entre muy pocos análisis de subgrupos realizados y se reproduce en otros estudios.

¿Se han considerado todas las variables de evaluación del resultado clínicamente importantes?

Las intervenciones están indicadas cuando los beneficios son importantes. A pesar de que los investigadores describan unos resultados favorables de la intervención, el profesional ha de tener la precaución de comprobar que no se produzcan efectos nocivos en otros aspectos del resultado. Por ejemplo, el coste del uso “indiscriminado” de sondas vesicales para la administración de “todo tipo de enemas” y en cualquier tipo de pacientes (tanto si están o no desorientados).

¿Compensan los probables beneficios del tratamiento los posibles efectos nocivos y costes del mismo?

Si los resultados del estudio son generalizables a nuestro paciente y si el efecto obtenido es importante, nos cuestionaremos si los probables beneficios de la intervención compensan el esfuerzo que la aplicación del mismo exige a las enfermeras y a los pacientes. El NNT que nos haya dado los resultados obtenidos nos ayudará a tomar una decisión al respecto. En nuestro ejemplo, el NNT nos indica el número de personas mínimo a tratar para que en uno de ellos la intervención planteada sea efectiva. Estos datos no han de ser valorados de forma independiente al del resto del estudio, donde la OR nos da un resultado claramente beneficioso para la utilización de sondas vesicales en la administración de enemas por encima de un volumen superior a 1000 cc y donde el estudio de tolerancia del paciente hacia el tipo de sonda utilizada en la administración del enema así lo indica.

La lectura crítica basada en unas guías establecidas permite la valoración sistemática de la calidad del artículo y objetiva su aportación a la práctica clínica. Además de estos beneficios su aplicación también puede ser de gran utilidad en el momento de plantearnos la realización de estudios originales y la redacción para su publicación. Muchas revistas científicas valoran la calidad de los estudios a partir de las premisas establecidas en las guías.

Critically Appraised Topic (CAT)

La lectura crítica constituye un enriquecimiento del conocimiento, ya que nos permite redefinir o confirmar el conocimiento actual o bien incorporar conocimiento nuevo. Es por este motivo que resulta indispensable plantearse la difusión de este conocimiento. Hemos llegado a la lectura crítica después de identificar una área de duda o desconocimiento y llevar a cabo una búsqueda de la evidencia científica. Llega el momento de iniciar el establecimiento de un puente de unión sólido entre la investigación y la práctica y, por lo tanto, no podemos finalizar este apartado sin antes comentar acerca de la utilidad de un Critically Appraised Topic (CAT).

Un CAT es un resumen escrito del proceso de EBE que da respuesta a una pregunta surgida de un caso clínico real. Este proceso consiste en buscar la evidencia científica pertinente al caso, valorarla, analizarla y generar una serie de conclusiones. Las preguntas que se pueden responder mediante un CAT pueden ser de todo tipo, referidas a terapéutica, pronóstico, efectos adversos, diagnóstico, etc. Por estar basado en un caso clínico individual, el CAT proporciona una respuesta específica aplicable a un caso concreto, al contrario que una revisión sistemática donde se proporciona una respuesta general, válida para todo un espectro de pacientes.

El CAT es una buena solución divulgativa, su formato es claro, conciso y eminentemente práctico, a fin de hacerlo agradable y útil para los profesionales asistenciales, que pueden invertir poco tiempo y recursos a responder el tipo de interrogantes que motivan un CAT. Constituye, por lo tanto, una herramienta de gran valor divulgativo de la EBE.

Después de este análisis es importante volver a señalar que la EBE se alimenta de la investigación y que por lo tanto, si lo que pretendemos es ofrecer unos cuidados de la mejor calidad basándonos en la evidencia disponible, ésta debe ser de calidad. Es por este motivo que en el momento de llevar a cabo un estudio, se deben establecer los criterios necesarios para garantizar la calidad metodológica y, por lo tanto, la validez de los resultados. Sin embargo, los requerimientos metodológicos no deben ser ningún obstáculo para desarrollar investigación en enfermería, al contrario, debemos beneficiarnos de su existencia como guía para facilitar el diseño de los estudios.

Anterior
Siguiente