Estudios Descriptivos. Estudios Ecológicos y Transversales

Introducción

Desde un punto de vista conceptual, los estudios epidemiológicos descriptivos son los que están diseñados para caracterizar la presentación de los fenómenos relacionados con la salud en las poblaciones humanas, generalmente con dos objetivos: identificar necesidades de salud (y servir, por lo tanto, de base para la planificación de los servicios de salud), y generar hipótesis explicativas. En principio, su diseño no permite verificar hipótesis causales a nivel individual (es decir, demostrar que las personas expuestas a un determinado factor modifican su riesgo de desarrollar una enfermedad o cualquier otro fenómeno). Dentro de esta categoría de estudios se incluyen, entre otros, los diseños ecológicos y los transversales. En los primeros, las variables de estudio toman valores para grupos de sujetos, pero no para individuos, lo que impide cuantificar asociaciones a nivel individual. En los segundos, la ausencia de seguimiento no permite establecer la secuencia cronológica en la que se suceden los fenómenos de interés en los sujetos del estudio; esto impide verificar el principal criterio de causalidad: que el supuesto factor de riesgo anteceda suficientemente a la aparición del efecto. A continuación describiremos las principales características de ambos tipos de estudios.

Estudios ecológicos

Conceptos generales

En la bibliografía pueden hallarse diversas definiciones de estudio ecológico; quizá la más sencilla sea la que afirma que es todo estudio en el que se utilizan variables ecológicas, entendiendo por tales aquellas que toman valores para entidades que no son individuos, pero sirven para definir grupos de individuos. Por ejemplo, para estudiar la asociación entre el bajo peso del recién nacido y la mortalidad neonatal, en un estudio individual se mediría el peso al nacer de cada uno de los recién nacidos de una cohorte definida de antemano y se valoraría la supervivencia de cada niño a las 4 semanas del nacimiento.

Por el contrario, una aproximación ecológica sería medir, en las cincuenta provincias españolas, la proporción de 108 recién nacidos de bajo peso y la tasa de mortalidad neonatal, al objeto de identificar una posible correlación entre ambas variables (ej. que las provincias con una mayor proporción de recién nacidos de bajo peso son también aquéllas con mayores tasas de mortalidad neonatal, y viceversa).

El diseño ecológico descrito en el párrafo anterior tiene una gran ventaja y un gran inconveniente, con respecto al correspondiente diseño individual. La ventaja, común a todos los estudios ecológicos, es que los datos necesarios para realizarlos están disponibles de forma rutinaria, pues proceden de fuentes secundarias; esto hace que la factibilidad para llevar a cabo un estudio ecológico sea muy elevada. El inconveniente es que, en caso de identificar una asociación entre dos variables ecológicas, no es posible demostrar que ésta sea, sin más, el correlato de una asociación entre ambas variables a nivel individual. En nuestro ejemplo, el que las provincias con una mayor proporción de recién nacidos de bajo peso sean también aquéllas con mayores tasas de mortalidad neonatal no permite demostrar que los recién nacidos con bajo peso tienen un mayor riesgo de muerte en el período neonatal. Tratar de verificar una asociación causal a nivel individual a partir de una asociación obtenida a nivel ecológico es un error, comúnmente denominado falacia ecológica o sesgo por cruce de niveles (por pasar del nivel ecológico al individual). El origen de este error se comentará en detalle más adelante. Sin embargo, hay que tener en cuenta que no todas las hipótesis causales se plantean exclusivamente a un nivel individual.

Así, cada vez están cobrando un mayor interés las hipótesis contextuales y ecológicas. En las primeras se plantea el efecto que un factor de exposición ambiental, común a todos los sujetos sometidos al mismo ambiente, ejerce sobre cada individuo. Por ejemplo, en qué medida la inmunidad de grupo o de «rebaño» (la proporción de inmunes de una comunidad) ejerce un efecto protector sobre el riesgo de contraer una enfermedad infecciosa que tiene cada uno de los individuos de dicha comunidad, al margen de su nivel de inmunidad individual. Es evidente que la variable ecológica «proporción de inmunes en la comunidad» es indispensable para demostrar esta hipótesis contextual. Para verificar este tipo de hipótesis, cada vez es más frecuente el empleo de los llamados estudios multinivel, en los que las variables de exposición se miden, al menos, a dos niveles, individual y grupal, y que se estudiarán con más amplitud en la última sección de este apartado.

Con respecto a las hipótesis causales ecológicas, son aquellas que se plantean intrínsecamente para grupos de personas, y no para individuos; por ello, tanto las variables de exposición como las de efecto han de medirse forzosamente a nivel ecológico. Por ejemplo, la hipótesis de que la introducción del carné por puntos ha causado una reducción en el número de muertes por lesiones de tráfico en España es intrínsecamente ecológica: no nos interesa demostrar de qué forma el carné por puntos influye en el riesgo de sufrir una lesión por tráfico de cada conductor que circula por las carreteras españolas, sino si el conjunto de efectos —individuales y contextuales— que produce la introducción del carné por puntos en los conductores, en la policía, o en la población en general conduce, como resultado final, a una reducción de la mortalidad por lesiones de tráfico. Evidentemente, en caso de que esta hipótesis ecológica quedara demostrada, tratar de identificar los mecanismos que la producen sí que exigiría descender a un nivel contextual e individual.

Tipos de estudios ecológicos

Los estudios ecológicos pueden clasificarse atendiendo a diversos criterios:

  1. Según el tipo de variables ecológicas. En muchos casos, las variables ecológicas se han construido como un estimador resumen de la correspondiente variable medida inicialmente a nivel individual. Por eso a este tipo de variables ecológicas se las suele denominar agregadas. Así se habrían construido, por ejemplo, las variables ecológicas del ejemplo presentado en el apartado anterior. En otros casos, aunque existe una variable a nivel individual que se correlaciona con la variable ecológica, esta última no se obtiene como un resumen de los valores medidos en cada individuo, sino de forma independiente, debido a la dificultad de medir la variable a nivel individual. Por ejemplo, es mucho más fácil estimar el consumo anual de litros de leche per cápita en España a partir de un balance alimentario nacional que a partir de la media de los consumos individuales de leche de una muestra representativa de la población española. Esta situación es particularmente frecuente para la mayoría de exposiciones ambientales que, por lo tanto, suelen medirse como variables ecológicas. Finalmente, hay variables intrínsecamente ecológicas, es decir, que no tienen un correlato a nivel individual y sólo son aplicables a entidades no individuales. Tal es el caso del número de camas de cada uno de los hospitales de Andalucía, de la densidad de población de las provincias españolas, o de los límites máximos de alcoholemia permitida a los conductores en cada uno de los países de la Unión Europea.
  2. Según la coexistencia o no de variables ecológicas e individuales en el mismo estudio se habla de estudios ecológicos totales, cuando todas las variables del estudio son ecológicas, o parciales (o semiecológicos), en caso contrario. En este último grupo se incluirían los diseños multinivel a los que se ha hecho referencia anteriormente.
  3. Según las unidades de estudio, es decir, aquéllas para las que las variables ecológicas toman sus valores, se diferencian estudios espaciales, temporales o mixtos. En los primeros, también llamados geográficos, las unidades de estudio vienen definidas por una variable geográfica, generalmente de tipo administrativo: países, provincias, ciudades, hospitales, distritos, áreas de salud, etc. En el segundo se dispone de una única entidad espacial para la que existe información sobre una o más variables ecológicas medidas en diferentes unidades temporales (ej. las tasas anuales de mortalidad por distintos tipos de cáncer en España). Finalmente, cuando se combinan en un mismo estudio unidades definidas espacial y temporalmente, se habla de estudios mixtos. Tal sería el caso, por ejemplo, del estudio de la evolución anual de la mortalidad por lesiones de tráfico en cada uno de los países de la Unión Europea.
  4. El criterio de mayor interés es el que diferencia los diseños ecológicos según el objetivo del estudio, clasificándolos en descriptivos (o exploratorios) y analíticos. En los primeros tan sólo se pretende estudiar y comparar la magnitud de una o más variables ecológicas entre diferentes unidades espaciales, temporales o espacio-temporales. En los segundos se cuantifica la asociación entre dos o más variables ecológicas. A continuación describiremos los aspectos más relevantes de ambos tipos de estudios.

Estudios ecológicos exploratorios o descriptivos

Los estudios ecológicos descriptivos suelen ser una explotación de las bases de datos disponibles de forma rutinaria en un país o conjunto de países. De hecho, el desarrollo de registros informatizados, y de paquetes de software para su análisis, hace posible que sea cada vez más fácil, a través de Internet, la confección de tablas o gráficos que permiten cuantificar el comportamiento de una o más variables ecológicas medidas para unidades espaciales y/o temporales. Obviamente, y puesto que los estudios ecológicos se basan en la explotación de fuentes de datos secundarias, los indicadores de salud más frecuentemente utilizados son aquéllos para los que existe una mayor disponibilidad de información, como es el caso de la mortalidad. Sirvan como ejemplos las aplicaciones Ariadna y Raziel, desarrolladas por el Instituto de Salud Carlos III para el estudio de la mortalidad por cáncer y otras causas de muerte en España, anualmente, a nivel nacional, por provincias o comunidades autónomas.

En última instancia, todos los estudios ecológicos descriptivos, ya sean espaciales, temporales o mixtos, se llevan a cabo para detectar la existencia de diferencias en la magnitud de uno o más indicadores de salud entre las diferentes unidades de estudio consideradas (provincias, años, etc). La utilidad de tal detección es diversa; en los estudios espaciales es una herramienta útil para identificar desigualdades de salud, que debe conducir a la realización de estudios ulteriores para conocer las causas de tales desigualdades, así como a poner en marcha medidas para corregirlas; por su parte, en los estudios descriptivos temporales, la monitorización de la evolución de la magnitud de los indicadores de salud a lo largo del tiempo es clave para priorizar las necesidades futuras en salud, así como para evaluar las estrategias ya puestas en marcha. Finalmente, el análisis del comportamiento de un indicador a lo largo del tiempo puede tener un objetivo predictivo: a partir del estudio de la serie de valores pasados, tratar de predecir los futuros.

Una aplicación particular de los estudios ecológicos descriptivos es la identificación de posibles conglomerados (agrupaciones de casos delimitados espacial y/o temporalmente que es muy improbable que se hayan producido por azar), que requerirán una investigación posterior para identificar su origen. En el capítulo dedicado a la epidemiología ambiental se estudia este aspecto con más detalle.

Dentro de los estudios exploratorios espaciales, cada vez está cobrando un mayor interés el análisis de áreas pequeñas, es decir, unidades espaciales que por su escaso tamaño agrupan a relativamente pocos sujetos. A medida que disminuye el tamaño de las unidades geográficas consideradas, disminuye la posibilidad de obtener fuentes de información secundarias, así como la precisión de las mediciones, pero aumenta mucho su validez, debido a que la variabilidad dentro de cada unidad es menor. Otro subtipo particular de estudios espaciales exploratorios es el que analiza el comportamiento, con respecto a una o más variables, de los grupos de emigrantes y sus descendientes, en relación con las poblaciones de origen y de destino. Por ejemplo, el que las tasas de incidencia o de mortalidad de algunas enfermedades en los descendientes de emigrantes se vayan asemejando a las observadas en el país de acogida habla a favor del efecto de los determinantes ambientales sobre el origen y/o el pronóstico de estas enfermedades; si, por el contrario, las tasas de los descendientes de emigrantes permanecieran similares a las observadas en sus países de origen, se podría admitir un papel predominante para los factores genéticos.

La complejidad del análisis de las variables de los estudios descriptivos ecológicos oscila desde aproximaciones muy simples (presentación, en forma gráfica o tabulada, de los valores de la variable ecológica en cada unidad de estudio), hasta análisis más complejos, en los que se pretende cuantificar la magnitud de las diferencias en los valores de la variable ecológica entre las distintas unidades espaciales o temporales que no se debe al azar. En cualquier caso, especialmente en los estudios que comparan tasas de mortalidad, siempre será necesario utilizar algún procedimiento de estandarización por edad y/o sexo, bien basado en el método directo, o bien, con más frecuencia, a través de la obtención de razones de mortalidad estandarizadas. Es habitual presentar los resultados de estos estudios de forma gráfica, para la distribución de las tasas de mortalidad por cáncer de estómago ajustadas, con respecto a la población europea, en hombres y mujeres.

En el caso de los estudios espaciales es importante tener en cuenta que el tamaño de las unidades espaciales que se comparan con frecuencia puede ser muy desigual. Para el caso de las provincias españolas, pensemos en la diferente población de provincias como Madrid o Barcelona con respecto a otras como Soria o Teruel. En las unidades más pequeñas es fácil hallar importantes fluctuaciones en la magnitud de las variables ecológicas atribuibles únicamente al azar, pero que pueden distorsionar en gran medida el patrón global de variabilidad geográfica obtenido. Existen técnicas de análisis más o menos complejas que permiten controlar éste y otros problemas derivados de la llamada autocorrelación espacial (en qué medida la proximidad geográfica entre dos unidades espaciales explica las diferencias observadas entre ellas con respecto a la magnitud de la variable bajo estudio).

Con respecto a los estudios ecológicos temporales, cabe mencionar la utilidad de los análisis de series temporales, como los modelos de ajuste autorregresivos de medias móviles o modelos ARIMA (autoregresive integrated moving average), que permiten identificar patrones específicos en el comportamiento de la serie de valores a lo largo del tiempo (tendencias seculares, ciclos, estacionalidades, etc). Éstos, a su vez, pueden servir para realizar predicciones sobre el comportamiento futuro de la serie.

Un tipo especial de análisis en los estudios exploratorios temporales es el que investiga, para una determinada variable (generalmente la prevalencia, la incidencia o la mortalidad por una cierta enfermedad), el efecto independiente de tres posibles factores estrechamente relacionados con el tiempo y entre sí: el período (años del calendario), la edad (años cumplidos por una persona) y la cohorte (año de nacimiento). Para ello, basta con estratificar la variable de estudio por cada categoría de las tres variables temporales antes citadas. Posteriormente, estas estimaciones estratificadas se suelen presentar en forma gráfica. La importancia de este análisis reside en que, teóricamente, el efecto de cada uno de los tres ejes temporales sobre la frecuencia o la mortalidad depende de factores conceptualmente diferentes: el efecto de la edad sería el asociado al envejecimiento del sujeto (independientemente de la cohorte de nacimiento o del período de estudio); el del período dependería de factores ambientales que afectan a todos los sujetos en un momento concreto del tiempo, con independencia de su edad o su cohorte de nacimiento (ej. la reducción de la mortalidad por sida a partir de 1997 tras la introducción de la terapia antirretroviral de gran actividad); finalmente, las variaciones en las tasas observadas entre cohortes de nacidos deberían asociarse al efecto que ejerce un factor al incidir, en un momento o en una etapa de la vida, sobre todos los sujetos nacidos en un año concreto, y que afectará a su salud durante el resto de su vida, tengan la edad que tengan y en cualquier momento posterior del tiempo en el que se les estudie. Por ejemplo, las cohortes de los nacidos en España entre 1955 y 1963 siempre tendrán (en cualquier edad y en cualquier período que se les observe) una mayor prevalencia de focomelia, en comparación con las cohortes anteriores y posteriores, porque fueron ellas las afectadas por la introducción de la talidomida. El efecto cohorte también puede ser progresivo (creciente o decreciente), a lo largo de cohortes sucesivas. Por ejemplo, puesto que las cohortes de mujeres nacidas entre 1960 y 1990 han estado, desde su infancia y adolescencia, progresivamente más expuestas a un ambiente más favorable al hábito tabáquico que las cohortes anteriores y posteriores, las tasas de mortalidad por cáncer de pulmón de estas mujeres aumentarán conforme más recientes sean sus cohortes de nacimiento entre estos años.

El principal problema de los análisis edad-período-cohorte es el asociado a la interdependencia de las tres variables temporales: conocidas dos de ellas, la tercera queda determinada: Año de nacimiento = Año de estudio – Edad.

Así, desde un punto de vista estrictamente matemático, no es posible identificar qué parte de la evolución de las tasas de enfermedad o defunción depende separadamente de cada uno de los tres ejes temporales referidos.

En todos los estudios ecológicos exploratorios siempre hay que tener presente que la variabilidad observada en la magnitud de un fenómeno entre distintos grupos puede ser artificial, reflejo de un sesgo de medición de diverso origen.

En los estudios geográficos, la posibilidad de que las diferencias detectadas entre las unidades espaciales sean producto de un sesgo es, por razones obvias, mucho mayor en las comparaciones entre países, con respecto a las que se realizan entre unidades dentro de un mismo país. Desgraciadamente, en este último caso también es menor la probabilidad de encontrar diferencias reales, pues las poblaciones que se comparan tenderán a ser mucho más homogéneas dentro de un país que entre distintos países. Al igual que ocurría con las variaciones espaciales, las variaciones temporales también pueden deberse a errores de medición (generalmente asociados a cambios en la clasificación de enfermedades, en los criterios diagnósticos y en la exhaustividad de los registros), tanto más influyentes cuanto mayor sea el intervalo de tiempo explorado.

Estudios ecológicos analíticos

Con este nombre designamos a todos los estudios en los que se cuantifica la asociación entre, al menos, dos variables ecológicas. La asociación entre los valores provinciales de la proporción de recién nacidos de bajo peso y la tasa de mortalidad neonatal es un ejemplo de este tipo de estudios. En este contexto, el término «analítico» no hace referencia a la posibilidad de verificar hipótesis de causalidad a nivel individual, pues, como ya se comentó anteriormente, esto no es posible con los estudios ecológicos. La valoración de asociaciones entre variables ecológicas puede realizarse por dos motivos:

  1. Para plantear hipótesis causales de base individual, cuya verificación requerirá de posteriores estudios analíticos individuales (cohortes, casos y controles, etc).
  2. Para verificar hipótesis intrínsecamente ecológicas, es decir, aquellas que plantean asociaciones causales a nivel de grupos de personas.

Tal y como se comentó para los estudios exploratorios, los estudios ecológicos analíticos pueden ser espaciales, temporales o mixtos, en función de la unidad ecológica de estudio. Los primeros son los más frecuentes, por la disponibilidad relativamente alta de los datos necesarios para llevarlos a cabo. Un ejemplo de este tipo de estudio espacial analítico es el llevado a cabo por Rivas-Ruiz (2007), en el que se relacionan las tasas provinciales de mortalidad por lesiones de tráfico en España (ajustadas por número de vehículos/ kilómetro) con un conjunto de indicadores de tráfico, socioeconómicos y culturales, medidos también a nivel provincial. Al igual que se comentó para los estudios exploratorios, también es cada vez más frecuente la aplicación de diseños espaciales analíticos para áreas pequeñas. Valga como ejemplo de ello la asociación directa entre privación socioeconómica y mortalidad obtenida en un estudio ecológico realizado por Domínguez-Berjón y Borrell (2005) en la ciudad de Barcelona, en el que las unidades espaciales eran secciones censales.

Como ya se comentó anteriormente, la principal utilidad de los estudios ecológicos analíticos espaciales es la de proponer hipótesis de causalidad a nivel individual. Así, muchas de las asociaciones causales identificadas actualmente para factores dietéticos y ambientales se han planteado a partir de estudios ecológicos analíticos espaciales, generalmente utilizando datos para países. Posteriormente, los estudios de base individual han confirmado algunas de estas asociaciones (ej. la existente entre el consumo de grasas saturadas y el riesgo de enfermedad cardiovascular) y descartado otras muchas, lo que prueba, una vez más, la inutilidad de estos diseños para demostrar hipótesis causales individuales.

Una de las razones que permiten detectar asociaciones entre variables ecológicas con mayor facilidad que la que existe para sus correspondientes correlatos individuales es que, para la mayoría de factores de riesgo, el rango de variabilidad en sus niveles de exposición entre grupos de sujetos es muy superior al que existe entre los sujetos pertenecientes a un mismo grupo. Este hecho es fácil de comprender en el caso de la dieta, tanto más cuanto más distantes sean las unidades espaciales que se comparan. Por ejemplo, la posibilidad de detectar la ya citada asociación entre el consumo de grasas saturadas y el riesgo de enfermedad cardiovascular es mucho mayor en un estudio ecológico que utiliza como unidades espaciales países de todo el mundo (donde se presume la existencia de grandes diferencias en los niveles de consumo promedio per cápita de grasas saturadas entre países), que en un estudio individual basado en una muestra de personas que viven en un mismo país (y que, por lo tanto, tendrán un patrón de consumo de grasas saturadas mucho más homogéneo).

Por lo demás, la medición ecológica de las variables de exposición soslaya las limitaciones que puede presentar la medición de las mismas variables a nivel individual: hay muchos factores de riesgo cuya cuantificación individual es extremadamente difícil; éste es el caso, por ejemplo, de la mayoría de exposiciones ambientales. En esta situación, la única alternativa es realizar mediciones ecológicas de la exposición, que pueden utilizarse en estudios ecológicos totales o, preferentemente, parciales (cuando el efecto y otras covariables sí pueden medirse de forma individual). Además, la medición ecológica de la exposición elimina el problema introducido por la variabilidad intraindividual existente en algunas variables (ej. las relacionadas con la dieta), que puede impedir detectar asociaciones de interés.

Al igual que ocurre con los estudios individuales, en los estudios ecológicos analíticos espaciales es habitual cuantificar la asociación entre una variable dependiente o de efecto (generalmente la tasa de incidencia o de mortalidad por una cierta enfermedad), y un conjunto de variables independientes o de exposición, todas ellas medidas para las mismas unidades espaciales (países, regiones, distritos, etc). La forma usual de valorar estas asociaciones es a través de la construcción de modelos de regresión múltiple. El tipo de modelo dependerá de las características de las variables ecológicas.

En general, y puesto que, a diferencia de los estudios individuales, la variable dependiente casi nunca es dicotómica (enfermo-sano, muerto-vivo), sino cuantitativa (tasa de incidencia, tasa de mortalidad), los modelos habitualmente utilizados son los de regresión lineal múltiple o los modelos de regresión de Poisson; en ellos, las variables independientes son un conjunto de exposiciones medidas de forma ecológica (ej. como la proporción de expuestos en cada unidad).

Como resultado de la aplicación de estos modelos se obtiene, para cada variable ecológica introducida en la ecuación de regresión, su coeficiente ajustado por las restantes variables independientes. Dicho coeficiente, al igual que ocurre en los modelos que utilizan variables individuales, expresa la variación en el valor de la variable dependiente (ej. en la tasa de mortalidad o en el número de defunciones, para un modelo de Poisson), por cada unidad de incremento de la variable independiente. En el caso de los modelos de regresión lineal múltiple es habitual presentar el coeficiente de determinación del modelo (R²), que informa sobre la proporción de variabilidad de la variable dependiente que es explicada por el conjunto de las variables independientes incluidas. En el estudio antes citado de Rivas-Ruiz, estos autores construyeron un modelo de regresión lineal múltiple en el que se incluyeron, como variables independientes, la proporción de vehículos pesados, la proporción de mayores de 16 años que consumen alcohol (ambas directamente asociadas con la magnitud de las tasas de mortalidad por lesiones de tráfico), junto con la proporción de carreteras de alta capacidad (asociada de forma inversa). El coeficiente de determinación del modelo fue de 0,55. Para un par de variables ecológicas (dependiente e independiente), es frecuente presentar su asociación en forma gráfica, generalmente mediante una nube de puntos.

Al igual que se hace con los modelos que emplean variables individuales, es habitual transformar los coeficientes de las variables independientes en estimadores convencionales de fuerza de asociación. Así, por ejemplo, para estimar el número de veces que aumenta la variable dependiente ecológica por cada unidad de incremento de la independiente (lo que equivaldría, en los estudios de base individual, al riesgo relativo ajustado), es fácil demostrar que esta medida sería igual a exp(Bi), si se utilizan modelos log lineales (lnY = B0 + B1X1 + B2X2 + … + BnXn). No obstante, a la hora de interpretar estas estimaciones, es imprescindible tener siempre en cuenta que las variables del modelo son ecológicas, no individuales: estos «riesgos relativos ajustados» no deben interpretarse como incrementos de riesgos individuales.

En cuanto a los estudios ecológicos analíticos temporales, valoran el comportamiento a lo largo del tiempo de dos o más variables supuestamente relacionadas entre sí, tratando de demostrar que existe una asociación entre el cambio experimentado por una de las variables (dependiente), y el experimentado por una o varias variables independientes.

El objetivo es, por lo tanto, similar al de los estudios analíticos espaciales: aportar una primera evidencia analítica que refrende una hipótesis causal. También pueden tener un componente predictivo, al igual que los estudios exploratorios: a partir del comportamiento de la o las variables independientes, predecir la evolución futura de la variable dependiente. La variable de exposición puede cambiar de una forma brusca o puntual, o bien de forma progresiva. Ejemplo del primer caso es el brusco descenso de la incidencia de polio desde que se implantó la vacunación sistemática. En el segundo ejemplo se puede encontrar una asociación del incremento en el consumo medio de alcohol con un aumento de la tasa de prevalencia de cirróticos en la población. En los estudios ecológicos analíticos temporales se corre el riesgo de encontrar una asociación espuria entre la variable dependiente y la independiente, ya que ambas suelen estar asociadas con el tiempo. Así, para demostrar que la evolución temporal de una variable (independiente) determina la de otra variable (dependiente), debería cumplirse la regla de Granger-Weiner: la evolución temporal de una variable no podrá considerarse causa de la de otra variable a menos que la primera prediga los valores observados de la segunda mejor que la historia de la segunda por sí sola.

Finalmente, los estudios ecológicos analíticos mixtos estudian la asociación entre la evolución temporal de una variable dependiente y la de un conjunto de variables independientes, en varios grupos de población definidos por unidades espaciales. De esta forma se establecen dos niveles de comparación: el que cuantifica la variación temporal en cada unidad espacial y el que cuantifica las variaciones entre las diferentes unidades espaciales. Un ejemplo de este tipo de estudios es el realizado por Dominici (2003) en el que se estudió, para 88 áreas metropolitanas de Estados Unidos, la relación entre la mortalidad diaria (total, por patología cardiovascular y por patología respiratoria) y la concentración diaria de partículas <10 μm (PM10), entre 1987 y 1994.

Sesgos en los estudios ecológicos analíticos

Además de compartir los errores ya comentados para los estudios ecológicos exploratorios, los estudios ecológicos analíticos presentan otros sesgos específicos que pueden agruparse en las siguientes categorías:

  • Sesgo o falacia ecológica
  • Sesgo de confusión y colinealidad
  • Sesgos de clasificación
  • Sesgo por ambigüedad temporal

Sesgo o falacia ecológica

Como ya se comentó anteriormente, el sesgo ecológico es el que no permite extrapolar a un nivel individual el sentido y la magnitud de las asociaciones obtenidas a un nivel ecológico, impidiendo, por lo tanto, contrastar mediante un diseño ecológico analítico hipótesis causales planteadas a un nivel individual. El origen de la falacia ecológica, que en realidad no es un único sesgo, sino una mezcla de varios sesgos operando a la vez, radica en que, como es obvio, dentro de cada unidad de comparación ecológica (ej. países), la población no es homogénea con respecto a las variables de exposición (factores de riesgo y factores de confusión).

Para ilustrar la falacia ecológica, es habitual referir un estudio ecológico realizado por Émile Durkheim a finales del siglo XIX. Este sociólogo concluyó que ser protestante era un factor de riesgo para el suicidio, tras demostrar la existencia de una asociación directa entre la proporción de protestantes y la tasa de suicidio en cuatro grupos de provincias prusianas (a mayor proporción de protestantes, mayor tasa de suicidio). Sin embargo, ninguno de los cuatro grupos de provincias era homogéneo, en relación con la religión: en todos los grupos había una mezcla de protestantes y católicos. La conclusión extraída por Durkheim (que claramente no es más que la verificación de una hipótesis causal individual) a partir de una asociación ecológica podría ser cierta, pero también podría ser absolutamente falsa. Imaginemos, por ejemplo, que en las provincias con mayoría protestante, la mayor presión social que éstos ejercerían sobre la minoría católica podría hacer que entre estos últimos la tasa de suicidios fuera muy elevada. Si éste fuera el caso, la proporción de protestantes ejercería un efecto contextual sobre la tasa de suicidio de los católicos, ¡y la explicación de la asociación ecológica identificada por Durkheim sería justamente la opuesta a la que él realmente dedujo! Independientemente de cuál sea la verdadera explicación de la asociación ecológica entre la proporción de protestantes y la tasa de suicido, lo importante aquí, en relación con este ejemplo, es dejar claros dos conceptos:

  1. La asociación ecológica hallada es cierta (asumiendo que el estudio no presentara otros errores distintos a los propios de la falacia ecológica); es decir, Durkheim podría haber concluido correctamente su estudio diciendo que «en las provincias prusianas existe una correlación positiva entre la proporción de protestantes y la tasa de suicidio».
  2. Los resultados del estudio ecológico no permiten, en modo alguno, identificar cuál de las dos posibles hipótesis causales de base individual planteadas en el párrafo anterior (o cualquier otra que pudiera proponerse) es cierta, a la hora de interpretar la asociación ecológica. Por eso, la conclusión que realmente formuló Durkheim es una falacia (según el Diccionario de la Real Academia: «engaño, fraude o mentira con que se intenta dañar a alguien»): no se puede saber si es cierta o no.

Como se comentó anteriormente, la falacia ecológica es la resultante de la conjunción de varios sesgos. Siguiendo a Greenland y Morgenstern, y tomando como base una posible asociación causal medida a nivel individual entre una exposición dicotómica y una enfermedad, estos sesgos se pueden sintetizar en tres grandes grupos:

  1. Sesgos dentro del grupo. Es el conjunto de sesgos que operan a nivel individual en la relación entre la exposición y el efecto dentro los grupos de individuos definidos por cada unidad ecológica. Aquí se incluyen todos los posibles sesgos de selección, clasificación y confusión que pueden darse en cualquier estudio con datos individuales.
  2. Confusión por el grupo. Se da cuando la frecuencia de enfermedad de los individuos no expuestos varía entre las diferentes unidades ecológicas de comparación, específicamente si existe una correlación entre dicha frecuencia y la exposición media en cada unidad.
  3. Modificación de efecto por el grupo. Se da cuando los valores del riesgo atribuible en expuestos (incidencia en expuestos menos incidencia en no expuestos) varían entre los grupos definidos por cada unidad ecológica.

Los sesgos 2 y 3 son propios de los estudios ecológicos y constituyen la base del llamado sesgo por cruce de niveles (cross-level bias): el que aparece al estimar a nivel ecológico una asociación existente a nivel individual. La presencia o no de ambos sesgos (además de los propios del grupo 1) no se puede identificar en un estudio ecológico, precisamente porque los datos de este estudio (agregados) no nos permiten discernir si a nivel individual existe o no confusión o modificación de efecto por el grupo. Para una comprensión en profundidad del efecto detallado de ambos sesgos sobre las estimaciones obtenidas a partir de un diseño ecológico, es recomendable la lectura de un reciente estudio metodológico de T. F. Webster (2007).

Es importante enfatizar que el mejor o peor ajuste del modelo a los datos no indica nada sobre la presencia o no del sesgo ecológico, ni sobre su magnitud. En principio, el sesgo por cruce de niveles disminuye cuanto más homogéneos sean los sujetos dentro de cada unidad ecológica (eso asemeja más cada una de ellas a una hipotética subcohorte de sujetos sometidos a un mismo nivel de exposición). En este sentido, para aumentar la homogeneidad intragrupos, es preferible reducir el tamaño de las unidades de comparación (ej. provincias mejor que países), aunque, por contraposición, esto contribuya a incrementar la variabilidad aleatoria de las estimaciones. Por otra parte, y en relación con la heterogeneidad intragrupos, las migraciones de sujetos procedentes de otras unidades ecológicas distintas a las estudiadas, o entre las distintas unidades ecológicas incluidas en el propio diseño, pueden ser un problema adicional importante que ha de ser considerado, tanto en relación con la prevalencia de exposición como con respecto al riesgo de desarrollar el efecto.

En general, y siguiendo de nuevo a Morgenstern, puede afirmarse que no existirá sesgo ecológico en un análisis de regresión lineal múltiple si se cumplen las siguientes condiciones:

  1. No existen sesgos a nivel individual (selección, clasificación o confusión) dentro de cada grupo.
  2. No existe correlación entre las tasas de enfermedad en los no expuestos de cada grupo y las variables ecológicas de exposición o confusión (no hay confusión por el grupo).
  3. No hay modificación de efecto dentro de cada grupo para ninguna combinación de las restantes variables (los efectos son aditivos a nivel individual).
  4. No hay modificación de efecto por el grupo: las diferencias de tasas para distintos niveles de las variables independientes son iguales entre los grupos.

Sesgo de confusión y colinealidad

Un problema adicional, pero, como acabamos de ver, estrechamente asociado al sesgo ecológico, es el control de los factores de confusión.

Las covariables ecológicas introducidas en un modelo de regresión múltiple permiten el control de la confusión existente en una asociación ecológica entre una exposición y un efecto, pero no el de la confusión existente en la posible asociación individual subyacente. Hay que tener en cuenta que una variable ecológica puede introducir confusión a nivel ecológico (si a este nivel está correlacionada con la exposición de interés), aunque el correlato individual de esta variable no esté realmente asociado con la exposición. También ocurre el fenómeno inverso: un factor de confusión a nivel individual puede no comportarse como tal a nivel ecológico si a este nivel no guarda correlación con la exposición (aunque sí la guarde a nivel individual).

En estrecha relación con el sesgo de confusión está, en los estudios ecológicos, el problema de la colinealidad, potencialmente presente en cualquier modelo de regresión múltiple. Las exposiciones no son independientes entre sí, sino que suelen estar íntimamente correlacionadas, y generalmente esta correlación es más intensa a nivel ecológico que a nivel individual. Esto hace particularmente difícil separar los efectos de cada una de estas variables sobre la variable dependiente. Por ejemplo, en el ya mencionado estudio de Durkheim, este autor habría encontrado una correlación similar entre la tasa de suicidio y la renta per cápita de las provincias, sencillamente porque la renta per cápita de los protestantes era superior a la de los católicos. Teóricamente, para solucionar este fenómeno, habría bastado con incluir ambas variables en un modelo de regresión múltiple.

Sin embargo, la elevada correlación entre ambas mediciones ecológicas hace que las varianzas de sus correspondientes coeficientes sean muy grandes, lo que conduce a unas estimaciones muy poco precisas y, por consiguiente, a un mal ajuste del modelo. Si, para solventar el problema, se excluye de éste una de las dos variables, se imposibilita la posibilidad de «ajustar» por ella.

Sesgos de clasificación

Al margen de lo ya comentado en relación con la incorrecta medición de las variables ecológicas (algo que siempre debe tenerse en cuenta cuando se trabaja con fuentes secundarias), es destacable el hecho de que, a diferencia de los estudios individuales, en los que una mala clasificación no diferencial de la exposición suele conducir a un sesgo hacia el nulo, en los estudios ecológicos lo más frecuente es justo lo contrario, es decir, una sobreestimación de la fuerza de asociación entre exposición y efecto. Al igual que en los estudios individuales, este sesgo podría corregirse en el análisis si se dispusiera de información sobre la sensibilidad y la especificidad de la medición de la exposición.

Sesgo por ambigüedad temporal

La plausibilidad de que una correlación ecológica entre una exposición y un efecto refleje una verdadera asociación causal requiere que, al igual que es necesario en los estudios de base individual, entre ambas variables ecológicas exista una adecuada secuencia cronológica. Sin embargo, en los estudios ecológicos es difícil establecer dicha secuencia entre la intensidad de exposición y la frecuencia de enfermedad. En ocasiones, el estatus de enfermedad afecta al de exposición, tanto a nivel individual como a nivel de grupos. Una adecuada definición del intervalo temporal entre exposición y efecto es particularmente importante en los estudios analíticos temporales. En ellos es conveniente establecer la correlación temporal entre dos variables (exposición y efecto), previa definición de un intervalo de tiempo, que debería corresponderse con el período de inducción y latencia medio estimado entre esa exposición y ese efecto. No obstante, este intervalo también puede definirse a posteriori, eligiendo, de entre todos los posibles, el que mejor ajuste el modelo que relaciona ambas variables.

Estudios multinivel

En general se trata de diseños en los que, aunque la unidad última de estudio (sobre la que se mide la variable dependiente) es el individuo, las variables de exposición toman valores no sólo para los individuos, sino también para grupos de ellos definidos de antemano por su pertenencia a una o más unidades ecológicas. Por ejemplo, un reciente estudio de Bellón (2007), realizado sobre una cohorte de pacientes para tratar de identificar los factores que incidían en su frecuencia de utilización de las consultas de atención primaria, agrupó dichos factores en tres niveles: los propios de cada paciente (nivel 1), los que dependían del médico (nivel 2) y los propios de cada centro de salud (nivel 3). Es evidente que los niveles 2 y 3 son intrínsecamente ecológicos, pues las variables asociadas con ellos no toman valores individuales, sino para grupos de pacientes (los atendidos por cada médico y en cada centro); así, al margen de considerar cada paciente por separado, éstos quedan agrupados en dos unidades ecológicas (médicos y centros).

Sin embargo, a la hora de incluir, como variables independientes de un único modelo de regresión múltiple, los factores correspondientes a los diferentes niveles, hay que tener en cuenta la falta de independencia de las observaciones procedentes de sujetos pertenecientes a las mismas unidades ecológicas (ej. los pacientes atendidos por el mismo médico se «parecen» más entre sí que con respecto a los atendidos por otros médicos), lo que invalida las estimaciones de las varianzas de los parámetros obtenidos mediante un modelo de regresión múltiple convencional.

Para obviar este problema, surgen los llamados modelos de efectos mixtos, multinivel o de regresión jerárquica. Estos modelos permiten descomponer la variabilidad de la variable dependiente en cada uno de los niveles en los que los individuos están agrupados. Desde hace ya algunos años se dispone de software adecuado para llevar a cabo este análisis (ej. el paquete MLwiN 2.0, o incluso dentro de paquetes estadísticos generales como SPSS, STATA o SAS).

En la planificación de un estudio multinivel, y una vez definidas las unidades ecológicas de interés, pueden adoptarse dos puntos de partida: el primero es muestrear individuos de una población y medir en ellos las variables individuales y las de cada una de las unidades ecológicas a las que pertenecen; el segundo, más eficiente, es plantear desde el principio un diseño multinivel o híbrido (o, siguiendo la nomenclatura empleada en el presente capítulo, un estudio ecológico parcial), en el que se tome inicialmente una muestra de grupos (de los que se pueden obtener variables ecológicas) para después, dentro de cada uno, seleccionar una muestra de individuos y medir en ellos las mismas u otras variables a otros niveles (normalmente tomando como último nivel el individual). Esta estructura de extracción de la muestra se corresponde con el clásico muestreo por conglomerados, utilizado muy frecuentemente en el ámbito sanitario.

Los diseños multinivel son los adecuados para verificar las ya citadas hipótesis contextuales, es decir, aquéllas en las que lo que se desea es investigar el efecto de una variable ecológica sobre un desenlace medido a nivel individual. En este sentido, una situación particular es la que se da cuando un mismo fenómeno puede ejercer, simultáneamente, un efecto independiente a nivel individual y a nivel contextual.

Por ejemplo, podemos admitir que el nivel socioeconómico específico de cada individuo puede influir sobre su estado de salud; pero, además de ello, también podemos asumir que el nivel socioeconómico de la zona en la que reside cada individuo puede influir sobre su estado de salud. Tan sólo un estudio multinivel en el que se incluyan, como variables de un modelo de regresión jerárquica, tanto el nivel socioeconómico de cada sujeto (ej. a través de su ocupación o nivel de ingresos), como un conjunto de variables relativas al nivel socioeconómico medio de las distintas zonas o barrios donde residen los individuos muestreados, permitirá deslindar el efecto separado de ambos niveles.

Un tipo especial de diseño multinivel es el utilizado en los ensayos clínicos aleatorizados en conglomerados, en los que la unidad de asignación aleatoria es el grupo y no el individuo. Por ejemplo, ésta sería la situación en la que, para comparar el efecto de distintas intervenciones encaminadas al abandono del hábito tabáquico, los terapeutas participantes en el estudio (y no sus pacientes fumadores) fueran asignados de forma aleatoria para administrar los distintos tipos de intervenciones. En estos estudios es fundamental identificar y descontar el efecto del grupo, medido a través de diferentes variables ecológicas, de los efectos de otros factores individuales, sobre el abandono del tabaco; así, es muy importante medir cómo influye el nivel de dependencia de un paciente en la probabilidad de abandonar el tabaco, pero también cómo influye el nivel de dependencia del grupo (medido como la media del nivel de dependencia) en ese resultado.

Estudios transversales. Estudios de prevalencia

Conceptos generales

Por definición, un estudio epidemiológico transversal es aquél en el que no hay seguimiento, entendiendo por tal la posibilidad de identificar la secuencia cronológica en la que se suceden los fenómenos medidos a través de las variables del estudio. Puesto que el establecimiento de la secuencia cronológica en la que se suceden exposición y enfermedad es un requisito indispensable para identificar asociaciones causales, es evidente que, al menos en teoría, los estudios transversales no permiten verificar tales hipótesis, y de ahí su inclusión en el apartado de estudios descriptivos. Como se desprende de la definición anterior, la transversalidad o ausencia de seguimiento (y su valor complementario, o sea, la presencia de seguimiento propia de los estudios longitudinales) no son condiciones distintivas de un estudio epidemiológico en particular, sino comunes a muchos de ellos; así, algunos estudios ecológicos, todos los estudios experimentales y de cohortes, muchos estudios de casos y controles y varios diseños mixtos, como los de casos-cohorte o los de casos alternantes o cruzados, son longitudinales; por su parte, otros muchos diseños epidemiológicos, como la mayoría de los estudios ecológicos y de series de casos, buena parte de los estudios de casos y controles y, por supuesto, todos los estudios de prevalencia, son transversales.

En esta sección vamos a centrarnos exclusivamente en describir los elementos básicos del diseño y el análisis de los estudios de prevalencia, uno de cuyos rasgos definitorios es, precisamente, su carácter transversal. De hecho, no es raro que los términos «transversal» y «de prevalencia» aparezcan como sinónimos, fundamentalmente porque la mayoría de las características, ventajas e inconvenientes de los segundos vienen determinadas por su transversalidad. La realidad, sin embargo, es que los estudios de prevalencia son un tipo particular de estudios transversales.

Un estudio de prevalencia es aquel estudio individual (las unidades de estudio son personas) cuyo objetivo es estimar, para un instante de tiempo t, la prevalencia de uno o varios fenómenos relacionados con la salud en una población de referencia definida de antemano. Adicionalmente, el estudio de prevalencia suele valorar la distribución del fenómeno o fenómenos prevalentes en distintos subgrupos definidos dentro de la población de referencia. Por lo demás, muchos estudios de prevalencia también tratan de identificar la fuerza de asociación entre la prevalencia de los fenómenos de interés y otras covariables medidas igualmente en la población de referencia. La utilidad del diseño de un estudio de prevalencia es evidente: conocer la carga de problemas de salud en una población dada, así como en subgrupos definidos dentro de ella, es esencial de cara a priorizar los problemas de salud en las comunidades, a identificar los subgrupos de población más necesitados, así como a evaluar la eficacia de las estrategias de intervención dirigidas a resolver tales necesidades.

Una utilidad adicional de los estudios de prevalencia es la de plantear hipótesis de causalidad a nivel individual, cuya veracidad deberá contrastarse mediante ulteriores estudios longitudinales. Finalmente, en ocasiones se diseñan estudios de prevalencia como un paso previo para la realización de otros estudios; por ejemplo, para identificar los casos prevalentes de una cierta enfermedad a partir de los que construir un estudio de casos y controles con casos prevalentes, o para identificar a los sujetos libres de una cierta enfermedad, pero susceptibles de contraerla en un futuro, al objeto de iniciar con ellos un estudio de cohortes.

Diseño de los estudios de prevalencia

El diseño de un estudio de prevalencia implica la definición de tres elementos esenciales: la población de referencia, el instante de tiempo t en el que se va a efectuar la medición y las variables que cuantifican los fenómenos cuya prevalencia se desea estimar.

Población de referencia o diana

Es la población sobre la que, normalmente por razones de interés sanitario, interesa estimar la prevalencia de uno o más fenómenos y a la que, por lo tanto, desean extrapolarse los resultados del estudio de prevalencia. Puede referirse a la población general de una determinada unidad administrativa o a una fracción de ella seleccionada en función de que presente determinadas características: edad, sexo, estado de salud, lugar de trabajo o residencia, ocupación, centro sanitario de referencia, etc. A partir de ella se definirá la población de muestreo, es decir, aquella fracción de la población de referencia que, en condiciones ideales, reúne dos características: es representativa de la población de referencia y su accesibilidad es elevada, de cara a obtener a partir de ella la información necesaria para realizar el estudio.

A veces, generalmente por su reducido número, se puede plantear el estudio de toda la población de muestreo, pero el elevado número de individuos que la componen normalmente obliga a realizar un muestreo sobre ella (de ahí su nombre), a fin de estudiar tan sólo la muestra de estudio, es decir, aquella fracción de la población de muestreo que, siendo representativa de su totalidad, contiene un número de sujetos suficiente para poder estudiar el fenómeno deseado con una cierta precisión. La obtención de una buena muestra de estudio requiere responder a dos preguntas: ¿cómo se van a extraer los sujetos de la población de muestreo?, y ¿cuál es el número suficiente de sujetos que se debe incluir?

Con respecto a la primera pregunta, la mejor forma de obtener muestras representativas de sus correspondientes poblaciones de muestreo es empleando un procedimiento aleatorio, cuya aplicación sustentará la validez interna y externa del estudio de prevalencia. El muestreo aleatorio puede ser simple o polietápico. En el primer caso se elige al azar a individuos de la totalidad de la población de muestreo, de forma que las únicas unidades muestreadas son los individuos incluidos en ella. Para poder realizar este tipo de muestreo, es imprescindible disponer de la identificación individual de cada uno de los individuos que componen la población de muestreo; es decir, que exista un censo de dicha población, sobre el que realizar el muestreo aleatorio simple.

El muestreo polietápico se basa en que, con mucha frecuencia, la población de muestreo no está censada de antemano, pero sí está repartida en grupos (unidades ecológicas, según la terminología utilizada al hablar de los estudios ecológicos, o unidades primarias, en la terminología del muestreo). Estas unidades, cuyo número es conocido, sí están censadas y adecuadamente identificadas. En esta situación, que es la más simple, es mucho más eficiente hacer un muestreo en dos etapas: en la primera se muestrea, al azar, un cierto número de unidades ecológicas o primarias; en una segunda etapa se muestrea al azar, dentro de cada unidad seleccionada, un cierto número de individuos (unidades finales de muestreo). Por ejemplo, en un estudio de prevalencia de Moreno-Abril (2007) en el que la población de muestreo estaba constituida por 2.913 profesores de enseñanza primaria y secundaria de la ciudad de Granada, la muestra se obtuvo mediante un muestreo en dos etapas: en la primera se obtuvo una muestra aleatoria de centros educativos, y en la segunda, una muestra aleatoria de profesores dentro de cada centro. Este proceso se puede ampliar a más de dos etapas, en función de que los sujetos de la población de muestreo estén agrupados en más de un nivel. La propia estructura del muestreo polietápico permite comprender que la variabilidad del fenómeno de interés tendrá dos componentes: la variabilidad entre grupos de individuos y la variabilidad entre los individuos dentro de cada grupo. Por ello, en este tipo de muestreo, la varianza de los estimadores que se calculen será mayor que la que se obtendría a partir de un muestreo aleatorio simple. Este hecho debe considerarse tanto en el diseño como en el análisis del estudio realizado con un muestreo polietápico.

En la mayoría de estudios de prevalencia no sólo se desea estimar ésta en toda la población de muestreo, sino también en el seno de subgrupos de población (estratos), para los que suponemos que dicha prevalencia puede variar. En esta situación no basta con tomar una muestra de la población general, sino que es preciso tomar una muestra suficientemente grande de cada uno de esos subgrupos o estratos, que deben definirse anticipadamente. Esto da lugar al denominado muestreo estratificado. Dentro de cada estrato, la muestra puede obtenerse mediante un muestreo aleatorio simple o polietápico. Por ejemplo, en el estudio ya citado de Moreno-Abril, el muestreo en la primera etapa (de centros) se realizó previa estratificación de éstos en función de su adscripción (pública o privada), su nivel de enseñanza (primara o secundaria) y el número de profesores (bajo, medio y alto).

Con respecto a la segunda pregunta, el tamaño final de la muestra surge generalmente de un compromiso entre la factibilidad para realizar el estudio con los recursos disponibles y la precisión con la que se desean calcular los estimadores de prevalencia o de asociación definidos de antemano.

Cuanto mayor sea el número de sujetos incluidos en la muestra, mayor será la precisión de las estimaciones, a expensas de un mayor coste del estudio, y viceversa. Existen numerosos programas informáticos (ej. el programa Granmo, diseñado por investigadores del Institut Municipal d’Investigació Mèdica de Barcelona, de distribución gratuita) que, a partir de un conjunto de premisas establecidas por el investigador, permite el cálculo del tamaño muestral.

No vamos a describir las ecuaciones utilizadas para realizar dichos cálculos, pero sí a comentar cuáles son las premisas que el investigador debe fijar. Para la situación más sencilla (estimar la prevalencia de un único fenómeno en una muestra obtenida de una población de muestreo mediante un muestreo aleatorio simple), éstas son cinco: el error a, el tamaño de la población de muestreo, la prevalencia estimada a priori en la población de muestreo, la precisión deseada de la estimación y el volumen estimado de reposiciones. Con respecto al primer factor (1 menos la confianza que se desea que tenga el intervalo), aunque el investigador lo puede modificar a voluntad, es una convención asumida en toda la bibliografía científica tomar un error a de 0,05. En cuanto al tamaño de la población de muestreo, cuanto mayor sea éste, mayor habrá de ser el de su muestra correspondiente.

Sin embargo, a partir de ciertos tamaños poblacionales, usuales en los estudios epidemiológicos, la influencia de este factor sobre el tamaño de la muestra final es muy pequeña, por lo que es frecuente no tenerlo en cuenta (ej. para estimar, manteniendo fijas las restantes premisas, una prevalencia a priori del 20%, la muestra final requerida pasa de 241, si la población de muestreo está compuesta por 10.000 individuos, a 246, para una población de un millón). Por su parte, el tamaño de muestra sí se modifica sustancialmente en función de la prevalencia estimada a priori en la población de muestreo: el tamaño requerido aumenta conforme dicha prevalencia se acerca a 0,5. Por ello, siempre será deseable disponer de un valor para este parámetro. En resumen, se trata de que el investigador tenga una idea aproximada, bien a partir de estudios previos en su población, o bien extrapolando a partir de prevalencias estimadas para otras poblaciones supuestamente comparables, de cuál es el valor de prevalencia que él espera obtener en su muestra. Cuando no se dispone de tal estimación, hay dos soluciones: o bien, para obtener esta estimación a priori, se diseña un estudio piloto a partir de un pequeño número de sujetos de la población de muestreo, o bien se toma aquel valor que, siendo plausible con la información de que se dispone, sea más cercano a 0,5, que es el valor para el que se requiere el máximo tamaño muestral. Pero, sin duda, la premisa que más afecta al tamaño muestral es la precisión deseada de la estimación de prevalencia, es decir, ¿entre qué rango de valores estamos dispuestos a afirmar, con el error a definido de antemano, que se sitúa el valor poblacional de prevalencia que tratamos de estimar?

En la mayoría de programas de cálculo de tamaño muestral, la precisión se fija como una proporción por encima y por debajo del valor estimado. Por ejemplo, para un error a de 0,05, una población de muestreo mayor de 500.000 sujetos, y una prevalencia a priori de 0,5, si la precisión deseada es del 6%, el tamaño muestral requerido será de tan sólo 267 sujetos. Eso quiere decir que, tras medir la prevalencia a partir de esta muestra y obtener un cierto valor P, estamos dispuestos a afirmar, con una probabilidad de equivocarnos no superior al 5%, que el verdadero valor de la prevalencia en la población de muestreo estará situado dentro del rango de valores comprendido entre P ± 0,06. Sin embargo, si queremos ofrecer una estimación más precisa (ej. para un precisión del 1%), el tamaño muestral requerido será de… ¡9.424 sujetos! Por último, el investigador debe tener en cuenta que una parte de la población originalmente seleccionada para ser incluida en la muestra no va a participar en el estudio, bien porque no sea accesible, bien porque, tras contactar con ella, no desee participar (no respondedores). Esto obliga a calcular una fracción de muestreo por exceso, incluyendo, en el cálculo del tamaño muestral, la proporción esperada de reposiciones, es decir, de sujetos que se prevé que no van a poder o querer participar, a fin de poder reemplazarlos por otros. Debe quedar claro que este reemplazo de los sujetos no respondedores solucionará el problema de la menor precisión derivada de estudiar a menos sujetos de los inicialmente prefijados, pero no solucionará el posible sesgo introducido por los no respondedores.

Cuando lo que se desea es detectar diferencias estadísticamente significativas entre dos o más prevalencias estimadas en otros tantos estratos definidos por otra variable (ej. entre hombres y mujeres), las dos premisas esenciales que hay que fijar son los tamaños relativos de los estratos (el tamaño muestral requerido será mayor cuanto más desiguales sean los tamaños de los estratos) y, sobre todo, la mínima diferencia que se desea detectar entre ambas prevalencias (cuanto menor sea ésta, mayor será el tamaño muestral necesario).

Como es fácil imaginar, la validez de un estudio de prevalencia reside, fundamentalmente, en la medida en que la muestra final de sujetos estudiados sea realmente representativa de los sujetos que componen la población de referencia. Ésta es una de las principales diferencias entre los estudios de prevalencia y los estudios transversales en general, en muchos de los cuales no se plantea la necesidad de definir una población de referencia, pues su interés no se centra en extrapolar estimaciones de prevalencia, sino en obtener medidas de asociación para los sujetos incluidos en la muestra estudiada. De hecho, y a diferencia de lo que suele afirmarse para los estudios transversales en general, la factibilidad para llevar a cabo un buen estudio de prevalencia es baja, pues la facilidad de realización derivada de la ausencia de seguimiento suele quedar contrarrestada con creces por la dificultad para obtener una buena muestra de estudio, verdaderamente representativa de la población de referencia, algo que suele constituir el principal reto de los investigadores que abordan la ardua y costosa tarea de llevar a cabo un verdadero estudio de prevalencia.

Así, en muchas ocasiones, y dada la dificultad de este proceso, es habitual el que, una vez seleccionada la muestra de estudio, sean varios, y no uno sólo, los fenómenos cuya prevalencia se plantee estimar. Otra forma de «rentabilizar» un costoso estudio de prevalencia es emplear sus datos para valorar la asociación entre la prevalencia estudiada y otros factores medidos también de forma transversal en el mismo estudio. No obstante, para este objetivo adicional, el estudio puede ser poco potente, ya que el tamaño de muestra fue calculado para estimar una prevalencia, y no para detectar una asociación con suficiente potencia.

Instante del tiempo t

En teoría se trata del instante en el que se va a medir la prevalencia de los fenómenos de interés en la muestra del estudio. La característica fundamental de este instante es que, una vez definida la escala temporal que se va a tomar como referencia para realizar el estudio, dicho instante t debe ser simultáneo para todos los sujetos estudiados. Habitualmente, la escala temporal utilizada es el tiempo de calendario. En este caso, t se refiere a una fecha del almanaque. Evidentemente, en la práctica nunca se puede recoger de forma simultánea toda la información para todos los sujetos de una muestra de estudio de prevalencia (no es factible).

Por eso, una solución puede ser referir la información a un momento concreto del tiempo, aunque se tarde semanas o meses en recabar la información de todos los sujetos (el caso más típico es el del Censo, para el que se define el llamado momento censal: el 1 de noviembre, para el censo de 2001).

Con mucha más frecuencia, no es preciso definir con tanta exactitud t; basta con situarlo en un período de tiempo más o menos amplio (en una determinada semana, mes o año); podríamos decir en este caso que t se trata en realidad de un cuasi-instante, en relación con un período de tiempo mucho más prolongado, asumiendo que las variaciones temporales que pudieran darse en la prevalencia del fenómeno estudiado dentro de ese cuasi-instante no son epidemiológicamente relevantes. Por ejemplo, los estudios de prevalencia derivados de las Encuestas Nacionales de Salud (ENS) se refieren a cuasi-instantes de un año de duración. Así, por ejemplo, según la ENS de 2006, la prevalencia de referir un buen estado de salud por parte de la población española era de un 68,8%, en 2006.

En otras ocasiones, la escala temporal no se refiere al tiempo de calendario, sino que se mide en relación con otra variable temporal. Por ejemplo, cuando se mide la prevalencia de criptorquidia al nacimiento, la escala temporal viene referida a la edad de los sujetos, y en este caso, el instante t (igual a 0 en este ejemplo) sigue siendo simultáneo para todos los sujetos con respecto a esta escala, aunque obviamente no es así en relación con el tiempo de calendario (cada niño nace en una fecha concreta). Otro ejemplo sería el estudio de la prevalencia de infección nosocomial a la semana del ingreso en el hospital. En este caso, el instante t (igual a 7) es simultáneo para todos los sujetos del estudio en la escala temporal definida por los días desde el ingreso.

No obstante, independientemente de que se utilice o no una escala temporal distinta al tiempo de calendario, siempre será necesario definir un período de estudio, entendiendo como tal aquel período, medido en tiempo de calendario, que incluye los t i de todos y cada uno de los sujetos participantes y que es, por lo tanto, el período de referencia del estudio. Por ejemplo, podemos medir la prevalencia de criptorquidia al nacimiento en Granada durante el período comprendido entre 2003 y 2006. La amplitud de este período de estudio depende, entre otras cosas, del tamaño muestral necesario para realizar una estimación suficientemente precisa. La estimación de prevalencia de criptorquidia en Granada a partir de los nacimientos contabilizados en una semana no será muy fiable (en una semana, el número de varones nacidos en Granada es pequeño), mientras que en 4 años puede que sí lo sea. Pero además, es importante tener en cuenta que los períodos de estudio sean, en la medida de lo posible, estandarizables, permitiendo la comparabilidad de los resultados con los de otros estudios que consideren períodos similares. Finalmente, es deseable que los períodos de estudio sean lo suficientemente estrechos como para que no se vean afectados por tendencias seculares. Decir que la prevalencia de criptorquidias al nacimiento en los últimos 40 años es del 2% es un dato muy poco informativo, pues probablemente durante ese amplio período la prevalencia habrá sufrido cambios.

No se debe confundir el período de estudio con el período de recogida de la información; este último se refiere simplemente al período dedicado a recoger los datos necesarios para realizar el estudio. En los estudios concurrentes ambos períodos coinciden, pero esto no es así en los estudios retrospectivos, basados en fuentes de información secundarias.

El que el instante (o cuasi-instante) t sea, en la medida de lo posible, simultáneo para todos los sujetos incluidos en la muestra de un estudio de prevalencia es, precisamente, una de las características que diferencian a este estudio de los restantes diseños transversales. Así, por ejemplo, en una serie de casos transversal o en un estudio de casos y controles transversal, cada sujeto es valorado en un instante de tiempo, pero no tiene por qué haber una escala temporal de referencia con respecto a la que todos esos instantes sean simultáneos.

Variables de estudio

En todo estudio de prevalencia hay dos grupos de variables que deben tenerse en cuenta: las que cuantifican los fenómenos para los que se desea estimar la prevalencia y las que se utilizan para estratificar a la población en subgrupos, a la hora de analizar cómo se distribuyen las prevalencias en función de cada uno de ellos. Por ejemplo, en el ya citado estudio de Moreno-Abril, se deseaba valorar la existencia de diferencias en la prevalencia de morbilidad psiquiátrica, medida a través de cuestionario GHQ-28, entre subgrupos de profesores definidos de acuerdo con sus características sociodemográficas, sus condiciones laborales y sus rasgos de personalidad.

En la mayoría de estudios de prevalencia, el objetivo es cuantificar la prevalencia de fenómenos que a priori se cree que suponen un problema relevante en el seno de una población de referencia. Por ello, este tipo de estudios habitualmente se suele aplicar a enfermedades u otros fenómenos que, bien por su elevada incidencia o su prolongada duración (los dos determinantes de la prevalencia) son frecuentes en el seno de la población. De hecho, el criterio fundamental para seleccionar a la población de referencia es que la prevalencia del fenómeno esperada en ella sea elevada (ej. no tiene sentido diseñar un estudio para estimar la prevalencia de la enfermedad de Alzheimer en menores de 55 años). Por otra parte, es conveniente, aunque parezca una obviedad, resaltar la necesidad de que los fenómenos candidatos a ser estudiados mediante un diseño de prevalencia deben ser los llamados fenómenos prevalentes, entendiendo por tales las características que permanecen en los sujetos durante un período de tiempo (ej. la condición de fumador es un fenómeno prevalente, porque normalmente los sujetos se mantienen como fumadores durante un lapso de tiempo más o menos prolongado).

Los fenómenos intrínsecamente incidentes en principio no podrían medirse mediante un estudio de prevalencia, puesto que un fenómeno incidente ocurre en un instante y no permanece como tal en un sujeto durante un período de tiempo. Así, no tiene sentido tratar de medir, por ejemplo, la prevalencia de accidentes de tráfico en un instante de tiempo determinado, pues su valor siempre tenderá a ser 0. En este sentido, la situación extrema es, evidentemente, la mortalidad, para la que sólo es posible estimar su incidencia, pero nunca su prevalencia. Con respecto a las enfermedades, éstas pueden considerarse en su mayoría bajo una doble perspectiva: como fenómenos incidentes (cuando lo que se valora es el instante en el que la persona pasa del estatus de sano al de enfermo), o como fenómenos prevalentes (en la medida en la que la persona, una vez enferma, permanece como tal durante un cierto período de tiempo).

No obstante, hay enfermedades en las que predomina una de las dos perspectivas: por ejemplo, las enfermedades que tienen un comienzo insidioso y una duración muy prolongada (como la enfermedad de Alzheimer o la depresión) suelen ser estudiadas con más frecuencia como fenómenos prevalentes, pues es difícil identificar en qué instante se produce el cambio de estatus de sano a enfermo. Por su parte, procesos de inicio agudo y corta duración (ej. una gastroenteritis o un catarro) difícilmente podrán valorarse a partir de un estudio de prevalencia, pues son enfermedades predominantemente incidentes. No obstante, sí podrían incluirse en otros diseños transversales (ej. en una serie de casos en la que cada uno es evaluado de forma transversal en un instante ti —lógicamente no simultáneo para todos los sujetos de la serie—, que está situado dentro del corto período en el que la enfermedad está presente en cada sujeto enfermo). Igual ocurre con ciertas enfermedades crónicas altamente letales, como algunos cánceres, o de rápida resolución, como el infarto de miocardio.

Cuando se trabaja con fenómenos predominantemente incidentes, como algunos de los ejemplos que se acaban de referir, una alternativa es medir, en el instante t definido de antemano, la prevalencia de sujetos que han sufrido el fenómeno bajo estudio en un período de longitud definida (generalmente uno o varios años), que termina en el instante t. Esto no es más que una versión particular de la llamada prevalencia de período, descrita en el capítulo de medidas de frecuencia.

Así, en la ENS-2006 se estima, como prevalencias de período, la proporción de sujetos que refieren haber sufrido al menos un accidente doméstico o la de los que han acudido alguna vez al médico en el año anterior a la encuesta.

Al igual que en cualquier otro estudio epidemiológico, una vez que se establecen los fenómenos cuya prevalencia se desea medir, y teniendo en cuenta los instrumentos de medida disponibles para ello, es esencial proporcionar, para cada fenómeno, una definición acorde con los criterios científicos aceptados hasta la fecha. Esto permitirá la comparabilidad de las estimaciones de prevalencia aportadas por el estudio, en relación con la de estudios precedentes o sucesivos.

Los estudios de prevalencia pueden realizarse de forma concurrente, utilizando fuentes de información primarias, o bien de manera retrospectiva, a partir de fuentes secundarias. Por ejemplo, suponiendo que la información necesaria esté disponible en las historias clínicas de los pacientes ingresados en un hospital, bastaría revisarlas para estimar la prevalencia de infección nosocomial para diferentes instantes de tiempo tras el ingreso, a lo largo de cualquier período de tiempo previo. En caso de que la información no esté disponible de forma retrospectiva, será necesario realizar un estudio concurrente para obtenerla. La encuesta es el instrumento usual para realizar estudios de prevalencia. En España, al igual que en otros países desarrollados, se realizan de forma periódica algunas encuestas que aportan estimaciones de prevalencia para múltiples fenómenos relacionados con la salud. El principal ejemplo lo constituyen, por supuesto, las ENS, pero también hay otras, como las encuestas domiciliarias o a población escolar sobre consumo de drogas, o la Encuesta sobre Discapacidades.

Análisis de los estudios de prevalencia

El análisis de un estudio de prevalencia consta de dos fases: la estimación de las medidas de prevalencia y la estimación de medidas de asociación, basadas en la comparación de dos o más prevalencias. Las medidas de prevalencia se han estudiado en detalle en el capítulo dedicado a las medidas de frecuencia en epidemiología. Baste recordar aquí que, en relación con las variables dicotómicas, una prevalencia se puede expresar como una proporción de prevalencia (PP), es decir, sujetos que presentan el fenómeno de interés en el instante t, en relación con la población total de sujetos en ese mismo instante; o bien como una odds de prevalencia (OP), es decir, sujetos que presentan el fenómeno de interés en el instante t, en relación con los sujetos que no lo presentan. Puede comprobarse cómo los valores de proporción y odds de prevalencia se van haciendo cada vez más parecidos conforme disminuye la prevalencia del fenómeno, siendo prácticamente equivalentes para una PP menor de 0,10 (a este valor le corresponde una OP de 0,11).

Es importante tener en cuenta, no obstante, que en los estudios en los que la muestra se ha obtenido mediante un muestreo polietápico (en caso de que la muestra obtenida en cada grupo no haya sido proporcional al tamaño de éste), o estratificado, la estimación de la prevalencia para la muestra total requiere que cada observación sea ponderada por el inverso de la probabilidad de ser seleccionado que se le ha asignado en el proceso de muestreo. Como cualquier otro parámetro epidemiológico, la estimación puntual de una prevalencia obtenida a partir de una muestra debe ir acompañada de su correspondiente intervalo de confianza, construido generalmente al 5% de error. Todos los paquetes epidemiológicos convencionales ofrecen el cálculo de este intervalo, conocido el valor puntual y el tamaño de la muestra. Por último, como ya se comentó anteriormente, las estimaciones de prevalencia obtenidas para la muestra total se suelen estratificar para diferentes subgrupos de población definidos en función de otras variables, obteniéndose estimaciones menos precisas para cada uno de los estratos.

Con respecto a las medidas de asociación, se basan en la comparación de las prevalencias obtenidas en dos o más estratos definidos por una segunda variable. En el caso más sencillo de comparación de dos prevalencias calculadas para las dos categorías (0 y 1) de una variable dicotómica, esta comparación puede realizarse de forma absoluta (midiendo la diferencia entre ambos valores) o relativa (calculando su cociente). Con respecto a este último, podemos obtener o bien razones de proporciones de prevalencias (RPP), o bien razones de odds de prevalencias (ROP). Ambas pueden oscilar entre 0 e infinito. En ambos casos, un valor de 1 indica la ausencia de asociación entre ambas variables (la prevalencia es igual en los dos estratos). Por eso al 1 se le llama el valor nulo de la RPP y de la ROP. Existe una ecuación que relaciona ambas razones de prevalencias:

OP1 / OP0 = ROP = RPP [(1 – PP0) / (1 – PP1)] [1]

donde OP1 y OP0 son las odds de prevalencia obtenidas en cada uno de los dos estratos de la variable de estratificación (ej. en hombres y mujeres), y PP1 y PP0 son los correspondientes valores de proporciones de prevalencias. A partir de esta ecuación, se comprueba que ROP y RPP sólo coincidirán, con un valor igual al nulo, cuando la prevalencia sea igual en ambos estratos. Por el contrario, siempre que PP difiera entre ambos estratos, el valor de ROP se alejará más de 1 que su correspondiente valor de RPP. Por ejemplo, si PP1 es mayor que PP0 , ROP será mayor que RPP. La situación contraria se dará cuando PP1 sea menor que PP0 . No obstante, si la prevalencia en ambos grupos es pequeña, el cociente (1 – PP0)/(1 – PP1) será prácticamente igual a 1 y entonces ROP y RPP serán aproximadamente iguales. Al igual que ocurría con las medidas de frecuencia, también se pueden construir intervalos de confianza para cualquiera de las medidas de asociación que acabamos de describir. De igual forma, existen test para contrastar la significación estadística de las diferencias entre dos o más prevalencias, para un error a prefijado.

Al igual que en otros diseños epidemiológicos, en los estudios de prevalencia también es frecuente utilizar modelos de regresión múltiple, en los que la variable dependiente es la presencia o no del fenómeno bajo estudio, para obtener una estimación de fuerza de asociación con respecto a una cierta variable, ajustada por el efecto de las restantes variables independientes incluidas en el modelo. Para este propósito, es frecuente el empleo de la regresión logística, que permite obtener estimaciones ajustadas de ROP.

A la hora de interpretar las diferencias en las estimaciones de prevalencia de una enfermedad observadas entre dos o más subgrupos de personas, hay que tener siempre en cuenta que la magnitud de una prevalencia es el resultado de dos factores: la incidencia de la enfermedad y su duración.

En una situación estable, si el volumen y características de la población no se modifican a lo largo del tiempo y en ausencia de migración, la ecuación que relaciona la prevalencia con la incidencia es la siguiente:

$$OP = DI \times T$$ [2]

donde OP es la odds de prevalencia, DI es la densidad de incidencia y T es la duración media de la enfermedad. Por ello, si la prevalencia de una enfermedad en un subgrupo de la población es mayor que en otros, puede deberse a dos fenómenos completamente diferentes: que el riesgo de enfermar en ese subgrupo sea mayor, o que la duración de la enfermedad en ese subgrupo sea mayor. Por desgracia, el carácter transversal de los estudios de prevalencia impide deslindar el efecto de ambos factores.

En ciertas ocasiones se puede diseñar un estudio de prevalencia para tratar de verificar hipótesis causales; por ejemplo, cuando no es posible estimar la incidencia de un fenómeno, bien porque su inicio es muy insidioso y no puede precisarse con facilidad, o bien porque la identificación de los casos sólo puede realizarse en una subcohorte, evaluada en un instante t, de la cohorte total que los ha generado. El ejemplo más típico de esta segunda situación es la identificación de los factores de riesgo de malformaciones congénitas detectadas tras el nacimiento: no es posible disponer de toda la cohorte de embriones concebidos, sino tan sólo de aquellos que han nacido, en los que se mide la prevalencia (llamada prevalencia selectiva, porque se mide en una subcohorte) de malformaciones congénitas. Para poder utilizar un diseño de prevalencia en la verificación de hipótesis causales, se deben cumplir tres condiciones:

  1. Que se pueda medir la exposición con carácter retrospectivo o que la exposición medida en el instante t i sea un fiel reflejo de la exposición pasada.
  2. Que la exposición no esté relacionada con la duración de la enfermedad, ni con el riesgo de pérdidas a lo largo del tiempo.
  3. Que el volumen y las características de las poblaciones expuesta y no expuesta permanezcan estables a lo largo del tiempo.

En esta situación, y siempre que la medida de fuerza de asociación que se hubiera deseado estimar en el hipotético estudio de cohortes correspondiente hubiera sido la razón de densidades de incidencia (RDI), la medida de fuerza de asociación aconsejable es la ROP, pues, de acuerdo con la ecuación [2]:

ROP = OP1 / OP0 = DI1 T1 / DI0 T0

donde OP1 y OP0 son las odds de prevalencia de los expuestos y no expuestos al factor de riesgo, respectivamente. Si, de acuerdo con el segundo requisito, la duración media de la enfermedad es igual en expuestos y no expuestos, T1 / T0 = 1, de donde se desprende que ROP = RDI. Sin embargo, como se vio a partir de la ecuación [1], la RPP no es un buen estimador de la RDI, pues tiende a aproximarse al valor nulo con respecto a su correspondiente valor de ROP.

Limitaciones y sesgos de los estudios de prevalencia

Los problemas de los estudios de prevalencia dependen de dos grupos de factores: los inherentes a las características de su diseño y los que dependen de la dificultad para llevarlos a cabo. Vamos a estudiarlos por separado.

Problemas inherentes a las características del diseño

Indudablemente, el principal problema de los estudios de prevalencia deriva de su transversalidad, que conduce a la ambigüedad temporal a la hora de establecer la secuencia cronológica en la que se suceden los fenómenos estudiados. Así, por ejemplo, la mayor prevalencia de enfermedad de Alzheimer observada entre los sujetos con depresión podría interpretarse causalmente en las dos direcciones: o bien la depresión es un factor de riesgo de la enfermedad de Alzheimer, o bien el padecimiento de esta última es un factor de riesgo para el desarrollo de depresión. Una forma de atenuar esta limitación es, si se puede, recabar información temporal sobre las variables del estudio, y no sólo medir su magnitud en un punto del tiempo. En el ejemplo anterior, la información sobre la fecha del primer diagnóstico de ambas entidades hubiera permitido dar mayor crédito a una de las hipótesis anteriores sobre la otra.

Un segundo problema intrínsecamente ligado a la transversalidad es la falta de representatividad de los casos detectados. Cuanto mayor sea la duración del fenómeno bajo estudio, mayor es la probabilidad de detectarlo en un estudio transversal. De este modo, si una enfermedad puede tener una duración variable (desde ser rápidamente fatal hasta prolongarse de forma crónica durante años), un estudio de prevalencia tenderá a sobreestimar la magnitud de los casos de mayor duración sobre los que se resuelven en poco tiempo (que por durar tan poco se «escapan»). Por lo tanto, los casos finalmente detectados en el estudio (los casos prevalentes) no son representativos de todos los casos incidentes en la población de referencia. Cuando un estudio de prevalencia (o de casos y controles con casos prevalentes) se utiliza incorrectamente para identificar factores de riesgo, este problema da lugar a la llamada falacia de Neyman: el error que se comete al identificar como factor de riesgo una exposición que realmente (o al menos en parte) es un factor pronóstico (todo o parte del exceso observado en la prevalencia de la enfermedad en los sujetos expuestos a ese factor no se debe a su efecto sobre la incidencia, sino sobre la duración de la enfermedad). Finalmente, y por las razones ya comentadas con anterioridad, los estudios de prevalencia no son útiles cuando los fenómenos de interés no son prevalentes, es decir, son cuasi-instantáneos (ej. accidentes) o de corta duración (ej. un catarro).

Problemas inherentes a la dificultad para llevar a cabo un estudio de prevalencia

Como ya se ha referido, el principal problema es la dificultad para obtener una muestra que sea verdaderamente representativa de la población de referencia para la que interesa obtener estimaciones de prevalencia. Se trata de un sesgo de selección que puede plantearse a varios niveles:

  1. Porque la población de muestreo no sea representativa de la población de referencia. Si se desea estimar la prevalencia de un fenómeno en la población de una ciudad mediante una encuesta telefónica, es evidente que la población de muestreo (los residentes en la ciudad que tengan un teléfono fijo cuyo número figure en la guía telefónica de esa ciudad) no tiene por qué ser representativa de la población de referencia (todos los residentes de la ciudad), entre la que se incluye también los sujetos sin teléfono, los sujetos que sólo disponen de móvil y aquéllos con teléfono cuyo número no figura en la guía.
  2. Porque parte de la población de muestreo, que teóricamente se consideraba accesible para realizar sobre ella el estudio, no sea realmente accesible. Siguiendo con el ejemplo anterior, es fácil imaginar que una parte de los sujetos con teléfono cuyo número figure en la guía y que son seleccionados para ser incluidos en la muestra final del estudio, no van a contestar al teléfono, a pesar de hacerles varias llamadas (ej. porque están ausentes de sus domicilios con mucha frecuencia).
  3. Porque se ha aplicado una técnica de muestreo incorrecta (ej. de forma no aleatoria).
  4. Quizá el problema más importante (y por desgracia el más frecuente) sea el rechazo de parte de la población finalmente seleccionada para la muestra de estudio a participar en éste. En el ejemplo anterior, seguramente una proporción no desdeñable de sujetos, tras contestar a la llamada telefónica y conocer su propósito, rehúsen responder al cuestionario.

El resultado de la conjunción de los fenómenos antes citados es que una parte de la población de referencia no puede ser incluida en la muestra final de estudio (en el ejemplo anterior, se trataría de sujetos sin teléfono, los que sólo tienen móvil, los que tienen teléfono fijo pero cuyo número no figura en la guía, una parte de los que están con frecuencia ausentes de su domicilio, los que, por una técnica de muestreo incorrecta, no han podido ser muestreados y los que han rechazado participar en el estudio. Ante esta situación, el investigador ha de plantearse dos cuestiones: ¿cuántos son?, y ¿es posible que sus características estén relacionadas con los fenómenos cuya prevalencia se trata de medir en el estudio? La respuesta a la segunda pregunta no es fácil; se basa en un ejercicio de razonamiento por parte del investigador, apoyado, si es posible, en alguna evidencia empírica.

Por ejemplo, si se dispone de información adicional sobre algunas características de los sujetos no participantes y se comprueba que su distribución en ellos es similar a la de los que sí han participado, se tendría un argumento a favor de la no existencia de un sesgo de selección importante debido a esta causa. De forma muy simplificada, la respuesta simultánea a las dos preguntas antes formuladas puede conducir a cuatro situaciones patrón:

  1. El volumen de pérdidas es pequeño (normalmente se entiende por tal valores <5% sobre la muestra original) y hay razones para pensar que no son diferenciales con respecto a los fenómenos de interés. Aunque infrecuente, ésta es la situación ideal.
  2. El volumen de pérdidas es grande (ej. >20%), pero no hay razones para pensar que son diferenciales con respecto a los fenómenos de interés. En esta situación, y a la hora de valorar la posibilidad de extrapolar los resultados del estudio, es esencial la validez de los argumentos esgrimibles por el investigador en relación con el hecho de que los sujetos no incluidos en el estudio no difieren sustancialmente de los que sí han participado.
  3. El volumen de pérdidas es pequeño, pero hay razones para pensar que los sujetos perdidos son diferentes con respecto a los incluidos en el estudio, con respecto a alguna de las variables potencialmente relacionadas con los fenómenos cuya prevalencia se desea estimar. A pesar de ello, el investigador puede argumentar que este sesgo no tiene por qué afectar a las estimaciones globales de prevalencia, puesto que el volumen de pérdidas es pequeño. Por otra parte, también puede, en función de que conozca o suponga cuáles son las características diferenciales de los sujetos perdidos, plantear alguna hipótesis sobre cuál es el sentido del sesgo introducido por estas pérdidas en la estimación de la prevalencia (si la sobreestiman o la subestiman).
  4. El volumen de pérdidas es grande y, además, se supone que los sujetos perdidos son diferentes a los incluidos en el estudio. En esta situación, que desgraciadamente es bastante frecuente, las estimaciones de prevalencia no tienen valor alguno.

Al margen de los sesgos de selección antes descritos, los estudios de prevalencia pueden verse afectados por los mismos errores propios de cualquier otro estudio epidemiológico: falta de precisión por un insuficiente tamaño muestral, errores de clasificación, por una incorrecta medición de las variables del estudio (particularmente si se emplean fuentes de información secundarias) y sesgos de confusión (especialmente relevantes cuando estos estudios se aplican con el objetivo de verificar hipótesis causales).

Anterior
Siguiente