martes, 8 de septiembre de 2009

Environmental Impact Assessment: "Pseudoreplication" in Time?

Environmental Impact Assessment: "Pseudoreplication" in Time?Author(s): Allan Stewart-Oaten, William W. Murdoch, Keith R. ParkerSource: Ecology, Vol. 67, No. 4 (Aug., 1986), pp. 929-940Published by: Ecological Society of America

El artículo toma se basa en un trabajo de Hulbert de 1984, sobre “diseño óptimo del impacto” y su “pseudoreplicación temporal” para presentar un procedimiento de medición del impacto ecológico que puede resolver el problema estadístico en diferentes situaciones.
Se basa en el caso de Green donde una fuente contaminante vierte sus efluentes en un curso de agua, y analiza el efecto sobre las especies aguas arriba y abajo, antes y después de la aplicación de algún tipo de control. Las conclusiones preliminares son:
1) ANOVA no es válido como método de inferencia porque a) sólo demuestra diferencia según “locations” (aguas arriba y abajo), b) el experimento solo puede ser controlado subjetivamente o aproximadamente, c) no puede mensurarse impacto en términos temporales, se estima que los condiciones se mantienen constantes, cuando en realidad es esperable que la magnitud del daño varíe en el tiempo.
2) Para Hulbert, el método de Green no puede corregirse por repetición de observaciones porque los muestreos sucesivos están indudablemente correlacionados entre si.
3) Para Hulbert, para optimizar el método de Green, habría que llevar gráficos y tablas, que indiquen los valores promedio y la variabilidad de los datos.
NOTA: Green y Hulbert se basan en la medición de la variación de la abudancia de una especie debida al efecto de una fuente contaminante
Para los autores, una forma de corregir estos “defectos” del método Green que indica Hulbert es medir las áreas de Impacto y Control simultáneamente, e indicando como resultado en cada caso la diferencia entre ambas mediciones.
LA POBLACION Y PARÁMETROS ESTADISTICOS EN CUESTION
Los estudios de impacto ambiental requieren la selección de un set de sitios representativos y de la elección “randomizada” de losque estarán afectados por la fuente y cuáles por el programa de control. Pero la cuestión del impacto propiamente dicho no necesita de esta distinción. Para ilustrarlo, incluyen gráficos que ilustran la constancia (o NO) de los niveles de abundancia la espcie X en una zona de impacto y otra de control, antes y después del start up de la fuente contaminante. La conclusión al respecto, es que deben considerar el caso de agentes externos, algunos sistemáticos (ej. Estaciones) y otros aleatorios, que dependiendo de sus características y dimensiones puede afectar de manera similar, o NO. Por lo tanto el dato a observar en cada caso es la variación en la diferencia relativa entre ambas áreas.
En este punto aclaran el concepto “densidad de población promedio”. Indican que el set de factores detectados, aleatorios o sistemáticos, constituyen un proceso de “producción de abundancia” cuyo resultado es la secuencia de producción de abundancia a lo largo del tiempo. Como los factores sistemáticos del proceso podrían “fijarse” a los efectos experimentales, señalan que los aleatorios son los que constituyen “distribución probabilística” de las diferentes secuencias de abundancia posibles, por lo tanto los factores sistemáticos constituyen los “parámetros de ésta distribución probabilística". Por eso es importante la medición de las diferencias relativas entre las curvas promedio de abundancia de las áreas de control e impacto, y en esto radica el error del método de Green (que en realidad consideraba las diferencias entre las mediciones específicas).
UNA PROPUESTA DE SOLUCION
Método BACI (Before, Alter, Control, Impact): evaluar si las diferencias entre los promedios de abundancia de las áreas de impacto y control varían con el Start up de la fuente. Cada observación Xijk, para un momento tij, en un determinado período i y sitio k . Se busca comparar los períodos antes y después, a través de t test y U test para la diferencia el promedio de las diferencias de curvas antes y después.
Constancia de las diferencias (abundancia promedio en áreas de impacto y control): aditividad de los efectos de tiempo y locación.
En uno de los gráficos se muestra cómo las diferencias entre las curvas de medios se da en un sentido de escala, las dos están afectadas por aspectos físicos y otros (ej. Estacionales) con un efecto multiplicativo, no aditivo. La diferencia varía cíclicamente. El enfoque aditivo podría resultar en dos consecuencias: Si las mediciones son matcheadas correlativamente, el efecto produciría un test más “débil” o conservador. Si por el contrario, las mediciones no se matchean correctamente, los períodos con grandes diferencias, podrían llevar a conclusiones erróneas. Esto puede al menos minimizarse si las mediciones se realizan en ambas curvas en la escala correcta (Ej. Utilizando el logaritmo de la función de abundancia). Tukey (1949) demuestra la eficacia de este método en su test de no aditividad de “un grado de libertad”. Otra forma de aproximación es considerar transformaciones Y= (X + c)λ (Box y Cox, 1964) asumiendo que Y tiene una distribución normal y aditiva para el correcto c y λ, y propone estimar c y λ a partir de la máxima similitud. Sin embargo la transformación que resulta en una Y aditiva, no tiene una distribución normal. Por lo tanto, los autores recomiendan el procedimiento de Andrews (1971), en donde c y λ son elegidos para minimizar la significancia del test de aditividad de Y. Exponen su aplicación a un ejemplo específico.
En el segundo caso analizado, las curvas promedios de abundancia cambian entre sí progresivamente, aún sin la aparición de la fuente. Más allá de que los test utilizados admitan o no este cambio, pareciera no ser posible detectar la aparición de la fuente en los resultados medidos y este caso no hay lugar para la transformación anterior.
El tercer problema en el concepto de la no aditividad es el problema de la covarianza.
Éste debe analizarse cuando las dos areas (Impacto y Control) que no necesitan ser idénticas, no cumplen con: a) variaciones de curvas entre las áreas, según una constante antes de la aparición de la fuente y b) los efectos regulares (Ej. Estacionales) o a largo plazo coincidentes
Cualquier transformación debe ser considerarse previo a la aparición de la fuente, para poder independizarlo.
Independencia de las “réplicas” temporales
Si una observación en un momento tij, , en un lugar k es Xijk, es igual al valor de la curva promedio + su desviación (Xijk, = μijk + Eijk ) y si μ es aditivo, al menos aproximadamente (μij1 + μij2 = μi ), y constante durante el perídodo i (antes o después de la fuente), la transformación de las diferencias D verifica: Dij = Xij1 - Xij2 = μi + E ij1 - E ij2 (E son errores con promedio 0, siendo que los μ son el promedio de las Xs). Para comparar ambas diferencias en el test necesitamos que los que los errores δ ij = E ij1 - E ij2 sean independientes. Considerar que NO necesariamente las muestras no están correclacionadas, para que las diferencias lo estén. Los errores se componen de dos factores (E ijk = u ijk + v ijk ) errores de muestreo y de proceso. Los primeros suelen ser independientes en casi todos los análisis. Si los de proceso no son independientes a lo largo del tiempo, pero son idénticos en las dos locaciones, sí lo son las diferencias relativas entre áreas a lo largo del tiempo.
No es realista asumir errores de proceso idénticos entre las dos áreas, pero es posible llegar a idénticos resultados a través de otros supuestos. De los efectos aleatorios posibles, son aquellos de gran escala, alcance local y de larga duración aquellos que pueden afectar el supuesto de independencia. Esto puede ser demostrado por el modelo “Markoviano” (ver fórmula) que . A partir del desarrollo de esta ecuación y las anteriores demuestra como la correlación (= convarianza/ varianza) entre las diferencias de distintos períodos es pequeña si las perturbaciones pequeñas, y los efectos de corto plazo y la correlación entre áreas son importantes.
La independencia o baja correlación es posible solo si no se dan efectos aleatorios de gran escala, locales y de largo plazo. Los autores indican distintos métodos para medir este supuesto vs. los datos obtenidos.
Bajo los supuestos de “aditividad” e “independencia”, sugieren usar los t y U test para decidir si la fuente contaminante tiene efecto alguno. Los resultados contradictorios o estadísticos de límite deberían ser chequeados vs. observaciones adicionales. Idem la posible correlación serial.
Interpretando los resultados del test
Si las transformaciones realizadas resultaron en diferencias constantes entre las curvas y las observaciones son independientes, un resultado del test estadísticamente significativo puede ser casual o debido a un cambio (antes o después) en la diferencia promedio entre locaciones. Pero según la proposición anterior de Hulbert, no puede asegurarse que esto se deba a la aparición de la planta, cuando se analiza el período posterior. En este sentido, la abundancia en al área de impacto, antes y después del mismo, es la única población de interés. El área de control no representa una población de interés pero es útil para distinguir entre los efectos del tratamiento y aquellos temporales. Además, las secuencias de muestreo no deben ser elegidas aleatoriamente, a fin de evitar la correlación serial y maximizar la utilidad de información (ej. Estación en la que abunda la especie objetivo).
Si, además del start up de la fuente, se diera un efecto impredecible, de gran escala y a largo plazo, sería muy difícil detectarlo directamente de las observaciones, al igual que su grado de probabilidad. Por eso siempre deben ser considerados tanto el efecto posible de la fuente como cualquier otra causa de los resultados obtenidos. Esto sobre todo se da en los estudios “randomizados” porque los resultados pueden darse no solo por el tratamiento sino también por la forma en que éste es administrado. En tales casos, debe considerarse los efectos posibles de cada una de estas formas de administración posibles.
Predicciones, gráficos y tablas
El objetivo de las técnicas estadísticas puede clasificarse en:
a) “análisis exploratorio de los datos” (Tukey 1977), orientadas a revelar patrones y regularidades en pos de la hipótesis, sin que aquellos deban ser clasificados en sistemáticos o casuales, sin que se pueda garantizar la garantía de las conclusiones.
b) “análisis confirmatorio de los datos”, de este tipo son los estudios de impacto. Hay una clara definición de la hipótesis que debe ser resuelta “cuantitivamente”, principalmente porque debe ser fundamento del análisis costo/ beneficio de la solución propuesta.
En estos casos los gráficos y tablas son sólo complementarios a las conclusiones a obtener directamente de los datos. Generalmente, las conclusiones derivadas de aquellos requiere de los mismos supuestos de los procedimientos inferenciales (independencia, no aditividad, causas adicionales de error, etc.) además de considerar cuestiones de presentación y armado de los mismos. Su objetivo es por lo general demostrar la significancia “física” más que estadística de las observaciones.

Bibliografía principal citada
- Hurlbert, S. H. 1984. Pseudoreplication and the design of ecological field experiments. Ecological Monographs 54: 187-211.
- Green, R. H. 1979. Sampling design and statistical methods for environmental biologists. Wiley, New York, New York, USA.
- Andrews, D. F. 1971. A note on the selection of data trans- formations. Biometrika 58:249-254. - Box, G. E. P., and D. R. Cox. 1964. An analysis of trans- formations. Journal of the Royal Statistical Society (Lon- don), Series B 26:211-252.
- Tukey, J. W. 1949. One degree of freedom for non-additiv- ity. Biometrics 5:232-242


Environmental Impact Assessment: "Pseudoreplication" in Time?Author(s): Allan Stewart-Oaten, William W. Murdoch, Keith R. ParkerSource: Ecology, Vol. 67, No. 4 (Aug., 1986), pp. 929-940Published by: Ecological Society of America

El artículo toma como punto de partida un trabajo de Hulbert de 1984, sobre “diseño óptimo del impacto” y su “pseudoreplicación temporal” para presentar un procedimiento de medición del impacto ecológico que puede resolver el problema estadístico en diferentes situaciones.
Basándose en el caso de Green de 1979, en donde una fuente de contaminación vierte sus efluentes en un curso de agua, y analizando el efecto sobre las especies aguas arriba y debajo de la fuente, antes y después de la aplicación de algún tipo de control, se define entones un caso de “una única área de impacto y una única área de aplicación del control”:
1) ANOVA no es válido como método de inferencia porque a) sólo demuestra diferencia según “locations” (aguas arriba y abajo), b) el experimento solo puede ser controlado subjetivamente o aproximadamente, c) no puede mensurarse en impacto en términos temporales, se estima que los condiciones se mantienen constante, cuando en realidad es esperable que la magnitud del daño varíe en el tiempo. Pag. 929
2) Para Hulbert, el método de Green no puede corregirse por repetición de observaciones porque los muestreos sucesivos están indudablemente correlacionados entre si.
3) Para Hulbert, para optimizar el método de Green, habría que llevar gráficos y tablas, que indique los valores promedio y la variabilidad de los datos. Pag. 930
Tanto los análisis de Green como de Hulbert se basan en la medición de la variación de la abudance de una especie debida al efecto de una fuente contaminante
Para los autores una forma de corregir estos “defectos” del método Green que indica Hulbert es usar los muestreos temporales como réplicas pero midiendo las áreas de Impacto y Control simultáneamente, e indicando como resultado en cada caso la diferencia entre ambas mediciones.
LA POBLACION Y PARÁMETROS ESTADISTICOS EN CUESTION
El abordaje de este tipo de estudios sobre impacto ambiental requiere de la selección de un set de sitios representativos y de la elección “randomizada” de los sitios que estarán afectados por la fuente y cuáles por el programa de control. Pero la cuestión del impacto propiamente dicho no necesita de esta distinción. Pag. 931.
Para ilustrarlo, incluyen gráficos que ilustran la constancia (o NO) de los niveles de abundancia la espcie X en una zona de impacto y otra de control, antes y después del stara up de la fuente contaminante. La conclusión al respecto, es que deben considerar el caso de agentes externos, algunos sistemáticos (ej. Estaciones) y otros aleatorios, que dependiendo de sus características y dimensiones puede afectar de manera similar , o NO, los sitios considerados y la abundancia de las especies en cada uno de ellos. Y por lo tanto el dato a observar en cada caso es la variación en la diferencia relativa entre ambas áreas. Pag. 932
En este punto aclaran el concepto “densidad de población promedio”. Indican que el set de factores detectados, aleatorios o sistemáticos, constituyen un proceso de “producción de abundancia” cuyo resultado es la secuencia de producción de abundancia a lo largo del tiempo. Como los factores sistemáticos del proceso podrían “fijarse” a los efectos experimentales, señalan que los aleatorios los que constituyen “distribución probabilísticas” de las diferentes secuencias de abundancia posibles, por lo tanto los factores sistemáticos constituyen los “parámetros de ésta distribución probabilística. Por eso es importante la medición de las diferencias relativas entre las curvas promedio de abundancia de las áreas de control e impacto, y en esto radica el error del método de Green (que en realidad consideraba las diferencias entre las mediciones específicas).
UNA PROPUESTA DE SOLUCION
Método BACI (Before, Alter, Control, Impact): evaluar si las diferencias entre los promedios de abundancia de las áreas de impacto y control varían con el Stara up de la fuente. Cada observación Xijk, para un momento tij, en un determinado período i y sitio k . Se busca comparar los períodos antes y después, a través de t test U test para la diferencia el promedio de las diferencias de curvas antes y después. Pag. 933
Constancia de las diferencias (abundancia promedio en áreas de impacto y control): aditividad de los efectos de tiempo y locación.
En uno de los gráficos muestra cómo las diferencias entre las curvas de medios se en un sentido de escala, las dos están afectadas por aspectos físicos y otros (ej. Estacionales) con un efecto multiplicativo, no aditivo. La diferencia varía cíclicamente. El enfoque aditivo podría resultar en dos consecuencias: Si las mediciones son matcheadas correlativamente, el efecto produciría un test más “débil” o conservador. Si por el contrario, las mediciones no se matchean correctamente, los períodos con grandes diferencias, podrían llevar a conclusiones erróneas. Esto puede al menos minimizarse si las mediciones se realizan en ambas curvas en la escala correcta (Ej. Utilizando el logaritmo de la función de abundancia). Tukey (1949) demuestra la eficacia de este método en su test de no aditividad de “un grado de libertad”. Otra forma de aproximación es considerar transformaciones Y= (X + c)λ (Box y Cox, 1964) asumiendo que Y tiene una distribución normal y aditiva para el correcto c y λ, y propone estimar c y λ a partir de la máxima similitud. Sin embargo la transformación que resulta en una Y aditiva, no tiene una distribución normal. Por lo tanto, los autores recomiendan el procedimiento de Andrews (1971), en donde c y λ son elegidos para minimizar la significancia del tesr de aditividad de Y. Exponen su aplicación a un ejemplo específico. Pag. 934
En el segundo caso analizado, las curvas promedios de abundancia cambian entre sí progresivamente, aún sin la aparición de la fuente. Más allá de que los test utilizados admitan o no este cambio, pareciera no ser posible detectar la aparición de la fuente en los resultados medidos y este caso no hay lugar para la transformación anterior.
El tercer problema en el concepto de la no aditividad es el problema de la covarianza. Pag. 935.
Éste debe analizarse cuando las dos areas (Impacto y Control) que no necesitan ser idénticas, no cumplen con: a) variaciones de curvas entre las áreas, según una constante antes de la aparición de la fuente y b) los efectos regulares (Ej. Estacionales) o a largo plazo coincidentes
Cualquier transformación debe ser considerarse previo a la aparición de la fuente, para poder independizarlo.
Independencia de las “réplicas” temporales
Si una observación en un momento tij, , en un lugar k es Xijk, es igual al valor de la curva promedio + su desviación (Xijk, = μijk + Eijk ) y si μ es aditivo, al menos aproximadamente (μij1 + μij2 = μi ), y constante durante el perídodo i (antes o después de la fuente), la transformación de las diferencias D verifica: Dij = Xij1 - Xij2 = μi + E ij1 - E ij2 (E son errores con promedio 0, siendo que los μ son el promedio de las Xs). Para comparar ambas diferencias en el test necesitamos que los que los errores δ ij = E ij1 - E ij2 sean independientes. Considerar que NO necesariamente las muestras No están correclacionadas, para que las diferencias lo estén. Los errores se componen de dos factores (E ijk = u ijk + v ijk ) errores de muestreo y de proceso. Los primeros suelen ser independientes en casi todos los análisis. Si los de proceso no son independientes a lo largo del tiempo, pero son idénticos en las dos locaciones, sí lo son las diferencias relativas entre áreas a lo largo del tiempo. Pag. 936
No es realista asumir errores de proceso idénticos entre las dos áreas, pero es posible llegar a idénticos resultados a través de otros supuestos. De los efectos aleatorios posibles, son aquellos de gran escala, alcance local y de larga duración aquellos que pueden afectar el supuesto de independencia. Esto puede ser demostrado por el modelo “Markoviano”:
v ijk = e-αT v ij-1,k +A(1- e-2αT ) ½ w ijk. A partir del desarrollo de esta ecuación y las anteriores demuestra como la correlación (= convarianza/ varianza) entre las diferencias de distintos períodos es pequeña si A es pequeña (perturbaciones pequeñas), αT y r son altos (efectos de corto plazo y alta correlación entre áreas, respectivamente). Esto sólo demuestra la escasa correlación entre observaciones. La independencia o baja correlación es posible solo si no se dan efectos aleatorios de gran escala, locales y de largo plazo. Los autores indican distintos métodos para medir este supuesto vs. los datos obtenidos.
Bajo los supuestos de “aditividad” e “independencia”, sugieren usar los t y U test para decidir si la fuente contaminante tiene efecto alguno. Los resultados contradictorios o estadísticos al límite deberían ser chequeados vs. observaciones adicionales. Idem la posible correlación serial. Pag. 937
Interpretando los resultados del test
Si las transformaciones realizadas resultaron en diferencias constantes entre las curvas y las observaciones son independientes, un resultado del test estadísticamente significativo se puede ser casual o debido a cambio (antes o después) en la diferencia promedio entre locaciones. Pero según la proposición anterior de Hulbert, no puede asegurarse que esto se deba a la aparición de la planta, cuando se analiza el período posterior. En este sentido, la abundancia en al área de impacto, antes y después del mismo, es la única población de interés. El área de control no representa una población de interés pero es útil para distinguir entre los efectos del tratamiento y aquellos temporales. Además, las secuencias de muestreo no deben ser elegidas aleatoriamente, a fin de evitar la correlación serial y maximizar la utilidad de información (ej. Estación en la que abunda la especie objetivo).
Si, además del Start up de la fuente, se diera un efecto impredecible, de gran escala y a largo plazo, sería muy difícil detectarlo directamente de las observaciones, al igual que su grado de probabilidad. Por eso siempre deben ser considerados tanto el efecto posible de la fuente como cualquier otra causa de los resultados obtenidos. Esto sobre todo se da en los estudios “randomizados” porque los resultados pueden darse no solo por el tratamiento sino también por la forma en que éste es administrado. En tales casos, debe considerarse los efectos posibles de cada una de estas formas de administración posibles. Pag. 638
Predicciones, gráficos y tablas
El objetivo de las técnicas estadísticas puede clasificarse en:
a) “análisis exploratorio de los datos” (Tukey 1977), orientadas a revelar patrones y regularidades en pos de la hipótesis, sin que aquellos deban ser clasificados en sistemáticos o casuales, sin que se pueda garantizar la garantía de las conclusiones.
b) “análisis confirmatorio de los datos”, de este tipo son los estudios de impacto. Hay una clara definición de la hipótesis que debe ser resuelta “cuantitivamente”, principalmente porque debe ser fundamento del análisis costo/ beneficio de la solución propuesta.
En estos casos los gráficos y tablas son sólo complementarios a las conclusiones a obtener directamente de los datos. Generalmente, las conclusiones derivadas de aquellos requiere de los mismos supuestos de los procedimientos inferenciales (independencia, no aditividad, causas adicionales de error, etc.) además de considerar cuestiones de presentación y armado de los mismos. Su objetivo es por lo general demostrar la significancia “física” más que estadística de las observaciones.

Bibliografía citada
- Hurlbert, S. H. 1984. Pseudoreplication and the design of ecological field experiments. Ecological Monographs 54: 187-211.
- Green, R. H. 1979. Sampling design and statistical methods for environmental biologists. Wiley, New York, New York, USA.
- Andrews, D. F. 1971. A note on the selection of data trans- formations. Biometrika 58:249-254.
- Box, G. E. P., and D. R. Cox. 1964. An analysis of trans- formations. Journal of the Royal Statistical Society (Lon- don), Series B 26:211-252.
- Tukey, J. W. 1949. One degree of freedom for non-additiv- ity. Biometrics 5:232-242

1 comentario:

  1. En el área educativa existen tres conceptos básicos los cuales son Assesment, Evaluación y Medición. Los cuales tienen sus particularidades y están relacionados entre sí. De estas conceptualizaciones es importante buscar el valor y el entorno apropiado como docente al ser responsable de la toma de decisiones en las evaluaciones a los alumnos.
    Interesante trabajo los felicito, si desean mas info:
    http://informesuniversitarios.com/archives/26

    ResponderEliminar