Processing math: 70%

LaTex

lunes, 31 de julio de 2017

¿Hay diferencia entre dos muestras? (3 de 5)

Este es un resumen de un artículo de Richard A. Amstrong y Frank Eperjesi dirigido al personal de optometría que requiera conocimientos básicos de estadística para analizar datos.

Pruebas pareadas y no pareadas.

El experimento descrito antes podría ser llevado a cabo de dos diferentes maneras, por ejemplo, los métodos pareado y no pareado. Cómo se lleva a cabo un experimento se refiere a su diseño y es un aspecto muy importante de la experimentación. El experimento descrito en la Tabla 1 (en la primer entrada de esta serie) fué llevado a cabo usando un diseño no pareado, es decir, los sujetos experimentales fueron asignados de manera aleatoria, y sin restricción, a los grupos de controles y de tratados. En un diseño pareado, sin embargo, los seis sujetos experimentales son, primero divididos en tres pares y segundo, el tratamiento experimental es asignado a cada par y, de manera aleatoria e independiente, a los miembros de cada par. Por lo tanto hay una restricción en la asignación de los tratamientos a los sujetos experimentales y se requiere un análisis diferente.

La mayoría de las veces, los casos pareados se hacen en base a edad, sexo o tamaño. Por ejemplo, si los seis sujetos experimentales en la Tabla 1 varían en edad, podrían haber sido divididos en tres pares para que los miembros de cada par fueran de una edad similar. En un diseño pareado, la prueba t se calcula como sigue:
t=ˉdsdn(2)

En este caso ˉd es la media de las diferencias entre cada uno de los tres pares de observaciones y sd es la desviación estándar de esas diferencias.

La misma tabla t es usada para determinar la probabilidad de que el valor calculado de t se haya obtenido de casualidad. Sin embargo, en una prueba t pareada, se usa una regla diferente para introducir la tabla t, es decir, t ahora tiene n1 grados de libertad, donde n es el número de pares de sujetos.

Ventajas de la prueba pareada.

Uno puede ahora preguntar si el método más apropiado para llevar a cabo el experimento deseado será un diseño pareado o no pareado. Cada tipo de diseño tiene ventajas y desventajas. Un diseño pareado con frecuencia se usa para reducir el grado de variación presentada entre los sujetos experimentales.

Cómo se logra ésto puede verse examinando la fórmula para la t no pareada dada en la ecuación 1. El valor de t en la ecuación 1, es la diferencia entre las medias de los dos tratamientos dividida por el error estándar de esta diferencia. Si la variación entre los sujetos experimentales es grande, se incrementará el error estándar de la diferencia y disminuirá el valor de t incluso si la diferencia entre medias parece relativamente grande.

Notemos, sin embargo, que en un diseño no pareado, la tabla t se introduce con 4 grados de libertad. Pareando los sujetos experimentales puede reducirse el error estándar porque t en la ecuación 2 es calculada de las diferencias entre pares de observaciones. En otras palabras, el efecto del tratamiento experimental está siendo determinado dentro de pares de sujetos.

Parear debería solo ser considerado, sin embargo, si hay un método lógico para formar pares, por ejemplo por edad o tamaño donde probablemente se pueda conseguir una reducción significativa en el error estándar. Si no hay reducción en el error estándar al formar parejas, entonces sería una desventaja este diseño porque la tabla t es introducida con solo dos grados de libertad (uno menos que el número de grupos). Introducir la tabla t con un número menor de grados de libertad significa que se requerirá un valor más grande de t para demostrar una diferencia significativa entre las medias.

Referencia

Foto de Kirahoffmann

sábado, 29 de julio de 2017

¿Hay diferencia entre dos muestras? (2 de 5)

Este es un resumen de un artículo de Richard A. Amstrong y Frank Eperjesi dirigido al personal de optometría que requiera conocimientos básicos de estadística para analizar datos.

La lógica de las tablas estadísticas.

Para juzgar si el valor de t es estadísticamente significativo, es llevado a una tabla estadística de la distribución t. El cálculo de t usando computadora brinda un valor de probabilidad p correspondiente al valor de t. Para entender el significado de p, sin embargo, es necesario entender la lógica de las tablas t. Todas las tablas estadísticas tienen esencialmente la misma estructura y la misma lógica básica.

  • Hay una columna de cifras, generalmente a la izquierda de la tabla, que representa los grados de libertad gl de los datos. Esto permite conectar correctamente el renglón basado en el número de observaciones que se tienen. El concepto de grados de libertad será explicado con mayor detalle en un artículo posterior. Todas las pruebas estadísticas tienen una regla que determina cómo se usará la tabla.
  • En el cuerpo de la tabla hay columnas de valores de un estadístico, como t, todos los cuales pueden obtenerse solo por casualidad, es decir, cuando no hay verdaderas diferencias involucradas.
  • El primer renglón de la tabla muestra las probabilidades α de que los valores del estadístico en una columna particular pudieran obtenerse por casualidad. Por lo tanto, hay una probabilidad de 10%, es decir p=0.10 (o 1 en 10) de que los valores en la columna del 10% pudieran obtenerse solo por casualidad y hay 1% de probabilidad, p=0.01 (1 en 100) de que los valores en la columna de 1% pudieran obtenerse por casualidad.

Como se describió anteriormente, los estadísticos usan la columna del p=0.05 (o 1 en 20) para juzgar qué tan improbable tiene que ser un evento antes de que se crea que es improbable de obtenerse por casualidad y de que hay una verdadera diferencia entre las medias muestrales. Por lo tanto, si el estadístico calculado cae en una columna en la cual la probabilidad es menos de 0.05, es improbable que se haya obtenido por casualidad y si cae en una columna en la cual la probabilidad es mayor que 0.05, es más probable que se haya obtendio por casualidad. Notemos que el nivel de probabilidad de 0.05 es arbitrario y no debería ser aplicado a problemas estadísticos indiscriminadamente. Todos los efectos experimentales que resulten en valores t un poco por debajo o por arriba del 5% deberían ser considerados como efectos posibles y discutirse apropiadamente.

Aplicación a los datos en la Tabla 1 (de la entrada anterior).

  1. Calcular el valor de t usando la fórmula en la ecuación 1 (de la entrada anterior).
  2. Determinar el renglón en el cual la tabla t se ingresa, aplicando la regla de que los grados de libertad gl=n1+n22=4. Esta regla aplica solo en el caso de este tipo particular de prueba t y otras pruebas estadísticas pueden tener diferentes reglas para ingresar la tabla.
  3. El valor de t al nivel de 5% de probabilidad para 4 grados de libertad tomados de la tabla t es 2.78. El programa de cómputo brindará el p valor. El valor de t obtenido en el experimento fué 3.82 y es más grande que el valor de t en p=0.05. La probabilidad de obtener un valor de t de 3.82 por casualidad, cuando no hay diferencia significativa entre las medias, es menor que el 5% y por lo tanto, concluiríamos que es más probable que t no se haya obtenido por casualidad.

Así los datos se oponen a la hipótesis nula y hay un efecto del medicamento en la dilatación pupilar.

Explicación.

Para entender la lógica detrás de la prueba t, es necesario examinar la distribución de t y el renglón particular de la distribución t representado por los datos que tienen 4 grados de libertad. Cuando t es calculada, la diferencia entre las dos medias es convertida para que se vuelva un miembro de esta distribución. Pequeñas diferencias entre las medias, que son más probables de obtenerse por casualidad, resultan en valores de t que están más cerca de la media de la distribución (es decir t=0). Diferencias más grandes de las medias resultan en valores t más lejanos, en las colas de la distribución. Cuando t es igual o más grande que 2.78 (el valor de p=0.05) para 4 grados de libertad, el valor está en la zona de la distribución que incluye el 5% de los valores más extremos. Este es un valor de t que es poco probable que se obtuviera por casualidad y por lo tanto concluímos que hay una real diferencia entre las dos medias.

Prueba de una y dos colas.

En el experimento que hemos descrito es posible proponer dos diferentes hipótesis nulas. En la primera podemos suponer que la aplicación del medicamento en cuestión no tiene efecto en la dilatación pupilar. Esta hipótesis no especifica si un incremento o una disminución en la dilatación pupilar refutaría la hipótesis nula. En este caso, una prueba de dos colas sería apropiada, es decir, ambas colas de la distribución t son usadas como muestra la Tabla 6 en la Figura, para probar la hipótesis de que hay un incremento o una disminución en el diámetro pupilar.

Segundo, podemos solo suponer que la aplicación del medicamento no incrementaría la dilatación pupilar dado que se sabe que no la disminuye significativamente. Este tipo de hipótesis especifica si es necesario un efecto positivo o negativo para refutar la hipótesis y por lo tanto, sería apropiada una prueba de una cola. Algunas tablas estadísticas pueden indicar las probabilidades de una y dos colas correspondientes a una columna particular. La mayoría de las tablas estadísticas, con algunas excepciones, solo indican las probabilidades de dos colas. Para encontrar las probabilidades de una cola en las tablas de dos colas, se parte la probabilidad, es decir, el 5% de las probabidades de una cola serían encontradas en la columna de 10% de dos colas.

Referencia

Foto de Lum3n

martes, 25 de julio de 2017

¿Hay diferencia entre dos muestras? (1 de 5)

Este es un resumen de un artículo de Richard A. Amstrong y Frank Eperjesi dirigido al personal de optometría que requiera conocimientos básicos de estadística para analizar datos.

En una entrada anterior, se mostró que muchas variables en optometría pueden ser descritas como paramétricas o normalmente distribuídas. Si una variable viene de una población normalmente distribuída, entonces la población misma puede ser descrita por su media (la localización de la tendencia central de la distribución) y la desviación estándar (el grado de dispersión de la distribución).

Además, se describieron dos procedimientos estadísticos basados en esta información. Primero, determinamos si una medida individual, por ejemplo, la presión intraocular de un paciente a cierta edad, fué típica o atípica de la población de esa edad. Segundo, se mostró que la media de una pequeña muestra de medidas individuales viene de una población de medias muestrales que también se distribuye normalmente. El grado de dispersión de esta distrubución puede ser descrito por el error estándar de la media. Esta información fué usada para calcular un intervalo de confianza para la media muestral, es decir el grado de error asociado a una media muestral como un estimador de la verdadera media de la población.

En este artículo, esas ideas estadísticas se extienden al problema de probar si hay una diferencia real entre dos muestras de medidas.

Primero, se mostrará que la diferencia entre las medias de dos muestras viene de una problación de tales diferencias que se distrubuyen normalmente. Segundo, la distribución t, una de las más importantes en estadística, será aplicada a una prueba de la diferencia entre dos medias usando un conjunto simple de datos tomado de un experiemnto clínico en optometría. Tercero, al hacer una prueba t, se hace un juicio estadístico acerca de si hay una diferencia significativa entre las medias de dos muestras.

Antes del uso extendido de programas estadísticos, este juicio era hecho con referencia a una tabla estadística. Incluso si esas tablas no son usadas, es útil entender su estructura lógica y cómo usarlas. Finalmente, será descrito el análisis de los datos que son conocidos por estar muy separados de la distribución normal.

En las siguientes secciones, los métodos de análisis de datos descritos son ilustrados con simples conjuntos de datos. Estos datos son usados solo para ilustrar la metodología, y los efectos experimentales revelados pueden no ser necesariamente indicativos de los resultados que serían obtenidos por experimentos más detallados.

La diferencia entre pares de medias muestrales.

Para determinar si una medida individual es un miembro típico de la población entera se requiere conocer la variación de las medidas individuales, es decir, la desviación estándar de la población. Similarmente, para determinar el grado de error asociado con una media muestral se requiere conocer la variabilidad de las medias muestrales, es decir, el error estándar de la media. Por lo tanto, para determinar si hay una diferencia significativa entre las medias de dos muestras, se requiere saber el grado de variabilidad de la diferencia entre dos medias muestrales.

Consideremos dos poblaciones diferentes, la primera que sale de la medida de un parámetro visual en una muestra de individuos no tratados (grupo control) y la segunda después de tratar otra muestra de individuos con un medicamento diseñado para incrementar la dilatación pupilar (el grupo de tratamiento). Para cada muestra, se calcula la media, y la diferencia entre las medias \bar{C} – \bar{T} representa el efecto del tratamiento del experimento, es decir, el grado en que el medicamento incrementa la dilatación pupilar. Imaginemos que el experimento se repite muchas veces y se obtienen varios estimados de \bar{C} – \bar{T}. La distribución de las medias muestrales representando el control y la población tratada se muestra en la figura de la izquierda, y la distribución de \bar{C} – \bar{T} se muestra en la figura de abajo.

Si las medias de los controles y los tratados, están distribuídas normalmente, entonces la distribución de las diferencias entre pares de medias tomadas de estas dos poblaciones también estará distribuída normalmente. Así, podemos usar la distribución normal estándar para probar si hay una diferencia real entre las dos medias en el experimento.

Comparando la diferencia entre dos medias.

Consideremos un experimento diseñado para probar la hipótesis nula de que una droga no tiene efecto en el grado de dilatación pupilar. Se reclutaron seis voluntarios y fueron asignados aleatoriamente a cada grupo, por ejemplo, el control C y el tratado T, tres individuos a cada uno. Consecuentemente, se dice que el experimento tiene tres repeticiones. En realidad, tres repeticiones no sería un número adecuado para probar la hipótesis propuesta y se han usado por simplicidad. La cuestión de cuántos pacientes sería apropiado usar en esta y otras circunstancias será discutida en un artículo posterior. Los ojos del grupo control fueron tratados con un placebo que no tiene efectos en la dilatación pupilar. Al final del experimento los resultados obtenidos se enlistan en la Tabla 1.


repeticiones grupo \hspace{2mm} controlgrupo \hspace{2mm} tratado
1. 1530
2. 1927
3. 2226
medias 18.727.7
desv.estan. 3.512.08

Al examinar el grupo de medias puede observarse que difieren por 9 unidades (ignoremos el signo), lo que sugiere que el efecto del medicamento incrementó el grado de dilatación pupilar. Hay variación, sin embargo, en el grado de dilatación mostrada por lo pacientes individuales que se incluyen en cada grupo. Así, la diferencia entre las medias podría ser atribuída al efecto del medicamento o a la variación aleatoria entre pacientes. Para decidir entre estas dos alternativas, comparamos el efecto del tratamiento \bar{C} – \bar{T} con el grado de variación conjunto de ambos grupos mediante una prueba t. La fórmula para la prueba t, uno de los procedimiento más comúnmente usados en el análisis de datos, es como sigue:

t= \frac{\bar{C} – \bar{T} }{s \sqrt{\frac{1}{n_1}+\frac{1}{n_2}}} \hspace{20mm}\dots (1)

donde s es un estimado de la desviación estándar basado en ambas muestras conjuntamente y n_1 y n_2 es el número de observaciones dentro de cada grupo. Así, el valor de t es el radio de la diferencia entre las medias y el grado de variación conjunta entre los pacientes de cada grupo. La variación conjunta (el denominador de la ecuación 1) es llamado el error estándar de la diferencia entre dos medias. Sustituyendo los datos de la tabla 1 en la ecuación 1 se tiene un valor de t=3.8. Notemos que este cálculo es similar al que se obtuvo previamente cuando convertimos un valor individual x para que fuera miembro de la distribución normal estándar. En el presente ejemplo, la distribución t es usada en lugar de la distribución normal estándar porque t describe la variación de medias muestrales calculada de un pequeño número de observaciones con más exactitud. Por lo tanto, cuando t es calculada, la diferencia entre las medias \bar{C} – \bar{T} es convertida para que sea miembro de la distribución t. Ahora es necesario analizar la probabilidad de obtener un valor de t de esta magnitud, que pudiera ocurrir por casualidad, digamos mediante muestras aleatorias, de dos grupos de muestras cuando cada una incluye tres observaciones.

Referencia