Mis grupos son diferentes ¿Cuán diferentes? El tamaño del efecto

Estimados todos, nos vemos de nuevo, para una aventura más en Stats SOS. Espero que estén muy bien y tengan los cinturones bien abrochados y estén preparados para la aventura de hoy.

Quizás se habrán preguntado, “Ok, mis grupos son diferentes en una T-student (ver post) o U de Mann Whitney (ver post), pero ¿cómo se cuán diferentes son?” Bueno, para ello existen ciertas técnicas para averiguarlo. No basta solo con mirar los promedios y decir “¡Ah, hay una gran diferencia entre un promedio o una mediana y otra entonces deben ser muy diferentes”. Para ello veremos un análisis llamado el tamaño del efecto que nos permite comprender con mayor profundidad la diferencia entre dos grupos.

Entonces, la aventura de hoy requiere estar con la mente abierta y bien animados, para lograr cruzar por el camino del tamaño del efecto para que al final de la travesía podamos describir de manera sencilla qué es este análisis.

En ese caso, el tamaño del efecto en sencillo es la magnitud de la diferencia entre los puntajes promedio o medio de un grupo y otro. En sencillo, cuán diferentes son los puntajes promedios (o las medianas de los puntajes) de  dos grupos. Los que no recuerdan qué son promedios o medianas siempre pueden ir a este post para refrescar la memoria.

En este caso, el tamaño del efecto es un complemento de nuestra significación estadística en las comparaciones de medias o medianas. Ahora nos preguntamos, ¿Por qué se necesita esto? Por dos razones muy sencillas: a) Por ejemplo, la T-Student o los análisis de U de Mann Whitney te dicen exactamente que hay diferencias entre dos grupos pero no cuán diferentes son.  b) Cuando tenemos grupos muy pequeños (por ejemplo: grupo uno con 10 personas y grupo dos con otras 10  personas) las pruebas de significancia (el valor p) no funcionan de manera adecuada porque estos análisis están diseñados para muestras más grandes. Los que no recuerdan qué es la significancia siempre pueden volver a este post. 

¡Perfecto! ¿Hasta ahí todo bien? No se angustien, vamos con calma. Creo que dos ejemplos nos podrán ayudar a pasar exitosamente por esta travesía. En este caso, tomaremos ejemplos pasados, para ello, veremos por un lado al ejemplo del post de T-student con muestras independientes y por otro al de U de Mann Whitney.

¡Muy bien vamos al primer ejemplo! En esa aventura comparamos si existía diferencias entre los puntajes de una prueba de bienestar entre hombres y mujeres. Ahí comparamos dos grupos (50 hombres y 50 mujeres) y les tomamos una prueba de bienestar. Finalmente, los resultados salieron significativos y por ende se mostró una diferencia entre hombres y mujeres ¡y fuimos felices! Los que quieren recordar esto siempre pueden volver a este post. 

Pero ahora iremos un poco más lejos y averiguaremos cuán grande son estas diferencias. Para ello veremos primero la tabla que muestra algunos resultados.

Tabla 1:

Untitled

¡Excelente! Ahora que tenemos estos resultados, necesitamos calcular el tamaño del efecto. Para ello, necesitaremos nuestra calculadora de mano o alguna hoja de cálculo como Excel o Numbers (Mac). Pero no nos asustemos, no es una fórmula imposible ni mucho menos. ¿Están preparados? ¡Aquí va!

Fórmula 1: Esta fórmula es la llamada d de cohen, porque Jacob Cohen fue el primero que la propuso para poder calcular cuán diferentes eran dos grupos.

 d de Cohen

Fórmula 2: Esta fórmula muestra cómo calcular la desviación estándar ponderada. Esta se utiliza cuando las desviaciones estándar (o típicas) de nuestros grupos son diferentes.

desviacionstandard

Listo! Aquí tenemos las dos fórmulas, se que pueden verse horribles y espantosas, pero no lo son, nosotros somos valientes aventureros y podemos enfrentar exitosamente este reto. Como ven, para calcular la d de cohen que nos muestra la magnitud del efecto es necesario primero calcular la desviación estándar ponderada. Esta es una especie de desviación estándar general para nuestros dos grupos.

En este caso, asumiremos que el grupo t son hombres y el grupo c son mujeres. Por ello, podemos ver los siguientes valores que sacamos de la Tabla 1:

nt = 50,

nc = 50

st = 4.23031

sc = 5.02975

xt = 14.32

xc = 11.74

Paso 1: Calcula la desviación estándar ponderada

Muy bien, si reemplazamos todos esos valores primero en la fórmula 2 vemos que la desviación estándar ponderada es: 

S ponderada = √((50-1)(4.230312)) + ((50 -1)(5.029752))/50 + 50 = 4.601

No se asusten si ponen estos valores en Excel o Numbers la computadora puede hacer el cálculo por ustedes.

Paso 2: Calcular la de d de Cohen.

¡Listo! Ya que tenemos la primera parte que es la desviación estándar ponderada vamos a la otra fórmula que es la d de cohen que nos dará los tamaños del efecto. Para ello hacemos el siguiente cálculo:

d = (14.32 – 11.74)/4.601 = 0.5607

Ahora, ¿qué diablos significa este número? ¡Muy sencillo Cohen propuso algunas reglas para determinar si una diferencia es pequeña, moderada o grande. El autor planteaba que .20 hacia arriba, es una diferencia pequeña, .50 hacia arriba es una diferencia moderada y .80 hacia arriba es una diferencia grande (Cohen, 1988).

Ojo, pestaña y ceja (1): En cierta literatura es posible que se encuentre otra fórmula donde no se debe calcular una desviación estándar ponderada. Esto se debe a que la primera fórmula que utilizó Cohen asumía que ambos grupos tenían desviaciones estándar iguales. Sin embargo, como vemos en nuestro ejemplo, (y en la mayoría de casos de la vida real) esto no se da. Aparte, en la literatura existen una serie de diferentes fórmulas como la delta de Glass y la g de Hedges que son extensiones o mejorías de la fórmula original de Cohen. Los que tienen curiosidad sobre estas fórmulas siempre pueden dejar un genial comentario al final para poder conversar sobre ello. Por el momento, utilizaremos esta fórmula que suele ser la más convencional pero que además propone una alternativa cuando los puntajes de nuestros grupos tienen desviaciones estándar distintas.

¡Perfecto! Luego de haber hecho el preámbulo, podemos ver que nuestra d = 0.5607, lo cual muestra una diferencia moderada entre los puntajes de bienestar entre hombres y mujeres. 

Ojo, pestaña y ceja (2): El tamaño del efecto está muy relacionado con el poder estadístico. Sin embargo, en esta aventura no veremos este tema. De todos modos, los que están interesados en surcar por esos senderos, siempre pueden dejar un maravilloso comentario en este post.

¿Siguen aquí? ¿Está todo bien? ¡Seguro que sí! Ahora vamos a nuestro segundo ejemplo. En este veremos la diferencia de dos grupos utilizando la U de Mann Whitney y luego de ello calcularemos el tamaño del efecto cuando utilizamos análisis no paramétricos. 

¡Excelente! En este caso, recabamos 27274 personas y comparamos entre hombres y mujeres la percepción de cuánto dinero se necesita para vivir en un mes. En este análisis comparamos 14711 mujeres contra  12563 hombres. En ello vimos que los puntajes no tenían una distribución normal por lo que tuvimos que utilizar la U de Mann Whitney. Al final, encontramos que los hombres mostraban un mediana de 1200 mientras que las mujeres una mediana de 1000 (pongamos dólares) para vivir durante un mes y estas diferencias eran significativas (Ver tabla 3).  Los que quieren recordar este ejemplo siempre pueden volver a este post. 

Tabla 3

significancia

Ahora, ¿Cómo saber si es que esa diferencia es efectivamente grande?

¡Muy sencillo! Tenemos que calcular una nueva fórmula. Dejamos a Cohen descansar y en esta ocasión invocamos la r de Rosenthal (Rosenthal, 1991). ¿Están listo? ¡Aquí va!

Formula 1:

Rosenthal

Como ven, esta fórmula se ve mucho más sencilla. Para ella, necesitamos el valor Z de nuestra U de Mann Whitney y la cantidad de gente (N) del cual se basa todo el análisis.

Ojo, pestaña y ceja (3): Se usa la cantidad de gente de todo el análisis y no de cada uno de los grupos.

En este caso, tenemos una Z = -9.666 y una N = 27274. Si realizamos el cálculo obtenemos lo siguiente:

r= -9.666/√27274 = -0.058

Este valor, según los criterios de Cohen (o también la extensión que hizo Rosenthal) que vimos previamente, muestra que existe un efecto pequeño (Rosenthal, 1991) en las diferencias de puntajes de percepción de dinero necesario para vivir un mes entre hombres y mujeres.

Ojo, pestaña y ceja (4): La r de Rosenthal es muy sensible a la cantidad de gente que se tiene en el estudio (la cantidad de muestra, mientras más grande la muestra menor será el tamaño entre un grupo y otro). ¡No hay que temer con esto! Esto es normal, muestras muy grandes (grupos con cantidades muy grandes de gente), por un lado pueden tener la posibilidad de incluso representar a la población (dependiendo de otros factores como por ejemplo, el tipo de muestreo que se utilice). Por otro, agregar por ejemplo 10 personas más a dos grupos de 28 mil personas y obtener las medianas no generará una diferencia muy potente por eso el efecto suele ser pequeño cuando tienes muestras demasiado grandes.

¡Perfecto! Creo que esto sería todo por hoy, hemos llegado a la meta sanos y salvos :). Espero que esta aventura haya sido agradable para ustedes valientes lectores. Como siempre los invito a dejar un comentario en el post de hoy compartiendo sus impresiones.

Para la siguiente aventura volveremos a las regresiones y nos extenderemos un poco más y veremos temas como mediación y moderación. Ha sido un placer compartir esta aventura con ustedes y los invito a poner “Me gusta” (Like) en la página de Facebook de Stats SOS, así como seguirnos en Twitter.

¡Hasta la próxima aventura! ¡Buenas vibras!

Referencias

Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences. 2nd. edit., Hillsdale, N.J., Erlbaum (primera edición, 1977 New York: Academic Press).

Field, A. Discovering statistics using SPSS. Sage. UK.

Ledesma, R., Macbeth, G., Cortada de Kohan, N. (2008). Tamaño del efecto: revisión teórica y aplicaciones con el sistema estadístico vista. Revista Latinoamericana de Psicología, 40(3), 425-239.

Rosenthal, R. (1991). Meta- analytic procedures for social research (2nd ed.). Newbury Park, CA: Sage.

Thalheimer, W., & Cook, S. (2002, August). How to calculate effect sizes from published research articles: A simplified methodology. Retrieved November 31, 2002 from http://work-learning.com/effect_sizes.htm.

Advertisement

About Juan Carlos Saravia

Magister de Estadistica aplicada a las ciencias sociales (Quantitative analysis for the social science). Katholieke University of Leuven (KUL). Magister en psicología clinica y de la salud de la Pontificia Universidad Católica del Perú (PUCP). Especialista en análisis cuantitativos en promoción de la salud, estrés, salud ocupacional y en jóvenes.
This entry was posted in Básico 1.0 and tagged , , , , , . Bookmark the permalink.

92 Responses to Mis grupos son diferentes ¿Cuán diferentes? El tamaño del efecto

  1. VIRGILIA says:

    Muy interesante tu post. Sin embargo, sería muy provechoso y complementaría la idea un post sobre poder del efecto.

    Like

    • Estimada Virgilia,
      Muchas gracias por comentar en Stats SOS. Estoy de acuerdo contigo, creo que si hablas de tamaño del efecto, el siguiente paso lógico sería hablar de poder estadístico. Tengo algunos posts en cola, sin embargo aplazaré algunos y escribiré uno sobre poder estadístico. Luego del de Mediación y Moderación plantearé este tema.
      Muchas gracias por el aporte y que todo vaya muy bien.
      ¡Éxitos!

      Like

  2. Alejandro Vaca says:

    Gracias por el artícul. He trabajado esto pero usando los resultados del SAS sin conocer la teoría.

    Like

    • Estimado Alejandro,

      Muchas gracias por escribir en Stats SOS. Me alegra mucho que el post haya sido de utilidad. Sí, en SAS tengo entendido que se puede trabajar magnitud del efecto, es un programa muy flexible.
      Espero tenerte pronto por estos lares y me alegro que el post haya conectado con tu práctica profesional.
      ¡Éxitos!

      Like

  3. An Dre says:

    Excelente blog! Hace falta más personas como tú que compartan sin reservas el conocimiento que han adquirido en la práctica. Este artículo me parece interesante por el hecho que no debemos reportar únicamente el valor p cuando realizamos pruebas de hipótesis, sino complementarlo con el tamaño del efecto y/o el poder calculado a posteriori. André Chocó

    Like

    • Estimado André,

      Muchas gracias por escribir en Stats SOS. Te agradezco mucho tu comentario, motiva mucho a seguir creciendo y escribriendo. Sí, como muy bien dices, el valor p puede ser engañoso porque puede ser que estemos cayendo en un error tipo 1 o tipo 2. Recojo nuevamente lo que mencionas, los valores p son importante complementarlos con el tamaño del efecto y el poder estadístico. Pronto escribiré un post sobre poder estadístico.
      ¡Éxitos!

      Like

  4. Mayra says:

    Hola Juan Carlos! me alegra mucho leer de ti, saber que estás estudiando en Bélgica y que en general estés feliz. Transmites esa felicidad en tus posts.
    Te cuento que yo también estoy en Europa, en Barcelona. También estudiando y haciendo una tesis, por lo que este post me ayudó mucho a recordar sobre el tamaño del efecto, justo en el momento preciso, puesto que estaba haciendo unos contrastes de medias.
    Que te siga yendo muy bien! 🙂 Yo seguiré revisando tu blog, que ya veo que está buenísimo, muy útil y súper motivador hacia la estadística 🙂
    Saludos!
    Mayra Cuéllar

    Like

    • Hola Mayra,
      ¡Gusto saber de ti! ¡Muchas gracias por escribir en Stats SOS! Me halaga mucho tu comentario, sí, realmente me apasiona la estadística y me alegra que esté transmitiendo eso en el blog. Te agradezco que me lo hagas ver porque los comentarios son los que mejor ayudan a conocer cómo está yendo el blog.
      ¡Te felicito por estar haciendo una maestría en Barcelona! Que bueno saber que el blog Stats SOS esté siendo de utilidad para ti y para hacer tu tesis de maestría.
      Te deseo muchos éxitos, que te vaya excelente en tu tesis, en la maestría y tus proyectos personales.
      Nuevamente te agradezco por el comentario porque motiva a seguir creciendo y aprendiendo.
      ¡Saludos!

      Like

  5. Muy buen artículo, es un tema que estoy estudiando y aplicando a un conjunto de datos, me aclaraste muchas dudas!…Te envío saludos desde Valparaíso, Chile.

    Like

  6. ibiti13 says:

    ¡Hola, Juan Carlos! Creo que me estoy volviendo una pesada en su blog, pero, apenas aquí consigo entender algo. Es que las dudas van surgiendo a medida que leo sus posts. Esa pregunta puede sonar un poco básica, pero, la verdad es que me quedé sin saber cómo actuar. Tengo una muestra de 208 estudiantes, siendo 166 mujeres y 42 hombres, lo que ya marca una diferencia importante (tal vez). Además de hacer la comparación de respuestas por género, también es objetivo de la tesis conocer las relaciones por opción sexual. Sin embargo, en este caso, tengo 185 personas heterosexuales, 12 homosexuales y 11 que han elegido otra opción. ¿Cree que puedo utilizar esta muestra o algunos grupos son demasiado pequeños? Muchas gracias. Un saludo desde Barcelona.

    Like

    • Hola Ibiti,

      Muchas gracias por escribir a Stats SOS, no hay problema puede hacer las consultas que quiera.
      Personalmente, no haría esas comparaciones, los grupos son demasiado disparejos. Una posibilidad sería categorizar los grupos de manera diferente de tal modo que puedan estar más o menos parejos con respecto a la cantidad de gente. En hombre y mujeres sí hay un tema porque es difícil poner otras categorías.
      Por otro lado, opción sexual creo que sí podría ser categorizados de tal modo que los grupos sean más similares con respecto al tamaño de los grupos.
      ¡Espero que todo salga muy bien!
      ¡Muchos éxitos! Saludos desde Lovaina.

      Like

  7. Sandra says:

    Hola Juan Carlos,

    Muchas gracias por cada una de las entradas que escribes (creo que ya me leí casi todas). La estadística se ha vuelto cada vez más fácil leyendo tu blog.

    Sobre el tema del tamaño del efecto, todo me queda super claro, solo quisiera estar segura sobre cuáles son los criterios que debo utilizar para interpretar la d de Cohen o la r de Rosenthal. Mencionas que para la d de Cohen, el autor plantó: .20 hacia arriba = una diferencia pequeña, .50 hacia arriba = diferencia moderada y .80 hacia arriba = diferencia grande. En el caso de la r ¿El criterio es igual? porque en el ejemplo el valor de r es -0.058 y lo interpretas como pequeño. Quisiera aclarar cuáles son estos criterios (o los más usados) porque leí en algún lugar que los criterios eran distintos, pero no estoy segura.

    Muchas gracia!

    Like

    • Hola Sandra,

      Muchas gracias por escribir a Stats SOS. Me alegro que este espacio esté siendo de ayuda.
      Yo diría que sí utilices la misma lógica. Al final, Rosenthal hace una extensión de las ideas de cohen. De todos modos, también puedes consultar este libro en internet: Field, A. Discovering statistics using SPSS. Sage. UK. Que comenta más sobre el criterio de Rosenthal.

      ¡Mucho éxito!

      Like

  8. Hola Juan Carlos, muchas gracias por lo didáctico de tus post, tenía una duda: ¿Porqué no se puede usar la d de Cohen para medir el efecto en grupos de distribución no paramétrica?

    Gracias por tu respuesta, y que sigan los buenos posts!

    Like

    • Estimado Piero,

      Muchas gracias por escribir a Stats SOS. Me alegro verte por estos lares. La D de Cohen utiliza medias para calcular la magnitud del efecto. El problema de las medias en muestras no parametricas es que es un estadístico que no representa el punto céntrico de la distribución (como si lo hace la mediana). Entonces, dado que la D de Cohen utiliza medias entonces estarías cayendo en un cálculo impreciso.

      ¡Mucho éxito!

      Like

  9. SrMonito says:

    Gracias Juan Carlos por el post.

    He estado vuelta por la web y aún sigo confundido con la interpretación de la d de cohen.

    En el estudio que estoy realizando, tengo una comparación de medias con t de student. Da resultados significativos y al sacar la de de cohen me da de 0,599. Tengo dos preguntas, la primera pregunta es: solo puedo interpretar que el tamaño del efecto es moderado? o puedo incluir una interpretación más sustantiva como que : “En términos sustantivos la magnitud del efecto es moderado con un 0,599, lo que indica que el 59,9% de los estudiantes del grupo intervenido tienen mejores notas que el promedio de los estudiantes no intervenidos.”

    La segunda pregunta: que significa el “R” me arroja un R= 0.287 ¿Como lo podría interpretar?

    De antemano muchas gracias JC.
    Espero ser un aporte.

    Saludos de Santiago de Chile.

    Like

    • Estimado Señor Monito,

      Muchas gracias por escribir a Stats SOS. Voy a enumerar tus preguntas para sea más fácil responder:
      1) Puedes decir que la magnitud del efecto es moderado pero no podrías halar de porcentajes porque la d de Cohen trabaja con medias y no con varianzas. El tipo de interpretación que planteas se suele dar cuando analizas varianzas. Entonces, no pondría ese porcentaje, solo mencionaría que las diferencias tienen un magnitud moderada.
      2) La r de Rosenthal se interpreta de la misma manera que la D de Cohe utilizando criterios similares. Ese estadístico es una opción alterna para mostrar la magnitud del efecto cuando tienes pruebas no paramétricas.

      ¡Saludos y mucho éxito!

      Like

  10. Buenas tardes Juan Carlos, el post me queda bastante claro y creo que la explicación es ideal para entenderlo sin tener conocimientos profundos de estadística. La duda que me surge es si la D de Cohen sería válida para una prueba ANOVA que, en principio, creo que no, que se deberia usar eta cuadrado. ¿Tienes planteado algún post en el que expliques lo mismo pero para comparaciones usando ANOVA?. Muchas gracias.

    Like

    • Estimado Adrian,

      Muchas gracias por escribir a Stats SOS. La D de Cohen no sería del todo adecuada para hallar el tamaño del efecto en la prueba de ANOVA. Tal como tu mencionas, lo mejor es utilizar un eta cuadrado. Lamentablemente hasta este momento no tengo un post sobre eta cuadrado escrito. Pero podría ponerlo en la lista y agregarlo en el futuro al blog.

      ¡Mucho éxito! Ojala verte pronto nuevamente por acá.

      Like

  11. arturo says:

    Estimado Juan Carlos:

    Nuevamente gracias por esta gran disposición tuya. Tengo un diseño cross over o de dos grupos con medidas repetidas (3). Después de la linea base solo el grupo experimental recibió tratamiento para luego hacer la segunda medición, y antes de la tercera medición, el control se convirtió en experimental. Mi pregunta es si aquí deberíamos estimar la D de Cohen por separado, o como bien dice el post anterior, es mejor estimar Eta cuadrado. Aún en este caso, la duda sería cómo se interpreta Eta cuadrado si el diseño fue cruzado y la contribución de la varianza explicada dependió del momento en que el grupo era control o experimental. Espero haber sido claro…

    Like

    • Estimado Arturo,

      Ahí tendrías que aislar el efecto. Dado que es cross over lo que te estoy entendiendo es lo siguiente:

      GC: LB (No Manipulación) X2
      GE: LB (Manipulación) X2

      y luego en la medición 3 ocurre esto:
      GC: X2 (Manipulación) X3
      GE: X2 (No Manipulación) X3.

      GC: Grupo Control
      GE: Grupo Experimental
      LB: Línea base.
      Las “X” son las mediciones.

      ¿Es así tu diseño?

      Para tener un ANOVA de medidas repetidas necesitas más de tres mediciones a lo largo del tiempo. Estadísticamente es posible hacerlo pero con ese análisis sabrías cómo cambió la medida 1 con respecto a la 2 y la 3 y no se si eso es de tanto interés en el estudio. Además, dentro de ese análisis se podría poner las condiciones como variable independiente que podría tener un efecto en las tres medidas a lo largo del tiempo.

      Intuyo que lo que tendría que pasar es que no hayan diferencias entre los grupos en la LB. Luego, que hayan diferencias entre las mediciones X2 por condición (experimental y control) y también con respecto a LB con X2 en el grupo experimental. Luego, en X3 en el GC deberían haber diferencias entre X2 y X3 y en GE no deberían haber diferencias entre X2 y X3. Finalmente, dependiendo de X2 y la manipulación, podría ser que no hayan diferencias entre grupos en X3 porque la manipulación por contrabalanceo de medidas igualaría el efecto que se ganó con la manipulación anterior. Ahí estarías analizando el efecto del crossover.

      De ser así, con un eta se puede medir el cambio a lo largo del tiempo porque sería intrasujetos. Por otro lado, la comparación entre sujetos, asumiendo que son dos grupos pero múltiples medidas el post hoc de medidas repetidas podría ayudar. Dado que el post hoc es un análisis que en esencia son t students, podrías jalar un poco el análisis y hacer D de Cohen. Pero antes de hacer esto pensaría en las dificultades que pueden traer múltiples análisis de magnitud del efecto (error tipo 1).

      Espero haberme dejado entender

      ¡Mucho éxito!

      Like

      • Anonymous says:

        Estimado Juan Carlos, gracias por el comentario. Ciertamente se trata de diseño cross-over en el que mi interés es ver no sólo las diferencias entre los grupos, sino entre los tiempos, y la ventaja que encontraba del ANOVA de medidas repetidas es que además de las anteriores, me otorga el aporte de la interacción. El problema es que por el tamaño de mis gpos (15 vs15), la potencia es débil y ninguna comparación fue p=<.05. Entonces al recurrir al tema del tamaño de efecto, llegué a la misma lógica de comparaciones múltiples, pero sabía de la amenaza del error tipo 1 y la pérdida de información sobre el efecto de interacción. Luego por tu comentario en este blog vi como una mejor salida Eta cuadrado, pero mi duda sigue siendo su uso en el contexto de este diseño, pues SPSS brinda una sola Eta para las múltiples comparaciones en ANOVA, pero supongo que puedo sacar también un ETA para cada comparación. Asumiendo la opción de las comparaciones múltiples por cada pareja de datos por separado (por grupo y por tiempos) como la mejor opción, sólo me queda la duda de tu opinión si es mejor calcular Eta o la D de cohen por cada comparación, y si sabes si existen algunos de estos coeficientes que puedan ser multrivariados en donde podamos parcializar el efecto de otras (por ejemplo el tamaño del efecto del tiempo X2 sobre X3 parcializando el efecto de X1 sobre X2). Gracias de antemano!

        Like

        • Estimado,

          Muchas gracias por escribir a Stats SOS. Comprendo, el tamaño de la muestra puede ser un un gran problema porque hace que los valores p no sean significativos. Con respecto a las múltiples comparaciones, lo que dices es cierto, la amenaza del error tipo 1 es fuerte.
          Mira, creo que hay una parte que no me he dejado entender, cuando tu corres ANOVA de medidas repetidas el SPSS te permite la opción de hacer un post hoc. En esencia, el Post es una prueba t student (depende cuál post hoc) pero corrige por múltiples comparaciones. Ahí le podrías aplicar la D de Cohen porque la comparación del post hoc es de 1 grupo contra otro grupo.

          Ahora bien, el Eta es un tamaño del efecto que se usa en el ANOVA donde sueles tener múltiples grupos (3 o más) o múltiples variables si es que consideras que cada grupo es un dummy (te quedas con 3 dummies).

          Son dos maneras de verlo y enfocarlo, yo no me haría tantos problemas con eso. Pero si te sientes más tranquilo, otra solución es además de los tamaños del efecto, calcular intervalos de confianza con una significancia de 99% de tal manera que puedas atenuar la posibilidad del error tipo 1. Esa también podría ser una solución salomónica y sin complicarte mucho la existencia.

          ¡Mucho éxito!

          Like

  12. adrianseg says:

    Buenas de nuevo Juan Carlos, siento las molestias pero empiezo a entender cosas y me surgen nuevas dudas. Buscando calculadoras de Cohen por internet basadas en tu fórmula también tiran un valor r, que es ¿como una transformación a partir de la d basada en las correlaciones?, si pudiese comentarlo mejor. Otro problema es que tus datos, respecto la r de Rosenthal, no sale el valor -0.058 sino -58,5292, que hago mal? Y la última duda es como se presentarían los datos en un informe ya que la r = .58 sería la de Rosenthal o la r relacionada con la correlación, calculable con la D de Cohen. Un saludo y gracias por adelantado.

    Like

    • Estimado Adrian,

      Muchas gracias por escribir a Stats SOS. No es ninguna molestia que me escribas. La r de Rosenthal es una magnitud del efecto utilizando las diferencias halladas cuando se utiliza un análisis no paramétrico tomando en cuenta el tamaño de muestra. En este caso, la Z sale sobre la base del análisis que calculas para buscar diferencias entre rangos promedios o valores que tienen una distribución no paramétrica. Luego, el N vendría a ser el tamaño de la muestra de los dos grupos combinados.
      Por otro lado, para reportar este análisis sí pondría r = .58 pero especificaría que es la R de Rosenthal y no la correlación de Pearson.
      Sobre el tema del cálculo que estás haciendo aparentemente tu programa o lugar donde estás calculando por alguna razón está multiplicando por 1000 tu valor final. En todo caso, revisa quizás en otro programa o ve si es que el software está considerando “,” o “.” como decimales.

      ¡Mucho éxito!

      Liked by 1 person

  13. Sara says:

    Hola buenas tardes Juan Carlos, tengo una gran duda, en mi caso comparo dos grupos de 20 sujetos cada uno utilizando la U de Mann-Whitney, pero no tengo un solo dato por sujeto, tengo replicas, por ejemplo 100 replicas por sujeto, entonces al hacer el calculo de la r tengo los siguientes datos z=16.95051 y para N= 40, el resultado es r= 2.68011095507. de ahí mu duda, la N= es el numero total de mi muestra o el numero de replicas x sujeto en este caso 4000.
    si el resultado r= 2.68011095507 es válido¿ la magnitud del efecto es grande?
    muchas gracias

    Like

    • Estimada Sara,

      Muchas gracias por escribir a Stats SOS. En este caso, tu número total es la cantidad de réplicas que has hecho siempre y cuando quieras comparar los sujetos a lo largo del tiempo. Pero dado que tu estás haciendo una comparación entre grupos, entonces tu número total de muestra es la cantidad de sujetos que tienes por ende 40 participantes.
      Sobre la R de Rosenthal, si el efecto te salió eso podríamos decir que si, este efecto es grande (la Z es enorme entonces seguramente hay una gran diferencia entre los grupos).

      ¡Mucho éxito!

      Like

  14. Buenas noches Juan Carlos:
    En primer lugar te agradezco por los valiosos alcances que brindas en tu blog. Me parece muy interesante el cálculo del tamaño del efecto. Al respecto, leí que “para el cálculo del tamaño del Efecto en el caso de diferencia de dos medias, existen diversas alternativas, como la delta de Glass, d de Cohen y g de Hegdes así como una conversión de d a r (un coeficiente de correlación)” (Domínguez, 2013).
    Estoy dando soporte teórico a mis resultados de mi tesis pronto a sustentar la cual es de diseño “preexperimental pretest postest con un solo grupo”, en la cual al analizar los cambios entre el resultados del pre y postest pude ver que la muestra se aproxima a una distribución no normal, por ello apliqué una prueba no paramétrica Wilcoxon, y luego calculé el tamaño del efecto, como sugieres con r para estos casos y se obtuvo 0.88, así que el efecto es grande y eso me alegra mucho. Así que me ha ayudado mucho leer tu artículo.
    Al momento de mencionar la r, y he aquí mi cuestionamiento, ¿es válido presentarlo como “r de Cohen” ¿la r de Rosenthal equivaldría a la “conversión de d a r (coeficiente de correlación)”?
    He buscado en la web y las referencias son escasas, me parece que aún no está muy difundido este estadístico o tal vez no es muy usado, por ello me gustaría todo el soporte teórico para defender su uso en mi tesis.

    A la espera de tus comentarios, me despido
    Saludos

    Giancarlo

    Like

  15. José Rguez says:

    Espléndido blog!
    En mi caso no tengo dos muestras sino tres,de variable ordinal, por lo que he empleado KruskalWillis.
    No aparece el valor Z.
    Como haríamos?

    Like

    • Estimado José,

      Muchas gracias por escribir a Stats SOS. No hay problema, el KW te informa si es que existen diferencias entre alguno de los grupos pero no saben cuáles se diferencian entre sí. Por ello, lo que tendrías que hacer es una U-Mann Whitney para cada una de las combinaciones. Grupo 1 con grupo 2, grupo 1 con grupo 3 y grupo 2 con grupo 3. Para las comparaciones que salen estadísticamente significativas tendrías que aplicar una R de Rosenthal.

      ¡Mucho éxito!

      Like

  16. Alexander says:

    Estimado Juan Carlos, te agradezco por las luces que nos das en estos temas. Cada vez que profundizo me interesan más. Te quisiera hacer una consulta. ¿Qué quiere decir que el valor de la “d” de Cohen salga negativo?. Por ejemplo me ha salido – 0.93. Gracias por tu respuesta.

    Like

    • Estimado Alexander,

      Muchas gracias por escribir a Stats SOS. No hay ningún problema que la D de Cohen salga negativa, lo único que quiere decir es que pusiste el promedio más bajo primero. En realidad la interpretación es con el valor absoluto de la resta de los promedios (en otras palabras no importa el signo).

      Por tal motivo, tendrías que interpretar la D de Cohen de 0.93.

      ¡Mucho éxito!

      Like

  17. Pedro says:

    Hola Juan Carlos
    Muy importante tema a la hora de tener un reporte más amplio de los resultados en una investigación, sin embargo no se suelen reportar ya sea por la poca accesibilidad en los paquetes estadísticos más comerciales o por el apego casi parroquial al llamado “ritual de la significancia estadística”.
    Magnifica explicación, se nota el trabajo didáctico y la introducción de los ejemplos me aclaran mejor el panorama. Estuve consultando sobre los tamaños de efectos (p. ej. Erceg-Hurn y Mirosevich, 2008) y encontré que para el cálculo del tamaño de efecto de la diferencia de medianas (U de mann-whitney) se utiliza el coeficiente de la Probabilidad de Superioridad (PS). Lo cual me remite a la siguiente consulta: ¿Es igualmente válido utilizar r de Roshental o el PS en el reporte de resultados?
    De antemano, gracias.

    Like

    • Hola Pedro,

      Muchas gracias por escribir a Stats SOS. Sí, te diría que es igualmente valido, la diferencia es que utilizan algoritmos distintos pero al final ambos análisis tienen el mismo objetivo. No me haría muchos problema con ello. El método que tu propones es mucho más moderno mientras que la R de Rosenthal es un método más clásico.

      ¡Mucho éxito!

      Like

  18. Alexander says:

    Hola de nuevo Juan Carlos. Te quería consultar sobre la r de Rosenthal con respecto a la N que debe ir en el análisis. Yo tengo 120 niños en mi estudio y están divididos por grados de 2do a 6to. He encontrado diferencias entre estudiantes de 3ero y 4to y quiero conocer el tamaño del efecto con la r de Rosenthal porque ya verifiqué que la distribución entre los grupos no es normal. En ese caso, debo tomar como N la suma de estudiantes de 3ero y 4to (que serían 38) o el total de mi muestra, es decir, los 120? ¡Gracias por tu respuesta!

    Like

  19. enf says:

    Hola, ante todo, enhorabuena por tu trabajo.

    Tengo serias dudas con el cálculo del tamaño del efecto en un estudio que estoy realizando. En mi caso, cuento con muchas variables, las cuales la mayor parte son variables que no cumplen los criterios de normalidad. En dicho estudio realizo una prueba t de student para muestras relacionadas y la prueba de suma de rangos de Wilcoxon según la normalidad de las variables. He conseguido una manera de calcular el tamaño del efecto en las variables con distribuciones normales de forma que me proporciona la “d” de Cohen y los limites del tamaño del efecto. Sin embargo, en las distribuciones no normales, solo me es posible calcular el valor del tamaño del efecto a partir de la fórmula de “r” de Rosenthal. ¿Habría alguna manera de calcular los límites del tamaño del efecto en distribuciones no normales?

    Muchas gracias y un saludo.

    Like

    • Estimado enf,

      Muchas gracias por escribir a Stats SOS. Disculpa la demora pero estos días he estado muy atareado. Yo no me haría tantos problemas y para mis análisis no paramétricos calcularía la R de Rosenthal. Aparte, tampoco volvería paramétrico la distribución de mis puntajes si no me salió de esa manera. Yo prefiero dejar como son los resultados en lugar de hacer transformaciones porque la interpretación se vuelve más complicada.
      En conclusión, usa D de Cohen para las variables con distribución normal y la R de Rosenthal con las variables que tienen una distribución asimétrica.

      ¡Mucho éxito!

      Like

  20. Leonarda Rodriguez says:

    f(1,26) = 6.83, p=.007, eta parcial2 pequeña =.248 y pontencia alta =.81. Esto fue comparando la edad con las habilidades motoras finas en ancianos institucionalizados y no institucionalizados, resultados con la mano dominante, podria decirme que significa todo esto, voy a examinar mi tesis y quiero estar segura de que aun teniendo una eta de efecto pequeño si los resultados son estadisticamente significativos?
    por favor respondame por correo electronico

    Like

  21. Anonymous says:

    Buenas Juan Carlos, soy David, de España. En primer lugar agradecerte tu blog, porque me está siendo de gran ayuda con mi estudio.

    Estoy trabajando en un estudio con 3 grupos, uno control, otro grupo con un volumen de trabajo medio y otro con un volumen de trabajo alto. Los 3 grupos han realizado pre y post test.

    La p no me sale significativa, seguramente debido al tamaño de la muestra (sólo 15 deportistas). Ahora estoy con el tamaño del efecto, con la g de Hedges. Mi pregunta es, ¿qué dos valores debo comparar para sacar la g de Hedges? ¿Los post-test de cada grupo?. Mi duda viene porque si comparo los post test es posible que haya magnitudes grandes, pero…¿y si esas magnitudes vienen ya desde los pre-test y únicamente se han mantenido en el tiempo?.

    No sé si me he explicado bien, espero puedas resolver mis preguntas.

    Muchas gracias por todo, un saludo.

    Like

    • Estimado David,

      Muchas gracias por escribir a Stats SOS. La respuesta depende de los objetivos de tu estudio. Yo lo que haría es comparar primero pre test para ver si ambos grupos son iguales antes de la intervención. Luego, compararía el pre test contra el post test de cada uno de los grupos para ver si la intervención generó algún cambió. Finalmente, compararía los post test de los grupos separados para ver si las diferentes intervenciones generaron un cambio distinto en ambos grupos.

      ¡Mucho éxito!

      Like

      • Anonymous says:

        Estimado Juan Carlos, de acuerdo a una sugerencia previa que me diste, el problema que veo en esta estrategia es que tantas comparaciones por separado aumentan la probabilidad de error tipo 1. Creo que también excluye la posibilidad de explorar la interacción entre la pertenencia del grupo y el tempo (pre-post). ¿No será mejor que utilice un ANOVA de grupos repetidos? ¿Qué opinas?.

        Like

        • Estimado David,
          Gracias nuevamente por escribir. Si usas Hedges no tendrás el problema del error tipo 1, porque ese cálculo no usa una significancia estadística. Podrías usar un ANOVA de medidas repetidas siempre y cuando tengas 3 o más medidas lo largo del tiempo. De ser así, esa podría ser una opción.

          ¡Mucho éxito!

          Like

  22. Anonymous says:

    Hola Juan Carlos,

    tengo un diseño experimental pre post dónde se mide la autoestima después de realizar un periodo de ejercicio físico. La media pre intervención en autoestima del grupo experimental es de 38,8 (4,3) y de 37,3 (5,7) en el grupo control. Después de la intervención la media del grupo experimental es 39,9 (5,7) y de 35,6 (6,3) en el grupo control. Comparando los dos grupos el valor de p es de 0,002.

    Se trata de una revisión sistemàtica para un trabajo de fin de master y uno de los profesores me han dicho que he de calcular la d de Cohen para las diferencias pre-post del grupo experimental y, por separado, calcular la d de cohen para las diferencias pre-post del grupo control y, finalmente, restar las dos d de Cohen para ver el tamaño del efecto. Haciendo esto me sale una d de -0,027 y no acabo de entender como encaja este dato con el valor de p.

    Muchas gracias

    Like

    • Estiamd@,

      Muchas gracias por escribir a Stats SOS. Lo que ocurre es que la significancia estadística está muy relacionada con el tamaño de muestra. Dado que es una revisión sistemática tu debes estar contando cantidad de papers sobre un tema específico. El asunto es que esa no creo que sea una muestra muy grande. Por ello, el tamaño del efecto es útil. Este te da información sobre la magnitud de una diferencia pero además no está sujeto al tamaño de muestra como el valor p. Muchas veces debido al tamaño de muestra se comete un error tipo II donde no se rechaza Ho cuando en realidad se debió rechazar.

      ¡Mucho éxito!

      Like

  23. Lucia says:

    Estimado Juan Carlos, estoy trabajando en una investigación en la que hago comparaciones de medias pareadas. Por no cumplir con el supuesto de normalidad he tenido que recurrir al test no paramétrico de Wilcoxon. El problema es que necesito calcular la magnitud del efecto y en este caso no puedo utilidar D-Cohen.
    He leído algunos trabajos suyos y proponía cuando no se cumplía la normalidad usar la r de Rosenthal pero si no me equivoco esta es la alternativa para determinar magnitud de efecto en el caso de comparar dos medias independientes.

    En este caso que necesito comparar medias pareadas y no se cumple el supuesto de normalidad ¿Como determino la magnitud del efecto??

    Bueno desde muchas gracias.

    Like

    • Estimada Lucía,

      No hay ningún problema. Puedes usar la r de Rosenthal para muestras relacionadas, no se complica tu cálculo en nada. ¡Para adelante no más!

      ¡Mucho éxito!

      Like

      • Lucia says:

        Estimado, de acuerdo a su respuesta anterior al hacer un tes no paramétrico de Wilcoxon para datos pareados puedo usar la r=Z/raíx(N) de Rosenthal parea estimar la magnitud del efecto. La pregunta es como obtengo el IC para dicha magnitud de efecto. Desde ya gracias. Saludos

        Like

        • Estimada Lucia,

          Muchas gracias por escribir. El SPSS no calcula la IC para Rosenthal pero quizás eso esté implementado en R. Otra posibilidad es tomar en cuenta el error de estimación y calcularlo conjunto al nivel de confianza. Similar a como se calcula la IC en una d de cohen.

          Mucho éxito!

          Like

  24. Anonymous says:

    Veo que este es el post con más dudas. por parte de los lectores ..

    Like

  25. José Gómez says:

    Hola Juan Carlos, buenas noches. Te felicito por la claridad en la exposición y la frescura y el sentido del humor. Gracias por tu tiempo y tu esfuerzo.
    Mi duda es a propósito del tamaño del efecto para la U de Mann-Whitney. Hablas de la r de Rosenthal y también está la probabilidad de superioridad (Ps), medida como U/nm, siendo n el tamaño de un grupo y m el del grupo de comparación. En cualquier caso:
    a) ¿Cuál prefieres utilizar y cómo interpretarías el segundo con un ejemplo práctico;
    b) ¿Tendría sentido combinar en un metanálisis diferentes tamaños de efectos medidos por la r o por la Ps? ¿Cómo lo harías?

    Like

  26. José Gómez says:

    Un detalle importante que había olvidado: las variables en cuestión son discretas. Podría calcular mediante remuestreo una media y un EE para introducirlo en el meta-análisis, pero ¿tendría sentido?

    Like

    • Estimado José,

      Muchas gracias por escribir a Stats SOS. La R de Rosenthal va de infinito a infinito pero siempre se interpreta como valor absoluto. Podrías poner las dos medidas del tamaño del efecto pero creo que la información sería redundante. La diferencia entre los tamaños del efecto es que uno suma los tamaños de muestra entre los grupos mientras que el otro los multiplica. Además de la U sale la Z entonces prácticamente estarías utilizando casi el mismo estadístico.

      No me queda claro por qué harías bootstrapping en el meta analysis, ahí tranquilamente podrías usar una regresión logística de ser el caso. De todos modos, no me animo a decirte un análisis específico sobre qué hacer para tu meta análisis porque no me queda claro qué quieres medir en el meta análisis. Por lo general, en este tipo de estudios se utilizan medida de asociación no paramétricas como el chi cuadrado o la regresión logística. Pero esto es más especulativo.

      ¡Mucho éxito!

      Like

      • José Gómez says:

        Hola Juan Carlos, gracias por tu respuesta, pero no lo acabo de ver claro. Resulta que parto de experimentos que han tenido lugar en 4 granjas distintas. El planteamiento en todos ellos es similar: un lote de animales tratado y un lote de animales sin tratar. La variable de respuesta (discreta) es el número de días que los animales de cada lote han estado enfermos y puede variar de 0 a 20 días, por ejemplo. Dentro de cada granja, debo comparar los días que han estado enfermos los animales tratados respecto a los días que han estado enfermos los animales control. Como no se cumplen las condiciones de normalidad, recurro a la U de Mann-Whitney. En una de las granjas, como tampoco se cumplen los requisitos de homocedasticidad entre los grupos experimentales, recurro a Krustal-Wallis. Las preguntas son:
        a) El tamaño del efecto (TE) con Mann-Whitney me lo da la r de Rosenthal. Bien.
        b) ¿Cómo calculo el TE en el experimento de Krustal-Wallis? (He encontrado por ahí la expresión Ji2 / [(n2-1)*(n+1)] pero me da tamaños de efecto ridículos.)
        c) Ahora bien, debo “consolidar” los datos de las 4 granjas en un meta-análisis. Se me ocurre que una opción primitiva sería un anova no paramétrico (prueba de Sheirer-Ray-Hare), pero lo suyo debe ser el meta-análisis como Dios manda. Para ello, solo encuentro la opción de introducir las medias (no medianas), errores estándar y tamaño muestral. Como estamos ante variables discretas y con tamaños muestrales pequeños, he creído más exacto hallar tales valores (media y EE) mediante remuestreo. El tamaño muestral, en consecuencia, es el del número total de “re-muestras”. ¿Esto tiene sentido? ¿Debo emplear otra estrategia?

        Un saludo y vuelvo a agradecerte tu tiempo y ayuda.

        Like

        • Estimado José,

          Muchas gracias por escribir a Stats SOS. Enumeraré tus preguntas:
          a) Sí, la R se Rosenthal te dará el resultado pero recuerda tu U de MANN Whitney compararla con un nivel de significancia de 0.01 porque como la K-W no tiene post hoc entonces tienes que hacer múltiples U de Mann Whitney y ahí podrías capitalizar por la cantidad análisis.
          b) Iría de frente a U de Mann Whitney porque igual por angas o por mangas lo vas a tener que utilizar.
          c) Sí tiene sentido dado que estás usando medias y EE, el boostrapping te controlará el problema de los tamaños de muestras pequeños.

          ¡Mucho éxito!

          Like

  27. Anonymous says:

    Buenas Juan Carlos,

    En primer lugar muchas gracias por compartir tus conocimientos con nosotros. Estoy realizando un proyecto finde máster y he realizado un ANOVA de un factor (diferencias entre una muestra control y otra con TDAH), con lo cual según las normas APA debo poner el tamaño del efecto y no encuentro si el estadístico correcto es d, R (al cuadrado) o la eta cuadrado y en tal caso ¿como se calcula dicho estadístico en SPSS?.

    Muchísimas gracias de antemano! 🙂 Un saludo

    Like

  28. Anonymous says:

    Hola Juan Carlos, te escribo por acá porque tengo dos dudas super puntuales. Espero puedas ayudarme.

    1) Al sacar la D de Cohen , ésta me sale negativa.

    Las medias que tengo son Xt=10,40 y Xc=12,71. Así las resté. En ese orden.

    Mi consulta es la siguiente: El orden de las medias Xt – Xc puede ser cambiado para que este salga positivo?

    2) Saqué el eta cuadrado en dos ocasiones obtuve estos resultados:

    eta1= .203
    eta2= .347

    ​Mi consulta es la siguiente: Debería considerarlo en mis análisis como significativos?​

    Espero atenta tu respuesta,

    Mil gracias

    Like

    • Estimad@,

      Muchas gracias por escribir a Stats SOS. Voy a enumerar parar que sea más fácil responder.
      1) Sí puedes voltearlas pero tienes que tener cuidado con la interpretación y ver qué grupo tiene una mayor media.
      2) No me queda clara la pregunta, el eta al cuadrado no utiliza una prueba de hipótesis y por ende no tendría un valor de significancia. El eta cuadrado mide el tamaño del efecto de una variable en un ANOVA. La significancia se da por la prueba de ANOVA y no por el Eta.

      ¡Mucho éxito!

      Like

  29. Enfermero4 says:

    Buenas tardes

    Tengo una duda que no se si tiene que ver mucho con el tema. A la hora de utilizar un test de Kruskal Wallis y obtener un valor de p < 0,05; me ocurren casos en los que al calcular la U de Mann Whitney con la correccion de Bonferroni para la comparacion por pares (o sea, utilizando como valor de significacion 0,05/numero de grupos) ningun valor es inferior al valor de significacion seleccionado (en este caso 0,017).

    En esos casos, estariamos hablando de un error en los calculos, o seria que ninguna de las comparaciones por pares es significativa a pesar de que el Kruskal Wallis sea < 0,05

    Muchas gracias y enhorabuena por tu trabajo

    Like

    • Estimado Enfermero,

      Muchas gracias por escribir a Stats SOS. El KW y el Bonferroni de Dunn para análisis no paramétricos son análisis distintos. Por un lado, uno es un test omnibus (KW) y el otro uno que va par por par. Sí podría pasar que la significancia difiera entre análisis debido al punto de corte que estás usando como valor de significancia. Tus cálculos no necesariamente tendría que ser erróneos.

      ¡Mucho éxito!

      Like

      • Enfermero4 says:

        Hola Juan Carlos

        Ante todo, gracias por tu rapida respuesta.

        Mi gran duda seria como explicar eso, o sea, cual seria la conclusion al comparar por ejemplo, tres variables relacionadas y que entre ellas sea significativo, pero al compararlas una a una no sean significativas las diferencias entre ellas (por lo menos con el nivel de significacion de 0,017 en este caso)

        Espero haberme explicado bien, de nuevo, muchas gracias!

        Like

  30. Omar Garcia says:

    Buenas noches una consulta ¿ cómo podría interpretar la D de Cohen en una tesis?
    Gracias

    Like

    • Hola Omar,

      Muchas gracias por escribir a Stats SOS. No me queda muy clara la pregunta pero la D de Cohen se interpreta de manera similar independientemente del documento en el que trabajes. Un mayor valor en valor absoluto implica que la magnitud del efecto es mayor.

      ¡Mucho éxito!

      Like

  31. Arturo says:

    Estimado Juan Carlos:

    ¿Qué opciones existen para estimar el efecto de medidas repetidas, sean estas paramétricas o no paramétricas, sean de 2 o más mediciones?. Si quisiera aprender a calcularlas a mano, ¿dónde puedo encontrar información?. Mil gracias por tus sugerencias por adelantado.

    Like

    • Estimado Arturo,

      Muchas gracias por escribir a Stats SOS. Tu apuesta es el ANOVA de medidas repetidas o el análisis de Friedmann (para no paramétricas). La verdad que en este instante no tengo en la mente una página que te diga cómo calcularlo a mano. Pero seguro libros de estadística básica y econometría podrían ayudarte.

      ¡Mucho éxito!

      Like

      • Arturo says:

        Gracias por la pronta respuesta Juan Carlos. Me refería a qué estadístcos sugieres para calcular el tamaño del efecto que acompañarían a las pruebas t de medidas repetidas, ANOVA de medidas repetidas, y el de Friedman (no paramétrico de medidas repetidas). Estos no los he encontrado en libros ni en internet, pues todo mundo habla solo de la D de Cohen. Gracias nuevamente.

        Like

  32. Lorish says:

    Hola Arturo, me ha gustado mucho tu post, tengo un pregunta, tengo una variable independiente y tres dependientes, mi diseño es n=1, así que quiero medir el efecto de una intervención en las tres variables dependientes, si una es intervalar y las otras dos son ordinales, cómo debo de manejar los análisis estadísticos. me piden que mida el tamaño del efecto, por eso busqué la d de cohen, pero mi duda va enfocada a que, una vez que tenga un número grande de réplicas, cómo puedo medir los cambios del antes de la intervención, después, al mes, a los seis meses y al año?
    Gracias

    Like

    • Estimada Lorish,

      Muchas gracias por escribir a Stats SOS. Creo que un ANOVA de medidas repetidas sería una mejor opción para ti. El único problema que tienes es que el ANOVA funciona con variables que son continuas. Podrías transformar en continuas tus variables ordinales y con eso podrías hacer el ANOVA. El tema es que como tienes tres variables dependientes tendrías que hacer tres ANOVAS. Otra posibilidad es que hagas análisis de series de tiempo para variables que son categóricas especificamente ordinales. Es más complicado pero también podría ser posible.

      Mucho exito!

      Juan Carlos

      Like

  33. Anonymous says:

    Buenas, mi duda es que los d de Cohen me salen negativos. ¿Sería un error estadístico?

    Like

  34. María R says:

    Hola Juan Carlos, me encanta tu blog y me ha ayudado muchísimo con la estadística de la tesis. Mi pregunta es…mis variables son no paramétricas…la r de Rosenthal sirve también para estudios en biología/biomedicina o sólo para ciencias sociales? Gracias!

    Like

  35. Berto says:

    Estimado Juan Carlos.

    Estoy realizando un análisis pre-post de una misma muestra (n=12).
    Para las variables normales, al utilizar estadística paramétrica, estoy calculando la d de Cohen con la mejora que propone Cumming (2013): d=Mdiff/SDav ; donde SDav = raiz((SDpre^2 + SDpost^2)/2).
    Y para las no normales, quiero calcular la r de Rosenthal de acuerdo a tus instrucciones: r=Z/raíz(N).
    Mi duda es, al tratase de muestras relacionadas (pareadas), es decir, que se trata de los mismos sujetos antes y después de un tratamiento, ¿la N que debo utilizar para calcular la r será 12 o 24? Es decir, utilizar la N de la muestra (la cuál no cambia puesto que son las mismas personas, 12), o utilizar Nx2 ya que se trata de 2 momentos diferentes.
    No he encontrado ningún sitio en el que lo expliquen. ¿Podría darme también alguna referencia para poder utilizar?

    Muchísimas gracias
    Y enhorabuena por su blog, es de muchísima utilidad.
    Saludos.

    Like

    • Estimado Berto,

      Muchas gracias por escribir a Stats SOS. Dado que es la muestra total que usas yo utilizaría el total de observaciones que usas lo cual sería 24.

      Mucho éxito!

      Like

      • Berto says:

        Muchas gracias por tu respuesta Juan Carlos.

        Me han surgido un par de dudas más (espero no molestarle demasiado…).

        Los puntos de corte para determinar el ES, ¿para la r de Rosenthal es el mismo que para la d de Cohen (.20, .50, .80)? Es que también he leído gente que utiliza .10, .30, .50 cuando calcula el ES en estadística no paramétrica. Si fuese así, ¿qué referencia podría utilizar para citarlo?

        Y por último, en su post, cuando explica el cálculo de la r, en su ejemplo le sale como resultado 0.058, y dice que se trata de un efecto pequeño. Le copio a continuación algunos de los resultados que he obtenido, puesto que varían mucho y no estoy seguro de si estoy interpretándolo bien:
        Z = -1.289 r = 0.275 (ES pequeño)
        Z = -0.157 r = 0.032 (ES nulo?)
        Z = -2.934 r = 0.626 (ES moderado)
        ¿Sería correcta esta interpretación?

        De nuevo, muchísimas gracias por su ayuda.
        Saludos.

        Like

  36. Hola. Gracias por la información de tu blog.
    ¿Es posible realizar un meta-análisis sintetizando los tamaños del efecto d Cohen y R de Rosenthal?
    Podrías pasarme bibliografía sobre esta cuestión. Además, para conocer las fórmulas necesarias para calcular el tamaño del efecto a partir de pruebas no paramétricas (Wilcoxon-W, Mann-Whitney-U o Kruskal-Wallis-H o valor Z resultante).
    Muchas gracias

    Like

  37. Raúl says:

    Muy interesante. Mi pregunta es: Tengo 3 grupos de sujetos (bajo, medio y alto) clasificados en base a un test. A su vez, los sujetos de estos grupos tienen otra puntuación en otro test ( los bajos puntuacion de 32,5, medio puntuación de 28,3, y alto puntuacion 70,2) Los tres grupos tienen “n” diferente pero cumplen los criterios de homogeneidad de varianza y les he comparado con un anova de un factor. Mi pregunta es: ¿es pertinente averiguar el tamaño del efecto a pesar de no tener grupo control? Si es así ¿que estadístico debo utilizar? la “d”, la “g” … Al no tener grupo control no encuentro el estadísitico adecuado. Muchas gracias de antemano.
    Un saludo

    Like

  38. Miriam Félix says:

    Estimado Juan Carlos,

    Muchas gracias por el POST, está fenomenal! Esclarecedor y ameno 😊

    2 preguntas en relación a la r de Rosenthal:
    1) ¿valdría también para medidas repetidas?
    2) ¿se interpreta con los mismos rangos que la d de Cohen?

    MIL GRACIAS!!

    Miriam

    Like

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s