Ahora que hemos visto qué es la estadística en general y a su vez una de sus ramas la estadística descriptiva, prosigamos con el otro gran tipo de estadística. En el post de hoy, definiremos fácilmente la estadística inferencial y presentaremos ejemplos de cuándo este tipo de estadística se usa.
Adicionalmente, mencionaremos los conceptos básicos de esta y expondremos algunos conceptos para determinar inferencias. Aquí, no se explicará en detalle cada uno de los conceptos ya que le dedicaremos un post individual a cada uno de ellos. Considero que este post es un gran paso para comprender la estadística en psicología y en otras ciencias ya que este tipo es el más utilizado para llegar a conclusiones sobre el comportamiento, lo que piensa y siente la gente.
Bueno, mucha introducción vamos a lo nuestro: La estadística inferencial pretende inferir u obtener conclusiones que se pueden generalizar a toda la población a partir del estudio de una muestra (o grupo más pequeño).
En ese caso, si ponemos un ejemplo sencillo imagínense que quieren pintar las paredes de su casa. Ustedes van a comprar la pintura y les suelen enseñar una paleta de colores con “muestras de colores” para que ustedes escojan una para luego comprar el galón de pintura y pintar toda la pared. En el caso de la estadística inferencial la lógica es muy parecida. De un grupo más pequeño (o muestra de pintura) quieren ver como sería toda la pared (la población). ¿Ven? Es bastante sencillo, ¿no? Continuemos usando el mismo ejemplo de pintar las paredes de la casa. Para pintar la casa, ustedes necesitan una serie de implementos como por ejemplo: la muestra, comprar la brocha, el rodillo y el galón de pintura (o contratar a una persona que tenga todos estos implementos). Los implementos de la estadística inferencial son: la pregunta de investigación que se quiere responder, los objetivos del estudio, en otras palabras cómo se va a responder esa pregunta, una hipótesis de qué puede pasar, la muestra de personas que se quiere estudiar, las técnicas estadísticas a utilizar y el muy conocido valor “p” que en SPSS es mejor conocido como “la significación”.
Vamos a un ejemplo: Ustedes investigadores o personas curiosas, quieren averiguar si existen diferencias en el bienestar psicológico entre un grupo de 50 personas (muestra A) que tienen mascotas en comparación con otro grupo de 50 individuos (muestra B) que nunca ha tenido una mascota. Para ello, es necesario tomarle una prueba de bienestar psicológico a ambos grupos y obtener el promedio de cada grupo por separado. La lógica nos diría “genial, ahora solo miro los puntajes promedio y el puntaje más alto es el que tiene más bienestar”, ¡pues no! :)). Si se compara sólo los promedios, sólo se sabrá que un grupo tiene un puntaje promedio mayor que el otro, nada más.
Sin embargo, no podremos saber si es que esta diferencia se ha dado por otros motivos que no conocemos o simplemente por el “azar”. Puede ser que justo ese día las personas que no tienen mascotas les fue excelente en el trabajo o que alguno se ganó la lotería y por eso escribió en la prueba que su bienestar psicológico es altísimo. Por ende, mirar solo los promedios no es suficiente. En ese caso, ¿qué hacemos? Lo que tenemos que hacer es plantear hipótesis o plantear una prueba de hipótesis.
¿Qué es esto? Muy sencillo, es literalmente proponer hipótesis si es que nuestro resultado se va a dar o no. En otras palabras, contrastar dos hipótesis. En el ejemplo, anterior de las mascotas y el bienestar podríamos mencionar las siguientes hipótesis: 1) Que no hay diferencia entre el grupo A y el grupo B 2) Que sí hay diferencias pero no sabemos quién tendrá un promedio mayor, o quizás que las personas que tienen mascotas (grupo A) tendrán mayor bienestar psicológico que las que no (grupo B). Esto depende de ustedes, lo importante es que contrasten una hipótesis con otra para simplificar el tema. Si alguien está interesado en la nomenclatura matemática de esto puede ir a la parte de comentarios y ahí lo encontrará. Recuerden, este blog intenta explicar con palabras sencillas la estadística pero si alguien tiene interés en la terminología puede ir siempre a la parte de comentarios. Ok, luego que tienen sus hipótesis planteadas ahora la idea es probar cuál hipótesis se va a cumplir.
¿Cómo se hace esto? Con el valor “p”. ¿Qué es esto? En términos banales, El valor p, es la probabilidad que la primera hipótesis sea cierta. Sin embargo, en palabras más técnicas, es la probabilidad que uno tiene para poder rechazar la primera hipótesis (que no hay diferencias entre los grupos).
El valor p, va de 0 = 0% a 1, que es igual a 100%. En general, en psicología y en otras ciencias sociales se usa 5% como la probabilidad límite para poder rechazar esta primera hipótesis. Por eso, nuestro profesor de estadística nos dice que debemos ver la significación del SPSS y si esta es menor a 0.05 (que en realidad es 5%), podemos rechazar la primera hipótesis. Luego que rechazamos la hipótesis podemos decir que nuestro resultado es significativo, en otras palabras, que hay más de 95% de probabilidad que nuestra segunda hipótesis (que hay diferencias en el bienestar psicológico en las personas que tienen mascotas en comparación con las que no) se pueda dar en la realidad. Dicho de otro modo, que existe menos de 5% de probabilidad que nuestra primera hipótesis (que no hay diferencias en el bienestar entre el grupo de propietarios de mascotas y el grupo que nunca ha tenido una mascota) se cumpla en la realidad.
Bueno, creo que ha sido bastante por hoy. En general, en la estadística inferencial hay millones de pruebas para hacer inferencias: pruebas t, ANOVAS, Correlaciones, Regresiones lineales y logísticas, ecuaciones estructurales, etc. Vamos a ir viendo un análisis a la vez y de a pocos. Para el siguiente post veremos algo relacionado a los valores significativos y cuáles son los tipos de errores más comunes que se pueden cometer en estadística. En otras palabras, el error tipo 1 y el error tipo 2. Para los que llegaron acá ¡Los felicito! ¡Muy buen trabajo! Espero volverlos a tener aquí en el blog y no duden en comentar o preguntar si tienen alguna pregunta.
¡Buenas vibras para todos!
¡Hasta la vista!
Bibliografía recomendada
Sirkin, M. (2006). Statistics for the social sciences. Sage: UK
Permíteme difundirlo.
LikeLike
¡Muchas gracias Moises! ¡Encantado que lo difundas!
LikeLiked by 1 person
Aquí les presento las nomenclaturas estadísticas que se usan en la prueba de hipótesis:
Hipótesis nula, Ho: u1 = u2 (no existen diferencias entre los grupos).
Hipotesis 1, H1: u1 > u2 (que el promedio del grupo A será mayor al del grupo B)
o también puede ser lo siguiente: Hipótesis 1, H1: u1 ≠ u2. (los promedios del grupo A y el grupo B no son iguales pero no se sabe cuál es mayor).
¡Buenas vibras! ¡Hasta la vista!
LikeLike
Juanca!!! Que buena iniciativa de crear un blog para acercar cada vez mas la estadística a los psicólogos. En mi maestría estoy que estudo como loca estadística y he aprendido mucho sobretodo del ámbito de psicometría. Sobre este último post y la estadística inferencial, desde hace unos años hay muchos estudios que critican el uso del test de significancia de hipotesis nula, como el único elemento para rechazar o aceptar nuestras hipótesis en los estudios. En cambio, se está promoviendo con mucha fuerza (incluso el APA 6ta edición y muchos journals ya piden que se reporte) el uso de tamaños de efecto, intervalos de confianza y/o boostrapping para tener más exactitud y claridad en los resultados. Tengo muchos artículos relacionados. Te los paso el proximo finde (que acabe exámenes pe jej) por si te interesan. Un fuerte abrazo!!
LikeLike
¡Gini! ¡Que genial saber de ti y que estés leyendo mi blog! Primero que todo gracias por leer y encantado que me mandes toda la información que estás aprendiendo. Feliz de seguir aprendiendo.
Estoy de acuerdo contigo, el p-valor es un estadístico un poco controversial. Este blog quiere ir desde el comienzo y explicar desde lo básico hasta lo más complejo. Por eso he tenido que presentar el valor p. Desde que salió la estadística Bayesiana (que también hablaré de eso en algún momento), rechazar una hipótesis nula es controvertido. El pero hecho de plantearla ya puede ser complicado. Incluso, hay una rama de la estadística que menciona que es un poco “tonto” plantear algo (h1) versus nada (h0).
De todos modos, creo que para aprender todos estos conceptos que mencionas es importante presentar el valor p. Tengo apuntado hacer un post sobre intervalos de confianza, de todas maneras. Igual, siempre me genera dudas esta medida porque son rangos en lugar de un punto de referencia. Creo que lo más útil de los intervalos de confianza es que te ayudan a saber si es que tus resultados tienen un sesgo grande, gracias a la distancia del intervalo.
Me alegra también que menciones el tamaño del efecto y a su vez el poder estadístico ¡Muy bueno tu punto! también tenía pensado y apuntado hacer un post sobre esto, pero más adelante. Incluso ahora en unos análisis que hice me salió un p-valor menor a 5% pero con un poder estadístico espantoso, entonces tuve que hacer mención de esto en la discusión. De todos modos, aún estamos en algo muy básico pero estos temas también los tocaré. ¡Te agradezco mucho por traerlos a colación!
Sobre el bootstrapping, estoy de acuerdo, es muy útil porque te permite conocer tus resultados mucho mejor y reducir el sesgo con el uso de una especie de muestras aleatorias o remuestreo. No pensaba tocar bootstrapping pero ahora que lo mencionas me parece una idea genial.
De todos modos, estas técnicas son un poco más complejas y recién estoy comenzando con este blog, entonces iré yendo paso a paso. Algunas de las técnicas tendrán sus críticas que en todo caso mencionaré en el post y que serán tratadas luego.
Más bien, muchas gracias por los comentarios y por querer compartir la información, me ayuda muchísimo para continuar aprendiendo y también para mejorar el blog.
¡Un fuerte abrazo! ¡Buenas vibras! ¡Hasta la vista!
LikeLike
Amo tu blog… yo puedo decir que pase los cursos y borré caset! nunca use la estadística (ni quise usarla porque me da dolor de cabeza), hice mi tesis en cuali, etc… Peeero ahora quiero aprender de verdad el lado cuanti porque estoy en investigaciones y me sería muy útil. Tu blog hace que sienta todo muy interesante y simple… (Hasta ahora…) GRACIAS!!!!
LikeLike
¡Hola!
Me alegra mucho que te esté gustando el blog. La verdad que la parte cuantitativa no es tan difícil, creo que el primer paso es darle una oportunidad, y me alegra que lo estés haciendo.
Me halaga saber que estoy logrando hacer la estadística interesante para ti.
La idea es mantenerla como algo comprensible, lógico y simple de entender. La estadística debe ser para todos y te agradezco mucho por estar leyendo, espero que sigas por estos lares comentando el blog y revisando los posts. Cualquier duda que necesites sobre temas de investigación deja tu comentario en alguno y encantado de poder ver la duda. ¡Muchas gracias a ti! ¡Buenas vibras!
LikeLike
Hola! Tu blog está muy bueno. Tengo una pregunta. Si quiero comparar dos grupos ya que mi hipotesis es que un grupo duerme mas que otro debido a factores ambientales y tengo las cantidades de horas que cada grupo duerme, que analisis es el que debo hacer para probar que estadisticamente es significativo? con porcentajes me salen diferencias notables pero quiero corroborarlo con estadistica. Gracias!
LikeLike
¡Hola que tal! Muchas gracias por el cumplido y me alegra que te guste el blog y estés preguntando. ¡Vamos a la pregunta!
Si tienes dos grupos y mides cantidad de horas de sueño puedes hacer una prueba t-student de muestras independientes.
Pero antes de realizar ese análisis te recomiendo ver si tus grupos tienen una distribución normal. En el blog hay dos posts sobre distribución normal y cuándo la distribución es no normal. Puedes revisar especialmente el de distribución no normal porque te da ideas de cómo revisar normalidad. Pero en general, esos dos posts te pueden dar ciertas pistas sobre esto. Ojo, la prueba de T-student asume que ambos grupos tienen distribución normal entonces es importante hacer esto.
Luego de haber hecho eso, puedes ir a la prueba t-student. En el SPSS está bajo la ruta Analizar – Comparar Medias – T- para muestras independientes.
Esta prueba te va a botar unas tablas, en la última tabla te saldrán dos significaciones, primero fíjate en la primera hacia la izquierda.
Esa número es la prueba de Levene para homogeneidad de varianzas (si las varianzas son iguales o no). Si la significación es mayor a 0.05 entonces las varianzas son iguales y tendrías que usar la primera línea de la tabla. Si la significación de la prueba de Levene sale menor a 0.05 entonces tienes que usar la segunda línea.
Luego, tienes que mirar la otra significación (que está más a la derecha) para ver si efectivamente son significativos. Es el mismo proceso anterior sobre significación. Si es mayor a 0.05 los grupos no son diferentes, si es menor sí lo son. Este post sobre estadística inferencial que habla de significación con más detalle puede darte un poco más de luces sobre la significación.
Por último, si aún tienes tiempo, esta semana o la siguiente voy a postear sobre la prueba T-student para muestras independientes. Ahí estará toda la información condensada en un post.
Espero haberte ayudado. ¡Buenas vibras!
LikeLike
Pingback: Cerveza, estadística y la t-student | Estadística para todos, hecho por un psicólogo
Pingback: Análisis de varianza (ANOVA) ¿Alegría o terror? | Estadística para todos, hecho por un psicólogo
Pingback: ¡Errores! ¿Existían errores en estadística? | Stats SOS
Pingback: La vida después del ANOVA: el Post Hoc | Stats SOS
Pingback: ¡Pero qué linda relación tienen! La correlación de Pearson | Stats SOS
Pingback: Tan parecidos que parecen relacionados: La t-student de muestras relacionadas | Stats SOS
Pingback: Dos caminos, un destino: el ANOVA de dos vías | Stats SOS
Pingback: No es paramétrico, ¿Y ahora? ¡Cómo comparo! La U de Mann-Whitney | Stats SOS
Pingback: Gonzalo apoya la aditividad: Los 4 supuestos de la regresion lineal | Stats SOS
Pingback: ¿Muestras no paramétricas relacionadas? La W-wilcoxon | Stats SOS
Pingback: Un día llegó la regresión múltiple | Stats SOS
Pingback: ¿Tienes confianza? La confiabilidad y el Alfa de Cronbach | Stats SOS
Pingback: Mis grupos son diferentes ¿Cuán diferentes? El tamaño del efecto | Stats SOS
Wujuuuu entendí lo que es el valor p. Gracias !
LikeLike
Hola Maria Paz,
¡Me alegro que haya servido!
¡Muchos éxitos!
LikeLike
Estimado Prof. Juan Carlos,
Soy un fiel lector y seguidor de su valioso trabajo y de su blog.
Profesor tengo una pregunta: resulta que estamos realizando una investigación sobre la influencia de una estrategia didáctica en el aprendizaje de la estadística descriptiva, con estudiantes de secundaria (14-16 años), del grado noveno.
Si se van a tomar dos grupos para el estudio, uno de control y otro de intervención, y luego se van a comparar medias (prueba t por ejemplo) en los resultados de unas pruebas, ¿es necesario que esos grupos se tomen aleatoriamente o pueden ser una muestra no aleatoria?
Nuestra intención no es generalizar los resultados. He preguntado a algunos profesores y me han dicho que siempre que se hagan pruebas de hipótesis las muestras tienen que ser aleatorias pues de lo contrario no es posible hacer este tipo de pruebas.
Muchas gracias Profesor Juan Carlos por su ayuda.
Disculpe de antemanos las molestias.
Saludos
Francisco Córdoba
Medellín, Colombia
LikeLike
Estimado Francisco,
Muchas gracias por escribirme a Stats SOS. Sería lo mejor que la asignación de los grupos sea aleatoria para evitar el sesgo de selección de grupos.
Mucho éxito!
LikeLike
Estimado Profesor Juan Carlos,
Muchas gracias por su respuesta.
Un saludo
LikeLike
Buenas tardes y como interpretaria si en la correlación de Pearson sale -,054 y en el puntaje sig. bilateral sale ,193???
Espero su respuesta
LikeLike
Muchas gracias por su pagina, soy estudiante de odontolgia y me ha servido para entender un poco mas todo, auqnue aun tengo dudas con P.
tengo entendido que es la probabilidad de rechazar Ho? o estoy equivocada?
saludos desde Chile.
LikeLike