Temas 4, 5 y 6 (2015)

Apunte Español
Universidad Universidad de Barcelona (UB)
Grado Psicología - 1º curso
Asignatura Técnicas de Investigación
Año del apunte 2015
Páginas 18
Fecha de subida 12/04/2016
Descargas 34
Subido por

Vista previa del texto

TEMA 4 – MODELOS DE PROBABILIDAD VARIABLES ALEATORIAS Las persones nos movemos en la realidad, pero es incierta. Hay incertidumbre. Ej: Sabemos que una persona tiene episodios psicóticos pero no podemos decir cuántos tendrá.
De aquí surgió la probabilidad, ya que en realidad hay diversidad, no es determinista. No podemos predecir qué valor se va a producir.
-Definición: valor que no se puede predecir. Ej: tiempo de reacción ante el mismo estímulo (siempre puede cambiar…). Las medidas tienen una fluctuación aleatoria. Se clasifican en:   Discretas: no puedes tomar todos los valores, van a saltos. Ej: número de veces que he pasado por la tienda, 3 (jamás serán 3’4).
-Finitas: ej: nº de conductas agresivas en 10min.
-Infinitas: es un valor más ideal que real (de 1 a infinito) Continuas: puedes tomar todos los valores (1’1, 1’2, 1’3…). Nos cuesta determinarlas en la realidad porque no tenemos instrumentos de medida precisos.
-Absolutamente continua -Parcialmente continua Dependiendo del nº de variables éstas se pueden clasificar en:    Unidimensional (1) Bidimensional (2) N-dimensional (n) 4.1. Variables discretas Podemos calcular: 1. Función de masa de probabilidad (para cada valor su probabilidad) p(K)= Prob(X=K) ∑p(K)= 1 → la suma de probabilidades siempre es 1 2. Función de distribución (nos da la probabilidad de que la variable aleatoria tome un valor menor o igual que K – siempre es creciente) F(K)= Prob (X≤Y) Primero debemos saber la probabilidad de masa y sumarlo. Se puede presentar en tabla o en gráfica, aunque siempre es mejor en gráfica.
3. Función de supervivencia 4 modelos de cálculo para las 3 funciones: 1.
2.
3.
4.
Distribución binomial Distribución geométrica Distribución binomial negativa Distribución de poisson Escoges el que major vaya para tu estudio 1 Esperanza matemática (media): buscar un valor que represente un conjunto, que los resuma.
Ej: EM = 7 Inconvenientes:  No permite diferenciar dos tipos de grupos distintos  No da ningún sentido. Solo tenemos un valor.
 El valor es insuficiente, no podemos conocer la realidad.
Necesitamos variancia. Un indicador de media y de variabilidad para obtener una información completa.
Forma: no es suficiente con esos 2 conceptos, también necesitamos la forma.
Ej: Misma media Misma variancia (solo que al revés) La diferencia está en al forma Tipos de forma:  Simétrica γ1 = 0  Asimétrica positiva (sesgada por la derecha) γ1 › 0  Asimétrica negativa (sesgada por la izquierda) γ1 ‹ 0 Apuntamiento: Si la forma es simétrica se puede calcurar γ2 (coeficiente de simetría)  γ2 = 0 Mesocúrtica  γ2 › 0 Ceptocúrtica  γ2 ‹ 0 Platicúrtica 4.1.1. Distribución binomial Se utiliza para experimentos los cuales solo hay 2 opciones como respuesta.
1. Ensayos de Bernoulli 2. La probabilidad de los sucesos es invariante (son las mismas) 3. Independencia entre resultados. Ej: que yo tire una moneda una y otra vez no influye en el siguiente resultado) 4. La variable aleatoria es un recuento (nº de veces que ocurre algo). Ej: lanzo 10 veces la moneda, la VA puede tomar un valor comprendido entre 0 y 10 caras → esto puede indicarnos la binomial) 2 Ejemplo: El éxito de la terapia es de 0’8 entre 20 personas.
B = Binomial n = 20 π = Prob (éxito) = 0’8 1 – π = Prob (fracaso) = 0’2 B (20;0’8) → éxito B (20;0’2) → fracaso Función de masa en binomial P(K) = ( )·πK·(1-π)n-K Ejemplo: Qué probabilidad hay de que 15 personas acierten? Buscamos la prob de K=15.
Prob (15) = ( ) · 0’815 · 0’25 Nº combinatorio ( )= ( )= ( ) ( ) Factorial n! = n · (n-1) · (n-2) · … · 1 5! = 5 · 4 · 3 · 2 · 1 = 120 → Lo hace la calculadora 0! = 1 Función de distribución en binomial Prob (x ≤ K) = F (K) = ∑ ( ) · πi · (1-π)n-i i = Variable nula. Probabilidad mínima.
Ejemplo: Qué probabilidad hay de que haya 7 aciertos o menos? (n = 20) Prob (x ≤ 7) = F(7) = Prob (0) + Prob (1) + Prob (2) + … + Prob (7) Ejemplo: Qué probabilidad hay que haya 18 aciertos o menos? Para no tener que calcular 18 veces la probabilidad cogeremos el complementario → Prob (x ≤ 18) = 1 – Prob (x › 18) = 1 – Prob (x › 19) + Prob (x › 20) Ejemplos en binomial Hay 30 preguntas en un examen con 4 respuestas posibles.
n = 30 π = Prob (éxito) = 0’25 1 – π = Prob (fracaso) = 0’75 3  Cuál es la probabilidad de que acierte todas las respuestas? → Función de masa B (30;0’25) Prob (x = 30) = Prob (30) = ( ) · 0’2530 · 0’750  Cuál es la probabilidad de que acierte 3 o menos? → Función de distribución Prob (x ≤ 3) = F(3) = ∑ ( ) · πi · (1 – π)n-i = ( ) · 0’250 · 0’7530 + ( ) · 0’251 · 0’7529 + ( ) · 0’252 · 0’7528 + ( ) · 0’253 · 0’7527  Cuál es la probabilidad de que los aciertos sean más de 28? Prob (x › 28) = Prob (x ≥ 29) = 1 – F(28) = Prob (x = 29) + Prob (x = 30) = Prob (29) + Prob (30) = ( ) · 0’2529 · 0’751 + ( ) · 0’2530 · 0’750  Cuál es la probabilidad de obtener 3 o 5 aciertos? Prob ( x = 3 U x = 5) = Prob (3) + Prob (5) = ( ) · 0’253 · 0’7527 + ( ) · 0’255 · 0’7525  Cuál es la probabilidad de obtener entre 3 y 5 aciertos? Prob (3 ≤ x ≤ 5) = Prob (3) + Prob (4) + Prob (5) = ( ) · 0’253 · 0’7527 + ( ) · 0’254 · 0’7526 + ( ) · 0’255 · 0’7525  Que probabilidad hay de obtener entre 3 y 5 aciertos o entre 4 y 6 aciertos? → Hay intersección en el 4 y 5 Prob (3 ≤ x ≤ 5) U (4 ≤ x ≤ 6) = Prob (3) + Prob (4) + Prob (5) + Prob (4) + Prob (5) + Prob (6) = Prob (3) + Prob (4) + Prob (5) + Prob (4) + Prob (5) + Prob (6) = Prob (3) + Prob (4) + Prob (5) + Prob (6) 4.1.2. Distribución de Poisson Sirve para calcular lo mismo que en binomial pero cuando el nº de sucesos es muy elevado. La probabilidad tiene que tender a 0.
π = Probabilidad → tiende a 0 n = nº de sucesos → tiende a ∞ Función de masa en Poisson p(K) = Prob (x = K) = 4 λ = n · π (nº de ensayos · la probabilidad) Ejemplo: La probabilidad de que una persona padezca una enfermedad rara es de 0’0001 (π) y de muestra cojo a 200.000 personas (n). Cual es la probabilidad de que observemos 10 personas que padezcan la enfermedad? = 0’0001 · 200.000 = 20 Prob (x = 10) = Función de distribución en Poisson F(K) = Prob (x ≤ K) = ∑ Ejemplo: Cual es la probabilidad de que observemos 2 o menos personas que padezcan la enfermedad? F(K) = + Prob (x ≤ 2) = +…+ + + 4.2. Variables continuas En la realidad no hay variables continuas (no tenemos tecnología para calcular el infinito). Hay distintos modelos de cálculo.
4.2.1. Distribución normal 2 f(x) = φ(x) = √ · ( ) És una función de densidad, no da probabilidad de un valor concreto, sólo probabilidad de un área, de un intervalo (Ej: [x,y]).
φ(x) = Fd(x) = Función de densidad → equivale a función de masa en V. Discretas μ = media σ = Ds(x) = desviación estándar =√ ( )=√ ( ) 2 σ = var(x) = varianza = ( ) E(x) = esperanza matemática = x = posibles valores que pueda tomar la V.A.
Moda = valor más probable (se mira con la función de masa, en la gráfica) 5 N = Distribución normal z = V.A.
La distribución normal depende de la media y la desviación estándar → N(μ; σ)/ N(μ; σ2) La esperanza matemática de una N es siempre μ.
Ejemplo 1: z1 = =1 ESTO NO LO HAREMOS! z2 = =2 Ejemplo 2: Hemos hecho un estudio sobre la ansiedad. Función de densidad  Cuál es el valor de F(x) si x=25? → Función de densidad F(x) = =  ( · √ N (50;10) 2 ) Extraes al azar una persona. Cuál es la probabilidad de que la persona tenga un valor de ansiedad = 52? 0 SIEMPRE → No hay función de masa, siempre son intervalos!  Cuál es la probabilidad de que esa persona tenga un nivel de ansiedad entre 65 y 75? → Función de distribución. Podemos hacerlo de dos formas.
Prob (65 ≤ DNS ≤ 75) Z65 = = 1’5 Z75 = = 2’5 Para hacer que la media sea 0, pero no utilizaremos esta forma.
Prob (65 ≤ DNS ≤ 75) = F(75) – F(65) = 2 √  · ( ) - √ · ( 2 ) Cuál es la probabilidad de que esa persona tenga un nivel de ansiedad mayor que 68? Prob (x › 68) = Prob (x ≥ 68) = 1-F(68) = S(68) → Función de supervivencia  Cuál es la probabilidad de que esa persona tenga un nivel de ansiedad entre 20 y 30 y entre 55 y 69? Prob (20 ≤ x ≤ 30 U 55 ≤ x ≤ 69) → Disjuntas = F(30) – F(20) + F(69) – F(55) 6 4.2.2. Distribución Chi-Squared Esta distribución tiene función de densidad (Fd) y de distribución y se utiliza para V. Cotínuas.
No hay valores negativos (0, ∞). Nos ayudará a saber si hay relación entre dos variables categóricas.
U = grados de libertad U ≥ 100 → se parece ya a la normal 4.2.3. Distribución t Es muy parecida a la distribución normal. Se utiliza para V. Continuas para tomar decisiones sobre una variable categórica con una variable numérica → se comparan las medias. Comprende todos los valores (-∞, ∞).
4.2.4. Otro tipo de distribuciones       Distribución f → la variancia entre z poblaciones es la misma? Distribución exponencial Distribución triangular Distribución ganma Distribución wellbull Distribución uniforme TEMA 5 – ESTADÍSTICA DESCRIPTIVA UNIVARIANTE Nos encontramos 2 tipos de estadística: 1. Estadística inferencial: Utilizar una muestra para obtener resultados de la población.
2. Estadística descriptiva: Utilizar una muestra para solo referir los resultados a esa muestra, sin generalizarlos. Hay diversos tipos de análisis de los informes:  Análisis univariante: Analizar la información por separado (una a una). Esto lo haré con:  Variables de razón  Variables categóricas (medidas con escala nominal)  Variables ordinales  Variables de intervalo  Análisis bivariante: Analizar la información por parejas (para cuantificar relaciones…).
 Análisis multivariante: analizar más de 2 variables a la vez.
Variables Categóricas: Variables añadidas mediante una escala nominal.
Variables Ordinales: Variables añadidas mediante una escala de orden.
5.1. Variables categóricas Tienen que ser valores exhaustivos y mutuamente excluyentes.
N = muestra de la población n = sujeto muestra 7 Índices que nos encontramos: Frecuencia individual (absoluta) = fi/Fi → Número de veces que aparece cada categoría (cuántas mujeres, cuántos hombres…).
Proporción individual (relativa) = Pi = → 0 ≤ Pi ≤ 1 Porcentaje individual = Pi = · 100 → 0 ≤ Pi ≤ 100 Moda = valor de la variable en mayor Fi.
 Unimodal  Bimodal  Trimodal  Multimodal (+4…) Variabilidad:  Máxima:  Mínima: Gráficos que podemos utilizar: Diagrama de barras → No hay orden y las barras están separadas Gráfico de sectores Diagrama de Pareto → Diagrama con una línea acumulada en porcentaje. Está ordenado de mayor a menor (del factor más importante al que menos).
Índice de variación cualitativa: IQV = ( ) Valencia: nº de personas que padecen patología (lo presente que está la patología) → Cuántos hay? Incidencia: casos sumados a los anteriores. Nuevos casos de totalidad de población → Cuánto aumenta? 5.2. Variables categóricas ÍNDICES DE POSICIÓN: Posición: posiciona respecto a la referencia. Tenemos 3 tipos: 1. Cuartiles: los cuartiles dividen la gráfica en 4 partes (Q1, Q2 y Q3) y cada una de ellas contiene el 25%. → μ = Q2 La información es insuficiente así que pasamos a los deciles.
2. Deciles: los deciles dividen la gráfica en 10 partes (D1, D2, D3, … D9) y cada una de ellas contiene el 10%.
Pero todavía la información no es precisa del todo, así que pasamos a los centiles.
8 3. Perceptiles o centiles: los centiles dividen la gráfica en 100 partes (C1, C2, … C99), en caso de perceptiles la nomeclatura sería: P1, P2, … P99. Se utiliza para test psicométricos (psicológicos) Fórmula para calcular la posición: PK = Xi + (j – i) · (xi+1 – xi) ÍNDICES DE LOCALIZACIÓN CENTRAL: Mediana: primero de todo hay que ordenar los valores (orden estadístico) y luego dependiendo de si n es par o impar utilizamos una fórmula o otra:  Si n es impar → md =  Si n es par → md = ( ) ( ) ( ) Ejemplo 1: n = 5 → Impar 7, 2, 3, 4, 6 → Ordenamos… → 2, 3, 4, 6, 7 md = ( ) = X3 = Y comprobamos en los números ya ordenados cuál es X3 → 4 Ejemplo 2: n = 6 → Par 7, 2, 3, 4, 6, 9 → Ordenamos… → 2, 3, 4, 6, 7, 9 md = ( ) ( ) = = =5 Media = Mediana o promedio de cuartiles → Ǭ= Q1 = C25 ; Q3 = C75  Cuando la distribución es simétrica → Ǭ = Q2 = μ  Cuando la distribución es asimétrica → Ǭ = ¿? Trimedia → ( ) ̅ ÍNDICES DE VARIABILIDAD O DISPERSIÓN: Rango → Range = Xmax - Xmin Intenta medir si hay mucha variabilidad pero no se utiliza porque no es preciso.
9 Mediana de la desviación absoluta → MAD = Md(Xi – Md) 0 ≤ MAD ≤ ∞ Coeficiente de la variación cuartil → CVQ = Es adimensional, no tiene unidad de medida.
Rango intercuartílico → ÍNDICES DE APUNTAMIENTO Y SIMETRÍA: Yule (índice de simetría) → H1 = Si H1 = Negativa Si H1 = Positiva Si H1 = 0 Indicador de Kurtosis (índice de apuntamiento – solo si es simétrica) → Si K2 › 1 → Leptocúrtica Si K2 = 1 → Mesocúrtica K2 = Si K2 ‹ 1 → Platicúrtica REPRESENTACIONES GRÁFICAS: Diagrama de barras (horizontal y vertical) Diagrama de caja y bigotes (Boxplot): Cuanto más ancha sea la caja mayor variabilidad, pero solo lo podemos saber comparándola con otras cajas, es decir, cuando nos dan más de una caja. Este sistema de representación gráfica no se utilizará cuando la variable tenga pocos valores.
5.3. Variables cuantitativas · Podemos utilizar los índices para variables cuantitativas cuando queramos realizar un análisis descriptivo de una variable medida en escala de intervalo o razón.
· El análisis descriptivo de estas variables puede realizarse también mediante índices y gráficos admisibles para escalas de rango inferior.
· Se trata de índices que se calculan a partir de todos los datos de la variables por lo que son muy sensibles a la presencia de datos anómalos. Se trata de índices poco resistentes.
· Es por esto por lo que se recomienda que se utilicen en distribuciones de datos simétricas o casi simétricas y en las que no existan datos anómalos · Aspectos relevantes para describir este tipo de datos: localización, tendencia central, dispersión, forma y presencia de datos anómalos.
10 → Índice resistente es aquel que se ve poco afectado por los valores anómalos, (pero que es válido en pocas situaciones??) → Índice robusto es aquel que se ve poco afectado por los valores anómalos y que se puede calcular (y es válido) en una amplia gama de situaciones. La robustez requiere pocas condiciones para la aplicación del índice.
Media aritmética (media de una población ≠ muestra) → No resistente μ = Parámetro, valor de población ̅ = Estadístico, valor de muestra μ= ̅= ∑ ∑ Pero no se utilizar siempre, solo para simétricas i unimodales → ÍNDICES DE DISPERSIÓN O VARIABILIDAD: Podemos hablar de variabilidad, dispersión o heterogeneidad o homogeneidad. Estos índices cuantifican la distancia entre los datos. Estas medidas pueden ser absolutas (afectadas por las unidades de medida – variancia y desviación estándar-) o relativas (no se afectan – coeficiente de variación-).
→ La cota inferior de los índices de variabilidad es de 0.
Desviación de media absoluta → DM = ∑ ̅ Variancia → poco resistente ∑ Parámetro → σ2 = Estadístico → Sn2 = σ^2 = s2 = ∑ ( ∑ ̅) ( ) ( ̅) → Así se atina mucho mejor la σ2 de la población Desviación estándar o típica → raíz cuadrada de la variancia 11 Parámetro → σ=√ Estadístico → Sn = √ σ^ = s = √ Coeficiente de variación → es independiente de la unidad de medida CV = ̅ → Si s (desviación estándar) es 0 no hay variación ÍNDICES DE SIMETRIA Y APUNTAMIENTO: Simetría: Mo = Moda  1r coeficiente de Pearson → As1 =  2n coeficiente de Pearson → As2 = ̅ ( ̅ )  3r coeficiente de Pearson → β1 β1 › 0 → Asimétrica β1 = 0 → Simétrica β1 ‹ 0 → Asimétrica Apuntamiento: › 1 → Leptocúrtica = 1 → Mesocúrtica ‹ 1 → Platicúrtica Diversidad:  Variedad: Para calcularla deberemos utilizar Blau o Teachman. Se utilizará cuando las variables sean categóricas (sexo, etnia, lugar de residencia…).
· Máxima variedad: cuando están igualmente representadas todas las categorías.
· Mínima variedad: cuando todos están en A o B (todos hombres…).
 Separación: se utilizará cuando las variables sean numéricas.
· Máxima separación: cuando n/2 es el valor más bajo y n/2 el más alto en la primera y última categoría.
· Mínima separación: cuando todos están en el mismo.
 Disparacidad: Mide la desigualdad.
· Máxima disparacidad: n-1 en primera categoría (A) y 1 en la última (Z).
· Mínima disparacidad: Todos en A.
Diversidad Mínima Máxima 12 Variedad ______________ ______________ Separación ______________ ______________ Disparacidad ______________ ______________ Ejemplo: Queremos calcular la depresión que padecen unos sujetos. Tenemos 40 participantes y queremos saber la media de una submuestra de 10 participantes. Sabemos que entre 21 y 30 se considera depresión moderada.
La media es un índice poco resistente, si hubiera algún valor anómalo influiría demasiado, por ello, en estos casos utilizaremos la trimedia → Tenemos estos valores: 7, 9, 11, 25, 27, 29, 30, 31, 32, 70 (valor anómalo) Para deshacernos de éste valor anómalo recortamos de manera equitativa por los dos lados y calculamos la media. → Quitamos el 10% → 7|, 9, 11, 25, 27, 29, 30, 31, 32, |70 Incoveniente: Quitamos un valor bueno.
______________ Caso ideal: → Quito los 2 anómalos ______________ También existe otra opción → La media winsorizada: es igual que la trimedia, pero en vez de eliminar los datos, los clona.
7, 9, 11, 25, 27, 29, 30, 31, 32, 70 → 9, 9, 11, 25, 27, 29, 30, 31, 32, 32 (Clono de manera equitativa también, por los dos lados) Finalidad: Mejorar la media del conjunto de los valores TEMA 5 – ESTADÍSTICA DESCRIPTIVA BIVARIANTE Podemos cuantificar el grado de relación entre dos variables (tamaño del efecto: Variable categórica con categórica Variable ordinal con ordinal Variable cuantitativa con cuantitativa Variable con una diferente escala Asociación entre variables categóricas: Tabla de contingencia Compra 2x2 (Dos variables con dos valores cada una).
Lo que está en las celdas son frecuencias individuales.
n = 500 es el total o gran total.
Distribución: 13    Conjunta: Frecuencias respecto al gran total Marginal: Total por sexos Condicionada: Frecuencias para un valor concreto (condicionadas por sexo). Ej: 200/300 o 100/300.
Sí No (Marginal fila) 200 50 250 100 150 250 300 200 500 Sexo Mujeres Hombres (Marginal Columna) Cuantificar una asociación: Necesito un índica para cuantificar la asociación, pero como debe ser una tabla de contingencia para que no haya relación? Máxima relación posible Sí Mujer 0 Hombre 200 No 300 0 300 200 Fifty fifty, porque seas hombre o mujer compra el 50% , no hay relación dependiente, son independientes.
Sí 150 100 Mujer Hombre No 150 100 300 200 Índice de asociación → 0 → No hay asociación. No hay relación. Hay Independencia.
1 → Asociación máxima. Relación máxima. Dependencia máxima.
Índice de Ji-cuadrado → = frecuencia observada (las cuatro principales en una tabla 2x2). Es lo que observamos en el estudio. La i y la j son para decir a qué casilla nos estamos refiriendo (i = fila, j = columna) Ej: = frecuencia esperada o teórica → frecuencia observada que se debería haber registrado si las variables fuesen independientes (también se llaman frecuencias técnicas).
Ej: La suma de las frecuencias esperadas tiene que dar la parte del marginal.
La fórmula del Ji-cuadrado en este caso sería: ( ) ( ) ( ) ( ) 14 Donde siempre se dan estas condiciones: comparar con otros la intensidad o grado de asociación.
→ Pero éste índice no permite Hay 2 tipos de tablas: Cuadrada Rectangular ÍNDICES DE ASOCIACIÓN:    Cuando hay concordancia? Cuando un sujeto supera al otro en ambos casos o viceversa. Ej: X11 › X12 ; X11 › X12 → En la dos variables Cuando hay discordancia? Cuando un sujeto supera en una variable pero en la otra está por debajo. Ej: X11 › X12 ; X11 ‹ X12 Cuando hay empate? Cuando los sujetos coinciden, en una o en las dos variables.
Ej: X11 = X12 ; X11 ‹ X12 o X11 = X12 ; X11 = X12 Asociación entre variables ordinales: Índice de Goodman → Está en desuso C = Concordancia D = Discordancia ŷ=  Si D es 0 → = = C → 1 Concordancia, Asociación positiva  Si C es 0 → =  Si C = D → No hay asociación = -D → -1 Discordancia, Asociación negativa Inconveniente: No tiene en cuenta el empate.
Índice de Kendall → Comparación de C y D 3 índices: 1.
(está en desuso) → Para tablas cuadradas No tiene en cuenta los empates 2.
→ Para tablas cuadradas Sí tiene en cuenta los empates, así que utilizaremos este ˆb  3.
C  D   n(n  1)   n(n  1)   TY    TX   2 2    ;  1  ˆb  1 → Para tablas rectangulares Sí tiene en cuenta los empates ˆc  2q  C  D  , where q  min( I , J );  1  ˆb  1 n2 (q  1) 15 Índice de Somer’s Tiene en cuenta los empates y tiene una versión de simetría. La utilizaremos en casos de ítem para predecir otro ítem. Si hay variable dependiente e independiente, es asimétrico.
dˆ  (C  D ) TX  TY   n(n  1) / 2   2   ;  1  dˆ  1 Índice de Wilson’s → Para calcular la simetría eˆ  (C  D) ;  1  eˆ  1  n(n 1) / 2  TXY Asociación entre variables cuantitativas: Coeficiente de Pearson No se puede utilizar en ordinales, solo en intervalos o de razón.
Diagrama de dispersión: Cuanta más implicación, rendimiento.
→ Relación lineal positiva más → Relación lineal negativa 16 rxy = 0 No hay estadística Pero unos resultados que den rxy = 1 o rxy = -1 no se darán en la realidad, porque hay muchos factores que influyen y crearan variabilidad.
→ Ejemplo realista → Asociación lineal positiva Cuanto más se acerque a 1 o -1 la dispersión, será más intenso el diagrama. Ejemplo: rxy = 0’8 y rxy = -0’8, son igual de intensos, una hacia un lado y el otro hacia el otro.
Muchas veces nos encontramos correlación entre variables que no tiene sentido y sin embargo la hay. Estos son casos que se dan por terceras variables. Ejemplo: Sube la natalidad en España y a su vez sube la cantidad de consumo de ron. Des de un principio vemos correlación que no tiene sentido y esto se da a causa de una tercera variable, la economía.
Sxy = covariancia → ∑ ( ̅) ( ̅) Sy = desviación estándar → Hace que el contenido se encuentre entre X y Y.
Fórmula del coeficiente de Pearson → rxy = Coeficiente de Spearman Lo utilizaremos cuando tengamos muchos valores y podemos utilizarlo con valores ordinales, de intervalo y de razón.
17 No todo es lineal (ej: Ley del decaimiento de la memoria de Ebbinghaus), para ello necesitaremos otro coeficiente que pueda calcular, ya que Pearson no puede. Así que para estas ocasiones utilizaremos Spearman, diseñado para estos casos.
La relación funcional en estas gráficas es perfecta, pero no podemos utilizar Pearson porque no daría -1 o 1. Por ello se propuso, como he dicho anteriormente Spearman, para poder determinar perfectamente las funciones no lineales.
Fórmula del coeficiente de Spearman → rs  1   Si rs = 1 → Relación monótona creciente  Si rs = -1 → Relación monótona decreciente  Si rs = 0 → No hay relación 6  d i2 n (n 2  1) También nos podemos encontrar con modelos polinómicos, pero para estos no hay coeficientes que los puedan calcular.
18 ...