Variación y desviación estándar

Anonim

Tanto la varianza como la desviación estándar son los términos más comúnmente utilizados en la teoría de la probabilidad y las estadísticas para describir mejor las medidas de dispersión alrededor de un conjunto de datos. Ambos dan medidas numéricas de la extensión de un conjunto de datos alrededor de la media. La media es simplemente el promedio aritmético de un rango de valores en un conjunto de datos, mientras que la varianza mide qué tan dispersos están los números alrededor de la media, lo que significa el promedio de las desviaciones al cuadrado de la media. La desviación estándar es una medida para calcular la cantidad de dispersión de valores de un conjunto de datos determinado. Es simplemente la raíz cuadrada de la varianza. Si bien muchos contrastan los dos conceptos matemáticos, presentamos una comparación imparcial entre la varianza y la desviación estándar para comprender mejor los términos.

¿Qué es la varianza?

La varianza se define simplemente como una medida de la variabilidad de los valores en torno a su media aritmética. En términos simples, la varianza es la desviación media al cuadrado, mientras que la media es el promedio de todos los valores en un conjunto de datos dado. La notación para la varianza de una variable es "σ2”(Sigma minúscula) o sigma al cuadrado. Se calcula restando la media de cada valor en un conjunto de datos dados y cuadrando sus diferencias para obtener valores positivos y, finalmente, dividiendo la suma de sus cuadrados por el número de valores.

Si M = media, x = cada valor en el conjunto de datos, y n = número de valores en el conjunto de datos, entonces

σ2 = ∑ (x - M)2/ n

¿Qué es la desviación estándar?

La desviación estándar se define simplemente como la medida de dispersión de los valores en un conjunto de datos dado de su media. Mide la dispersión de los datos alrededor de la media que se calcula como la raíz cuadrada de la varianza. La desviación de la norma stan σ está simbolizada por la letra griega sigma "σ”Como en sigma minúscula. La desviación estándar se expresa en la misma unidad que el valor medio, que no es necesariamente el caso con la varianza. Se utiliza principalmente como herramienta en las estrategias de inversión y comercio.

Si M = media, x = valores en un conjunto de datos, y n = número de valores, entonces, σ = √∑ (x - M)2/ n

Diferencia entre varianza y desviación estándar

Significado de la varianza y desviación estándar

La varianza simplemente significa hasta qué punto se difunden los números en un conjunto de datos dado de su valor promedio. En estadística, la varianza es una medida de la variabilidad de los números en torno a su media aritmética. Es un valor numérico que cuantifica el grado promedio en que los valores de un conjunto de datos difieren de su media. La desviación estándar, por otro lado, es una medida de dispersión de los valores de un conjunto de datos de su media. Es un término común en la teoría estadística para calcular la tendencia central.

Medida

La varianza simplemente mide la dispersión de un conjunto de datos. En términos técnicos, la variación es el promedio de las diferencias al cuadrado de los valores en un conjunto de datos de la media. Se calcula tomando primero la diferencia entre cada valor en el conjunto y la media y cuadrando las diferencias para hacer que los valores sean positivos, y finalmente calculando el promedio de los cuadrados para representar la varianza. La desviación estándar simplemente mide la dispersión de los datos alrededor de la media y se calcula simplemente tomando la raíz cuadrada de la varianza. El valor de la desviación estándar es siempre un valor no negativo.

Cálculo

Tanto la varianza como la desviación estándar se calculan alrededor de la media. La varianza está simbolizada por “S2"Y la desviación estándar - la raíz cuadrada de la varianza se simboliza como"S". Por ejemplo, para el conjunto de datos 5, 7, 3 y 7, el total sería 22, que se dividiría por el número de puntos de datos (4, en este caso), lo que resulta en una media (M) de 5,5.. Aquí, M = 5.5 y número de punto de datos (n) = 4.

La varianza se calcula como:

S2 = (5 – 5.5)2 + (7 – 5.5)2 + (3 – 5.5)2 + (7 – 5.5)2 / 4

= 0.25 + 2.25 + 6.25 + 2.25/ 4

= 11/4 = 2.75

La desviación estándar se calcula tomando la raíz cuadrada de la varianza.

S = √2.75 = 1.658

Aplicaciones de variación y desviación estándar

La varianza combina todos los valores en un conjunto de datos para cuantificar la medida de la propagación. Tan grande es la propagación, más la variación que resulta en una brecha más grande entre los valores en el conjunto de datos. La variación se utiliza principalmente para la distribución de probabilidad estadística para medir la volatilidad de la media y la volatilidad es una de las medidas del análisis de riesgo que podría ayudar a los inversionistas a determinar el riesgo en las carteras de inversión. También es uno de los aspectos clave de la asignación de activos. La desviación estándar, por otro lado, se puede utilizar en una amplia gama de aplicaciones, como en el sector financiero, como una medida de la volatilidad del mercado y la seguridad.

Desviación frente a desviación estándar: gráfico de comparación

Resumen de varianza y desviación estándar

Tanto la varianza como la desviación estándar son los conceptos matemáticos más comunes que se usan en estadística y en la teoría de la probabilidad como medidas de propagación. La varianza es una medida de hasta qué punto los valores se propagan en un conjunto de datos dado desde su media aritmética, mientras que la desviación estándar es una medida de la dispersión de los valores en relación con la media. La varianza se calcula como la desviación al cuadrado promedio de cada valor de la media en un conjunto de datos, mientras que la desviación estándar es simplemente la raíz cuadrada de la varianza. La desviación estándar se mide en la misma unidad que la media, mientras que la varianza se mide en unidades cuadradas de la media.Ambos se utilizan para diferentes propósitos. La varianza es más como un término matemático, mientras que la desviación estándar se usa principalmente para describir la variabilidad de los datos.