AIC y BIC

Anonim

AIC vs BIC

AIC y BIC son ampliamente utilizados en los criterios de selección de modelos. AIC significa Criterios de Información de Akaike y BIC significa Criterios de Información Bayesianos. Aunque estos dos términos abordan la selección del modelo, no son lo mismo. Uno puede encontrar diferencias entre los dos enfoques de selección de modelos.

Los criterios de información de Akaike se formaron en 1973 y los criterios de información bayesianos en 1978. Hirotsugu Akaike desarrolló los criterios de información de Akaike mientras que Gideon E. Schwarz desarrolló el criterio de información bayesiano.

El AIC puede denominarse como una medida de la bondad de ajuste de cualquier modelo estadístico estimado. El BIC es un tipo de selección de modelo entre una clase de modelos paramétricos con diferentes números de parámetros.

Al comparar los Criterios de Información Bayesiana y los Criterios de Información de Akaike, la penalización por parámetros adicionales es más en BIC que en AIC. A diferencia del AIC, el BIC penaliza los parámetros libres con mayor fuerza.

Los criterios de información de Akaike generalmente tratan de encontrar un modelo desconocido que tenga una realidad dimensional alta. Esto significa que los modelos no son modelos verdaderos en AIC. Por otro lado, los Criterios de Información Bayesiana solo se presentan en los modelos True. También se puede decir que los Criterios de Información Bayesianos son consistentes, mientras que los Criterios de Información de Akaike no lo son.

Cuando los Criterios de información de Akaike presentarán el peligro de que se adapte. los Criterios de Información Bayesianos presentarán el peligro de que se adapte a la situación. Aunque BIC es más tolerante en comparación con AIC, muestra menos tolerancia en números más altos.

Los criterios de información de Akaike son buenos para hacer asintóticamente el equivalente a la validación cruzada. Por el contrario, los Criterios de Información Bayesianos son buenos para una estimación consistente.

Resumen

1. AIC significa Criterios de Información de Akaike y BIC significa Criterios de Información Bayesianos.

2. Los Criterios de información de Akaike se formaron en 1973 y los Criterios de información bayesianos en 1978.

3. Al comparar los Criterios de Información Bayesiana y los Criterios de Información de Akaike, la penalización por parámetros adicionales es más en BIC que en AIC.

4. Los criterios de información de Akaike generalmente tratan de encontrar un modelo desconocido que tenga una realidad dimensional alta. Por otro lado, los Criterios de Información Bayesiana solo se presentan en los modelos True.

5. Los criterios de información bayesianos son consistentes, mientras que los criterios de información de Akaike no lo son.

6. Los Criterios de información de Akaike son buenos para hacer asintóticamente el equivalente a la validación cruzada. Por el contrario, los Criterios de Información Bayesianos son buenos para una estimación consistente.

7. Aunque BIC es más tolerante en comparación con AIC, muestra menos tolerancia en números más altos.

8. A diferencia del AIC, el BIC penaliza los parámetros libres con mayor fuerza.

//