Unterschied zwischen AIC und BIC

AIC vs. BIC

AIC und BIC werden in Modellauswahlkriterien häufig verwendet. AIC bedeutet Akaikes Informationskriterien und BIC bedeutet Bayesianische Informationskriterien. Obwohl diese beiden Begriffe die Modellauswahl betreffen, stimmen sie nicht überein. Man kann auf Unterschiede zwischen den beiden Ansätzen der Modellauswahl stoßen.

Akaikes Information Criteria wurde 1973 und Bayesian Information Criteria 1978 gegründet. Hirotsugu Akaike entwickelte Akaikes Information Kriterium, während Gideon E. Schwarz das Bayesianische Informationskriterium entwickelte.

Die AIC kann als Maß für die Anpassungsgüte eines geschätzten statistischen Modells bezeichnet werden. Der BIC ist eine Art Modellauswahl unter einer Klasse von parametrischen Modellen mit unterschiedlichen Parameterzahlen.

Beim Vergleich der Bayes'schen Informationskriterien und der Akaike-Informationskriterien ist die Strafe für zusätzliche Parameter in der BIC stärker als in der AIC. Im Gegensatz zur AIC bestraft der BIC freie Parameter stärker.

Akaikes Informationskriterien versuchen im Allgemeinen, ein unbekanntes Modell mit einer hochdimensionalen Realität zu finden. Dies bedeutet, dass die Modelle keine echten Modelle in der AIC sind. Andererseits stoßen die Bayesianischen Informationskriterien nur auf True-Modelle. Man kann auch sagen, dass die Bayes'schen Informationskriterien konsistent sind, während Akaikes Informationskriterien dies nicht sind.

Wenn die Informationskriterien von Akaike die Gefahr darstellen, dass sie ausreichen würde. Die Bayes'schen Informationskriterien bergen die Gefahr, die sie unterlaufen würden. Obwohl BIC im Vergleich zu AIC toleranter ist, zeigt es bei höheren Zahlen weniger Toleranz.

Die Informationskriterien von Akaike sind gut geeignet, um asymptotisch der Kreuzvalidierung gleichzusetzen. Im Gegenteil, die Bayes'schen Informationskriterien sind gut für eine konsistente Schätzung.

Zusammenfassung

1. AIC bedeutet Akaikes Informationskriterien und BIC bedeutet Bayesianische Informationskriterien.

2. Die Informationskriterien von Akaike wurden 1973 und die Bayesianischen Informationskriterien 1978 gegründet.

3. Beim Vergleich der Bayes'schen Informationskriterien und der Akaike-Informationskriterien ist die Strafe für zusätzliche Parameter in der BIC stärker als in der AIC.

4. Akaikes Informationskriterien versuchen im Allgemeinen, ein unbekanntes Modell mit einer hochdimensionalen Realität zu finden. Andererseits stoßen die Bayesianischen Informationskriterien nur auf True-Modelle.

5. Bayesianische Informationskriterien sind konsistent, Akaikes Informationskriterien dagegen nicht.

6. Die Informationskriterien von Akaike eignen sich gut, um asymptotisch der Kreuzvalidierung gleichzusetzen. Im Gegenteil, die Bayes'schen Informationskriterien sind gut für eine konsistente Schätzung.

7. Obwohl BIC im Vergleich zu AIC toleranter ist, zeigt es bei höheren Zahlen weniger Toleranz.

8. Im Gegensatz zur AIC bestraft der BIC freie Parameter stärker.

//