Das Sammeln und Berechnen statistischer Daten zur Ermittlung des Mittelwerts ist oft langwierig und langwierig. Der t-Test und die Einweg-Varianzanalyse (ANOVA) sind die zwei am häufigsten verwendeten Tests für diesen Zweck.
Der t-Test ist ein statistischer Hypothesentest, bei dem die Teststatistik einer Student-t-Verteilung folgt, wenn die Nullhypothese unterstützt wird. Dieser Test wird angewendet, wenn die Teststatistik einer Normalverteilung folgt und der Wert eines Skalierungsterms in der Teststatistik bekannt ist. Wenn der Skalierungsterm unbekannt ist, wird er durch eine Schätzung basierend auf den verfügbaren Daten ersetzt. Die Teststatistik folgt der t-Verteilung eines Studenten.
William Sealy Gosset führte die T-Statistik 1908 ein. Gosset war ein Chemiker der Guinness-Brauerei in Dublin, Irland. Die Guinness-Brauerei hatte die Politik, die besten Absolventen aus Oxford und Cambridge zu rekrutieren und aus denen auszuwählen, die Anwendungen der Biochemie und Statistik für die etablierten industriellen Prozesse des Unternehmens bereitstellen könnten. William Sealy Gosset war einer dieser Absolventen. William Sealy Gosset entwickelte dabei den t-Test, der ursprünglich als Möglichkeit gedacht war, die Qualität des Stout (das von der Brauerei produzierte dunkle Bier) auf kostengünstige Weise zu überwachen. Gosset veröffentlichte den Test unter dem Pseudonym "Student" in Biometrika, ca. 1908. Der Grund für den Pseudonym war Guinness 'Beharrlichkeit, da das Unternehmen seine Politik der Verwendung von Statistiken als Teil ihrer Geschäftsgeheimnisse beibehalten wollte..
T-Teststatistiken folgen im Allgemeinen der Form T = Z / s, wobei Z und s Funktionen der Daten sind. Die Z-Variable ist so konzipiert, dass sie für die Alternativhypothese empfindlich ist. effektiv ist die Größe der Z-Variablen größer, wenn die Alternativhypothese zutrifft. In der Zwischenzeit ist 's' ein Skalierungsparameter, mit dem die Verteilung von T bestimmt werden kann. Die einem t-Test zugrunde liegenden Annahmen sind, dass a) Z unter der Nullhypothese einer Standardnormalverteilung folgt; b) ps2 folgt einer Ï ‡ 2-Verteilung mit p Freiheitsgraden unter der Nullhypothese (wobei p eine positive Konstante ist); und c) der Z-Wert und der S-Wert sind unabhängig. In einer bestimmten Art von t-Test sind diese Bedingungen Folgen der untersuchten Population sowie der Art und Weise, wie die Daten gesammelt werden.
Andererseits ist die Varianzanalyse (ANOVA) eine Sammlung statistischer Modelle. Während ANOVA-Prinzipien lange Zeit von Forschern und Statistikern genutzt wurden, machte Sir Ronald Fisher im Jahr 1918 einen Vorschlag zur Formalisierung der Varianzanalyse in einem Artikel mit dem Titel "Die Korrelation zwischen Verwandten auf der Annahme der Mendelschen Erbschaft". . Seitdem wurde ANOVA in Umfang und Anwendung erweitert. ANOVA ist eigentlich eine Fehlbezeichnung, da sie nicht aus den Unterschieden der Varianzen, sondern aus den Unterschieden zwischen den Gruppenmitteln abgeleitet wird. Dazu gehören die zugehörigen Prozeduren, bei denen die beobachtete Varianz in einer bestimmten Variablen in Komponenten unterteilt wird, die verschiedenen Variationsquellen zugeordnet werden können.
Im Wesentlichen stellt eine ANOVA einen statistischen Test bereit, um zu bestimmen, ob die Mittelwerte mehrerer Gruppen alle gleich sind, und als Ergebnis wird der t-Test auf mehr als zwei Gruppen verallgemeinert. Eine ANOVA kann nützlicher sein als ein Zwei-Abtastungs-T-Test, da die Wahrscheinlichkeit geringer ist, einen Fehler vom Typ I zu begehen. Zum Beispiel hätten mehrere t-Tests mit zwei Stichproben eine größere Chance, einen Fehler zu begehen, als eine ANOVA der gleichen Variablen, um den Mittelwert zu erhalten. Das Modell ist das gleiche und die Teststatistik ist das F-Verhältnis. Einfacher ausgedrückt, T-Tests sind nur ein Spezialfall von ANOVA: Wenn Sie eine ANOVA durchführen, wird dasselbe Ergebnis von mehreren T-Tests erzielt. Es gibt drei Klassen von ANOVA-Modellen: a) Modelle mit fester Wirkung, die davon ausgehen, dass die Daten aus normalen Populationen stammen und sich nur in ihren Mitteln unterscheiden; b) Modelle mit zufälligen Effekten, bei denen die Daten angenommen werden, beschreiben eine Hierarchie unterschiedlicher Populationen, deren Unterschiede durch die Hierarchie eingeschränkt sind. und c) Mixed-Effect-Modelle, bei denen es sich sowohl um fixe als auch um zufällige Effekte handelt.