Punktzahl (Statistik) - Score (statistics)

In der Statistik ist der Score (oder Informant ) der Gradient der Log-Likelihood-Funktion in Bezug auf den Parametervektor . Ausgewertet an einem bestimmten Punkt des Parametervektors zeigt die Bewertung die Steilheit der Log-Likelihood-Funktion und damit die Empfindlichkeit gegenüber infinitesimalen Änderungen der Parameterwerte an. Wenn die Log-Likelihood-Funktion über den Parameterraum stetig ist , verschwindet der Score bei einem lokalen Maximum oder Minimum ; diese Tatsache wird bei der Maximum-Likelihood-Schätzung verwendet , um die Parameterwerte zu finden, die die Likelihood-Funktion maximieren.

Da die Kerbe eine Funktion ist der Beobachtungen , die unterworfen sind Abtastfehler , bietet es sich an einen Statistiktest als bekannten Punktzahl Test in dem der Parameter bei einem bestimmten Wert gehalten wird. Ferner kann das Verhältnis von zwei Wahrscheinlichkeitsfunktionen, die bei zwei unterschiedlichen Parameterwerten bewertet wurden, als ein bestimmtes Integral der Bewertungsfunktion verstanden werden.

Definition

Die Punktzahl ist der Gradient (der Vektor der partiellen Ableitungen ) von dem natürlichen Logarithmus der Wahrscheinlichkeitsfunktion , in Bezug auf ein m - dimensionales Parametervektor .

Somit ergibt die Differentiation einen Zeilenvektor und zeigt die Sensitivität der Likelihood (ihre durch ihren Wert normierte Ableitung) an.

In der älteren Literatur kann sich "lineare Punktzahl" auf die Punktzahl in Bezug auf die infinitesimale Übersetzung einer gegebenen Dichte beziehen. Diese Konvention stammt aus einer Zeit, als der primäre interessierende Parameter der Mittelwert oder Median einer Verteilung war. In diesem Fall wird die Wahrscheinlichkeit einer Beobachtung durch eine Dichte der Form angegeben . Der "lineare Score" ist dann definiert als

Eigenschaften

Bedeuten

Während die Punktzahl eine Funktion von ist , hängt sie auch von den Beobachtungen ab, bei denen die Wahrscheinlichkeitsfunktion ausgewertet wird, und angesichts des Zufallscharakters der Stichprobe kann man ihren Erwartungswert über den Stichprobenraum ziehen . Unter bestimmten Regularitätsbedingungen der Dichtefunktionen der Zufallsvariablen ist der Erwartungswert des Scores, bewertet am wahren Parameterwert , null. Um dies zu sehen, schreiben Sie die Likelihood-Funktion in eine Wahrscheinlichkeitsdichtefunktion um und bezeichnen Sie den Stichprobenraum . Dann:

Die angenommenen Regularitätsbedingungen erlauben den Austausch von Ableitung und Integral (siehe Leibniz-Integralregel ), daher kann der obige Ausdruck umgeschrieben werden als

Es lohnt sich, das obige Ergebnis in Worten zu formulieren: Der Erwartungswert der Punktzahl ist Null. Wenn man also wiederholt aus einer Verteilung Stichproben ziehen und die Punktzahl wiederholt berechnen würde, dann würde der Mittelwert der Punktzahlen asymptotisch gegen Null tendieren .

Abweichung

Die Varianz des Scores kann aus dem obigen Ausdruck für den Erwartungswert abgeleitet werden.

Daher ist die Varianz des Scores gleich dem negativen Erwartungswert der hessischen Matrix der Log-Likelihood.

Letzteres ist als Fisher-Information bekannt und geschrieben . Beachten Sie, dass die Fisher-Informationen keine Funktion einer bestimmten Beobachtung sind, da die Zufallsvariable gemittelt wurde. Dieses Informationskonzept ist nützlich, wenn man zwei Methoden zur Beobachtung eines zufälligen Prozesses vergleicht .

Beispiele

Bernoulli-Prozess

Betrachten Sie die ersten n Versuche eines Bernoulli-Prozesses und sehen Sie, dass A von ihnen erfolgreich sind und die restlichen B fehlgeschlagen sind, wobei die Erfolgswahrscheinlichkeit  θ ist .

Dann ist die Wahrscheinlichkeit ist

so die Partitur s ist

Wir können nun überprüfen, dass die Erwartung des Scores null ist. Feststellung , dass die Erwartung von A ist , n & thgr; und die Erwartung von B ist n (1 -  θ ) [RECALL , dass A und B sind Zufallsvariablen], können wir sehen , dass die Erwartung des s ist

Wir können auch die Varianz von . Wir wissen , daß A + B = N (SO Bn  -  A ) und die Varianz von A ist n & theta; (1 -  θ ) , so dass die Varianz s ist

Binäres Ergebnismodell

Bei Modellen mit binären Ergebnissen ( Y = 1 oder 0) kann das Modell mit dem Logarithmus der Vorhersagen bewertet werden

wobei p die Wahrscheinlichkeit im zu schätzenden Modell und S die Punktzahl ist.

Anwendungen

Bewertungsalgorithmus

Der Bewertungsalgorithmus ist ein iteratives Verfahren zur numerischen Bestimmung des Maximum-Likelihood- Schätzers .

Score-Test

Beachten Sie, dass dies eine Funktion von und der Beobachtung ist , so dass es sich im Allgemeinen nicht um eine Statistik handelt . Bei bestimmten Anwendungen, wie beispielsweise dem Bewertungstest , wird die Bewertung jedoch mit einem bestimmten Wert von (beispielsweise einem Nullhypothesenwert) bewertet , wobei in diesem Fall das Ergebnis eine Statistik ist. Wenn der eingeschränkte Schätzer nahe dem Maximum der Likelihood-Funktion liegt, sollte sich die Bewertung intuitiv um nicht mehr als den Stichprobenfehler von Null unterscheiden . 1948 bewies CR Rao erstmals, dass das Quadrat des Scores dividiert durch die Informationsmatrix einer asymptotischen χ 2 -Verteilung unter der Nullhypothese folgt .

Beachten Sie außerdem, dass der Likelihood-Ratio-Test gegeben ist durch

was bedeutet, dass der Likelihood-Ratio-Test als die Fläche unter der Score-Funktion zwischen und verstanden werden kann .

Siehe auch

Anmerkungen

Verweise