Beurteilung eines binären Klassifikators




Bei einer Klassifizierung werden Objekte anhand von bestimmten Merkmalen durch einen Klassifikator in verschiedene Klassen eingeordnet. Der Klassifikator macht dabei im Allgemeinen Fehler, ordnet also in manchen Fällen ein Objekt einer falschen Klasse zu. Aus der relativen Häufigkeit dieser Fehler lassen sich quantitative Maße zur Beurteilung eines Klassifikators ableiten.


Häufig ist die Klassifikation binärer Natur, d. h., es gibt nur zwei mögliche Klassen. Die hier diskutierten Gütemaße beziehen sich ausschließlich auf diesen Fall. Solche binären Klassifikationen werden häufig in Form einer Ja/Nein-Frage formuliert: Leidet ein Patient an einer bestimmten Krankheit oder nicht? Ist ein Feuer ausgebrochen oder nicht? Nähert sich ein feindliches Flugzeug oder nicht? Bei Klassifikationen dieser Art gibt es zwei mögliche Arten von Fehlern: Ein Objekt wird der ersten Klasse zugeordnet, obwohl es der zweiten angehört, oder umgekehrt. Die hier beschriebenen Kennwerte bieten dann eine Möglichkeit, die Zuverlässigkeit des zugehörigen Klassifikators (Diagnoseverfahren, Feuermelder, Fliegerradar) zu beurteilen.


Ja-Nein-Klassifikationen weisen Ähnlichkeiten zu statistischen Tests auf, bei denen zwischen einer Nullhypothese und einer Alternativhypothese entschieden wird.




Inhaltsverzeichnis






  • 1 Wahrheitsmatrix: Richtige und falsche Klassifikationen


  • 2 Statistische Gütekriterien der Klassifikation


    • 2.1 Sensitivität und Falsch-negativ-Rate


    • 2.2 Spezifität und Falsch-positiv-Rate


    • 2.3 Positiver und negativer Vorhersagewert


    • 2.4 Korrekt- und Falschklassifikationsrate


    • 2.5 Kombinierte Maße




  • 3 Probleme


    • 3.1 Gegenseitige Beeinflussungen


    • 3.2 Seltene Positiv-Fälle


    • 3.3 Unvollständige Wahrheitsmatrix




  • 4 Klassifikationsbewertung und statistische Testtheorie


    • 4.1 Klassifikationsbewertung zur Beurteilung der Qualität statistischer Tests


    • 4.2 Statistische Tests zur Beurteilung einer Klassifikation




  • 5 Anwendung im Information Retrieval


    • 5.1 Genauigkeit-Trefferquote-Diagramm


    • 5.2 Beispiel


    • 5.3 Praxis und Probleme




  • 6 Weitere Anwendungsbeispiele


    • 6.1 HIV in der BRD


    • 6.2 Herzinfarkt in den USA




  • 7 Siehe auch


  • 8 Literatur


    • 8.1 Allgemein


    • 8.2 Information Retrieval




  • 9 Weblinks


  • 10 Einzelnachweise





Wahrheitsmatrix: Richtige und falsche Klassifikationen |




Ein Test soll kranke und gesunde Menschen voneinander unterscheiden. Jeder Mensch wird durch einen Punkt dargestellt, der links (krank) bzw. rechts (gesund) der schwarzen Linie liegt.
Die Punkte im Oval sind die von dem Test als krank klassifizierten Menschen. Richtig bewertete Fälle sind grün, falsch bewertete rot unterlegt.


Um einen Klassifikator zu bewerten, muss man ihn in einer Reihe von Fällen anwenden, bei denen man zumindest im Nachhinein Kenntnis über die „wahre“ Klasse der jeweiligen Objekte hat. Ein Beispiel für so einen Fall ist ein medizinischer Labortest, mit dem festgestellt werden soll, ob eine Person eine bestimmte Krankheit hat. Später wird durch aufwändigere Untersuchungen festgestellt, ob die Person tatsächlich an dieser Krankheit leidet. Der Test stellt einen Klassifikator dar, der die Personen in die Kategorien „krank“ und „gesund“ einordnet. Da es sich um eine Ja/Nein-Frage handelt, sagt man auch, der Test fällt positiv (Einordnung „krank“) oder negativ (Einordnung „gesund“) aus. Um zu beurteilen, wie gut geeignet der Labortest für die Diagnose der Krankheit ist, wird nun bei jedem Patienten dessen tatsächlicher Gesundheitszustand mit dem Ergebnis des Tests verglichen. Dabei können vier mögliche Fälle auftreten:




  1. Richtig positiv: Der Patient ist krank, und der Test hat dies richtig angezeigt.


  2. Falsch negativ: Der Patient ist krank, aber der Test hat ihn fälschlicherweise als gesund eingestuft.


  3. Falsch positiv: Der Patient ist gesund, aber der Test hat ihn fälschlicherweise als krank eingestuft.


  4. Richtig negativ: Der Patient ist gesund, und der Test hat dies richtig angezeigt.


Im ersten und letzten Fall war die Diagnose also richtig, in den anderen beiden Fällen liegt ein Fehler vor. Die vier Fälle werden in verschiedenen Kontexten auch anders benannt. So sind auch die englischen Begriffe true positive, false positive, false negative und true negative gebräuchlich. Im Rahmen der Signalentdeckungstheorie werden richtig positive Fälle auch als hit, falsch negative Fälle als miss und richtig negative Fälle als correct rejection bezeichnet.


Es wird nun gezählt, wie häufig jede der vier möglichen Kombinationen von Testergebnis (ermittelte Klasse) und Gesundheitszustand (tatsächliche Klasse) vorgekommen ist. Diese Häufigkeiten werden in eine sogenannte Wahrheitsmatrix (auch Konfusionsmatrix genannt) eingetragen:



















Person ist krank (rp+fn)
Person ist gesund (fp+rn)
Test positiv (rp+fp)
richtig positiv (rp)
falsch positiv (fp)
Test negativ (fn+rn)
falsch negativ (fn)
richtig negativ (rn)

Diese Matrix ist ein einfacher Spezialfall einer Kontingenztafel mit zwei binären nominalen Variablen – dem Urteil des Klassifikators und der tatsächlichen Klasse. Sie kann auch für Klassifikationen mit mehr als zwei Klassen eingesetzt werden, dann wird bei N Klassen aus einer 2×2-Matrix eine N×N-Matrix.



Statistische Gütekriterien der Klassifikation |


Durch Berechnung verschiedener relativer Häufigkeiten können aus den Werten der Wahrheitsmatrix nun Kenngrößen zur Beurteilung des Klassifikators berechnet werden. Diese können auch als Schätzungen der bedingten Wahrscheinlichkeit für das Eintreten des entsprechenden Ereignisses interpretiert werden. Die Maße unterscheiden sich hinsichtlich der Grundgesamtheit, auf die sich die relativen Häufigkeiten beziehen: So können etwa nur alle die Fälle in Betracht gezogen werden, in denen die positive bzw. negative Kategorie tatsächlich vorliegt, oder man betrachtet die Menge aller Objekte, die als positiv bzw. negativ klassifiziert werden (Summe über die Einträge einer Zeile der Wahrheitsmatrix). Diese Wahl hat gravierende Auswirkungen auf die berechneten Werte, insbesondere dann, wenn eine der beiden Klassen insgesamt viel häufiger vorkommt als die andere.



Sensitivität und Falsch-negativ-Rate |




Sensitivität


Die Sensitivität (auch Richtig-positiv-Rate, Empfindlichkeit oder Trefferquote; englisch sensitivity, true positive rate, recall oder hit rate) gibt den Anteil der korrekt als positiv klassifizierten Objekte an der Gesamtheit der tatsächlich positiven Objekte an. Beispielsweise entspricht Sensitivität bei einer medizinischen Diagnose dem Anteil an tatsächlich Kranken, bei denen die Krankheit auch erkannt wurde.


Die Sensitivität entspricht der geschätzten bedingten Wahrscheinlichkeit



P(positives Testergebnis|tatsächlich krank)=rprp+fn{displaystyle P({text{positives Testergebnis}}|{text{tatsächlich krank}})={frac {r_{p}}{r_{p}+f_{n}}}}{displaystyle P({text{positives Testergebnis}}|{text{tatsächlich krank}})={frac {r_{p}}{r_{p}+f_{n}}}}.



Falsch-negativ-Rate


Entsprechend gibt die Falsch-negativ-Rate (englisch false negative rate oder miss rate) den Anteil der fälschlich als negativ klassifizierten Objekte an der Gesamtheit der tatsächlich positiven Objekte an. Also im Beispiel die tatsächlich Kranken, die aber als gesund diagnostiziert werden.


Die Falsch-negativ-Rate entspricht der geschätzten bedingten Wahrscheinlichkeit



P(negatives Testergebnis|tatsächlich krank)=fnrp+fn{displaystyle P({text{negatives Testergebnis}}|{text{tatsächlich krank}})={frac {f_{n}}{r_{p}+f_{n}}}}{displaystyle P({text{negatives Testergebnis}}|{text{tatsächlich krank}})={frac {f_{n}}{r_{p}+f_{n}}}}.

Da sich beide Maße auf den Fall beziehen, dass in Wirklichkeit die positive Kategorie vorliegt (erste Spalte der Wahrheitsmatrix), addieren sich die Sensitivität und die Falsch-negativ-Rate zu 1 bzw. 100 %.




Spezifität und Falsch-positiv-Rate |




Spezifität


Die Spezifität (auch Richtig-negativ-Rate oder kennzeichnende Eigenschaft; englisch: specificity, true negative rate oder correct rejection rate) gibt den Anteil der korrekt als negativ klassifizierten Objekte an der Gesamtheit der in Wirklichkeit negativen Objekte an. Beispielsweise gibt die Spezifität bei einer medizinischen Diagnose den Anteil der Gesunden an, bei denen auch festgestellt wurde, dass keine Krankheit vorliegt.


Die Spezifität entspricht der geschätzten bedingten Wahrscheinlichkeit



P(negatives Testergebnis|tatsächlich gesund)=rnrn+fp{displaystyle P({text{negatives Testergebnis}}|{text{tatsächlich gesund}})={frac {r_{n}}{r_{n}+f_{p}}}}{displaystyle P({text{negatives Testergebnis}}|{text{tatsächlich gesund}})={frac {r_{n}}{r_{n}+f_{p}}}}.



Falsch-positiv-Rate


Entsprechend gibt die Falsch-positiv-Rate (auch Ausfallrate; englisch fallout oder false positive rate) den Anteil der fälschlich als positiv klassifizierten Objekte an, die in Wirklichkeit negativ sind. Im Beispiel würde dann ein tatsächlich Gesunder zu Unrecht als krank diagnostiziert. Es wird also die Wahrscheinlichkeit für einen Fehlalarm angegeben.


Die Falsch-positiv-Rate entspricht der geschätzten bedingten Wahrscheinlichkeit



P(positives Testergebnis|tatsächlich gesund)=fprn+fp{displaystyle P({text{positives Testergebnis}}|{text{tatsächlich gesund}})={frac {f_{p}}{r_{n}+f_{p}}}}{displaystyle P({text{positives Testergebnis}}|{text{tatsächlich gesund}})={frac {f_{p}}{r_{n}+f_{p}}}}.

Da sich beide Maße auf den Fall beziehen, dass in Wirklichkeit die negative Kategorie vorliegt (zweite Spalte der Wahrheitsmatrix), addieren sich die Spezifität und die Falsch-positiv-Rate zu 1 bzw. 100 %.




Positiver und negativer Vorhersagewert |




Positiver Vorhersagewert


Während Sensitivität und Spezifität eines medizinischen Tests epidemiologisch und gesundheitspolitisch relevante Kenngrößen sind (beispielsweise bei der Frage, ob ein Einsatz im Screening zur Früherkennung von Krankheiten sinnvoll ist), ist im konkreten Fall für Patient und Arzt der Vorhersagewert entscheidend. Nur er beantwortet einem positiv/negativ Getesteten die Frage, mit welcher Wahrscheinlichkeit er denn nun wirklich krank/gesund ist.


Der positive Vorhersagewert (auch Relevanz, Wirksamkeit, Genauigkeit, positiver prädiktiver Wert; englisch: precision oder positive predictive value; Abkürzung: PPV) gibt den Anteil der korrekt als positiv klassifizierten Ergebnisse an der Gesamtheit der als positiv klassifizierten Ergebnisse an (erste Zeile der Wahrheitsmatrix). Beispielsweise gibt der positive Vorhersagewert eines medizinischen Tests an, welcher Anteil der Personen mit positivem Testergebnis auch tatsächlich krank ist.


Der positive Vorhersagewert entspricht der geschätzten bedingten Wahrscheinlichkeit



P(tatsächlich krank|positives Testergebnis)=rprp+fp{displaystyle P({text{tatsächlich krank}}|{text{positives Testergebnis}})={frac {r_{p}}{r_{p}+f_{p}}}}{displaystyle P({text{tatsächlich krank}}|{text{positives Testergebnis}})={frac {r_{p}}{r_{p}+f_{p}}}}.



Negativer Vorhersagewert


Entsprechend gibt der negative Vorhersagewert (auch Segreganz oder Trennfähigkeit; englisch: negative predictive value; Abkürzung: NPV) den Anteil der korrekt als negativ klassifizierten Ergebnisse an der Gesamtheit der als negativ klassifizierten Ergebnisse an (zweite Zeile der Wahrheitsmatrix). Im Beispiel entspricht das dem Anteil der Personen mit negativem Testergebnis, der auch tatsächlich gesund ist.


Der negative Vorhersagewert entspricht der geschätzten bedingten Wahrscheinlichkeit


P(tatsächlich gesund|negatives Testergebnis)=rnrn+fn.{displaystyle P({text{tatsächlich gesund}}|{text{negatives Testergebnis}})={frac {r_{n}}{r_{n}+f_{n}}}.}{displaystyle P({text{tatsächlich gesund}}|{text{negatives Testergebnis}})={frac {r_{n}}{r_{n}+f_{n}}}.}

Anders als die anderen Paare von Gütemaßen addieren sich der negative und der positive Vorhersagewert nicht zu 1 bzw. 100 %, da jeweils von unterschiedlichen Fällen ausgegangen wird (tatsächlich positiv bzw. tatsächlich negativ, d. h. unterschiedliche Spalten der Wahrheitsmatrix). Die Vorhersagewerte können aus Sensitivität s{displaystyle s}s und Spezifität z{displaystyle z}z berechnet werden, dazu muss aber die Prätestwahrscheinlichkeit p{displaystyle p}p (entspricht bei Krankheiten der Prävalenz in der untersuchten Population) bekannt sein oder geschätzt werden. Der positive Vorhersagewert profitiert von einer hohen Prätestwahrscheinlichkeit, der negative Vorhersagewert von einer niedrigen Prätestwahrscheinlichkeit. Ein positives medizinisches Testergebnis hat also eine viel höhere Aussagekraft, wenn der Test auf Verdacht durchgeführt wurde, als wenn er allein dem Screening diente.


































Vierfeldertafel mit relativen Häufigkeiten und Berechnung der Vorhersagewerte

krank
gesund
Summe
Vorhersagewert
positiv

s⋅p{displaystyle scdot p}{displaystyle scdot p}

(1−z)⋅(1−p){displaystyle (1-z)cdot (1-p)}{displaystyle (1-z)cdot (1-p)}

s⋅p+(1−z)⋅(1−p){displaystyle scdot p+(1-z)cdot (1-p)}{displaystyle scdot p+(1-z)cdot (1-p)}

s⋅ps⋅p+(1−z)⋅(1−p){displaystyle {frac {scdot p}{scdot p+(1-z)cdot (1-p)}}}{displaystyle {frac {scdot p}{scdot p+(1-z)cdot (1-p)}}}
negativ

(1−s)⋅p{displaystyle (1-s)cdot p}{displaystyle (1-s)cdot p}

z⋅(1−p){displaystyle zcdot (1-p)}{displaystyle zcdot (1-p)}

(1−s)⋅p+z⋅(1−p){displaystyle (1-s)cdot p+zcdot (1-p)}{displaystyle (1-s)cdot p+zcdot (1-p)}

z⋅(1−p)(1−s)⋅p+z⋅(1−p){displaystyle {frac {zcdot (1-p)}{(1-s)cdot p+zcdot (1-p)}}}{displaystyle {frac {zcdot (1-p)}{(1-s)cdot p+zcdot (1-p)}}}
Summe

p{displaystyle p}p

1−p{displaystyle 1-p}1-p

1{displaystyle 1}1


Die für ein Kollektiv ermittelten positiven und negativen Vorhersagewerte sind auf andere Kollektive nur dann übertragbar, wenn die relative Häufigkeit der positiven Fälle dort dieselbe ist. Beispiel: Wurden zur Bestimmung des positiven Vorhersagewerts 100 HIV-Patienten und 100 gesunde Kontrollpatienten untersucht, so ist der Anteil an HIV-Patienten in dieser Gruppe (50 %) weit von der HIV-Prävalenz in der BRD (0,08 %) entfernt (siehe dazu auch das unten genannte Zahlenbeispiel). Die Vorhersagewerte wären also völlig andere, wenn derselbe Test an einem zufällig ausgewählten Menschen durchgeführt wird. Ein Maß, das ohne die Prätestwahrscheinlichkeit auskommt, ist die likelihood ratio (LR) (nicht zu verwechseln mit dem Likelihood-Quotienten-Test):


LRpositiv=Sensitivität1−Spezifität{displaystyle mathrm {LR} _{text{positiv}}={frac {text{Sensitivität}}{1-{text{Spezifität}}}}}{mathrm  {LR}}_{{text{positiv}}}={frac  {{text{Sensitivität}}}{1-{text{Spezifität}}}}

LRnegativ=1−SensitivitätSpezifität{displaystyle mathrm {LR} _{text{negativ}}={frac {1-{text{Sensitivität}}}{text{Spezifität}}}}{mathrm  {LR}}_{{text{negativ}}}={frac  {1-{text{Sensitivität}}}{{text{Spezifität}}}}



Korrekt- und Falschklassifikationsrate |




Korrektklassifikationsrate


Die Korrektklassifikationsrate (auch Vertrauenswahrscheinlichkeit oder Treffergenauigkeit; englisch: accuracy) gibt den Anteil aller Objekte an, die korrekt klassifiziert werden. Der restliche Anteil entspricht der Falschklassifikationsrate (auch Größe des Klassifikationsfehlers). Im Beispiel der Diagnose wäre die Korrektklassifikationsrate der Anteil an richtig positiven und richtig negativen Diagnosen an der Gesamtzahl der Diagnosen, die Falschklassifikationsrate hingegen der Anteil der falsch positiven und falsch negativen Diagnosen.


Die Korrektklassifikationsrate entspricht der geschätzten Wahrscheinlichkeit



P(richtig klassifiziert)=richtig klassifiziertalle Fälle=rp+rnrp+fp+rn+fn{displaystyle P({text{richtig klassifiziert}})={frac {text{richtig klassifiziert}}{text{alle Fälle}}}={frac {r_{p}+r_{n}}{r_{p}+f_{p}+r_{n}+f_{n}}}}P({text{richtig klassifiziert}})={frac  {{text{richtig klassifiziert}}}{{text{alle Fälle}}}}={frac  {r_{p}+r_{n}}{r_{p}+f_{p}+r_{n}+f_{n}}},



Falschklassifikationsrate


und die Falschklassifikationsrate der geschätzten Wahrscheinlichkeit



P(falsch klassifiziert)=falsch klassifiziertalle Fälle=fp+fnrp+fp+rn+fn{displaystyle P({text{falsch klassifiziert}})={frac {text{falsch klassifiziert}}{text{alle Fälle}}}={frac {f_{p}+f_{n}}{r_{p}+f_{p}+r_{n}+f_{n}}}}P({text{falsch klassifiziert}})={frac  {{text{falsch klassifiziert}}}{{text{alle Fälle}}}}={frac  {f_{p}+f_{n}}{r_{p}+f_{p}+r_{n}+f_{n}}}.

Die Korrekt- und die Falschklassifikationsrate addieren sich entsprechend zu 1 oder 100 %.




Kombinierte Maße |


Da sich die verschiedenen Gütemaße gegenseitig beeinflussen (siehe Abschnitt Probleme), wurden verschiedene kombinierte Maße vorgeschlagen, die eine Beurteilung der Güte mit einer einzigen Kennzahl erlauben. Die im Folgenden vorgestellten Maße wurden im Kontext des Information Retrieval entwickelt (siehe Anwendung im Information Retrieval).


Das F-Maß kombiniert Genauigkeit (precision) und Trefferquote (recall) mittels des gewichteten harmonischen Mittels:


F=2⋅(precision⋅recall)/(precision+recall).{displaystyle F=2cdot ({text{precision}}cdot {text{recall}})/({text{precision}}+{text{recall}}).,}F=2cdot ({text{precision}}cdot {text{recall}})/({text{precision}}+{text{recall}}).,

Neben diesem auch als F1{displaystyle F_{1}}F_{1} bezeichneten Maß, bei dem Genauigkeit und Trefferquote gleich gewichtet sind, gibt es auch andere Gewichtungen. Der Allgemeinfall ist das Maß {displaystyle F_{alpha }}F_{alpha } (für positive Werte von α{displaystyle alpha }alpha ):


=(1+α2)⋅(precision⋅recall)/(α2⋅precision+recall).{displaystyle F_{alpha }=(1+alpha ^{2})cdot ({text{precision}}cdot {text{recall}})/(alpha ^{2}cdot {text{precision}}+{text{recall}}).,}F_{alpha }=(1+alpha ^{2})cdot ({text{precision}}cdot {text{recall}})/(alpha ^{2}cdot {text{precision}}+{text{recall}}).,

Beispielsweise gewichtet F2{displaystyle F_{2}}F_{{2}} die Trefferquote viermal so hoch wie die Genauigkeit und F0,5{displaystyle F_{0{,}5}}F_{{0{,}5}} die Genauigkeit viermal so hoch wie die Trefferquote.


Das Effektivitätsmaß E{displaystyle E}E entspricht ebenfalls dem gewichteten harmonischen Mittel. Es wurde 1979 von van Rijsbergen eingeführt. Die Effektivität liegt zwischen 0 (beste Effektivität) und 1 (schlechte Effektivität). Für einen Parameterwert von α=0{displaystyle alpha =0}alpha =0 ist E{displaystyle E}E äquivalent zur Trefferquote, für einen Parameterwert von α=1{displaystyle alpha =1}alpha =1 äquivalent zur Genauigkeit.


E=1−(1P)+(1−α)1R{displaystyle E=1-{frac {1}{alpha left({frac {1}{P}}right)+(1-alpha ){frac {1}{R}}}}}E=1-{frac  {1}{alpha left({frac  {1}{P}}right)+(1-alpha ){frac  {1}{R}}}}


Probleme |



Gegenseitige Beeinflussungen |


Es ist nicht möglich, alle Gütekriterien unabhängig voneinander zu optimieren. Insbesondere sind die Sensitivität und die Spezifität negativ miteinander korreliert. Zur Veranschaulichung dieser Zusammenhänge ist es hilfreich, die Extremfälle zu betrachten:



  • Wenn eine Diagnose fast alle Patienten als krank klassifiziert (liberale Diagnose), ist die Sensitivität maximal, denn es werden die meisten Kranken auch als solche erkannt. Allerdings wird gleichzeitig auch die Falsch-positiv-Rate maximal, da auch fast alle Gesunden als krank eingestuft werden. Die Diagnose hat also eine sehr geringe Spezifität.

  • Wird hingegen fast niemand als krank eingestuft (konservative Diagnose), ist umgekehrt die Spezifität maximal, allerdings auf Kosten einer geringen Sensitivität.


Wie konservativ oder liberal ein Klassifikator optimalerweise sein sollte, hängt vom konkreten Anwendungsfall ab. Aus diesem leitet sich beispielsweise ab, welche der Fehlklassifikationen die schwererwiegenden Folgen hat. Bei der Diagnose einer schlimmen Krankheit oder sicherheitsrelevanten Anwendungen wie einem Feueralarm ist es wichtig, dass kein Fall unentdeckt bleibt. Bei einer Recherche durch eine Suchmaschine hingegen kann es wichtiger sein, möglichst wenige Resultate zu bekommen, die für die Suche irrelevant sind, also falsch-positive Resultate darstellen. Die Risiken der verschiedenen Fehlklassifikationen lassen sich zur Bewertung eines Klassifikators in einer Kostenmatrix angeben, mit der die Wahrheitsmatrix gewichtet wird. Eine weitere Möglichkeit besteht in der Verwendung kombinierter Maße, bei denen sich eine entsprechende Gewichtung einstellen lässt.


Um die Auswirkungen verschieden konservativer Tests für ein konkretes Anwendungsbeispiel darzustellen, können Receiver-Operating-Characteristic-Kurven (ROC-Kurven) erstellt werden, in denen die Sensitivität für verschiedene Tests gegen die Falsch-positiv-Rate aufgetragen wird. Im Rahmen der Signalentdeckungstheorie spricht man auch von einem verschieden konservativ gesetzten Kriterium.



Seltene Positiv-Fälle |


Darüber hinaus wird auch ein extremes Ungleichgewicht zwischen tatsächlich positiv und negativen Fällen die Kenngrößen verfälschen, wie es etwa bei seltenen Krankheiten der Fall ist. Ist beispielsweise die Anzahl der an einem Test teilnehmenden Kranken erheblich geringer als die der Gesunden, so führt dies im Allgemeinen zu einem geringen Wert im positiven Vorhersagewert (siehe dazu das unten angeführte Zahlenbeispiel). Daher sollte in diesem Fall alternativ zu den Vorhersagewerten die likelihood ratio angegeben werden.


Dieser Zusammenhang ist bei verschiedenen Labortests zu bedenken: Preiswerte Screening-Tests werden so justiert, dass eine möglichst kleine Anzahl falsch negativer Ergebnisse vorliegt. Die produzierten falsch positiven Testergebnisse werden anschließend durch einen (teureren) Bestätigungstest identifiziert. Für schwerwiegende Erkrankungen sollte immer ein Bestätigungstest durchgeführt werden. Dieses Vorgehen ist für die Bestimmung von HIV sogar gefordert.



Unvollständige Wahrheitsmatrix |


Ein weiteres Problem bei der Beurteilung eines Klassifikators besteht darin, dass häufig nicht die gesamte Wahrheitsmatrix ausgefüllt werden kann. Insbesondere ist oft die Falsch-negativ-Rate nicht bekannt, etwa wenn bei Patienten, die eine negative Diagnose erhalten, keine weiteren Tests durchgeführt werden und eine Krankheit unerkannt bleibt, oder wenn ein eigentlich relevantes Dokument bei einer Recherche nicht gefunden wird, weil es nicht als relevant klassifiziert wurde. In diesem Fall können nur die als positiv klassifizierten Ergebnisse ausgewertet werden, d. h. es kann nur der positive Vorhersagewert berechnet werden (siehe dazu auch das unten angeführte Zahlenbeispiel). Mögliche Lösungen für dieses Problem werden im Abschnitt Anwendung im Information Retrieval besprochen.



Klassifikationsbewertung und statistische Testtheorie |





























Binäre Klassifikation
Statistischer Test
Ziel
Auf Basis einer Stichprobe werden Beobachtungen (Objekte) einer der beiden Klassen zugeordnet.
Mittels einer Zufallsstichprobe werden zwei sich ausschliessende Hypothesen (Null- und Alternativhypothese) über die Grundgesamtheit geprüft.
Vorgehen
Der Klassifikator ist eine aus der Stichprobe geschätzte Regressionsfunktion mit zwei möglichen Ergebniswerten.
Der Prüfwert wird mittels einer Teststatistik aus der Zufallsstichprobe berechnet und mit kritischen Werten, die aus der Verteilung der Teststatistik berechnet werden, verglichen.
Ergebnis
Für eine Beobachtung wird eine Klassenzugehörigkeit vorhergesagt.
Aufgrund des Vergleiches von Prüfwert und kritischen Werten kann die Alternativhypothese angenommen oder verworfen werden.
Fehler
Die Qualität eines Klassifikators wird mit der Falschklassifikationsrate (falsch positiv und falsch negativ) im Nachhinein beurteilt.
Vor der Testdurchführung wird die Größe des Fehlers 1. Art (fälschlich Annahme der Alternativhypothese) festgelegt. Daraus werden die kritischen Werte berechnet. Der Fehler 2. Art (fälschlich Ablehnung der Alternativhypothese) ist immer unbekannt bei der Testdurchführung.


Klassifikationsbewertung zur Beurteilung der Qualität statistischer Tests |


Mit Hilfe der Klassifikationsbewertung kann die Qualität eines statistischen Test beurteilt werden:



  • Generiert man viele Stichproben unter Gültigkeit der Nullhypothese, so sollte die Annahmerate der Alternativhypothese dem Fehler 1. Art entsprechen. Aber bei komplizierten Tests kann man oft nur eine obere Grenze für den Fehler 1. Art angeben, so dass der „wahre“ Fehler 1. Art nur mit einer solchen Simulation abgeschätzt werden kann.

  • Generiert man viele Stichproben unter Gültigkeit der Alternativhypothese, so ist die Ablehnungsrate der Alternativhypothese eine Schätzung des Fehlers 2. Art. Dies ist beispielsweise von Interesse, wenn man zwei Tests für einen Sachverhalt hat. Wenn die Alternativhypothese gilt, dann bevorzugt man den Test, der einen kleineren Fehler 2. Art hat.



Statistische Tests zur Beurteilung einer Klassifikation |


Man kann statistische Tests einsetzen, um zu überprüfen, ob eine Klassifikation statistisch signifikant ist, d. h., ob bzgl. der Grundgesamtheit die Einschätzung des Klassifikators unabhängig von den tatsächlichen Klassen ist (Nullhypothese) oder ob er signifikant mit ihnen korreliert (Alternativhypothese).


Im Fall von mehreren Klassen kann dafür der Chi-Quadrat-Unabhängigkeitstest verwendet werden. Dabei wird geprüft, ob die Einschätzung des Klassifikators unabhängig von den tatsächlichen Klassen ist oder signifikant mit ihnen korreliert. Die Stärke der Korrelation wird durch Kontingenzkoeffizienten abgeschätzt.


Im Fall einer binären Klassifikation wird der Vierfeldertest verwendet, ein Spezialfall des Chi-Quadrat-Unabhängigkeitstests. Hat man nur wenige Beobachtungswerte, sollte der Exakte Fisher-Test verwendet werden. Die Stärke der Korrelation kann mit dem Phi-Koeffizient abgeschätzt werden.


Lehnt der Test die Nullhypothese ab, bedeutet es jedoch nicht, dass der Klassifikator gut ist. Es bedeutet nur, dass er besser ist als (zufälliges) Raten. Ein guter Klassifikator sollte auch eine möglichst hohe Korrelation aufweisen.


In Diettrich (1998) werden fünf Tests untersucht zum direkten Vergleich von Missklassifikationsraten von zwei unterschiedlichen Klassifikatoren:
[1]
ein einfacher Zweistichproben-t-Test für unabhängige Stichproben, ein Zweistichproben-t-Test für verbundene Stichproben, ein Zweistichproben-t-Test für verbundene Stichproben mit 10-fach-Kreuzvalidierung, der McNemar-Test und ein Zweistichproben-t-Test für verbundene Stichproben mit 5-fach-Kreuzvalidierung und modifizierter Varianzberechnung (5x2cv). Als Ergebnis der Untersuchung von Güte und Fehler 1. Art der fünf Tests ergibt sich, dass sich der 5x2cv-Test am besten verhält, jedoch sehr rechenaufwendig ist. Der McNemar-Test ist etwas schlechter als der 5x2cv-Test, jedoch deutlich weniger rechenaufwendig.



Anwendung im Information Retrieval |


Ein spezieller Anwendungsfall der hier beschriebenen Maße ist die Beurteilung der Güte von Treffermengen einer Recherche beim Information Retrieval. Dabei geht es um die Beurteilung, ob ein gefundenes Dokument, etwa beim Webmining durch Suchmaschinen, entsprechend einem definierten Kriterium relevant ist. In diesem Zusammenhang sind die oben definierten Bezeichnungen Trefferquote (engl. „recall“), Genauigkeit (engl. „precision“) und Ausfallquote (engl. „fallout“) gebräuchlich. Die Trefferquote gibt den Anteil der bei einer Suche gefundenen relevanten Dokumente und damit die Vollständigkeit eines Suchergebnisses an. Die Genauigkeit beschreibt mit dem Anteil relevanter Dokumente an der Ergebnismenge die Genauigkeit eines Suchergebnisses. Der (weniger gebräuchliche) Ausfall bezeichnet den Anteil gefundener irrelevanter Dokumente an der Gesamtmenge aller irrelevanten Dokumente, er gibt also in negativer Weise an, wie gut irrelevante Dokumente im Suchergebnis vermieden werden. Statt als Maß können Trefferquote, Genauigkeit und Ausfall auch als Wahrscheinlichkeit interpretiert werden:



  • Trefferquote ist die Wahrscheinlichkeit, mit der ein relevantes Dokument gefunden wird (Sensitivität).

  • Genauigkeit ist die Wahrscheinlichkeit, mit der ein gefundenes Dokument relevant ist (Positiver Vorhersagewert).

  • Ausfall ist die Wahrscheinlichkeit, mit der ein irrelevantes Dokument gefunden wird (Falsch-positiv-Rate).


Eine gute Recherche sollte möglichst alle relevanten Dokumente finden (richtig positiv) und die nicht relevanten Dokumente nicht finden (richtig negativ). Wie oben beschrieben, hängen die verschiedenen Maße jedoch voneinander ab. Im Allgemeinen sinkt mit steigender Trefferrate die Genauigkeit (mehr irrelevante Ergebnisse). Umgekehrt sinkt mit steigender Genauigkeit (weniger irrelevante Ergebnisse) die Trefferrate (mehr relevante Dokumente, die nicht gefunden werden). Je nach Anwendungsfall sind die unterschiedlichen Maße zur Beurteilung mehr oder weniger relevant. Bei einer Patentrecherche ist es beispielsweise wichtig, dass keine relevanten Patente unentdeckt bleiben – also sollte der Negative Vorhersagewert möglichst hoch sein. Bei anderen Recherchen ist es wichtiger, dass die Treffermenge wenige irrelevante Dokumente enthält, d. h., der Positive Vorhersagewert sollte möglichst hoch sein.


Im Kontext des Information Retrieval wurden auch die oben beschriebenen kombinierten Maße wie der F-Wert und die Effektivität eingeführt.



Genauigkeit-Trefferquote-Diagramm |


Zur Einschätzung eines Retrieval-Verfahrens werden meist Trefferquote und Genauigkeit gemeinsam betrachtet. Dazu werden im sogenannten Precision-Recall-Diagramm (PR-Diagramm) für verschieden große Treffermengen zwischen den beiden Extremen Genauigkeit auf der y-Achse und Trefferquote auf der x-Achse eingetragen. Dies ist vor allem leicht bei Verfahren möglich, deren Treffermenge durch einen Parameter gesteuert werden kann. Dieses Diagramm erfüllt einen ähnlichen Zweck wie die oben beschriebene ROC-Kurve, die man in diesem Zusammenhang auch als Trefferquote-Fallout-Diagramm bezeichnet.


Der (höchste) Wert im Diagramm, an dem der Precision-Wert gleich dem Treffer-Wert ist – also der Schnittpunkt des Genauigkeit-Trefferquote-Diagramms mit der Identitätsfunktion – wird der Genauigkeit-Trefferquote-Breakeven-Punkt genannt. Da beide Werte voneinander abhängen, wird auch oft der eine bei fixiertem anderen Wert genannt. Eine Interpolation zwischen den Punkten ist allerdings nicht zulässig, es handelt sich um diskrete Punkte, deren Zwischenräume nicht definiert sind.



Beispiel |


In einer Datenbank mit 36 Dokumenten sind zu einer Suchanfrage 20 Dokumente relevant und 16 nicht relevant. Eine Suche liefert 12 Dokumente, von denen tatsächlich 8 relevant sind.



















Relevant
Nicht relevant
Gefunden
8
4
Nicht gefunden
12
12

Trefferquote und Genauigkeit für die konkrete Suche ergeben sich aus den Werten der Konfusionsmatrix.



  • Trefferquote: 8(8+12) = 820 = 25 = 0,4

  • Genauigkeit: 8(8+4) = 812 = 23 ≈ 0,67

  • Fallout: 4(4+12) = 416 = 14 = 0,25



Praxis und Probleme |


Ein Problem bei der Berechnung der Trefferquote ist die Tatsache, dass man nur selten weiß, wie viele relevante Dokumente insgesamt existieren und nicht gefunden wurden (Problem der unvollständigen Wahrheitsmatrix). Bei größeren Datenbanken, bei denen die Berechnung der absoluten Trefferquote besonders schwierig ist, wird deswegen mit der relativen Trefferquote gearbeitet. Dabei wird die gleiche Suche mit mehreren Suchmaschinen durchgeführt, und die jeweils neuen relevanten Treffer werden zu den nicht gefundenen relevanten Dokumenten addiert. Mit der Rückfangmethode kann abgeschätzt werden, wie viele relevante Dokumente insgesamt existieren.


Problematisch ist auch, dass zur Bestimmung von Trefferquote und Genauigkeit die Relevanz eines Dokumentes als Wahrheitswert (ja/nein) bekannt sein muss. In der Praxis ist jedoch oft die Subjektive Relevanz von Bedeutung. Auch für in einer Rangordnung angeordnete Treffermengen ist die Angabe von Trefferquote und Genauigkeit oft nicht ausreichend, da es nicht nur darauf ankommt, ob ein relevantes Dokument gefunden wird, sondern auch, ob es im Vergleich zu nicht relevanten Dokumenten genügend hoch in der Rangfolge eingeordnet wird. Bei sehr unterschiedlich großen Treffermengen kann die Angabe durchschnittlicher Werte für Trefferquote und Genauigkeit irreführend sein.



Weitere Anwendungsbeispiele |



HIV in der BRD |


Das Ziel eines HIV-Tests sollte die möglichst sichere Erkennung eines Infizierten sein. Aber welche Konsequenzen ein falsch positiver Test haben kann, zeigt das Beispiel eines Menschen, der sich auf HIV testen lässt und dann aufgrund eines falsch-positiven Ergebnisses Suizid begeht.


Bei einer angenommenen Genauigkeit von 99,9 % des nicht-kombinierten HIV-Tests sowohl für positive als auch negative Ergebnisse (Sensitivität und Spezifität = 0,999) und der aktuellen Verbreitung von HIV (Stand 2009) in der deutschen Bevölkerung (82.000.000 Einwohner, davon 67.000 HIV-positiv) wäre ein allgemeiner HIV-Test verheerend: bei nicht-kombiniertem HIV-Test würden nämlich von 67.000 tatsächlich Erkrankten lediglich 67 HIV-Infizierte fälschlicherweise nicht erkannt, aber ca. 82.000 Personen würden fälschlicherweise als HIV-positiv diagnostiziert. Von 148.866 positiven Ergebnissen wären etwa 55 % falsch positiv, also mehr als die Hälfte der positiv Getesteten. Somit liegt die Wahrscheinlichkeit, dass jemand, der nur mit dem ELISA-Test positiv getestet würde, auch wirklich HIV-positiv wäre, bei nur 45 % (positiver Vorhersagewert). Dieser angesichts der sehr geringen Fehlerrate von 0,1 % niedrige Wert liegt darin begründet, dass HIV nur bei etwa 0,08 % der Bundesbürger auftritt.



























ELISA-Test
HIV positiv
HIV negativ
Summe
HIV-Test positiv
66.933
81.933
148.866
HIV-Test negativ
67
81.851.067
81.851.134
Summe
67.000
81.933.000
82.000.000


Herzinfarkt in den USA |


In den USA werden pro Jahr etwa vier Millionen Frauen und Männer wegen Schmerzen in der Brust unter der Verdachtsdiagnose Herzinfarkt in eine Klinik eingewiesen. Im Verlauf der aufwendigen und teuren Diagnostik stellt sich dann heraus, dass von diesen Patienten nur etwa 32 % tatsächlich einen Infarkt erlitten haben. Bei 68 % war die Diagnose Infarkt nicht korrekt (falsch positive Verdachtsdiagnose). Andererseits werden in jedem Jahr etwa 34.000 Patienten aus dem Krankenhaus entlassen, ohne dass ein tatsächlich vorhandener Herzinfarkt erkannt wurde (ca. 0,8 % falsch negative Diagnose).


Auch in diesem Beispiel ist die Sensitivität der Untersuchung ähnlich hoch, nämlich 99,8 %. Die Spezifität lässt sich nicht ermitteln, weil die falsch-positiven Ergebnisse der Untersuchung nicht bekannt sind. Bekannt sind nur die falsch-positiven Eingangsdiagnosen, die auf der Angabe „Herzschmerz“ fußen. Betrachtet man ausschließlich diese Eingangsdiagnose, dann ist die Angabe der 34.000 Patienten, die fälschlich entlassen werden, wertlos, denn sie haben hiermit nichts zu tun. Man benötigt nämlich die Zahl der Falsch-Negativen, also jener Personen mit Herzinfarkt, die nicht eingewiesen wurden, weil sie keinen Herzschmerz hatten.



Siehe auch |



  • RATZ-Index

  • Justizirrtum

  • Fehldiagnose

  • Prüflos

  • Satz von Bayes

  • Zinssensitivität



Literatur |



Allgemein |




  • Hans-Peter Beck-Bornholdt, Hans-Hermann Dubben: Der Hund, der Eier legt. Erkennen von Fehlinformation durch Querdenken. ISBN 3-499-61154-6

  • Gerd Gigerenzer: Das Einmaleins der Skepsis. Berlin: Berliner Taschenbuch Verlag, 2004 ISBN 3-8333-0041-8



Information Retrieval |



  • John Makhoul, Francis Kubala, Richard Schwartz und Ralph Weischedel: Performance measures for information extraction. In: Proceedings of DARPA Broadcast News Workshop, Herndon, VA, February 1999.

  • R. Baeza-Yates und B. Ribeiro-Neto (1999). Modern Information Retrieval. New York: ACM Press, Addison-Wesley. Seiten 75 ff. ISBN 0-201-39829-X

  • Christa Womser-Hacker: Theorie des Information Retrieval III: Evaluierung. In R. Kuhlen: Grundlagen der praktischen Information und Dokumentation. München. Saur, 5. Auflage 2004. Seiten 227–235. ISBN 3-598-11675-6, ISBN 3-598-11674-8

  • C. V. van Rijsbergen: Information Retrieval. London; Boston. Butterworth, 2nd Edition 1979. ISBN 0-408-70929-4

  • Jesse Davis und Mark Goadrich: The Relationship Between Precision-Recall and ROC Curves. In: 23rd International Conference on Machine Learning (ICML), 2006. doi:10.1145/1143844.1143874



Weblinks |



  • Interaktive Veranschaulichung

  • Leseprobe aus Gerd Gigerenzer: Das Einmaleins der Skepsis

  • Information Retrieval – C. J. van Rijsbergen 1979


  • Tücken der Statistik: Denken Sie immer falsch positiv! (fiktives Scharlach-Screening als anschauliches Beispiel)

  • Anschauliche Beschreibung der Problematik von Fehlschlüssen



Einzelnachweise |




  1. Thomas G. Dietterich: Approximate Statistical Tests for Comparing Supervised Classification Learning Algorithms. In: Neural Computation. Band 10, Nr. 7, 1. Oktober 1998, S. 1895–1923, doi:10.1162/089976698300017197. 




Popular posts from this blog

Bundesstraße 106

Verónica Boquete

Ida-Boy-Ed-Garten