Studium, Ausbildung und Beruf

web uni-protokolle.de
 powered by
NachrichtenLexikonProtokolleBücherForenFreitag, 13. Dezember 2019 

Bayesscher Wahrscheinlichkeitsbegriff


Dieser Artikel von Wikipedia ist u.U. veraltet. Die neue Version gibt es hier.

Der nach dem englischen Mathematiker Thomas Bayes benannte Bayessche Wahrscheinlichkeitsbegriff interpretiert Wahrscheinlichkeit als Grad persönlicher Überzeugung (engl. "degree belief"). Er unterscheidet sich damit vom frequentistischen Wahrscheinlichkeitsbegriff der Wahrscheinlichkeit als relative Häufigkeit interpretiert.

Der Bayessche Wahrscheinlichkeitsbegriff sollte nicht mit gleichfalls auf Thomas Bayes zurückgehenden Satz von Bayes verwechselt werden welcher in der Statistik reiche Anwendung findet.

Inhaltsverzeichnis

Entwicklung des Bayesschen Wahrscheinlichkeitsbegriffs

Die Bayessche Interpretation von Wahrscheinlichkeit (engl. Bayesianism ) ist nach dem englischen Mathematiker Thomas benannt der auch den Satz von Bayes fand das fertige Manuskript aber zu nicht veröffentlichte. Dieser Satz wird häufig verwendet die Plausibilität einer Aussage im Lichte neuer neu zu bemessen. Laplace ( 1812 ) entdeckte diesen Satz später unabhängig von und verwendete ihn um Probleme in der in der medizinischen Statistik und einigen Berichten sogar in der Rechtsprechung zu lösen.

Zum Beispiel schätzte Laplace die Masse Saturn auf Basis vorhandener astronomischer Beobachtungen seiner Er erläuterte die Ergebnisse zusammen mit einem seiner Unsicherheit: "Ich wette 11000 zu 1 der Fehler in diesem Ergebnis nicht größer als 1/100stel seines Wertes." (Laplace hätte die gewonnen denn 150 Jahre später musste sein auf Grundlage neuer Daten um lediglich 0.63% werden.)

Nach der frequentistischen Interpretation von Wahrscheinlichkeit wäre es nicht das Instrumentarium der Wahrscheinlichkeitstheorie auf das Problem der Bestimmung der des Saturns anzuwenden: Die Masse des Saturns eine Konstante und keine Zufallsvariable daher gibt es keine Häufigkeitsverteilung dazu auch keine mittlere Häufigkeit.

Die Bayessche Interpretation von Wahrscheinlichkeit wurde allem in England früh ausgearbeitet. Führende Köpfe u.a. L. J. Savage Bruno de Finetti Jaynes Frank P. Ramsey . Ihr Grundgedanke ist "vernünftige Einschätzungen" (engl. rational belief ) als eine Verallgemeinerung von Wettstrategien aufzufassen: eine Menge von Information/Messungen/Datenpunkten und nach einer gefragt wie hoch würde man auf die seiner Einschätzung wetten? (Der ernsthafte Hintergrund ist man viel Geld genau dann wettet wenn sich seiner Einschätzung sicher ist.) Eine Reihe Streitschriften gegen (frequentistische) statistische Methoden ging von diesem Grundgedanken aus die Debatte zwischen den Bayesianern und Frequentisten sich seit den 1950ern bis heute.

Formalisierung des Wahrscheinlichkeitsbegriffes

Ist man bereit Wahrscheinlichkeit als "Sicherheit der persönlichen Einschätzung eines Sachverhaltes" zu interpretieren so stellt sich die Frage welche logischen Eigenschaften diese Wahrscheinlichkeit haben muss um widersprüchlich zu sein. Wesentliche Beiträge wurden hierzu Cox ( 1946 ) geleistet. Er fordert die Gültigkeit der Prinzipien:
  • (i) Transitivität: Wenn Wahrscheinlichkeit A größer ist Wahrscheinlichkeit B und Wahrscheinlichkeit B größer als C dann muss Wahrscheinlichkeit A auch größer Wahrscheinlichkeit C sein. Ohne diese Eigenschaft wäre nicht möglich Wahrscheinlichkeiten in reellen Zahlen auszudrücken reelle Zahlen sind eben transitiv angeordnet. Außerdem Paradoxien wie die folgende auftreten:
Ein Mann der die Transitivität der Wahrscheinlichkeit versteht hat in einem Rennen auf Pferd gesetzt. Er glaubt jetzt aber Pferd B besser und tauscht seine Karte um. Er etwas dazuzahlen aber das macht ihm nichts weil er jetzt eine bessere Karte hat. glaubt er Pferd C sei besser als B. Wieder tauscht er um und muss dazuzahlen. Jetzt glaubt er aber Pferd A besser als Pferd C. Wieder tauscht er und muss etwas dazuzahlen. Immer glaubt er bekäme eine bessere Karte aber jetzt ist wieder wie vorher nur ist er ärmer
  • (ii) Negation : Wenn wir eine Erwartung haben über Wahrheit von etwas dann haben wir implizit eine Erwartung über dessen Unwahrheit.
  • (iii) Konditionierung : Wenn wir eine Erwartung haben über Wahrheit von H und auch eine Erwartung die Wahrheit von D im Falle dass wahr wäre dann haben wir implizit auch Erwartung über die gleichzeitige Wahrheit von H D.
  • (iv) Schlüssigkeit ( soundness ): Wenn es mehrere Methoden gibt bestimmte zu benutzen dann muss die Schlussfolgerung immer dieselbe sein.

Wahrscheinlichkeitswerte

Es stellt sich heraus dass die Regeln für Wahrscheinlichkeitswerte W(H) gelten müssen:

  1. <math>0 <= W(H) <= c </math> wählen <math>c=1</math>.
  2. <math>W(H) + W(!H) = c = </math> 'Summenregel'
  3. <math>W(H D) = W(D| H) W(H) 'Produktregel'

Hier bedeutet:

H oder D
: Eine Hypothese die wahr oder unwahr sein könnte ein Ereignis das eintreten oder nicht eintreten
W(H)
die Wahrscheinlichkeit dass Hypothese H wahr oder Ereignis H eintreten wird.
!H
Nicht H: die Hypothese H ist wahr oder das Ereignis H tritt nicht .
H D
H und D sind beide wahr treten beide ein oder eins ist wahr der andere tritt ein.
D| H
D im Fall dass H wahr oder eintreten würde.

Man kann leicht einsehen dass die bei 0 anfangen müssen; sonst würde so wie eine 'doppelt so große Wahrscheinlichkeit' keine haben.

Beispiel: Bei einem Wurf mit einem Würfel 6 gleichen Flächen ist die Wahrscheinlichkeit eine oder eine 3 zu werfen doppelt so wie die Wahrscheinlichkeit eine 4 zu werfen es sich dabei eben um zwei Flächen im Vergleich zu nur einer solchen Fläche.

Aus den obigen Regeln der Wahrscheinlichkeitswerte sich andere ableiten.

Praktische Bedeutung in der Statistik

Im Gegensatz zum Frequentistischer Wahrscheinlichkeitsbegriff lässt die Bayes'sche Interpretation zu dass den Wert nicht-zufälliger Konstanten schätzt wie zum die Masse des Saturns . In der frequentistischen Interpretation ist das genommen nicht möglich (s.o.) weil dort Wahrscheinlichkeiten Häufigkeiten interpretiert werden.

Um solche Probleme trotzdem im Rahmen frequentistischen Interpretation angehen zu können wird die dort mittels einer eigens dazu erfundenen variablen beschrieben. Die Bayes'sche Wahrscheinlichkeitstheorie benötigt solch eine nicht. Statt dessen führt sie das Konzept A-Priori-Wahrscheinlichkeit ein die Vorwissen und Grundannahmen des Beobachters in einer Wahrscheinlichkeitsverteilung zusammenfasst. Vertreter der Bayes-Ansatzes sehen es großen Vorteil dass Vorwissen und A-Priori-Annahmen explizit Modell ausgedrückt werden.

Links und Referenzen




Bücher zum Thema Bayesscher Wahrscheinlichkeitsbegriff

Dieser Artikel von Wikipedia unterliegt der GNU FDL.

ImpressumLesezeichen setzenSeite versendenSeite drucken

HTML-Code zum Verweis auf diese Seite:
<a href="http://www.uni-protokolle.de/Lexikon/Bayesscher_Wahrscheinlichkeitsbegriff.html">Bayesscher Wahrscheinlichkeitsbegriff </a>