Bayes' teorem

Fra Wikipedia, den frie encyklopædi
Gå til: navigation, søg
Bayes' teorem.

Bayes' teorem, eller Bayes' læresætning, viser, hvorledes den betingede sandsynlighed afhænger af dens inverse. F.eks. afhænger sandsynligheden for, at en hypotese er sand givet observeret data, af sandsynligheden af disse data givet hypotesen. Dermed går bayesiansk statistik mod den gængse frekventistiske tilgang i statistik.

Læresætningen udtrykker den a posteriori sandsynlighed (efter at hændelsen B er observeret) for en given hypotese A, i kraft af den a priori sandsynlighed af A og B, og sandsynligheden af B givet A. Den medfører, at data er mere overbevisende, hvis det var mere usandsynligt, før det blev observeret. Bayes læresætning er gyldig i alle gængse fortolkninger af sandsynlighed, og er anvendelig i mange videnskaber:

P(A|B) = \frac{P(A \cap B)}{P(B)} = \frac{P(B \cap A)}{P(B)} = \frac{P(B | A) P(A)}{P(B)}
Matematik Stub
Denne artikel om matematik er kun påbegyndt. Hvis du ved mere om emnet, kan du hjælpe Wikipedia ved at udvide den.