Bayes formel (även kallad Bays sats) beskrier matematiskt hur vi bör uppdatera vår världsbild i ljuset av ny information. Den är därför ett viktigt redskap när man försöker dra slutsatser av naturvetenskapliga experiment, såväl i vardagen som i vården och rättsväsendet.
Formeln
Låt H vara en hypotes, dvs. ett påstående som vi bedömer är sant med någon viss sannolikhet, och låt E vara en observation som vi har gjort, som påverkar sannolikheten för H.
Bayes sats säger då att vi borde uppdatera sannolikheten för H enligt formeln
\[P(H|E)={\color{black}{\frac{P(E|H)\color{black}{\cdot P(H)}}{P(E|H)\cdot P(H)+P(E|\lnot H)\cdot P(\lnot H)}}}\,,\]
där
- \(\small P(H)\) är den initiala sannolikheten för H, innan vi gjorde observationen E
- \(\small P(\lnot H)=1-P(H)\) är den initiala sannolikheten för att H är falsk
- \(\small P(H|E)\) är den uppdaterade sannolikheten för H, efter observationen E
- \(\small P(E|H)\) är sannolikheten att vi skulle observera E, om H vore sann
- \(\small P(E|\lnot H)\) är sannolikheten att vi skulle observera E, om H vore falsk.
Tolkning
Huvudbudskapet i Bayes formel är att det finns tre olika parametrar att ta hänsyn till när vi uppdaterar sannolikheter i ljuset av ny information:
- Hur sannolik vi bedömde att hypotesen H var innan vi gjorde observationen E. Detta motsvaras av sannolikheten \(\small P(H)\).
- Hur pass förväntat det är att göra observationen E om hypotesen H vore sann. Detta motsvaras av \(\small P(E|H)\).
- Hur pass sannolika eventuella alternativa förklaringar till observationen E är. Detta motsvaras av \(\small P(E|\lnot H)\).
Ett vanligt fel vi människor begår när vi intuitivt bedömer sannolikheter, är att vi glömmer bort punkt 1 och 3, och i stället antar att \(\small P(H|E)\approx P(E|H)\). Som vi kommer att se i exempeluppgifterna nedan är detta oftast helt fel!
Första gången man ser en formel är det en god idé att göra en snabb rimlighetsanalys. Dels för att upptäcka eventuella fel, och dels för att det är ett bra sätt att ”lära känna” formeln och bygga upp en känsla för hur den fungerar.
Gör en snabb kontroll av rimligheten i Bayes formel! Du kan t.ex. kolla om \(\small P(H|E)\) får en rimlig storlek (värdet borde ligga mellan 0 och 1). Fundera också på hur \(\small P(H|E)\) intuitivt borde bero på parametrarna \(\small P(E|H)\) och \(\small P(E|\lnot H)\), och undersök om detta stämmer med formeln.
Bayes formel säger att
\[\small P(H|E)=\frac{P(E|H)\cdot P(H)}{P(E|H)\cdot P(H)+P(E|\lnot H)\cdot P(\lnot H)}\,.\]
Intuition: Eftersom det är en sannolikhet, borde \(\small P(H|E)\) anta värden mellan 0 och 1.
Analys: Detta stämmer med att formeln säger att \(\small P(H|E)\) är en kvot, där nämnaren är täljaren plus en extra term \(\small P(E|\lnot H)P(\lnot H)\). Det betyder att nämnaren alltid är minst lika stor som täljaren, vilket i sin tur innebär att kvoten aldrig kan bli större än 1. Eftersom varken täljare och nämnare kan vara negativa, så måste kvoten vara större än eller lika med 0.
Intuition: Om \(\small P(E|H)\) ökar så borde \(\small P(H|E)\) öka; ju mer väntad observationen E är om H vore sann, desto bättre belägg för H borde den ge.
Analys: Detta stämmer med formeln! Om \(\small P(E|H)\) ökar i formeln (och \(\small P(H)>0\), så ökar termen \(\small P(E|H)P(H)\) i nämnaren. Det gör att betydelsen av den extra termen \(\small P(E|\lnot H)P(\lnot H)\) minskar, vilket får kvoten att växa och blir mer lik \[\small \frac{P(E|H)P(H)}{P(E|H)P(H)}=1\,,\] precis som väntat.
Intuition: Om \(\small P(E|\lnot H)\) ökar så borde \(\small P(H|E)\) minska; ju troligare alternativa förklaringar det finns, desto svagare belägg ger observationen, och desto mindre borde \(\small P(H|E)\) bli.
Analys: Detta stämmer också! Formeln säger att om \(\small P(E|\lnot H)\) ökar (och \(\small P(\lnot H)>0\) , så blir den extra termen \(\small P(E|\lnot H)P(\lnot H)\) i nämnaren större, vilket gör kvoten mindre.
Exempel och grafisk tolkning
Ett av de mest klassiska exemplen när det kommer till Bayes formel är hämtat från vården:
En screening är en medicinsk undersökning där man letar efter en sjukdom hos en stor grupp människor utan att de har några symptom på sjukdomen. Det typiska exemplet är mammografi, där man letar efter bröstcancer. Man screenar även i varierande grad för exempelvis prostacancer, könssjukdomar samt vissa ämnesomsättningssjukdomar hos barn.
Screeningtester är sällan helt perfekta. Dels finns det en risk för att patienter som är sjuka friskförklaras, och dels finns det en risk för att patienter som är friska får besked om att de är sjuka.
Anta att Adam screenas för en viss sjukdom X, som i snitt 10 % av befolkningen beräknas vara drabbad av (det är med andra ord en ganska vanlig sjukdom), så att
\[P(\text{sjuk})=0{,}10\,.\]
Om testet är positivt indikerar det att Adam har sjukdomen. Om testet är negativt indikerar det att Adam är frisk. Läkaren berättar att 90 % av alla sjuka individer testar positivt, dvs. att
\[P(\text{positivt}\,|\,\text{sjuk})=0{,}90\,,\]
och att risken att frisk person testar positivt är 10 %, dvs. att
\[P(\text{positivt}\,|\,\text{frisk})=0{,}10\,.\]
Anta att Adam testar positivt. Han blir så klart orolig. Instinktivt skulle många tolka detta som att han med stor sannolikhet är sjuk. Men vad säger Bayes formel?
Vi är intresserade av den uppdaterade sannolikheten för att Adam är sjuk, efter observationen att han har testat positivt för sjukdomen, dvs. \(\small P(\text{sjuk}\,|\,\text{positivt})\). Enligt Bayes formel är
\[P(\text{sjuk}\,|\,\text{positivt})=\small\frac{P(\text{positivt}\,|\,\text{sjuk})P(\text{sjuk})}{P(\text{positivt}\,|\,\text{sjuk})P(\text{sjuk})+P(\text{positivt}\,|\,\text{frisk})P(\text{frisk})}.\]
Med insatta värden får vi
\[P(\text{sjuk}\,|\,\text{positivt})={\small\frac{0{,}9\cdot 0{,}1}{0{,}9\cdot 0{,}1+0{,}1\cdot (1-0{,}1)}}\approx 0{,}5\,.\]
dvs. sannolikheten att Adam är sjuk är inte mer än 50 %. Detta strider mot mångas intuition. Under fliken ”Grafisk tolkning” ger vi därför en visuell förklaring.
Låt oss rita en bild! Föreställ dig att vi testar 100 slumpmässigt utvalda personer. Av dessa förväntar vi oss att 10 % har sjukdomen (rödmarkerade), medan resten inte har den.
Vi förväntar oss sedan att 90 % av de med sjukdomen och 10 % av de utan sjukdomen testar sedan positivt (markeras med röd bakgrund). Vi får följande figur:
Eftersom vi vet att Adam testade positivt, kan vi tänka oss att han är en av personerna med röd bakgrund, dvs. någon av dessa:
Med hjälp av ett klassiskt ”delen genom det hela”-argument kommer vi fram till att
eller, uttryckt i sannolikheter:
vilket är precis vad Bayes formel säger!
Anledningen till \(\small P(\text{sjuk}\,|\,\text{positivt})\) blir så liten är att sjukdomen är så pass ovanlig, så att även om risken för en enskild frisk person att få ett falskt positivt resultat är liten, så kommer det totalt att vara ganska många friska personer som testar positivt.
Att på detta vis glömma att ta hänsyn till den initiala sannolikheten är ett vanligt misstag, och kallas för the base rate fallacy på engelska.
Den visuella ”delen genom det hela”-tolkningen som vi gjorde i Exempel 1 ovan kan också användas som en generell motivering till varför Bayes formel gäller:
Varje punkt motsvarar här ett ”slumpmässigt genererat universum” där vår hypotes H är antingen sann (röd punkt •) eller falsk (svart punkt •), och där vi antingen har (röd bakgrund) eller inte har (vit bakgrund) gjort observationen E.
Om vi vet att vi har gjort observationen E så så betyder det att verkligheten motsvarar en punkt med röd bakgrund, och Bayes formel följer då av ”delen genom det hela”:
På den här länken finns en interaktiv GeoGebra-applet, där du själv kan experimentera med figurer som den ovan. Använd gärna appleten samtidigt som du löser övningsuppgifterna nedan!
Övningsuppgifter
Här följer ytterligare ett par exempel på användningsområden för Bayes formel. Försök gärna svara på frågorna själv innan du tittar på våra lösningar.
a) Vad händer med svaret i föregående exempel, om Adam har visat symptom på sjukdomen X, så att läkaren misstänker att Adam har sjukdomen med sannolikhet 40 % innan testet görs? Räkna med
\[\small P(\text{sjuk})=0{,}4\quad P(\text{positivt}\,|\,\text{sjuk})=0{,}9\quad P(\text{positivt}\,|\,\text{frisk})=0{,}1\,.\]
b) Vad händer om läkaren i stället bedömer att Adam av någon anledning (t.ex. låg ålder) antagligen inte har sjukdomen, så att den initiala sannolikheten att Adam är sjuk bara är 1%? Räkna med
\[\small P(\text{sjuk})=0{,}01\quad\:P(\text{positivt}\,|\,\text{frisk})=0{,}9\quad\: P(\text{positivt}\,|\,\text{frisk})=0{,}1\,.\]
c) Blir diagnosen säkrare om testet blir bättre på att identifiera folk som är sjuka? Räkna med
\[\small P(\text{sjuk})=0{,}01\quad\:P(\text{positivt}\,|\,\text{sjuk})=0{,}95\quad\: P(\text{positivt}\,|\,\text{frisk})=0{,}1\,.\]
d) Vad händer om vi har ett helt perfekt test, sådant att precis alla sjuka personer testar positivt och alla friska personer testar negativt? Räkna med
\[\small P(\text{sjuk})=0{,}01\quad\:P(\text{positivt}\,|\,\text{sjuk})=1\quad\: P(\text{positivt}\,|\,\text{frisk})=1\,.\]
Om sannolikheten att Adam är sjuk bedöms vara 40 % innan testet, så får vi
\[P(\text{sjuk}\,|\,\text{positivt})=\frac{0{,}9\cdot 0{,}4}{0{,}9\cdot 0{,}4+0{,}1\cdot 0{,}6}\approx 85\,\%\,.\]
Om sannolikheten att Adam är sjuk bedöms vara 1 % innan testet, så får vi
\[P(\text{sjuk}\,|\,\text{positivt})=\frac{0{,}9\cdot 0{,}01}{0{,}9\cdot 0{,}4+0{,}1\cdot 0{,}99}\approx 8\,\%\,.\]
Problemet med att screeningtester tenderar att vara ganska intetsägande blir alltså värre ju ovanligare/osannolikare sjukdomen i fråga är.
Om testet upptäcker 95 % (snarare än 90 %) av alla som är sjuka får vi
\[P(\text{sjuk}\,|\,\text{positivt})=\frac{0{,}95\cdot 0{,}01}{0{,}95\cdot 0{,}01+0{,}1\cdot 0{,}99}\approx 9\,\%\,,\]
dvs. det blir ingen märkbar förbättring.
Kommentar: För att få en märkbar förbättring i säkerheten på diagnosen räcker det inte med att P(positivt|sjuk) ökar, utan det som framför allt behövs är att P(positivt|frisk) minskar. Testa gärna detta själv genom att justera sannolikheterna i formeln.
Rita också gärna en egen figur!
Med ett perfekt test får vi
\[P(\text{sjuk}\,|\,\text{positivt})=\frac{1\cdot 0{,}01}{1\cdot 0{,}01+0\cdot 0{,}99}\approx 100,\%\,,\]
dvs. man kan (så klart) lita helt och hållet på positiva resultat!
Anta att Adam testar negativt i ett test där följande värden gäller:
\[\small P(\text{sjuk})=0{,}1\quad\:P(\text{positivt}\,|\,\text{sjuk})=0{,}9\quad\: P(\text{positivt}\,|\,\text{frisk})=0{,}1\,.\]
Hur säker kan han då vara på att han är frisk?
Vi är intresserade av \(\small P(\text{frisk}\,|\,\text{negativt})\). Enligt Bayes formel är
\[\small P(\text{frisk}\,|\,\text{negativt})=\frac{P(\text{negativt}\,|\,\text{frisk})P(\text{frisk})}{P(\text{negativt}\,|\,\text{frisk})P(\text{frisk})+P(\text{negativt}\,|\,\text{sjuk})P(\text{sjuk})}\,.\]
Vi bestämmer de ingående sannolikheterna var för sig:
- \(\small P(\text{sjuk})=0{,}1\) är den initiala sannolikheten för att Adam är sjuk.
- \(\small P(\text{frisk})=1-P(\text{sjuk})=1-0{,}1=0{,}9\) är den initiala sannolikheten för att Adam är frisk.
- \(\small P(\text{negativt}\,|\,\text{frisk})=1-P(\text{positivt}\,|\,\text{frisk})=1-0{,}1=0{,}9\) är sannolikheten för att Adam skulle testa negativt om han vore frisk.
- \(\small P(\text{negativt}\,|\,\text{sjuk})=1-P(\text{positivt}\,|\,\text{sjuk})=1-0{,}9=0{,}1\) är sannolikheten för att Adam skulle testa negativt om han vore sjuk.
Vi får därmed att
\[P(\text{frisk}\,|\,\text{negativt})=\small\frac{0{,}9\cdot 0{,}9}{0{,}9\cdot 0{,}9+0{,}1\cdot 0{,}1}\approx 0{,}99\,,\]
dvs. testet ger ganska gott stöd för att Adam skulle vara frisk.
Visuellt har vi denna situation:
där den blå bakgrunden indikerar individer som testar negativt. Bland dessa är det tydligt att de friska individerna är i majoritet. Mer precist får vi
Rattfylleri är ett stort trafiksäkerhetsproblem, och enligt Trafikverket är i genomsnitt 1 av 500 bilförare rattfull. Polisen genomför därför ibland slumpmässiga trafiknykterhetskontroller för att upptäcka rattfyllerister. Det första steget är att föraren får blåsa in ett sållningsinstrument som mäter alkoholhalten i utandningsluften. Om resultatet blir negativt får föraren köra vidare. Om resultatet blir positivt blir föraren misstänkt för rattfylleri och får följa med och genomgå ett noggrannare test som säkerställer om alkoholhalten i blodet verkligen överstiger den lagliga gränsen.
Att misstänkas för rattfylleri så klart obehagligt, och redan det första sållningstestet är därför utformat så att risken att en oskyldig person blir misstänkt är mycket liten (i de efterföljande testerna är risken ännu lägre, så risken att i slutändan bli oskyldigt dömd är närmast obefintlig). Samtidigt är det viktigt att så många rattfyllerister som möjligt upptäcks.
Anta att Polisen funderar på att köpa in nya sållningsinstrument av (den påhittade) modellen ”Breathalizer 2000”, och att tillverkaren uppger att sannolikheten att sållningsinstrumentet missar en rattfyllerist är 1 %, och att sannolikheten att en nykter förare testar positivt är 2 %. Detta låter bra, men du som har lärt dig Bayes formel är skeptisk.
a) Skulle det vara rättssäkert att misstänka en slumpmässigt utvald förare för rattfylleri efter att hen har testat positivt i en ”Breathalizer 2000”?
b) Hur påverkas svaret i a) om tillverkaren lyckas få ner risken att en nykter förare testar positivt till 1 %? 0,5 %? 0,1 %?
c) Skulle det vara rättssäkert att använda ”Breathalizer 2000” i situationer där föraren genom sin körning och sitt beteende har fått en polispatrull att redan misstänka rattfylleri, så att sannolikheten att föraren är rattfull bedöms vara 1/10 (snarare än den genomsnittliga sannolikheten 1/500)?
Låt R beteckna hypotesen att föraren är rattfyllerist, och låt + beteckna observationen att föraren har testat positivt. Bayes formel ger då
\[P(R|+)=\frac{P(+|R)P(R)}{P(+|R)\cdot R(R)+P(+|\lnot R)\cdot P(\lnot R)}\,.\]
Vi bestämmer de olika delarna var för sig:
- \(\small P(R)=1/500\) är den initiala sannolikheten att föraren är rattfull, innan hen genomgår testet.
- \(\small P(\lnot R)=1-1/500=499/500\) är den initiala sannolikheten att föraren är oskyldig.
- \(\small P(+|R)=0{,}99\) är sannolikheten att en full förare testar positivt.
- \(\small P(+|\lnot R)=0{,}02\) är sannolikheten att en oskyldig förare testar positivt.
Vi får därmed att
\[P(R|+)=\frac{0{,}99\cdot \tfrac{1}{500}}{0{,}99\cdot \tfrac{1}{500}+0{,}02\cdot \tfrac{499}{500}}\approx 0{,}090\,,\]
dvs. sannolikheten att föraren är rattfull har å ena sidan ökat kraftigt från den initiala sannolikheten på 1/500, men den är fortfarande mindre än 1/10. Den moraliskt och juridiskt komplexa frågan om det är tillräcklig grund för att utsätta föraren för noggrannare utredningsåtgärder lämnas åt läsaren att fundera på.
\(\small P(+|\lnot R)=0{,}01\) ger \(\small P(R|+)=0{,}17\),
\(\small P(+|\lnot R)=0{,}005\) ger \(\small P(R|+)=0{,}28\),
\(\small P(+|\lnot R)=0{,}001\) ger \(\small P(R|+)=0{,}66\),
vilket är en klar förbättring mot a) ur rättssäkerhetssynpunkt!
\(\small P(+|\lnot R)=0{,}02\) och \(\small P(R)=0{,}1\) ger
\[P(R|+)=\frac{0{,}99\cdot 0{,}1}{0{,}99\cdot 0{,}1+0{,}02\cdot \tfrac{499}{500}}\approx 0{,}83\,,\]
så att använda Breathalizer 2000 i fall där föraren redan har uppträtt suspekt är betydligt mer rättssäkert än att använda den i slumpmässiga trafikkontroller.
Vid en mordutredning hittas blodspår från gärningspersonen på brottsplatsen och mordvapnet. Vid en sökning i en stor databas över DNA-profiler upptäcker polisen att DNA-spåren stämmer relativt väl med Anna, som därför blir misstänkt för brottet. Kriminalteknikerna bedömer att träffen är så pass bra att sannolikheten att den skulle ha uppstått om Anna vore oskyldig är 1/1000.
a) Ett klassiskt misstag är att utifrån ovanstående information dra slutsatsen att sannolikheten för att Anna är skyldig är \(\small 1-\tfrac{1}{1000}=\tfrac{999}{1000}\), dvs. ett väldigt högt tal. Detta är dock helt felaktigt. Försök göra en bättre uppskattning med hjälp av Bayes formel! Ange vilka antaganden du gör.
b) Anta nu att polisen hittar ytterligare bevis: ett fotavtryck som matchar Annas skor hittas på flera ställen på brottsplatsen. Eftersom Annas skomodell och skostorlek är ganska vanliga är detta inget särskilt starkt bevis, utan polisen uppskattar sannolikheten för att hitta detta spår om Anna vore oskyldig till 1/500. Anta även att polisen får tag på ett vittne som såg gärningspersonen lämna brottsplatsen springandes. Enligt vittnet ser Anna ”precis ut som gärningspersonen”. Sannolikheten för att vittnet skulle peka ut Anna om Anna vore oskyldig bedöms också vara 1/500.
Uppskatta sannolikheten för att Anna är skyldig givet vitnesmålet, fotavtrycksmatchningen samt DNA-spåret. Diskutera: Är detta tillräckligt för att döma Anna för mordet?
Låt S betecknas hypotesen att Anna är skyldig, och låt E1 beteckna observationen att Annas DNA matchar gärningspersonens DNA. Vi är intresserade av \(\small P(S|E_1)\),
som enligt Bayes formel ges av
\[\small P(S|E_1)=\frac{P(E_|S)P(S)}{P(E_1|S)P(S)+P(E_1|\lnot S)P(\lnot S)}\,.\]
Vi uppskattar de ingående sannolikheterna var för sig:
- \(\small P(S)\) är den initiala sannolikheten för att Anna är skyldig, innan vi upptäckte DNA-matchningen. Att uppskatta denna är antagligen det svåraste i hela uppgiften, eftersom det finns juridiska och filosofiska argument att ta hänsyn till. Ett sätt att se på saken är att domstolen bör vara helt neutral och inte ha några som helst förutfattade meningar innan bevisning har presenterats. Det skulle innebära domstolen initialat utgår från att \(\small P(S)=0{,}5\). Detta motsäger dock principen om att alla ska betraktas som oskyldiga till motsatsen har bevisats. Följer vi den principen borde vi i stället sätta \(\small P(S)=0\). Men det är inte rimligt det heller! Det skulle innebära att vi initialt är helt säkra på att Anna är oskyldig, och då säger Bayes formel (kontrollräkna gärna!) att den uppdaterade sannolikheten blir 0, oavsett hur starka bevis som förs fram. Som kompromiss väljer vi därför att betrakta alla ~10 miljoner invånare i Sverige som lika misstänka, vilket motsvarar att sätta \(\small P(S)=\tfrac{1}{10\,000\,000}\).
- \(\small P(\lnot S)=1-P(S)=\tfrac{9\,999\,999}{10\,000\,000}\) är den initiala sannolikheten för att Anna är oskyldig.
- \(\small P(E_1|S)=1\) är sannolikheten för att Annas DNA skulle matcha gärningspersonens, om Anna vore gärningspersonen. Denna sannolikhet borde rimligtvis vara 1.
- \(\small P(E_1|\lnot S)=\tfrac{1}{1000}\) är sannolikheten för att Annas DNA skulle matcha gärningspersonens, om Anna vore oskyldig.
Bayes formel ger nu att
\[\small P(S|E_1)=\frac{1\cdot \tfrac{1}{10\,000\,000}}{1\cdot \tfrac{1}{10\,000\,000}+\tfrac{1}{1000}\cdot\tfrac{9\,999\,999}{10\,000\,000}}\approx 0{,}001\,,\]
dvs. sannolikheten att Anna är skyldig, om vi bara tar hänsyn till just det här beviset, är väldigt låg.
Låt E2 beteckna observationen att Annas skor matchar gärningspersonens fotavtryck. Låt E3 beteckna observationen att vittnet pekar ut Anna som gärningspersonen. Vi är intresserade av \(\small P(S|E_1\,\&\, E_2\,\&\, E_3)\). Enligt Bayes formel ges den av
\[\small P(S|E_1\,\&\,E_2\,\&\,E_3)=\frac{P(E_1\,\&\,E_2\,\&\,E_3|S)P(S)}{P(E_1\,\&\,E_2\,\&\,E_3|S)P(S)+P(E_1\,\&\,E_2\,\&\,E_3|\lnot S)P(\lnot S)}\,.\]
Vi bestämmer de ingående sannolikheterna var för sig:
- \(\small P(S)=\tfrac{1}{10\,000\,000}\) är den initiala sannolikheten för att Anna är skyldig, innan polisen hade några bevis.
- \(\small P(\lnot S)=1-P(S)=\tfrac{9\,999\,999}{10\,000\,000}\) är den initiala sannolikheten för att Anna är oskyldig.
- \(\small P(E_1\,\&\,E_2\,\&\,E_3|S)=1\) är sannolikheten för att Annas DNA, fotavtryck och utseende skulle matcha om gärningspersonens, om Anna vore skyldig.
- \(\small P(E_1\,\&\,E_2\,\&\,E_3|\lnot S)=\tfrac{1}{1000}\cdot \tfrac{1}{500}\cdot\tfrac{1}{500}\) är sannolikheten för att Annas DNA, fotavtryck och utseende skulle matcha om gärningspersonens, om Anna vore oskyldig. Eftersom de tre bevisen är oberoende av varandra kan vi multiplicera ihop sannolikheterna för att få den totala sannolikheten.
Bayes formel ger nu att
\[\small P(S|E_1\,\&\,E_2\,\&\,E_3)=\frac{1\cdot \tfrac{1}{10\,000\,000}}{1\cdot \tfrac{1}{10\,000\,000}+\tfrac{1}{1000}\cdot \tfrac{1}{500}\cdot\tfrac{1}{500}\cdot\tfrac{9\,999\,999}{10\,000\,000}}\approx 96\,\%\,.\]
Slutsats: Trots att inget av de tre bevisen ensamt räcker till en uppdaterad sannolikhet på ens 1 %, så ger de tillsammans en uppdaterad sannolikhet på 96 %. Det är en hög siffra, men är det tillräckligt för att döma Anna för mordet? Sannolikheten att hon trots allt är oskyldig är 4 %, dvs. 1/25. Det är knappast helt försumbart. Den moraliskt komplexa frågan om vad som krävs för att något ska vara bevisat bortom allt rimligt tvivel lämnas åt läsaren att fundera på.