foto SK
Stanisław Kamiński

Filozoficzne aspekty wykorzystania metod statystycznych w prawie

Tom 2 (2016), Artykuł 11 Brak komentarzy

Artykuł dotyczy zasadności stosowania w praktyce sądowej rozumowań opartych o dane i metody statystyczne, które mogłyby stać się istotnym narzędziem umożliwiającym właściwą ocenę prawdopodobieństw stawianych hipotez. Wykorzystanie statystyki w sądownictwie budzi jednak niemałe kontrowersje związane miedzy innymi z możliwością popełnienia błędów w analizie danych nie tylko przez laików, lecz również przez ekspertów w zakresie statystyki. Problem ten podnosi w swoim artykule poświęconym przypadkowi Sally Clark chorwacki filozof nauki Neven Sesardić.

Sally Clark została oskarżona i skazana za rzekome zabójstwo swoich synów, którzy zmarli nagle w kilka tygodni po urodzeniu: pierwszy w 1996 r., a drugi w 1998 r. Sprawa ta stała się głośna kiedy w 2003 r. po drugiej apelacji kobieta została uniewinniona i zwolniona z więzienia. W wyniku tych wydarzeń rozwinęły się u niej problemy psychiczne i uzależnienie od alkoholu, co doprowadziło do jej śmierci w 2007 roku.

Jednym z dowodów wziętych pod uwagę w procesie była teza profesora pediatrii Roya Meadowa głosząca, że prawdopodobieństwo podwójnego wystąpienia nagłej śmierci łóżeczkowej jest jak 1 do 73 milionów. To wyliczenie oparte na założeniu niezależności obu zdarzeń spotkało się z krytyką Królewskiego Towarzystwa Statystycznego i doprowadziło do pozbawienia Meadowa prawa wykonywania zawodu. Jak jednak zauważa Sesardić krytyka ta była najprawdopodobniej niesłuszna, a sami statystycy nie uniknęli karygodnych błędów we własnych próbach obliczenia tego prawdopodobieństwa. W niniejszym tekście za pomocą metod filozofii analitycznej oraz eksperymentów myślowych podejmę próbę sformułowania i oceny trudności filozoficznych, na jakie napotykamy próbując ująć rozumowania zawodne w ramy teorii statystycznych czy probabilistycznych.

Jedną z częściej podejmowanych kwestii w dyskusji o zastosowaniu metod statystycznych w sądownictwie jest możliwość wykorzystania twierdzenia Bayesa w celu usystematyzowania oceny prawdopodobieństwa winy oskarżonego. Twierdzenie to możemy sformułować następująco:

wzor01

Gdzie:

P(A/B) to prawdopodobieństwo warunkowe zdarzenia A od B

P(B/A) to prawdopodobieństwo warunkowe zdarzenia B od A

P(A) to prawdopodobieństwo zdarzenia A

P(B) to prawdopodobieństwo zdarzenia B

Nie ulega wątpliwości, że zrozumienie powyższego twierdzenia zwiększa odporność na popełnianie niektórych błędów w rozumowaniach, a tym samym ułatwia właściwą ocenę argumentów i może przyczynić się do poprawienia skuteczności wymiaru sprawiedliwości. Niektórzy autorzy, np. Norman Fenton i Martin Neil uważają, że możemy poprzez podstawienie odpowiednich wartości (na przykład prawdopodobieństwa powtórzenia się grupy krwi podejrzanego ze znalezioną na miejscu przestępstwa) obliczyć stopień pewności co do winy oskarżonego. Część tego typu danych może pochodzić z danych empirycznych, jak choćby prawdopodobieństwo wystąpienia pewnej grupy krwi u losowo wybranej osoby. W innych wypadkach możliwym rozwiązaniem jest sięgnięcie po dane statystyczne.

Z tego wynika, że chcąc ocenić na przykład, czy bardziej prawdopodobna jest hipoteza morderstwa czy samobójstwa pani Kowalskiej – poza uwzględnieniem danych zebranych w śledztwie, takich jak ślady czy możliwe motywy działania (oznaczone jako E w poniższym równaniu) – należy też ocenić aprioryczne prawdopodobieństwo zabójstwa (M) i samobójstwa (S), czyli sięgnąć do odpowiedniej tabeli rocznika statystycznego czy danych policji.

wzor02

W Polsce wskaźnik zabójstw to ok. 3 osoby na 100 000 ludzi w ciągu roku, natomiast samobójstw to ok. 15 na 100 000. Wynikało by z tego, że aprioryczne prawdopodobieństwo samobójstwa jest 5 razy większe niż morderstwa, co zapisuj jako:

wzor03

Tutaj jednak pojawia się pierwsza filozoficzna kwestia, którą chciałbym poruszyć: jak ma się stosowanie statystyk tego typu do wymogu kierowania się sprawiedliwością, stawianego przed sądownictwem?

Dopuszczenie danych statystycznych jako dowodów w procesie sądowym oznaczałoby ocenę winy oskarżonego na podstawie działań innych, zupełnie niezwiązanych ze sprawą osób w przeszłości i na takiej samej zasadzie jak tradycyjne dowody mogłoby zmieniać ostateczną ocenę sądu. Wyobraźmy sobie dwa możliwe światy „równoległe”, w których toczy się ten sam proces sądowy i przedstawione zostają te same dowody (w tym dane statystyczne) przeciwko oskarżonemu o zabójstwo żony Kowalskiemu. Jedyną różnicą jest kilka zabójstw więcej popełnionych parę lat wcześniej w pierwszym z tych światów. Mogłoby się zdarzyć, że te same zabójstwa zaważyłyby na skazaniu Kowalskiego w pierwszym świecie, a uniewinnieniu Kowalskiego w drugim. To zaś sprowadziłoby rozważaną metodę? do absurdu, ponieważ oznaczałoby dopuszczenie dowodów w postaci statystyk na temat zdarzeń bez związku przyczynowego z obecnie rozpatrywanym przypadkiem. Prowadziłoby to więc do ponoszenia odpowiedzialności za cudze czyny, co jest nie do pogodzenia z ideą sprawiedliwości.

Nie jest to jednak jedyna trudność takiego podejścia. Zwróćmy uwagę na to, że liczby, którymi posłużyłem się w poprzednim wyliczeniu, były wzięte z ogólnych statystyk bez uwzględnienia jakichkolwiek dodatkowych czynników. Postaram się teraz pokazać, jak bardzo ocena prawdopodobieństwa zależy od określenia grupy odniesienia. Według statystyk policyjnych wśród 6165 samobójstw w Polsce w 2014 r. tylko 928 popełniły kobiety, zaś 5237 mężczyźni. Z tego wynika, że śmierć pani Kowalskiej w wyniku samobójstwa nie mogła być 5 razy bardziej prawdopodobna niż w wyniku morderstwa, ponieważ skuteczne samobójstwa kobiet to jedynie około 15 proc. wszystkich samobójstw (wskaźnik ten wynosi więc 2.14 samobójczyń na 100.000 kobiet). Czy zatem morderstwo było apriorycznie bardziej prawdopodobne niż samobójstwo? Niekoniecznie, ponieważ wśród odnotowanych 763 zabójstw w Polsce w 2009 roku:

(i) w 265 wypadkach były to nieskuteczne usiłowania zabójstwa, więc jeśli w przypadku samobójstw nie braliśmy pod uwagę nieskutecznych prób, to i tu nie powinniśmy;

(ii) 16 ofiar było małoletnimi, więc i ta grupa nie odnosi się do pani Kowalskiej, zakładając, że była ona osobą dorosłą;

(iii) wśród wszystkich 755 podejrzanych o dokonanie tych przestępstw 104 stanowiły kobiety a 651 mężczyźni;

(iv) największą grupę wśród podejrzanych stanowili bezrobotni, było ich 442 zaś np. studentów było tylko 9;

(v) 368 podejrzanych nie było wcześniej karanych, 93 było karanych za przestępstwa podobne, 270 za inne przestępstwa, a o 24 brak danych.

Na pewno niektóre ze wskazanych grup należałoby wziąć pod uwagę, a inne odrzucić, ale jak rozstrzygnąć, które przestępstwa są wystarczająco podobne do rozpatrywanego przypadku, by włączyć je do statystyki, na podstawie której sformułujemy aprioryczne prawdopodobieństwo? Przy tym należy pamiętać, że wszelkie nieusunięte wątpliwości w procesie karnym rozstrzyga się na korzyść oskarżonego.

Moim celem nie jest jednak pokazanie tylko tego, jak trudno jest dobrać właściwe dane, i że nawet małe błędy po ich przemnożeniu mogą doprowadzić do poważnych pomyłek. Mój wniosek jest taki, że proces oparty na rozumowaniach statystycznych podobnych do pokazanych powyżej nie może być uznany za rzetelny.

Na trudności napotykamy rozpatrując rozumowania prawnicze jako proces decyzyjny. Charakteryzuje się on tym, że po podjęciu decyzji winny/niewinny nie otrzymujemy odpowiedzi, czy była to decyzja słuszna czy błędna. Co za tym idzie, wykorzystanie statystyk generowanych na podstawie podejmowanych poprzednio decyzji w kolejnych procesach może prowadzić do sprzężenia zwrotnego. Problem ten dotyczy na przykład recydywy. Jeżeli statystyczny poziom popełniania przestępstw przez osoby wcześniej skazane jest wysoki i dane tego typu byłyby wykorzystane jako dowód w kolejnych procesach, ułatwiając tym samym skazywanie osób podejrzanych o powtórne popełnienie przestępstwa, prowadziłoby to do wzrostu „wskaźnika recydywy”, co oczywiście jeszcze bardziej ułatwia skazywanie w kolejnych procesach i tak dalej…

Przejdę teraz do dwóch eksperymentów myślowych, mających na celu lepsze zobrazowanie trudności związanych z zastosowaniem statystyki w rozumowaniach prawniczych.

Pierwszy z nich, który będę nazywał „wyspą”, dotyczy sytuacji popełnienia przestępstwa w izolowanej społeczności, w której mamy możliwość sprawdzenia wszystkich obywateli pod kątem przynależności do pewnych ujętych w bardzo precyzyjne statystki grup społecznych będących grupami ryzyka i na tej podstawie dokładnej oceny wartości apriorycznego prawdopodobieństwa winy dla każdej osoby. Załóżmy, że w jakimś wypadku na miejscu przestępstwa nie znaleziono żadnych śladów, więc siła dowodów empirycznych wynosi zero (nikt nie ma alibi, brak jakichkolwiek świadków itd.). Tak się też jednak składa, że w tej społeczności jest aktualnie tylko jedna osoba przecinająca wszystkie (lub prawie wszystkie) grupy ryzyka dla tego typu przestępstwa, a pozostałe osoby występują w co najwyżej pojedynczych grupach, a więc prawdopodobieństwo winy a priori jest o kilka rzędów wielkości wyższe dla naszego podejrzanego i wystarczająco bliskie pewności. Wyobraźmy sobie, że jest on młodym bezrobotnym mężczyzną, a ponadto włóczęgą pochodzącym z północnej części wyspy (są to grupy podwyższonego ryzyka). Natomiast wśród pozostałych mieszkańców, jeśli ktoś jest młody to pracuje, jeśli jest włóczęgą, to tylko z południa itd. Powstaje teraz pytanie, jaką decyzję podjąć w takim wypadku? To, że popełniane wcześniej przestępstwa były dokonywane przez włóczących się bez zajęcia młodych mężczyzn może być pewnie racjonalnym powodem, by nie chcieć się z nimi zadawać, ale jak mogłoby stanowić dowód przeciwko komuś w sądzie? Jednak z drugiej strony, jeżeli na podstawie tych danych osiągnęliśmy prawdopodobieństwo uznawane za wystarczająco wysokie, by kogoś skazać, to czemu się wahamy?

Widać więc, że nie jesteśmy wcale skłonni traktować jednakowo danych statystycznych i empirycznych w postępowaniu sądowym i wnioskuję stąd, że ci, którzy chcą tak robić, opierają się na niewyrażonej explicite przesłance stwierdzającej równą siłę obu typów dowodu, która nie została należycie uzasadniona.

Ostatnią konsekwencję wykorzystania metod statystycznych, na którą chciałbym zwrócić uwagę, przedstawię za pomocą jeszcze jednego eksperymentu myślowego. Nietrudno wyobrazić sobie dwie podobne sytuacje, w których oskarżone o popełnienie takiego samego przestępstwa zostają dwie bardzo różne osoby, a co za tym idzie mamy dwa różne aprioryczne prawdopodobieństwa winy. Jeśli tak, to do skazania wystarczyłyby dowody empiryczne o różnej sile. Przykładowo w sprawie młodego mieszkańca kiepskiej dzielnicy możemy potrzebować dowodów o „sile” 0,75, zaś oskarżając staruszkę z tytułem profesorskim – o sile 0,95. Rodzi to dwie poważne trudności. Pierwsza to oczywisty brak równości wobec prawa, co mogłoby w praktyce na zasadzie równi pochyłej prowadzić do skupienia się zarówno oskarżycieli, jak i obrońców, na wykazywaniu do jakiej grupy jeszcze można przypisać oskarżonego, z uwzględnieniem takich czynników jak przynależność rasowa, wyznaniowa czy narodowość, czyli do całkowitego zaprzeczenia idei sprawiedliwego sądownictwa opartego na założeniu, że kara wynika z popełnienia przestępstwa, a nie przynależności do danej grupy. Druga trudność, nieco mniej oczywista, to pytanie o to, czy uwzględniając coś takiego jak „aprioryczne prawdopodobieństwo winy” da się zarazem utrzymać zasadę domniemania niewinności? Wydaje się, że używanie statystyk w ten sposób jest całkowicie nie do pogodzenia z tą fundamentalną zasadą.

Zawarte w powyższych rozważaniach argumenty pokazały poważne trudności związane z zastosowaniem metod statystycznych w rozumowaniach prawniczych. Przy czym były to w dużej mierze trudności natury etycznej, wyprowadzone z niemożliwości pogodzenia konsekwencji stosowania statystyki z fundamentalnymi wymogami stawianymi przed sprawiedliwymi procesami sądowymi.

Bibliografia

N. Fenton, M. Neil, The “jury observation fallacy” and the use of Bayesian networks to present probabilistic legal arguments, “Math Today” 36/6 (2000):180-187.

N. Sesardić, Sudden Infant Death or Murder? A Royal Confusion About Probabilities, “British Journal for the Philosophy of Science” 58 (2007): 299-329, doi: 10.1093/bjps/axm015.

W. Załuski, Skłonnościowa interpretacja prawdopodobieństwa, Biblos, Kraków 2008.


Stanisław Kamiński – student I roku studiów magisterskich w Instytucie Filozofii UW


Tekst jest skróconą wersją artykułu, który zdobył I nagrodę w konkursie Filozofii w praktyce na najlepszy studencki esej dotyczący filozofii stosowanej.

Podobne artykuły