Informacja

2.4: Statystyka bayesowska - biologia

2.4: Statystyka bayesowska - biologia


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Ostatnie lata przyniosły ogromny rozwój metod bayesowskich w rekonstrukcji drzew filogenetycznych i szacowaniu długości ich gałęzi. Chociaż obecnie istnieje tylko kilka bayesowskich metod porównawczych, ich liczba z pewnością wzrośnie, ponieważ biolodzy porównawczy będą próbować rozwiązywać bardziej złożone problemy. W schemacie bayesowskim wielkość zainteresowania to prawdopodobieństwo a posteriori, obliczone za pomocą twierdzenia Bayesa:

$$ Pr(H|D) = dfrac{Pr(D|H) cdot Pr(H)}{Pr(D)} label{2.19}$$

Zaletą podejść bayesowskich jest to, że pozwalają nam oszacować prawdopodobieństwo, że hipoteza jest prawdziwa, biorąc pod uwagę zaobserwowane dane (Pr(H|D)). Tak naprawdę jest to prawdopodobieństwo, które większość ludzi ma na myśli, gdy myśli o celach swoich badań. Jednak twierdzenie Bayesa również ujawnia koszt tego podejścia. Wraz z prawdopodobieństwem (Pr(D|H)) należy również uwzględnić wcześniejszą wiedzę o prawdopodobieństwie, że dana hipoteza jest prawdziwa - Pr(h). Reprezentuje to wcześniejsze przekonanie, że hipoteza jest prawdziwa, nawet przed rozważeniem dostępnych danych. To prawdopodobieństwo a priori musi być wyraźnie określone ilościowo we wszystkich analizach statystycznych bayesowskich. W praktyce naukowcy często starają się używać „nieinformacyjnych” a priori, które mają niewielki wpływ na rozkład a posteriori – chociaż nawet termin „nieinformacyjny” może być mylący, ponieważ a priori jest integralną częścią analizy bayesowskiej. Termin (Pr(D)) jest również ważną częścią twierdzenia Bayesa i można go obliczyć jako prawdopodobieństwo uzyskania danych zintegrowanych z wcześniejszymi rozkładami parametrów:

[Pr(D)=∫_HPr(H|D)Pr(H)dH label{2.20}]

Jednak (Pr(D)) jest stała podczas porównywania dopasowania różnych modeli dla danego zbioru danych, a zatem nie ma wpływu na wybór modelu bayesowskiego w większości przypadków (i we wszystkich przykładach w tej książce).

W naszym przykładzie odwracania jaszczurki możemy przeprowadzić analizę w schemacie bayesowskim. Dla modelu 1 nie ma wolnych parametrów. Z tego powodu (Pr(H)=1) i (Pr(D|H)=P(D)), więc (Pr(H|D)=1). Może się to wydawać dziwne, ale wynik oznacza, że ​​nasze dane nie mają wpływu na strukturę modelu. Zbierając dane nie dowiadujemy się niczego o modelu bez wolnych parametrów!

Jeśli weźmiemy pod uwagę model 2 powyżej, parametr Ph należy oszacować. Możemy ustawić uniform przed od 0 do 1 dla Ph, aby F(Ph)=1 dla wszystkich Ph w przedziale [0,1]. Możemy to również zapisać jako „nasz uprzedni dla (p_h) to U(0,1)”. Następnie:

$$ Pr(H|D) = frac{Pr(D|H) cdot Pr(H)}{Pr(D)} = frac{P(H|p_H,N) f(p_H)}{ displaystyle int_{0}^{1} P(H|p_H,N) f(p_h) dp_H} label{2.21} $$

Następnie zauważamy, że (Pr(D|H)) jest prawdopodobieństwem naszych danych przy danym modelu, co zostało już opisane powyżej jako Równanie ef{2.2}. Wstawiając to do naszego równania, mamy:

$ $ Pr (H | D) = Frac { Binom {N} H} p_H ^ H (1-p_H) ^ {NH}} { Displaystyle int_ {0} ^ {1} Binom {N} {H} p_H^H (1-p_H)^{NH} dp_H} label{2.22} $$

To brzydkie równanie faktycznie upraszcza się do rozkładu beta, który można wyrazić prościej jako:

$$ Pr(H|D) = frac{(N+1)!}{H!(N-H)!} p_H^H (1-p_H)^{N-H} label{2.23} $$

Możemy porównać ten rozkład a posteriori naszych oszacowań parametrów, Ph, biorąc pod uwagę dane, do naszego jednolitego uprzedniego (rysunek 2.3). Jeśli przyjrzysz się temu wykresowi, zobaczysz, że rozkład a posteriori bardzo różni się od poprzedniego – to znaczy, że dane zmieniły nasz pogląd na wartości, jakie powinny przyjmować parametry. Ponownie, wynik ten jest jakościowo zgodny zarówno z podejściem częstościowym, jak i ML opisanym powyżej. W tym przypadku możemy zobaczyć z rozkładu a posteriori, że możemy być całkiem pewni, że nasz parametr Ph nie wynosi 0,5.

Jak widać na tym przykładzie, twierdzenie Bayesa pozwala nam połączyć nasze wcześniejsze przekonanie o wartościach parametrów z informacjami z danych w celu uzyskania a posteriori. Te rozkłady a posteriori są bardzo łatwe do interpretacji, ponieważ wyrażają prawdopodobieństwo parametrów modelu na podstawie naszych danych. Jednak ta jasność wiąże się z koniecznością wyraźnego uprzedniego. W dalszej części książki dowiemy się, jak wykorzystać tę cechę statystyk bayesowskich na naszą korzyść, gdy faktycznie mamy już pewną wiedzę na temat wartości parametrów.

Rysunek 2.3. Bayesowskie rozkłady a priori (linia kropkowana) i a posteriori (linia ciągła) dla odwracania jaszczurek. Obraz autorstwa autora, może być ponownie wykorzystany na licencji CC-BY-4.0.

Sekcja 2.4b: Bayesowskie MCMC

Innym głównym narzędziem w zestawie narzędzi Bayesowskich metod porównawczych jest wykorzystanie narzędzi Markowa w łańcuchu Monte Carlo (MCMC) do obliczania prawdopodobieństw a posteriori. Techniki MCMC wykorzystują algorytm, który wykorzystuje „łańcuch” obliczeń do próbkowania rozkładu a posteriori. MCMC wymaga obliczania prawdopodobieństw, ale nie skomplikowanej matematyki (np. całkowanie rozkładów prawdopodobieństwa, jak w równaniu ef{2.22}, a więc reprezentuje bardziej elastyczne podejście do obliczeń bayesowskich. Często całki w równaniu ef{2.21} są niewykonalne, więc najskuteczniejszym sposobem dopasowania modeli Bayesa jest użycie MCMC.Ponadto ustawienie MCMC jest, z mojego doświadczenia, łatwiejsze niż ludzie się spodziewają!

Analiza MCMC wymaga konstruowania i pobierania próbek z łańcucha Markowa. Łańcuch Markowa to losowy proces, który zmienia się z jednego stanu w drugi z pewnym prawdopodobieństwem, które zależy tylko od bieżącego stanu systemu, a nie od tego, co było wcześniej. Prostym przykładem łańcucha Markowa jest ruch pionka w grze Chutes and Ladders; pozycja pionka przesuwa się z jednego pola na drugie zgodnie z prawdopodobieństwami podanymi przez kostki i układ planszy. Ruch pionka z dowolnego pola na planszy nie zależy od tego, jak pionek dotarł na to pole.

Niektóre łańcuchy Markowa mają rozkład równowagi, który jest stabilnym rozkładem prawdopodobieństwa stanów modelu po bardzo długim czasie działania łańcucha. Do analizy bayesowskiej używamy techniki zwanej a Algorytm Metropolis-Hasting skonstruować specjalny łańcuch Markowa, którego rozkład równowagi jest taki sam jak rozkład bayesowski a posteriori naszego modelu statystycznego. Następnie, używając losowej symulacji na tym łańcuchu (jest to Monte Carlo łańcucha Markowa, MCMC), możemy pobrać próbki z rozkładu a posteriori naszego modelu.

Mówiąc prościej: używamy zestawu dobrze zdefiniowanych reguł. Zasady te pozwalają nam poruszać się po przestrzeni parametrów, na każdym kroku decydując, czy zaakceptować, czy odrzucić kolejny proponowany ruch. Ze względu na pewne matematyczne dowody, które wykraczają poza zakres tego rozdziału, reguły te gwarantują, że ostatecznie zaakceptujemy próbki z rozkładu bayesowskiego a posteriori — o co nam chodzi.

Poniższy algorytm wykorzystuje algorytm Metropolis-Hastings do przeprowadzenia analizy bayesowskiej MCMC z jednym wolnym parametrem.

Algorytm Metropolis-Hastings

  1. Uzyskaj początkową wartość parametru.
    • Wypróbuj początkową wartość parametru, P0, z poprzedniej dystrybucji.
  2. Zaczynając od i = 1, zaproponuj nowy parametr dla generacji i.
    • Biorąc pod uwagę aktualną wartość parametru, P, wybierz nową proponowaną wartość parametru, P′, używając gęstości propozycji Q(P′|P).
  3. Oblicz trzy wskaźniki.
    • a. Poprzedni iloraz szans. Jest to stosunek prawdopodobieństwa wylosowania wartości parametrów P oraz P′ od przeora. [R_{prior} = frac{P(p')}{P(p)} label{2.24}]
    • b. Stosunek gęstości propozycji. Jest to stosunek prawdopodobieństwa wychodzenia propozycji z P do P′ i na odwrót. Często celowo budujemy symetryczną gęstość propozycji. Kiedy to robimy, Q(P′|P)=Q(P|P') oraz a2 = 1, upraszczając obliczenia . [R_{propozycja} = frac{Q(p'|p)}{Q(p|p')} label{2.25}]
    • C. Współczynnik prawdopodobieństwa. Jest to stosunek prawdopodobieństw danych przy danych dwóch różnych wartościach parametrów. [R_{prawdopodobieństwo} = frac{L(p'|D)}{L(p|D)} = frac{P(D|p')}{P(D|p)} label{2.26 }]
  4. Zwielokrotniać. Znajdź iloczyn poprzednich szans, ilorazu gęstości propozycji i ilorazu prawdopodobieństwa.[R_{accept} = R_{prior} ⋅ R_{proposal} ⋅ R_{likelihood} label{2.27}]
  5. Zaakceptuj lub odrzuć. Narysuj losową liczbę x z równomiernego rozkładu od 0 do 1. If x < raCCmiPT, zaakceptuj proponowaną wartość P′ ( Pi = P); w przeciwnym razie odrzuć i zachowaj aktualną wartość P ( Pi = P).
  6. Powtarzać. Powtórz kroki 2-5 dużą liczbę razy.

Wykonując te kroki uzyskuje się zestaw wartości parametrów, Pi, gdzie i wynosi od 1 do całkowitej liczby pokoleń w MCMC. Zazwyczaj na początku łańcuch ma okres „wypalenia”. Jest to czas, zanim łańcuch osiągnął rozkład stacjonarny i można go zaobserwować, gdy wartości parametrów pokazują trendy w czasie, a prawdopodobieństwo modeli jeszcze się nie ustabilizowało. Jeśli wyeliminujesz ten okres „wypalenia”, to, jak omówiono powyżej, każdy krok w łańcuchu jest próbką z rozkładu tylnego. Możemy podsumować rozkłady a posteriori parametrów modelu na różne sposoby; na przykład, obliczając średnie, 95% przedziały ufności lub histogramy.

Możemy zastosować ten algorytm do naszego przykładu rzucania monetą. Rozważymy tę samą wcześniejszą dystrybucję, U(0, 1), dla parametru P. Zdefiniujemy również gęstość propozycji, Q(P′|P) U(Pε, P + ε). Oznacza to, że dodamy lub odejmiemy małą liczbę ( ε ≤ 0,01) w celu wygenerowania proponowanych wartości P' dany P.

Aby uruchomić algorytm, rysujemy wartość P od przeora. Załóżmy dla celów ilustracyjnych, że narysowana przez nas wartość wynosi 0,60. To staje się naszym aktualnym oszacowaniem parametrów. W kroku drugim proponujemy nową wartość, P′, czerpiąc z naszej dystrybucji propozycji. Możemy użyć ε = 0,01, więc rozkład propozycji staje się U(0,59, 0,61). Załóżmy, że nasza nowa proponowana wartość P′=0.595.

Następnie obliczamy nasze trzy wskaźniki. Tutaj sprawy są prostsze, niż można by się spodziewać z dwóch powodów. Po pierwsze, przypomnijmy, że nasz uprzedni rozkład prawdopodobieństwa to U(0, 1). Gęstość tego rozkładu jest stała (1,0) dla wszystkich wartości P oraz P. Z tego powodu poprzedni iloraz szans dla tego przykładu to zawsze:

$$ R_{prior} = frac{P(p')}{P(p)} = frac{1}{1} = 1 label{2.28}$$

Podobnie, ponieważ rozkład naszej propozycji jest symetryczny, Q(P′|P)=Q(P|P') oraz rProPosaja = 1. Oznacza to, że wystarczy obliczyć iloraz wiarygodności, rjaikmijaihooD dla P oraz P. Możemy to zrobić, podłączając nasze wartości do P (lub P′) do równania ef{2.2}:

$$ P(D|p) = {N wybierz H} p^H (1-p)^{NH} = {100 wybierz 63} 0,6^63 (1-0,6)^{100-63} = 0,068 label{2.29} $$

Podobnie,

$$ P(D|p') = {N wybierz H} p'^H (1-p')^{NH} = {100 wybierz 63} 0,595^63 (1-0,595)^{100-63 } = 0,064 label{2.30}$$

Współczynnik prawdopodobieństwa wynosi wtedy:

$$ R_{prawdopodobieństwa} = frac{P(D|p')}{P(D|p)} = frac{0.064}{0.068} = 0.94 label{2.31}$$

Możemy teraz obliczyć raCCmiPT = rPriorrProPosajarjaikmijaihooD = 1 1 0,94 = 0,94. Następnie wybieramy losową liczbę z zakresu od 0 do 1 – powiedzmy, że losujemy x = 0,34. Zauważamy wtedy, że nasza liczba losowa x jest mniejsze lub równe raCCmiPT, więc akceptujemy proponowaną wartość P. Gdyby losowa liczba, którą wylosowaliśmy, była większa niż 0,94, odrzucilibyśmy proponowaną wartość i zachowaliby naszą pierwotną wartość parametru P = 0,60 w następnym pokoleniu.

Jeśli powtórzymy tę procedurę wiele razy, otrzymamy długi łańcuch wartości P. Wyniki takiego przebiegu można zobaczyć na rysunku 2.4. W panelu A wykreśliłem wiarogodności dla każdej kolejnej wartości p. Widać, że prawdopodobieństwo wzrasta przez pierwsze ~1000 lub więcej pokoleń, a następnie osiąga się płaskowyż wokół janL = -3. Panel B przedstawia wykres wartości P, które szybko zbiegają się do stabilnej dystrybucji wokół P = 0,63. Możemy również wykreślić histogram tych tylnych szacunków P. W panelu C zrobiłem to – ale z niespodzianką. Ponieważ algorytm MCMC tworzy serię oszacowań parametrów, liczby te wykazują autokorelację – to znaczy, że każde oszacowanie jest podobne do oszacowań, które pojawiają się tuż przed i tuż po. Ta autokorelacja może powodować problemy w analizie danych. Najprostszym rozwiązaniem jest podpróbkowanie tych wartości, wybierając tylko, powiedzmy, jedną wartość na 100 pokoleń. To właśnie zrobiłem na histogramie w panelu C. Panel ten zawiera również analityczny rozkład a posteriori, który obliczyliśmy powyżej – zauważ, jak dobrze nasz algorytm Metropolis-Hastings poradził sobie z rekonstrukcją tego rozkładu! W przypadku metod porównawczych w ogólności, analityczne rozkłady a posteriori są trudne lub niemożliwe do skonstruowania, dlatego aproksymacja za pomocą MCMC jest bardzo powszechna.

Ten prosty przykład pomija niektóre szczegóły algorytmów MCMC, ale omówimy je później, a istnieje wiele innych książek, które szczegółowo omawiają ten temat (np. Christensen i in. 2010). Chodzi o to, że możemy rozwiązać niektóre wyzwania związane ze statystyką bayesowską za pomocą numerycznych „sztuczek”, takich jak MCMC, które wykorzystują moc nowoczesnych komputerów do dopasowania modeli i oszacowania parametrów modeli.

Sekcja 2.4c: Czynniki Bayesa

Teraz, gdy wiemy, jak korzystać z danych i przed obliczeniem rozkładu a posteriori, możemy przejść do tematu wyboru modelu bayesowskiego. Poznaliśmy już jedną ogólną metodę wyboru modelu za pomocą AIC. Możemy również dokonać wyboru modelu w frameworku bayesowskim. Najprostszym sposobem jest obliczenie, a następnie porównanie prawdopodobieństw a posteriori dla zestawu rozważanych modeli. Można to zrobić, obliczając współczynniki Bayesa:

$$ B_{12} = frac{Pr(D|H_1)}{Pr(D|H_2)} label{2.32}$$

Czynniki Bayesa to ilorazy marginalnych prawdopodobieństw P(D|h) dwóch konkurencyjnych modeli. Reprezentują one prawdopodobieństwo danych uśrednionych dla rozkładu a posteriori oszacowań parametrów. Należy zauważyć, że te marginalne prawdopodobieństwa różnią się od prawdopodobieństw użytych powyżej dla: AiC porównanie modeli w istotny sposób. Z AiC i inne powiązane testy, obliczamy wiarogodności dla danego modelu i określonego zestawu wartości parametrów – w przykładzie rzut monetą prawdopodobieństwo dla modelu 2, gdy Ph = 0,63. Z kolei marginalne wiarogodności czynników Bayesa dają prawdopodobieństwo danych uśrednionych dla wszystkich możliwych wartości parametrów dla modelu, ważone ich wcześniejszym prawdopodobieństwem.

Ze względu na wykorzystanie marginalnych prawdopodobieństw czynnik Bayesa pozwala nam dokonać wyboru modelu w sposób, który uwzględnia niepewność w naszych oszacowaniach parametrów – ponownie jednak kosztem wymagania jawnego wcześniejszego prawdopodobieństwa dla wszystkich parametrów modelu. Takie porównania mogą być zupełnie inne niż testy ilorazu wiarygodności lub porównania AiCC wyniki. Czynniki Bayesa reprezentują porównania modeli, które integrują wszystkie możliwe wartości parametrów, zamiast porównywania dopasowania modeli tylko dla wartości parametrów, które najlepiej pasują do danych. Innymi słowy, AiCC wyniki porównują dopasowanie dwóch modeli przy określonych oszacowanych wartościach dla wszystkich parametrów w każdym z modeli. Z kolei czynniki Bayesa dokonują porównania między dwoma modelami, które uwzględniają niepewność w swoich estymatach parametrów. Będzie to największa różnica, gdy niektóre parametry jednego lub obu modeli mają stosunkowo dużą niepewność. Jeżeli wszystkie parametry można precyzyjnie oszacować, wyniki obu podejść powinny być podobne.

Obliczanie współczynników Bayesa może być dość skomplikowane, wymagające integracji w różnych rozkładach prawdopodobieństwa. W przypadku naszego problemu z rzucaniem monetą zrobiliśmy to już, aby uzyskać rozkład beta w równaniu ef{2.22. Następnie możemy obliczyć współczynniki Bayesa, aby porównać dopasowanie dwóch konkurencyjnych modeli. Porównajmy dwa modele rzucania monetą omówione powyżej: model 1, gdzie Ph = 0,5 oraz model 2, gdzie Ph = 0,63. Następnie:

$$ egin{array}{lcl} Pr(D|H_1) &=& inom{100}{63} 0,5^{0.63} (1-0,5)^{100-63} &=& 0,00270 Pr(D|H_2) &=& int_{p=0}^{1} inom{100}{63} p^{63} (1-p)^{100-63} &=& inom{100}{63} eta (38,64) &=& 0.0099 B_{12} &=& frac{0.0099}{0.00270} &=& 3.67 end{tablica} label{2.33}$$

W powyższym przykładzie β(x, tak) to funkcja Beta. Nasze obliczenia pokazują, że współczynnik Bayesa wynosi 3,67 na korzyść modelu 2 w porównaniu z modelem 1. Jest to zwykle interpretowane jako istotny (ale nie decydujący) dowód na korzyść modelu 2. Ponownie możemy być dość pewni, że nasza jaszczurka nie jest uczciwa płetwa.

W przykładzie odwracania jaszczurki możemy dokładnie obliczyć czynniki Bayesa, ponieważ znamy rozwiązanie całki w równaniu ef{2.33. Jeśli jednak nie wiemy, jak rozwiązać to równanie (typowa sytuacja w metodach porównawczych), nadal możemy przybliżyć współczynniki Bayesa z naszych przebiegów MCMC. Metody do tego celu, w tym próbkowanie arogancji i modele stepping stone (Xie i in. 2011; Perrakis i in. 2014), są złożone i wykraczają poza zakres tej książki. Jednak jedna powszechna metoda aproksymacji współczynników Bayesa obejmuje obliczenie średniej harmonicznej prawdopodobieństw w łańcuchu MCMC dla każdego modelu. Stosunek tych dwóch prawdopodobieństw jest następnie używany jako przybliżenie czynnika Bayesa (Newton i Raftery 1994). Niestety, ta metoda jest wyjątkowo zawodna i prawdopodobnie nigdy nie powinna być używana (więcej szczegółów w Neal 2008).


Pobierz teraz!

Ułatwiliśmy Ci znalezienie e-booków PDF bez żadnego kopania. A mając dostęp do naszych e-booków online lub przechowując je na swoim komputerze, masz wygodne odpowiedzi dzięki Bayesian Methods In Structural Bioinformatics Statistics For Biology And Health . Aby rozpocząć wyszukiwanie metod bayesowskich w statystyce strukturalnej bioinformatyki dla biologii i zdrowia, dobrze jest znaleźć naszą stronę internetową, na której znajduje się obszerny zbiór podręczników.
Nasza biblioteka jest największą z nich, która zawiera dosłownie setki tysięcy różnych produktów.

Wreszcie dostałem ten ebook, dzięki za wszystkie te metody bayesowskie w statystyce strukturalnej bioinformatyki dla biologii i zdrowia, które mogę teraz dostać!

Nie sądziłem, że to zadziała, moja najlepsza przyjaciółka pokazała mi tę stronę i działa! Dostaję mój najbardziej poszukiwany e-book

wtf ten wspaniały ebook za darmo?!

Moi przyjaciele są tak wściekli, że nie wiedzą, jak mam wszystkie wysokiej jakości ebooki, których oni nie mają!

Bardzo łatwo jest zdobyć wysokiej jakości e-booki )

tak wiele fałszywych stron. to pierwszy, który zadziałał! Wielkie dzięki

wtffff nie rozumiem tego!

Po prostu wybierz przycisk kliknij, a następnie pobierz i wypełnij ofertę, aby rozpocząć pobieranie e-booka. Jeśli jest ankieta, zajmuje to tylko 5 minut, wypróbuj dowolną ankietę, która Ci odpowiada.


Spis treści

  1. Statystyki Frequentist
  2. Nieodłączne wady częstych statystyk
  3. Statystyki Bayesa
    • Warunkowe prawdopodobieństwo
    • Twierdzenie Bayesa
  4. Wnioskowanie bayesowskie
    • Funkcja wiarygodności Bernoulliego
    • Uprzednia dystrybucja przekonań
    • Dystrybucja późniejszych przekonań
  5. Test na znaczenie – Frequentist vs Bayesian
    • wartość p
    • Przedziały ufności
    • Współczynnik Bayesa
    • Interwał wysokiej gęstości (HDI)

Zanim zagłębimy się w statystyki bayesowskie, poświęćmy kilka minut na zrozumienie Statystyki Frequentist, bardziej popularna wersja statystyk, z którą większość z nas spotyka się i związane z nią problemy.


1 Wprowadzenie do statystyki bayesowskiej I

1.1 Frequentystyczne podejście do statystyki 1

1.2 Bayesowskie podejście do statystyki 3

1.3 Porównanie prawdopodobieństwa i podejścia bayesowskiego do statystyk 6

1.4 Obliczeniowa statystyka bayesowska 19

1.5 Cel i organizacja tej książki 20

2 Pobieranie próbek Monte Carlo od tyłu 25

2.1 Próbkowanie akceptacji-odrzucenia 27

2.2 Próbkowanie-ważność-ponowne próbkowanie 33

2.3 Adaptacyjne-odrzucanie-próbkowanie z rozkładu log-wklęsłego 35

2.4 Dlaczego metody bezpośrednie są nieefektywne w przypadku wielkowymiarowej przestrzeni parametrów 42

3. Wnioskowanie bayesowskie 47

3.1 Wnioskowanie bayesowskie z numerycznego a posteriori 47

3.2 Wnioskowanie bayesowskie z tylnej próby losowej 54

4. Statystyka bayesowska z wykorzystaniem sprzężonych przeorów 61

4.1 Jednowymiarowa wykładnicza rodzina gęstości 61

4.2 Rozkłady danych zliczania 62

4.3 Rozkłady czasu oczekiwania 69

4.4 Normalnie rozłożone obserwacje ze znaną wariancją 75

4.5 Normalnie rozłożone obserwacje ze znaną średnią 78

4.6 Normalnie rozłożone obserwacje z nieznaną średnią i wariancją 80

4.7 Wielowymiarowe normalne obserwacje ze znaną macierzą kowariancji 85

4.8 Obserwacje z normalnego modelu regresji liniowej 87

Dodatek: Dowód twierdzenia o procesie Poissona 97

5.1 Procesy stochastyczne 102

5.3 Niezmienne w czasie łańcuchy Markowa ze skończoną przestrzenią stanów 104

5.4 Klasyfikacja stanów łańcucha Markowa 109

5.5 Pobieranie próbek z łańcucha Markowa 114

5.6 Odwracalne w czasie łańcuchy Markowa i szczegółowe wyważenie 117

5.7 Łańcuchy Markowa z ciągłą przestrzenią stanów 120

6. Pobieranie próbek Monte Carlo w łańcuchu Markowa z tylnego odcinka 127

6.1 Algorytm Metropolis-Hastings dla pojedynczego parametru 130

6.2 Algorytm Metropolis-Hastings dla wielu parametrów 137

6.3 Blokowy algorytm Metropolis-Hastings 144

7 Wnioskowanie statystyczne z próbki Monte Carlo łańcucha Markowa 159

7.1 Mieszanie właściwości łańcucha 160

7.2 Znajdowanie gęstości kandydackiej dopasowanej krzywizny o grubym ogonie 162

7.3 Uzyskiwanie przybliżonej próbki losowej do wnioskowania 168

Dodatek: Procedura znajdowania dopasowanych

Gęstość kandydacka krzywizny dla parametru wielowymiarowego 176

8 Regresja logistyczna 179

8.1 Model regresji logistycznej 180

8.2 Obliczeniowe podejście bayesowskie do modelu regresji logistycznej 184

8.3 Modelowanie za pomocą modelu wielokrotnej regresji logistycznej 192

9 Regresja Poissona i proporcjonalne hazardy, model 203

9.1 Model regresji Poissona 204

9.2 Podejście obliczeniowe do modelu regresji Poissona 207

9.3 Model proporcjonalnego ryzyka 214

9.4 Obliczeniowe podejście bayesowskie do proporcjonalnych zagrożeń model 218

10 próbkowania Gibbsa i modele hierarchiczne 235

10.1 Procedura próbkowania Gibbsa 236

10.2 Próbnik Gibbsa dla rozkładu normalnego 237

10.3 Modele hierarchiczne i próbkowanie Gibbsa 242

10.4 Populacje związane z modelowaniem za pomocą modeli hierarchicznych 244

Dodatek: Dowód na to, że niewłaściwa wcześniejsza dystrybucja hiperwariancji Jeffreya może prowadzić do
Niewłaściwy postenor 261


Prawdopodobieństwo i statystyka: do p czy nie do p?

Żyjemy w niepewnym i złożonym świecie, a jednak nieustannie musimy podejmować decyzje w teraźniejszości z niepewnymi przyszłymi wynikami. Rzeczywiście, powinniśmy rozglądać się za „czarnymi łabędziami” – mało prawdopodobnymi wydarzeniami o dużym wpływie. Studiować czy nie studiować? Inwestować czy nie inwestować? Ożenić się, czy nie wyjść za mąż? Chociaż niepewność utrudnia podejmowanie decyzji, to przynajmniej sprawia, że ​​życie jest ekscytujące! Gdyby cała przyszłość była znana z góry, nigdy nie byłoby elementu zaskoczenia. Czy to dobra przyszłość, czy zła przyszłość, byłaby to przyszłość znana. W tym kursie rozważamy wiele przydatnych narzędzi do radzenia sobie z niepewnością i pomagania nam w podejmowaniu świadomych (a co za tym idzie lepszych) decyzji - niezbędnych umiejętności na całe życie dobrego podejmowania decyzji. Kluczowe tematy obejmują kwantyfikację niepewności z prawdopodobieństwem, statystyki opisowe, punktowe i przedziałowe szacowanie średnich i proporcji, podstawy testowania hipotez oraz wybór wielowymiarowych zastosowań kluczowych terminów i pojęć widzianych w trakcie kursu.

Recenzje

Doskonały kurs wprowadzający do prawdopodobieństwa i statystyki, dr Abdey sprawił, że kurs był bardzo żywy dzięki swojemu podejściu do nauczania. Mam nadzieję, że w przyszłości zobaczymy więcej kursów online od Ciebie.

Cześć, Kurs zawierał podstawowe informacje i to jest dokładnie to, czego szukałem. Dużo się nauczyłem i tak wiele rzeczy, które słyszę i czytam, stało się jaśniejsze i bardziej znaczące. Dzięki Ci!


11 Testowanie hipotez bayesowskich

Ten rozdział przedstawia popularne bayesowskie metody testowania tego, co moglibyśmy nazwać hipotezy statystyczne. Hipoteza statystyczna to hipoteza dotycząca konkretnego parametru modelu lub zestawu parametrów modelu. Najczęściej taka hipoteza dotyczy jednego parametru, a chodzi o założenie, że parametr ten przyjmuje określoną wartość lub jakąś wartość z określonego przedziału. Odtąd mówimy tylko o „hipotezie”, chociaż mamy na myśli konkretną hipotezę dotyczącą poszczególnych parametrów modelu. Na przykład możemy być zainteresowani tym, co nazwiemy a hipoteza punktowa, stwierdzając, że wartość parametru ( heta) jest ustalona na określoną wartość ( heta = heta^*) . Sekcja 11.1 przedstawia bardziej szczegółowo różne rodzaje hipotez statystycznych.

Biorąc pod uwagę hipotezę statystyczną o wartościach parametrów, jesteśmy zainteresowani jej „przetestowaniem”. Ściśle mówiąc, termin „testowanie” powinien być prawdopodobnie zarezerwowany dla statystycznych procedur decyzyjnych, które dają jasne, kategoryczne osądy, takie jak odrzucenie hipotezy, zaakceptowanie jej jako prawdziwej lub wstrzymanie osądu, ponieważ nie można podjąć decyzji (jeszcze/obecnie). Chociaż w tym rozdziale spotkamy się z takimi kategorycznymi procedurami decyzyjnymi, bayesowskie podejścia do „testowania” hipotez dotyczą przede wszystkim nie decyzji kategorycznych, ale ilościowych dowodów przemawiających za lub przeciw danej hipotezie. (W drugim kroku, wykorzystując teorię decyzji bayesowską, która również waży użyteczność różnych wyborów politycznych, możemy oczywiście wykorzystać wnioskowanie bayesowskie również do świadomego podejmowania decyzji). hipoteza” będziemy mówić tylko o „testowaniu hipotezy bayesowskiej” dla ułatwienia salonu.

Rozważamy dwa koncepcyjnie odmienne podejścia w ramach testowania hipotez bayesowskich.

  1. Testowanie oparte na szacunkach uwzględnia tylko jeden model. Wykorzystuje zaobserwowane dane (D_ ext) aby pobrać późniejsze przekonania (P( heta mid D_< ext>)) i sprawdza, czy, a posteriori, nasza hipoteza jest wiarygodna.
  2. Testy porównawcze wykorzystuje porównanie modeli bayesowskich, w postaci czynników Bayesa, do porównania dwóch modeli, a mianowicie jednego modelu zakładającego prawdziwość danej hipotezy i jednego modelu zakładającego prawdziwość uzupełnienia hipotezy.

Główna różnica między tymi dwoma podejściami polega na tym, że testowanie hipotez na podstawie estymacji jest prostsze (koncepcyjnie i obliczeniowo), ale mniej informacyjne niż testowanie hipotez oparte na porównaniach. W rzeczywistości metody oparte na porównaniach dają jaśniejszy obraz dowodów ilościowych za/przeciw hipotezie, ponieważ wyraźnie uwzględniają drugą alternatywę hipotezy, która ma być testowana. Jak zobaczymy w tym rozdziale, przeszkody techniczne dla podejść opartych na porównaniach można pokonać. W przypadku specjalnych, ale powszechnych przypadków użycia, takich jak testowanie hipotez kierunkowych, istnieją skuteczne metody testowania hipotez opartych na porównaniach.


Pobierz teraz!

Ułatwiliśmy Ci znalezienie e-booków PDF bez żadnego kopania. A mając dostęp do naszych e-booków online lub przechowując je na swoim komputerze, masz wygodne odpowiedzi dzięki Bayesian Methods In Structural Bioinformatics Statistics For Biology And Health . Aby rozpocząć wyszukiwanie metod bayesowskich w statystyce strukturalnej bioinformatyki dla biologii i zdrowia, dobrze jest znaleźć naszą stronę internetową, na której znajduje się obszerny zbiór podręczników.
Nasza biblioteka jest największą z nich, która zawiera dosłownie setki tysięcy różnych produktów.

Wreszcie dostałem ten ebook, dzięki za wszystkie te metody bayesowskie w statystyce strukturalnej bioinformatyki dla biologii i zdrowia, które mogę teraz dostać!

Nie sądziłem, że to zadziała, moja najlepsza przyjaciółka pokazała mi tę stronę i działa! Dostaję mój najbardziej poszukiwany e-book

wtf ten wspaniały ebook za darmo?!

Moi przyjaciele są tak wściekli, że nie wiedzą, jak mam wszystkie wysokiej jakości ebooki, których oni nie mają!

Bardzo łatwo jest zdobyć wysokiej jakości e-booki )

tak wiele fałszywych stron. to pierwszy, który zadziałał! Wielkie dzięki

wtffff nie rozumiem tego!

Po prostu wybierz przycisk kliknij, a następnie pobierz i wypełnij ofertę, aby rozpocząć pobieranie e-booka. Jeśli jest ankieta, zajmuje to tylko 5 minut, wypróbuj dowolną ankietę, która Ci odpowiada.


2.10 - Bayes, empiryczne metody Bayesa i metody moderowane

Metody statystyczne dzielą się zasadniczo na dwa typy: częstościowe (lub klasyczne) i bayesowskie. Oba podejścia wymagają danych wygenerowanych przez znany mechanizm randomizacji z pewnej populacji o pewnych nieznanych parametrach, w celu wykorzystania danych do określenia niektórych właściwości niewiadomych. Oba podejścia wymagają też pewnego rodzaju modelu populacji – m.in. populacja jest normalna lub populacja ma skończoną średnią. Jednak w statystykach częstościa prawdopodobieństwa są przypisywane tylko jako częstotliwość zdarzenia występującego podczas próbkowania z populacji. W statystyce bayesowskiej informacje o nieznanych parametrach podsumowuje się również rozkładem prawdopodobieństwa.

Aby zrozumieć różnicę, rozważ rzucenie monetą 10 razy, aby sprawdzić, czy jest to uczciwe, czy nie. Załóżmy, że wynik to 7 głów. Często bywalca uzyskuje prawdopodobieństwo wyniku, biorąc pod uwagę, że moneta jest uczciwa (0,12), wartość p (prob (7 lub więcej orłów lub reszka | uczciwy)=0,34) i wnioskuje, że nie ma dowodów na to, że moneta nie jest uczciwa . Może również wytworzyć 95% przedział ufności dla prawdopodobieństwa głowy (0,35, 0,93). Dla częstych gości nie ma sensu pytać o prawdopodobieństwo, że moneta jest uczciwa - albo jest uczciwa, albo nie. Często bywalca wypowiada się o prawdopodobieństwie próby po założeniu o parametrze populacji (którym w tym przypadku jest prawdopodobieństwo rzutu głową).

Natomiast bayesowski zaczyna się od ogólnych informacji o podobnych monetach - średnio są one uczciwe, ale każda możliwa wartość z zakresu od zera do 1 ma pewne prawdopodobieństwo, wyższe w pobliżu 0,5 i dość niskie przy 0 i 1. Ocena prawdopodobieństwa proporcji orłów wynosi nazywamy prawdopodobieństwem a priori. Każda osoba może mieć swoją indywidualną ocenę, opartą na jej osobistym doświadczeniu, co nazywa się subiektywnym przeorem. Alternatywnie, rozkład prawdopodobieństwa a priori może być wybrany na podstawie dobrych właściwości otrzymanych oszacowań, zwany a priori obiektywnym. Dane są następnie obserwowane. Dla dowolnej proporcji orłów (pi) można obliczyć prawdopodobieństwo 7 orłów (nazywane prawdopodobieństwem). Wiarygodność i a priori są następnie łączone przy użyciu twierdzenia Bayesa o prawdopodobieństwie, aby uzyskać rozkład a posteriori (pi) - co daje rozkład prawdopodobieństwa proporcji orłów dla danych. Ponieważ obserwowana liczba (7 głów w 10 rzutach) jest wyższa niż 50%, tył będzie dawał większe prawdopodobieństwo niż przed proporcjami większymi niż 1/2. Bayesian może obliczyć takie rzeczy jak Prob(moneta jest skłaniana w stronę orła|7 orłów w 10 rzutach), chociaż nadal nie może obliczyć Prob(moneta jest dokładnie uczciwa| 7 orłów w 10 rzutach) (ponieważ prawdopodobieństwo wystąpienia dowolnej pojedynczej wartości wynosi zero). Więcej informacji o twierdzeniu Bayesa i statystykach bayesowskich, w tym o tym przykładzie, można znaleźć w [1] i [2].

W statystyce bayesowskiej nieznane wielkości mają uprzedni rozkład. Kiedy mierzymy tylko jedną cechę, jest to kontrowersyjne – z jakiej „populacji” może pochodzić taka ilość jak populacja? Jednak w analizie wysokoprzepustowej jest to naturalne podejście. Każda cecha może być uważana za członka populacji cech. Tak więc, na przykład, średnią ekspresję genu A (we wszystkich możliwych próbkach biologicznych) można traktować jako próbkę ze średniej ekspresji wszystkich genów. Podczas analizy różnicowej ekspresji możemy umieścić rozkład na (mu_X-mu_Y) lub na wyniku binarnym: gen nie wyraża/nie wyraża różnicowo.

Ze względu na informacje dodane przez poprzednika, analizy bayesowskie wydają się być bardziej „potężne” niż analizy częstościowe. (Umieszczam słowo „potężny” w cudzysłowie, ponieważ nie oznacza to tego samego dla Bayesa, co dla częstych gości ze względu na inne sformułowanie). próbki”, które są interesujące dla biologów. Dlaczego więc nie używamy cały czas metod bayesowskich?

Niestety, modele bayesowskie są dość trudne do skonfigurowania, z wyjątkiem najprostszych przypadków. Na przykład dostępne są modele bayesowskie, które zastępują testy t, którym już się przyjrzeliśmy, ale bardziej złożone modele, w tym analizy, takie jak jednoczynnikowa ANOVA, są trudne do określenia, ponieważ istnieje wiele parametrów zależnych. (Przypomnijmy, że jednoczynnikowa ANOVA jest rozszerzeniem testu t dla dwóch prób na 3 lub więcej populacji. W populacjach G istnieją pary G(G-1)/2 różnice w średnich, a te różnice i ich zależności wszyscy potrzebują priorytetów). Innym problemem jest to, że badacze z różnymi priorytetami wyciągaliby różne wnioski z tych samych danych, co wydaje się sprzeczne z ideą obiektywnego dowodu opartego na danych. Chociaż można wykazać, że wpływ a priori jest przytłaczany przez dane, gdy jest wystarczająca ilość danych, wielkość próby w wielu badaniach jest zbyt mała, aby tak się stało.

Dostępne jest oprogramowanie do zastąpienia testów t testami bayesowskimi dla najprostszego scenariusza wyrażenia różnicowego. Jednak ponieważ to oprogramowanie nie jest rozszerzalne na bardziej złożone sytuacje, nie będziemy go używać w tej klasie. For some problems, however, Bayesian methods provide powerful analysis tools.

Empirical Bayes

In high throughput biology we have the population of features, as well as the population of samples. For each feature we can obtain an estimate of the parameters of interest such as means, variances or differences in means. The histograms of these estimates (over all the genes) provide an estimate of the prior for the population of features called the empirical prior. This leads to a set of frequentist methods called the empirical Bayesian methods, which are more powerful than "one-feature-at-a-time" methods.

The idea with empirical Bayesian methods is to use the Bayesian set-up but to estimate the priors from the population of all features. Formally speaking, empirical Bayes are frequentist methods which produce p-values and confidence intervals. However, because we have the empirical priors, we can also use some of the probabilistic ideas from Bayesian analysis. We will be using empirical Bayes methods for differential expression analysis.

Moderated Methods

Empirical Bayes methods are related to another set of methods called moderated methods or James-Stein estimators. These are based on a remarkable result by James and Stein that when estimating quantities that can be expressed as expectations (which includes both population means and population variances) that when there are 3 or more populations, a weighted average of the sample estimate from the population and a quantity computed from all the populations is better on average than using just the data from the particular population. (Translated into our setting, it means that if you want to know if genes 1 through G differentially express, you should use the data from all the genes to make this determination for each gene, even though for gene i, its expression levels will be weighted more heavily.) This is called Stein's paradox. Further information can be found in [3] and as well as a brief Wikipedia article. The result is paradoxical, because it does not matter if the populations have anything in common - the result holds even if the quantities we want to estimate are mean salaries of NFL players, mean mass of galaxies, mean cost of a kilo of apples in cities of a certain type and mean air pollution indices.

Moderated methods are very intuitive for "omics" data, as we always have many more than 3 features, and since we have a population of features the result is less paradoxical. Empirical Bayes methods are moderated methods for which the weighting is generated by the empirical prior. Methods which do not fit under the empirical Bayes umbrella rely on ad hoc weights which are chosen using other statistical methods.

Empirical Bayes and moderated methods have been popularized by a number of software packages first developed for differential expression analysis of gene expression microarrays, in particular LIMMA (an empirical Bayes method), SAM (a moderated method) and MAANOVA (a moderated method).

We will start our analyses with microarray data. We will perform T-tests and then will use empirical Bayes T-tests to gain power. The more power you have for a given p-value, the smaller both your false discovery rates and your false non-discovery rates will be.

We improve power by having adequate sample size, good experimental design and a good choice of statistical methodology.

[1] López Puga J, Krzywinski M, Altman N. (2015) Points of significance: Bayes' theorem. Metody Nat. 2015 Apr12(4):277-8. PubMed PMID: 26005726.

[2] Puga, J. L., Krzywinski, M., & Altman, N. (2015). Points of significance: Bayesian Statistics. Metody natury, 12(5), 377-378 doi :10.1038/nmeth.3368

[3] Efron, B. and Morris, C. (1977), “Stein’s Paradox in Statistics,” Scientific American, 236, 119-127.


Pobierz teraz!

Ułatwiliśmy Ci znalezienie e-booków PDF bez żadnego kopania. And by having access to our ebooks online or by storing it on your computer, you have convenient answers with Bayesian Methods In Structural Bioinformatics Statistics For Biology And Health . To get started finding Bayesian Methods In Structural Bioinformatics Statistics For Biology And Health , you are right to find our website which has a comprehensive collection of manuals listed.
Nasza biblioteka jest największą z nich, która zawiera dosłownie setki tysięcy różnych produktów.

Finally I get this ebook, thanks for all these Bayesian Methods In Structural Bioinformatics Statistics For Biology And Health I can get now!

Nie sądziłem, że to zadziała, moja najlepsza przyjaciółka pokazała mi tę stronę i działa! Dostaję mój najbardziej poszukiwany e-book

wtf ten wspaniały ebook za darmo?!

Moi przyjaciele są tak wściekli, że nie wiedzą, jak mam wszystkie wysokiej jakości ebooki, których oni nie mają!

Bardzo łatwo jest zdobyć wysokiej jakości e-booki )

tak wiele fałszywych stron. to pierwszy, który zadziałał! Wielkie dzięki

wtffff nie rozumiem tego!

Po prostu wybierz przycisk kliknij, a następnie pobierz i wypełnij ofertę, aby rozpocząć pobieranie e-booka. Jeśli jest ankieta, zajmuje to tylko 5 minut, wypróbuj dowolną ankietę, która Ci odpowiada.


2.13 Exercises

Generate 1,000 random 0/1 variables that model mutations occurring along a 1,000 long gene sequence. These occur independently at a rate of (10^<-4>) each. Then sum the 1,000 positions to count how many mutations in sequences of length 1,000.

Find the correct distribution for these mutation sums using a goodness of fit test and make a plot to visualize the quality of the fit.

Make a function that generates (n) random uniform numbers between (0) and (7) and returns their maximum. Execute the function for (n=25) . Repeat this procedure (B=100) times. Plot the distribution of these maxima.
What is the maximum likelihood estimate of the maximum of a sample of size 25 (call it (hat< heta>) )?
Can you find a theoretical justification and the true maximum ( heta) ?

A sequence of three nucleotides (a kodon) taken in a coding region of a gene can be transcribed into one of 20 possible amino acids. There are (4^3=64) possible codon sequences, but only 20 amino acids. We say the kod genetyczny is redundant: there are several ways to zaklęcie each amino acid.

The multiplicity (the number of codons that code for the same amino acid) varies from 2 to 6. The different codon-spellings of each amino acid do not occur with equal probabilities. Let’s look at the data for the standard laboratory strain of tuberculosis (H37Rv):

The codons for the amino acid proline are of the form (CC*) ⊕ (*) stands for any of the 4 letters, using the computer notation for a regular expression. , and they occur with the following frequencies in Mycobacterium turberculosis:

a) Explore the data mtb using table to tabulate the AmAcid and Codon variables.
b) How was the PerThous variable created?
c) Write an R function that you can apply to the table to find which of the amino acids shows the strongest codon bias, i.e., the strongest departure from uniform distribution among its possible spellings.

Display GC content in a running window along the sequence of Staphylococcus Aureus. Read in a fasta file sequence from a file.

a) Look at the complete staph object and then display the first three sequences in the set.
b) Find the GC content in tsequence windows of width 100.
c) Display the GC content in a sliding window as a fraction.
d) How could we visualize the overall trends of these proportions along the sequence?

b) We can compute the frequencies using the function letterFrequency .

c) Plotting the sliding window values (Figure 2.26) can be done by:

Figure 2.26: GC content along sequence 364 of the Staphylococcus Aureus genom.

d) We can look at the overall trends by smoothing the data using the function lowess along a window.

Figure 2.27: Smoothed GC content along sequence 364 of the Staphylococcus Aureus genom.

We will see later an appropriate way of deciding whether the window has an abnormally high GC content by using the idea that as we move along the sequences, we are always in one of several possible stany. However, we don’t directly observe the state, just the sequence. Such models are called hidden (state) Markov models, or HMM 38 38 http://en.wikipedia.org/wiki/Hidden_Markov_model for short. ten Markov in the name of these models is for how they model dependencies between neighboring positions, the ukryty part indicates that the state is not directly observed, that is, hidden.

Redo a figure similar to Figure 2.17, but include two other distributions: the uniform (which is B(1,1)) and the B( (frac<1><2>,frac<1><2>) ). What do you notice?

Whereas the beta distribution with parameters larger than one are unimodal, the B(0.5,0.5) distribution is bimodal and the B(1,1) is flat and has no mode.


Obejrzyj wideo: Zajęcia statystyka 3: Miary zmienności, wyniki standaryzowane, krzywa normalna (Czerwiec 2022).


Uwagi:

  1. Tylor

    wspaniała myśl

  2. Jesiah

    Gratuluję, jakie niezbędne słowa ..., doskonała myśl

  3. Fejora

    Mam nadzieję, że dojdziesz do właściwej decyzji. Nie rozpaczaj.

  4. Chike

    Nie mogę teraz brać udziału w dyskusji - nie ma wolnego czasu. Już niedługo koniecznie wyrażę opinię.



Napisać wiadomość