Hamis felfedezési arány

Innen: testwiki
Ugrás a navigációhoz Ugrás a kereséshez

A statisztikában a hamis felfedezési arány (false discovery rate, FDR) egy többszörös összehasonlítást használó módszer az elsőfajú hibák arányának felderítésére nullhipotézis tesztelése során. Az FDR-kontrolláló eljárások feladata, hogy ellenőrizzék azon „felfedezések” (elvetett nullhipozézisek) várható eloszlását, amelyek hamisak (a nullhipotézis helytelen elvetése). [1] Az FDR-kontrolláló eljárások kevésbé szigorú ellenőrzést használnak az elsőfajú hiba kontrollálására, mint az FWER (familywise error rate) kontrolláló eljárások (mint a Bonferroni-korrekció), amelyek legalább egy elsőfajú hiba valószínűségét ellenőrzik. Ezért az FDR kontrolláló eljárások nagyobb statisztikai erővel bírnak, viszont magasabb számú elsőfajú hiba árán.[2]

Története

Technológiai motivációk

Az FDR széleskörű használatához a technológiai fejlődés vezetett, amely lehetővé tette számos különböző változó együttes vizsgálatát egyénenként.[3] Az 1980-as és 1990-es évekre az olyan gyorsan növekvő tudományterületek, mint a genomika - amely automatizáltan, rengeteg próbát vizsgál egyszerre -, lehetővé tették a gyors adatbeszerzést. Ez a számítástechnikai teljesítmény növekedésével párosulva lehetővé tette több ezer statisztikai teszt zökkenőmentes elvégzését egy adott adathalmazon.[4]

Ahogy a nagy áteresztőképességű technológiák általánossá váltak, a technológiai és/vagy pénzügyi korlátok arra késztették a kutatókat, hogy viszonylag kis mintaméretet (pl. kevés tesztelt egyénnel) és mintánként nagyszámú változót (például génexpressziós szintek ezreit) dolgozzanak fel. Ezekben az adathalmazokban a mért változók közül kevés mutatott statisztikai szignifikanciát a többszörös összehasonlítási eljárások során használt klasszikus korrekciókat követően. Ez sok tudományos közösségben életre hívta az FWER és a kiigazítatlan többszörös hipotézis-tesztelések elhagyását annak érdekében, hogy más módokon emelhessék ki és rangsorolhassák azokat a változókat a publikációkban, amelyek egyéneken vagy kezeléseken keresztül jelentős hatást mutatnak, viszont nem szignifikáns eredményként elvetésre kerülnének a többszöri tesztelés szokásos korrekciója után. Erre válaszul számos olyan hibaarányra született javaslat, amely kevésbé konzervatív az FWER-nél a jelentős megfigyelések megjelölésében.

Irodalom

Az FDR koncepcióját Yoav Benjamini és Yosef Hochberg (1995)[1] alkották meg (Benjamini–Hochberg-eljárás, BH-eljárás), amely egy kevésbé konzervatív eljárás és hatékonyan azonosítja a fontosabb hatásokat a sok egyéb hatás közül. Az FDR volt az FWER első olyan alternatívája, amely számos tudományos területen széles körben elfogadottá vált (genetikától a biokémiáig, az onkológiáig és a növénytudományig).[3] 2005-ben így Benjamini és Hochberg tanulmányát a 25 legtöbbet idézett statisztikai cikk közé sorolták.[5]

Az FDR koncepció 1995-ös bevezetésének több előfutára is volt a statisztikai szakirodalomban. 1979-ben Holm megalkotta a Holm-eljárást,[6] amely egy lépésenkénti algoritmus az FWER vezérlésére, és amely legalább olyan hatékony, mint a Bonferroni-korrekció. Ez a lépésenkénti algoritmus rendezi a p-értékeket, és a hipotéziseket a legkisebb p-értéktől kiindulva egymást követően elutasítja.

Benjamini (2010)[3] elmondása szerint az 1995-ös tanulmányuk két, többszörös teszteléssel foglalkozó tanulmányból ered:

  • Az első ilyen Scweder és Spjotvoll (1982)[7] munkája, akik javasolták a rangsorolt p-értékek ábrázolását, és a valódi nullhipotézisek értékelését azok vonalra illesztésével, a legnagyobb p-értéktől indulva, amelyek így egy egyenest alkotnak. Az ettől az egyenestől eltérő p-értékek a nullhipotézisnek felelnek meg. Ezt az ötletet később algoritmussá fejlesztették, és a nullhipotézist olyan eljárásokba építették be, mint a Bonferroni-, Holm- vagy Hochberg-eljárás.[8] Ez az elképzelés szorosan kapcsolódik a BH-eljárás grafikus értelmezéséhez.
  • A másik ilyen tanulmány Branko Soric (1989)[9] munkája, amely a „felfedezés” terminológiáját vezeti be többszörös hipotézistesztelés összefüggésében. Soric figyelmeztetőként használta a hamis felfedezések várható számát elosztva az összes felfedezés számával (E[V]/R), mondván: „a statisztikai felfedezéseink nagy része téves lehet”. Ez arra az elképzelésre vezette Benjaminit és Hochberget, hogy egy hibaarányt ahelyett, hogy figyelmeztetésként szolgálna, érdemes lenne kontrollálni.

1995-ben Benjamini és Hochberg bebizonyította, hogy a BH-eljárás egymástól független teszteknél kontrollálja az FDR-t.[1] 1986-ban R.J. Simes ugyanezt az eljárást javasolta "Simes eljárás" néven annak érdekében, hogy a gyenge értelemben vett FWER-t kontrollálják egymástól független teszteknél.[10]

Definíciók

Az alábbi definíciók alapján meghatározhatjuk a Q -t, mint a hamis felfedezések arányát az összes felfedezés között (a nullhipotézisek elutasítása):

Q=V/R=V/(V+S),

ahol V a hamis felfedezések száma, S az igazi felfedezések száma, R pedig az összes felfedezés száma.

A hamis felfedezési arány (FDR) ezután egyszerűen:[1]

FDR=Qe=E[Q],

ahol E[Q] a várható értéke Q-nak. A cél, hogy az FDR-t egy adott q érték alatt tartsuk. A 0-val való osztás elkerülése érdekében Q-t 0-nak definiáljuk, amikor R = 0:

FDR=E[V/R|R>0]P(R>0).[1]

Többszörös hipotézistesztelések osztályozása

A következő táblázat a többszörös hipotézistesztelés lehetséges kimeneteleit definiálja. Tegyük fel, hogy m számú nullhipotézisünk van, amelyeket a következőképp jelölünk: H1 , H2, …, Hm. Statisztikai tesztet használva szignifikáns eredmény esetén elutasítjuk a nullhipotézist. Ha a teszt eredménye nem szignifikáns, nem utasítjuk el a nullhipotézist. Az összes Hi -re vonatkozó eredménytípust összesítve a következő random változókat kapjuk:

A nullhipotézis igaz (H0) Az alternatív hipotézis igaz (HA) Összegezve
A teszt szignifikáns V S R
A teszt nem szignifikáns U T m-R
Összegezve m0 m-m0 m
  • m: az összes tesztelt hipotézisek száma
  • m0: az igaz nullhipotézisek száma, nem ismert paraméter
  • mm0: az igaz alternatív hipotézisek száma
  • V: a fals pozitívok száma (elsőfajú hiba) („false discoveries”)
  • S: az valódi pozitívak száma („true discoveries”)
  • T: a fals negatívak száma (másodfajú hiba)
  • U: A valódi negatívak száma
  • R=V+S: Az elvetett nullhipotézisek száma (igaz vagy hamis felfedezések)
  • m hipotézistesztelésben, ahol m0-k az igaz nullhipotéziseket jelölik, R egy megfigyelhető véletlen változó, S, T, U és V pedig nem megfigyelhető véletlen változók.

Kontrolláló eljárások

A legtöbb eljárás során H1….Hm számú nullhipotézis tesztelés, és a hozzájuk tartozó P1….Pm áll rendelkezésünkre. A p-értékeket növekvő sorrendben soroljuk fel és P(1)….P(m) -ként jelöljük. Az alacsonytól magas p-érték felé tartó eljárásokat emelkedő („step up”), míg a magastól alacsony p-érték felé tartó eljárásokat ereszkedő („step down”) folyamatoknak nevezzük.

Benjamini–Hochberg-eljárás (BH-eljárás)

A Benjamini–Hochberg-eljárás (BH-emelkedő eljárás) az FDR-t kontrollálja α szintjén.[1] A következőképpen működik:

1. Egy adott α esetén keresse meg a legnagyobb k értéket, amely: P(k)kmα (k=argmaxj(i,...,n)(IP(j)jmα)).

2. Vesse el a nullhipotézist az i-re minden H(i)-nél = 1,…,k.

Geometriai értelemben ez megegyezik P(k) és k (pl. y és x tengelyen) ábrázolásával, áthúzva az egyenest az origón αm meredekséggel, igazolva a bal oldali pontok felfedezését egészen az utolsó, vonal alatti pontig.

A BH-eljárás akkor érvényes, ha az m-tesztek függetlenek, és sok olyan esetben is, amikor fennáll a függőség, de ezek nem általánosan érvényesek.[11] Egyenlőtlenség esetén is működőképes: E(Q)m0mαα

Ha az m0 becslő értékét beillesztjük a BH-eljárásba, már nem garantált az FDR kontroll elérése a kívánt szinten.[3] Szükség lehet kiigazításokra a becslő értékben, és erre számos módosítást javasoltak.[12][13][14][15]

Az m- tesztek α átlaga: α(m+1)2m, FDR α átlaga (vagy MFDR), α az m független vagy pozitív korrelációihoz igazítva (lásd AFDR). Az MFDR kifejezés az α egyetlen újraszámított értékére vonatkozik, és nem része a Benjamini–Hochberg-módszernek.

Benjamini–Yekutieli-eljárás

A Benjamini-Yekutieli-eljárás tetszőleges függőségi feltételezések alapján ellenőrzi a hamis felfedezési arányt (FDR-t).[11] Ez a finomítás módosítja a küszöbértéket, és a következőképpen találja meg k értékét:

P(k)kmc(m)α

  • Ha a tesztek függetlenek vagy pozitívan korrelálnak (mint a Benjamini–Hochberg-eljárásban): c(m)=1
  • Tetszőleges függőség esetén (beleértve a negatív korrelációkat), c(m) a harmonikus szám: c(m)=i=1m1i

A c(m)-et a Taylor-sor és az Euler-Mascheroni-állandó γ=0.57721... segítségével becsülhetjük meg:

Az MFDR és a fenti képletek használatával, a korrigált MFDR (AFDR) az m-függő tesztek min(α átlaga) értéke = MFDRc(m) . A függőség kezelésének másik módja a bootstrapping és az újbóli randomizálás.[4][16][17]

Tulajdonságok

Adaptív és skálázható

Az FDR-t kontrolláló többszörös összehasonlító eljárások adaptívak és skálázhatóak. Ez azt jelenti, hogy az FDR kontrollálása lehet nagyon megengedő (ha az adatok ezt igazolják) vagy konzervatív (az FWER kontrollálása esetén) -mindez a tesztelt hipotézisek számától és a szignifikancia szintjétől függ.[3]

Az FDR kritérium úgy igazodik, hogy ugyanannyi hamis felfedezésnek (V) különböző következtetései legyenek, a felfedezések teljes számától (R) függően. Ez ellentétes az FWER kritériummal. Például ha 100 hipotézist vizsgálunk (pl. 100 genetikai mutációt, amelyek valamilyen populáció valamilyen fenotípusához kapcsolódnak):

  • Ha 4 felfedezést teszünk (R), akkor ezek közül 2 hamis felfedezés (V) nagyon költséges, míg
  • Ha 50 felfedezést teszünk (R), akkor ezek közül 2 hamis felfedezés (V) általában nem túl költséges

Az FDR kritérium skálázható, mivel az összes felfedezés (Q) hamis felfedezései ugyanolyan arányban maradnak szenzitívek az össze felfedezés különböző számaira (R). Például:

  • Ha 100 felfedezést teszünk (R), akkor 5 hamis felfedezés (q = 5%) nem túl költséges;
  • Hasonlóképpen, ha 1000 felfedezést teszünk (R), akkor 50 hamis felfedezés (q = 5%) szintén nem túl költséges.

Függőség a tesztstatisztikák között

Az FDR kontrollálása lineáris emelkedő BH-eljárással q szinten számos tulajdonsággal rendelkezik az m null hipotézis teszt-statisztikái közötti struktúrához kapcsolódva, amelyek javításra kerülnek. Amennyiben a tesztstatisztika:

  • Független:[11] FDRm0mq
  • Független és folytonos:[1] FDR=m0mq
  • Pozitív-függő:[11] FDRm0mq

Az igaz hipotézisek aránya

Amennyiben az összes nullhipotézis igaz (m0=m), az FDR kontrollálása q szinten garantálja az FWER feletti ellenőrzést (az FWER „gyenge kontrolljának” is nevezik): FWER=P(V1)=E(VR)=FDRq, mivel legalább egy igaz nullhipotézis elutasításának esete {V1} megegyezik {V/R=1} esettel, és {V=0} esete megegyezik {V/R=0} (ahol V=R=0, V/R=0 definíció alapján). Amennyiben viszont van valódi felfedezés (m0<m), akkor FWERFDR. Ebben az esetben helye lesz a detektálási teljesítmény javításának. Ez azt is jelenti, hogy minden olyan eljárás, amely az FWER-t ellenőrzi, az FDR-t is ellenőrzi.

Kapcsolódó fogalmak

Az FDR felfedezését sok más típusú hibaarány előzte meg és követte. Ezek a következők:

  • PCER (per-comparison error rate – összehasonlításonkénti hibaarány), amelynek definíciója: PCER=E[Vm]. Az egyes hipotézisek egyenként történő tesztelése az α szinten garantálja, hogy: PCERα (ebben az esetben nem alkalmazunk korrekciót a multiplicitásra).
  • FWER (familywise rate error), amelynek definíciója: FWER=P(V1), kontrollálására számos eljárás létezik.
  • Q: A hamis felfedezések aránya a felfedezések között Soric (1989)[9] javaslatára, definíciója: Q=E[V]R . Ez az elvárások és felismerések keveréke, és problémás a kontrollálás, mivel m0=m.[1]
  • k-FDR: Sarkar (2007)[18][19] által általánosított FDR-ként is emlegetett eljárás, definíciója: k-FDR=E(VRI(V>k))q.
  • FDR1: Benjamini és Hochberg[3] használták először, Efron (2008)[20] később „Fdr”-nek hívta. Definíciója: FDR1=Fdr=E[V]E[R]. Ezt a hibaarányt nem lehet szigorúan kontrollálni, mert mikor m=m0, akkor értéke 1.
  • FDR+1: Benjamini és Hochberg[3] használták először, Storey (2002)[21] később „pFDR” -nek hívta. Definíciója: FDR+1=pFDR=E[VR|R>0]. Ezt a hibaarányt nem lehet szigorúan kontrollálni, mert mikor m=m0, akkor értéke 1.
  • Hamis túllépési arány: Az FDR farok-valószínűségének értéke.[22] Definíciója: P(VR>q)
  • W-FDR (súlyozott FDR): Minden i hipotézishez tartozik egy súly wi0 , ahol a súlyok a fontosságot/árat jelölik. Definíciója: W-FDR=E(wiViwiRi).
  • Sablon:Math (False Discovery Cost Rate): Statisztikai folyamat-kontrollálásból ered. Minden i hipotézishez tartozik egy ár ci és egy kereszt-hipotézis H00 c0 árral. A motivációja, hogy a folyamat leállítása fix költségekkel járhat. Definíciója: FDCR=E(c0V0+ciVic0R0+ciRi).
  • Sablon:Math (per-family error rate), definíciója: PFER=E(V).
  • Sablon:Math (False non-discovery rates), Genovesse & Wasserman (2002) nevéhez fűződik, definíciója: FNR=E(TmR)=E(mm0(RV)mR).
  • FDR(z), definíciója: FDR(z)=p0F0(z)F(z).

Hamis lefedettségi arány

A hamis lefedettségi arány (false coverage rate; FCR) az FDR-analógja a konfidencia-intervallumnál. Az FCR a hamis lefedettség átlagos arányát jelöli, vagyis nem fedi le a valódi paramétereket a kiválasztott intervallumok között. Az FCR egyidejűleg biztosít lefedettséget 1 – α szinten a problémában figyelembe vett összes paraméter számára. Azok az intervallumok, amelyek egyidejű lefedettséget biztosítanak 1 – q szintjén, szabályozhatják az FCR-t úgy, hogy a q-val határolják. Több FCR-eljárás is létezik, mint: Bonferroni-eljárás (Bonferronival kiválasztott, Bonferronival korrigált); BH-val kiválasztott és FCR-rel korrigált konfidenciaintervallumok (Benjamini és Yekutieli (2005),[23] Bayes FCR (Yekutieli, 2008) és egyéb Bayes-módszerek.[24]

Bayesiánus módszerek

Az FDR és Bayes-féle megközelítések összekapcsolódtak (beleértve az empirikus Bayes-módszereket),[20][25][26] megadva a Wavelet-együtthatók és a modellválasztás küszöbértékét,[27][28][29][30] valamint általánosítva a konfidencia-intervallumot az FCR-be.[23]

Fordítás

Sablon:Fordítás

Források

  1. 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 Benjamini, Yoav; Hochberg, Yosef.Sablon:Cite journal
  2. Shaffer J.P. (1995) Multiple hypothesis testing, Annual Review of Psychology 46:561-584, Annual Reviews
  3. 3,0 3,1 3,2 3,3 3,4 3,5 3,6 Benjamini, Y.Sablon:Cite journal
  4. 4,0 4,1 Storey, John D.; Tibshirani, Robert.Sablon:Cite journal
  5. Ryan, T. P.; Woodall, W. H.Sablon:Cite journal
  6. Sablon:Cite journal
  7. Schweder, T.; Spjøtvoll, E.Sablon:Cite journal
  8. Hochberg, Y.; Benjamini, Y.Sablon:Cite journal
  9. 9,0 9,1 Sablon:Cite journal
  10. Simes, R. J.Sablon:Cite journal
  11. 11,0 11,1 11,2 11,3 11,4 Benjamini, Yoav; Yekutieli, DanielSablon:Cite journal
  12. Storey, J. D.; Taylor, J. E.; Siegmund, D.Sablon:Cite journal
  13. Benjamini, Y.; Krieger, A. M.; Yekutieli, D.Sablon:Cite journal
  14. Gavrilov, Y.; Benjamini, Y.; Sarkar, S. K.Sablon:Cite journal
  15. Blanchard, G.; Roquain, E.Sablon:Cite journal
  16. Yekutieli D, Benjamini Y.Sablon:Cite journal
  17. van der Laan, M. J.; Dudoit, S.Sablon:Cite journal
  18. Sarkar, Sanat K. "Stepup procedures controlling generalized FWER and generalized FDR." The Annals of Statistics (2007): 2405-2420.
  19. Sarkar, Sanat K., and Wenge Guo. "On a generalized false discovery rate." The Annals of Statistics (2009): 1545-1565.
  20. 20,0 20,1 Sablon:Cite journal
  21. Storey, John D.Sablon:Cite journal
  22. Benjamini, Y.Sablon:Cite journal
  23. 23,0 23,1 Benjamini Y, Yekutieli Y.Sablon:Cite journal
  24. Zhao, Z.; Gene Hwang, J. T.Sablon:Cite journal
  25. Storey, John D.Sablon:Cite journal
  26. Sablon:Cite book
  27. Abramovich F, Benjamini Y, Donoho D, Johnstone IM.Sablon:Cite journal
  28. Donoho D, Jin J.Sablon:Cite journal
  29. Benjamini Y, Gavrilov Y.Sablon:Cite journal
  30. Donoho D, Jin JS.Sablon:Cite journal