Araştırma Yöntemleri

Bayesci İstatistik: Klasik Yaklaşıma Alternatif Paradigma

PNPeda Network·12 Şubat 2026·0 görüntülenme·
Bayesci İstatistik: Klasik Yaklaşıma Alternatif Paradigma

İstatistiksel çıkarım, sosyal bilimlerden doğa bilimlerine kadar tüm araştırma alanlarının temel taşıdır. 20. yüzyılda araştırma dünyasına hakim olan klasik (frequentist) yaklaşım, p-değerleri, güven aralıkları ve hipotez testleri ile bilinen bir çerçeve sunar. Ancak son yıllarda giderek artan biçimde tartışılan ve benimsenen Bayesci istatistik, olasılığa ve istatistiksel çıkarıma temelden farklı bir bakış açısı getirmektedir. Kothari (2004), istatistiksel yöntemlerin seçiminin araştırmacının epistemolojik konumlanmasıyla doğrudan bağlantılı olduğunu belirtir. Bu yazıda, Bayes teoreminin temellerinden başlayarak Bayesci istatistiğin araştırma uygulamalarını, klasik yaklaşımla karşılaştırmasını ve raporlama ilkelerini kapsamlı biçimde inceleyeceğiz.

Bayes Teoremi: Temel Formül ve Sezgisel Açıklama

Bayesci istatistiğin tamamı, 18. yüzyılda Thomas Bayes tarafından ortaya konan ve Pierre-Simon Laplace tarafından formüle edilen Bayes teoremi üzerine kuruludur. Formül şu şekildedir:

P(H|D) = [P(D|H) × P(H)] / P(D)
Burada:
P(H|D) = Son olasılık (posterior): Veriyi gözlemledikten sonra hipotezin olasılığı
P(D|H) = Olabilirlik (likelihood): Hipotez doğruysa verinin gözlenme olasılığı
P(H) = Ön olasılık (prior): Veriyi görmeden önceki hipotez olasılığı
P(D) = Kanıt (evidence/marginal likelihood): Verinin tüm hipotezler altında gözlenme olasılığı

Sezgisel olarak ifade etmek gerekirse: Bayesci yaklaşımda araştırmacı, bir hipoteze ilişkin önceki bilgi veya inancı (prior) ile yeni veriyi (likelihood) birleştirerek güncellenmiş bir inanca (posterior) ulaşır. Jackson (2015), bu sürecin insan düşüncesinin doğal işleyişine benzediğini belirtir: Bir doktor, hastanın semptomlarını (yeni veri) daha önce bildikleriyle (tıbbi bilgi ve deneyim) birleştirerek tanı koyar.

Tıbbi Tanı Örneği ile Bayes Teoremi

Bayes teoreminin anlaşılmasını kolaylaştırmak için klasik bir tıbbi tanı örneği düşünelim: Bir hastalığın toplumda görülme oranı %1'dir (ön olasılık). Kullanılan testin duyarlılığı %95'tir (hasta olan kişiyi doğru tespit etme olasılığı) ve özgüllüğü %90'dır (sağlıklı kişiyi doğru tespit etme olasılığı). Test sonucu pozitif çıkan bir kişinin gerçekten hasta olma olasılığı nedir?

Bayes teoremi ile hesaplandığında, test pozitif çıkmasına rağmen kişinin gerçekten hasta olma olasılığının yalnızca %8.8 olduğu görülür. Bu sezgiye aykırı gibi görünen sonuç, düşük ön olasılığın (hastalık nadir) yüksek yanlış pozitif oranıyla birleşmesinden kaynaklanır. Bu örnek, ön olasılığın (prior) sonuçları ne denli güçlü biçimde etkilediğini gösterir.

Ön Olasılık (Prior) Türleri

Bayesci istatistikte ön olasılık (prior distribution), hipotez hakkındaki veri öncesi bilgiyi temsil eder. Ön olasılık seçimi Bayesci analizin en tartışmalı yönlerinden biridir:

Bilgilendirici Ön Olasılıklar (Informative Priors)

Önceki araştırmalardan, uzman görüşlerinden veya kuramsal beklentilerden elde edilen bilgiye dayalı ön olasılıklardır. Örneğin, daha önce yapılmış 10 çalışma bir eğitim müdahalesinin etki büyüklüğünün d = 0.30-0.50 arasında olduğunu gösteriyorsa, bu bilgi ön olasılık olarak modele dahil edilebilir.

Kothari (2004), bilgilendirici ön olasılıkların Bayesci yaklaşımın en büyük avantajlarından biri olduğunu belirtir: Araştırma birikimli bir süreçtir ve önceki bulgular yeni çalışmaları şekillendirmelidir.

Bilgilendirici Olmayan Ön Olasılıklar (Non-informative/Flat Priors)

Parametre hakkında minimum düzeyde önceki bilgi içeren ön olasılıklardır. Tüm değerlere eşit veya neredeyse eşit olasılık atanır. Düz (flat/uniform) prior bunun en uç örneğidir: Parametrenin tüm olası değerleri eşit olası kabul edilir.

Zayıf Bilgilendirici Ön Olasılıklar (Weakly Informative Priors)

Tamamen bilgilendirici olmayan ve güçlü bilgilendirici ön olasılıklar arasında bir ara noktadır. Parametrenin makul aralığını sınırlar ancak belirli bir değeri güçlü biçimde desteklemez. Jackson (2015), zayıf bilgilendirici priorsların modern Bayesci uygulamada giderek daha fazla tercih edildiğini belirtir; çünkü hem verilere baskın gelmez hem de hesaplama sürecini stabilize eder.

Olabilirlik (Likelihood)

Olabilirlik fonksiyonu, gözlenen verinin farklı parametre değerleri altında ne kadar olası olduğunu ifade eder. Bu kavram, klasik istatistikte de merkezi bir role sahiptir (maksimum olabilirlik tahmini - MLE). Bayesci analizde olabilirlik, ön olasılık ile son olasılık arasındaki köprüyü kurar.

Kothari'ye (2004) göre olabilirlik fonksiyonu, klasik ve Bayesci yaklaşımların ortak paydasıdır. Her iki yaklaşım da verinin modelini olabilirlik fonksiyonu üzerinden tanımlar; farklılık, parametrelerin sabit mi yoksa olasılık dağılımına sahip mi olarak ele alındığındadır.

Son Olasılık (Posterior) ve Bayesci Güncelleme

Son olasılık dağılımı (posterior distribution), ön olasılık ile olabilirliğin çarpımının normalleştirilmesiyle elde edilir. Bu dağılım, veri gözlemlendikten sonra parametre hakkındaki güncellenmiş bilgiyi temsil eder.

Bayesci güncellemenin en güçlü yönlerinden biri ardışık öğrenme (sequential learning) kapasitesidir: Bir çalışmanın son olasılığı, bir sonraki çalışma için ön olasılık olarak kullanılabilir. Bu süreç, her yeni veri setiyle bilginin kümülatif olarak güncellenmesini sağlar.

Jackson'ın (2015) Benzetmesi: Bayesci güncelleme, bir dedektifin delil toplama sürecine benzer. Dedektif başlangıçta birkaç şüpheliye eşit şüpheyle yaklaşır (düz prior). İlk delil bazı şüphelilerin olasılığını artırır (ilk posterior). Her yeni delil ile şüphelilerin olasılıkları güncellenir. Sonunda en güçlü kanıtla desteklenen şüpheli belirlenir. Bu süreçte önceki deliller asla göz ardı edilmez; her yeni bilgi mevcut bilgiyle birleştirilir.

İnanılırlık Aralıkları ve Güven Aralıkları

Bayesci istatistiğin en önemli çıktılarından biri inanılırlık aralığıdır (credible interval). İnanılırlık aralığı, klasik güven aralığından kavramsal olarak farklıdır:

ÖzellikGüven Aralığı (Frequentist)İnanılırlık Aralığı (Bayesci)
YorumlamaBu prosedürle oluşturulan aralıkların %95'i gerçek parametreyi içerirParametrenin bu aralıkta olma olasılığı %95'tir
Parametre görüşüParametre sabittir; aralık değişirParametre olasılık dağılımına sahiptir
SezgisellikSezgisel olarak anlaşılması güçtürDoğrudan olasılık ifadesi; daha sezgisel
Prior bilgiKullanılmazPrior dağılımı etkiler

Kothari (2004), inanılırlık aralığının araştırmacılar ve karar vericiler tarafından daha doğal biçimde yorumlanabildiğini belirtir. "Etki büyüklüğünün 0.25 ile 0.55 arasında olma olasılığı %95'tir" ifadesi, klasik güven aralığının koşullu ifadesine kıyasla çok daha açık ve anlaşılırdır.

Bayes Faktörü ve p-Değeri Karşılaştırması

Klasik hipotez testinde karar, p-değerine dayanır. Bayesci hipotez testinde ise Bayes faktörü (BF) kullanılır:

BF₁₀ = P(D|H₁) / P(D|H₀)
Bayes faktörü, verinin alternatif hipotez altında sıfır hipotezine kıyasla ne kadar daha olası olduğunu gösterir.

Bayes Faktörü Yorumlama Rehberi

Bayes Faktörü (BF₁₀)Kanıt GücüYorumlama
1 - 3ZayıfH₁ lehine anekdot düzeyinde kanıt
3 - 10OrtaH₁ lehine orta düzeyde kanıt
10 - 30GüçlüH₁ lehine güçlü kanıt
30 - 100Çok güçlüH₁ lehine çok güçlü kanıt
> 100KesinH₁ lehine kesin kanıt
1/3 - 1ZayıfH₀ lehine anekdot düzeyinde kanıt
1/10 - 1/3OrtaH₀ lehine orta düzeyde kanıt
< 1/10GüçlüH₀ lehine güçlü kanıt

Jackson (2015), Bayes faktörünün p-değerine göre iki önemli avantajı olduğunu belirtir: (1) Sıfır hipotezi lehine de kanıt sunabilir (p-değeri yalnızca sıfır hipotezini reddedebilir veya reddedemez); (2) Örneklem büyüklüğüne karşı daha az hassastır (çok büyük örneklemlerde p-değeri her zaman anlamlı çıkabilir).

Frequentist ve Bayesci Yaklaşım: Kapsamlı Karşılaştırma

BoyutFrequentist (Klasik)Bayesci
Olasılık yorumuUzun vadeli frekans (sonsuz tekrarda)Öznel inanç derecesi
Parametre görüşüSabit ama bilinmeyenOlasılık dağılımına sahip
Önceki bilgiModele dahil edilmezPrior olarak modele dahil edilir
Hipotez testip-değeri; H₀ reddedilir veya reddedilemezBayes faktörü; H₀ ve H₁ lehine kanıt dereceleri
Aralık tahminiGüven aralığı (prosedür temelli)İnanılırlık aralığı (doğrudan olasılık)
Sonuç ifadesi"H₀ reddedilmiştir (p < .05)""H₁ lehine güçlü kanıt vardır (BF₁₀ = 15.3)"
Küçük örneklemGüç düşer; sonuçlar güvenilmezPrior bilgiyle dengelenebilir; küçük örneklemde bile çalışır
Kümülatif bilgiHer çalışma bağımsız değerlendirilirArdışık güncelleme ile bilgi biriktirilir
HesaplamaGenellikle analitik çözüm mümkünKarmaşık modellerde MCMC gerekir
Öznel müdahaleMinimal (ancak α düzeyi, tek/çift kuyruk seçimi)Prior seçimi öznel; duyarlılık analizi gerekli

MCMC Örnekleme: Temel Kavramlar

Birçok gerçek dünya probleminde son olasılık dağılımının analitik olarak hesaplanması mümkün değildir. Bu durumda Markov Zinciri Monte Carlo (MCMC) yöntemleri kullanılır. MCMC, son olasılık dağılımından temsili örnekler çekerek bu dağılımı yakınsayan bir simülasyon tekniğidir.

MCMC'nin Temel Mantığı

  1. Başlangıç değeri: Parametre için bir başlangıç değeri seçilir
  2. Teklif: Mevcut değere yakın yeni bir değer önerilir
  3. Değerlendirme: Yeni değerin son olasılık altında daha olası olup olmadığı kontrol edilir
  4. Kabul/Ret: Daha olası ise kabul edilir; değilse belirli bir olasılıkla kabul veya reddedilir
  5. Tekrar: Bu süreç binlerce kez tekrarlanır

Yeterli iterasyon sonunda örnekler, son olasılık dağılımını temsil eden bir zincir oluşturur. Kothari (2004), MCMC'nin modern Bayesci istatistiği pratik olarak uygulanabilir kılan en önemli hesaplama yeniliği olduğunu belirtir.

Yakınsama Kontrolü

MCMC analizinde sonuçların güvenilir olduğundan emin olmak için yakınsama kontrolü yapılmak zorundadır:

  • İz grafikleri (trace plots): Zincirlerin kararlı bir bant içinde salınıp salınmadığı görsel olarak kontrol edilir
  • R-hat (Gelman-Rubin) istatistiği: Birden fazla zincir kullanıldığında zincirler arası ve zincir içi varyansın oranı hesaplanır. R-hat < 1.1 genellikle yakınsama göstergesi olarak kabul edilir
  • Etkin örneklem büyüklüğü (ESS): Otokorelasyondan arındırılmış etkili örneklem sayısı; en az 400-1000 olması önerilir
  • Isınma dönemi (warmup/burn-in): Başlangıç örneklerinin atılarak yalnızca yakınsamış örneklerin kullanılması

Bayesci Yaklaşımın Avantajları

Bayesci istatistiğin klasik yaklaşıma göre çeşitli avantajları vardır:

  • Sezgisel yorumlama: "Parametrenin bu aralıkta olma olasılığı %95'tir" ifadesi, güven aralığının koşullu yorumlamasından çok daha doğal ve anlaşılırdır
  • Önceki bilginin kullanımı: Meta-analizler, pilot çalışmalar ve uzman görüşleri modele resmi olarak dahil edilebilir. Bu, bilginin kümülatif birikimini sağlar
  • Küçük örneklemlerde çalışabilirlik: Bilgilendirici priorlar, küçük örneklem büyüklüğünün yarattığı belirsizliği azaltabilir
  • Sıfır hipotezi lehine kanıt: Bayes faktörü, bir etkinin olmadığı yönünde de kanıt sunabilir; klasik yaklaşımda bu mümkün değildir
  • Çoklu karşılaştırma sorunu: Bayesci yaklaşım, çoklu karşılaştırma düzeltmelerine (Bonferroni gibi) daha az ihtiyaç duyar çünkü parametrelerin son olasılık dağılımları doğrudan incelenebilir

Bayesci Yaklaşıma Yöneltilen Eleştiriler

Bayesci istatistik bazı önemli eleştirilerle de karşı karşıyadır:

  • Prior seçiminin öznelliği: Farklı araştırmacılar farklı priorlar seçebilir ve bu durum farklı sonuçlara yol açabilir. Jackson (2015), bu eleştirinin kısmen duyarlılık analizi (sensitivity analysis) ile karşılanabileceğini belirtir: Sonuçların farklı prior seçimlerine karşı ne kadar dayanıklı olduğu test edilir
  • Hesaplama yoğunluğu: MCMC örnekleme, özellikle karmaşık modellerde zaman alıcı olabilir
  • Yaygın kabul eksikliği: Birçok bilimsel dergi ve hakem hâlâ klasik istatistik çerçevesinde eğitim almıştır; Bayesci sonuçları değerlendirme konusunda deneyim eksikliği olabilir
  • Yanlış kullanım riski: Bilgilendirici priorların kasıtlı olarak istenilen sonucu destekleyecek şekilde seçilmesi (p-hacking'in Bayesci versiyonu) etik bir endişe oluşturur

Yazılım Seçenekleri

Bayesci analiz için çeşitli yazılım seçenekleri mevcuttur:

  • JASP (Bayesian modülü): Açık kaynak, kullanıcı dostu arayüz. Bayesci t-testi, ANOVA, korelasyon ve regresyon için yerleşik modüller içerir. Kodlama gerektirmez; başlangıç için ideal
  • R - brms paketi: Stan altyapısını kullanan, R formül sözdizimi ile Bayesci regresyon modelleri kurulmasını sağlayan güçlü bir paket. Doğrusal, genelleştirilmiş doğrusal, çok düzeyli ve çok değişkenli modelleri destekler
  • Stan: Yüksek performanslı Bayesci modelleme platformu. Hamiltonian Monte Carlo (HMC) örnekleme kullanır. R (rstan), Python (pystan) ve diğer dillerle entegre çalışır
  • WinBUGS/OpenBUGS: Bayesci modellemenin öncü yazılımları. MCMC tabanlı; grafik model tanımlama desteği vardır
  • Mplus (Bayesian tahmini): Yapısal eşitlik modellerinde Bayesci tahmin seçeneği sunar. Küçük örneklemli SEM uygulamaları için özellikle değerli

Bayesci Yaklaşımı Ne Zaman Tercih Etmeli?

Bayesci istatistik her durumda klasik yaklaşımın yerine geçmeyi amaçlamaz. Ancak belirli koşullarda özellikle tercih edilmelidir:

  1. Güçlü önceki bilgi mevcutsa: Alanda çok sayıda çalışma yapılmışsa ve bu bilgiyi modele dahil etmek istiyorsanız
  2. Küçük örneklem büyüklüğü: Nadir popülasyonlar veya pahalı veri toplama süreçleri nedeniyle örneklem sınırlıysa
  3. Sıfır hipotezi lehine kanıt gerekiyorsa: Bir etkinin olmadığını göstermek istediğiniz durumlarda (eşdeğerlik testleri)
  4. Karmaşık modeller: Çok düzeyli, çok değişkenli veya latent değişken içeren modellerde Bayesci tahmin daha kararlı olabilir
  5. Ardışık veri toplama: Klinik deneylerde olduğu gibi veri toplandıkça sonuçları güncellemek istiyorsanız

Bayesci Sonuçların Raporlanması

Bayesci analizlerin raporlanmasında şu unsurlar yer almalıdır:

  1. Model tanımı: Olabilirlik fonksiyonu ve prior dağılımlar açıkça belirtilmelidir
  2. Prior gerekçesi: Neden belirli bir prior seçildiği açıklanmalıdır (literatür, uzman görüşü, zayıf bilgilendirici)
  3. MCMC detayları: Zincir sayısı, iterasyon sayısı, ısınma dönemi, yakınsama göstergeleri (R-hat, ESS)
  4. Posterior özet: Parametre tahminleri (median veya ortalama), inanılırlık aralıkları (%95 CI veya HDI)
  5. Bayes faktörü: Hipotez karşılaştırması yapıldıysa BF₁₀ değeri ve yorumu
  6. Duyarlılık analizi: Sonuçların farklı prior seçimlerine karşı dayanıklılığı

Örnek raporlama cümlesi: "Bayesci bağımsız örneklem t-testi sonuçlarına göre, deney grubunun başarı puanı (M = 78.3, SD = 12.1) kontrol grubundan (M = 71.5, SD = 11.8) anlamlı biçimde yüksektir. Fark parametresinin posterior ortalaması 6.8 (%95 HDI [2.1, 11.5]) olarak tahmin edilmiştir. Bayes faktörü BF₁₀ = 12.4, verinin H₁ lehine güçlü kanıt sunduğunu göstermektedir. Sonuçlar, zayıf bilgilendirici Cauchy prior (r = 0.707) ve bilgilendirici olmayan düz prior altında tutarlıdır (duyarlılık analizi BF₁₀ = 10.8-14.1)."

Sonuç

Bayesci istatistik, araştırma metodolojisinde giderek daha önemli bir yer edinmektedir. Kothari'nin (2004) vurguladığı gibi, istatistiksel yöntem seçimi araştırmacının felsefi konumlanmasından bağımsız düşünülemez; Bayesci yaklaşım, olasılığı öznel inanç derecesi olarak yorumlayan ve önceki bilgiyi modele resmi olarak dahil eden bir paradigma sunar. Bayes teoremi, ön olasılık ile yeni veriyi birleştirerek güncellenmiş bir inanca ulaştırır. İnanılırlık aralıkları güven aralıklarından daha sezgisel, Bayes faktörü ise p-değerinden daha bilgilendiricidir. MCMC örnekleme, karmaşık modellerde bile Bayesci çıkarımı pratik olarak uygulanabilir kılmıştır. Jackson'ın (2015) belirttiği gibi, modern araştırmacının araç çantasında hem klasik hem de Bayesci yöntemler bulunmalıdır; hangisinin kullanılacağı araştırma sorusuna, mevcut bilgiye ve verilerin doğasına bağlı olarak belirlenmelidir. Bayesci yaklaşımın yaygınlaşması, bilimsel bilginin kümülatif biçimde ilerlemesine önemli katkı sağlama potansiyeli taşımaktadır.

Kaynaklar

Jackson, S. L. (2015). Research methods and statistics: A critical thinking approach (5th ed.). Cengage Learning.Kothari, C. R. (2004). Research methodology: Methods and techniques (2nd ed.). New Age International.Bhome, S. M., Jha, J. K., et al. (2013). Research methodology. Himalaya Publishing House.Creswell, J. W. (2009). Research design: Qualitative, quantitative, and mixed methods approaches (3rd ed.). SAGE.

Yorumlar (0)

Yorum yapmak için giriş yapmalısınız.