İstatistik – Sosyal Bilimlerde İstatistik (43) – Biçimsel Karşılaştırma ve Birleştirme Modelleri – İstatistik Nedir? – İstatistik Fiyatları – Ücretli İstatistik Yaptırma

On yılı aşkın süredir ödev yapma desteği veren Ödevcim Akademik, size İstatistiğin her alanında yardımcı olacaktır. Sosyal Bilimlerde İstatistik, İstatistik Nedir, İstatistik Fiyatları, Ücretli İstatistik Yaptırma, Analiz Yaptırma, Veri Analizi Yaptırma aramalarında sizde Ödevcim Akademik destek olsun istiyorsanız yapmanız gerekenler çok basit. Öncelikle İstatistik ile ilgili belgelerinizi akademikodevcim@gmail.com sayfamızdan gönderebilir ödevleriniz, tezleriniz, makaleleriniz ve projeleriniz ile ilgili destek alabilirsiniz.
Dağılımın diğer uç ucunda (5,5 hücre), orijinal veriler 5 gözlemden oluşuyordu. İki modelin posterior öngörücü dağılımları, sırasıyla 0 ve .01 p değerleri ile .07 ve 1.6 gözlemi öngörmüştür.
Her iki model de bu hücredeki gözlemlerin sayısını hafife alıyor gibi görünüyor, ancak düzlemsel model daha az tahmin ediyor. Son iki test, iki değişkenli normal dağılımın, dağılımın kuyruklarındaki sayıları sürekli olarak olduğundan az hesapladığını, ancak düzlemsel dağılımın sadece biraz daha iyi olduğunu göstermektedir.
İki değişkenli tablonun her bir hücresi üzerinde benzer bir test yapabilirdik, ancak basit bir özet olarak, her iki model için de gözlemlenen ve arka tahmini dağılım hücre sayıları arasındaki korelasyonu hesapladım. Şekil 6.17, bu korelasyonların dağılımlarını göstermektedir. Düzlemsel dağılım modeli için gözlemlenen ve öngörücü hücre sayıları arasındaki ortalama korelasyon, düşük ila orta düzeyde bir korelasyon iken, iki değişkenli normal dağılım modeli için ortalama korelasyon 75 idi.
Genel olarak, posterior tahmin simülasyonunun sonuçları, her iki modelin de bu verilere özellikle iyi uymadığını göstermektedir. Normal dağılım, dağılımın kuyruklarındaki gözlemlerin sayısını sürekli olarak yetersiz kılar ve düzlemsel dağılım, veri dağılımının genel şekline uymada başarısız olur. Sonuçlar, iki modelden iki değişkenli normalin tercih edilmesi gerektiğini göstermektedir. Ancak, bu sonuç özellikle şaşırtıcı değildir. Düzlemsel yoğunluk modeli üç parametre içeriyordu ve iki değişken arasında bir ilişkiye izin vermedi. Öte yandan iki değişkenli normal model, biri iki değişken arasındaki ilişkiyi yakalayan beş parametreye sahipti.
Biçimsel Karşılaştırma ve Birleştirme Modelleri
Bayes Faktörleri
Hangisinin “en iyi” olduğunu belirlemek için genellikle iki veya daha fazla modeli karşılaştırmakla ilgileniyoruz. Bazen, en iyi modeli seçmek, eldeki veriler için daha iyi bir açıklama sağlayan iki rakip teoriden veya hipotezden hangisinin olduğunu belirlemek için stratejimiz olabilir. Bazen karşılaştırmak istediğimiz modeller iç içe geçmiş durumdadır; yani, bir model diğerinin özel bir durumudur. Bu gibi durumlarda, maksimum olasılık yöntemlerini kullanan klasik yaklaşım, iki model arasındaki “önemli” farklılıkları test etmek için bir reçete sağlar. Bununla birlikte, daha sık olarak, iç içe olmayan modelleri karşılaştırmamız gerekir. Modellerin karşılaştırılmasına yönelik gayri resmi, ancak esnek ve çok yönlü bir yaklaşım, önceki bölümde açıklandığı gibi posterior öngörücü simülasyonun kullanılmasıdır.
Yani, modelleri karşılaştırmak ve kriterleri en iyi karşılayan modeli seçmek için bir dizi kriter (örneğin, test istatistikleri) oluşturabiliriz. Aslında, sonuçta, model karşılaştırması iki modelin aynı verilere ne kadar iyi uyduğunu karşılaştırmaya dayanır ve artık analiz ve posterior tahmine dayalı simülasyon bize bir modelin verilere ne kadar iyi uyduğunu söyler.
Bayesci istatistik yaklaşımı, modelleri karşılaştırmak için daha resmi yöntemler de sunar. Bayes faktörlerinin kullanımı bunu yapmak için bir araçtır.
Karşılaştırmak istediğimiz parametreler θ1 ve θ2 olan iki M1 ve M2 modelimiz olduğunu varsayalım. Nihayetinde, bilmek istediğimiz şey, gözlemlediğimiz veriler göz önüne alındığında, her modelin son olasılığıdır – P (M | veri). Her biri için son olasılıklar verildiğinde, iki modelin karşılaştırması basit olacaktır:
- Posterior Oranlar = p (M1 | veri) / p (M2 | veri)
Bu denklemde, 1’den büyük olan son oranlar için bir değer, model 1’in tercih edildiğini gösterir; 1’den küçük bir değer, model 2’nin tercih edildiğini gösterir; ve 1’e eşit bir değer, her iki modelin de tercih edilebilir olmadığını gösterir.
Veriye verilen bir model için son olasılık, Bayes kuralı kullanılarak hesaplanabilir: Arka olasılıkların hem payı hem de paydası, p (M, veri) = p (veri | M) p (M) olacak şekilde bölünebilir. . [Veya koşullu olarak ifade edilir: p (M | veri) ∝ p (veri | M) p (M).] Ortaya çıkan oranın – p (M1) / p (M2) – ikinci yarısına “önceki her model için oranlar ”. Genel olarak, modeller için eşit öncelik olasılıkları belirleriz, bu da bu oranın 1 olduğu ve göz ardı edilebileceği anlamına gelir.
Oranın ilk bölümü – p (veri, M1) / p (veri, M2) – her modeldeki parametrik belirsizlik entegre edildikten sonra, veriler için marjinal olasılıkların oranıdır. Başka bir deyişle, verilerin marjinal olasılığı, arka yoğunluğun parametreler üzerindeki integralidir:
- p (y | Mi) = p (y | θi, Mi) p (θi | Mi) dθi.
Bu entegrasyon, Bayes faktörlerinin kullanımında önemli bir sınırlamadır; entegrasyon zordur. Entegrasyon, esasen, genellikle kolayca hesaplayamadığımız ve MCMC tahmini ile önleyebileceğimiz normalleştirme sabitini üretir. Raftery (1995), çoğu yazılım paketinde maksimum olasılık sonuçlarından standart çıktı kullanılarak oldukça kolay bir şekilde hesaplanabilen integrale (Bayes Bilgi Kriteri – BIC) bir yaklaşıklık gösterse de, sonuçlardan kolayca hesaplanamayabilir.
Ayrıca Bayes faktörü, her modeldeki parametreler için kullanılan öncelik seçimine oldukça duyarlıdır ve bu nedenle dikkatli kullanılmalıdır. Bu nedenlerle bu kitapta Bayes faktörünü tartışmıyorum. Bunun yerine, modelleri seçmek için posterior öngörücü kontrollerin esnekliğini ve kolaylığını tercih ediyorum ve bunlara odaklanıyorum.
Bayes Modeli Ortalama
Bayes istatistiklerinde oldukça yeni bir gelişme, Bayes faktörlerinin kullanımıyla teşvik edilen model seçim yaklaşımına bir yanıt (veya bunun uzantısı) olarak Bayes model ortalamasının ortaya çıkması olmuştur. Bayes faktörleri bir dizi modelden “en iyi” modeli seçmek için kullanılabilirken, model ortalama yaklaşımı esasen bir parametre hakkında çıkarım oluşturmak için bir model sınıfındaki tüm modelleri birleştirir.
Örneğin, J tahmin değişkenli bir OLS regresyon modelinde, Bayes faktör yaklaşımı, en iyi modeli (yani, en iyi tahmin kombinasyonunu) seçmek ve sonra bu modelin sonuçlarını çıkarım için kullanmak olacaktır.
Öte yandan, Bayes modeli ortalamaları model belirsizliği üzerinden – aslında hangi modelin en iyisi olduğuna kesin olarak emin olmamız gerçeği – bir model sınıfındaki tüm modellere önceki ağırlıkları atayarak ve marjinal bir arka dağılım üreterek ortalamaları alır. temelde tüm modellerde parametre için posteriorun ağırlıklı bir kombinasyonu olan parametre içindir;
- p (θ | y) = p (θ | Mj, y) p (Mj | y).
On yılı aşkın süredir ödev yapma desteği veren Ödevcim Akademik, size İstatistiğin her alanında yardımcı olacaktır. Sosyal Bilimlerde İstatistik, İstatistik Nedir, İstatistik Fiyatları, Ücretli İstatistik Yaptırma, Analiz Yaptırma, Veri Analizi Yaptırma aramalarında sizde Ödevcim Akademik destek olsun istiyorsanız yapmanız gerekenler çok basit. Öncelikle İstatistik ile ilgili belgelerinizi akademikodevcim@gmail.com sayfamızdan gönderebilir ödevleriniz, tezleriniz, makaleleriniz ve projeleriniz ile ilgili destek alabilirsiniz.
Bayes faktörlerinin kullanımı Bayes faktörlerinin kullanımında önemli bir sınırlama Bayes faktörü Bayes Modeli Ortalama Bayes modeli ortalamaları model belirsizliği İstatistik – Sosyal Bilimlerde İstatistik (43) – Biçimsel Karşılaştırma ve Birleştirme Modelleri – İstatistik Nedir – İstatistik Fiyatları – Ücretli İstatistik Yaptırma J tahmin değişkenli bir OLS regresyon modeli Veriye verilen bir model