İstatistik – Sosyal Bilimlerde İstatistik (77) – Algoritmanın Uygulanması – İstatistik Nedir? – İstatistik Fiyatları – Ücretli İstatistik Yaptırma

On yılı aşkın süredir ödev yapma desteği veren Ödevcim Akademik, size İstatistiğin her alanında yardımcı olacaktır. Sosyal Bilimlerde İstatistik, İstatistik Nedir, İstatistik Fiyatları, Ücretli İstatistik Yaptırma, Analiz Yaptırma, Veri Analizi Yaptırma aramalarında sizde Ödevcim Akademik destek olsun istiyorsanız yapmanız gerekenler çok basit. Öncelikle İstatistik ile ilgili belgelerinizi akademikodevcim@gmail.com sayfamızdan gönderebilir ödevleriniz, tezleriniz, makaleleriniz ve projeleriniz ile ilgili destek alabilirsiniz.
Burada ei, i’inci birey için M × 1 hata vektörüdür. Analizi tam olarak Bayesçi yapmak için, β ve on üzerinde bağımsız önseller varsaymak ve β öğeleri için uygunsuz tekdüze (U (−∞, ∞)) ve Σ için bilgi vermeyen bir önsel kullanmak yaygındır. Σ için yaygın bir bilgi vermeyen önsöz, Jeffreys’in öncesidir: p (Σ) ∝ | Σ | – (M + 1) / 2. Bu önceliklerle posterior basitçe:
- p (β, Σ | X, Y) ∝ | Σ | – (M + n + 1/2) olur.
S = n eieT, i = 1−1i T −1’in çapraz çarpımlarının toplamlarının M × M matrisidir. Hataları ve tr (SΣ) basitçe ei Σ ei’ye eşdeğer bir ifadedir. Bu şekilde yazıldığında, Σ (p (Σ | β, X, Y)) için koşullu dağılımın türetilmesi basittir: Ölçek matrisi S ve n serbestlik derecesi ile ters Wishart olarak da tanınabilir.
Β için koşullu posterior dağılımı elde etmek o kadar basit değildir. Bununla birlikte, Zellner (1962) ve diğerleri (örneğin, Gelman ve diğerleri 1995; Judge ve diğerleri 1985), Denklem 10.1’deki çok değişkenli regresyon modelinin, Y ve e sütunlarının olabileceği tek değişkenli bir regresyon olarak yeniden yazılabileceğini göstermiştir. “Yığılmış” (buna matris cebirinde “vec ()” operatörü denir), böylece Y, e gibi n × M yerine Mn × 1 olur. β ayrıca Mk × 1 olarak istiflenebilir ve X matrisi, çok değişkenli model için aşağıdaki alternatif spesifikasyonu elde etmek için bir blok-diyagonal matris olarak yapılandırılabilir.
Bu gösterimde Xm, n × k matris X’in m. Tekrarıdır. Bununla birlikte, Xi ≡ Xj için gerekli değildir – yani Xi ve Xj farklı sayıda değişken içerebilir – ancak tüm denklemlerde aynı X matrisi kullanılırsa, ileride göreceğimiz gibi programlama nispeten basit hale getirilebilir. . Regresyon katsayıları için çözüm de şudur:
- βˆ = (XT Ω − 1X) −1 (XT Ω − 1Y),
bu basitçe genelleştirilmiş en küçük kareler (GLS) tahmin edicisidir. Standart hata bu durumda (XTΩ − 1X) −1’dir. Βˆ için GLS çözümü, seçtiğimiz bilgilendirici olmayan önceliklerle Bayes analizinde β için beklenen değerle aynıdır ve bu nedenle regresyon katsayıları için koşullu posterior dağılım şöyledir:
- f (β | Σ, X, Y) ∼MVN ((XTΩ − 1X) −1 (XTΩ − 1Y), (XTΩ − 1X) −1). (10.6)
Bu dağılımda, Ω = Σ ⊗ In (ve Ω − 1 = Σ − 1 ⊗ In), burada ⊗, Kronecker çarpımını ve In, n-boyutlu özdeşlik matrisidir. A ve B matrislerinin Kronecker çarpımı farklı şekilde tanımlanır. Yani, birinci matrisin her bir elemanı, ikinci matrisin tamamı tarafından o elemanın katları ile değiştirilir. Dolayısıyla, eğer A matrisi I × J ve B matrisi R × C ise, Kronecker çarpımı A⊗B’nin sonucu IR × JC olacaktır.
Matematiksel olarak, regresyon katsayıları için çok değişkenli regresyon çözümü basit görünüyor ve bir Gibbs örnekleyici, iki adımın kolay bir tekrarı gibi görünüyor:
(1) Regresyon parametrelerini Denklem 10.3’te tanımlanan koşullu arka dağılımlarından simüle edin ve
(2) Adım (1) ‘den sonra elde edilebilen hata çapraz ürün matrisini kullanarak, uygun ters Wishart dağılımından sim’yi simüle edin.
Ne yazık ki, bu Gibbs örnekleyicisini tipik sosyal bilim verileriyle uygulamak, matrisinin boyutu nedeniyle o kadar kolay değildir. Örnek boyutu küçük olduğunda regresyon parametrelerini simüle etmek basittir. Bununla birlikte, örneklem boyutu büyük olduğunda, Ω matrisi kullanışsız hale gelir.
Örneğin, Bölüm 7’deki OLS regresyon örneğinde, örneklem büyüklüğü n = 2, 313’tür (eksik verilerin olduğu durumlar liste halinde silinmiştir) ve sonucun boyutluluğu M = 4’tür. Dolayısıyla, Ω matrisi, 2, 313 × 2, 313 matrisli 4 × 4 matrisin Kronecker çarpımı – 9, 252 × 9, 252 matris olur.
Bu matris, 85 milyondan fazla elemana sahiptir ve bu, doğrudan işlemesi sayısal olarak imkansızdır. İlk olarak, bu boyuttaki bir matris için bellek gereksinimleri bilgisayarın ve / veya yazılımın kapasitesini aşabilir (bu matris 680 Mb bellek gerektirecektir). İkincisi, bu boyutta bir matris oluşturabilsek bile, bu matrisle tekrarlanan hesaplamalar yapmak, Gibbs örnekleyicisini çalıştırmak için gereken süre açısından son derece maliyetli olacaktır. Peki nasıl devam edebiliriz?
Burada M, sonucun boyutudur, böylece her β bir vektördür; σij, Σ − 1’in (i, j). elementidir; Xm, m’inci denklem için X matrisidir; ve Yi, i sonucu için n × 1 vektörüdür.
Xi ≡ Xj, ∀i ̸ = j ise – yani, tüm denklemlerde aynı regresörler kullanılır – ilk matris Σ − 1 ⊗ (XT X) ‘e indirgenebilir. Bu ifade bir Kronecker ürününün kullanımını içermesine rağmen, ilgili matrisler aşırı derecede büyük değildir. Σ − 1, M × M’dir ve XT X, k × k’dir ve bu nedenle Kronecker çarpımı yalnızca Mk × Mk’dir. OLS regresyon örneğinde, bu çok yönetilebilir bir matris boyutu olan (4) (9) × (4) (9) olacaktır.
Denklem 10.8’deki son terim, hesaplamayı basitleştirmek için biraz farklı yazılabilir. Y için orijinal n × M özelliğini kullanarak XT Y’yi hesaplarsak ve bunu Σ − 1 ile çarparsak, vec () operatörünü uygulayıp km × 1’e dönüştürmek için kullanabileceğimiz ak × M matrisiyle sonuçlanırız. kolon vektörü. Bu yaklaşım, denklemdeki son terimi verir.
Algoritmanın Uygulanması
Aşağıda modelden parametreleri simüle etmek için Gibbs örneklemesini uygulayan bir R programı bulunmaktadır.
Örnek, Bölüm 7’deki ile aynı örnektir (eksik veriler silinmiş olarak):
Çok değişkenli regresyon için #R programı x <-as.matrix (read.table (“c: \\ mvn_examp.dat”) [, 2:10]) y <-as.matrix (read.table (“c: \\ mvn_examp.dat “) [, 11:14])
d = 4; k = 9
b <-matris (0, (d * k)); s <-diag (d)
for (i in 2: 1000) {
# b mvn’den vb = çözüm (çöz (s)% x% (t (x)% *% x)) mn = vb% *% (as.vector (t (x)% *% y% *% t (çöz (ler))))
b = mn + t (rnorm ((d * k), 0,1)% *% chol (fi.))
# ters dilbilimden s çek e = matristen ((as. vektör (y) – (diag (d)% x% x% *% b)), nrow (y), d) v = t (e)% *% e
s = riwish (nrow (y) -1, v)
baskı (c (b [1], b [10], b [19], b [28], s [1,1], s [2,2], s [3,3], s [4,4 ])) yaz (c (t (b), t (s)), file = “c: \\ mvn2.out”, ncolumns = 52, append = T)}
On yılı aşkın süredir ödev yapma desteği veren Ödevcim Akademik, size İstatistiğin her alanında yardımcı olacaktır. Sosyal Bilimlerde İstatistik, İstatistik Nedir, İstatistik Fiyatları, Ücretli İstatistik Yaptırma, Analiz Yaptırma, Veri Analizi Yaptırma aramalarında sizde Ödevcim Akademik destek olsun istiyorsanız yapmanız gerekenler çok basit. Öncelikle İstatistik ile ilgili belgelerinizi akademikodevcim@gmail.com sayfamızdan gönderebilir ödevleriniz, tezleriniz, makaleleriniz ve projeleriniz ile ilgili destek alabilirsiniz.
Algoritmanın Uygulanması bağımsız önseller varsaymak İstatistik – Sosyal Bilimlerde İstatistik (77) – Algoritmanın Uygulanması – İstatistik Nedir? – İstatistik Fiyatları – Ücretli İstatistik Yaptırma regresyon katsayıları için çok değişkenli regresyon çözümü Β için koşullu posterior dağılımı