İstatistik – Sosyal Bilimlerde İstatistik (31) – Genel bir MH Algoritması – İstatistik Nedir? – İstatistik Fiyatları – Ücretli İstatistik Yaptırma

On yılı aşkın süredir ödev yapma desteği veren Ödevcim Akademik, size İstatistiğin her alanında yardımcı olacaktır. Sosyal Bilimlerde İstatistik, İstatistik Nedir, İstatistik Fiyatları, Ücretli İstatistik Yaptırma, Analiz Yaptırma, Veri Analizi Yaptırma aramalarında sizde Ödevcim Akademik destek olsun istiyorsanız yapmanız gerekenler çok basit. Öncelikle İstatistik ile ilgili belgelerinizi akademikodevcim@gmail.com sayfamızdan gönderebilir ödevleriniz, tezleriniz, makaleleriniz ve projeleriniz ile ilgili destek alabilirsiniz.
Genel olarak konuşursak, geniş veri kümeleri ve bu kitapta tartışılan modellerle sınır kısıtlamaları olsa da, bunlar genellikle çok fazla sorun teşkil etmezler: Bir parametrenin sınıra yaklaşması nadir bir olaydır. Bu nedenle, Şekil 5.3’teki gibi asimetrik bir öneri kullanarak verimlilik kazancı da genellikle minimumdur.
3. adıma dönersek, asimetrik öneriler kullanıldığında (veya ikinci veya üçüncü durumlarda asimetrik ortaya çıktığında), R oranındaki bir düzeltme faktörü asimetri için ayarlanmaya da yardımcı olur.
Bu düzeltme faktörü, 3. adımdaki oranın ikinci yarısıdır. Bu oranın ilk kısmı (“önem oranı” olarak adlandırılır) – f (θc) / f (θj − 1) – basitçe normalize edilmemiş posteriorun oranıdır. önceki parametre değerinde (θj − 1) değerlendirilen arka yoğunluğa aday parametre değerinde (θc) değerlendirilen yoğunluktur.
Oranın ikinci kısmı [α (θj − 1 | θc) / α (θc | θj − 1)] aday ve önceki noktalarda değerlendirilen teklif yoğunluklarının oranıdır. (A | b), zincirin b konumunda olduğu göz önüne alındığında, bir aday değer a’nın önerilme olasılığı (gerçekten, α’nın yoğunluk yüksekliği) anlamına gelir. Bu oran, asimetrik tekliflerle bazı aday değerlerin diğerlerinden daha sık seçilebileceği gerçeğine göre ayarlanır ve algoritmayı bir Metropolis algoritması olmaktan çok Metropolis-Hastings algoritması yapar.
4. adımda, bir U (0, 1) yoğunluğundan bir u çekme simülasyonunu yapıyoruz ve bunu oranımızla karşılaştırıyoruz. Eğer R> u ise, adayı arka yoğunluğumuzdan bir çekme olarak kabul ediyoruz p (.). Aksi takdirde, önceki parametre değerini koruruz. Bu adımı biraz ayrıntılı olarak ele alalım. Bu adımın sıklıkla sunulmasının alternatif bir yolu, “adayı min (R, 1) olasılıkla kabul et” demektir (Johnson ve Albert 1999). Bu gösterimde, olasılıkların 1’i geçemeyeceğini belirtmek için “min” işlevi bir formalite olarak dahil edilmiştir.
Böylece, yine, karşılaştırma R ve bazı rasgele olasılıklar arasındadır (dolayısıyla, U (0,1) rasgele çekme u). R 1’den büyükse, aday kabul edilecektir. R büyükse, ancak 1’den küçükse, aday neredeyse kesinlikle kabul edilecektir. R küçükse, aday ara sıra / nadiren kabul edilecektir. Son olarak, eğer R 0 ise, aday kabul edilmeyecektir. Bu adım, kabul edilen adayların faiz dağılımından gelmesini sağlar, p (.).
Gibbs ve MH örneklemesi arasındaki ilişki
Tahmin edebileceğiniz gibi, Gibbs örneklemesi ve MH benzetimle ilgili yaklaşımlardır. İlk olarak, Gibbs örnekleyici, her bir parametre / rastgele değişken için teklif yoğunluklarının tam koşullu olduğu MH algoritmasının özel bir durumu olarak görülebilir. Gibbs örneklemesinde her aday seçilir; adayların reddi yoktur. Bunun nedeni, R oranının her zaman 1 olmasıdır. Neden bu oran her zaman 1 olmalıdır? R oranının bileşenlerini düşünün:
- R = f(θc)α(θj−1|θc) / f(θj−1)α(θc|θj−1)
Paydaki ilk terim, aday değerde değerlendirilen posterior dağılımdır. Paydaki ikinci terim, mevcut noktada olduğumuz göz önüne alındığında, bir önceki noktaya geri dönme olasılığıdır. Paydada, ilk ifade bu ikinci değere eşdeğerdir, çünkü teklif yoğunluğu zaten parametre için tam koşulludur. Benzer şekilde paydadaki ikinci ifade, paydaki ilk terime eşdeğerdir. Böylece f (θc) = α (θc | θj − 1) ve bunun tersi de geçerlidir. Parametre min (1, R) olasılıkla kabul edildiğinden ve R = 1 olduğu her zaman doğru olduğundan, her çekiliş kabul edilir.
% 100 kabul oranı, Gibbs örnekleyicisini daha verimli hale getirir ve bu nedenle, ters çevirme örnekleme yönteminin reddetme örnekleme yönteminden daha verimli olması gibi, genellikle MH algoritmalarından daha hızlıdır. Bununla birlikte, daha önce bahsedildiği ve kitapta daha sonra tartışıldığı gibi, MH algoritmasının daha verimli olduğu ve Gibbs örneklemesini uygulamanın zorluğunun – koşulların türetilmesi açısından – verimliliğini geçersiz kıldığı durumlar da vardır. Bazen rasgele yürüyen bir metropol algoritması kullanmayı ve karmaşık koşulluları türetmek ve bilgisayarın daha az çalışmasına izin vermek için daha yoğun bir şekilde çalışmasına göre bilgisayarın daha yoğun çalışmasına izin vermeyi daha kolay buldum!
Gibbs örneklemesi ve MH örneklemesi arasındaki ikinci bir bağlantı, çok değişkenli yoğunluklardan örnek almak için birleştirilebilmeleridir. Gibbs örneğinin eklem yoğunluğunu koşullu yoğunluklara böldüğünü hatırlayın. Önceki bölümde, bir örnekte ters çevirme yöntemini ve sonraki örnekte reddetme örneklemesini kullanarak her koşulludan örnek aldık.
Farklı koşullardan örnekleme yapmak için farklı örnekleme yöntemlerini kullanmamamızın doğal bir nedeni yoktur; örneğin, x | y’den örnekleme için ters çevirme örneklemesini ve y | x’ten örnekleme için reddetme örneklemesini kullanma. Aynı şekilde, koşullu dağıtımlardan birinden örnek almak için MH alt algoritmasını kullanmamamızın doğal bir nedeni yoktur. Bu yaklaşım “Gibbs içinde Metropolis” örneklemesi olarak adlandırılmıştır.
Genel algoritmayı tek tek güncellenen bileşen parametrelerine sahip bir MH algoritması olarak görürsek, bu tür bir hibrit yaklaşımı “Metropolis içindeki Gibbs” örneklemesi olarak da görebiliriz. Aslında, Gibbs örneklemesinin ilk etapta sadece MH örneklemesinin özel bir durumu olduğunu ve bu nedenle tüm algoritmanın her zaman bir MH algoritması olduğunu hatırlamalıyız!
MH algoritması, bir problemdeki tüm parametrelerin aynı anda güncellenmesini gerektirmediğinden, bir MH algoritmasında parametreleri birer birer güncellemek, MH örneklemesini Gibbs örneklemesi gibi gösterir. Bununla birlikte, MH algoritması Gibbs örnekleyicisinden iki önemli yönden de farklıdır.
İlk olarak, aday parametre, uygun koşullu dağılımdan değil, bir teklif yoğunluğundan geldiği için otomatik olarak kabul edilmez. İkinci olarak, teklif yoğunluğu, yukarıda tartışılan ret örnekleme rutininde olduğu gibi bir zarflama işlevi değildir. Kısacası, tüm Gibbs örneklemesi MH örneklemesidir, ancak tüm MH örneklemesi Gibbs örneklemesi değildir.
Bu yazının sonraki bölümlerinde tartışılan algoritmalardan bazıları Gibbs ve MH adımlarının karışımlarını içerecektir, bu nedenle bunların kombinasyonunun mümkün olduğunu ve hatta bazen bir veya diğer yaklaşıma arzu edilen bir alternatif olduğunu anlamak önemlidir. Sonraki bölümlerde sunulan modeller için, teknik olarak MH adımlarını içeren neredeyse tüm algoritmalar, simetrik önerileri içeren rastgele yürüyüş metropol algoritmaları olacaktır.
On yılı aşkın süredir ödev yapma desteği veren Ödevcim Akademik, size İstatistiğin her alanında yardımcı olacaktır. Sosyal Bilimlerde İstatistik, İstatistik Nedir, İstatistik Fiyatları, Ücretli İstatistik Yaptırma, Analiz Yaptırma, Veri Analizi Yaptırma aramalarında sizde Ödevcim Akademik destek olsun istiyorsanız yapmanız gerekenler çok basit. Öncelikle İstatistik ile ilgili belgelerinizi akademikodevcim@gmail.com sayfamızdan gönderebilir ödevleriniz, tezleriniz, makaleleriniz ve projeleriniz ile ilgili destek alabilirsiniz.
Bir parametrenin sınıra yaklaşması Bu düzeltme faktörü geniş veri kümeleri ve bu kitapta tartışılan modellerle Gibbs ve MH örneklemesi arasındaki ilişki İstatistik – Sosyal Bilimlerde İstatistik (31) – Genel bir MH Algoritması – İstatistik Nedir? – İstatistik Fiyatları – Ücretli İstatistik Yaptırma önceki noktalarda değerlendirilen teklif