İstatistik – Sosyal Bilimlerde İstatistik (10) – Olasılık İşlevini En Üst Düzeye Çıkarmak – İstatistik Nedir? – İstatistik Fiyatları – Ücretli İstatistik Yaptırma

On yılı aşkın süredir ödev yapma desteği veren Ödevcim Akademik, size İstatistiğin her alanında yardımcı olacaktır. Sosyal Bilimlerde İstatistik, İstatistik Nedir, İstatistik Fiyatları, Ücretli İstatistik Yaptırma, Analiz Yaptırma, Veri Analizi Yaptırma aramalarında sizde Ödevcim Akademik destek olsun istiyorsanız yapmanız gerekenler çok basit. Öncelikle İstatistik ile ilgili belgelerinizi akademikodevcim@gmail.com sayfamızdan gönderebilir ödevleriniz, tezleriniz, makaleleriniz ve projeleriniz ile ilgili destek alabilirsiniz.
Nihayetinde aynı sonuçları üreten alternatif bir görüş olarak, bireysel düzeyde, oylarımızın her birinin bir Bernoulli dağılımından kaynaklandığını ve bu nedenle olasılık fonksiyonumuzun n = 1, 067 Bernoulli’nin ürünü olduğunu düşünebiliriz.
Dağılımlar, bu durumda:
L (p | X) = (1 − p) olur.
Olası seçmenlerimiz hakkında oy vermeyi planladıkları kişiler hakkında hiçbir şey bilmediğimiz için, bireyleri “değiş tokuş edilebilir” olarak kabul edebiliriz ve çoğalmayı bireyler arasında gerçekleştirdikten sonra, olasılık fonksiyonunun bu versiyonu ilkine göre orantılıdır. iki terimli dağılımda, sadece kombinatoryal bir ifade ile farklılık gösterir. Bu ifade sadece eğriyi ölçeklendirir ve bu nedenle tahminimizi etkilemede sonuçta önemsizdir. Aşağıda bu sonuç gösterilmektedir: Üstteki şekil iki terimli dağılıma dayalı olabilirlik fonksiyonunu göstermektedir; alttaki şekil, Bernoulli dağılımına dayalı olasılık fonksiyonunu göstermektedir. İki işlev arasındaki tek fark, y ekseni ölçeğinde bulunabilir.
Olasılık İşlevini En Üst Düzeye Çıkarmak
Benzerlik fonksiyonunu kurduktan sonra parametreler için tahminleri nasıl elde ederiz? Tıpkı birçok pdf tek modlu değil ve dağıtım modundan eğimli olduğu gibi, olasılık fonksiyonunun da aynı şekilde görünmesini bekliyoruz. Yani bulmamız gereken şey bu eğrinin zirvesi. Analizden eğrinin eğiminin tepe noktasında 0 olması gerektiğini biliyoruz. Bu nedenle, olasılık fonksiyonunun parametreye göre türevini almalı, 0’a eşit ayarlamalı ve eğrinin maksimuma ulaştığı x koordinatını (parametre değeri) bulmalıyız.
Genelde, farklılaşmadan önce olabilirlik fonksiyonunun logaritmasını alırız, çünkü log fonksiyonu tekrarlanan çarpımı tekrarlanan toplamaya dönüştürür ve tekrarlanan toplamayla çalışmak çok daha kolaydır. Log-likelihood, orijinal işlevle aynı noktada maksimuma ulaşır. Genel olarak:
Log-Olabilirlik ≡ LL (θ | X) = ln (f (xi | θ)).
Özel sorunumuz için:
LL (p | x) ∝556 lnp + 511 ln (1 − p).
Bu log-olabilirlik fonksiyonunun maksimuma ulaştığı p’nin değerini bulmak için, fonksiyonun p’ye göre türevini almalı, 0’a eşitlemeli ve p’yi bulmalıyız. Genel olarak, bir iki terimli log-olabilirlik fonksiyonunun türevi şöyledir:
dLL xi n − xi
Bu türevi 0’a eşitlersek ve p için çözersek, şunu elde ederiz:
n − x x
Verimliliği basitleştirmek:
pˆ = x formülüyle sağlanır.
Bu sonuç, p için maksimum olasılık tahmininin basitçe gözlemlenen başarı oranı olduğunu göstermektedir. Örneğimizde, bu, Kerry veya Bush’u seçenlerin arasından Kerry için potansiyel oyların oranıdır (burada, 556/1067 = .521). P için bu değerin bir tahmin olduğu göz önüne alındığında, tipik olarak onu p yerine pˆ olarak belirtiriz.
Bu tahmin sürecini grafiksel olarak göstermektedir. Şekil, hem olabilirlik fonksiyonunun hem de log-olabilirlik fonksiyonlarının aynı noktada zirve yaptığını göstermektedir. Yatay çizgiler, bu çizgilerin eğimlerinin 0 olduğu eğriye teğet çizgilerdir; maksimum işlevdedirler. Eğrilerin maksimum değerlerine ulaştığı karşılık gelen x koordinatı, maksimum olabilirlik tahminidir (MLE).
Standart Hataları Elde Etmek
pˆ bir tahmindir ve herhangi bir örnekte popülasyon parametresi p’ye eşit olması garanti edilmez. Bu nedenle, p ile p’yi örneklemimizden tahmin ederken belirsizliğimizi ölçmek için bir yola ihtiyacımız var. Log-olabilirliğin güzel bir ek özelliği, log-olabilirlik fonksiyonunun ikinci türevinin bir fonksiyonunun, örnekleme dağılımının varyansını tahmin etmek için kullanılabilmesidir (karekökü “standart hata” olarak adlandırılır). 5 Spesifik olarak, log-olabilirlik fonksiyonunun ikinci türevinin negatif beklenen değerinin tersini almalıyız.
Matematiksel olarak:
Ben (θ) −1 = −E ∂θ∂θT
Burada θ bizim parametremiz veya parametre vektörümüzdür ve I (θ) “bilgi matrisi” olarak adlandırılır. Bu matrisin köşegen elemanlarının kare kökü, parametre standart hatalarıdır. I (θ) −1 aşağıdaki adımlar kullanılarak hesaplanabilir:
- 1. Kayıt olma olasılığının ikinci kısmi türevlerini alın. Çok parametreli modeller, bu kısmi türevlerin bir matrisini (Hessian matrisi olarak adlandırılır) üretir.
- 2. “Bilgi matrisi” I (θ) elde etmek için bu matrisin beklentisinin negatifini alın.
- 3. Parametrelerin varyans ve kovaryans tahminlerini elde etmek için bu matrisi ters çevirin (matrisin köşegen elemanlarının karekökünü alarak standart hataları elde edin).
I (θ) −1’in standart hataları içermesi sezgisel değildir. Fakat, ilk türevin bir noktadaki bir fonksiyonun eğiminin bir ölçüsü olduğunu (o noktada fonksiyondaki değişim oranı) ve ikinci türevin eğimdeki değişim oranının bir ölçüsü olduğunu hatırlarsanız, ikinci türevi eğrinin eğrilik oranını gösteren bir şey olarak düşünün. O halde çok dik bir eğri, ikinci türevini büyük kılan çok yüksek bir eğrilik oranına sahiptir. Böylece, onu tersine çevirdiğimizde standart sapmayı küçültür.
Öte yandan, çok sığ bir eğri, ikinci türevini küçük yapan çok düşük bir eğrilik oranına sahiptir. Küçük bir sayıyı ters çevirdiğimizde, standart sapmayı büyük yapar. İkinci türevi değerlendirdiğimizde, tahminde standart hatayı elde etmek için parametre için MLE tahminini sonuca koyduğumuzu unutmayın.
Eldeki verilerimize dönersek, jenerik binom log-olabilirlik fonksiyonunun p’ye göre ikinci kısmi türevi şudur:
∂2LL x n − x / ∂p2 = p2 – (1 − p) 2.
Beklentileri almak getiri sağlar:
∂2LL x n − x / ∂p2 = E − p2 – (1 − p) 2.
Bu ifadelerin beklentisi, x / n beklentisinin p olduğu fark edilerek hesaplanabilir (başka bir deyişle: E (pˆ) = p). Böylece:,
∂2LL np n − np / ∂p2 = −p2 – (1 − p) 2.
Bazı basitleştirme getirileri:
E = ∂2LL n / ∂p2 = −p (1 – p).
Bu noktada, beklentiyi reddedebilir, tersine çevirebilir ve aşağıdakileri elde etmek için MLE’de (pˆ) değerlendirebiliriz:
Ben (p) – 1 = pˆ (1 – pˆ).
Bunun karekökünü almak, tahmini standart hatayı verir. Bizim yoklama verisi durumu, standart hata sayılır. Sorumuzun Kerry’nin Ohio’daki oylamayı kazanıp kazanmayacağı olduğunu hatırlayın.
Ohio nüfusu oranının Kerry’ye (Bush’a karşı) oy vermesi için tahminimiz .521 idi, bu da Ohio’da halk oylamasını kazanacağını gösteriyor (üçüncü parti adayları azaltarak). Ancak, bu tahminin standart hatası .015’tir. MLE için% 95’lik bir aralık elde etmek için her zamanki güven aralığımızı maksimum olasılık tahmini etrafında oluşturabiliriz.
Bunu yaparsak, [.492, .550] (CI = pˆ ± 1.96 × s.e. (pˆ)) aralığını elde ederiz. Bu aralıktaki alt sınırın 0,5’in altında olduğu göz önüne alındığında, hükmedemeyeceğimiz sonucuna varabiliriz
Kerry’nin Ohio’daki halk oylamasını kazanmayacağı ihtimalini ortadan kaldırdık. Bu soruyu yanıtlamak için güven aralığı yaklaşımına bir alternatif, sıfır hipotezi H0: p <.5 olan bir t testi oluşturmaktır.
On yılı aşkın süredir ödev yapma desteği veren Ödevcim Akademik, size İstatistiğin her alanında yardımcı olacaktır. Sosyal Bilimlerde İstatistik, İstatistik Nedir, İstatistik Fiyatları, Ücretli İstatistik Yaptırma, Analiz Yaptırma, Veri Analizi Yaptırma aramalarında sizde Ödevcim Akademik destek olsun istiyorsanız yapmanız gerekenler çok basit. Öncelikle İstatistik ile ilgili belgelerinizi akademikodevcim@gmail.com sayfamızdan gönderebilir ödevleriniz, tezleriniz, makaleleriniz ve projeleriniz ile ilgili destek alabilirsiniz.
İstatistik – Sosyal Bilimlerde İstatistik (10) – Olasılık İşlevini En Üst Düzeye Çıkarmak – İstatistik Nedir? – İstatistik Fiyatları – Ücretli İstatistik Yaptırma Olasılık İşlevini En Üst Düzeye Çıkarmak Standart Hataları Elde Etmek