Vaka İncelemesi Nedir? (34) – ESNEK ARAŞTIRMADA VERİ ANALİZİ – VERİ ANALİZİ VE YORUMLAMA – Ücretli Vaka İncelemesi Yaptırma

On yılı aşkın süredir ödev yapma desteği veren Ödevcim Akademik, size Vaka incelemesi yapmakta yardımcı olacaktır. Vaka İncelemesi yaptırma konusunda sizde Ödevcim Akademik destek olsun istiyorsanız yapmanız gerekenler çok basit. Öncelikle vaka incelemesi ve ödevlerinizle ilgili belgelerinizi akademikodevcim@gmail.com sayfamızdan gönderebilir ödevleriniz, tezleriniz, makaleleriniz ve projeleriniz ile ilgili destek alabilirsiniz.
ESNEK ARAŞTIRMADA VERİ ANALİZİ
Analiz sırasında, verilerin ne zaman toplanacağını beklemediğiniz yeni içgörüler bulunabilir. Bu içgörüleri araştırmak için, sık sık yeni veriler toplanmalı ve görüşme anketleri gibi araçlar güncellenmelidir. Yeni bulgular analizi etkilediğinden, veri toplama teknikleri sürekli olarak güncellenebilir ve aynı zamanda bir kanıt zincirini sürdürmek gerekir. Bu, araştırmacı için sistematik olmanın ve sonuçların okuyucularına kanıt zincirini iletebilmenin önemli bir zorluk olduğu anlamına gelir.
Bu tür verilerin analizi, yukarıda açıklandığı gibi, yinelemelerle karakterize edilir; bu, yalnızca veri toplamadan analize değil, aynı zamanda veri analizinden veri toplamaya da geçmenin gerekli olduğu anlamına gelir. Aynı şey raporlama ve analiz arasındaki ilişki için de söylenebilir. Raporlamadan analize veya veri toplamaya geri dönmek gerekli olabilir. Bu, analizdeki ana adımları, yani veri toplama ve raporlama arasındaki adımları gösteren Şekil 5.1’de yüksek düzeyde gösterilmektedir.
Nitel analiz, Robson’un kılavuzlarına göre yinelenebilir. Önce veriler kodlanır, yani metnin bazı kısımlarına belirli bir temayı, alanı, yapıyı vb. Temsil eden bir kod verilir. Bir kod genellikle birçok metin parçasına atanır ve bir metin parçasına birden fazla kod atanabilir. Kodlar, bir kod ve alt kod hiyerarşisi oluşturabilir. Kodlanmış materyal, araştırmacı tarafından yapılan yorumlar ve düşüncelerle birleştirilebilir (örneğin, notlar).
Bu yapıldığında, araştırmacı ilk hipotez grubunu belirlemek için materyalin üzerinden geçebilir. Bu, örneğin, materyalin farklı bölümlerinde benzer ifadeler, verilerdeki modeller, alt grup gruplar arasındaki farklılıklar vb. olabilir. Tanımlanan hipotezler daha sonra sahada daha fazla veri toplama yapıldığında kullanılabilir, yani veri toplama ve analizin paralel olarak yürütüldüğü yinelemeli bir yaklaşımla sonuçlanır. Yinelemeli süreç sırasında küçük bir genelleme seti formüle edilebilir ve sonunda araştırmanın nihai sonucu olan resmileştirilmiş bir bilgi birikimi elde edilir. Bu, aşağıda belirtildiği gibi, basit bir adım dizisi değildir. Bunun yerine, yinelemeli olarak yürütülürler ve birbirlerini etkilerler.
Hipotezlerin belirlendiği faaliyet biraz daha fazla bilgi gerektirir. Bu, ayrıntılı, “mekanik” bir yaklaşımla gerçekleştirilebilecek basit bir adım değildir. Bunun yerine, araştırmacının genelleme ve yenilikçi düşünme vb. Yeteneğini gerektirir. Nicel analizde ise araştırmacının yenilikçi ve analitik çalışmalarının çoğu planlama aşamasındadır (yani tasarıma karar verme, istatistiksel testler vb.). Elbette, nicel verilerin analizinde yenilikçi çalışmaya da ihtiyaç vardır, ancak bu, tasarım aşamasında olduğu kadar net değildir. Nitel analizde, her iki aşamada da yenilikçi ve analitik çalışmalar için büyük ihtiyaçlar vardır.
Bireysel araştırmacıların önyargısını azaltmak için, analiz birden çok araştırmacı tarafından yürütülmekten yararlanır. Her bir araştırmacının ön sonuçları daha sonra ortak bir analiz sonucu olarak birleştirilir. İşbirliği planını takip etmek ve raporlamak, çalışmanın geçerliliğini artırmaya yardımcı olur. Grup halinde çalışarak sadece araştırmacı önyargısına göre geçerlilik geliştirilmez. Diğer zorlu görevlerde olduğu gibi, birden fazla araştırmacının yer alması durumunda analizde daha yenilikçi olmak da mümkündür.
Bu analiz sürecine bazen temelli teori analizi adı verilir. Terim daha sonra “verilerin niteliksel analizinden türetilen teorik yapıları” belirtmek için daha “genel anlamda” kullanılır.
Yazılım mühendisliğine uygulanan Kasurinen ve ark. temelli teori analizinin adımlarını tanımlayın:
Temel teori yöntemi üç veri analizi adımı içerir: kategorilerin ve ilgili kodlarının verilerden çıkarıldığı açık kodlama; kategoriler ve kodlar arasındaki bağlantıların tanımlandığı eksenel kodlama; ve çekirdek kategorinin tanımlandığı ve açıklandığı seçici kodlamadır.
Süreç, literatüre dayalı olarak temel paydaşları ve bilinen olguları içeren “tohum kategorileri” ile başlamıştır. Denizci, ilk kod setinin (tohum kategorileri) çalışmanın amaçlarından, araştırma sorularından ve önceden tanımlanmış ilgi değişkenlerinden geldiğini belirtir. Bu, yukarıda açıklanan sürece benzerdir, ancak ikili tanımından dolayı “temelli teori” terimini sık sık kullanmaktan kaçınılır.
Biçimlilik Düzeyi
Nitel analizde yapılandırılmış bir yaklaşım önemlidir. Bu, örneğin, analiz için önceden planlanmış bir yaklaşımın uygulanması gereken her durumda, araştırmacı tarafından alınan kararların kaydedilmesi, enstrümantasyonun tüm versiyonlarının saklanması, veriler, kodlar ve notlar arasındaki bağlantıların açıkça kaydedilmesi ve belgelenmesi gerektiği anlamına gelir. , ve bunun gibi.
Bununla birlikte, analiz farklı biçimcilik seviyelerinde yapılabilir. Robson aşağıdaki yaklaşımlardan bahseder:
Daldırma yaklaşımları. Bunlar, çok düşük bir yapıya sahip, en az yapılandırılmış yaklaşımlardır, daha çok araştırmacının sezgi ve yorumlama becerilerine bağlıdır. Bu yaklaşımların, bir kanıt zincirinin tutulması ve iletilmesi konusundaki gereksinimlerle birleştirilmesi zor olabilir.
Yaklaşımları düzenleme. Bu yaklaşımlar birkaç önsel kod içerir, yani kodlar analiz sırasında araştırmacının bulgularına göre tanımlanır.
Şablon yaklaşımları. Bu yaklaşımlar daha resmidir ve araştırma sorularına dayalı daha a priori içerir.
Yarı-istatistiksel yaklaşımlar. Bu yaklaşımlar çok formelleştirilmiş ve örneğin kelimelerin ve kelime öbeklerinin sıklıklarının hesaplanmasını içerir.
Deneyimlerimize göre, düzenleme yaklaşımları ve şablon yaklaşımları, yazılım mühendisliği vaka çalışmalarına uygundur. Gayri resmi daldırma yaklaşımlarında net bir kanıt zinciri sunmak ve elde etmek zordur. Örneğin, belgelerde ve röportajlarda kelimelerin sıklıklarının sonucunu yorumlamak da zordur. Deneyimlerimize göre, düzenleme yaklaşımları ve şablon tabanlı yaklaşımlar, yazılım mühendisliği vaka çalışmalarında yaygın olarak kullanılan yaklaşımlardır. Örneğin, önceki örnekte sunulan XP çalışması bir düzenleme yaklaşımı uygulanmıştır.
Diğer tüm araştırmalarda olduğu gibi yazılım mühendisliği araştırmalarında da verileri diğer iki teknikle analiz etmek elbette mümkündür, ancak daha önceden daldırma yaklaşımından daha çok bilindiği ve verilerin daha önceden bilindiği durumlarda düzenleme yaklaşımları ve şablon temelli yaklaşımlar uygundur. yarı istatistiksel analiz için uygun değildir. Bu nedenle bu bölüm şablon yaklaşımlarına ve düzenleme yaklaşımlarına odaklanmıştır.
Örnek :
Çalışma XP’si bir düzenleme yaklaşımı kullandı. Analiz, analiz sırasında genişletilen ve değiştirilen bir dizi kodla başlamıştır. Örneğin, “iletişim” kodu dört koda ayrıldı: “yatay iletişim”, “dikey iletişim”, “iç iletişim” ve “dış iletişim” kullanılmıştır.
On yılı aşkın süredir ödev yapma desteği veren Ödevcim Akademik, size Vaka incelemesi yapmakta yardımcı olacaktır. Vaka İncelemesi yaptırma konusunda sizde Ödevcim Akademik destek olsun istiyorsanız yapmanız gerekenler çok basit. Öncelikle vaka incelemesi ve ödevlerinizle ilgili belgelerinizi akademikodevcim@gmail.com sayfamızdan gönderebilir ödevleriniz, tezleriniz, makaleleriniz ve projeleriniz ile ilgili destek alabilirsiniz.
Biçimlilik Düzeyi Daldırma yaklaşımları ESNEK ARAŞTIRMADA VERİ ANALİZİ Şablon yaklaşımları verilerin analizi Yaklaşımları düzenleme Yarı-istatistiksel yaklaşımlar