Tezin Türü: Doktora
Tezin Yürütüldüğü Kurum: Marmara Üniversitesi, İktisat Fakültesi, Ekonometri Bölümü, Türkiye
Tezin Onay Tarihi: 2010
Tezin Dili: Türkçe
Öğrenci: ÜRÜN ERBAŞ
Danışman: AHMET METE ÇİLİNGİRTÜRK
Özet:Termodinamik yasaları enerjinin fiziksel sistemler arasında, ısı ya da iş transferi aracılığıyla değişebilir olduğunu ve aynı zamanda entropi isimli bir niceliğin var olduğunu varsayar. Termodinamiğin ikinci yasasında ortaya çıkan entropi kavramı, bir şeyin herhangi bir durumda bulunabilme olasılığı olarak tanımlanır. Entropi kelimesi termodinamik literatüründe ortaya çıkmış olmasına rağmen, Claude E. Shannon tarafından tasarlanan bilgi kavramı ile ilişkisi nedeniyle, kullanımı hemen hemen tüm disiplinlerin içine girmiştir. Bir araştırmadan elde edilebilecek veri seti içinde her türlü ölçme düzeyinde sorulmuş soruların/gözlemlerin sonuçları mevcut olabilir. Gözlem sonuçlarının sayısal değerlerle ifade edilemediği ölçüm düzeylerinde yapılabilecek istatistiksel analizler sınırlıdır. Hangi ölçme düzeyinde ölçülmüş olursa olsun, elde edilen sonuçlar olasılıklar biçiminde ifade edilebiliyorsa değişkenler için entropi değerleri hesaplanabilir. Entropi ölçüsü tek bir değişken için hesaplanabileceği gibi, iki değişken arasındaki bağımlılığın araştırılmasında da kullanılabilir. Bu çalışmanın amacı, faktör analizinin ilk aşamasında, gözlemlenen değişkenlerin bağımlılığını ölçmek için değişkenler arasındaki korelasyonlar yerine, korelasyonun sahip olduğu zayıflıklara sahip olmayan ve her türlü ölçme düzeyinde ölçülmüş veriler için hesaplanabilen entropik bağımlılık ölçüsünden yararlanmak, değişkenlere ait entropi değerleri ile kurulan bir “birleşik entropi” matrisi kullanmak ve bu matris yardımıyla boyut indirgemenin sağlanıp sağlanamayacağını belirlemektir. hSUMMARY The laws of thermodynamics postulate that energy can be exchanged between physical systems as heat or work. They also postulate the existence of a quantity named entropy. Entropy appears in second law of thermodynamics and is defined as probability of being in any situtation of something. Although “entropy” word originated in the literature on thermodynamics, its usage has penetrated almost all disciplines due to its association with the concept of information as envisaged by Claude Shannon. Results of a survey may include both quantitative and qualitative data. Statistical analyses are limited when the results can not be expressed with quantitative values. Whatever their levels of data measurement, if the results can be changed into probabilities, entropy can be calculated. Entropy can be calculated for one variable and also used in researching dependence between two variables. The purpose of this study is to use entropy in measuring dependence between variables instead of correlation coefficients at the first level of factor analysis and determine if data reduction is possbile or not with entropy.