İstatistiksel analizler gözlemlenen verilerin araştırmacı tarafından doğru bir şekilde yorumlanmasına yardımcı olan ve araştırmacının konu hakkında elde ettiği bilgi miktarını artıran yöntemlerdir. Araştırmacılar, gözlemlerden elde ettikleri bilgiyi yorumlamada kararsızlığa düşebilir. Bu karasızlığı belirlemede araştırmacılara kolaylık sağlayabilecek yöntemlerin önerilmesi önemlidir. Bu sayede araştırmacı çalışmanın dizaynını olumlu yönde değiştirebilir. Entropi ve informasyon, araştırmacılara gözlem sonrası elde ettikleri bilginin miktarını veya verideki düzensizliğin bir ölçüsünü göstermesi bakımından önemli kavramlardır. Amaç: Entropi ve enformasyon kavramları olasılık açısından değerlendirilerek entropi korelasyon katsayısının yorumlanmasıdır. Gereç ve Yöntemler: Çoğu uygulamada gözlemlenen veride olasılık sadece nispi frekansların yorumlanmasında kullanılmaktadır. Verideki ilgilenilen değişkenin gözlenen olayları ve bu olaylardan edinilen bilgi miktarına göre değişkenin entropisinin hesabı yapılmamaktadır. Çalışmada kullanılacak olan temel yöntem gözlemlenen olaylar yardımıyla tanımlanan değişkenlerin aralarında muhtemel olan ilişkilerin belirlenerek korelasyonlarının ortaya çıkartılmasıdır. Bulgular: Çalışmada elde edilen 2 önemli bulgudan birincisi regresyon hata teriminin entropisinin belirlenmesi, 2.si ise örnek üzerinde gösterilen ve aralarında zayıf ilişki bulunan 4 değişkenin ikişerli ortak entropilerinin yüksek olmasına rağmen ortak entropileri tanımlayan değişkenlerin korelasyonunun yüksek olarak bulunabilmesidir. Sonuç: Çok değişkenli veri yapısı söz konusu olduğunda değişkenlerin bazılarının lineer formu diğer değişkenlerin lineer bir formuyla ilişkili olabilir. Bu durumda 2 lineer formun korelasyonu yüksek olacaktır. Bunun tespit edilebilmesi lineer formların oluşturulması ile mümkündür. Böyle bir durumda entropi korelasyon katsayısı rahatlıkla kullanılabilir.
Anahtar Kelimeler: Entropi; informasyon; entropi korelasyon katsayısı; Kullback-Leibler divergence
Statistical analyzes are methods that help the researcher to interpret correctly and increase the amount of information obtained by the researcher. Researchers may be undecided in interpreting the information they obtain from observations. It is important to recommend methods that can facilitate researchers in determining this uncertainty. In this way, the researcher can positively change the design of the study. Entropy and information are important concepts in terms of showing researchers the amount of information they obtain after observation or a measure of the irregularity in the data. Objective: The aim of the study is to interpret the entropy correlation coefficient by evaluating the concepts of entropy and information in terms of probability. Material and Methods: In most applications, probability is used only in the interpretation of relative frequencies in the observed data. Relative frequencies are not used for entropy calculation. The main method to be used in the study is to determine the possible relationships between the variables identified with the help of observed events and to obtain their correlations. Results: The first of the two important findings obtained in the study is to determine the entropy of the regression error term, and the second is to find a correlation of the variables defining the common entropies among the four variables with weak correlations. Conclusion: In the multivariate data structure, the linear form of some variables may be related to the linear form of some other variables. In this case, the correlation of the two linear forms will be high. It is possible to detect this by creating linear forms. In such a case, the entropy correlation coefficient can be easily used.
Keywords: Entropy; information; entropy correlation coefficient; Kullback-Leibler divergence
- Shamilov A. Generalized entropy optimization problems and the existence of their solutions. Physica A: Statistical Mechanics and its Applications. 2007;382(2):465- 72. [Crossref]
- Joe H. Relative entropy measures of multivariate dependence. J Am Stat Assoc. 1989;84(405):157-64. [Crossref]
- Neemuchwala H, Hero A, Carson P. Image matching using alpha-entropy measures and entropic graphs. Signal Processing. 2005;85(2):277-96. [Crossref]
- Benesty J, Huang Y, Chen J. Time delay estimation via minimum entropy. IEEE Signal Processing Letters. 2007;14(3):157-60. [Crossref]
- Ye J. Multicriteria fuzzy decision-making method using entropy weights-based correlation coefficients of interval-valuedintuitionistic fuzzy sets. Applied Mathematical Modelling. 2010;34(12):3864-70. [Crossref]
- Macke JH, ManfrOpper M, Bethge M. Common input explains higher-order correlations and entropy in a simple model of neural population activity. Phys Rev Lett. 2011;106(20):208102. [Crossref] [PubMed]
- Liu LZ, Qian XY, Qian XY. Cross-sample entropy of foreign exchange time series. Physica A. 2010;389(21):4785-92. [Crossref]
- Eshima N, Tabata M. Entropy correlation coefficient for measuring predictive power of generalized linear models. Statistics & Probability Letters. 2007;77(6):588- 93. [Crossref]
- Eshima N, Tabata M. Three predictive power measures for generalized linear models: the entropy coefficient of determination, the entropy correlation coefficient and the regression correlation coefficient. Computational Statistics and Data Analysis. 2011;55(11):3049-58. [Crossref]
- Gilli P, Ferretti V, Gilli G. Enthalpy-entropy compensation in drug-receptor binding. J Phys Chem. 1994;98:1515-8. [Crossref]
- Kvalseth TO. Entropy and correlation: some comments. IEEE Transactions On Systems, Man, and Cybernetics. 1987;17(3):517-9. [Crossref]
.: Process List