تاريخ الفيزياء
علماء الفيزياء
الفيزياء الكلاسيكية
الميكانيك
الديناميكا الحرارية
الكهربائية والمغناطيسية
الكهربائية
المغناطيسية
الكهرومغناطيسية
علم البصريات
تاريخ علم البصريات
الضوء
مواضيع عامة في علم البصريات
الصوت
الفيزياء الحديثة
النظرية النسبية
النظرية النسبية الخاصة
النظرية النسبية العامة
مواضيع عامة في النظرية النسبية
ميكانيكا الكم
الفيزياء الذرية
الفيزياء الجزيئية
الفيزياء النووية
مواضيع عامة في الفيزياء النووية
النشاط الاشعاعي
فيزياء الحالة الصلبة
الموصلات
أشباه الموصلات
العوازل
مواضيع عامة في الفيزياء الصلبة
فيزياء الجوامد
الليزر
أنواع الليزر
بعض تطبيقات الليزر
مواضيع عامة في الليزر
علم الفلك
تاريخ وعلماء علم الفلك
الثقوب السوداء
المجموعة الشمسية
الشمس
كوكب عطارد
كوكب الزهرة
كوكب الأرض
كوكب المريخ
كوكب المشتري
كوكب زحل
كوكب أورانوس
كوكب نبتون
كوكب بلوتو
القمر
كواكب ومواضيع اخرى
مواضيع عامة في علم الفلك
النجوم
البلازما
الألكترونيات
خواص المادة
الطاقة البديلة
الطاقة الشمسية
مواضيع عامة في الطاقة البديلة
المد والجزر
فيزياء الجسيمات
الفيزياء والعلوم الأخرى
الفيزياء الكيميائية
الفيزياء الرياضية
الفيزياء الحيوية
الفيزياء العامة
مواضيع عامة في الفيزياء
تجارب فيزيائية
مصطلحات وتعاريف فيزيائية
وحدات القياس الفيزيائية
طرائف الفيزياء
مواضيع اخرى
Original Definitions
المؤلف:
Garnett P. Williams
المصدر:
Chaos Theory Tamed
الجزء والصفحة:
345
16-3-2021
1356
Original Definitions
Original definitions of redundancy came from information theory, long before chaos came along. Those definitions aren't exactly the same as the one used in chaos theory. In other words, the idea of redundancy as mutual information isn't the only concept of "redundancy" in the literature. However, most schools of thought, within both information theory (e.g. Shannon & Weaver 1949: 56) and chaos theory (e.g. Gershenfeld & Weigend 1993: 48), define redundancy in ways that are closely related to the "chaotic" ones. For background, let's take a quick look at how information theory usually defines redundancy. There are two ways. Each can be derived from the other.
The first definition is:
redundancy = the difference between some reference entropy and an actual or observed entropy. ......(1)
Depending on the circumstances or problem, we can choose different definitions for "actual entropy" and "reference entropy." For instance, for one system or variable, redundancy might be the difference between the maximum possible entropy (the reference entropy) and the actual or self-entropy, say HX. Maximum possible entropy occurs when the probability of every bin is the same; in that case it equals logNs, where Ns is the number of possible states or bins. Redundancy by the above definition then would be the difference between the reference entropy (here logNs) and self-entropy (here HX), or (logNs)-HX.
The second definition is a standardized version of the first definition. The standardization is done by dividing the basic difference by the reference entropy. That puts all redundancies within the range of 0 to 1. In the example just used, standardized redundancy becomes definition one divided by the reference entropy, or (logNs- HX)/logNs. That ratio, according to the rules of basic algebra, is (logNs/logNs)-(HX/logNs), or 1-(HX/logNs). Thus, the second definition of redundancy as used in information theory is:
redundancy = 1 -(actual entropy/reference entropy).
The ratio of the actual entropy to the reference entropy is a type of relative entropy (the ratio of one entropy to another).
الاكثر قراءة في مواضيع اخرى
اخر الاخبار
اخبار العتبة العباسية المقدسة

الآخبار الصحية
