من ويكيبيديا، الموسوعة الحرة
في نظرية المعلومات ، تحدد الإنتروبيا الشرطية (أو الالتباس equivocation ) كمية المعلومات اللازمة لوصف نتيجة متغير عشوائي
Y
{\displaystyle Y}
بالنظر إلى أن قيمة متغير عشوائي آخر
X
{\displaystyle X}
معروف. هنا، يتم قياس المعلومات في شانون، ناتس، أو hartleys. انتروبيا
Y
{\displaystyle Y}
مشروطة
X
{\displaystyle X}
مكتوب مثل
H
(
Y
|
X
)
{\displaystyle \mathrm {H} (Y|X)}
.
يوضح مخطط فين العلاقات المضافة والطرحية مقاييس المعلومات المختلفة المرتبطة بالمتغيرات المرتبطة
X
{\displaystyle X}
و
Y
{\displaystyle Y}
. المنطقة التي تحتوي عليها كلتا الدائرتين هي الانتروبيا المشتركة
H
(
X
,
Y
)
{\displaystyle \mathrm {H} (X,Y)}
. الدائرة على اليسار (الأحمر والبنفسجي) هي الإنتروبيا الفردية
H
(
X
)
{\displaystyle \mathrm {H} (X)}
، مع انتروبيا الحمراء إنتروبيا مشروطة
H
(
X
|
Y
)
{\displaystyle \mathrm {H} (X|Y)}
. الدائرة على اليمين (الأزرق والبنفسجي)
H
(
Y
)
{\displaystyle \mathrm {H} (Y)}
، مع المجال الأزرق
H
(
Y
|
X
)
{\displaystyle \mathrm {H} (Y|X)}
. البنفسج هو المعلومات المتبادلة
I
(
X
;
Y
)
{\displaystyle \operatorname {I} (X;Y)}
.
الانتروبيا الشرطية
Y
{\displaystyle Y}
بفرض
X
{\displaystyle X}
يعرف بـ
H
(
Y
|
X
)
=
−
∑
x
∈
X
,
y
∈
Y
p
(
x
,
y
)
log
p
(
x
,
y
)
p
(
x
)
{\displaystyle \mathrm {H} (Y|X)\ =-\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log {\frac {p(x,y)}{p(x)}}}
( Eq.1 )
حيث
X
{\displaystyle {\mathcal {X}}}
و
Y
{\displaystyle {\mathcal {Y}}}
تدل على مجموعات الدعم
X
{\displaystyle X}
و
Y
{\displaystyle Y}
.
ملاحظة: من المعتاد أن تكون التعابير
0
log
0
{\displaystyle 0\log 0}
و
0
log
c
/
0
{\displaystyle 0\log c/0}
للإصلاح
c
>
0
{\displaystyle c>0}
يجب أن تعامل على أنها تساوي الصفر. هذا بسبب
lim
θ
→
0
+
θ
log
c
/
θ
=
0
{\displaystyle \lim _{\theta \to 0^{+}}\theta \,\log \,c/\theta =0}
و
lim
θ
→
0
+
θ
log
θ
=
0
{\displaystyle \lim _{\theta \to 0^{+}}\theta \,\log \theta =0}
[ 1]
شرح بديهي للتعريف : حسب التعريف ،
H
(
Y
|
X
)
=
E
(
f
(
X
,
Y
)
)
{\displaystyle \displaystyle H(Y|X)=\mathbb {E} (\ f(X,Y)\ )}
حيث
f
:
(
x
,
y
)
→
−
log
(
p
(
y
|
x
)
)
{\displaystyle \displaystyle f:(x,y)\ \rightarrow -\log(\ p(y|x)\ )}
.
f
{\displaystyle \displaystyle f}
مرتبطة بـ
(
x
,
y
)
{\displaystyle \displaystyle (x,y)}
محتوى المعلومات
(
Y
=
y
)
{\displaystyle \displaystyle (Y=y)}
بفرض
(
X
=
x
)
{\displaystyle \displaystyle (X=x)}
وهو مقدار المعلومات اللازمة لوصف الحدث
(
Y
=
y
)
{\displaystyle \displaystyle (Y=y)}
بفرض
(
X
=
x
)
{\displaystyle (X=x)}
. وفقا لقانون الأعداد الكبيرة،
H
(
Y
|
X
)
{\displaystyle \displaystyle H(Y|X)}
هي المعنى الحسابي لعدد كبير من التحويلات المستقلة
f
(
X
,
Y
)
{\displaystyle \displaystyle f(X,Y)}
.