الاعتلاج المشترك (بالإنجليزية : joint entropy )، يعتبر في نظرية المعلومات مقياسًا لعدم اليقين المرتبط بمجموعة من المتغيرات .[ 1]
رسم تخطيطي مضلل [ 2] لمخطط فن يوضح العلاقات الإضافية والطرحية بين مقاييس المعلومات المختلفة المرتبطة بالمتغيرات المرتبطة X و Y. المنطقة التي تحتوي عليها كلتا الدائرتين هي إنتروبيا مشتركة H (X، Y). الدائرة على اليسار (الأحمر والبنفسجي) هي الإنتروبيا الفردية H (X) ، مع إنتروبي ذات اللون الأحمر الإنتروبيا الشرطية H (X | Y). الدائرة على اليمين (الأزرق والبنفسجي) هي H (Y) ، والأزرق هو H (Y | X). البنفسج هو المعلومات المتبادلة I (X؛ Y).
إنتروبي شانون المشتركة (بوحدة البتات ) من متغيرين عشوائيين منفصلين
X
{\displaystyle X}
و
Y
{\displaystyle Y}
مع الصور
X
{\displaystyle {\mathcal {X}}}
و
Y
{\displaystyle {\mathcal {Y}}}
يعرف بأنه [ 3] :16
H
(
X
,
Y
)
=
−
∑
x
∈
X
∑
y
∈
Y
P
(
x
,
y
)
log
2
[
P
(
x
,
y
)
]
{\displaystyle \mathrm {H} (X,Y)=-\sum _{x\in {\mathcal {X}}}\sum _{y\in {\mathcal {Y}}}P(x,y)\log _{2}[P(x,y)]}
( Eq.1 )
حيث
x
{\displaystyle x}
و
y
{\displaystyle y}
هي قيم خاصة
X
{\displaystyle X}
و
Y
{\displaystyle Y}
، على التوالي،
P
(
x
,
y
)
{\displaystyle P(x,y)}
هو الاحتمال المشترك لحدوث هذه القيم معًا، و
P
(
x
,
y
)
log
2
[
P
(
x
,
y
)
]
{\displaystyle P(x,y)\log _{2}[P(x,y)]}
يعرف بأنه 0 إذا
P
(
x
,
y
)
=
0
{\displaystyle P(x,y)=0}
.
لأكثر من متغيرين عشوائيين
X
1
,
.
.
.
,
X
n
{\displaystyle X_{1},...,X_{n}}
هذا يتوسع إلى
H
(
X
1
,
.
.
.
,
X
n
)
=
−
∑
x
1
∈
X
1
.
.
.
∑
x
n
∈
X
n
P
(
x
1
,
.
.
.
,
x
n
)
log
2
[
P
(
x
1
,
.
.
.
,
x
n
)
]
{\displaystyle \mathrm {H} (X_{1},...,X_{n})=-\sum _{x_{1}\in {\mathcal {X}}_{1}}...\sum _{x_{n}\in {\mathcal {X}}_{n}}P(x_{1},...,x_{n})\log _{2}[P(x_{1},...,x_{n})]}
( Eq.2 )
حيث
x
1
,
.
.
.
,
x
n
{\displaystyle x_{1},...,x_{n}}
هي قيم خاصة
X
1
,
.
.
.
,
X
n
{\displaystyle X_{1},...,X_{n}}
، على التوالي ،
P
(
x
1
,
.
.
.
,
x
n
)
{\displaystyle P(x_{1},...,x_{n})}
هو احتمال حدوث هذه القيم معًا، و
P
(
x
1
,
.
.
.
,
x
n
)
log
2
[
P
(
x
1
,
.
.
.
,
x
n
)
]
{\displaystyle P(x_{1},...,x_{n})\log _{2}[P(x_{1},...,x_{n})]}
يعرف بأنه 0 إذا
P
(
x
1
,
.
.
.
,
x
n
)
=
0
{\displaystyle P(x_{1},...,x_{n})=0}
.
الإنتروبيا المشتركة لمجموعة من المتغيرات العشوائية هي عدد غير سالب.
H
(
X
,
Y
)
≥
0
{\displaystyle \mathrm {H} (X,Y)\geq 0}
H
(
X
1
,
…
,
X
n
)
≥
0
{\displaystyle \mathrm {H} (X_{1},\ldots ,X_{n})\geq 0}
أكبر من الانتروبيا الفردية[ عدل ]
الإنتروبيا المشتركة لمجموعة من المتغيرات أكبر من أو تساوي الحد الأقصى لجميع الأنتروبيا الفردية للمتغيرات في المجموعة.
H
(
X
,
Y
)
≥
max
[
H
(
X
)
,
H
(
Y
)
]
{\displaystyle \mathrm {H} (X,Y)\geq \max \left[\mathrm {H} (X),\mathrm {H} (Y)\right]}
H
(
X
1
,
…
,
X
n
)
≥
max
1
≤
i
≤
n
{
H
(
X
i
)
}
{\displaystyle \mathrm {H} {\bigl (}X_{1},\ldots ,X_{n}{\bigr )}\geq \max _{1\leq i\leq n}{\Bigl \{}\mathrm {H} {\bigl (}X_{i}{\bigr )}{\Bigr \}}}
أقل من أو يساوي مجموع الانتروبيا الفردية[ عدل ]
الإنتروبيا المشتركة لمجموعة من المتغيرات أقل من أو تساوي مجموع الأنتروبيا الفردية للمتغيرات في المجموعة. هذا مثال على الجمع الثانوي . هذا اللامساواة تعتبر مساواة إذا وفقط إذا كان
X
{\displaystyle X}
و
Y
{\displaystyle Y}
مستقلين إحصائيا .[ 3] :30
H
(
X
,
Y
)
≤
H
(
X
)
+
H
(
Y
)
{\displaystyle \mathrm {H} (X,Y)\leq \mathrm {H} (X)+\mathrm {H} (Y)}
H
(
X
1
,
…
,
X
n
)
≤
H
(
X
1
)
+
…
+
H
(
X
n
)
{\displaystyle \mathrm {H} (X_{1},\ldots ,X_{n})\leq \mathrm {H} (X_{1})+\ldots +\mathrm {H} (X_{n})}
العلاقات مع قياسات الإنتروبي الأخرى[ عدل ]
يستخدم الانتروبي المشترك في تعريف الإنتروبي الشرطي [ 3] :22
H
(
X
|
Y
)
=
H
(
X
,
Y
)
−
H
(
Y
)
{\displaystyle \mathrm {H} (X|Y)=\mathrm {H} (X,Y)-\mathrm {H} (Y)\,}
،
و
H
(
X
1
,
…
,
X
n
)
=
∑
k
=
1
n
H
(
X
k
|
X
k
−
1
,
…
,
X
1
)
{\displaystyle \mathrm {H} (X_{1},\dots ,X_{n})=\sum _{k=1}^{n}\mathrm {H} (X_{k}|X_{k-1},\dots ,X_{1})}
كما أنها تستخدم في تعريف المعلومات المتبادلة [ 3] :21
I
(
X
;
Y
)
=
H
(
X
)
+
H
(
Y
)
−
H
(
X
,
Y
)
{\displaystyle \operatorname {I} (X;Y)=\mathrm {H} (X)+\mathrm {H} (Y)-\mathrm {H} (X,Y)\,}
في نظرية المعلومات الكمومية ، يتم تعميم الإنتروبيا المشتركة في الإنتروبيا الكمومية المشتركة.
الانتروبيا التفاضلية المشتركة[ عدل ]
التعريف أعلاه هو للمتغيرات العشوائية المنفصلة ولم يعد صالحًا في حالة المتغيرات العشوائية المستمرة. تسمى النسخة المستمرة من إنتروبيا المفصل المنفصل إنتروبيا المفاصل (أو المستمر) . لتكن
X
{\displaystyle X}
و
Y
{\displaystyle Y}
متغيرات عشوائية مستمرة ذات دالة كثافة احتمالية مشتركة
f
(
x
,
y
)
{\displaystyle f(x,y)}
. الانتروبيا المشتركة التفاضلية
h
(
X
,
Y
)
{\displaystyle h(X,Y)}
يعرف بأنه [ 3] :249
z
=
r
e
i
ϕ
=
x
+
i
y
{\displaystyle z=re^{i\phi }=x+iy\,\!}
لأكثر من متغيرين عشوائيين متواصلين
X
1
,
.
.
.
,
X
n
{\displaystyle X_{1},...,X_{n}}
يعمم التعريف على:
z
=
r
e
i
ϕ
=
x
+
i
y
{\displaystyle z=re^{i\phi }=x+iy\,\!}
يتم أخذ جزء لا يتجزأ من دعم
f
{\displaystyle f}
. من الممكن ألا يكون التكامل موجودًا وفي هذه الحالة نقول أن الإنتروبي التفاضلي غير محدد.
كما في الحالة المنفصلة، يكون الانتروبيا التفاضلية المشتركة لمجموعة من المتغيرات العشوائية أصغر أو تساوي من مجموع الأنتروبيا للمتغيرات العشوائية الفردية:
h
(
X
1
,
X
2
,
…
,
X
n
)
≤
∑
i
=
1
n
h
(
X
i
)
{\displaystyle h(X_{1},X_{2},\ldots ,X_{n})\leq \sum _{i=1}^{n}h(X_{i})}
[ 3] :253
تنطبق قاعدة السلسلة التالية على متغيرين عشوائيين:
h
(
X
,
Y
)
=
h
(
X
|
Y
)
+
h
(
Y
)
{\displaystyle h(X,Y)=h(X|Y)+h(Y)}
في حالة وجود أكثر من متغيرين عشوائيين يتم تعميم هذا على:[ 3] :253
h
(
X
1
,
X
2
,
…
,
X
n
)
=
∑
i
=
1
n
h
(
X
i
|
X
1
,
X
2
,
…
,
X
i
−
1
)
{\displaystyle h(X_{1},X_{2},\ldots ,X_{n})=\sum _{i=1}^{n}h(X_{i}|X_{1},X_{2},\ldots ,X_{i-1})}
يستخدم الإنتروبي التفاضلي المشترك أيضًا في تعريف المعلومات المتبادلة بين المتغيرات العشوائية المستمرة:
I
(
X
,
Y
)
=
h
(
X
)
+
h
(
Y
)
−
h
(
X
,
Y
)
{\displaystyle \operatorname {I} (X,Y)=h(X)+h(Y)-h(X,Y)}
^ Theresa M. Korn؛ Korn, Granino Arthur. Mathematical Handbook for Scientists and Engineers: Definitions, Theorems, and Formulas for Reference and Review . New York: Dover Publications. ISBN :0-486-41147-8 .
^ D.J.C. Mackay. Information theory, inferences, and learning algorithms .
^ ا ب ج د ه و ز Thomas M. Cover؛ Joy A. Thomas (2006). Elements of Information Theory . Hoboken, New Jersey: Wiley. ISBN :0-471-24195-4 .