Шешуі:
Определяем вероятность совместного проявления сигналов обоих источников, используя выражение p (i, j) = p (j/i):
p (AD) = p (AE) = p (AF) = p (AG) = 0,5∙0,25 = 0,125;
p (BD) = p (BG) = 0,33∙0,3 = 0,1; p (BE) = p (BF) = 0,333∙0,2 = 0,0666;
p (CD) = p (CF) = p (CG) = 0,167∙0,167≈0,028; p (CE) = 0,167∙0,5 = 0,083.
Совместная энтропия источников
H (i, j) = - = - (4∙0,125 + 2∙0,11 + 2∙0,0666 + 3∙0,028 + 0,083) = 4∙0,3375 + 2∙0,332 + 2∙0,26 + 3∙0,144 + 0,298 = 1,5 + 0,664 + 0,52 + 0,432 + 0,298 =
= 3,415 бит/два символ.
Условная энтропия
H (j/ i) = - (4∙0,125 +2∙0,11 + 2∙0,0666 + 3∙0,028 + 0,0835) = 0,5∙2 + 0,2∙1,731 + 2∙0,0666∙2,32 +0,084∙2,58 + 0,0835∙1 ≈ 22,5 бит/знак.
Энтропия первого источника
H (i) = - (0,5 + 0,333 +0,167) = 1,459 бит/знак.
Энтропия объединения
H (i, j) = H (i) + H (i/j) = 1,459 + 1,957 =
10,735 бит/два символа.
Энтропия второго источника
H (j) = - [p (D) + p (E) + p (F) +p (G)].
p (D) = = p (A) p (D/A) + p (B) p (D/B) + p (C) p (D/C) =
=0,5∙0,25 + 0,333∙0,3 + 0,167∙0,166 ≈ 0,253;
p (E) = = 0,5∙0,25 + 0,333∙0,2 + 0,167∙0,5 ≈ 0,275;
p (F) = = 0,5∙0,25 + 0,333∙0,2 + 0,167∙0,167 ≈ 0,219;
p (G) = = 0,5∙0,25 + 0,333∙0,3 + 0,167∙0,167 ≈ 0,253;
p (D) + p (E) + p (F) + p(G) = 0,253 + 0,275 + 0,219 + 0,253 = 1,
т. е. = 1.
H (j) = - (2∙0,253 + 0,275 + 0,219) =
=1,995 бит/знак.
Максимальное значение энтропии объединения H будет при отсутствии взаимосвязи между символами, т. е. при H (i/j) = 0.
H = 2log2+3,03log3,03+6log6=6,73 бит/два символа.
Қорытынды:Бұл зертханалық жұмыста шартты энтропины кодтанушы алфавиттің 1) символдары арасындағы өзара тәуелділікті анықтау үшін қолдандым, 2) желі каналдары бойынша ақпаратты тасымалдау кезіндегі жоғалтуларды, 3) біріктіру энтропиясын анықтау үшін қолдандым.
Достарыңызбен бөлісу: |