Ақпараттық жүйелердің негіздері Зертханалық жұмыс



бет4/4
Дата11.02.2023
өлшемі8,3 Kb.
#168333
1   2   3   4
Байланысты:
Бекзат О.и.с 2-лаб

Шешуі:
Определяем вероятность совместного проявления сигналов обоих источников, используя выражение p (i, j) = p (j/i):
p (AD) = p (AE) = p (AF) = p (AG) = 0,50,25 = 0,125;
p (BD) = p (BG) = 0,330,3 = 0,1; p (BE) = p (BF) = 0,3330,2 = 0,0666;
p (CD) = p (CF) = p (CG) = 0,1670,1670,028; p (CE) = 0,1670,5 = 0,083.
Совместная энтропия источников
H (i, j) = - = - (40,125 + 20,11 + 20,0666 + 30,028 + 0,083) = 40,3375 + 20,332 + 20,26 + 30,144 + 0,298 = 1,5 + 0,664 + 0,52 + 0,432 + 0,298 =
= 3,415 бит/два символ.
Условная энтропия
H (j/ i) = - (40,125 +20,11 + 20,0666 + 30,028 + 0,0835) = 0,52 + 0,21,731 + 20,06662,32 +0,0842,58 + 0,08351 22,5 бит/знак.
Энтропия первого источника
H (i) = - (0,5 + 0,333 +0,167) = 1,459 бит/знак.
Энтропия объединения
H (i, j) = H (i) + H (i/j) = 1,459 + 1,957 =
10,735 бит/два символа.
Энтропия второго источника
H (j) = - [p (D) + p (E) + p (F) +p (G)].
p (D) = = p (A) p (D/A) + p (B) p (D/B) + p (C) p (D/C) =
=0,50,25 + 0,3330,3 + 0,1670,166 0,253;
p (E) = = 0,50,25 + 0,3330,2 + 0,1670,5 0,275;
p (F) = = 0,50,25 + 0,3330,2 + 0,1670,167 0,219;
p (G) = = 0,50,25 + 0,3330,3 + 0,1670,167 0,253;
p (D) + p (E) + p (F) + p(G) = 0,253 + 0,275 + 0,219 + 0,253 = 1,
т. е. = 1.
H (j) = - (20,253 + 0,275 + 0,219) =
=1,995 бит/знак.
Максимальное значение энтропии объединения H будет при отсутствии взаимосвязи между символами, т. е. при H (i/j) = 0.
H = 2log2+3,03log3,03+6log6=6,73 бит/два символа.


Қорытынды:Бұл зертханалық жұмыста шартты энтропины кодтанушы алфавиттің 1) символдары арасындағы өзара тәуелділікті анықтау үшін қолдандым, 2) желі каналдары бойынша ақпаратты тасымалдау кезіндегі жоғалтуларды, 3) біріктіру энтропиясын анықтау үшін қолдандым.

Достарыңызбен бөлісу:
1   2   3   4




©engime.org 2024
әкімшілігінің қараңыз

    Басты бет