Ақпараттық жүйелердің негіздері Зертханалық жұмыс



бет2/4
Дата11.02.2023
өлшемі8,3 Kb.
#168333
1   2   3   4
Байланысты:
Бекзат О.и.с 2-лаб

Берілгені:
1) p0=0,8
p1=0,2
2) p0=p1=0,5
p(1/1)=0,8
p(1/0)=0,2
p(0/0)=0,8
p(0/1)=0,2
Табу керек:
H1,H2-?
Шешуі:

  • H1=(0log(2)0+1log(2)1)=0

  • H2=(0,8log(2)0,8+0,8log(2)0,8)=0,72

Жауабы: H1=0 H2=0,72

3. Влияние помех в канале связи описывается следующим распределением условных вероятностей:


P(b/a)=
Вычислить полную условную энтропию сообщений, передаваемых по данному каналу связи
а) при равновероятных появлениях символов в сообщении;
б) при вероятностях p(a1)=0,7; p(a2)=0,2; p(a3)=0,1.


Берілгені:
p(a1)=0,7
p(a2)=0,2
p(a3)=0,1
Табу керек:
H(B/A)


Шешуі:
а) При равновероятном появлении символов энтропия источника сообщений.
P(bj/ai)=p(bi/ai)=p(b2/a1)=p(b3/a1)=p(b1/a1)=p(b2/a2)=p(b3/a2) =p(b1/a3)=p(b2/a3)=p(b3/a1)=1/k
M=log(2)k=0,477 бит/символ
Полная условная энтропия
H(B/A) =-1/0,477(0,98 log20,98+20,01 log20,01+ 0,15 log20,15+0,75 log20,75+0,1 log20,1+ +0,3 log20,3+0,2 log20,2+0,5 log20,5)= 0,9 бит/символ.
б) При неравновероятном появлении символов энтропия источника сообщений
Н(А)=-(0,7 log20,7+0,2 log20,2+0,1 log20,1)= 1,156 бит/символ.
Полная условная энтропия
H(B/A)-[0,7(0,98log20,98+20,01log20,01)+0,2(0,15log20,15+0,75log20,75+0,1 log20,1)+0,1(0,3 log20,3+0,2 log20,2+0,5 log20,5)]=-1,28 бит/символ.

4. Определить энтропию приемника сообщений, если канальная матрица


Шешуі
p(bj/ai)=0,97log0,97+0,03log0,03+0log0+0,01log0,01+0,98log0,98+0,01log0,01+0log0+0,04log0,04+0,96log0,96
=0,05
5. Определить энтропию источника сообщений, если вероятность появления сигналов на входе приемника p(b1)=0,1; p(b2)=0,3; p(b3)=0,4; p(b4)=0,2
а канальная матрица имеет вид


P(a/b)=




Достарыңызбен бөлісу:
1   2   3   4




©engime.org 2024
әкімшілігінің қараңыз

    Басты бет