Тапсырма А.
1,5 Кб ақпараттық хабарламада 3072 таңба бар. Осы хабарлама жазылған алфавит қанша таңбадан тұрады?
2048 таңбадан тұратын хабарлама көлемі Мбайттың 1/512 бөлігін құрады. Хабарлама жазылған алфавиттің мөлшері қандай?
Мәтінді жазу үшін 256 таңбалық алфавит қолданылады. Әрбір бет жолда 70 таңбадан 30 жолдан тұрады. Мәтіннің 5 Беті қандай ақпараттан тұрады?
Алфавиттің әр символы екілік кодтың 4 цифрымен жазылады. Бұл алфавитте қанша таңба бар?
Хабарламаларды жазуға арналған Алфавит 32 таңбадан тұрады, бір таңбаның ақпараттық салмағы қандай? Өлшем бірлігін көрсетіңіз.
Юникод кодтауды қолдана отырып, компьютерде терілген мәтіннің ақпараттық көлемі (әр таңба 16 битпен кодталады) — 4 Кб. Мәтіндегі таңбалар санын анықтаңыз.
Ақпараттық хабарламаның көлемі-8192 бит. Оны килобайтпен көрсетіңіз.
Метеорологиялық станция ауаның ылғалдылығына бақылау жүргізеді. Бір өлшеудің нәтижесі-20-дан 100% - ға дейінгі бүтін сан, ол мүмкін болатын ең аз бит санын қолдана отырып жазылады. Станция 80 Өлшем жасады. Бақылау нәтижесінде ақпараттық көлемді анықтаңыз.
ADSL қосылымы арқылы деректерді беру жылдамдығы 512000 бит/с.осы қосылым арқылы 1500 Кб файл жіберіледі. Файлды секундпен беру уақытын анықтаңыз.
Ақпарат көлемін және энтропияны есептеу үшін құрылатын математикалық модель. Ақпарат өлшемін және энтропияны есептеу моделі.
Энтропия арқылы біз математикалық күту жеке ақпаратта кездейсоқ ауқымда болатынын түсінеміз. Өзіміздің жеке ақпаратымыз арқылы біз ақпараттың нақты хабарламада жиналатынын көреміз. Осы ережеге сәйкес жеке ақпаратымыздың саны хабарламада мына түрде анықталады I(x0j)=-log2P(x0j).
Жеке ақпараттың саны битпен өлшенеді. Оған келесі қасиеттер ұйымдастырылуы мүмкін.
Жеке ақпарат теріс емес. Хабарлама пайда болуының мүмкіндігі аз болған сайын, жеке ақпаратта ақпарат саны көп болады. Егер хабарламаның бар болу мүмкіндігі болса, онда ол бірге тең. Ал онымен бірге алынатын ақпарат 0-ге тең.
Жеке ақпарат аддитивизм қасиетіне ие. Мұның дәлелі ретінде {X, Y} көптеген хабарламасының бірін алайық. x0j, y0i жұпты хабарламасы үшін ақпаратты хабарламаның санын анықтайық
I(x0j, y0i)=-log2P(x0j, y0i). (1.1)
Егер x0j, y0i хабарламасы статистикалық тәуелсіз болса, онда
P(x0j, y0i)= P(x0j)*P(y0i). (1.2)
Екі хабарламадағы ақпараты саны мынаны құрады:
I(x0j, y0i)=-log2P(x0j)- log2P(y0i)=I(x0j)+I(y0i) (1.3)
Осыған байланысты екі тәуелсіз хабарламадағы жеке ақпарат саны, хабарламадағы жеке ақпарат санына тең. Кездейсоқ оқиғаның көзінен шыққан хабарламаға тән деп есептейміз. Ал ол сондықтан кездейсоқ аумағы болады және таңдалған хабарлдама нөмеріне тәеулді.
Оқиғаны тәжірибе шығу мүмкіндігі есебінде қарауға болады. Барлық шығу мәліметтері топ (ансамбль) құрайды – оқиға N толық тобы:
бұл жерде Pi – i нұсқасының шығу тәжірибесінің ықтималдығы.
Шеннон энтропияны ансамбль N жағдайының дискретті көздің анықталмаған таңдау шарасы ретінде анықталды:
(1.4)
Теңықтималдық жағдайында энтропия көзі жағдайында максимальды, ал Шеннон формуласының түрі:
H(N)=logN (Хартли формуласы). (1.5)
Осыған байланысты энтропия ықтималдық жағдайы, яғни анықталмаған бір жүйеге ауысқан, жүйе N мүмкін жағдайының санына тәуелді.
Логарифм негізінде бірлік өлшемін анықтау – “2” бірлік бит өлшем негізінде. “10” – дит негізінде, “е” – нат негізінде.
I ақпаратының саны тәжірибеде себебінен энтропия азайтады, яғни:
I=H1 – H2 (1.6)
H1 және H2 – энтропияның априорлық және апостериорлық мағынасына сәйкес келеді.
Ақпарат санының көп бөлігін толық максимальды анықталмағанды шешкенде алады, яғни барлық оқиға ықтималдығы бірдей болғанда:
I=-log2p=logN (1.7)
р – барлық p=1/N оқиғасының тең ықтималдық шартында реализация ықтималдығы.
Біріншілік алфавиттің теңықтимал және өзара тәуелді белгілер жағдайы үшін ақпарат саны k алфавит хабарламада m-ге тең:
(бит/белгі).
Анықталмаған алфавит үшін энтропия алфавит белгісінде
(бит/белгі),
ал k анықталмаған белгілерімен құралған ақпараттар саны хабарламасында
(бит). (1.8)
Мысалдар:
Достарыңызбен бөлісу: |