Бұл ақпарат мөлшерінің келесі қасиеттерін білдіреді:
* ақпараттың мөлшері энтропиямен бірдей бірліктермен өлшенеді; көбінесе биттерде;
* ақпарат мөлшері әрдайым теріс емес: I (X, Y)> 0;
* сигналды ешқандай түрлендіру ондағы ақпаратты арттырмайды;
* Y сигналындағы қандай да бір X көзі туралы I(X, Y) Ақпарат саны осы көздің энтропиясынан артық емес: I(X Y) < Н (Х)
* х көзіндегі өзі туралы ақпарат мөлшері оның энтропиясына тең: I(X, Y) = H (X).
Нақты жағдайда, көздің m мүмкін күйлерықтималдығы өзара тең және бір-бірінен тәуелсіз болған кезде, әрбір көзі күйі I(X, X) = logam ақпарат жеткізеді, ал n жағдайдан тұратын тізбек (мысалы, ұзындығы n таңбалардағы телеграмма,
өзара тең ықтималдығы m символдардан құралған) I(X, X) = nlogam=logamn ақпарат жеткізеді. Бұл жағдайда ақпарат көзіндегі ақпараттың мөлшері, көздің (санның) мүмкін болатын реттілік санының (мүмкін болатын тең ықтимал оқиғалар санының) логарифмімен анықталады, олардың ішінен таңдау алу кезінде жүзеге асырылады.
Дискретті хабарламалардың толық емес дұрыстығы кезіндегі ақпараттың саны хабарламаның бастапқы белгісіздігін сипаттайтын шартсыз энтропияның H(Х) және хабарламаның қалдық белгісіздігін сипаттайтын шартты энтропияның айырмасына тең:
Мұндағы I(X,Y) – X қабылданған хабарламалардың барлық жиынтығында қамтылған ақпараттың Y берілген хабарламалардың барлық жиынтығына қатысты ақпарат cаны;
р(у) —априорлы ықтималдық;
Мұндағы p(yi, xi) - берілген хi хабарламасына қатысты yi хабарламасындағы белгісіздікті сипаттайтын шартты ықтималдық.
yi және xi оқиғаларының бірлескен пайда болу ықтималдығын былай жазуға болады
Ықтималдық хi хабары қабылданған жағдайда уi хабарының пайда болуының шартты (постериорлық) ықтималдығына көбейтілген yi хабарының пайда болуының априорлық ықтималдығына тең.
1-10 Вольт кернеуінің бірдей ықтималдығын алатын кернеу көзінің шығу күйі туралы хабарлама берудің мысалын келтіреміз. Бұл жағдайда хабарламада үлкен ақпарат болады. Оқиғаның ықтималдығы неғұрлым аз болса, осы оқиға туралы хабарламада соғұрлым көп ақпарат бар екенін байқауға болады. Мысалы, Шілдеде аяз болады деген хабарда көптеген ақпарат бар, өйткені мұндай оқиға сирек кездеседі және оның ықтималдығы өте аз.
Ақпараттың мөлшері келесідей
Формулалардың, ақпарат мөлшері мен энтропияның сәйкес келуіне қарамастан, хабарлама алынғаннан кейін ақпарат мөлшері анықталады.
Ақпарат пен энтропияның өлшем бірліктері Логарифмнің негізін таңдауға байланысты: ондық логарифмдерді қолданғанда — дит, натурал — нит, екілік — бит.
Достарыңызбен бөлісу: |