l =1 кезінде (ақпаратты беретін бір құбылыс немесе бір символ) мынаны аламыз
(2.3)
(2.3) формулада т мәніне өлшемнің әртүрлі бірліктері сәйкес келеді. Мысалы, т=е (натуралды логарифм) болғанда энтропия мен ақпарат «натта», m=1 болғанда - "дитте", т=2 болғанда – битте өлшенеді.
Бір бит элементарлы екілік таңдамаға сәйкес келеді.
(2.2) және (2.3) формулалар әртүрлі мәндердің теңсіздігінен шығады. Бұл жағдайда әрбір n бастапқы мәнінің р ықтималдығы бірдей.
Ойын сүйектерін немесе монеталарды лақтыру жағдайында бастапқы мәннің тең ықтималдылығы туралы ұсыныс дұрыс. Бірақ жалпы жағдайда n мүмкін бастапқы мәндер үшін pi ықтималдығы әртүрлі. (2.2), (2.3) формулалар жеке (бірақ маңызды) жағдайға сәйкес, pi барлық ықтималдығы және анықсыздығы максималды болғанда.
Бұл жағдайда (2.2) формула n бастапқы мәнімен L тәжірибе нәтижесінде алынған ақпараттың максималды мәнін сипаттайды (немесе n көлемді алфавиттен L символ ұзындығымен хабартар түскен кезде).
(2.2) - (2.3) формулалар ғалым Хартлимен ұсынылған және “харттілі” ақпарат санының өлшемі деп аталады. L мен n мәндері хабартың құрылымын (оның габаритін) анықтайтындықтан, сондай-ақ басқа термин: ақпараттың құрылымдық өлшемі пайдаланылады. Тәжірибеден кейін (хабартың символын алған кезде) анықсыздық жоқ болса, I = H ақпарат санын және (2.3) формуласын мына түрде жазуға болады
(2.4)
Үзіліссіз және дискретті байланыс арналарының модельдері
Ақпарат санының статистикалық өлшемі – энтропия
Хартлимен ұсынылған ақпараттың санын анықтауға арналған (2.4) формуласы n бастапқы мәнімен құбылысқа сәйкес келетін жағдайды сипаттайды (мысалы, n көлемді алфавиттен хабар символының келіп түсуі). Бірақ барлық бастапқы мән тең (тең ықтималды) болып есептеледі. Бұл жағдайда олардың әрбіреуінің ықтималдығы және (2.4) мына түрде жазуға болады
Достарыңызбен бөлісу: |