Контрольные вопросы:
Опишите историю развития вычислительной техники до появления компьютеров.
Охарактеризуйте компьютеры первого поколения.
Охарактеризуйте компьютеры второго поколения.
Охарактеризуйте компьютеры третьего поколения.
Охарактеризуйте компьютеры четвертого поколения.
Охарактеризуйте компьютеры пятого поколения.
Лекция №3 Тема: Информация. Формы представления информации. Единицы измерения информации. Представление информации в компьютере
Цель: Раскрыть суть понятия информации и показать приемы кодирования информации, ознакомить с единицами измерения информации. Показать, как информация представляется в компьютере.
Ключевые понятия: информация, сообщение, содержание, источник информации, получатель информации, каналы связи, непрерывная информация, дискретная информация, единицы измерения информации, объем информации, объемный подход измерения информации, вероятностный подход измерения информации. Кодирование, декодирование, форма с фиксированной запятой, форма с плавающей запятой, прямой код, обратный код, дополнительный код.
Понятие «информация» является одним из фундаментальных в современной науке вообще и базовым для изучаемой нами информатики. Аналогичными «неопределяемыми» понятиями, например, в математике является «точка» или «прямая».
В широком смысле информация – это отражение реального мира с помощью знаков и сигналов. Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состояниях, которые уменьшают имеющуюся степень неопределенности, неполноты знаний о них.
Эти сведения, зафиксированные на каком-либо материальном носителе, принято называть данными.
Термин информация возник от латинского слова information – разъяснение, изложение. По Клод Шеннону (американский инженер и математик, родоначальник теории информации), информация – это снятая неопределенность.
Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. При этом предполагается, что имеются «источник информации» и «получатель (потребитель) информации». Сообщение от источника к получателю передается посредством какой-нибудь среды, являющейся в таком случае «каналом связи». Каналами связи могут быть телевизор, радио, компьютерная сеть, лист бумаги и т.д. Чаще всего речь идет о телекоммуникации (теле – удаленный, коммуникация – передача). Канал связи может стать источником искажений; искажающую информацию принято называть помехами или шумом.
Для живых существ восприятие и передача информации в форме сигналов – основное отличие от неодушевленных предметов окружающего мира. Языковая форма передачи знаковой информации – основное отличие людей от других живых существ.
В зависимости от области знаний различают информацию:
Научную;
Техническую;
Правовую;
Экономическую;
Медицинскую;
Бытовую (погода, справочники);
Потребительскую и развлекательную и др..
По способу передачи и восприятия различают информацию:
Визуальную – передается видимыми образами и символами;
Аудиальную – передается звуками;
Тактильную – передается ощущениями;
Органо-лептическую – передается запахами и вкусом;
Машинную – передается средствами ВТ.
В процессе обработки информация может менять структуру и форму. Признаками структуры являются элементы информации и их взаимосвязь. Формы представления информации различны. Основные из них: символьная (основанная на использовании символов – букв, цифр, знаков), текстовая (тексты – символы, расположенные в определенном порядке), графическая (различные виды изображений), звуковая (упругие волны, распространяющиеся в газах, жидкостях и твердых телах и воспринимаемые ухом человека и животных).
Исторически первой технологической формой получения, передачи, хранения информации являлось аналоговое (непрерывное) представление звукового, оптического, электрического или другого сигнала (сообщения). Магнитная аудио- и видеозапись, фотографирование, запись на грампластинки, радиовещание — основные способы хранения и передачи информации в аналоговой форме. В общем случае сигнал - это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока). Та из характеристик, которая используется для представления сообщений, называется параметром сигнала.
В случае, когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным. Информация, передаваемая источником, в этом случае также называется дискретной (цифровой). Пример дискретного сообщения - процесс чтения книги, информация в которой представлена текстом, т.е. дискретной последовательностью отдельных значков (букв). Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника - человеческого уха.
Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором отрезке. Непрерывное сообщение можно преобразовать в дискретное, такая процедура называется дискретизацией. Например, процесс изменения напряжения электрического тока (U) по времени (t) непрерывный процесс. Но этот аналоговый процесс может быть представлен в виде множества значений изменения U в зависимости от t.
Аналого-дискретные преобразователи чаще всего изготавливаются в виде интегральных схем. В необходимых случаях осуществляется обратное — дискретно-аналоговое (цифро-аналоговое преобразование — ЦАП).
Компьютер - цифровая машина, то есть внутреннее представление информации в нем дискретно. Дискретизация входной информации (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки.
Измерение количества информации
Использование терминов «больше информации» или «меньше информации» подразумевает некую возможность ее измерения (или хотя бы количественного соотнесения).
В решении этой проблемы существуют два основных подхода: вероятностный и объемный. Американский инженер Р. Хартли в 1928 г. рассматривал процесс получения информации как выбор одного сообщения из конечного заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N:
I=log2N.
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется:
I= Log2100 ~ 6,644.
Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.
Клод Шеннон развил вероятностный подход к измерению количества информации. В 1948 году он предложил другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. Формула Хартли является частным случаем формулы Шеннона. Работы Джон фон Неймана по созданию ЭВМ привели к объемному подходу измерения количества информации.
Объемный подход
Объем информации в сообщении – это количество символов в сообщении. Поскольку, например, одно и то же число может быть записано многими разными способами (использованием разных алфавитов):
«двадцать пять»
25
11001
XXV
то этот способ чувствителен форме представления (записи) сообщения. В вычислительной технике вся обрабатываемая и хранимая информация вне зависимости от ее природы (число, текст, отображение) представлена в двоичной форме с использованием алфавита, состоящего из двух символов 0 и 1, называемых битами (от английского Binary digit — двоичная цифра). Такая стандартизация позволила ввести две стандартные единицы: бит и байт. Байт – это восемь бит.
Для измерения количества информации используются также более крупные единицы:
1 Килобайт = 1024 байта (210 байта)
1 Мегабайт =1024 Кбайта (220 байта)
1 Гигабайт = 1024 Мбайта (230 байта)
1 Терабайт = 1024 Гбайта (240 байта)
1 Петабайт = 1024 Тбайта (250 байта)
1 Экзабайт = 1024 Пбайта (260 байта)
Достарыңызбен бөлісу: |