Вы находитесь на странице: 1из 8

Тема. ПРЕДСТАВЛЕНИЕ ИНФОРМАЦИИ.

КОЛИЧЕСТВО И ЕДИНИЦЫ
ИЗМЕРЕНИЯ ИНФОРМАЦИИ.
1. ЯЗЫК, КАК СПОСОБ ПРЕДСТАВЛЕНИЯ ИНФОРМАЦИИ.
1.1. Понятие «информация»
Слово «информация» происходит от латинского слова informatio, что в переводе означает
сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе
информатики. В настоящее время термин информация имеет глубокий и многогранный смысл. Во
многом, оставаясь интуитивным, он получает разные смысловые наполнения в разных отраслях
человеческой деятельности:
В различных отраслях человеческой деятельности «информация» понимается по-разному:
– в быту информацией называют любые данные, сведения, знания, которые кого-либо интересуют.
– в философии – отраженное многообразие, возникающее в результате взаимодействии объектов;
– в теории информации под информацией понимают сведения об объектах и явлениях
окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о
них степень неопределенности, неполноты знаний;
– в информатике информацию можно рассматривать как отражение предметного мира с помощью
знаков и символов;
– математика включает в это понятие те сведения, которые человек не получал, а сам создал с
помощью умозаключений;
– биология относит к информации те данные, которые хранит в себе человек с момента рождения
до смерти (генетический код);
– в кибернетике понятие «информация» связано с процессами управления в сложных системах.
Так что же такое информация? Синонимами слова «информация» являются следующие слова:
«знания», «сведения», «новости» и др.
Знания, сведения можно разделить на две группы.
Декларативные знания (декларация – это Вторая группа знаний может начинаться
утверждение, сообщение) можно начать со слов «Я словами «Я знаю, как...», это процедурные
знаю, что...». Например: знания. Например,
– Я знаю, что планета Земля – шар; – Я знаю, как включать компьютер;
– Я знаю, что 2 х 2 = 4. – Я знаю, как дрессировать собаку.
Но любые ли знания, сведения нужны человеку? Сообщения, которые несут новые знания
человеку, называются информативными.
1.2. Виды и свойства информации.
По способу восприятия информацию разделяют на следующие виды: визуальная, аудиальная,
вкусовая, обонятельная и тактильная.
Такое деление основывается на чувствах, с помощью которых информация воспринимается
человеком: зрение, слух, вкус, обоняние и осязание соответственно. Научные исследования
показывают, что свыше 90% информации, получаемой человеком из внешнего мира, приходится на
зрение и слух, около 10% – на вкус, обоняние и осязание.
Аналогам органов чувств человека в технических приборах соответствуют различные датчики.
Получение информации называется вводом. В персональном компьютере за ввод информации
отвечают специальные устройства ввода: клавиатура, сканер, дигитайзер, микрофон, мышь и т.д.
Человек воспринимает информацию с помощью органов чувств. Воспринимаемая информация
поступает в виде энергетических сигналов (свет, звук, тепло) и излучений (вкус и запах), причем
процесс поступления этих сигналов происходит непрерывно.
Чувствительные органы живого организма в основном по своей природе дискретны. Все
чувственные восприятия преобразуются в организме из дискретной формы в непрерывную, причем
информация хранится не в отдельных нейронах головного мозга, а распределена по нему целиком.
В технике непрерывная информация называется аналоговой. Многие устройства, созданные
человеком, работают с аналоговой информацией. Луч кинескопа телевизора перемещается по экрану,
вызывая свечение точек. Чем сильнее луч, тем ярче свечение. Изменение свечения происходит
плавно и непрерывно. Некоторые бытовые приборы могут иметь как аналоговую, так и цифровую
конструкцию. К примеру, тонометр - прибор для измерения кровяного давления. Существенным
отличием является то, что аналоговый прибор может выдать абсолютно произвольную величину
показаний (чуть больше или меньше деления), а набор показаний у цифрового прибора ограничен
количеством цифр на индикаторе. Компьютер работает исключительно с дискретной (цифровой)
информацией. Память компьютера состоит из отдельных битов, а значит, дискретна.
Идея дискретизации непрерывного сигнала заключается в следующем. Пусть имеется
некоторый непрерывный сигнал. Можно допустить, что на маленьких промежутках времени
значение характеристик этого сигнала постоянно и меняется мгновенно в конце каждого промежутка.
«Нарезав» весь временной интервал на эти маленькие кусочки и взяв на каждом из них значение
характеристик, получим сигнал с конечным числом значений. Таким образом, он станет дискретным.
Непрерывная величина часто ассоциируется с графиком функции, а дискретная – с таблицей ее
значений.
Такой процесс называется оцифровкой аналогового сигнала, а преобразование информации –
аналого-цифровым преобразованием. Точность преобразования зависит от величины
дискретности – частоты дискретизации: чем выше частота дискретизации, тем ближе цифровая
информация к качеству аналоговой. Но и тем больше вычислений приходится делать компьютеру и
тем больше информации хранить и обрабатывать.
При качественной оценке получаемой информации говорят о следующих ее свойствах:
– полезность или релевантность (соответствие запросам потребителя);
– достоверность (истинность положения дел, отсутствие скрытых ошибок);
– полнота (достаточно для понимания и принятия решения);
– актуальность или своевременность (важность для настоящего времени);
– доступность (возможность ее получения данным потребителем);
– защищенность (невозможность несанкционированного использования или изменения);
– эргономичность (удобство формы или объема с точки зрения данного потребителя);
– объективность (не зависит от чьего-либо мнения);
– понятность (понятно выражена).
Человек – существо социальное, для общения с другими людьми он должен обмениваться с
ними информацией, причем обмен информацией всегда производится на определенном языке –
русском, английском и так далее. Участники дискуссии должны владеть тем языком, на котором
ведется общение, тогда информация будет понятной всем участникам обмена информацией.
Информация должна быть полезной, тогда дискуссия приобретает практическую ценность.
Бесполезная информация создает информационный шум, который затрудняет восприятие полезной
информации. Примерами передачи и получения бесполезной информации могут служить некоторые
конференции и чаты в Интернете.
Широко известен термин «средства массовой информации» (газеты, радио, телевидение),
которые доводят информацию до каждого члена общества. Такая информация должна быть
достоверной и актуальной. Недостоверная информация вводит членов общества в заблуждение и
может быть причиной возникновения социальных потрясений. Неактуальная информация бесполезна
и поэтому никто, кроме историков, не читает прошлогодних газет.
Для того чтобы человек мог правильно ориентироваться в окружающем мире, информация
должна быть полной и точной. Задача получения полной и точной информации стоит перед наукой.
Овладение научными знаниями в процессе обучения позволяют человеку получить полную и точную
информацию о природе, обществе и технике.
1.3. Роль информации в живой природе и в жизни людей.
Нормальное функционирование живых организмов невозможно без получения и использования
информации об окружающей среде. Целесообразное поведение живых организмов строится на
основе получения информационных сигналов разной физической или химической природы.
Любой живой организм, в том числе человек, является носителем генетической информации,
которая хранится в каждой клетке организма и передается по наследству. Человек также существует
в «море» информации, он постоянно получает информацию из окружающего мира с помощью
органов чувств, хранит ее в своей памяти, анализирует с помощью мышления и обменивается
информацией с другими людьми.
1.4. Естественные и формальные языки.
В процессе передачи, хранения информация представляется в виде символов, жестов, рисунков
(пиктограмм), иероглифов, звуков, сигналов и т.д. При получении информации в какой-либо форме
человек (живой организм, компьютер) преобразует (анализирует, обрабатывает) ее в понятный для
себя вид.
Преобразование информации из одной формы в другую называется кодированием.
Наиболее частое кодирование информации – это человеческая речь, письменность, то есть язык.
Различают естественные и искусственные (формальные) языки.
Естественные языки развивались веками и служат для общения людей между собой. Примеры
естественных языков – русский, английский, китайский и т.д.
Формальные языки разрабатываются для специальных применений. Примером формальных
языков могут служить языки программирования (Лого, Basic, Pascal и т.д.), языки кодирования
информации для ее передачи (телеграфная азбука Морзе, язык жестов), хранения (рисунки-
пиктограммы) и т. п. Каждый язык имеет свой алфавит.
2. РАЗНЫЕ ФОРМЫ ПРЕДСТАВЛЕНИЯ ИНФОРМАЦИИ.
Информация может существовать в виде:
– текстов, рисунков, чертежей, фотографий; – жестов и мимики;
– световых или звуковых сигналов; – запахов и вкусовых ощущений;
– радиоволн; – хромосом, посредством которых
– электрических и нервных импульсов; передаются по наследству признаки и
– магнитных записей; свойства организмов, и т.д.
Виды информации
По способу По форме По способу По степени
передачи: представления: восприятия: значимости:
– дискретная; – текстовая; – звуковая; – личная;
– аналоговая. – символьная, – зрительная; – специальная;
– графическая; – обонятельная; – общественная.
– музыкальная и др. – осязательная;
– вкусовая.
3. КОДИРОВАНИЕ.
Составляя информационную модель объекта или явления, мы должны договориться о том, как
понимать те или иные обозначения. То есть договориться о виде представления информации.
Человек выражает свои мысли в виде предложений, составленных из слов. Они являются
алфавитным представлением информации. Основу любого языка составляет алфавит – конечный
набор различных знаков (символов) любой природы, из которых складывается сообщение.
Одна и та же запись может нести разную смысловую нагрузку. Например, набор цифр 251299
может обозначать: массу объекта; длину объекта; расстояние между объектами; номер телефона;
запись даты 25 декабря 1999 года.
Для представления информации могут использоваться разные коды и, соответственно, надо
знать определенные правила - законы записи этих кодов, т.е. уметь кодировать.
Код – набор условных обозначений для представления информации.
Кодирование – процесс представления информации в виде кода.
Для общения друг с другом мы используем код – русский или украинский язык. При разговоре
этот код передается звуками, при письме – буквами. Водитель передает сигнал с помощью гудка или
миганием фар. Вы встречаетесь с кодированием информации при переходе дороги в виде сигналов
светофора. Таким образом, кодирование сводиться к использованию совокупности символов по
строго определенным правилам.
Кодировать информацию можно различными способами: устно; письменно; жестами или
сигналами любой другой природы.
4. ДВОИЧНАЯ ФОРМА ПРЕДСТАВЛЕНИЯ ИНФОРМАЦИИ.
4.1. Кодирование данных двоичным кодом.
По мере развития техники появлялись разные способы кодирования информации. Во второй
половине XIX века американский изобретатель Сэмюэль Морзе изобрел удивительный код, который
служит человечеству до сих пор. Информация кодируется тремя символами: длинный сигнал (тире),
короткий сигнал (точка), нет сигнала (пауза) – для разделения букв.
Своя система существует и в вычислительной технике – она называется двоичным
кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и 1.
Эти знаки называются двоичными цифрами, по-английски – binary digit или сокращенно bit (бит).
Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, черное или белое,
истина или ложь и т.п.). Если количество битов увеличить до двух, то уже можно выразить четыре
различных понятия:00 01 10 11
Тремя битами можно закодировать восемь различных значений: 000 001 010 011 m N
100 101 110 111 1 2
Увеличивая на единицу количество разрядов в системе двоичного кодирования, мы 2 4
увеличиваем в два раза количество значений, которое может быть выражено в данной 3 8
4 16
системе, то есть общая формула имеет вид: N = 2 , где N – количество независимых
m
5 32
кодируемых значений; m – разрядность двоичного кодирования, принятая в данной 6 64
системе. 7 128
4.2. Кодирование целых и действительных чисел. 8 256
Кодирование целых чисел производиться через их представление в двоичной системе
счисления: именно в этом виде они и помещаются в ячейке. Один бит отводиться при этом для
представления знака числа (нулем кодируется знак «плюс», единицей – «минус»).
Для кодирования действительных чисел существует специальный формат чисел с плавающей
запятой. Число при этом представляется в виде: N = M  q , где M – мантисса, p – порядок числа
p

N, q – основание системы счисления.


Если при этом мантисса M удовлетворяет условию 0.1  M  1 , то число N называют
нормализованным.
Мантисса и порядок числа при записи его в ячейке памяти представляются определенными
группами битов. Два разряда отводятся под знаки мантиссы (числа) и порядка.
4.3. Кодирование текстовой информации.
Если каждому символу алфавита сопоставить определенное целое число (например,
порядковый номер), то с помощью двоичного кода можно кодировать и текстовую информацию.
Для хранения двоичного кода одного символа выделен 1 байт = 8 бит.
Учитывая, что каждый бит принимает значение 0 или 1, количество их возможных сочетаний в
байте равно 28 = 256. Значит, с помощью 1 байта можно получить 256 разных двоичных кодовых
комбинаций и отобразить с их помощью 256 различных символов. Такое количество символов
вполне достаточно для представления текстовой информации, включая прописные и заглавные
буквы русского и латинского алфавита, цифры, знаки, графические символы и т.д.
Кодирование заключается в том, что каждому символу ставится в соответствие уникальный
десятичный код от 0 до 255 или соответствующий ему двоичный код от 00000000 до 11111111.
Таким образом, человек различает символы по их начертанию, а компьютер – по их коду.
Важно, что присвоение символу конкретного кода – это вопрос соглашения, которое
фиксируется в кодовой таблице. Кодирование текстовой информации с помощью байтов опирается
на несколько различных стандартов, но первоосновой для всех стал стандарт ASCII (American
Standart Code for Information Interchange), разработанный в США в Национальном институте ANSI
(American National Standarts Institute). В системе ASCII закреплены две таблицы кодирования –
базовая и расширенная. Базовая таблица закрепляет значения кодов от 0 до 127, а расширенная
относится к символам с номерами от 128 до 255.
Первые 33 кода (с 0 до 32) соответствуют не символам, а операциям (перевод строки, ввод
пробела и т. д.). оды с 33 по 127 являются интернациональными и соответствуют символам
латинского алфавита, цифрам, знакам арифметических операций и знакам препинания. Коды с 128 по
255 являются национальными, т.е. в национальных кодировках одному и тому же коду
соответствуют различные символы. В настоящее время существует много различных кодовых таблиц
для русских букв (КОИ-8, СР1251, СР866, Mac, ISO), поэтому тексты, созданные в одной
кодировке, могут не правильно отображаться в другой.
4.4. Кодирование графической информации
Графическая информация на экране монитора представляется в виде растрового изображения,
которое формируется из определенного количества строк, которые, в свою очередь, содержат
определенное количество точек (пикселей). Каждому пикселю присвоен код, хранящий информацию
о цвете пикселя.
Для получения черно-белого изображения (без полутонов) пиксель может принимать только
два состояния: “белый” или “черный”. Тогда для его кодирования достаточно 1 бита: 1 – белый, 0 –
черный.
Пиксель на цветном дисплее может иметь различную окраску. Поэтому 1 бита на пиксель –
недостаточно.
Для кодирования 4-цветного изображения требуется два бита на пиксель, поскольку два бита
могут принимать 4 различных состояния. Может использоваться, например, такой вариант
кодировки цветов: 00 – черный, 10 – зеленый, 01 – красный, 11 – коричневый.
Цветное изображение на экране монитора формируется за счет смешивания трех базовых
цветов: красного, зеленого, синего. Из трех цветов можно получить восемь комбинаций:
Следовательно, для кодирования 8-цветного Красный Зеленый Синий Цвет
изображения требуется три бита памяти на один 0 0 0 Черный
пиксель. 0 0 1 Синий
Для получения богатой палитры цветов базовым 0 1 0 Зеленый
цветам могут быть заданы различные интенсивности, 0 1 1 Голубой
тогда количество различных вариантов их сочетаний, 1 0 0 Красный
дающих разные краски и оттенки, увеличивается. 1 0 1 Розовый
Шестнадцатицветная палитра получается при 1 1 0 Коричневый
1 1 1 Белый
использовании 4-разрядной кодировки пикселя: к трем
битам базовых цветов добавляется один бит интенсивности. Этот бит управляет яркостью всех трех
цветов одновременно.
Количество различных цветов и количество бит, необходимых для их кодировки связаны
между собой формулой: N = 2 , где N – количество цветов, р – число бит, отводимых в
p

видеопамяти под каждый пиксель (глубина цвета).


Объем растрового изображения определяется умножением количества точек на
информационный объем одной точки, который зависит от количества возможных цветов.
Также графическая информация может быть представлена в виде векторного изображения.
Векторное изображение представляет собой графический объект, состоящий из элементарных
отрезков и дуг. Положение этих элементарных объектов определяется координатами точек и длиной
радиуса. Для каждой линии указывается ее тип (сплошная, пунктирная, штрих-пунктирная), толщина
и цвет. Информация о векторном изображении кодируется как обычная буквенно-цифровая и
обрабатывается специальными программами.
Качество изображения определяется разрешающей способностью монитора, т.е. количеством
точек, из которых оно складывается. Чем больше разрешающая способность, т.е. чем больше
количество строк растра и точек в строке, тем выше качество изображение.
4.5. Кодирование звуковой информации
С начала 90-х годов персональные компьютеры получили возможность работать со звуковой
информацией. Каждый компьютер, имеющий звуковую плату, микрофон и колонки, может
записывать, сохранять и воспроизводить звуковую информацию.
Звук представляет собой звуковую волну
с непрерывно меняющейся амплитудой и
частотой. Чем больше амплитуда, тем он
громче для человека, чем больше частота
сигнала, тем выше тон. Программное Рис. 1. Звуковая волна
обеспечение компьютера в настоящее время
позволяет непрерывный звуковой сигнал преобразовывать в последовательность электрических
импульсов, которые можно представить в двоичной форме.
Процесс преобразования звуковых волн в двоичный код в памяти компьютера:
Звуковая Переменный Двоичный ПАМЯТЬ
→ МИКРОФОН → → АУДИОАДАПТЕР → →
волна электрический ток код ЭВМ
На качество воспроизведения закодированного звука в основном влияют два параметра: частота
дискретизации – количество измерений амплитуды за секунду в герцах и глубина кодирования звука
– размер в битах, отводимый под запись значения амплитуды. Например, при записи на компакт-
диски (CD) используются 16-разрядные значения, а частота дискретизации равна 44032 Гц. Эти
параметры обеспечивают превосходное качество звучания речи и музыки. Для стереозвука отдельно
записывают данные для левого и для правого канала.
Если преобразовать звук в электрический сигнал (например, с помощью микрофона), мы
увидим плавно изменяющееся с течением времени напряжение. Для компьютерной обработки такой
аналоговый сигнал нужно каким-то образом преобразовать в последовательность двоичных чисел.
Будем измерять напряжение через
равные промежутки времени и
записывать полученные значения в
память компьютера. Этот процесс
называется дискретизацией (или Рис. 2. Аналого-цифровое и цифро-аналоговое преобразование
оцифровкой), а устройство,
выполняющее его – аналого-цифровым преобразователем (АЦП).
Для того чтобы воспроизвести закодированный таким образом звук, нужно выполнить обратное
преобразование (для него служит цифро-аналоговый преобразователь – ЦАП), а затем сгладить
получившийся ступенчатый сигнал.
Процесс воспроизведения звуковой информации, сохраненной в памяти ЭВМ:
ПАМЯТЬ Двоичный Переменный Звуковая
→ → АУДИОАДАПТЕР → → ДИНАМИК →
ЭВМ код электрический ток волна
Аудиоадаптер (звуковая плата) – специальное устройство, подключаемое к компьютеру,
предназначенное для преобразования электрических колебаний звуковой частоты в числовой
двоичный код при вводе звука и для обратного преобразования (из числового кода в электрические
колебания) при воспроизведении звука.
В процессе записи звука аудиоадаптер с определенным периодом измеряет амплитуду
электрического тока и заносит в регистр двоичный код полученной величины. Затем полученный код
из регистра переписывается в оперативную память компьютера. Качество компьютерного звука
определяется характеристиками аудиоадаптера: частотой дискретизации и разрядностью.
Частота дискретизации – это количество измерений входного сигнала за 1 секунду. Частота
измеряется в герцах (Гц). Одно измерение за одну секунду соответствует частоте 1 Гц. 1000
измерений за 1 секунду – 1 килогерц (кГц). Характерные частоты дискретизации аудиоадаптеров:
11 кГц, 22 кГц, 44,1 кГц и др.
Разрядность регистра – число бит в регистре аудиоадаптера. Разрядность определяет точность
измерения входного сигнала. Чем больше разрядность, тем меньше погрешность каждого отдельного
преобразования величины электрического сигнала в число и обратно. Если разрядность равна 8 (16),
то при измерении входного сигнала может быть получено 28= 256 (216=65536) различных значений.
Очевидно, 16-разрядный аудиоадаптер точнее кодирует и воспроизводит звук, чем 8-разрядный.
Звуковой файл – файл, хранящий звуковую информацию в числовой двоичной форме.
Описанный способ кодирования звуковой информации достаточно универсален, он позволяет
представить любой звук и преобразовывать его самыми разными способами. Но бывают случаи,
когда выгодней действовать по-иному.
Человек издавна использует довольно компактный способ представления музыки - нотную
запись. В ней специальными символами указывается, какой высоты звук, на каком инструменте и как
сыграть. Фактически, ее можно считать алгоритмом для музыканта, записанным на особом
формальном языке. В 1983 г. ведущие производители компьютеров и музыкальных синтезаторов
разработали стандарт, определивший такую систему кодов. Он получил название MIDI.
Конечно, такая система кодирования позволяет записать далеко не всякий звук, она годится
только для инструментальной музыки. Но есть у нее и неоспоримые преимущества: чрезвычайно
компактная запись, естественность для музыканта (практически любой MIDI-редактор позволяет
работать с музыкой в виде обычных нот), легкость замены инструментов, изменения темпа и
тональности мелодии.
Существуют и другие, чисто компьютерные, форматы записи музыки. Среди них следует
отметить формат MP3, позволяющий с очень большим качеством и степенью сжатия кодировать
музыку.
4.6. Кодирование команд
Наряду с данными в оперативной памяти компьютера помещается программа управления его
работой, команды которой кодируются последовательностью из нулей и единиц. Команды
управления работой компьютера принято называть машинными командами.
Машинная команда должна содержать в себе следующую информацию:
– какую операцию выполнить; – куда поместить результат операции;
– где находятся операнды; – какую команду выполнять следующей.
Для каждого процессора машинная команда имеет стандартный формат и строго
фиксированную длину. Команда состоит из кода операции и адресной части. Код операции
определяет действие, которое должен выполнить процессор; адресная часть содержит адреса
величин, над которыми должна быть произведена эта операция. В зависимости от структуры
адресной части команды, процессоры могут быть многоадресными.
Рассмотрим пример трехадресной команды:
КОП А1 А2 А3
(код операции) (адрес первого аргумента) (адрес второго аргумента) (адрес результата)
00000001 01000100 01001000 01001100
Длина кода операции обычно зависит от числа операций, входящих в систему команд
компьютера. Код операции длиной p бит позволяет хранить коды до 2p различных команд. Можно
сформулировать простое правило определения оптимальной длины кода операции: 2 p−1  P  2 p ,
где Р – количество команд в системе команд машинного языка.
5. КОЛИЧЕСТВО И ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ.
Решая различные задачи, человек вынужден использовать информацию об окружающем нас
мире. И чем более полно и подробно человеком изучены те или иные явления, тем подчас проще
найти ответ на поставленный вопрос. Так, например, знание законов физики позволяет создавать
сложные приборы, а для того, чтобы перевести текст на иностранный язык, нужно знать
грамматические правила и помнить много слов.
Часто приходится слышать, что сообщение или несет мало информации или, наоборот,
содержит исчерпывающую информацию. При этом разные люди, получившие одно и то же
сообщение (например, прочитав статью в газете), по-разному оценивают количество информации,
содержащейся в нем. Это происходит оттого, что знания людей об этих событиях (явлениях) до
получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили
много информации, те же, кто знал больше, чем написано в статье, скажут, что информации не
получили вовсе. Количество информации в сообщении, таким образом, зависит от того, насколько
ново это сообщение для получателя.
Итак, количество информации зависит от новизны сведений об интересном для получателя
информации явлении. Иными словами, неопределенность по интересующему нас вопросу с
получением информации уменьшается. Если в результате получения сообщения будет достигнута
полная ясность в данном вопросе, говорят, что была получена исчерпывающая информация. Это
означает, что необходимости в получении дополнительной информации на эту тему нет. Напротив,
если после получения сообщения неопределенность осталась прежней, значит, информации
получено не было.
Если подбросить монету и проследить, какой стороной она упадет, то мы получим
определенную информацию. Обе стороны монеты «равноправны», поэтому одинаково вероятно, что
выпадет как одна, так и другая сторона. В таких случаях говорят, что событие несет информацию в 1
бит. Если положить в мешок два шарика разного цвета, то, вытащив вслепую один шар, мы также
получим информацию о цвете шара в 1 бит. Единица измерения информации называется бит (bit) -
сокращение от английских слов binary digit, что означает двоичная цифра.
В компьютерной технике бит соответствует физическому состоянию носителя информации:
намагничено – не намагничено, есть отверстие – нет отверстия. При этом одно состояние принято
обозначать цифрой 0, а другое – цифрой 1. Выбор одного из двух возможных вариантов позволяет
также различать логические истину и ложь. Последовательностью битов можно закодировать текст,
изображение, звук или какую-либо другую информацию. Такой метод представления информации
называется двоичным кодированием (binary encoding).
За единицу количества информации принимается такое количество информации, которое
содержит сообщение, уменьшающее неопределенность в два раза. Такая единица названа «бит»
Бит – слишком мелкая единица измерения. На практике чаще применяется более крупная
единица – байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать
любой из 256 символов алфавита клавиатуры компьютера (256 = 28).
Широко используются также ещё более крупные производные единицы информации.
При алфавитном подходе, Единицы информации
если допустить, что все Название Условное обозначение Соотношение с другими единицами
символы алфавита встречаются Килобайт Кбайт (Кб) 1 Кбайт = 1 024 байт = 210 байт
в тексте с одинаковой частотой Мегабайт Мбайт (Мб) 1 Мбайт = 1 024 Кбайт = 220 байт
(равновероятно), то количество Гигабайт Гбайт (Гб) 1 Гбайт = 1 024 Мбайт = 230 байт
информации, которое несет Терабайт Тбайт (Тб) 1 Тбайт = 1 024 Гбайт = 240 байт
каждый символ Петабайт Пбайт (Пб) 1 Пбайт = 1 024 Тбайт = 250 байт
(информационный вес одного символа), вычисляется по формуле: x = log 2 N , где N – мощность
алфавита (полное количество символов, составляющих алфавит выбранного кодирования). В
алфавите, который состоит из двух символов (двоичное кодирование), каждый символ несет 1 бит
(21) информации; из четырех символов – каждый символ несет 2 бита информации(22); из восьми
символов – 3 бита (23) и т.д. Один символ из алфавита мощностью 256 (28) несет в тексте 8 битов
информации. Такое количество информации называется байт. Алфавит из 256 символов используется
для представления текстов в компьютере.
Один байт информации можно передать с помощью одного символа кодировки ASCII. Если
весь текст состоит из K символов, то при алфавитном подходе размер содержащейся в нем
информации I определяется по формуле: I = K  x , где x – информационный вес одного символа в
используемом алфавите.
6. ПОЗИЦИОННЫЕ И НЕПОЗИЦИОННЫЕ СИСТЕМЫ СЧИСЛЕНИЯ
Кодирование числовой информации осуществляется с помощью системы счисления.
Существуют позиционные и непозиционные системы счисления. В непозиционных системах
счисления вес цифры (т.е. тот вклад, который она вносит в значение числа) не зависит от ее позиции
в записи числа. Так, в римской системе счисления в числе ХХХII (тридцать два) вес цифры Х в
любой позиции равен десяти.
В позиционных системах счисления вес каждой цифры изменяется в зависимости от ее
положения (позиции) в последовательности цифр, изображающих число. Например, в числе 757,7
первая семерка означает 7 сотен, вторая – 7 единиц, а третья – 7 десятых долей единицы. Сама же
запись числа 757,7 означает сокращенную запись суммы 700 + 50 + 7 + 0,7 = 7 10 2 + 5 101 + 7 100 + 7
10–1 = 757,7.
Любая позиционная система счисления характеризуется своим основанием. За основание
системы можно принять любое натуральное число – два, три, четыре и т.д. Следовательно, возможно
бесчисленное множество позиционных систем: двоичная, троичная, четверичная и т.д. Первая
позиционная система счисления была придумана еще в Древнем Вавилоне, причем вавилонская
нумерация была шестидесятеричная, т.е. в ней использовалось шестьдесят цифр! К этой системе
счисления восходит деление часа на 60 минут и угла на 360 градусов. В XIX в. довольно широкое
распространение получила двенадцатеричная система счисления. В настоящее время наиболее
распространены десятичная, двоичная, восьмеричная и шестнадцатеричная системы счисления. Три
последние широко применяются в вычислительной технике.
Первая известная нам система, основанная на позиционном принципе – шестидесятеричная
вавилонская. Цифры в ней были двух видов, одним из которых обозначались единицы, другим –
десятки. Следы вавилонской системы сохранились до наших дней в способах измерения и записи
величин углов и промежутков времени.
Однако наибольшую ценность для нас имеет индо-арабская десятичная система. Индийцы
первыми использовали ноль для указания позиционной значимости величины в строке цифр. Эта
система получила название десятичной системы счисления, так как в ней десять цифр.