Вы находитесь на странице: 1из 14

Азербайджанский Государственный Экономический Университет (UNEC)

Кафедра «Цифровые технологии и прикладная информатика»

преп. Резаи Вахид Сонай


sonay.rv@mail.ru

Предмет: Информационно-коммуникационные технологии (ИКТ) - базовые


компьютерные знания

Тема 2. Кодирование и представление информации


План
1. Описание различных типов информации (текстовой, числовой, мультимедийной) в
памяти компьютера.
2. Кодирование информации. Стандарты кодирования символов. Таблицы ASCII и
UNICODE.
3. Единицы измерения количества информации. Формула Хартли. Формула Шеннона.
4. Решение задачи определения количества информации.

1. В каком виде существует информация

Информация храниться, передается и обрабатывается в символьной (знаковой,


кодовой) форме.
Информация может существовать в виде:

 текстов, рисунков, чертежей, фотографий;


 световых или звуковых сигналов;
 радиоволн;
 электрических и нервных импульсов;
 магнитных записей;
 жестов и мимики;
 запахов и вкусовых ощущений;
 хромосом,
посредством которых передаются по наследству признаки и свойства
организмов, и т. д.

Представление информации осуществляется с помощью языков, как знаковых систем,


которые строятся на основе определенного алфавита и имеют правила для выполнения
операций над знаками.

Язык – определенная знаковая система представления информации. Существуют:


Естественные языки – разговорные языки в устной и письменной форме. В
некоторых случаях разговорную речь могут заменить язык мимики и жестов, язык
специальных знаков (например, дорожных);
Формальные языки – специальные языки для различных областей человеческой
деятельности, которые характеризуются жестко зафиксированным алфавитом, более
строгими правилами грамматики и синтаксиса. Это язык музыки (ноты), язык математики
(цифры, математические знаки), системы счисления, языки программирования и т.д.

Формализо́ванный язы́к
1. В широком смысле — любая совокупность некоторым образом
специализированных языковых средств с (более или менее) точно
фиксированными правилами образования «выражений» (синтаксис
формализованного языка) и приписывания этим выражениям определённого
смысла (семантика). В таком употреблении термин «Формализованный язык» не
предполагает, вообще говоря, никаких специальных ограничений ни на
синтаксическую структуру, ни на семантические правила, ни на назначение такого
языка. Например, выражения «Н2О», «вода», «eau», «water», «Wasser», «vesi» и т. д.
можно, в принципе, в равной мере считать элементами «Формализованного языка
химии».
2. Под формализованным языком в логике понимают интерпретированное
исчисление, то есть некоторую формальную систему вместе с её интерпретацией.
Использование формализованного языка — характерная особенность
математической логики, которую часто и определяют как «предмет формальной
логики, изучаемый посредством построения формализованных языков». Следует,
впрочем, заметить, что такого рода «определения» отнюдь не являются
неотъемлемым атрибутом изложении математической логики: понятие
формализованного языка не только не входит (как правило) в предметные логико-
математические языки, но не является, строго говоря, и элементом никакого
конкретного метаязыка, будучи скорее удобным рабочим термином для
предварительных эвристических пояснений предмета этой науки.
В основе любого языка лежит алфавит – набор символов/знаков..

Носители информации – среда или физическое тело для передачи, хранения и


воспроизведения информации. (Это электрические, световые, тепловые, звуковые, радио
сигналы, магнитные и лазерные диски, печатные издания, фотографии и тд.)
Для обеспечения информационного процесса необходим источник информации,
канал связи и потребитель информации. Источник передает (отправляет) информацию, а
приемник её получает (воспринимает). Передаваемая информация добивается от
источника до приемника с помощью сигнала. Изменение сигнала позволяет получить
информацию и хранить в виде кодов.

Канал связи
Источник Приёмник
Сигнал - способ передачи информации. Это физический процесс, имеющий
информационное значение. Он может быть непрерывным или дискретным.
Информация для человека — это содержание сигналов (сообщения), которые он
получает из различных источников.

Различают сигналы:
• световые;
• звуковые;
• тепловые;
• механические;
• электрические.

Сигналы могут быть:


• непрерывными  (аналоговые)- они принимают бесконечное множество значений из
некоторого диапазона;
• дискретными (цифровые)– они принимают конечное число значений, которые
можно пронумеровать.

Примерами непрерывных сигналов могут быть музыка, речь, изображения, показания


термометра (высота столба ртути может быть любой и представляет собой ряд
непрерывных значений).
Примерами дискретных сигналов могут быть показания механических или электронных
часов, тексты в книгах, показания цифровых измерительных приборов и т.д.
Системы счисления – принятый способ записи чисел и сопоставления этим записям реальных
значений. Все системы счисления можно разделить на 2 класса: позиционные и непозиционные.
Для записи чисел в различных системах счисления используется некоторое количество отличных
друг от друга знаков. Число таких знаков в позиционной системе счисления называется
основанием системы счисления.

В непозиционных системах счисления от положения цифры в записи числа не зависит величина,


которую она обозначает. Примером непозиционной системы счисления является римская
система, в которой в качестве цифр используются латинские буквы.

В позиционных системах счисления величина, обозначаемая цифрой в записи числа, зависит от ее


позиции. Количество используемых цифр называется основанием системы счисления. Место
каждой цифры в числе называется позицией.

5557 – число, записанное в семеричной системе счисления. Если число записано в десятичной
системе, то основание, как правило, не указывается.

1035 =1·10 + 0·10 + 3·10 + 5·10 ;


10
3  2  1  0

1010  = 1·2 + 0·2 + 1·2 + 0·2  = 10.


2
3  2  1  0
2. Код
Код – система условных обозначений или сигналов.
Длина кода – количество знаков, используемых для представления кодируемой
информации
Кодирование – это операция преобразования знаков или групп знаков одной
знаковой системы в знаки или группы знаков другой знаковой системы.
Декодирование – расшифровка кодированных знаков, преобразование кода символа
в его изображение
Декодирование — это процесс восстановления содержания закодированной
информации.

Двоичное кодирование – кодирование информации в виде 0 и 1


Машинный язык – логическая последовательность 0 и 1
1 бит – информация одной двоичной цифры (одного разряда)

количество информации в битах = количеству цифр двоичного кода


В теории кодирования и передачи информации под количеством информации
понимают – количество кодируемых, передаваемых или хранимых символов сообщения
В теории кодирования БИТ – двоичный знак двоичного алфавита {0,1}
Двоичное кодирование текста
Кодирование – присвоение каждому символу десятичного кода от 0 до 255 или
соответствующего ему двоичного кода от 00000000 до 11111111

Присвоение символу определенного кода – это вопрос соглашения, которое


фиксируется в кодовой таблице.
В качестве международного стандарта была принята кодовая таблица ASCII
(American Standard Code for Information Interchange) :
Коды с 0 по 32 (первые 33 кода) - коды операций (перевод строки, ввод пробела,
т.е. соответствуют функциональным клавишам);
Коды с 33 по 127 – интернациональные, соответствуют символам латинского
алфавита, цифрам, знакам арифметических операций, знакам препинания;
Коды с 128 по 255 – национальные, т.е. кодировка национального алфавита.
на 1 символ отводится 1 байт (8 бит), всего можно закодировать 28 = 256 символов
С 1997 года появился новый международный стандарт Unicode, который отводит
для кодировки одного символа 2 байта (16 бит), и можно закодировать 65536 различных
символов (Unicode включает в себя все существующие, вымершие и искусственно
созданные алфавиты мира, множество математических, музыкальных, химических и
прочих символов)
В настоящий момент существует пять кодировок кириллицы: КОИ-8, CP1251,
CP866, ISO, Mac. Для преобразования текстовых документов из одной кодировки в
другую существуют программы, которые называются Конверторы

Кодирование графической информации

Пространственная дискретизация – перевод графического изображения из


аналоговой формы в цифровой компьютерный формат путем разбивания изображения на
отдельные маленькие фрагменты (точки) где каждому элементу присваивается код цвета.
Пиксель – min участок изображения на экране, заданного цвета
Растровое изображение формируется из отдельных точек - пикселей, каждая из
которых может иметь свой цвет.
Двоичный код изображения, выводимого на экран храниться в видеопамяти.
Кодирование рисунка растровой графики напоминает – мозаику из квадратов, имеющих
определенный цвет
Качество кодирования изображения зависит от:

1) размера точки (чем меньше её размер, тем больше кол-во точек в изображении);
2) количества цветов (чем большее кол-во возможных состояний точки, тем
качественнее изображение)
Палитра цветов – совокупность используемого набора цвета
Качество растрового изображения зависит от:
1) разрешающей способности монитора – кол-во точек по вертикали и горизонтали.
2) используемой палитры цветов (16, 256, 65536 цветов)
3) глубины цвета – количество бит для кодирования цвета точки
Для хранения черно-белого изображения используется 1 бит.
16 цветного изображения – 4 бит
256 цветного изображения – 8 бит или 1 байт

Цветные изображения формируются в соответствии с двоичным кодом цвета,


который хранится в видеопамяти. Цветные изображения имеют различную глубину цвета.
Цветное изображение на экране формируется за счет смешивания трех базовых цветов –
красного, зеленого и синего (RGB). Для получения богатой палитры базовым цветам
могут быть заданы различные интенсивности.
Фрактальное изображение

Фрактал (лат. fractus — дробленый, сломанный, разбитый) — термин, означающий


сложную геометрическую фигуру, обладающую свойством самоподобия, то есть
составленную из нескольких частей, каждая из которых подобна всей фигуре целиком. В
более широком смысле под фракталами понимают множества точек в евклидовом
пространстве, имеющие дробную метрическую размерность (в смысле Минковского или
Хаусдорфа), либо метрическую размерность, строго большую топологической.

Фрактальная форма подвида цветной капусты (Brassica cauliflora)

Фрактал — это бесконечно самоподобная геометрическая фигура, каждый фрагмент


которой повторяется при уменьшении масштаба

Фрактал — самоподобное множество нецелой размерности


Следует отметить, что слово «фрактал» не является математическим термином и не
имеет общепринятого строгого математического определения. Оно может употребляться,
когда рассматриваемая фигура обладает какими-либо из перечисленных ниже свойств:

 Обладает нетривиальной структурой на всех шкалах. В этом отличие от


регулярных фигур (таких, как окружность, эллипс, график гладкой функции): если
мы рассмотрим небольшой фрагмент регулярной фигуры в очень крупном
масштабе, он будет похож на фрагмент прямой. Для фрактала увеличение
масштаба не ведёт к упрощению структуры, на всех шкалах мы увидим одинаково
сложную картину.
 Является самоподобной или приближённо самоподобной.
 Обладает дробной метрической размерностью или метрической размерностью,
превосходящей топологическую.

Многие объекты в природе обладают фрактальными свойствами, например,


побережья, облака, кроны деревьев, кровеносная система и система альвеол человека или
животных.
Векторная графика
Векторная графика — это использование геометрических примитивов, таких как
точки, линии, сплайны и многоугольники, для представления изображений в
компьютерной графике. Термин используется в противоположность к растровой графике,
которая представляет изображения как матрицу пикселов (точек).
Преимущества этого способа описания графики над растровой графикой:

 Минимальное количество информации передаётся намного меньшему размеру


файла (размер не зависит от величины объекта).
 Соответственно, можно бесконечно увеличить, например, дугу окружности, и
она останется гладкой. С другой стороны, если кривая представлена в виде
ломаной линии, увеличение покажет, что она на самом деле не кривая.
 При увеличении или уменьшении объектов толщина линий может быть
постоянной.
 Параметры объектов хранятся и могут быть изменены. Это означает, что
перемещение, масштабирование, вращение, заполнение и т. д. не ухудшат
качества рисунка. Более того, обычно указывают размеры в аппаратно-
независимых единицах (англ. device-independent unit), которые ведут к
наилучшей возможной растеризации на растровых устройствах.

У векторной графики есть два фундаментальных недостатка.

 Не каждый объект может быть легко изображен в векторном виде. Кроме того,
количество памяти и времени на отображение зависит от числа объектов и их
сложности.
 Перевод векторной графики в растр достаточно прост. Но обратного пути, как
правило, нет — трассировка растра обычно не обеспечивает высокого качества
векторного рисунка.

Двоичное кодирование звука


Основные теоретические положения

Временная дискретизация звука. Для того чтобы компьютер мог обрабатывать звук,


непрерывный звуковой сигнал должен быть преобразован в цифровую дискретную форму
с помощью временной дискретизации. Непрерывная звуковая волна разбивается на
отдельные маленькие временные участки, для каждого такого участка устанавливается
определенная величина интенсивности звука.
Таким образом, непрерывная зависимость громкости звука от времени A(t) заменяется
на дискретную последовательность уровней громкости. На графике это выглядит как
замена гладкой кривой на последовательность "ступенек".

Частота дискретизации. Для записи аналогового звука и его преобразования в


цифровую форму используется микрофон, подключенный к звуковой плате. Качество
полученного цифрового звука зависит от количества измерений уровня громкости звука в
единицу времени, т.е. частоты дискретизации. Чем большее количество измерений
производится за 1 секунду (чем больше частота дискретизации), тем точнее "лесенка"
цифрового звукового сигнала повторяет кривую аналогового сигнала.
Частота дискретизации звука - это количество измерений громкости звука за
одну секунду, измеряется в герцах (Гц). Обозначим частоту дискретизации буквой f.
Частота дискретизации звука может лежать в диапазоне от 8000 до 48 000
измерений громкости звука за одну секунду. Для кодировки выбирают одну из трех
частот: 44,1 КГц, 22,05 КГц, 11,025 КГц.

Глубина кодирования звука. Каждой "ступеньке" присваивается определенное


значение уровня громкости звука. Уровни громкости звука можно рассматривать как
набор возможных состояний N, для кодирования которых необходимо определенное
количество информации b, которое называется глубиной кодирования звука
Глубина кодирования звука - это количество информации, которое необходимо
для кодирования дискретных уровней громкости цифрового звука.
Если известна глубина кодирования, то количество уровней громкости цифрового
звука можно рассчитать по формуле N = 2b. Пусть глубина кодирования звука составляет
16 битов, тогда количество уровней громкости звука равно:
N = 2b = 216 = 65 536.
В процессе кодирования каждому уровню громкости звука присваивается свой 16-
битовый двоичный код, наименьшему уровню звука будет соответствовать код
0000000000000000, а наибольшему - 1111111111111111.
Качество оцифрованного звука. Чем больше частота и глубина дискретизации
звука, тем более качественным будет звучание оцифрованного звука. Самое низкое
качество оцифрованного звука, соответствующее качеству телефонной связи, получается
при частоте дискретизации 8000 раз в секунду, глубине дискретизации 8 битов и записи
одной звуковой дорожки (режим "моно"). Самое высокое качество оцифрованного звука,
соответствующее качеству аудио-CD, достигается при частоте дискретизации 48 000 раз в
секунду, глубине дискретизации 16 битов и записи двух звуковых дорожек (режим
"стерео").
Необходимо помнить, что чем выше качество цифрового звука, тем больше
информационный объем звукового файла.
3. Как измеряется количество информации

В информатике используются различные подходы к измерению информации:


Содержательный подход к измерению информации. Сообщение –
информативный поток, который в процессе передачи информации поступает к приемнику.
Сообщение несет информацию для человека, если содержащиеся в нем сведения являются
для него новыми и понятными
Алфавитный подход к измерению информации не связывает кол-во информации с
содержанием сообщения. Алфавитный подход - объективный подход к измерению
информации. Он удобен при использовании технических средств работы с информацией,
т.к. не зависит от содержания сообщения. Кол-во информации зависит от объема текста и
мощности алфавита.
Ограничений на max мощность алфавита нет, но есть достаточный алфавит
мощностью 256 символов. Этот алфавит используется для представления текстов в
компьютере. Поскольку 256=28, то 1символ несет в тексте 8 бит информации. В качестве
единицы информации условились принять один бит (англ. bit — binary digit —
двоичная цифра).

Бит в теории информации — количество информации, необходимой для различения двух


равновероятных сообщений. В вычислительной технике битом называют наименьшую «порцию»
памяти, необходимую для хранения одного из двух знаков «0» и «1», используемых для
внутримашинного представления данных и команд.

Вероятностный подход к измерения информации. Все события происходят с


различной вероятностью, но зависимость между вероятностью событий и количеством
информации, полученной при совершении того или иного события можно выразить
формулой которую в 1948 году предложил Шеннон.
Ниже представлены два подхода такого рода.
Американский инженер Р. Хартли в 1928 г. процесс получения информации
рассматривал как выбор одного сообщения из конечного наперед заданного множества из
N равновероятных сообщений, а количество информации, I содержащейся в выбранном
сообщении, определял как двоичный логарифм N.

Формула Хартли: I = log2N.


американский ученый Клод Шеннон предложил в 1948 г. другую формулу
определения количества информации, учитывающую возможную неодинаковую
вероятность сообщений в наборе.
Формула Шеннона:
I= -(p1 log2p1 + P2 log2p2 + . . . +pNlog2pN),
где p1. — вероятность того, что именно i-e сообщение выделено в наборе из N
сообщений.

1
Заметим, что если вероятности p1,...,pN равны, то каждая из них равна N , и
формула Шеннона превращается в формулу Хартли.

1 Байт = 8 бит
1 Килобайт (Кбайт) = 1024 байт = 210 байт
1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт
1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт
1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт
1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт

За единицу информации можно было бы выбрать количество информации,


необходимой для различения, например, десяти равновероятных сообщений. Это будет не
двоичная (бит), а десятичная (дит) единица информации.
К достоинству двоичной системы счисления относится – простота совершаемых
операций, возможность автоматической обработки информации с использованием двух
состояний элементов ПК и операцию сдвиг

4. Задачи для самостоятельной подготовки.


1. Рассчитайте  объём  монофонического  аудиофайла  длительностью  10 с  при  16-
битном  кодировании  и  частоте  дискретизации 44,1 к Гц.  (861  Кбайт)

2. Производится двухканальная (стерео) звукозапись с частотой дискретизации 48


кГц и 24-битным разрешением. Запись длится 1 минуту, ее результаты записываются в
файл, сжатие данных не производится. Какое из приведенных ниже чисел наиболее
близко к размеру полученного файла, выраженному в мегабайтах?
 1)0,3   2) 4   3) 16   4) 132
3. Производится одноканальная (моно) звукозапись с частотой дискретизации 11 кГц
и глубиной кодирования 24 бита. Запись длится 7 минут, ее результаты записываются в
файл, сжатие данных не производится. Какое из приведенных ниже чисел наиболее
близко к размеру полученного файла, выраженному в мегабайтах?
 1) 11     2) 13    3)  15              4)  22
4. Производится двухканальная (стерео) звукозапись с частотой дискретизации 11
кГц и глубиной кодирования 16 бит. Запись длится 6 минут, ее результаты записываются
в файл, сжатие данных не производится. Какое из приведенных ниже чисел наиболее
близко к размеру полученного файла, выраженному в мегабайтах?
1) 11                2) 12           3)  13         4)  15
5. При  16-битном  кодировании,  частоте  дискретизации  32 кГц  и  объёме
моноаудиофайла 700 Кбайт время  звучания  равно:
                          1) 20 с             2) 10 с             3) 1,5 мин                  4) 1,5 с
6. Одна минута записи цифрового аудиофайла занимает на диске 1,3 Мб, разрядность
звуковой платы - 8. С какой частотой дискретизации записан звук?
7. Аналоговый звуковой сигнал  был  дискретизирован  сначала  с  использованием 
256 уровней  интенсивности  сигнала  (качество  звучания  радиотрансляции),  а  затем  65
536 уровней (качество звучания аудио-CD).  Во  сколько  раз  различаются 
информационные  объёмы  оцифрованного  звука?
                          1) 16                2) 24               3) 4                 4) 2

ЛИТЕРАТУРА

1. Маняхина В. Г. Системное и прикладное программное обеспечение. Москва, 2011


2. Поляков В.П. Экономическая информатика. Учебник и практикум для прикладного
бакалавриата. ЮРАЙТ, с. 496, 2015
3. Луковкин, С.Б. Теоретические основы информатики: учеб. пособие / С.Б. Луковкин
– Мурманск: Изд-во МГТУ, 2008. - 125 с.
4. Савченко В. Ф. Кодирование информации: учебное пособие / ВолгГТУ, Волгоград,
2008. – 64с.
5. Borda, M. Comprehensive Introduction to Information Theory and Coding, 2019, ISBN
978-3-642-20347-3

Дополнительная литература:

1. Макарова Н.В., Волков В.Б. Информатика: Учебник для вузов. Стандарт третьего
поколения. Санкт-Петербург: Издательство “Питер”, 2013.
2. Новожилов О. П. Информатика. Учебник для прикладного бакалавриата. 3-е изд.,
перераб. и доп. Москва: Издательство Юрайт, 2016.
3. http://infodp84.blogspot.com/2013/09/blog-post_8.html
4. http://900igr.net/prezentacija/informatika/rastrovaja-i-vektornaja-grafika-132035/menju-
47.html
5. https://www.krugosvet.ru/enc/matematika/sistemy-schisleniya

Вам также может понравиться