Академический Документы
Профессиональный Документы
Культура Документы
УТВЕРЖДАЮ
Декан факультета
Информационных
технологий
_______________ Сеилов Ш.Ж.
(подпись)
_______________________ 2022 г.
МП
УЧЕБНО-МЕТОДИЧЕСКИЙ КОМПЛЕКС
ДИСЦИПЛИНЫ
по дисциплине TIK 2215– Теория информации и кодирования
(наименование дисциплины)
Нур-Султан
2022
НАО «Евразийский национальный университет им. Л. Н. Гумилева»
Факультет «Информационных технологий»
Кафедра «Информационная безопасность»
Астана
2023
Данный документ согласно пункту 1 статьи 7 ЗРК от 7 января 2003 года «Об
электронном документе и электронной цифровой подписи» равнозначен документу
на бумажном носителе
Документ подписали
№ ФИО Должность
1 Ташатов Нурлан Наркенович Доцент (исполняющий обязанности)
2 Сатыбалдина Дина Жагыпаровна Заведующий кафедры
3 Сагнаева Сауле Кайроллиевна доцент
4 Сеилов Шахмаран Журсинбекович Декан факультета
Разработчик:
Ташатов Нурлан Наркенович, Доцент (исполняющий обязанности)
Рабочая (модульная) учебная программ (Syllabus) по дисциплине TIK 2215 Теория информации и кодирования
разработана на основании каталога элективных дисциплин
Разработчик
или разработчики Ташатов Нурлан Наркенович, к.ф.-м.н., доцент р
(Ф.И.О., занимаемая должность, ученая степень)
ПОЯСНИТЕЛЬНАЯ ЗАПИСКА
2. Пререквизиты
Постреквизиты
Знания, умения и навыки, полученные при изучении дисциплины необходимы для
освоения следующих дисциплин: при написании дипломных работ
Лекции 15
Практическое занятие
Семинарское занятие
Лабораторное занятие 30
Студийное занятие
СРО 105
Итого 150
4. Тематический план дисциплины по модулям
Ф ЕНУ 703-13-17 Рабочая (модульная) учебная программа (Syllabus). Издание первое
Евразийский национальный
Рабочая (модульная) учебная программа (Syllabus) Издание: первое
университет им. Л.Н. Гумилева
(в академических часах)
№ модуля Наименование модуля
1 Количественная оценка информации и каналы связи
2 Изучение принципов, алгоритмов и методов теории помехоустойчивого
кодирования и их реализация
Лекционные занятия
№ № Наименование темы лекции Количество Виды и методы
недели модуля часов обучения
1 1 Основные понятия и определения 1 объяснительно-
дисциплины «Теории информации иллюстративная лекция,
интерактивный метод
и кодирования».
2 Количественная оценка 1 объяснительно-
1 информации. Единицы количества иллюстративная лекция,
интерактивный метод
информации.
3 Понятие энтропии. Энтропия как 1 объяснительно-
1 мера неопределенности. Свойства иллюстративная лекция,
интерактивный метод
энтропии.
4 Условная энтропия и энтропия 1 объяснительно-
1 объединения иллюстративная лекция,
интерактивный метод
5 Информационные характеристики 1 объяснительно-
канала связи. Пропускная иллюстративная лекция,
1 интерактивный метод
способность канала связи.
Избыточность.
6 Основы помехоустойчивого 1 объяснительно-
1 кодирования. Основные иллюстративная лекция,
интерактивный метод
принципы. Типы кодов
7 Линейные блоковые коды. Основы 1 объяснительно-
2 матричного построения кодов иллюстративная лекция,
интерактивный метод
8 Линейные блоковые коды. 1 объяснительно-
2 Синдром и обнаружение ошибок. иллюстративная лекция,
интерактивный метод
Синдромное декодирование
9 Линейные блоковые коды. Вес и 1 объяснительно-
расстояние Хемминга. иллюстративная лекция,
интерактивный метод
2 Корректирующая способность
обнаруживать и исправлять
ошибки
10 Линейные блоковые коды. 1 объяснительно-
Совершенные коды и граница иллюстративная лекция,
2 интерактивный метод
Хемминга. Вероятность ошибки
декодирования
11 Линейные блоковые коды. Коды 1 объяснительно-
2 Хемминга. Расширенные коды иллюстративная лекция,
интерактивный метод
12 Циклические коды. Определение и 1 объяснительно-
свойства двоичных циклических иллюстративная лекция,
2 интерактивный метод
кодов. Систематический
циклический код.
Ф ЕНУ 703-13-17 Рабочая (модульная) учебная программа (Syllabus). Издание первое
Евразийский национальный
Рабочая (модульная) учебная программа (Syllabus) Издание: первое
университет им. Л.Н. Гумилева
Лабораторные занятия
№ № Наименование тем Количество Виды и методы
недели модуля практических занятий часов обучения
1 1 Обращение. Код Цезаря, метод 2 Выполнение заданий и
полосок. Алфавитная подстановка, оформление отчетов по
лабораторным работам,
транспозиция. объяснительно-
мотивационный метод
2 Количество информации. Подход 2 Выполнение заданий и
Хартли. Подход Шеннона оформление отчетов по
1 лабораторным работам,
объяснительно-
мотивационный метод
3 Неравномерные коды Шеннона – 2 Выполнение заданий и
Фано и Хаффмана оформление отчетов по
1 лабораторным работам,
объяснительно-
мотивационный метод
4 Условная энтропия 2 Выполнение заданий и
оформление отчетов по
1 лабораторным работам,
объяснительно-
мотивационный метод
5 Энтропия объединения 2 Выполнение заданий и
оформление отчетов по
1 лабораторным работам,
объяснительно-
мотивационный метод
6 Арифметическое кодирование и 2 Выполнение заданий и
декодирование оформление отчетов по
1 лабораторным работам,
объяснительно-
мотивационный метод
7 Кодирование и декодирование 2 Выполнение заданий и
Лемпеля – Зива оформление отчетов по
1 лабораторным работам,
объяснительно-
мотивационный метод
8 Линейные блоковые коды. Код с 2 Выполнение заданий и
одной проверкой на четность оформление отчетов по
2 лабораторным работам,
объяснительно-
мотивационный метод
Ф ЕНУ 703-13-17 Рабочая (модульная) учебная программа (Syllabus). Издание первое
Евразийский национальный
Рабочая (модульная) учебная программа (Syllabus) Издание: первое
университет им. Л.Н. Гумилева
СРО
№ № Наименование темы СРО. Количество Виды и методы
недели модуля Сроки сдачи СРО часов обучения
1 1 Информация и сообщение 7 эвристические
самостоятельные работы,
реферат-доклад
2 Энтропия и информация. 7 эвристические
1 Информация и алфавит. самостоятельные работы,
реферат-доклад
3 Оптимальное кодирование 7 эвристические
1 самостоятельные работы,
реферат-доклад
4 Свойства симметричного канала 7 эвристические
1 связи самостоятельные работы,
реферат-доклад
5 Вычисление скорости передачи 7 эвристические
1 информации самостоятельные работы,
реферат-доклад
6 1 Код Макдональда 7 эвристические
Ф ЕНУ 703-13-17 Рабочая (модульная) учебная программа (Syllabus). Издание первое
Евразийский национальный
Рабочая (модульная) учебная программа (Syllabus) Издание: первое
университет им. Л.Н. Гумилева
самостоятельные работы,
реферат-доклад
7 Код Варшамова 7 эвристические
1 самостоятельные работы,
реферат-доклад
8 Коды с малой плотностью 7 эвристические
2 проверок на че самостоятельные работы,
реферат-доклад
9 Итеративный код 7 эвристические
2 самостоятельные работы,
реферат-доклад
10 Коды Плоткина 7 эвристические
2 самостоятельные работы,
реферат-доклад
11 Код Бергера 7 эвристические
2 самостоятельные работы,
реферат-доклад
12 Генератор Блюма-Шуба 7 эвристические
2 самостоятельные работы,
реферат-доклад
13 Непрерывные коды 7 эвристические
2 самостоятельные работы,
реферат-доклад
14 Компаундные коды 7 эвристические
2 самостоятельные работы,
реферат-доклад
15 Двоичный код Голлея. Код 7 эвристические
2 Абрамсона (CRC коды) самостоятельные работы,
реферат-доклад
ИТОГО 105
2 https://postnauka.ru/faq/81997
3 http://ijitt.ru/index.php/vypuski-zhurnala
4 https://postnauka.ru/faq/81997
исходов является достоверным (тогда событие перестает быть случайным). Во всех остальных
случаях, очевидно, что Н > 0.
2. Из аддитивности неопределенностей следует, что и энтропия, как мера
неопределенности, должна обладать аддитивностью, т.е. для двух независимых опытов X и Y
H(X Y) H(X ) H(Y)
т.е. энтропия сложного опыта, состоящего из нескольких независимых, равна сумме
энтропий отдельных опытов.
Взаимная и условная энтропия. При аксиоматическом построении теории информации
использовалось такое понятие, как информация пары событий. Напомним и обобщим эти
рассуждения.
Рассмотрим два дискретных источника X и Y. Объединим их события в пары событий
(хi, yi). Мы получим простейшую модель связанных источников.
Если оба источника каким-то образом связаны между собой, то следует ожидать, что
событие одного источника позволяет делать некоторое предположение о событии другого. В
терминах теории информации это означает, что неопределенность второго источника
снижается, т.е. источники обмениваются взаимной информацией.
Информация пары событий (xi, yi) определяется суммой информации этих событий за
вычетом некоторой неотрицательной величины, которая снижает неопределенность, т.е. сама
в свою очередь является информацией. Поэтому, назовем ее взаимной информацией пары
событий.
Взаимная информация пары событий определяется как
Обратим внимание на то, что взаимная информация I(xi, yi) всегда положительна. Важным
свойством также является симметрия взаимной информации относительно источников, т.к.
то есть информацию нары событий можно определить как сумму информации события yi и
информации события xi при условии, что событие yi уже известно, или, наоборот, как сумму
информации события xi и информации события yi при условии, что событие xi уже известно.
Понятие условной энтропии в теории информации используется при определении
взаимозависимости между символами кодируемого алфавита, для определения потерь при
передаче информации по каналам связи, при вычислении энтропии объединения. Во всех
случаях при вычислении условной энтропии в том или ином виде используются условные
вероятности.
Из формулы следует
p (X Y) = p( X) p(Y / X) = p (Y) p (X / Y).
От классического выражения формула условной энтропии отличается тем,
что в ней вероятности – условные (выражение частные условные энтропии):
где индекс i выбран для характеристики произвольного состоянии источника сообщений X,
индекс j выбран для характеристики произвольного состояния адресата Y.
Общая условная энтропия сообщения Y относительно сообщения X характеризует
количество информации, содержащееся в любом символе алфавита. Она определяется
усреднением по всем символам, т. е. по всем состояниям с учетом вероятности появления
каждого из состояний, и равна сумме вероятностей появления символов алфавита на
неопределенность, которая остается, после того как адресат принял сигнал
Будем исходить из того, что при передаче информации используется блоковый код
Хэмминга, структура которого будет подробно раскрыта в дальнейшем. Сейчас мы
ограничимся его табличным описанием. Пусть кодер источника последовательно выдает
информационные слова фиксированной длины. Кодер канала заменяет каждое
информационное слово u кодовым словом v в соответствии с таблицей 1.
Литература
1. Б.Скляр. Цифровая связь. Теоретические основы и практическое применение. Изд. 2-е,
испр.: Пер. с англ. – М.: Изд. дом «Вильямс», 2009. – 1104 с.
2. Березюк Н.Т., Андрущенко А.Г. и др. Кодирование информации (двоичные коды). Изд-
во «Вища школа» Харьков, 2009. – 252 с.
3. Цымбал В.П. Теория информации и кодирования. – Изд-во «Вища школа» Киев, 2010.
– 232 с.
4. Вернер М. Основы кодирования. - Изд-во «Техносфера» Москва, 2009. – 288 с.
5. Ризаев И.С. Теория информации и кодирования. – Учебное пособие. Изд-во КГТУ
Казань, 2012. – 98 с.
6. Лидовский В.В. Теория информации. - Учебное пособие. Изд-во РГТУ Москва, 2012. –
104 с.
Важное семейство кодов образуют линейные двоичные блоковые коды. Эти коды
замечательны тем, что, представляя информационные и кодовые слова в форме двоичных
векторов, мы можем описать процессы кодирования и декодирования с помощью аппарата
линейной алгебры, при этом, компонентами вводимых векторов и матриц являются символы 0
и 1. Операции над двоичными компонентами производятся по привычным правилам двоичной
арифметики, так называемой, арифметики по модулю 2.
Таблица 2 – Арифметика по модулю 2.
Сложение Умножение
0 1 0 1
0 0 1 0 0 0
1 1 0 1 0 1
k
R . (3.1)
m
Чем ниже скорость, тем больше избыточность кода и тем большими возможностями
для защиты от ошибок он обладает (здесь, однако, надо учитывать, что с увеличением
избыточности, затраты на передачу информацию также возрастают).
Кодирование линейного блокового (n, k)-кода задается порождающей матрицей G k n .
В рассмотренном выше (7, 4)-коде Хэмминга порождающая матрица имеет вид
1 1 0 1 0 0 0
0 1 1 0 1 0 0
G47
1 1 0 0 1 0
. (3.2)
1
1 0 1 0 0 0 1
v u G. (3.3)
Первое, что сразу же бросается в глаза из таблицы 1, это совпадение последних четырех
разрядов кодовых слов с информационными векторами. Такой код относится к семейству
систематических кодов.
Gk n ( Pk ( n k ) I k ) , (3.5)
Литература
1. Б.Скляр. Цифровая связь. Теоретические основы и практическое применение. Изд. 2-е,
испр.: Пер. с англ. – М.: Изд. дом «Вильямс», 2009. – 1104 с.
2. Березюк Н.Т., Андрущенко А.Г. и др. Кодирование информации (двоичные коды). Изд-
во «Вища школа» Харьков, 2009. – 252 с.
3. Цымбал В.П. Теория информации и кодирования. – Изд-во «Вища школа» Киев, 2010.
– 232 с.
4. Вернер М. Основы кодирования. - Изд-во «Техносфера» Москва, 2009. – 288 с.
5. Ризаев И.С. Теория информации и кодирования. – Учебное пособие. Изд-во КГТУ
Казань, 2012. – 98 с.
6. Лидовский В.В. Теория информации. - Учебное пособие. Изд-во РГТУ Москва, 2012. –
104 с.
Лекция 4. Линейные блоковые коды. Синдром и обнаружение ошибок. Синдромное
декодирование
r0 r3 r5 r6 s0
r1 r3 r4 r5 s1 . (4.1)
r2 r4 r5 r6 s2
Таким образом, из первых трех столбцов порождающей матрицы G (см. формулу 3.2),
мы получили систему трех проверочных уравнений, в которой операция производится по
правилам арифметики по модулю 2 (см. таблицу 2). Если в полученной системе уравнений хотя
бы одна из компонент {s 0 , s1 , s 2 } не равна нулю, то в канале произошла ошибка. Запишем
систему проверочных уравнений в общем виде. Для любого систематического кода с
порождающей матрицей (3.5), проверочная матрица определяется как
H ( n k )n ( I n k PkT( n k ) ) , (4.2)
Вектор s принято называть синдромом. Таким образом, ошибка будет обнаружена, если
хотя бы одна из компонент s не равна нулю. Равенство (4.3) можно переписать в виде
I n k
s r .
(4.4)
P
k ( n k )
1 0 0
0 1 0
0 0 1
s (0011010) 1 1 0 (000) . (4.6)
0 1 1
1 1 1
1 0 1
1 0 0
0 1 0
0 0 1
s (0010010) 1 1 0 (110) . (4.7)
0 1 1
1 1 1
1 0 1
Кодовое слово r r0 r1 r2 r3 r4 r5 r6
Синдром s 100 010 001 110 011 111 101
Можно заметить, что ошибке в i-ой позиции кодового слова соответствует синдром,
образованный i -ым столбцом матрицы H. Так как все столбцы матрицы различны, мы можем
с помощью таблицы 3 исправлять одиночную ошибку, вносимую каналом. Обобщим
приведенные выше рассуждения, используя аппарат линейной алгебры. Исходным
материалом для построения кодовых конструкций служит n -мерное двоичное векторное
пространство, в котором заданы операции арифметики по модулю 2.
В него вложено k-мерное линейное пространство, содержащее 2k кодовых слов (рисунок
8).
s v HT 0. (4.11)
s r H T 0 для r C . (4.12)
s r H T (v e) H T e H T . (4.13)
Литература
1. Б.Скляр. Цифровая связь. Теоретические основы и практическое применение. Изд. 2-е,
испр.: Пер. с англ. – М.: Изд. дом «Вильямс», 2009. – 1104 с.
2. Березюк Н.Т., Андрущенко А.Г. и др. Кодирование информации (двоичные коды). Изд-
во «Вища школа» Харьков, 2009. – 252 с.
3. Цымбал В.П. Теория информации и кодирования. – Изд-во «Вища школа» Киев, 2010.
– 232 с.
4. Вернер М. Основы кодирования. - Изд-во «Техносфера» Москва, 2009. – 288 с.
5. Ризаев И.С. Теория информации и кодирования. – Учебное пособие. Изд-во КГТУ
Казань, 2012. – 98 с.
6. Лидовский В.В. Теория информации. - Учебное пособие. Изд-во РГТУ Москва, 2012. –
104 с.
n 1
d (vi , v j ) vi ,l v j ,l . (5.1)
l 0
d (v1 , v2 ) (1 0) (1 1) (0 1) (1 1) (0 1) (0 0) (0 0) 3 . (5.3)
т.е. минимальное кодовое расстояние dmin линейного кода равно минимальному весу
ненулевого кодового слова. Из линейности кода также следует симметричность распределения
кодовых расстояний относительно любого кодового.
Из таблицы 1 следует, что dmin (7,4)-кода Хэмминга равно 3.
Обобщая все приведенные выше рассуждения и примеры, мы можем определить
корректирующую способность линейного кода следующим образом.
Линейный двоичный (n, k)-код с минимальным расстоянием Хэмминга d min 2t 1
может обнаружить dmin – 1 ошибок и исправить t ошибок.
Если код исправляет все ошибки кратности и < t, то области декодирования
представляют собой сферы радиуса t в n-мерном пространстве.
Литература
1. Б.Скляр. Цифровая связь. Теоретические основы и практическое применение. Изд. 2-е,
испр.: Пер. с англ. – М.: Изд. дом «Вильямс», 2009. – 1104 с.
2. Березюк Н.Т., Андрущенко А.Г. и др. Кодирование информации (двоичные коды). Изд-
во «Вища школа» Харьков, 2009. – 252 с.
3. Цымбал В.П. Теория информации и кодирования. – Изд-во «Вища школа» Киев, 2010.
– 232 с.
4. Вернер М. Основы кодирования. - Изд-во «Техносфера» Москва, 2009. – 288 с.
5. Ризаев И.С. Теория информации и кодирования. – Учебное пособие. Изд-во КГТУ
Казань, 2012. – 98 с.
6. Лидовский В.В. Теория информации. - Учебное пособие. Изд-во РГТУ Москва, 2012. –
104 с.
t
1 n C n2 C nt C nl . (6.1)
l 0
n - мерных векторов.
Так как общий объем непересекающихся сфер не может превышать объем n -мерного
векторного пространства, для двоичных кодов имеем
t
2 2
n k
Cnl . (6.2)
l 0
или
t
2 n k C nl . (6.3)
l 0
Равенство имеет место только для совершенных двоичных кодов. Выражение (6.3)
называется границей Хэмминга. Граница Хэмминга является нижней оценкой необходимого
числа проверочных символов двоичного кода длины n, способного исправлять t ошибок.
Из (6.3) следует, что рассмотренный нами (7,4)-код Хэмминга является совершенным,
так как
1
2 7 4
8 C7l C70 C71 1 7 8
l 0
n
Pr Ai Pei (1 Pe ) ni . (6.4)
i d min
n
Pr Ped min Ai
Pei d (1 Pe ) ni (2 k 1) Ped
min min
. (6.5)
i d min
1
Решение.
1. Кодовое слово будет передаваться без ошибок, если все 7 двоичных символов будут
переданы верно. Для ДСК без памяти с вероятностью ошибки на символ Ре, вероятность
безошибочной передачи кодового слова равна
Pc (1 Pe ) 7 . (6.6)
(2 k 1) Ped min
15 0.0233 18 105 . (6.10)
Литература
1. Б.Скляр. Цифровая связь. Теоретические основы и практическое применение. Изд. 2-е,
испр.: Пер. с англ. – М.: Изд. дом «Вильямс», 2009. – 1104 с.
2. Березюк Н.Т., Андрущенко А.Г. и др. Кодирование информации (двоичные коды). Изд-
во «Вища школа» Харьков, 2009. – 252 с.
3. Цымбал В.П. Теория информации и кодирования. – Изд-во «Вища школа» Киев, 2010.
– 232 с.
4. Вернер М. Основы кодирования. - Изд-во «Техносфера» Москва, 2009. – 288 с.
5. Ризаев И.С. Теория информации и кодирования. – Учебное пособие. Изд-во КГТУ
Казань, 2012. – 98 с.
6. Лидовский В.В. Теория информации. - Учебное пособие. Изд-во РГТУ Москва, 2012. –
104 с.
Так как минимальное расстояние кода Хэмминга dmin = 3, все столбцы проверочной
матрицы должны быть попарно различными (проверочная матрица не должна
содержать одинаковых столбцов).
Из dmin = 3 следует также, что каждая строка порождающей матрицы должна
содержать как минимум три единицы, так как строки порождающей матрицы в свою
очередь являются кодовыми словами. Если порождающая матрица представлена в
виде
g1 g1,1 g1, 2 g1,n
g 2 g 2,1 g 2, 2 g 2,n
Gk n ( Pk ( n k ) I k ) ,
(7.2)
g k ,n
g k g k ,1 g k ,2
то это значит, что строки матрицы Р должны содержать как минимум две единицы.
T
(Следовательно, это относится и к столбцам транспонированной матрицы P ).
Рассмотрим проверочную матрицу. Она имеет вид H ( n k )n ( I n k Pk ( n k ) ) .
T
Матрица P содержит k столбцов и т = n – k строк. Используя двоичные символы «0»
T
и «1», можно образовать 2т различных столбцов. Но, так как ранее было сказано, что
каждый столбец должен содержать как минимум две единицы, то следует отбросить
один нулевой столбец и т столбцов, содержащих по одной единице. Таким образом,
остается 2 m 1 возможностей. Так как 2 m 1 k и матрица P содержит
m m T
ровно k столбцов, то все эти возможности использованы. Отсюда следует, что столбцы
T
транспонированной матрицы P представляют собой все возможные двоичные слова
длины т = n – k, содержащие не менее двух единиц.
Pc (1 Pe )15 . (7.3)
min
i d min
1
(2 k 1) Ped min
2047 0.0233 0.025 . (7.5)
3. При скорости передачи двоичных символов 16 кбит/сек, эффективная
скорость передачи данных составляет
В результате получим
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
0 1 0 0 0 1 0 0 1 0 1 1 0 1 1 1
H 516 0 0 1 0 0 1 1 0 0 1 0 1 1 0 1 1 . (7.12)
0 0 0 1 0 0 1 1 1 0 0 1 1 1 0 1
0 0 0 0 1 0 0 1 0 1 1 0 1 1 1 1
Из (7.10) и (7.12) следует, что и другие компоненты синдрома s также равны нулю.
Утверждение, что минимальное кодовое расстояние dmin кодов Хэмминга с проверкой на
четность равно 4, следует непосредственно из определения веса кодовых слов. В самом деле, так
как минимальный вес всех векторов кода Хэмминга, за исключением нулевого, равен 3, то
дополнительный разряд проверки на четность увеличивает этот минимальный вес до 4.
Расширенный код Хэмминга также является линейным и его минимальное расстояние dmin = 4.
Прежде чем говорить о декодировании кодов Хэмминга с проверкой на четность, напомним
два возможных режима декодирования обычных кодов Хэмминга.
1. Режим обнаружения ошибок. Если синдром s 0 , то декодер выдает сигнал
ошибки. Так как dmin кода Хэмминга равно 3, то ошибки кратности 2 всегда
обнаруживаются.
2. Режим коррекции ошибок. Если синдром s 0 , то декодер всегда исправляет один
из разрядов кодового слова (так как код Хэмминга является плотно-упакованным сферами
радиуса t = 1). Таким образом, декодер исправляет все однократные ошибки.
Из всего вышесказанного видно, что код Хэмминга или только обнаруживает все
ошибки кратности не выше 2, или только исправляет все однократные ошибки.
Теперь перейдем к кодам Хэмминга с проверкой на четность. Так как dmin таких кодов
равно 4, то в режиме обнаружения фиксируются все ошибки кратности 3 и ниже. Режим же
коррекции ошибок можно существенно улучшить, благодаря наличию в кодовых словах
дополнительного разряда проверки на четность.
Прежде всего заметим, что процесс исправления одиночных ошибок во всех разрядах,
исключая проверочный, ничем не отличается от обычного кода Хэмминга. Таким образом,
одиночная ошибка всегда может быть исправлена. (В этом случае, признаком одиночной
ошибки в проверочном разряде, является равенство нулю всех компонент синдрома s за
исключением s 0 , равная единице). С другой стороны, заметим, что при одиночной ошибке
всегда выполняется равенство s 0 1 . При двукратной же ошибке, компонента s 0 всегда равна
«0». Таким образом, получаем следующий улучшенный алгоритм коррекции ошибок в
расширенном коде Хэмминга.
Литература
1. Б.Скляр. Цифровая связь. Теоретические основы и практическое применение. Изд. 2-е,
испр.: Пер. с англ. – М.: Изд. дом «Вильямс», 2009. – 1104 с.
2. Березюк Н.Т., Андрущенко А.Г. и др. Кодирование информации (двоичные коды). Изд-
во «Вища школа» Харьков, 2009. – 252 с.
3. Цымбал В.П. Теория информации и кодирования. – Изд-во «Вища школа» Киев, 2010.
– 232 с.
4. Вернер М. Основы кодирования. - Изд-во «Техносфера» Москва, 2009. – 288 с.
5. Ризаев И.С. Теория информации и кодирования. – Учебное пособие. Изд-во КГТУ
Казань, 2012. – 98 с.
6. Лидовский В.В. Теория информации. - Учебное пособие. Изд-во РГТУ Москва, 2012. –
104 с.
Лекция 8. Циклические коды. Определение и свойства двоичных циклических
кодов. Систематический циклический код.
8.1 Введение.
X i v( X ) v0 X i v1 X i 1 vni 1 X n 1
vn i X n v n1 X n i 1 . (8.8)
q ( X ) X n
X i v( X ) q( X ) ( X n 1) v (i ) ( X ) . (8.9)
g( X ) g 0 g1 X g 2 X 2 g r X r
g ( X ) g 0 g1 X g 2 X 2 g r X r
g ( X ) g ( X ) ( g 0 g 0 ) ( g1 g1 ) X ( g r g r ) X r .
0
Этот многочлен также принадлежит коду. А по определению его степень не может быть
меньше r, поэтому g0 = 1.
Теорема 3. Пусть g(X) – многочлен минимальной степени r. Тогда, чтобы v(X) является
кодовым многочленом необходимо и достаточно, чтобы он был кратен g(X).
v( X ) a( X ) g( X )
(a0 a1 X a2 X 2 an1 r X n1r ) g( X )
a0 g( X ) a1 Xg( X ) a2 X 2 g( X ) an1r X n1 r g( X ) . (8.11)
Так как степень многочлена g(X) не превосходит r, а степень многочлена a(X) не превосходит n
– 1 – r, произведение a(X) g(X) не содержит членов степени, большей n – 1, то Xi g(X) можно
рассматривать как i – кратный сдвиг многочлена g(X). Таким образом
Так как любой циклический сдвиг g(X) также является кодовым многочленом, то v(X)
представляет собой линейную комбинацию кодовых слов, т.е. является кодовым словом.
Необходимость. Пусть
v ( X ) c ( X ) g ( X ) b( X ) , (8.13)
где b(X) – возможный остаток от деления v(X) на g(X). Решим это уравнение относительно p(X)
b( X ) c ( X ) g ( X ) v ( X ) . (8.14)
Правая часть (8.14) представляет собой сумму двух кодовых многочленов, следовательно, и
b(X) является кодовым многочленом. Так как по определению степень b(X) меньше степени
минимального многочлена g(X), многочлену b(X) соответствует нулевое кодовое слово.
X k g( X ) g 0 X k g1 X k 1 g r X n g ( k ) ( X ) 1 X n . (8.15)
Представим (8.15) как результат деления x k g (X ) на ( X n 1)
X k g( X ) 1 ( X n 1 ) g (k ) ( X ) , (8.16)
где g ( k ) ( X ) является остатком. Так как циклический сдвиг g ( k ) ( X ) сам является кодовым
многочленом, то согласно теореме 3, существует такой многочлен a(X), что
g ( k ) ( X ) a( X ) g( X ) . (8.17)
X n 1 X k a( X ) g( X ) . (18)
v ( X ) v0 v1 X v2 X 2 vn1 X n1
(a0 a1 X a2 X 2 ak 1 X k 1 ) g( X ) . (8.19)
k
В соответствии (8.19), всем возможным 2 наборам двоичных коэффициентов от a0 до ak-1
k
соответствует 2 различных кодовых слов. Полученный код является линейным, так как
сумма двух любых кодовых слов также принадлежит коду.
Теперь покажем, что этот код является циклическим.
Рассмотрим произведение
(1)
Из (8.20) следует, что для многочлена v ( X ) , соответствующего сдвигу v(X), справедливо
v (1) ( X ) X v ( X ) vn1 ( X n 1) . (8.21)
Так как g(X) делит v(X) и ( X n 1) , он также является делителем v (1) ( X ) . Таким образом,
циклический сдвиг любого кодового слова также принадлежит коду.
k
Значит, множество 2 различных многочленов, делящихся на g(X), образуют линейное
векторное пространство циклического (n, k) – кода.
g( X ) 1 X X 3 . (8.23)
X r u( X ) u0 X r u1 X r 1 uk 1 X n1 . (8.25)
Из рисунка 14 видно, что такой сдвиг не вызывает переполнения n-разрядного регистра сдвига
(поэтому и может быть записан в виде (8.25)) и соответствует заполнению k правых крайних
двоичных разрядов регистра информационным словом. Заполним теперь свободные r левых
двоичных разрядов таким образом, чтобы вектор, содержащийся в n -разрядном регистре,
принадлежал коду. Для этого представим многочлен X r u (X ) в виде
X r u( X ) a( X ) g ( X ) b( X ) . (8.26)
X r u( X ) b( X ) a( X ) g ( X ) . (8.27)
Заметим, что эта операция всегда возможна, так как степень b(Х) по определению не
превышает r – 1. Таким образом, в регистре сдвига будет сформирован многочлен
v( X ) b0 b1 X br 1 X r 1 u 0 X r u1 X r 1 u k 1 X n 1 . (8.28)
r проверочны х символов k информацио нных символов
Многочлен v(X) принадлежит циклическому коду, так как в силу (8.27) он делится на
g(X) без остатка. Более того, этот код является систематическим, так как из (8.28) следует, что
старшие k разрядов кодовых векторов являются информационными векторами.
Следующий пример наглядно поясняет алгоритм кодирования циклических
систематических кодов.
В результате получим
X 3u ( X ) (1 X 3 ) g ( X )
X
X2 . (8.32)
b( X )
Так как кодовый многочлен определяется как
v( X ) b( X ) X 3u( X ) . (8.33)
то
v = (011 1001). (8.34)
Повторяя процесс кодирования для всех 16 возможных информационных векторов,
получим систематический циклический (7,4)-код. Его информационные и кодовые векторы
приведены в таблице 6. Заметим, что циклический систематический (7,4)-код, образованный
порождающим многочленом g ( X ) 1 X X 3 , совпадает с рассмотренным нами ранее
систематическим (7,4)-кодом Хэмминга.
Литература
1. Б.Скляр. Цифровая связь. Теоретические основы и практическое применение. Изд. 2-е,
испр.: Пер. с англ. – М.: Изд. дом «Вильямс», 2009. – 1104 с.
2. Березюк Н.Т., Андрущенко А.Г. и др. Кодирование информации (двоичные коды). Изд-
во «Вища школа» Харьков, 2009. – 252 с.
3. Цымбал В.П. Теория информации и кодирования. – Изд-во «Вища школа» Киев, 2010.
– 232 с.
4. Вернер М. Основы кодирования. - Изд-во «Техносфера» Москва, 2009. – 288 с.
5. Ризаев И.С. Теория информации и кодирования. – Учебное пособие. Изд-во КГТУ
Казань, 2012. – 98 с.
6. Лидовский В.В. Теория информации. - Учебное пособие. Изд-во РГТУ Москва, 2012. –
104 с.
1 g1 g 2 g r 1 1 0 0 0
0 1 g1 g2 g r 1 1 0 0
Gk n 0 0 1 g1 g2 g r 1 1 0 . (9.4)
0
0 0 0 g r 1 1
1 g1 g2
1 1 0 1 0 0 0
0 1 1 0 1 0 0
G47
0 1 1 0 1 0
. (9.5)
0
0 0 0 1 1 0 1
1 1 0 1 0 0 0
0 1 1 0 1 0 0
v u G47 (1001) (0111001) .
1 1 0 0 1 0
(9.7)
1
1 0 1 0 0 0 1
что совпадает с полученным ранее (8.34) кодовым вектором систематического циклического
кода и таблицей 6.
X n 1 h( x) g ( x) . (9.8)
Так как степень многочлена а(Х) не превышает k – 1, правая часть равенства (9.10) не
k k 1 n 1
содержит в качестве слагаемых члены с X , X ,, X . Используя это условие для
коэффициентов произведения v(X) а(Х), можно записать n – k проверочных равенств
v0 hk v1 hk 1 v k h0 0
v1 hk v k h1 v k 1 h0 0
(9.11)
v 2 hk v k 1 h1 v k 2 h0 0
hk hk 1 hk 2 h1 h0 0 0 0
0 hk hk 1 hk 2 h1 h0 0 0
H ( n k )n 0 0 hk hk 1 hk 2 h1 h0 0 . (9.12)
0 h1 h0
0 0 hk hk 1 hk 2
v HT 0. (9.13)
C d , дуального коду С.
X r i ai ( X ) g ( X ) bi ( X ) . (9.14)
где i 1, k 1 и
bi ( X ) bi ,0 bi ,1 X bi ,r 1 X r 1 . (9.15)
vi ( X ) ai ( X ) g ( X ) X r i bi ( X ) . (9.16)
b0 , 0 b0 ,1 b 0 , 2 b0 , r 1 1 0 0
b1,0 b1,1 b1, 2 b1,r 1 0 1 0
Gk n . (9.17)
bk 1,0 bk 1,1 bk 1, 2 bk 1,r 1 0 0 1
P kr
I kk
H r n ( I r r P T ) . (9.18)
r i
вначале, разложение X согласно (9.14) и базисные кодовые многочлены vi(X) из (9.16) для
i = 0,1,2,3 (таблица 7).
Порождающая матрица непосредственно строится по базисным кодовым многочленам
v0 ( X ), v1 ( X ), v2 ( X ), v3 ( X ) и полностью совпадает с (9.7)
1 1 0 1 0 0 0
0 1 1 0 1 0 0
G47
1 1 0 0 1 0
. (9.19)
1
1 0 1 0 0 0 1
Литература
1. Б.Скляр. Цифровая связь. Теоретические основы и практическое применение. Изд. 2-е,
испр.: Пер. с англ. – М.: Изд. дом «Вильямс», 2009. – 1104 с.
2. Березюк Н.Т., Андрущенко А.Г. и др. Кодирование информации (двоичные коды). Изд-
во «Вища школа» Харьков, 2009. – 252 с.
3. Цымбал В.П. Теория информации и кодирования. – Изд-во «Вища школа» Киев, 2010.
– 232 с.
4. Вернер М. Основы кодирования. - Изд-во «Техносфера» Москва, 2009. – 288 с.
5. Ризаев И.С. Теория информации и кодирования. – Учебное пособие. Изд-во КГТУ
Казань, 2012. – 98 с.
6. Лидовский В.В. Теория информации. - Учебное пособие. Изд-во РГТУ Москва, 2012. –
104 с.
f ( X ) f 0 f1 X f m X m . (10.1)
делитель степени r, причем, r < т
g ( X ) g 0 g1 X g r X r . (10.2)
В результате деления мы должны получить разложение
f ( X ) f ( X ) X m r g ( X ) . (10.3)
со степенью
deg[ f ( X )] k1 m . (10.4)
Эта же единица заносится в регистр формирования а(Х) при замкнутом переключателе
S2 и в дальнейшем не меняется.
На последующих l = т – r тактах алгоритм деления остается таким же. Так, если степень
укороченного многочлена f(X) в (10.3), равная k1 (10.4), остается большей и равной r, то с
помощью цепи обратной связи производится укорочение теперь уже многочлена f (X ) из
(10.3).
f ( X ) f ( X ) X k r g ( X ) f ( X ) [ X m r X k r ] g ( X ) .
1 1
(10.5)
со степенью
deg[ f ( X )] k 2 k1 . (10.6)
Литература
1. Б.Скляр. Цифровая связь. Теоретические основы и практическое применение. Изд. 2-е,
испр.: Пер. с англ. – М.: Изд. дом «Вильямс», 2009. – 1104 с.
2. Березюк Н.Т., Андрущенко А.Г. и др. Кодирование информации (двоичные коды). Изд-
во «Вища школа» Харьков, 2009. – 252 с.
3. Цымбал В.П. Теория информации и кодирования. – Изд-во «Вища школа» Киев, 2010.
– 232 с.
4. Вернер М. Основы кодирования. - Изд-во «Техносфера» Москва, 2009. – 288 с.
5. Ризаев И.С. Теория информации и кодирования. – Учебное пособие. Изд-во КГТУ
Казань, 2012. – 98 с.
6. Лидовский В.В. Теория информации. - Учебное пособие. Изд-во РГТУ Москва, 2012. –
104 с.
Рассмотрим модель передачи информации (рисунок 21). При передаче по каналу связи с
шумом к кодовому слову v(X) добавляется многочлен ошибок e(Х). В результате, многочлен
принятого кодового слова имеет вид:
r(X) = v(X) + e(Х). (11.1)
или
r(X) = a(X)g(X) + s(X), (11.2)
где s(X) представляет собой синдром. Если r(X) является кодовым словом, то s(X) - нулевой
многочлен.
Синдром s(X) может быть вычислен с помощью алгоритма деления Евклида. Такое
вычисление можно реализовать на простой цепи (рисунок 22), во многом схожей с кодером
систематического циклического кода (рисунок 20).
Пусть, из-за воздействия шума в канале произошла одна ошибка r = (011 1011). Тогда,
в результате вычисления остатка от деления r(Х) на g(Х) (рисунок 24), мы уже получаем
ненулевой синдром. Таким образом, произошло распознавание ошибки.
r ( X ) v( X ) e( X ) , (11.4)
где
v( X ) c( X ) g ( X ) X r u( X ) b( X ) . (11.5)
Так как
r(X) = a(X)g(X) + s(X),
то
e(X) = [a(X) + c(X)] g(X) + s(X). (11.6)
s1 ( X ) s( X ) s( X ) . (11.9)
(1)
s1 ( X ) s (1) ( X ) 1 . (11.10)
Перед началом работы оба регистра декодера Меггитта обнуляются. На первых п тактах
декодирования принятое слово загружается в верхний регистр, а в нижнем регистре
вычисляется синдром многочлена r(X). После этого вход декодера отключается и в течении
последующих п тактов проводится покомпонентное обнаружение и исправление ошибок. В
каждом такте с помощью логической схемы распознавания ошибок проверяется соответствие
текущего синдрома ошибочной (n – 1)-ой компоненте сдвинутого многочлена r(X). При
обнаружении такого соответствия на следующем такте декодирования, ошибка исправляется,
а синдром модифицируется.
Литература
1. Б.Скляр. Цифровая связь. Теоретические основы и практическое применение. Изд. 2-е,
испр.: Пер. с англ. – М.: Изд. дом «Вильямс», 2009. – 1104 с.
2. Березюк Н.Т., Андрущенко А.Г. и др. Кодирование информации (двоичные коды). Изд-
во «Вища школа» Харьков, 2009. – 252 с.
3. Цымбал В.П. Теория информации и кодирования. – Изд-во «Вища школа» Киев, 2010.
– 232 с.
4. Вернер М. Основы кодирования. - Изд-во «Техносфера» Москва, 2009. – 288 с.
5. Ризаев И.С. Теория информации и кодирования. – Учебное пособие. Изд-во КГТУ
Казань, 2012. – 98 с.
6. Лидовский В.В. Теория информации. - Учебное пособие. Изд-во РГТУ Москва, 2012. –
104 с.
остатка, равна n 2 1 .
m
Литература
1. Б.Скляр. Цифровая связь. Теоретические основы и практическое применение. Изд. 2-е,
испр.: Пер. с англ. – М.: Изд. дом «Вильямс», 2009. – 1104 с.
2. Березюк Н.Т., Андрущенко А.Г. и др. Кодирование информации (двоичные коды). Изд-
во «Вища школа» Харьков, 2009. – 252 с.
3. Цымбал В.П. Теория информации и кодирования. – Изд-во «Вища школа» Киев, 2010.
– 232 с.
4. Вернер М. Основы кодирования. - Изд-во «Техносфера» Москва, 2009. – 288 с.
5. Ризаев И.С. Теория информации и кодирования. – Учебное пособие. Изд-во КГТУ
Казань, 2012. – 98 с.
6. Лидовский В.В. Теория информации. - Учебное пособие. Изд-во РГТУ Москва, 2012. –
104 с.
n 2 m 1. (13.1)
где т – любое целое число. Таким образом, величина n может быть равна 3, 7, 15, 31, 63, 127,
255, 511, 1023 разрядам и т. д.
Количество проверочных разрядов кода
m(d 1)
r . (13.2)
2
Следовательно, число информационных разрядов
m(d 1)
k 2m 1 . (13.3)
2
2 7 7 3
010 111 111 01l
P( X ) ( X 1)( X 10 X 8 X 5 X 4 X 2 X 1;
P( X ) ( X 11 X 10 X 9 X 8 X 6 X 4 X 3 1,
т. е. P(1,0) = 111101011001 .
Такой способ увеличения минимального кодового расстояния применим к любым
систематическим кодам с нечетным минимальным кодовым расстоянием. Для этого в
циклических кодах изменяется образующий полином, а в других систематических кодах
вводится дополнительная проверка на четность, охватывающая все информационные разряды.
При рассмотрении кодов БЧХ отметим следующие закономерности Число кодов,
различающихся по своей корректирующей способности и имеющих общую длину кодовой
комбинации n 2 1, на две единицы меньше числа всех неприводимых многочленов, на
m
2 m1
которые разлагается двучлен X 1 . Например, определим количество циклических кодов
для n = 15. Так как полученный многочлен X 1 не является простейшим, то т = 4 есть
15
неприводимых многочленов, число которых равно единице – для первой степени, единице –
для второй степени и трем – для четвертой степени. Выписав все эти многочлены, найдем
разложение двучлена
X 15 1 ( X 1)( X 2 X 1)( X 4 X 1)( X 4 X 3 1)
.
( X X X X 1)
4 3 2
Литература
1. Б.Скляр. Цифровая связь. Теоретические основы и практическое применение. Изд. 2-е,
испр.: Пер. с англ. – М.: Изд. дом «Вильямс», 2009. – 1104 с.
2. Березюк Н.Т., Андрущенко А.Г. и др. Кодирование информации (двоичные коды). Изд-
во «Вища школа» Харьков, 2009. – 252 с.
3. Цымбал В.П. Теория информации и кодирования. – Изд-во «Вища школа» Киев, 2010.
– 232 с.
4. Вернер М. Основы кодирования. - Изд-во «Техносфера» Москва, 2009. – 288 с.
5. Ризаев И.С. Теория информации и кодирования. – Учебное пособие. Изд-во КГТУ
Казань, 2012. – 98 с.
6. Лидовский В.В. Теория информации. - Учебное пособие. Изд-во РГТУ Москва, 2012. –
104 с.
t
Используя равенство 1 n C n2 C nt C nl можно заметить, что
l 0
0
[C23 C23
1
C23
2
C23
3
] 212 2 . Возникает гипотеза о том, что 23-мерное двоичное
23
пространство можно плотно упаковать сферами радиуса 3. Это равенство представляет собой
необходимое (но недостаточное) условие существования совершенного (23,12)-кода,
исправляющего все тройные ошибки. Такой код действительно существует, его удалось
построить швейцарцу Голлею в 1949 году. В силу особенностей своей алгебраической
структуры, он является весьма притягательным для математиков различным направлений.
В основе конструкции кода лежит разложение
X 23 1 (1 X ) g1 ( X ) g 2 ( X ) . (14.1)
g ( X ) (1 X ) p( X ) . (14.4)
С помощью порождающего многочлена g(X) может быть построен циклический CRC
(n, k)-код с параметрами n 2 m 1, k 2 m m 2 , имеющий т + 1 проверочных
символов и dmjn = 4.
CRC код отличается от расширения кода Хэмминга. Расширенный (2 m , 2 m m 1) -
код получается из циклического (2 1, 2 m 1) -кода Хэмминга присоединением
m m
дополнительная проверка на четность, длина кода не увеличилась, так как при этом был
исключен один информационный символ. В результате CRC код представляет собой
совокупность кодовых векторов четного веса первоначального кода Хэмминга и по-прежнему
остается циклическим.
CRC-коды обладают пятью важными свойствами:
1. Все ошибки кратности 3 или меньше обнаруживаются;
2. Все ошибки нечетной кратности обнаруживаются;
3. Все пакеты ошибок длины l= т + 1 или меньше обнаруживаются;
m
4. Доля необнаружимых пакетов ошибок длины l= т + 2 составляет 2 ;
( m 1)
5. Доля необнаружимых пакетов ошибок длины l m 3 составляет 2 .
Литература
1. Б.Скляр. Цифровая связь. Теоретические основы и практическое применение. Изд. 2-е,
испр.: Пер. с англ. – М.: Изд. дом «Вильямс», 2009. – 1104 с.
2. Березюк Н.Т., Андрущенко А.Г. и др. Кодирование информации (двоичные коды). Изд-
во «Вища школа» Харьков, 2009. – 252 с.
3. Цымбал В.П. Теория информации и кодирования. – Изд-во «Вища школа» Киев, 2010.
– 232 с.
4. Вернер М. Основы кодирования. - Изд-во «Техносфера» Москва, 2009. – 288 с.
5. Ризаев И.С. Теория информации и кодирования. – Учебное пособие. Изд-во КГТУ
Казань, 2012. – 98 с.
6. Лидовский В.В. Теория информации. - Учебное пособие. Изд-во РГТУ Москва, 2012. –
104 с.
v( X ) X 3u( X ) b( X ) X 3 [ X 2 1] X 2 X 5 X 3 X 2 , (15.1)
Здесь вектору ошибки е = (000 001) в компоненте r5, согласно табл. 9, соответствует
синдром s = (1,1,1), поэтому, схема распознавания ошибок настраивается на этот
синдром (а не на синдром (101) в случае (7,4)-кода). Рассмотрим теперь алгоритм
модификации синдрома. В нижнем регистре вычисляются синдромы всех сдвигов
ошибки в слове базового (7,4)-кода (эта схема «не знает об укорочении») и следующим
за синдромом «111» будет синдром «101». В соответствии с его числовым вектором и
производится модификация текущего синдрома на рисунке 32.
т.е. ошибке в компоненте r5. Таким образом, для реализации оптимальной процедуры
исправления ошибки и коррекции синдрома в схеме рисунка 31 необходимо предварительно
произвести четыре циклических сдвига верхнего и нижнего регистров при этом верхний
регистр должен быть модифицирован: в него должны быть добавлен дополнительный разряд
r6 и цепь обратной связи.
На примере укороченного (6,3)-кода может показаться, что эти затраты не слишком
велики, однако, для используемого в сети GSM кода Файера миллион и более сдвигов плюс
затраты на модификацию регистра оказываются технически неприемлемыми. Ниже мы
теоретически покажем, что дополнительные затраты такого рода отнюдь не являются
необходимыми. После этого мы рассмотрим построение схемы оптимального декодера
укороченного (6,3)-кода.
Будем искать схему построения декодера укороченного кода, в которой технические
затраты на исправление ошибки и коррекцию синдрома были бы минимальными. Так как
базовый (n, k)-код является циклическим, эта схема должна обнаруживать и исправлять
ошибку в младшем разряде кодового слова укороченного (n – l, k – l)-кода. Многочлен такой
ошибки имеет вид
e( X ) X n1l . (15.2)
где l - длина укорочения.
Постараемся найти линейную операцию, отображающую е(Х) в некоторый
вспомогательный многочлен е' (Х), синдром которого при e( X ) X n1l был бы равен
s( X ) X n k 1 . (15.3)
Пусть такая операция отображает многочлен e( X ) X n1l в
e( X ) e (i ) ( X ) , (15.5)
где
i nk l . (15.6)
где q(X) - некоторый многочлен, конкретное значение которого не представляет для нас
интереса. Согласно теореме 4, (см. лекция 8) порождающий многочлен g(X) делит ( X n 1)
без остатка, поэтому можно записать
( X n 1) a1 ( X ) g ( X ) . (15.8)
Применяя алгоритм деления Евклида, сомножитель X n можно представить в виде
X i a2 ( X ) g ( X ) d ( X ) , (15.9)
где deg[ d ( X )] deg[ g ( X )] .
Подставляя (15.8) и (15.9) в (15.7), имеем
d ( X ) [ X 4 ] mod ( X 3 X 1) X 2 X , (15.13)
и вспомогательный многочлен е'(Х) равен
Эта процедура продолжается до тех пор, пока ошибочная компонента r3 не займет место
старшего разряда. После этого синдром принимает значение s3 (0, 0,1) и происходит
исправление ошибки и коррекция синдрома. Далее декодирование происходит уже с нулевым
синдромом, то есть после исправления ошибки в третьей компоненте мы получили слово (6,3)-
кода.
Таблица 19 – Декодирование искаженного принятого слова r3 = (0,1,0,0,1,0)
после вычисления синдрома
Литература
1. Б.Скляр. Цифровая связь. Теоретические основы и практическое применение. Изд. 2-е,
испр.: Пер. с англ. – М.: Изд. дом «Вильямс», 2009. – 1104 с.
2. Березюк Н.Т., Андрущенко А.Г. и др. Кодирование информации (двоичные коды). Изд-
во «Вища школа» Харьков, 2009. – 252 с.
3. Цымбал В.П. Теория информации и кодирования. – Изд-во «Вища школа» Киев, 2010.
– 232 с.
4. Вернер М. Основы кодирования. - Изд-во «Техносфера» Москва, 2009. – 288 с.
5. Ризаев И.С. Теория информации и кодирования. – Учебное пособие. Изд-во КГТУ
Казань, 2012. – 98 с.
6. Лидовский В.В. Теория информации. - Учебное пособие. Изд-во РГТУ Москва, 2012. –
104 с.
План лабораторных занятий
ИТОГО: 30 ч.
Кодирование Хаффмана.
Кодирование Хаффмана производится за три шага. Мы наглядно поясним этот процесс
на маленьком примере.
1. Упорядочение. Расположить знаки в порядке убывания их вероятностей.
2. Редукция. Объединить два знака с наименьшими вероятностями в один составной знак.
Переупорядочить список знаков в соответствии с шагом 1. Продолжать этот процесс до
тех пор, пока все знаки не будут объединены.
3. Кодирование. Начать с последнего объединения. Приписать первой компоненте
составного знака символ «О», а второй - символ «1». Продолжать этот процесс до тех
пор, пока все простые знаки не будут закодированы.
В случае, когда несколько знаков имеют одинаковые вероятности, объединяются те два
из них, которые до этого имели наименьшее число объединений. Этим достигается
выравнивание длин кодовых слов, что облегчает передачу информации.
Проверка.
H log2 8 3 бит/символ,
1
Lcp pi li 8 3 3 ,
i 8
Lcp = H – код оптимальный.
Примечание. Для ансамблей равновероятных сообщений оптимальным всегда будет
равномерный код.
8
H pi log 2 pi (0.5 log 0.5 0.011 log 0.011) 0.5 0.5 0.3284
i 1
0.2217 0.1875 0.1517 0.1086 0.0715 2.0676 бит / символ
H log 8 3
K c.c max 8 2 1.45 .
lcp 2.216
pi li
i 1
H 2.0676
K c.c 0.93 .
lcp 1.45
Пример 4
Кодирование Хаффмана наглядно показано на примере источника, заданного таблицей.
Вероятности и энтропия двух символов.
В нашем примере для реализации кодирования достаточно регистра для хранения шести
текущих десятичных цифр.
В соответствии с таблицей 2, на первом шаге происходит инициализация переменных
LO и HI. Для первой кодируемой буквы «G» ширина интервала равна В = l'000'000.
Нижняя и верхняя границы равны соответственно LO = 0 + l'000'000 x 0.7 = 700'000 и HI
= 0+ l'000'000 x 0.8 – 1 = 799'999. Первая десятичная цифра уже определена и равна 7, а
содержимое регистров LO и HI сдвигается на одну позицию влево. Заметим, что в регистре
LO освободившееся место занимает 0, а в регистре HI - 9.
Для второй буквы «Е» ширина интервала равна В = l'000'000, поэтому, получаем LO
= 0 + l'000'000 = 000'000 и HI = 0 + l'000'000 x 0.5 – 1 = 499'999. Кодирование
последующих букв проводится аналогично. В завершении работы алгоритма выдается
некоторое число из последнего интервала. Для этого мы округляем верхнюю границу
интервала HI, отбрасывая младшие разряды до тех пор, пока это возможно. В результате
получаем число с минимальным количеством цифр, принадлежащее последнему интервалу.
Лабораторная работа 3 Кодирование и декодирование Лемпеля - Зива.
N p ( d ) C nd . i
(1)
где d i принимает значения 2, 4, 6,…, п, если п четно, и 2, 4, 6, ... , п – 1, если п нечетно.
Коэффициент ложных переходов
C nd i
K л (d i ) d . (2)
Cn
где d = 1, 2, 3, ..., п.
Вероятность неправильного приема кодовой комбинации определяется вероятностью
появления необнаруживаемых (четных) ошибок.
Если в комбинации искажаются два определенных символа, а остальные не искажаются,
n 2
вероятность такого события pэ (1 pэ )
2 2
. Но так как таких вариантов будет C n вероятность
двукратных ошибок P2 Cn2 pэ2 (1 pэ ) n2 . Вероятность четырехкратных ошибок
P4 Cn4 pэ4 (1 pэ ) n4 и т. д. Следовательно, суммарная вероятность появления
n
необнаруживаемых ошибок Pн.о P2 P4 Cni pэi (1 pэ ) ni , i 2,4,, n ( n -
i2
четное число, ближайшее к п, и меньше его).
Так как с повышением кратности вероятность ошибок резко падает, можно написать
Pн.о. Cn2 pэ2 (1 pэ ) n 2 . (3)
Пример. Найти характеристики двоичного кода с одной проверкой на четность для п =
6. Вероятность сбоя единичного символа рэ = 10-4 .
n 1
Решение. Число рабочих комбинаций N p 2 2 2 5 32 .
k
r 1
Избыточность кода R 0.167 . Распределение рабочих комбинаций по
n n
кодовым расстояниям N p (d ) и коэффициент ложных переходов, найдем по формулам (1) и
(2):
d 1 2 3 4 5 6
di 0 2 0 4 0 6
N p (d i ) – 15 – 15 – 1
N (d ) 6 15 20 15 6 1
K л (d ) 0 1 0 1 0 1.
1 0 0 0 0 1 1
0 1 0 0 1 0 1
G47
0 0 1 0 1 1 0
0 0 0 1 1 1 1
Примечание. При построении добавочной матрицы надо следить, чтобы число единиц
r1 в каждой строке добавочной матрицы было r1 d 1 , в нашем случае r1 3 1 2 .
По порождающей матрице строим все комбинации кода. Первые пять комбинаций – это
строки порождающей матрицы и нулевая комбинация, остальные – суммы по модулю 2
всевозможных сочетаний строк порождающей матрицы.
Решение.
2, k 2
d min 3, k 3 .
4, k 4
Наиболее вероятным видом необнаруживаемых ошибок является одновременное
искажение двух символов в исходной комбинации и соответствующих им двух символов в
повторяемой комбинации. Вероятность одновременного искажения какой-либо пары символов
n 2
в исходной комбинации P2 C n p э (1 p э )
2 2 2 .
2
Вероятность одновременного - искажения двух пар соответствующих символов, т. е.
вероятность появления необнаруженной ошибки,
n 2 2
Pн.о. [C n2 p э2 (1 p э ) 2 ] (C n2 ) 2 p э4 . (1)
2 2
Выражение для распределения рабочих кодов по кодовым расстояниям в общем виде не
получено. Поэтому, пользуясь свойством систематических кодов, определяем распределение
кодовых расстояний для какого-нибудь одного кодового вектора и распространяем его на все
остальные.
Пример. Построить инверсный код для передачи семи сообщении и определить его
характеристики.
Решение. Количество информационных символов k log 2 N p 3 . Строим
порождающую матрицу;
1 0 0 0 1 1
G 0 1 0 1 0 1 .
0 0 1 1 1 0
Суммируя строки порождающей матрицы во всевозможных сочетаниях, определяем
остальные кодовые векторы инверсного кода]
v1 v2 v3 v4 v5 v6 v7
.
0 4 4 3 3 3 4
Отсюда N p (1) N p (2) N p (5) N p (6) 0; N p (3) 3; N p (4) 3 .
Коэффициенты ложных переходов K л (1) K л (2) K л (5) K л (6) 0;
3 3
K л (3) 3
0.15; K л (4) 4 0.2 .
C6 C6
Таким образом, данный код имеет dmin = 3 и обнаруживает все 1-, 2-, 5-, 6-кратные
ошибки, 85% трехкратных ошибок и 80% – четырехкратных.
Коды Рида – Маллера (Маллер открыл коды, Рид построил декодирующую схему)
образуют класс двоичных систематических кодов, имеющих различные значения
r
избыточности R значения минимальных кодовых расстояний dmin. Эти коды
n
характеризуются следующими значениями параметров:
длина кода n 2 m ;
количество информационных разрядов k Cmi ; (1)
i0
m
минимальное кодовое расстояние d min 2 , (2)
где m 3 любое целое положительное число;
m – порядок кода.
Пример 1. Если m = 4, то может принимать значения 1, 2, 3. Определить параметры
кода.
r = 16 – 11 = 5; R = 5/16 = 0.312.
Для = 3 п = 16; d = 24-3 = 2; k C40 C41 C42 C43 = 1+ 4 + 6 + 4 = 15; r =
16 – 15 =1; R 0.07 .
Таблица 1
Таким образом, в зависимости от порядка кода можно получить коды (16,5), (16, 11),
(16,15), характеризующиеся различными значениями избыточности и значениями
минимального кодового расстояния. В таблице 1 приведены параметры кодов Рида – Маллера
до п = 1024.
Построение кодов Рида – Маллера сводится к следующему. Вначале строится
порождающая матрица G, первая строка которой содержит п единиц. Далее следует т строк,
совокупность которых удобно рассматривать как (m n) -матрицу, в качестве столбцов
которой выбраны двоичные числа (начиная с нуля). Номера разрядов двоичных чисел удобно
считать сверху вниз. Эти m строк составляют векторы первого порядка . Далее идут строки
векторов второго порядка, которые получаются из всех произведений двух строк первого
порядка, затем – строки третьего порядка, являющиеся всеми произведениями трех строк
первого порядка, и т. д.
Таким образом, если строится матрица G для кода порядка , то она содержит одну
строку со всеми единицами, т строк первого порядка, C m2 строк второго порядка, C m3 строк
третьего порядка и т. д. В общем случае количество строк C m0 C m1 C m2 C mi и
i0
совпадает с количеством информационных разрядов k.
Пример 2. Построить матрицу для кода Рида – Маллера второго порядка ( 2 ) и т
= 3 ( m ).
Решение. Первая строка содержит п = 23 единиц (1 1 1 1 1 1 1 1).
Строим матрицу строк первого порядка (3 х 8):
0 1 2 3 4 5 6 7
0 1 0 1 0 1 0 1
. (3)
0 0 1 1 0 0 1 1
0 0 0 0 1 1 1 1
Количество строк C3 3 .
1
Для дальнейшего построения строк необходимо иметь в виду, что, если перемножаются
строки, например 01010101 и 00110011, результат получается путем поразрядного
перемножения строк:
01010101
х
00110011
00010001
Далее построение матрицы сводится к получению строк второго порядка. Для этого
перемножим первую и вторую строки, первую и третью строки и затем вторую и третью. В
результате получим последующие три строки:
0 0 0 1 0 0 0 1
0 0 0 0 0 1 0 1 . (4)
0 0 0 0 0 0 1 1
Количество строк C3 3 .
2
Важнейшее свойство кодов Рида – Маллера состоит в том, что декодирование для них
проводится простым способом. В этих кодах каждый из информационных символов u ki может
m
быть описан не менее чем d min 2 независимыми проверочными уравнениями,
аргументами которых являются символы кодового слова. Анализ результатов решения этих
уравнений по принципу большинства позволяет определить значение информационных
символов u ki . Тем самым при исправлении ошибок исключается этап определения места
ошибок, как это имело место в кодах Хэмминга. Поэтому в кодах Рида – Маллера можно
использовать мажоритарный принцип декодирования.
Простота структуры производящей матрицы G этих кодов позволяет установить связь
между информационными символами u ki и символами кодового слова ui. Это легко показать
на примере.
Пример. Рассмотрим код второго порядка для т = 4. Это код (16, 11), одиннадцать
информационных символов которого u k1 , u k2 ,, u k11 кодируются с помощью порождающей
матрицы G, имеющей вид
(6)
(8)
Рисунок 1 – Парные компоненты для векторов первого порядка.
m 2
Каждая из 2 сумм четырех компонент, используемых для определения xi x j ,
образуются некоторыми двумя парными компонентами вектора x i и парными для тех уже
выбранных компонент компонентами вектора x j .
На рисунке 2 показаны парные компоненты xi x j (см. матрицу 6), используемые для
m 2
определения соответствующих информационных символов. Для этих 2 парных компонент
(9)
Рисунок 2 – Парные компоненты для векторов второго порядка
Пример. Закодированное кодом Рида – Маллера (16, 11) сообщение имеет вид
1111101001101100. Определить исходное сообщение.
0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 – u k x4
5
1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 – преобразованное сообщение
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1,
т. е. u k1 1 .
Таким образом, исходное сообщение, выделенное из кодового слова, имеет вид 1 0 0
0 1 0 1 1 0 1 1.
Данные коды относятся к классу блочных неразделимых кодов, так как в них не
представляется возможным выделить информационные и проверочные символы. Все
комбинации этого кода имеют одинаковый вес (одинаковое количество единиц). Примером
является известный код «3 из 7» – семизначный код с постоянным весом 3.
Одна из основных причин применения этих кодов – их преимущество при
использовании в каналах связи, в значительной степени асимметричных. В случае полностью
асимметричного канала код с постоянным весом считается совершенным применительно к
обнаружению ошибок, так как он обнаруживает все ошибки. Полностью асимметричным
является канал, в котором имеет место только один вид ошибок, т. е. возможно только
преобразование нулей в единицы либо только единиц в нули.
В двоичном симметричном канале (канал, в котором оба вида ошибок равновероятны)
коды с постоянным весом обнаруживают все возможные сочетания нечетного числа ошибок,
из которых они не выявляют только те, при которых преобразование нуля в единицу на одних
позициях компенсируется преобразованием единиц в нули на других. Кроме того, при
заданной длине кодового слова оптимальный код с постоянным весом имеет обычно больше
разрешенных комбинаций, чем разделимый код с эквивалентной обнаруживающей
способностью. Основной недостаток кода с постоянным весом – его неразделимость.
В кодах с постоянным весом обнаруживающая способность обусловливается самим
видом кодового слова, благодаря чему отделить проверочные знаки без преобразования кода
невозможно. Ввиду такой неразделимости обнаруживающая способность кода оказывается
неразрывно связанной с характером информационных знаков. А это, в свою очередь, приводит
к невозможности легко изменить код в существующей системе. При использовании кода с
постоянным весом обычно прежде всего определяется основной алфавит системы. Затем
выбирается код, имеющий достаточное количество кодовых слов. Далее, каждой букве
алфавита сопоставляется кодовое слово с постоянным весом. Недостатки такого закрепления
кодовых слов особенно проявляются в случаях, когда буквы большей частью передаются
группами. Поскольку при использовании неразделимых кодов избыточность заложена уже в
каждой (закодированной) букве, повысить экономичность путем кодирования сразу целой
группы букв оказывается невозможным. Таким образом, разделимые коды обладают
преимуществом по сравнению с неразделимыми. Оно состоит в большей гибкости и
возможности повышения экономичности, особенно в тех случаях, когда передаваемая
информация кодируется большими блоками.
При построении «-разрядного кода с постоянным весом отношение единиц т к
количеству нулей (п – т) выбирается таким, чтобы обеспечивалось необходимое количество
«разрешенных» комбинаций. Общее количество комбинаций может быть найдено как число
m
сочетаний из n элементов по т : Cn .
Известно, что для любого числа п элементов справедливо соотношение
Cnm Cnn m . (8.1)
(8.2)
n 1 n 1
Очевидно, что во всех остальных случаях, когда m n 1 или 1 m
2 2
n n
при п нечетном, m n 1 или 1 m при п четном, количество «разрешенных»
2 2
комбинаций C n C n макс .
m m
m 3 4
Пример 1. При применении кода «3 из 7» с количество комбинаций
n m 4 3
C73 C74 35 , во всех остальных случаях это количество меньше (
C71 C76 7; C72 C75 21 ). Поэтому из числа возможных (N = 2n = 27 = 128) отбирается
35 кодовых комбинаций, которые используются в качестве «разрешенных». Остальные 93
комбинации являются «запрещенными» и в приемнике не фиксируются. Избыточность
log 2 35
рассмотренного кода R 1 0.267 .
log 2 128
Пример 2. Другим примером кода с постоянным весом может служить код «4 из 8».
Этот 8-элементный код обеспечивает 256 возможных комбинаций, из которых используются
только комбинации, содержащие четыре единицы и четыре нуля. Данному коду присущи те же
ограничения и такая же избыточность, что и коду «3 из 7», хотя количество используемых
комбинаций в нем C8 70 .
4
Декодирование принятых комбинаций кода с постоянным весом сводится к
определению их веса. Если он отличается от заданного, это означает, что комбинация принята
с ошибкой. При проверке на постоянство веса могут быть обнаружены ошибки любой
кратности, за исключением ошибки «сдвига», когда одна из единиц комбинации преобразуется
в нуль, а один из нулей – в единицу.
Определим вероятность необнаружения ошибки сдвига, обусловленной только
одиночными преобразованиями единиц и нулей данной комбинации. Рассматривая случай
передачи посылок по симметричному каналу, когда вероятность преобразования единицы в
нуль равна вероятности преобразования нуля в единицу, замечаем, что вероятность
преобразования одной из трех единиц в нуль равна а вероятность преобразования одного из
четырех нулей в единицу составляет C31 pэ (1 pэ ) 2 .
Пользуясь теоремой умножения вероятностей совместимых и независимых событий,
получаем
(8.3)
. (8.4)
(8.5)
X r u( X ) u0 X r u1 X r 1 uk 1 X n1 . (9.2)
Из рисунка 1 видно, что такой сдвиг не вызывает переполнения n-разрядного регистра сдвига
(поэтому и может быть записан в виде (9.2)) и соответствует заполнению k правых крайних
двоичных разрядов регистра информационным словом. Заполним теперь свободные r левых
двоичных разрядов таким образом, чтобы вектор, содержащийся в n -разрядном регистре,
r
принадлежал коду. Для этого представим многочлен X u (X ) в виде
X r u( X ) a( X ) g ( X ) b( X ) . (9.3)
r
где b(Х) - остаток от деления X u (X ) на g(Х). Из (9.3) следует
X r u( X ) b( X ) a( X ) g ( X ) . (9.4)
Заметим, что эта операция всегда возможна, так как степень b(Х) по определению не
превышает r – 1. Таким образом, в регистре сдвига будет сформирован многочлен
v( X ) b0 b1 X br 1 X r 1 u 0 X r u1 X r 1 u k 1 X n 1 . (8.28)
r проверочны х символов k информацио нных символов
Многочлен v(X) принадлежит циклическому коду, так как в силу (9.4) он делится на g(X)
без остатка. Более того, этот код является систематическим, так как из (8.28) следует, что старшие
k разрядов кодовых векторов являются информационными векторами.
Следующий пример наглядно поясняет алгоритм кодирования циклических
систематических кодов.
u(Х) = 1 + X 3. (9.7)
Умножим информационный многочлен на X3
Х 3 u(Х) = X 3 + X 6. (9.8)
и определим остаток b(Х) от деления (9.8) на g(X). Процесс нахождения остатка b(Х) в
соответствии с алгоритмам деления Евклида показан в таблице 1.
В результате получим
X 3u ( X ) (1 X 3 ) g ( X )
X
X2 . (9.9)
b( X )
Так как кодовый многочлен определяется как
v( X ) b( X ) X 3u( X ) . (9.10)
то
v = (011 1001). (9.11)
Повторяя процесс кодирования для всех 16 возможных информационных векторов,
получим систематический циклический (7,4)-код. Его информационные и кодовые векторы
приведены в таблице 2. Заметим, что циклический систематический (7,4)-код, образованный
порождающим многочленом g ( X ) 1 X X 3 , совпадает с рассмотренным нами ранее
систематическим (7,4)-кодом Хэмминга.
остатка, равна n 2 1.
m
n 2 m 1. (11.1)
где т – любое целое число. Таким образом, величина n может быть равна 3, 7, 15, 31, 63, 127,
255, 511, 1023 разрядам и т. д.
Количество проверочных разрядов кода
m(d 1)
r . (11.2)
2
Следовательно, число информационных разрядов
m(d 1)
k 2m 1 . (11.3)
2
Параметры кодов БЧХ (до n = 255), вычисленные по формулам (11.1) – (11.3),
приведены в таблице 11 (см. лекция 13) с указанием кодового расстояния и числа
информационных символов.
Образующий полином кода Боуза – Чоудхури – Хонвингема является наименьшим
общим кратным (НОК) так называемых минимальных полиномов mi (X ) , где
i 1,3,5,, d 2 порядок полинома
2 7 7 3
010 111 111 01l
P( X ) ( X 1)( X 10 X 8 X 5 X 4 X 2 X 1;
P( X ) ( X 11 X 10 X 9 X 8 X 6 X 4 X 3 1,
т. е. P(1,0) = 111101011001 .
Такой способ увеличения минимального кодового расстояния применим к любым
систематическим кодам с нечетным минимальным кодовым расстоянием. Для этого в
циклических кодах изменяется образующий полином, а в других систематических кодах
вводится дополнительная проверка на четность, охватывающая все информационные разряды.
При рассмотрении кодов БЧХ отметим следующие закономерности Число кодов,
различающихся по своей корректирующей способности и имеющих общую длину кодовой
комбинации n 2 1 , на две единицы меньше числа всех неприводимых многочленов, на
m
2 m1
которые разлагается двучлен X 1 . Например, определим количество циклических кодов
для n = 15. Так как полученный многочлен X 1 не является простейшим, то т = 4 есть
15
неприводимых многочленов, число которых равно единице – для первой степени, единице –
для второй степени и трем – для четвертой степени. Выписав все эти многочлены, найдем
разложение двучлена
X 15 1 ( X 1)( X 2 X 1)( X 4 X 1)( X 4 X 3 1)
.
( X X X X 1)
4 3 2
r 5
r n k 16 11 5, R 0.312 ;
n 16
Для 3, n 2 16, d 2 43 2, k C40 C41 C42 C43 1 4 6 4 15;
4
r 1
r n k 16 15 1, R 0.07 .
n 16
Таким образом, в зависимости от можно получить коды (16, 5), (16, 11), (16, 15),
характеризующиеся различными размерами избыточности и значениями минимального
кодового расстояния.
Под пакетом ошибок длинной b понимают такой вид комбинации помехи, в котором
между крайними разрядами, пораженными помехами, содержится b – 2 разряда.
Коды Файера могут исправлять пакет ошибок длинной bs и обнаруживать пакет ошибок
длинной br (в кодах Файера понятие кодового расстояния d не используются).
Образующий многочлен кода Файера P(X)ф определяется из выражения
e=2L -1 (15.4)
n = НОК(6,7) = 42
Тогда код Файра имеет вид (42,33).
№ Наименование
1 Код с простым повторением.
2 Код Макдональда.
3 Код Варшамова.
4 Коды с малой плотностью проверок на четность.
5 Итеративный код
6 Коды Плоткина
7 Код Бергера
8 Генератор Блюма-Шуба
9 Непрерывные коды
10 Компаундные коды
11 Мажоритарные циклические коды
12 Вероятность ошибки при передаче информации избыточными кодами по
каналам с независимыми ошибками
13 Вероятность ошибки при передаче информации по каналам связи с
пакетным распределением ошибок
14 Основные методы повышения достоверности передачи информации
избыточными кодами
15 Условия целесообразности применения избыточных кодов
1. Материалы для текущего, рубежного и итогового контроля
Взаимно – неоднозначное, X V ( X ) q( X )( X 1) V ( X ) ;
i n (i )
B)
остаток
C) Взаимно – однозначное, X q( X ) V ( X )( X
i n
1) V ( X ) ;
(i )
остаток
D) Взаимно – однозначное, X V ( X ) q( X )( X 1) V ( X ) ;
i n (i )
остаток
Невзаимно – однозначное, X q( X ) V ( X )( X 1) V ( X ) ;
i n (i )
E)
остаток
3. Теорема о порождающем многочлене g(X) гласит,
A) В каждом циклическом коде (n, k) существует только один многочлен
максимальной степени r = n – k g( X ) g 0 g1 X g 2 X g r X
2 r
A) b( X ) X n k U ( X ) a( X ) g( X ) ;
B) b( X ) X n k U ( X ) a( X ) g( X ) ;
C) a( X ) X n k U ( X ) b( X ) g( X ) ;
D) a( X ) X n k U ( X ) b( X ) g( X ) ;
E) b( X ) X n r U ( X ) a( X ) g( X ) ;
h( X )
A) X n 1 ;
g( X )
g( X )
B) X n 1 ;
h( X )
g( X )
C) X n 1 ;
h( X )
D) X n 1 g ( X )h( X ) ;
E) X n 1 g ( X )h( X ) ;
8. Что является основой в кодерах и декодерах циклических кодов
A) Процедура суммирования многочленов.
B) Процедура вычитания многочленов.
C) Процедура умножения многочленов.
D) Процедура деление многочленов.
E) Процедура возведения в степень многочленов.
A) 2; B) 4; C) 3; D) 5; E) 1;
12. Неприводимый многочлен р(х) степени m называется примитивным в поле GF(2), если
A) Наибольшая степень n, при котором многочлен X n 1 делится на р(х) без
остатка, равна n 2 1.
m
18. Длина кодовой комбинации кодов БЧХ равна n 2 1 , количество проверочных разрядов
m
m(d 1)
кода r . Чему равно число информационных разрядов k ?
2
19. Образующий многочлен кода БЧХ является
27. Для циклического (n, k) – кода доля необнаружимых пакетов ошибок длины l = r + 1 =
n – k равна
A) 2 ( r 2) .
( r 2)
B) 2 .
( r 1)
C) 2 .
( r 1)
D) 2 .
( r 1)
E) 2 .
m 1
A) .
Lm
m
B) .
Lm
m 1
C) .
Lm
n
D) .
Lm
m
E) .
Lm
33. Кодовый многочлен в сверточных кодах определяется формулой
n k
j 2
A) v( X ) X n n
g ji ( X )ui ( X ) .
j 1 i 1
n k
j 1
B) v( X ) X n n
g ji ( X )ui ( X ) .
j 1 i 1
n k
j 1
C) v( X ) X n n
g ji ( X )ui ( X ) .
j 1 i 1
n k
j2
D) v( X ) X n n
g ji ( X )ui ( X ) .
j 1 i 1
k n
j 1
E) v( X ) X n n
g ji ( X )ui ( X ) .
j 1 i 1
34. Кодер (2,1,3) – кода имеет