Глава 5. Скорость передачи и пропускная способность канала связи
5.1. Скорость передачи информации в дискретной системе связи
В дискретной системе связи при отсутствии помех информация на выходе канала связи (канала ПИ) полностью совпадает с информацией на его входе, поэтому скорость передачи информации численно равна производительности источника сообщений:
При наличии помех часть информации источника теряется и скорость передачи информации оказывается меньшей, чем производительность источника. Одновременно в сообщение на выходе канала добавляется информация о помехах (рис.12).
Поэтому при наличии помех необходимо учитывать на выходе канала не всю информацию, даваемую источником, а только взаимную информацию:
На основании формулы (5.1) имеем
где H(x) производительность источника;
H(x/y) ненадёжность “ канала(потери) в единицу времени;
H(y) энтропия выходного сообщения в единицу времени;
H(y/x)=H’(n) –энтропия помех ( шума) в единицу времени.
Пропускной способностью канала связи (канала передачи информации) C называется максимально возможная скорость передачи информации по каналу
Для достижения максимума учитываются все возможные источники на выходе и все возможные способы кодирования.
Таким образом, пропускная способность канала связи равна максимальной производительности источника на входе канала, полностью согласованного с характеристиками этого канала, за вычетом потерь информации в канале из-за помех.
В канале без помех C=max H(x), так как H(x/y)=0. При использовании равномерного кода с основанием k, состоящего из n элементов длительностью э, в канале без помех
при k=2 бит/c. (5.5)
Для эффективного использования пропускной способности канала необходимо его согласование с источником информации на входе. Такое согласование возможно как для каналов связи без помех, так и для каналов с помехами на основании двух теорем, доказанных К.Шенноном.
1-ая теорема (для канала связи без помех):
Если источник сообщений имеет энтропию H (бит на символ), а канал связи – пропускную способность C (бит в секунду), то можно закодировать сообщения таким образом, чтобы передавать информацию по каналу со средней скоростью, сколь угодно близкой к величине C, но не превзойти её.
К.Шеннон предложил и метод такого кодирования, который получил название статистического или оптимального кодирования. В дальнейшем идея такого кодирования была развита в работах Фано и Хаффмена и в настоящее время широко используется на практике для “cжатия сообщений”.
5.2. Пропускная способность однородного симметричного канала связи
В однородном канале связи условные(переходные) вероятности p(y1/x1) не зависят от времени. Граф состояний и переходов однородного двоичного канала связи приведен на рис. 13.
На этом рисунке x1 и x2 – сигналы на входе канала связи, y1 и y2 – сигналы на выходе. Если передавался сигнал x1 и принят сигнал y1, это означает, что первый сигнал (индекс 1) не исказился. Если передавался первый сигнал (x1), а принят второй сигнал (y2), это означает, что произошло искажение первого сигнала. Вероятности переходов указаны на рис. 13. Если канал симметричный, то вероятности переходов попарно равны.
Обозначим: p(y2/x1)= p(y1/x2)=pэ – вероятности искажения элемента сигнала, p(y1/x1)= p(y2/x2)=1-pэ – вероятности правильного приёма элемента сигнала.
В соответствии с формулами (5.1) и (5.3)
Если сигналы x1 и x2 имеют одинаковую длительность э, то . Тогда пропускная способность канала будет равна
В этой формуле maxH(y)=logk. Для двоичного канала (k=2) maxH(y)=1 и формула (5.4) примет вид
Остаётся определить условную энтропию H(y/x). Для двоичного источника имеем
Подставив это значение условной энтропии в (5.8), получим окончательно
На рис. 14 построен график зависимости пропускной способности двоичного канала от вероятности ошибки.
Для канала связи с k>2 пропускная способность определяется почти аналогичной формулой:
В заключении рассмотрим один пример. Пусть имеется двоичный источник с производительностью бит/c.
На рис. 14 построен график зависимости пропускной способности двоичного канала от вероятности ошибки.
Для канала связи с k>2 пропускная способность определяется почти аналогичной формулой:
В заключении рассмотрим один пример. Пусть имеется двоичный источник с производительностью бит/c.
Если вероятность искажения pэ=0,01, то из этого следует, что из 1000 элементов сигнала, переданных за одну секунду, в среднем 990 элементов будут приняты без искажений и только 10 элементов будут искажены. Казалось бы, пропускная способность в этом случае будет составлять 990 бит в секунду. Однако вычисление по формуле (5.9) даёт нам величину, значительно меньшую (C=919 бит/с). В чём здесь дело? А дело в том, что мы получили бы C=990 бит/с, если бы точно знали, какие именно элементы сообщения искажены. Незнание этого факта (а это практически знать невозможно) приводит к тому, что 10 искажённых элементов настолько сильно снижают ценность принимаемого сообщения, что пропускная способность резко уменьшается.
Другой пример. Если pэ=0,5, то из 1000 переданных элементов 500 не будут искажены. Однако теперь уже пропускная способность будет составлять не 500 бит/с, как можно было бы предполагать, а формула (5.9) даст нам величину C=0. Действительно при pэ=0,5 сигнал по каналу связи фактически уже не проходит и канал связи просто эквивалентен генератору шума.
При pэ1 пропускная способность приближается к максимальной величине. Однако в этом случае сигналы на выходе системы связи необходимо инвертировать.