Пропускная способность канала
| Категория реферата: Рефераты по радиоэлектронике
| Теги реферата: готовые рефераты, шпаргалки по математике
| Добавил(а) на сайт: Мащенко.
Предыдущая страница реферата | 1 2 3 4 | Следующая страница реферата
Поставленная задача интересна тем, что мы сможем проследить изменение пропускной способности канала с изменением отношения сигнал/шум . Можно определить пропускную способность С канала в расчете на один символ
Ссимвол=maxI(A,B),бит/символ
или в расчете на единицу времени (например, на секунду):
С=maxI’(A,B)=( Ссимвол , биит/с.
В данном случае мы будем рассчитывать относительно времени. Для этого мы воспользуемся формулой определяющей пропускную способность канала в расчете на единицу времени.
С=Fklog2(1+Pc/Pш),
А для того чтобы определить избыточность передаваемой информации
воспользуемся теоремой Шеннона. При условии если теорема Шеннона будет
выполняться, то избыточность ? будет равняться 0, значит информация
передаётся без потерь. Если нет, то ? будет больше нуля (?>0). Т.е. чем
меньше величина ?, тем меньше будет вероятность ошибки декодирования.
Теоретическая часть.
Пропускная способность канала связи.
В любой системе связи через канал передаётся информация. Её скорость определяется по формуле:
I’(А,В)=H’(А)-H’(А|В)=H’(А)-H’(В|А).
(1)
Величина H(A|B) - это потери информации при передаче ее по каналу. Ее также называют ненадежностью канала. H(B|A) - энтропия шума; показывает, сколько бит шумовой информации примешивается к сигналу. Передачу сигнала по каналу иллюстрирует рис. 1.
[pic]
Рис. 1. Передача информации по каналу с помехами
Здесь I’(A,B)=v*I(A,B) - скорость передачи информации по каналу.
Как видно из формулы (1), эта скорость зависит не только от самого канала, но и от свойств подаваемого на его вход сигнала и поэтому не может характеризовать канал как средство передачи информации.
Рассмотрим дискретный канал, через который передаются в единицу времени
( символов из алфавита объёмом m. При передачи каждого символа в среднем по
каналу проходит количество информации
I(A,B)=H(A)-H(A|B)=H(B)-H(B|A),
(2)
где А и В- случайные символы на входе и выходе канала. Из четырёх фигурирующих здесь энтропий Н(А)- собственная информация передаваемого символа определяется источником дискретного сигнала и не зависит от свойств канала. Остальные три энтропии в общем случае зависят как от источника сигнала, так и от канала.
Величина I(A,B) характеризует не только свойства канала, но и свойства источника информации. Пусть на вход канала можно подавать сигналы от различных источников информации с различными распределениями P(A). Для каждого источника I(A,B) примет свое значение. Максимальное количество информации, взятое по всевозможным Р(А), характеризует только канал и называется пропускной способностью (ПС) канала в расчете на один символ:
[pic]бит/символ, где максимизация производится по всем многомерным распределениям вероятностей Р(А).
Также определяют пропускную способность С канала в расчете на единицу времени:
[pic]бит/с, (3) где v - количество символов, переданное в секунду.
В качестве примера вычислим пропускную способность дискретного
симметричного канала без памяти (рис. 2) с вероятностью ошибочного перехода
- p.
Рекомендуем скачать другие рефераты по теме: реферати українською, англия реферат, экзамен.
Категории:
Предыдущая страница реферата | 1 2 3 4 | Следующая страница реферата