Теория электрической связи
| Категория реферата: Рефераты по науке и технике
| Теги реферата: реферат революция, bestreferat
| Добавил(а) на сайт: Богатов.
Предыдущая страница реферата | 3 4 5 6 7 8 9 10 11 12 13 | Следующая страница реферата
где Pmax и Pmin – максимальное и минимальное значение мощностей;
При наличии шумов в канале допустимый минимальный уровень мощности Pmin обычно определяется средней мощностью шумов в канале. Поэтому можно записать:
Минимальную мощность иногда выражает через усредненную за достаточно большой интервал времени мощность сигнала . В этом случае
Где, - пикфактор сигнала по мощности.
Аналогично физическому объему сигнала можно ввести характеристику, называемую физическим объемом канала
Для передачи сигнала, имеющего объем Vc с достаточно высоким качеством необходимо выполнение неравенства Vc≤Vk, Tc≤Tk, Fc≤Vk, Dc≤Dk
Задача 9
Дать общую характеристику и классификацию корректирующих кодов.
Изложить принцип построения кодов, обнаруживающих и исправляющих ошибки.
Изложить функциональную схему кодирующего устройства кода Хэмминга
Построить код Хэмминга, взяв в качестве исходной кодовой комбинации двоичное число, полученное из двух последних цифр шифра студента. Определить вероятность ошибочного приема полученной кодовой комбинации кода Хэмминга и вероятность появления необкарироваемой ошибки .
МЕТОДИЧЕСКИЕ УКАЗАНИЯ
к выполнению контрольных работ
Методические указания к решению задачи 1
Количество информации I(ai), содержащиеся в символе ai выбирается из ансамбля (ai), (i=1,2,3,…,N), где N - объем алфавита, с вероятностью P(ai)
I(ai) = - log2P(ai)
Информация измеряется в двоичных единицах (битах). Одна двоичная единица информации – это количества информации, содержащееся в одном и двух выбираемых с равной вероятностью символов.
Среднее количество информации H(A), приходящееся на один символ выдаваемых дискретным источником независимых сообщений с объемом алфавита N, можно найти как математическое ожидание дискретной случайной величины I(ai) определяющей количество информации, содержащейся в одном случайно выбранном символе (знаке) ai.
H(A) = M = -
Эта величина называется энтропией источника независимых сообщений.
Одной из информационных характеристик дискретного источника является избыточность
Pu =
Рекомендуем скачать другие рефераты по теме: реферат капитал, рассказы.
Категории:
Предыдущая страница реферата | 3 4 5 6 7 8 9 10 11 12 13 | Следующая страница реферата