_WELCOMETO Radioland

Главная Схемы Документация Студентам Программы Поиск Top50  
Поиск по сайту



Навигация
Главная
Схемы
Автоэлектроника
Акустика
Аудио
Измерения
Компьютеры
Питание
Прог. устройства
Радио
Радиошпионаж
Телевидение
Телефония
Цифр. электроника
Другие
Добавить
Документация
Микросхемы
Транзисторы
Прочее
Файлы
Утилиты
Радиолюб. расчеты
Программирование
Другое
Студентам
Рефераты
Курсовые
Дипломы
Информация
Поиск по сайту
Самое популярное
Карта сайта
Обратная связь

Студентам


Студентам > Рефераты > Теории электрической связи. Расчет приемника

Теории электрической связи. Расчет приемника

Страница: 3/6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

          Описанные виды импульсной модуляции (АИМ, ШИМ, ВИМ) соотносятся как обычные (АМ, ЧМ, ФМ) и являются аналоговыми методами импульсной модуляции, общим недостатком которых являются жесткие требования к параметрам линии связи, т.к. помехи, которые накладываются на передаваемый модулированный импульс, изменяют его форму, что в приемнике отражается как дополнительный шум. Этот шум значительно увеличивается при передаче информации на большие расстояния, т.к. искажения импульсов отдельных участков складываются. Технические ограничения, накладываемые на приведенные выше способы импульсной  модуляции вели к дальнейшему поиску способов , при которых для передачи информации можно было полностью перейти к чисто цифровой форме сигнала, передаваемого по тракту передачи. Результатом этого поиска явилась импульсно-кодовая модуляция (ИКМ).

 

4.1. Принцип ИКМ.

          Входной непрерывный сигнал x=f(t) дисккретизируется в соответствии с теоремой отсчетов, а амплитуда АИМ импульсов, отображающая мгновенное значение входного сигнала в момент дискретизации, преобразуется кодером в двоичные числа. Так как число символов n в двоичном  числе, отражающем амплитуду импульса, ограничено, то ограничено и число цифр, позволяющих обозначить амплитуду соответствующего импульса. Поэтому кодер не может в большинстве случаев точно закодировать амплитуду импульсов, а производит “округление” до ближайшей нормированной амплитуды, которая может быть передана двоичным числом с ограниченным количеством разрядов. Отсюда следует, что кодер должен последовательно переводить непрерывно изменяющиеся амплитуды АИМ импульсов в квантованные по уровню АИМ импульсы и кодировать, т.е. выражать их через дискретно-квантованные по уровню величины в двоичном коде. Группа двоичных символов, которая используется для передачи одной дискретно-квантованной амплитуды, называется кодовой группой (кодовое слово). Число уровней квантования в кодовой группе с количеством разрядов n равно:

 

          N=2n

, тогда число разрядов, при известном количестве уровней квантования будет равно:          ,  при N=128  .

 

Дискретизация сигнала.

          Дискретизация – первый шаг при преобразовании аналогового сигнала в цифровую форму. На входе декодера она появляется в виде АИМ импульсов, поступающих на выход через фильтр нижних частот.

          Форма амплитудно-модулированных импульсов может быть различной и зависит от схемы дискретизатора и способов кодирования и декодирования. При передаче необходимо получать как можно более узкие импульсы отсчетов, чтобы в интервалах между ними разместить отсчеты сигналов остальных каналов система, а при приеме, наоборот, как можно более широкие импульсы отсчетов, так как мощность низкочастотного сигнала на входе приемника зависит от энергии импульсов отсчетов, восстановленных на выходе декодера.сигнал на выходе АИМ ключа – самая простая форма дискретизированного сигнала, у которого вершины импульсов повторяют форму исходного непрерывного сигнала.

          Передача аналоговых сигналов цифровыми методами сопровождается шумом квантования, возникающим из-за деления динамическогодиапазона кодека на конечное число дискретных величин (ступеней квантования).

          Предположим, что весь динамический   диапазон    кодера             y1,y2,…,yk, …yN-1,yN… разделен на N одинаковых ступеней квантования D. В центре каждой ступени расположен уровень, значение которого или его порядковый номер. Кодер в процессе кодирования может выразить двоичным числом. Обозначим эти уровни квантования через y1, y2, …,yk, …, yN. Далее предположим, что максимальное значение непрерывного входного сигнала x=f(t) не превышает общего динамического диапазона кодера (это предположение исключает дополнительные шумы из-за ограничения сигналов) и в каждый момент ti достигает xi=f(t). При выполнении операции квантования возникает ошибка квантования  di=xi-yk, где yk – ближайший уровень квантования.

          Качество передачи в системах с ИКМ оценивается отношением мощности сигнала к мощности шума квантования , дБ

                (4.2.1.)

качество повышается при увеличении шагов квантования.

 

 

Мощность шума квантования можно найти из выражения:

Pкв=D2/12, где D - ступени квантования. D=128, тогда  Ркв=1365

Вычислим отношение мощности сигнала к мощности шума квантования.

 

          дБ.

 

          Сравнение аналоговых импульсных видов модуляции (АИМ, ШИМ, ВИМ) с ИКМ позволяет сделать следующие выводы:

-         Информация о мгновенных параметрах входного непрерывного сигнала при аналоговых импульсных видах модуляции передается при непрерывном изменении аналоговых величин (амплитуды, длительности, временного положения) импульса. Длительность действия систем передачи с этими видами модуляции, как правило, ограничена искажениями, возникающими в процессе передачи, главной причиной которых является чувствительность передаваемого сигнала к внешним помехам;

-         Информация о мгновенных параметрах непрерывного сигнала в системах с ИКМ передается в виде двоичных чисел (кодовых групп), представленных последовательностью импульсов одинаковой формы и амплитуды. Так как искажения этих импульсов при условии безошибочной  регенерации не влияют на качество передачи и их сравнительно легко регенерировать, то практически можно достичь независимости качества передачи входного непрерывного сигнала от дальности связи. Необходимо помнить, что при ограничении числа уровней квантования входного непрерывного сигнала появляется дополнительный шум. Кроме того, цифровые системы передачи по сравнению с аналоговыми занимают более широкую полосу частот, что объясняется заменой аналогового сигнала группой импульсов.

 

 

5. Статистическое (эффективное) кодирование.

 

          Для дискретных каналов без помех К.Шенноном была доказана следующая теорема: если производительность источника RИ<C-e, где e - сколь угодно малая величина, то всегда существует способ кодирования, позволяющий передавать по каналу все сообщения источника. Передачу всех сообщений при RИ>C осуществить невозможно.

          Для рационального использования пропускной способности канала необходимо применять соответствующие способы кодирования сообщений. Статическим или оптимальным называется кодирование, при котором пропускная способность канала связи без помех используется наилучшим образом. При оптимальном кодировании фактическая скорость передачи сообщений по каналу R приближается к пропускной способности С, что достигается путем согласования источника с каналом. Сообщения источника кодируются таким образом, чтобы они в наибольшей степени соответствовали ограничениям, которые накладываются на сигналы, передаваемые по каналу связи. Поэтому структура оптимального кода зависит как от статистических характеристик источника, так и от особенностей канала.

          Кодирование с исправлением ошибок (помехоустойчивое кодирование), по существу, представляет собой метод обработки сигналов, предназначенный для увеличения надежности передачи по цифровым каналам. хотя различные схемы кодирования очень непохожи друг на друга и основаны на различных математических теориях, всем им присущи два общих свойства. Одно из них – избыточность. Закодированные цифровые сообщения всегда содержат дополнительные, или избыточные символы. Эти символы используют для того, чтобы подчеркнуть индивидуальность каждого сообщения. Из приведенной выше информации можно сделать вывод, что помехоустойчивое кодирование, проигрывает по скорости передачи с оптимальным кодированием из-за избыточности кода, с другой стороны оптимальное кодирование применимо лишь в каналах, в которых влияние помех незначительно.

 

Количество информации

          Всякая система связи строится для передачи сообщений от источников к потребителю. При этом каждое сообщение имеет свое содержание и определенную ценность для потребителя. Однако для канала связи существенным является лишь тот факт, что в передаваемом сообщении содержится какое-то количество информации.

          Информация представляет собой совокупность сведений, которые увеличивают знания потребителя о том или ином объекте, от которого получены эти сведения.

          Для того, чтобы иметь возможность сравнивать различные каналы связи, необходимо иметь некоторую количественную меру, позволяющую оценить содержащуюся в передаваемом сообщении информацию. Такая мера в виде количества передаваемой информации была введена К.Шенноном.

          В реальных источниках сообщений выбор элементарного сообщения является для потребителя случайным событием и происходит с некоторой априорной вероятностью P(xk). Очевидно, что количество информации, содержащееся в сообщениях xK, должно являться некоторой функцией этой вероятности

                     (5.1.1)

Функция j при этом удовлетворять требованию аддитивности, согласно которому n одинаковых сообщений должны содержать в n раз большее количество информации. Для измерения количества информации принято использовать логарифмическую функцию, практически наиболее удобную и отвечающую требованию аддитивности.

                           (5.1.2.)

Таким образом, определение количества информации в элементарном сообщении xK  сводится к вычислению логарифма вероятности появления (выбора) этого сообщения.

          В технике связи наиболее часто используются двоичные коды. В этом случае за единицу информации удобно принять количество информации, содержащееся в сообщении, вероятность выбора которого равна . Эта единица информации называется двоичной или битом.

          В некоторых случаях более удобным является натуральный логарифм. Одна натуральная единица соответствует количеству информации, которое содержится в сообщении с вероятностью выбора .

         

Из формулы следует, что сообщение содержит тем большее количество информации, чем меньше вероятность его появления.

 

 

Энтропия источника сообщений.

 

          В теории связи основное значение имеет не количество информации, содержащееся в отдельном сообщении, а среднее количество информации, создаваемое источником сообщений. Среднее значение (математическое ожидание) количества информации, приходящееся на одно элементарное сообщение, называется энтропией источника сообщений.

                 (5.2.1.)

 

          Как видно из формулы, энтропия источника определяется распределением вероятностей выбора элементарных сообщений из общей совокупности. Обычно отмечают, что энтропия характеризует источник с точки зрения неопределенности выбора того или иного сообщения. Энтропия всегда величина вещественная, ограниченная и неотрицательная: H(x)>0.

Найдем энтропию источника сообщений:

m-объем алфавита дискретного источника = 2;

вероятность приема “1” (Р(1)) = 0,9;

вероятность приема “0” (Р(0)) = 0,1.

Для вычисления энтропии воспользуемся формулой                .

 

         

 

 

 

 

Производительность источника сообщений.

 

          Отдельные элементы сообщения на входе источника появляются через некоторые интервалы времени, что позволяет говорить о длительности элементов сообщения и, следовательно, о производительности источника сообщений. Если средняя длительность одного элемента сообщения равна , то производительность источника, равная среднему количеству информации, передаваемой в единицу времени, определяется выражением:

 

          ;        (5.3.1.)

воспользуемся данной формулой для вычисления производительности источника.

 

          ;

 

 

5.1. Статистическое кодирование элементов сообщения

 

 

 

          Осуществим статистическое кодирование трехбуквенных комбинаций, состоящих из элементов двоичного кода 1 и 0: 000,001,010,011,100,101,110,111. Для кодирования воспользуемся алгоритмом неравномерного кодирования Хаффмана. Для этого вычислим вероятности этих комбинаций и расположим их в порядке убывания вероятностей.

 

 

 

Символы

Z1

Z2

Z3

Z4

Z5

Z6

Z7

Z8

Кодовые комбинации

111

110

101

011

100

010

001

000

Вероятности

0,729

0,081

0,081

0,081

0,009

0,009

0,009

0,001