Общие сведения. Объем сигнала и количество информации

Рассмотрим случай, когда длительность передаваемого сигнала равна T , а высшая частота спектра равна F M . Строго говоря, такие условия несовместимы, т. к. сигнал конечной длительности обладает бесконечно широким спектром. Но практически всегда можно ограничиться рассмотрением полосы частот, за пределами которой энергия спектральных компонент пренебрежимо мала.

Пусть за время Т (рис. 9.3) передано N отсчётов, причём в соответствии с теоремой Котельникова расстояние между отсчётами выбиралось равным , тогда: , а ряд Котельникова будет иметь вид:

Число N – число степеней свободы сигнала f(t) или базы сигнала. Приняв это число за число переданных символов сигнала n по формуле можно вычислить количество информации, переданной за время T , но для этого еще необходимо оценить число возможных состояний m , которые можно различить в передаваемом сигнале. Это число зависит от уровня помех в канале связи. Если приращение сигнала меньше чем эффективное (среднеквадратичное) напряжение помехи , то такое приращение трудно зафиксировать. Поэтому величину , связанную с мощностью помехи соотношением = принимают за единицу градаций сигнала в канале связи. Мощность сигнала при наличии передаваемого сообщения в канале равна Р с +Р п , а эффективное напряжение U э = . Тогда число возможных градаций сигнала будет равно (9.12)

Откуда количество информации (с учётом, что n>>1) равно

Величину I о иногда называют объёмом сигнала и изображают в виде параллелепипеда в трёхмерной системе координат (рис. 9.4). Если взять отношение (9.14)

получим скорость передачи информации . Очевидно, что для нормальной передачи информации пропускная способность канала связи должна быть не менее чем скорость поступающей информации, т.е. должно выполняться неравенство Ск≥С. При передаче буквенно-цифровой информации производится кодирование сигналов, т.е. представление их в виде комбинаций импульсов различной длительности. Различают равномерные и неравномерные коды. Большое распространение в устройствах связи получили равномерный код Бодо и неравномерный код Морзе.



ПРИБЛИЖЕННОЕ ПРЕДСТАВЛЕНИЕ СИГНАЛОВ РЯДОМ КОТЕЛЬНИКОВА И ОШИБКИ АППРОКСИМАЦИИ.

Если известно, что большая часть энергии сигнала с неограниченным спектром сосредоточена в пределах ограниченной полосы частот, то с определенной погрешностью возможно представление таких сигналов с помощью ограниченного ряда Котельникова. Например, на рисунке показано представление прямоугольного импульса с помощью двух и трех отсчетов. В первом случае учитываются сигналы до частоты . Во втором случае до частоты . Соответствующие модели такого представления имеют вид:

А во вором случае три отсчета:

По формуле (1) построен график 1 на рисунке в и по формуле (2) – график 2.

С ростом числа отсчетов повышается точность аппроксимации сигнала рядом Котельникова.

Произвольный сигнал с неограниченным спектром при представлении его рядом Котельникова будет отличаться от сигнала с неограниченным спектром на величину ошибки. Поэтому, можно записать, что исходный сигнал

где – сигнал с ограниченным спектром, – сигнал ошибки.

Спектры этих сигналов не перекрываются, поэтому сигналы и ортогональны. А их энергии, то есть квадраты норм, складываются: .

За абсолютную меру ошибки аппроксимации принимается расстояние, равное норме сигнала ошибки. Используя соотношения , , можно, при известном энергетическом спектре , по теореме Рейли получить:

УЗКОПОЛОСНЫЙ СИГНАЛ: ПРЕДСТАВЛЕНИЕ В КОМПЛЕКСНОЙ ФОРМЕ.

СПЕКТР СИГНАЛА.

Узкополосным называют сигнал, спектральная плотность которого сосредоточена в ограниченной полосе частот вблизи окрестности некоторой опорной частоты, причем выполняется условие . Математически такой сигнал может представляться разными моделями, например, или .

Или в общем случае для представления узкополосного сигнала используют линейную комбинацию:

Функцию называют синфазной амплитудой, а функцию – квадратурной амплитудой. Обе эти функции представляют собой НЧ (по сравнению с ) сигнал. Узкополосные сигналы могут представляться и в комплексной форме:

Величину (3) называют комплексной огибающей узкополосного сигнала. Не трудно показать, что вещественное представление (1) узкополосного сигнала связано с комплексным представлением соотношением:

С физической точки зрения узкополосный сигнал можно рассматривать как квазигармоническое колебание, к которому для расчетов применим метод комплексных амплитуд. Комплексная огибающая узкополосного сигнала играет ту же роль, что и амплитуда простого гармонического колебания. Однако вектор в общем случае будет совершать колебания на комплексной плоскости, изменяясь по амплитуде и угловому положению.

Обозначим спектральную плотность комплексной огибающей . Тогда спектр узкополосного сигнала буде равен.

Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В.И. Ульянова (Ленина) (СПбГЭТУ)

Кафедра ВТ

РЕФЕРАТ

по дисциплине: «Цифровая обработка сигналов»

на тему: «Сигналы и их свойства»

Выполнил:

Проверил:

г. Санкт-Петербург, 2014 г.

1. Введение………………………………………………………………………………………………...3

2. Обобщенная структура системы цифровой обработки сигналов…………………………………..4

3. Классификация сигналов………………………………………………………………………………5

4. Характеристики сигналов……………………………………………………………………………...7

5. Формы представления сигналов……………………………………………………………………….8

6. Выводы…………………………………………………………………………………………………..9

7. Литература……………………………………………………………………………………………10

Введение

Понятие сигнала

Сигнал - символ (знак, код), созданный и переданный в пространство (по каналу связи) одной системой, либо возникший в процессе взаимодействия нескольких систем. Смысл и значение сигнала проявляются в процессе дешифровки его второй (принимающей) системой.

Сигнал - материальный носитель информации, используемый для передачи сообщений в системе связи. Сигнал может генерироваться, но его приём не обязателен, в отличие от сообщения, которое рассчитано на принятие принимающей стороной, иначе оно не является сообщением. Сигналом может быть любой физический процесс, параметры которого изменяются (или находятся) в соответствии с передаваемым сообщением.

Сигнал, детерминированный или случайный, описывают математической моделью, функцией, характеризующей изменение параметров сигнала.

Понятие сигнал позволяет абстрагироваться от конкретной физической величины, например тока, напряжения, акустической волны и рассматривать вне физического контекста явления связанные кодированием информации и извлечением её из сигналов, которые обычно искажены шумами. В исследованиях сигнал часто представляется функцией времени, параметры которой могут нести нужную информацию. Способ записи этой функции, а также способ записи мешающих шумов называют математической моделью сигнала .

Обобщенная структура системы цифровой обработки сигналов

Цифровая обработка связана с представлением любого сигнала в виде последовательности чисел. Это означает, что исходный аналоговый сигнал должен быть преобразован в исходную последовательность чисел, которая вычислителем по заданному алгоритму преобразуется в новую последовательность, однозначно соответствующей исходной. Из полученной новой последовательности формируется результирующий аналоговый сигнал.Обобщенная структура системы цифровой обработки сигналов приведена на рисунке ниже.

На ее вход поступает аналоговый сигнал от разнообразных датчиков, которые преобразуют физическую величину в электрическое напряжение. Его временная дискретизация и квантование по уровню производятся в аналого-цифровом преобразователе (АЦП). Выходным сигналом АЦП является последовательность чисел, поступающая в цифровой процессор ЦП, выполняющий требуемую обработку. Процессор осуществляет различные математические операции над входными отсчетами. Как правило, цифровой процессор включает в себя добавочную аппаратуру:

    матричный умножитель;

    дополнительное АЛУ для аппаратной поддержки формирования адресов операндов;

    дополнительные внутренние шины для параллельного доступа к памяти;

    аппаратный сдвигатель для масштабирования, умножения или деления на 2n.

Результатом работы процессора является новая последовательность чисел, представляющих собой отсчеты выходного сигнала. Аналоговый выходной сигнал восстанавливается по последовательности чисел с помощью цифро-аналогового преобразователя ЦАП. Напряжение на выходе ЦАП имеет ступенчатую форму. При необходимости можно использовать сглаживающий фильтр на выходе.

Классификация сигналов

По физической природе носителя информации :

    электрические;

    электромагнитные;

    оптические;

    акустические

По способу задания сигнала :

    регулярные (детерминированные), заданные аналитической функцией;

    нерегулярные (случайные), принимающие произвольные значения в любой момент времени. Для описания таких сигналов используется аппарат теории вероятностей.

В зависимости от функции, описывающей параметры сигнала , выделяют аналоговые, дискретные, квантованные и цифровые сигналы:

    непрерывные (аналоговые), описываемые непрерывной функцией;

    дискретные, описываемые функцией отсчётов, взятых в определённые моменты времени;

    квантованные по уровню;

    дискретные сигналы, квантованные по уровню (цифровые).

Аналоговый сигнал (АС)

Большинство сигналов имеют аналоговую природу, то есть изменяются непрерывно во времени и могут принимать любые значения на некотором интервале. Аналоговые сигналы описываются некоторой математической функцией времени.

Пример АС - гармонический сигнал: s(t) = A·cos(ω·t + φ).

Аналоговые сигналы используются в телефонии, радиовещании, телевидении. Ввести такой сигнал в цифровую систему для обработки невозможно, так как на любом интервале времени он может иметь бесконечное множество значений, и для точного (без погрешности) представления его значения требуются числа бесконечной разрядности. Поэтому очень часто необходимо преобразовывать аналоговый сигнал так, чтобы можно было представить его последовательностью чисел заданной разрядности.

Дискретный сигнал

Дискретизация аналогового сигнала состоит в том, что сигнал представляется в виде последовательности значений, взятых в дискретные моменты времени t i (где i - индекс). Обычно промежутки времени между последовательными отсчётами (Δt i = t i − t i−1) постоянны; в таком случае, Δt называется интервалом дискретизации . Сами же значения сигнала x(t) в моменты измерения, то есть x i = x(t i), называются отсчётами.

Квантованный сигнал

При квантовании вся область значений сигнала разбивается на уровни, количество которых должно быть представлено в числах заданной разрядности. Расстояния между этими уровнями называется шагом квантования Δ. Число этих уровней равно N (от 0 до N−1). Каждому уровню присваивается некоторое число. Отсчёты сигнала сравниваются с уровнями квантования и в качестве сигнала выбирается число, соответствующее некоторому уровню квантования. Каждый уровень квантования кодируется двоичным числом с n разрядами. Число уровней квантования N и число разрядов n двоичных чисел, кодирующих эти уровни, связаны соотношением n ≥ log 2 (N).

Цифровой сигнал

Для того, чтобы представить аналоговый сигнал последовательностью чисел конечной разрядности, его следует сначала превратить в дискретный сигнал, а затем подвергнуть квантованию. Квантование является частным случаем дискретизации, когда дискретизация происходит по одинаковой величине, называемой квантом. В результате сигнал будет представлен таким образом, что на каждом заданном промежутке времени известно приближённое (квантованное) значение сигнала, которое можно записать целым числом. Последовательность таких чисел и будет являться цифровым сигналом.

Характеристики сигналов

    Длительность сигнала (время передачи) Тс - интервал времени, в течение которого существует сигнал.

    Ширина спектра Fc - диапазон частот, в пределах которых сосредоточена основная мощность сигнала.

    База сигнала - произведение ширины спектра сигнала на его длительность.

    Динамический диапазон D c - логарифм отношения максимальной мощности сигнала - P max к минимальной - P min (минимально-различимая на уровне помех): Dc = log(P max /P min).

    Объем сигнала определяется соотношением V c = T c F c D c . T c – временная длительность сигнала, F c – эффективный спектр сигнала.

    Энергетические характеристики :

мгновенная мощность - P(t);

средняя мощность - P ср и энергия - E.

Эти характеристики определяются соотношениями:

Где T = t max -t min .

Формы представления сигналов.

Способы представления сигналов

Графический

Аналитический

Временные диаграммы

Математические модели

Векторные диаграммы

Геометрические диаграммы

Спектральные диаграммы

Временная диаграмма представляет собой график зависимости какого либо параметра сигнала (например, напряжения или тока) от времени. На временной диаграмме сигнала можно наблюдать форму сигнала. Осциллограмму можно визуально наблюдать с помощью специального измерительного прибора - осциллографа.

Векторная диаграмма используется при изучении процессов связанных с изменением фазы сигнала (например, при фазовой модуляции). В данной диаграмме сигнал представляется вектором, длина которого пропорциональна амплитуде сигнала, а угол наклона относительно исходного вектора показывает фазу сигнала.

В геометрической диаграмме сигнал представляется в виде геометрической фигуры. Данная диаграмма может быть использована при визуальном представлении объема сигнала.

Спектральная диаграмма представляет собой график распределения энергии (спектр амплитуд) или фаз (спектр фаз) сигнала по частотам. Данные диаграммы можно наблюдать с помощью специального измерительного прибора - анализатора спектра.

Таким образом, цифровая обработка сигналов- преобразование сигналов, представленных в цифровой форме.

Любой непрерывный (аналоговый) сигнал s(t) может быть подвергнут дискретизации по времени и квантованию по уровню (оцифровке), то есть представлен в цифровой форме.

При помощи математических алгоритмов полученный дискретный сигнал s(k) преобразуется в некоторый другой сигнал , имеющий требуемые свойства. Процесс преобразования сигналов называется фильтрацией, а устройство, выполняющее фильтрацию, называется фильтром. Поскольку отсчёты сигналов поступают с постоянной скоростью , фильтр должен успевать обрабатывать текущий отсчет до поступления следующего, то есть обрабатывать сигнал в реальном времени. Для обработки сигналов (фильтрации) в реальном времени применяют специальные вычислительные устройства - цифровые сигнальные процессоры.

Всё это полностью применимо не только к непрерывным сигналам, но и к прерывистым, а также к сигналам, записанным на запоминающие устройства. В последнем случае скорость обработки непринципиальна, так как при медленной обработке данные не будут потеряны.

В последние годы при обработке сигналов и изображений широко используется новый математический базис представления сигналов с помощью «коротких волночек» - вейвлетов. С его помощью могут обрабатываться нестационарные сигналы, сигналы с разрывами и иными особенностями, сигналы в виде пачек.

Литература

1. Цифровая обработка сигналов изображений: учеб. пособие / С.М. Ибатуллин; Санкт-Петербургский государственный электротехнический университет им. В.И. Ульянова (Ленина) "ЛЭТИ" . - СПб. : Изд-во СПбГЭТУ "ЛЭТИ", 2006. - 127 с.

2. Цифровая обработка сигналов: учеб. пособие для вузов / А.Б.Сергиенко; - СПб. : Питер, 2002. - 603 с

3. Алгоритмы и процессоры цифровой обработки сигналов: Учеб. пособие для вузов / А. И. Солонина, Д. А. Улахович, Л. А. Яковлев. - СПб. : БХВ-Петербург, 2001. - 454 с

Передача сообщений

1.3. Передача сообщений. 1

1.3.1. Общие сведения. 2

Схема передачи. 2

Терминология. 4

Мера информации. 4

Объем сигнала. 9

Объем сигнала и количество информации. 10

Пропускная способность каналов связи. 11

Помехоустойчивость. 12

1.3.2. Кодирование. 15

Код Грея. 18

Код Шеннона-Фано. 18

Код Хемминга. 19

Циклический код. 20

Линейное кодирование. 20

Телемеханические коды.. 22

1.3.3. Сигналы и их характеристики. 34

Спектры сигналов. 34

Корреляционные характеристики сигналов. 38

1.3.4. Модуляция. 41

Амплитудные модуляции (АМ). 42

Частотная модуляция (ЧМ). 44

Импульсно-кодовая модуляция. 45

Манипуляция. 49

1.3.6. Пропускная способность линии связи. 51

Теорема Найквиста. 51

Теорема Котельникова. 51

Теорема Шенона-Хартли. 52

Беспроводные линии связи. 53

1.3.5. Телефонные линии связи. 55

Многоканальные системы. 57

Междугородняя телефонная связь. 57

1.3.6. Интерфейсы компьютерных систем.. 59

ПЕРЕЧЕНЬ ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ.. 59

Децибел. 61

Схема передачи. При автоматизации систем электроснабжения приходится строить систему при значительном удалении отдельных компонентов друг от друга. В связи с этим необходимо достаточно внимания уделять проблеме передачи информации через каналы связи. Это касается в первую очередь систем оперативного управления устройствами электроснабжения, для чего организуется диспетчерский пункт, связанный через каналы связи с несколькими контролируемыми пунктами. На каждом из контролируемых пунктов находится несколько объектов управления. В большинстве случаев организуется двухсторонний обмен информацией, но известны системы и с односторонним потоком информации, например радиоуправление освещением . Схема передачи сообщения приведена на рис. 52.

Рис. 52. Схема передачи информации в системе телемеханики

Наиболее уязвимым звеном передачи информации является линия связи, уровень помех, воздействующих на нее трудно изменить. Помеха в общем случае может исказить сигнал, в результате приемник информации получит искаженное сообщение l’(t)≠l(t). Дальнейшее изложение выполнено согласно . Различают следующие виды помех: аддитивная и мультипликативная .

Терминология. Дадим несколько определений. Заметим, что приведенные ниже понятия могут иметь и другие определения, отличающиеся рассматриваемыми аспектами.

Информация – совокупность сведений о каком-либо событии, явлении, процессе, которая характеризует их с точки зрения тех или иных параметров, представляющих интерес для пользователя

Сообщение – совокупность знаков содержащих информацию.



Сигнал – физический процесс, отображающий (несущий) передаваемое сообщение. Формируется путем изменения какого-либо параметра физического процесса по закону сообщения.

Канал связи – совокупность устройств, обеспечивающих передачу сигнала от некой точки А до точки Б (см. рис. 52).

Линия связи – среда, используемая для передачи сигнала от передатчика к приёмнику.

Помехоустойчивость – способность системы противодействовать воздействию помехи.

Кодирование – отождествление передаваемых сообщений с набором букв или цифр. Каждое сообщение оказывается представимым в виде цифрового слова, или некоторого числа (кодовой комбинации).

Код правило, по которому записываются различные кодовые слова или числа.

Мера информации. Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке. Шеннон рассматривает информацию как снятую неопределенность наших знаний о чем-то. “Классическая” шенноновская теория информации позволяет измерять информацию текстов и сообщений, исследовать и разрабатывать приемы ее кодирования в передатчике и декодирования в приемнике, измерять пропускную способность канала связи между ними, вычислять уровень шума в канале и минимизировать его воздействия. Винер, "отец" кибернетики дал такое определение: «Информация - это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств». Предметом большинства теоретико-информационных работ была лишь “микроинформация” - информация, которую система не запоминает и которая является мерой разнообразия возможных микросостояний, определяющих данное макросостояние системы. Развитие работ А.Н. Колмогорова привели к определениям понятия алгоритмического количества информации. Алгоритмическое количество информации рассматривалось как минимальная длина программы (сложность), позволяющая однозначно преобразовывать одно множество в другое. Макроинформация принципиально отличается от упомянутой выше микроинформации именно тем, что системы ее запоминают. В биологии генетические тексты рассматриваются не как непосредственное зашифрованное описание порождаемых ими структур, а как описания алгоритмов их пространственно-временной реализации, или даже алгоритмы построения автоматов, реализующих эти алгоритмы. Информация по Г.Кастлеру представляет собой «запоминание случайного выбора» - изначально случайный, а затем запомненный выбор одного или нескольких осуществленных вариантов из всей совокупности возможных. Информация – это язык мира, понимаемого как живое целое. В информатике термин "информация" является первичным, неопределяемым.

Переводы статей основоположников теории информации (Хартли Р., Шеннона К. и др.) можно просмотреть здесь.

Понятие энтропия, широко используемое в теории информации рассмотрено здесь.

Единица измерения информации называется "бит". Ее определение звучит так: «Сообщение, уменьшающее неопределенность знаний человека в два раза, несет для него 1 бит информации». (Неопределенность знаний о некотором событии - это количество возможных результатов события).

Для передачи сообщения его часто преобразуют в дискретные сигналы. Последние можно рассматривать состоящими из n элементарных (единичных) сигналов. Единичный сигнал занимает, как правило, одну временную позицию. Каждый элементарный сигнал может иметь K различных значений. Величина K зависит от способов модуляции (очень часто К=2). Между числом сообщений М и n дискретными сигналами должно выполнять соотношение .

РальфХартли в 1928 году (Hartley R.V.L. Transmission of information) предложил следующую меру информации учитывающие физические, а не физиологические соображения

I=n· log a K = log a M

Из формулы следует, что неопределенность в системе тем выше, чем больше M . Основание a логарифма можно выбрать произвольно. Наиболее часто а=2. В этом случае единицей информации считается 1 бит. Если а=10 то – единица назвается Хартли, если а=е, то 1 нат. Мера Хартли справедлива при следующих допущениях: не рассматривается смысловая ценность информации, все М сообщений равновероятны и между элементарными сигналами отсутствует корреляция. Вероятность появления сообщения p=1/M.

Шеннон (1916-2001) в своих работах 1948-49 годов определил количество информации через энтропию - величину, известную в термодинамике и статистической физике как мера разупорядоченности системы, а за единицу информации принял то, что впоследствии окрестили "битом", то есть выбор одного из двух равновероятных вариантов. Шеннон получил формулу определения количества информации источника для случая, когда появление любого i-го сообщения из М возможных может иметь различную вероятность p i , при этом Sp i =1 (i=1, 2, …, M).

Мерой информации сигнала состоящего из n элементов, каждый из которых может принимать одно из К значений (при вероятности появления символа j из К возможных - p j) будет

Н И и Н С – называются энтропией источника и энтропией элементарного сигнала (т.е. среднее количество информации источника и элементарного сигнала).

Так, если у нас источник может иметь одно из равновероятных 16 состояний, и мы получили информацию о его состоянии (I = -16*1/16*log 2 (1/16) = log 2 (16) = 4), т.е. мы получили 4 бита информации. Если же источник мог иметь одно из двух состояний, одно с вероятностью 1/2 другое - 1/2, то энтропия источника равна 1. Для передачи этой информации нам потребуются разные сигналы. В первом случае либо один элемент с 16-ю состояниями или 4 элемента, каждый из которых имеет два состояния. Для второго достаточно одного элемента сигнала, который может принимать одно из двух состояний.

Можно показать, что мера Хартли соответствует максимальной возможной энтропии источника информации (при равновероятных сообщениях). Пример. Пусть имеется два источника информации с четырьмя возможными состояниями M=4 (т.е. каждый источник может выдать одно из четырех сообщений)

Источник_1

Энтропия (по Шеннону) составит

I 2 = –(3/4·log 2 (3/4)+ 1/12·log 2 (1/12)+ 1/12·log 2 (1/12)+ 1/12·log 2 (1/12))= 1.20752

Для передачи информации от источника с помощью сигнала необходимо выполнить соотношение Н и ≤ nH c . Если сигнал может обеспечить передачу с m информационными элементами, а имеет n>m, то сигнал обладает избыточностью R

R = (n-m) / n = 1 - n/m.

При передаче по каналу связи без помех избыточность не требуется. Если же канал имеет помехи, то избыточность используют для повышения помехоустойчивости передачи.

Наличие человека в системе учитывается при выборе параметров системы телемеханики. Возможности человека по восприятию информации уступает возможностям технических средств. Количество информации, которое нервная система человека способна передать в мозг при чтении текстов составляет примерно 16 бит/с, одновременно в сознании человек может удержать 160 бит. Время реакции на акустические и оптические сигналы находится в пределах 140-250 мс. Закон Меркаля (1885 г.) оценивает время реакции человека (Т, мс) на выполнение задания выбора из N объектов по выражению Т=200+180 * log2(N). При высокой способности человека к различению (1500 оттенков яркости, 330 уровней громкости, 2300 высот звука) одновременно он может различить не более 5-7 значений. Поэтому многие решения, принимаемые при создании систем телемеханики, учитывают указанные возможности человека.

Объем сигнала. В теории передачи информации часто используется трехмерное представление сигнала и вводят понятие объем сигнала V c . Параметры сигнала отображают в следующих координатах: длительность сигнала (T c), динамический диапазон (D c) и ширина частотного спектра (ΔF c).

Динамический диапазон принято измерять в относительных логарифмических величинах. При измерении отношения мощностей сигналов динамический диапазон определяется по максимальной и минимальной мощности сигнала:

Часто используют единицу измерения децибел.

.

Примеры динамических диапазонов: лектор - 25-35 дБ, капелла - 70-90 дБ.

Ширина частотного спектра, например, для речи человека составляет 20 кГц (20-20000 Гц), из которого по телефонной линии принято передавать ширину 3,1 кГц (от 300 до 3400 Гц).

Аналогично вводится понятие объема для канала связи, вводя следующие координаты: длительность передачи (Т К), – динамический диапазон канала (D К), – полоса пропускания (ΔF К). Телефонные каналы имеют полосу пропускания 3,1 кГц (от 300 до 3400 Гц). Динамический диапазон канала определяется через отношение максимальной мощности канала Р мах к мощности помехи Р min

V k = T k ·DF k ·D k

Для передачи сигнала по каналу необходимо выполнение условие V с ≤V к. При этом возможно потребуется изменить параметры сигнала, чтобы обеспечивалось и достаточное условие: ΔF С ≤ΔF К; D С ≤D К; Т С ≤Т К.

Объем сигнала и количество информации. Пусть сигнал имеет n элементарных символов с основанием кода K. В этом случае количество информации в сигнале I=n·log 2 K, а объем сигнала

V С = T С ·DF С ·D С = T С ·DF С ·log 2 (P c /P п)

где P c – мощность сигнал, P п - мощность помехи. Для сигнала длительностью Т с количество элементов сигнала n=Т с /Dt, где Dt – длительность элементарного сигнала. По теореме Котельникова спектр одиночного импульса может быть определен DF С = 1/ Dt. Получаем

I с =n·log 2 K= Т с /Dt log 2 K= Т с DF С log 2 K.

Обычно К=U/ DU, где DU – порог чувствительности, в случае если уровень помех не превышает DU/2. В канале с помехами

P п @U 2 п; P с @U 2 с; К=U с / U п =а к · P с / P п,

где а к =const и зависит от характеристик помех и способа выбора DU.

I с = Т с DF С log 2 (а к · P с / P п) = Т с DF С log 2 (P с / P п) + Т с DF С log 2 а к =

V с + Т с DF С log 2 а к.

Таким образом, в сигнале содержится полезная составляющая V c и дополнительная информация, отражающая способ выделения градаций сигнала.

Пропускная способность каналов связи. Для канала связи без помех информация может передаваться неизбыточным сигналом, бит/с

с = DF c ·log 2 K,

где K=U max /Du – число возможных градаций сигнала,

U max – максимальное значение сигнала,

Du – чувствительность приемника.

Для канала с помехой скорость достоверной передачи получена Шенноном

с = DF c ·log 2 (1+P c /P п),

где P c /P п –отношение мощности сигнала к мощности помехи.

Помехоустойчивость. Помехоустойчивость оценивается вероятностью p появления помехи в приемнике. Примеры помехоустойчивости различных систем:

система передачи данных (СПД) – р=10 -8 – 10 -9

проводной телеграф – р=10 -3 – 10 -4 .

телеграф (радиоканал) – р=10 -2 – 10 -3 .

Системы телемеханики должны обеспечить высокую достоверность передаваемой информации в условиях недостаточной помехоустойчивости каналов связи. Требования к достоверности передачи информации изложены в . Для обеспечения необходимой достоверности в сообщение кроме информационной составляющей приходится добавлять служебные элементы, позволяющие приемной стороне обнаруживать влияние помех.

Почти всегда в канале связи действует помеха. Существует много источников шума, один из главных тепловые шумы (P п = kQ B, где Q – температура в градусах Кельвина, B – полоса пропускания приемника, а k – постоянная Больцмана). На практике существенно большее влияние оказывают различного рода наводки.

Наиболее важным при передаче информации является обеспечение ее достоверности. К критериям оценки достоверности относятся следующие вероятности:

вероятность правильного приема Р ПР;

вероятность ложного приема Р Л ПР;

вероятность защитного отказа (обнаружения искаженной информации) Р ЗО (обычно около 10 -7);

вероятность потери сообщения Р ПОТ

вероятность подделки сообщения Р ПОД (не более одного сообщения в год).

Вероятность потери сообщения не является аналогом вероятности защитного отказа. Защитный отказ сопровождается сигналом о том, что была принята искаженная информация. В этом случае можно попытаться передать сообщение еще раз. В случае потери информации на приемной стороне ничего не будет принято. Такой случай имеет место, например, при искажении синхросигнала. В некоторых случаях системы работают в условиях постоянного поддержания синхронной работы источника и приемника. Однако большинство систем работают в режиме ожидания. Сообщение в случае, когда синхросигнал ожидается, будет безвозвратно потеряно.

Для оценки достоверности информации можно рассматривать все рассмотренные критерии, но Международный электротехнический комитет (МЭК) рекомендует выбирать два или даже один из них: Р Л ПР и Р ПОД. В зависимости от величины Р Л ПР по рекомендации МЭК все телемеханические каналы связи разделяются по достоверности на три класса: I1, I2, I3. Вероятность ложного приема P Л.ПР рассчитывается для двоичного симметричного канала связи с учетом вероятности искажения одного бита в канале связи p 0 = 10 -4 . Данное значение является характерным для канала связи среднего качества. Следующая таблица иллюстрирует достоверность систем различных классов и минимальное кодовое расстояние, которое они обеспечивают.

Классы достоверности систем передачи информации

Ложный прием будет зафиксирован, если избыточная часть будет соответствовать информационной. Помеха искажает каждый из контрольных символов с максимальной вероятностью 0,5, а все k контрольных символов будут искажены с вероятностью ≤ 0,5 k . Следовательно Р Л ПР max ≤ 0,5 k

Класс точности I1, может применяться в циклических системах ТИ, класс точности I2, рекомендуется применять в системах телесигнализации, класс I3 предназначен для передачи команд телеуправления.

Не так давно товарищ Makeman описывал , как с помощью спектрального анализа можно разложить некоторый звуковой сигнал на слагающие его ноты. Давайте немного абстрагируемся от звука и положим, что у нас есть некоторый оцифрованный сигнал, спектральный состав которого мы хотим определить, и достаточно точно.

Под катом краткий обзор метода выделения гармоник из произвольного сигнала с помощью цифрового гетеродинирования, и немного особой, Фурье-магии.

Итак, что имеем.
Файл с отсчетами оцифрованного сигнала. Известно, что сигнал представляет собой сумму синусоид со своими частотами, амплитудами и начальными фазами, и, возможно, белый шум.

Что будем делать.
Использовать спектральный анализ для того, чтобы определить:

  • количество гармоник в составе сигнала, а для каждой: амплитуду, частоту (далее в контексте числа длин волн на длину сигнала), начальную фазу;
  • наличие/отсутствие белого шума, а при наличии, его СКО (среднеквадратическое отклонение);
  • наличие/отсутствие постоянной составляющей сигнала;
  • всё это оформить в красивенький PDF отчёт с блэкджеком и иллюстрациями.

Будем решать данную задачу на Java.

Матчасть

Как я уже говорил, структура сигнала заведомо известна: это сумма синусоид и какая-то шумовая составляющая. Так сложилось, что для анализа периодических сигналов в инженерной практике широко используют мощный математический аппарат, именуемый в общем «Фурье-анализ» . Давайте кратенько разберём, что же это за зверь такой.
Немного особой, Фурье-магии
Не так давно, в 19 веке, французский математик Жан Батист Жозеф Фурье показал, что любую функцию, удовлетворяющую некоторым условиям (непрерывность во времени, периодичность, удовлетворение условиям Дирихле) можно разложить в ряд, который в дальнейшем получил его имя - ряд Фурье .

В инженерной практике разложение периодических функций в ряд Фурье широко используется, например, в задачах теории цепей: несинусоидальное входное воздействие раскладывают на сумму синусоидальных и рассчитывают необходимые параметры цепей, например, по методу наложения.

Существует несколько возможных вариантов записи коэффициентов ряда Фурье, нам же лишь необходимо знать суть.
Разложение в ряд Фурье позволяет разложить непрерывную функцию в сумму других непрерывных функций. И в общем случае, ряд будет иметь бесконечное количество членов.

Дальнейшим усовершенствованием подхода Фурье является интегральное преобразование его же имени. Преобразование Фурье .
В отличие от ряда Фурье, преобразование Фурье раскладывает функцию не по дискретным частотам (набор частот ряда Фурье, по которым происходит разложение, вообще говоря, дискретный), а по непрерывным.
Давайте взглянем на то, как соотносятся коэффициенты ряда Фурье и результат преобразования Фурье, именуемый, собственно, спектром .
Небольшое отступление: спектр преобразования Фурье - в общем случае, функция комплексная, описывающая комплексные амплитуды соответствующих гармоник. Т.е., значения спектра - это комплексные числа, чьи модули являются амплитудами соответствующих частот, а аргументы - соответствующими начальными фазами. На практике, рассматривают отдельно амплитудный спектр и фазовый спектр .


Рис. 1. Соответствие ряда Фурье и преобразования Фурье на примере амплитудного спектра.

Легко видно, что коэффициенты ряда Фурье являются ни чем иным, как значениями преобразования Фурье в дискретные моменты времени.

Однако, преобразование Фурье сопоставляет непрерывной во времени, бесконечной функции другую, непрерывную по частоте, бесконечную функцию - спектр. Как быть, если у нас нет бесконечной во времени функции, а есть лишь какая-то записанная её дискретная во времени часть? Ответ на этот вопрос даёт дальнейшей развитие преобразования Фурье - дискретное преобразование Фурье (ДПФ) .

Дискретное преобразование Фурье призвано решить проблему необходимости непрерывности и бесконечности во времени сигнала. По сути, мы полагаем, что вырезали какую-то часть бесконечного сигнала, а всю остальную временную область считаем этот сигнал нулевым.

Математически это означает, что, имея исследуемую бесконечную во времени функцию f(t), мы умножаем ее на некоторую оконную функцию w(t), которая обращается в ноль везде, кроме интересующего нас интервала времени.

Если «выходом» классического преобразования Фурье является спектр – функция, то «выходом» дискретного преобразования Фурье является дискретный спектр. И на вход тоже подаются отсчёты дискретного сигнала.

Остальные свойства преобразования Фурье не изменяются: о них можно прочитать в соответствующей литературе.

Нам же нужно лишь знать о Фурье-образе синусоидального сигнала, который мы и будем стараться отыскать в нашем спектре. В общем случае, это пара дельта-функций, симметричная относительно нулевой частоты в частотной области.


Рис. 2. Амплитудный спектр синусоидального сигнала.

Я уже упомянул, что, вообще говоря, мы рассматриваем не исходную функцию, а некоторое её произведение с оконной функцией. Тогда, если спектр исходной функции - F(w), а оконной W(w), то спектром произведения будет такая неприятная операция, как свёртка этих двух спектров (F*W)(w) (Теорема о свёртке).

На практике это означает, что вместо дельта-функции, в спектре мы увидим что-то вроде этого:


Рис. 3. Эффект растекания спектра.

Этот эффект именуют также растеканием спектра (англ. spectral leekage). А шумы, появляющиеся вследствие растекания спектра, соответственно, боковыми лепестками (англ. sidelobes).
Для борьбы с боковыми лепестками применяют другие, непрямоугольные оконные функции. Основной характеристикой «эффективности» оконной функции является уровень боковых лепестков (дБ). Сводная таблица уровней боковых лепестков для некоторых часто используемых оконных функций приведена ниже.

Основной проблемой в нашей задаче является то, что боковые лепестки могут маскировать другие гармоники, лежащие рядом.


Рис. 4. Отдельные спектры гармоник.

Видно, что при сложении приведённых спектров, более слабые гармоники как бы растворятся в более сильной.


Рис. 5. Чётко видна лишь одна гармоника. Нехорошо.

Другой подход к борьбе с растеканием спектра состоит в вычитании из сигнала гармоник, создающих это самое растекание.
То есть, установив амплитуду, частоту и начальную фазу гармоники, можно вычесть её из сигнала, при этом мы уберём и «дельта-функцию», соответствующую ей, а вместе с ней и боковые лепестки, порождаемые ей. Другой вопрос состоит в том, как же точно узнать параметры нужной гармоники. Недостаточно просто взять нужные данные из комплексной амплитуды. Комплексные амплитуды спектра сформированы по целым частотам, однако, ничто не мешает гармонике иметь и дробную частоту. В этом случае, комплексная амплитуда как бы расплывается между двумя соседними частотами, и точную её частоту, как и другие параметры, установить нельзя.

Для установления точной частоты и комплексной амплитуды нужной гармоники, мы воспользуемся приёмом, широко применяемым во многих отраслях инженерной практики – гетеродинирование .

Посмотрим, что получится, если умножить входной сигнал на комплексную гармонику Exp(I*w*t). Спектр сигнала сдвинется на величину w вправо.
Этим свойством мы и воспользуемся, сдвигая спектр нашего сигнала вправо, до тех пор, пока гармоника не станет ещё больше напоминать дельта-функцию (то есть, пока некоторое локальное отношение сигнал/шум не достигнет максимума). Тогда мы и сможем вычислить точную частоту нужной гармоники, как w 0 – w гет, и вычесть её из исходного сигнала для подавления эффекта растекания спектра.
Иллюстрация изменения спектра в зависимости от частоты гетеродина показана ниже.


Рис. 6. Вид амплитудного спектра в зависимости от частоты гетеродина.

Будем повторять описанные процедуры до тех пор, пока не вырежем все присутствующие гармоники, и спектр не будет напоминать нам спектр белого шума.

Затем, надо оценить СКО белого шума. Хитростей здесь нет: можно просто воспользоваться формулой для вычисления СКО:

Автоматизируй это

Пришло время для автоматизации выделения гармоник. Повторим ещё разочек алгоритм:

1. Ищем глобальный пик амплитудного спектра, выше некоторого порога k.
1.1 Если не нашли, заканчиваем
2. Варируя частоту гетеродина, ищем такое значение частоты, при которой будет достигаться максимум некоторого локального отношения сигнал/шум в некоторой окрестности пика
3. При необходимости, округляем значения амплитуды и фазы.
4. Вычитаем из сигнала гармонику с найденной частотой, амплитудой и фазой за вычетом частоты гетеродина.
5. Переходим к пункту 1.

Алгоритм не сложный, и единственный возникающий вопрос - откуда же брать значения порога, выше которого будем искать гармоники?
Для ответа на этот вопрос, следует оценить уровень шума еще до вырезания гармоник.

Построим функцию распределения (привет, мат. cтатистика), где по оси абсцисс будет амплитуда гармоник, а по оси ординат - количество гармоник, не превышающих по амплитуде это самое значение аргумента. Пример такой построенной функции:


Рис. 7. Функция распределения гармоник.

Теперь построим еще и функцию - плотность распределения. Т.е., значения конечных разностей от функции распределения.


Рис. 8. Плотность функции распределения гармоник.

Абсцисса максимума плотности распределения и является амплитудой гармоники, встречающейся в спектре наибольшее число раз. Отойдем от пика вправо на некоторое расстояние, и будем считать абсциссу этой точки оценкой уровня шума в нашем спектре. Вот теперь можно и автоматизировать.

Посмотреть на кусок кода, детектирующий гармоники в составе сигнала

public ArrayList detectHarmonics() { SignalCutter cutter = new SignalCutter(source, new Signal(source)); SynthesizableComplexExponent heterodinParameter = new SynthesizableComplexExponent(); heterodinParameter.setProperty("frequency", 0.0); Signal heterodin = new Signal(source.getLength()); Signal heterodinedSignal = new Signal(cutter.getCurrentSignal()); Spectrum spectrum = new Spectrum(heterodinedSignal); int harmonic; while ((harmonic = spectrum.detectStrongPeak(min)) != -1) { if (cutter.getCuttersCount() > 10) throw new RuntimeException("Unable to analyze signal! Try another parameters."); double heterodinSelected = 0.0; double signalToNoise = spectrum.getRealAmplitude(harmonic) / spectrum.getAverageAmplitudeIn(harmonic, windowSize); for (double heterodinFrequency = -0.5; heterodinFrequency < (0.5 + heterodinAccuracy); heterodinFrequency += heterodinAccuracy) { heterodinParameter.setProperty("frequency", heterodinFrequency); heterodinParameter.synthesizeIn(heterodin); heterodinedSignal.set(cutter.getCurrentSignal()).multiply(heterodin); spectrum.recalc(); double newSignalToNoise = spectrum.getRealAmplitude(harmonic) / spectrum.getAverageAmplitudeIn(harmonic, windowSize); if (newSignalToNoise > signalToNoise) { signalToNoise = newSignalToNoise; heterodinSelected = heterodinFrequency; } } SynthesizableCosine parameter = new SynthesizableCosine(); heterodinParameter.setProperty("frequency", heterodinSelected); heterodinParameter.synthesizeIn(heterodin); heterodinedSignal.set(cutter.getCurrentSignal()).multiply(heterodin); spectrum.recalc(); parameter.setProperty("amplitude", MathHelper.adaptiveRound(spectrum.getRealAmplitude(harmonic))); parameter.setProperty("frequency", harmonic - heterodinSelected); parameter.setProperty("phase", MathHelper.round(spectrum.getPhase(harmonic), 1)); cutter.addSignal(parameter); cutter.cutNext(); heterodinedSignal.set(cutter.getCurrentSignal()); spectrum.recalc(); } return cutter.getSignalsParameters(); }

Практическая часть

Я не претендую на звание эксперта Java, и представленное решение может быть сомнительным как по части производительности и потреблению памяти, так и в целом философии Java и философии ООП, как бы я ни старался сделать его лучше. Написано было за пару вечеров, как proof of concept. Желающие могут ознакомиться с исходным кодом на

5.1 Система связи

Под системой связи понимают совокупность устройств и сред, обеспечивающих передачу сообщений от отправителя к получателю. В общем случае обобщённую систему связи представляют блок-схемой.

Рисунок 1– Обобщённая система связи

Передатчик – устройство, которое определяет и вырабатывает сигнал связи. Приёмник – устройство, которое преобразовывает принятый сигнал связи и восстанавливает первоначальное сообщение. Воздействия помех на полезный сигнал проявляется в том, что принятое сообщение на выходе приёмника не тождественно переданному.

Под каналом связи понимают совокупность технических устройств, обеспечивающих независимую передачу данного сообщения по общей линии связи в виде соответствующих сигналов связи. Сигнал связи – это электрическое возмущение, однозначно отображающее сообщение.

По своей форме сигналы связи весьма разнообразны и представляют собой изменяющиеся во времени напряжение или ток.

При решении практических задач в теории связи сигнал характеризуют объёмом , равным произведению трёх его характеристик: длительности сигнала , ширины спектра и превышения средней мощности сигнала над помехой . В таком случае . Если эти характеристики разложить параллельно осям декартовой системы, то получится объём параллелепипеда. Поэтому произведение называется объёмом сигнала.

Длительность сигнала определяет интервал времени его существования.

Ширина спектра сигнала – это интервал частот, в котором размещается ограниченный спектр частот сигнала, т.е. .

Канал связи по своей физической природе в состоянии пропустить эффективно лишь сигналы, спектр которых лежит в ограниченной полосе частот при допустимом диапазоне изменения мощности .

Кроме того, канал связи предоставляется отправителю сообщения на вполне определённое время . Следовательно, по аналогии с сигналом в теории связи введено понятие ёмкости канала , которая определяется: ; .

Необходимым условием передачи сигнала с объёмом по каналу связи, ёмкость которого равна , есть или . Физические характеристики сигнала могут быть изменены, но при этом уменьшение одной из них сопровождается увеличением другой.

5.2.2 Пропускная способность и скорость передачи

Пропускная способность – предельно возможная скорость передачи информации. Предельная пропускная способность зависит от ширины полосы пропускания канала, а также от отношения и определяется по формуле . Это формула Шеннона, которая справедлива для любой системы связи при наличии флуктуационной помехи.

5.2.3 Частотная характеристика канала

Частотной характеристикой канала связи называется зависимость остаточного затухания от частоты. Остаточным затуханием называется разность уровней на входе и выходе канала связи. Если в начале линии имеется мощность , а на её конце – , то затухание в неперах:

.

Аналогично для напряжений и токов:

; .



Понравилась статья? Поделиться с друзьями: