Вероятностных характеристики нечеткого сигнала. Случайные сигналы и их характеристики. Изучение основных характеристик стационарных случайных сигналов. Измерение корреляционных функций




Информация, передаваемая по каналу связи или извлекаемая в результате измерения, заключена в сигнале.

До приема сообщения (до испытания) сигнал следует рассматривать как случайный процесс, представляющий собой совокупность (ансамбль) функций времени, подчиняющихся некоторой общей для них статистической закономерности. Одна из этих функций, ставшая полностью известной после приема сообщения, называется реализацией случайного процесса. Эта реализация является уже не случайной, а детерминированной функцией времени.

Важной, но не исчерпывающей характеристикой случайного процесса является присущий ему одномерный закон распределения вероятностей.

На рис. 4.1 изображена совокупность функций , образующих случайный процесс . Значения, которые могут принимать отдельные функции в момент времени , образуют совокупность случайных величин

Рис. 4.1. Совокупность функций, образующих случайный процесс

Вероятность того, что величина при измерении попадает в какой-либо заданный интервал (рис. 4.1), определяется выражением

Функция представляет собой дифференциальный закон распределения случайной величины называется одномерной плотностью вероятности, а - интегральной вероятностью.

Функция имеет смысл для случайных непрерывного типа, могущих принимать любое значение в некотором интервале. При любом характере функции должно выполняться равенство

где - границы возможных значений

Если же является случайной величиной дискретного типа и может принимать любое из конечного числа дискретных значений, то (4.2) следует заменить суммой

где - вероятность, соответствующая величине .

Задание одномерной плотности вероятности позволяет произвести статистическое усреднение как самой величины так и любой функции . Под статистическим усреднением подразумевается усреднение по множеству (по ансамблю) в каком-либо «сечении» процесса, т. е. в фиксированный момент времени.

Для практических приложений наибольшее значение имеют следующие параметры случайного процесса:

математическое ожидание

дисперсия

среднее квадратическое отклонение

Одномерная плотность вероятности недостаточна для полного описания процесса, так как она дает вероятностнре представление о случайном процессе X(t) только в отдельные фиксированные моменты времени.

Более полной характеристикой является двумерная плотность вероятности позволяющая учитывать связь значений принимаемых случайной функцией в произвольно выбранные моменты времени

Исчерпывающей вероятностной характеристикой случайного процесса является -мерная плотность вероятности при достаточно больших n. Однако большое число задач, связанных с описанием случайных сигналов, удается решать на основе двумерной плотности вероятности.

Задание двумерной плотности вероятности позволяет, в частности, определить важную характеристику случайного процесса - ковариационную функцию

Согласно этому определению ковариационная функция случайного процесса представляет собой статистически усредненное произведение значений случайной функции в моменты

Для каждой реализации случайного процесса произведение является некоторым числом. Совокупность реализаций образует множество случайных чисел, распределение которых характеризуется двумерной плотностью вероятности При заданной функции операция усреднения по множеству осуществляется по формуле

При двумерная случайная величина вырождается в одномерную величину Можно поэтому написать

Таким образом, при нулевом интервале между моментами времени ковариационная функция определяет величину среднего квадрата случайного процесса в момент

При анализе случайных процессов часто основной интерес представляет его флуктуационная составляющая. В таких случаях применяется корреляционная функция

Подставляя в вместо вместо можно получить следующее выражение:

При выражение (4.8) в соответствии с (4.4) определяет дисперсию случайного процесса Следовательно,

Исследование случайного процесса, а также воздействия его на радиоцепи существенно упрощается при стационарности процесса.

Случайный процесс называется строго стационарным, если его плотность вероятности произвольного порядка зависит только от интервалов и не зависит от положения этих интервалов в области изменения аргумента

В радиотехнических приложениях теории случайных процессов условие стационарности обычно ограничивается требованием независимости от времени только одномерной и двумерной плотностей вероятности (случайный процесс, стационарный в широком смысле). Выполнение этого условия позволяет считать, что математическое ожидание, средний квадрат и дисперсия случайного процесса не зависят от времени, а корреляционная функция зависит не от самих моментов времени , а только от интервала между ними

Стационарность процесса в широком смысле можно трактовать как стационарность в рамках корреляционной теории (для моментов не выше второго порядка).

Таким образом, для случайного процесса, стационарного в широком смысле, предыдущие выражения можно записывать без обозначения фиксированных моментов времени. В частности,

Дальнейшее упрощение анализа случайных процессов достигается при использовании условия эргодичности процесса. Стационарный случайный процесс называется эргодическим, если при определении любых статистических характеристик усреднение по множеству реализаций эквивалентно усреднению по времени одной теоретически бесконечно длинной реализации.

Условие эргодичности случайного процесса включает в себя и условие его стационарности. В соответствии с определением эргодического процесса соотношения эквивалентны следующим выражениям, в которых операция усреднения по времени обозначена чертой:

Если представляет собой электрический сигнал (ток, напряжение), то - постоянная составляющая случайного сигнала, - средняя мощность флуктуации сигнала [относительно постоянной составляющей х(t)].

Выражение (4.15) внешне совпадает с определением (2.131) корреляционной функции детерминированного сигнала (периодического).

Часто применяется нормированная корреляционная функция

Функции характеризуют связь (корреляцию) между значениями разделенными промежутком . Чем медленнее, плавнее изменяется во времени тем больше промежуток , в пределах которого наблюдается статистическая связь между мгновенными значениями случайной функции.

При экспериментальном исследовании случайных процессов используются временнйе корреляционные характеристики процесса (4.15)-(4.19), поскольку, как правило, экспериментатору доступно наблюдение одной реализации сигнала, а не множества его реализаций. Интегрирование выполняется, естественно, не в бесконечных пределах, а на конечном интервале Т, длина которого должна быть тем больше, чем выше требование к точности результатов измерения.


Свойства случайных сигналов оценивают с помощью статистических (вероятностных) характеристик. Они представляют собой неслучайные функции и (или) числа, зная которые, можно судить о закономерностях, которые присущи случайным сигналам, но проявляются только при их многократных наблюдениях.

7.4.1. Характеристики случайных сигналов, не изменяющихся во времени

Основными статистическими характеристиками сигнала, представленного случайной величиной (7.2), являются: функция распределения
, плотность распределения вероятностей
(ПРВ), математическое ожидание, дисперсия, среднеквадратическое отклонение (СКО)и доверительный интервал. Рассмотрим эти характеристики.


, (7.64)

где
- символ вероятности события.


. (7.65)

Размерность ПРВ
обратна размерности величины.


, (7.66)

Результат вычислений по этой формуле отличается от среднего значения случайной величины и совпадает с ним только в случае симметричных законов распределения (равномерного, нормального и других).

Величина называется центрированной случайной величиной. Математическое ожидание такой величины равно нулю.

4. Дисперсия случайной величины определяет средневзвешенное значение квадрата отклонения этой величины от ее математического ожидания. Дисперсия вычисляется по формуле

(7.67)

и имеет размерность, совпадающую с размерностью квадрата величины

    Среднеквадратическое отклонение вычисляется по формуле

и, в отличие от дисперсии , имеет размерность, совпадающую с размерностью измеряемой физической величины. Поэтому СКО оказывается более удобным показателем степени разброса возможных значений случайной величины относительно ее математического ожидания.

В соответствии с правилом «трех сигм», практически все значения случайной величины, обладающей нормальным законом распределения, попадают внутрь интервала
, примыкающего к математическому ожиданию этой величины.

6. Доверительным интервалом называется диапазон возможных значений случайной величины, в котором эта величина находится с заранее заданнойдоверительной вероятностью . Этот диапазон можно записать в виде
, или в виде

т.е. границы доверительного интервала расположены симметрично относительно математического ожидания сигнала , а площадь криволинейной трапеции с основанием
равна доверительной вероятности(рис. 7.7). С ростомдоверительный интервалтакже увеличивается.

Половину доверительного интервала можно определить, решая уравнение

. (7.70)

В практике инженерных расчетов наиболее широкое применение среди перечисленных статистических характеристик случайного сигнала получила ПРВ
. Зная ПРВ, можно определить все другие статистические характеристики сигнала. Поэтому функция
являетсяполной статистической характеристикой случайного сигнала.

Укажем на основные свойства ПРВ:


2.
и
, т.е., зная ПРВ
, можно определить функцию распределения случайной величины
и, наоборот, зная функцию распределения, можно определить ПРВ;

, (7.71)

Отсюда следует условие нормировки ПРВ

. (7.72)

так как вероятность события
равна единице. Если все возможные значения измеряемой случайной величины занимают интервал
, то условие нормировки ПРВ имеет вид

, (7.73)

В любом случае, площадь криволинейной трапеции, образованной графиком ПРВ, равна единице. Это условие можно использовать для определения аналитического вида (формулы) ПРВ
, если известны только форма графика или только вид этой функции (см. Приложение 5, задача 7.6) .

7.4.2. Характеристики системы случайных сигналов

Процесс измерения характеризуется наличием множества случайных величин и событий, участвующих в формировании результата измерения. Помимо самой измеряемой величины, сюда входят неинформативные параметры объекта контроля, параметры средства измерений, параметры окружающей среды и даже состояние потребителя измерительной информации. Их совокупное влияние на результат измерения выражается в том, что этот результат, полученный вновь при (казалось бы) неизменных условиях измерений, отличается от прежнего результата. Проводя повторные измерения и накапливая данные (статистику), можно, во - первых, составить представление о степени разброса результатов измерений и, во - вторых, попытаться выяснить влияние каждого фактора на погрешность результата измерений.

Если рассматриваются несколько (две и более) случайных величин , то они образуютсистему случайных величин . Такая система кроме перечисленных выше характеристик для каждой случайной величины в отдельности имеет дополнительные характеристики , позволяющие оценить уровень статистических связей между всеми случайными величинами, образующими систему. Такими характеристиками являются корреляционные моменты (ковариации) для каждой пары случайных величин, . Они вычисляются по формуле

, (7.74)

где
-двумерная ПРВ системы двух случайных величин и(с математическими ожиданиямиисоответственно), характеризующаясовместное распределение этих величин.

При отсутствии статистической связи между величинами исоответствующий корреляционный момент равен нулю (т.е.
). Такие случайные величины называютсястатистически независимыми .

При выполнении математических операций со случайными величинами, имеющими известные статистические характеристики, важно уметь определять статистические характеристики результатов этих операций. Ниже такие характеристики приводятся для простейших математических операций:

Если величины статистически независимые, то . т.е. дисперсия суммы независимых случайных величин равна сумме дисперсий этих величин.

В таблице 7.2. приведены формулы для определения характеристик суммы двух случайных величин. В этом случае ,
, а дисперсияи СКОрезультата суммирования существенно зависят от величины относительного коэффициента корреляции суммируемых величин
, где
.

Таблица 7.2.

Статистические характеристики суммы двух случайных величин

Относительный

коэффициент

корреляции

Дисперсия

СКО

Равенство
соответствует случаю, когда изменение величинывсегда влечет за собой изменение величиныи всегда в ту же сторону, что и, т.е.
. Если знаки изменений этих величин всегда противоположны друг другу, то
. Наконец, если величиныиимеют конечные дисперсии и статистически не зависят друг от друга, то
. Обратное утверждение справедливо только для нормально распределенных случайных величин .

Если величины статистически независимые, то

, .

,

Аналогично, если
- известная функция двух непрерывных случайных величин , совместная (двумерная) ПРВ которых
известна, то математическое ожиданиеи дисперсиютакой случайной величины можно определить по формулам

, (7.80)

Все предыдущие формулы для вычисления результатов математических операций со случайными величинами можно получить из этих общих формул.

7.4.3. Типовые распределения случайных сигналов

Рассмотрим статистические характеристики непрерывных случайных величин, имеющих типовые распределения.

7.4.3.1. Равномерное распределение .

В случае равномерного распределения случайная величина (7.2) с одинаковой плотностью вероятности попадает в каждую точку ограниченного интервала . ПРВ
и функция распределения
такой случайной величины имеют вид (рис. 7.8)


(7.81)


Другие (частные) статистические характеристики такой случайной величины можно вычислить по формулам

,
,
,
. (7.82)

7.4.3.2. Треугольное распределение (распределение Симпсона)

В этом случае график ПРВ имеет форму треугольника с вершиной в точке
, а график интегрального закона распределения представляет собой плавное сопряжение двух парабол в точке
, где,
,
(рис. 7.9).


(7.83)

Математическое ожидание и дисперсию такой случайной величины можно вычислить по формулам

,
. (7.84)

Если
, то распределение Симпсона становитсясимметричным . В этом случае

,
,
,
. (7.85)

7.4.3.3. Нормальное распределение (распределение Гаусса)

Нормальное распределение относится к одному из наиболее часто встречающихся распределений случайных величин. Отчасти это связано с тем, что распределение суммы большого числа независимых случайных величин, обладающих различными законами распределений, часто встречающееся на практике, приближается к нормальному распределению. В этом случае ПРВ и функция распределения имеют вид

,
. (7.86)

СКО и математическое ожидание такой величины совпадают с параметрами
распределения, т.е.
,.

Доверительный интервал не выражается через элементарные функции, но всегда может быть найден из уравнения (7.70). Результат решения этого уравнения для заданного значения доверительной вероятностиможно записать в виде
, где
- квантиль, значение которого зависит от уровня доверительной вероятности.

Существуют табличные значения функции
. Приведем некоторые из них:

,
,
,
,
........

Отсюда видно, что с довольно высокой вероятностью (
) практически все значения случайной величины, обладающей нормальным распределением, попадают в интервал
, имеющий ширину
. Это свойство положено в основу правила «трех сигм».

На рис. 7.10 показаны графики ПРВ и интегрального закона нормального распределения для двух различных значений СКО (
) и одинакового математического ожидания.

Видно, что график ПРВ представляет собой одногорбую «резонансную» кривую с максимумом в точке
, расположенную симметрично относительно математического ожидания. Эта кривая тем «острее», чем меньше СКО. Соответственно, тем меньше разброс возможных значений случайной величины относительно ее математического ожидания. Однако во всех случаях площадь криволинейной трапеции, ограниченной графиком ПРВ, равна единице (см. (7.72)).

В теории вероятностей кроме рассмотренных выше характеристик применяют еще и другие характеристики случайной величины: характеристическую функцию, эксцесс, контрэксцесс, квантильные оценки и пр. Однако, рассмотренных характеристик вполне достаточно для решения большинства практических задач измерительной техники. Покажем пример решения такой задачи.

Пример 7.4.: Требуется определить параметр А (координату вершины) плотности распределения вероятностей случайного измерительного сигнала, график которой показан на рис. 7.11 (предполагается, что известна только форма этого графика).

Требуется также определить вероятность того, что величина (модуль) сигнала будет больше, чем его СКО , т.е. требуется определить вероятность события
.

Решение: Значение параметра А определим из условия нормировки ПРВ (7.73), которое в данном случае имеет вид

.

Здесь первое слагаемое соответствует площади прямоугольника, лежащего на рис. 7.11 под графиком ПРВ левее пунктирной линии
, второе - площади прямоугольного треугольника, лежащегоправее этой линии. Из полученного уравнения находим
. С учетом этого результата, плотность распределения вероятностей можно записать в виде

Теперь можно вычислить математическое ожидание , дисперсиюи СКОсигнала. По формулам (7.66), (7.67) и (7.68) соответственно получаем:На рис. 7.11 штрихпунктирными линиями показаны границы интервала
.

В соответствии с условием нормировки (7.71), искомая вероятность равна сумме площадей под графиком ПРВ, расположенных левее точки
(в данном примере эта площадь равна нулю) и правее точки
, т.е.

.

7.4.4. Характеристики случайных сигналов, изменяющихся во времени

Случайный сигнал, изменяющийся во времени в общем случае содержит детерминированную (систематическую) и центрированную случайную (флуктуационную) составляющие, т.е.

. (7.87)

На рис. 7.12 показан график одной из ряда возможных реализаций такого сигнала. Пунктиром показана его детерминированная составляющая
, вблизи которой группируются и вокруг которой колеблются все другие реализации сигнала.

Полное представление о характеристиках такого сигнала дает генеральная (полная) совокупность всех его реализаций. На практике она всегда конечна. Поэтому характеристики случайного сигнала, найденные опытным путем, следует считать оценками его действительных характеристик.

В каждый момент времени (т.е. в каждом сечении сигнала) значения случайной функции времени (7.87) представляют собой случайную величину
с соответствующими статистическими характеристиками, рассмотренными выше. В частности, детерминированная составляющая случайного сигнала в каждый момент времени совпадает сматематическим ожиданием соответствующей случайной величины
, т.е.

, (7.88)

где
- одномерная ПРВ случайного процесса (7.87), которая, в отличие от рассмотренной выше ПРВ случайной величины (7.65), зависит не только от, но еще и от времени.

Степень разброса реализаций случайного сигнала относительно его систематической составляющей (7.88) характеризует максимальное значение модуля флуктуационной составляющей сигнала и оценивается по величине СКО этой составляющей, которое в общем случае также зависит от времени

. (7.89)

где
- дисперсия случайного сигнала, вычисляемая по формуле

. (7.90)

Для каждого момента времени можно определить доверительный интервал
(см. (7.70)), а затем построитьдоверительную область , т.е. такую область, в которую реализации случайного сигнала
попадают с заранее заданной доверительной вероятностью(рис. 7.13).


Трех рассмотренных характеристик (
и
) достаточно для того, чтобы составить общее представление о свойствах случайного измерительного сигнала (7.87). Однако, их недостаточно, чтобы судить о внутреннем составе (спектре) такого сигнала.

На рис. 7.14, в частности, показаны графики реализаций двух различных случайных сигналов с одинаковыми математическим ожиданием
и СКО
. Отличие этих сигналов выражается в различном спектральном (частотном) составе их реализаций, т.е. в разной степени статистической связи между значениями случайного сигнала в два момента времени и
, отстоящих друг от друга на величину. Для сигнала, показанного на рис. 7.16,а эта связь более сильная, чем для сигнала на рис. 7.14, б .

В теории случайных процессов подобная статистическая связь оценивается с помощью автокорреляционной функции случайного сигнала (АКФ), которая вычисляется по формуле

, (7.91)

где
-двумерная ПРВ сигнала.

Различают стационарные и нестационарные случайные сигналы. Если сигнал (7.87) стационарный, то его математическое ожидание (7.88) и дисперсия (7.90) не зависят от времени, а его АКФ (7.91) зависит не от двух аргументов и, а только от одного аргумента - величины временного промежутка
. Для такого сигнала

,
,
, где
. (7.92)

Другими словами, стационарный случайный сигнал является однородным по времени , т.е. его статистические характеристики не изменяются при изменении точки отсчета времени.

Если, помимо стационарности, случайный сигнал является еще и эргодическим , то
, а его автокорреляционную функцию можно вычислить по формуле

, (7.93)

не требующей знания двумерной ПРВ
так как в этой формуле в качествеможно использоватьлюбую реализацию сигнала. Дисперсию такого (стационарного и эргодического) сигнала можно вычислить по формуле

, (7.94)

Достаточным условием эргодичности случайного сигнала является стремление к нулю его АКФ
при неограниченном росте временного сдвига.

АКФ случайного сигнала часто нормируется к дисперсии. В этом случае безразмерная нормированная АКФ вычисляется по формуле

. (7.95)

На рис. 7.15 показан типичный график такой АКФ.

Зная эту функцию, можно определить интервал корреляции , т.е. время, по истечении которого значения случайного сигнала можно считатьстатистически не зависящими друг от друга

. (7.96)

Из этой формулы следует, что площадь под графиком нормированной АКФ совпадает с площадью прямоугольника единичной высоты, имеющего в основании удвоенный интервал корреляции
(см. рис. 7.15).

Поясним физический смысл интервала корреляции . Если известна информация о поведении центрированного случайного сигнала «в прошлом», то возможен его вероятностный прогноз на время порядка интервала корреляции . Однако, прогноз случайного сигнала на время, превышающее интервал корреляции, окажется недостоверным, так как мгновенные значения сигнала, столь «далеко» отстоящие друг от друга во времени, являются практически некоррелированными (т.е. статистически не зависящими друг от друга).

В рамках спектрально - корреляционной теории случайных процессов для описания свойств стационарного случайного сигнала достаточно знать только его АКФ
, или толькоэнергетический спектр сигнала
. Эти две функции связаны друг с другом формулами Винера – Хинчина

, (7.97)

, (7.98)

т.е. каждой функции частоты
соответствует вполне определенная функция временного сдвига
и наоборот, каждой АКФ соответствует вполне определенная спектральная плотность мощности стационарного случайного сигнала. Поэтому, зная энергетический спектр флуктуационной составляющей
случайного сигнала (7.87)
, можно определить АКФ этой составляющей
и наоборот. Это подтверждает то, что частотные и корреляционные характеристики стационарного случайного сигнала тесно связаны друг с другом.

Свойства АКФ случайного сигнала
аналогичны свойствам АКФ детерминированного сигнала
.

Автокорреляционная функция
характеризуетстатистическую связь между значениями стационарного случайного сигнала в моменты времени, отстоящие друг от друга по оси времени на величину . Чем меньше эта связь, тем меньше соответствующее значение АКФ. Энергетический спектр
характеризует распределение по оси частот энергий гармонических составляющих случайного сигнала.

Зная энергетический спектр
, или АКФ
флуктуационной составляющей сигнала (7.1)
, можно вычислить её дисперсиюи эффективную ширину спектра (полосу частот)по формулам

, (7.99)

, (7.100)

где
- ордината точки максимума на графике функции
.

Эффективная ширина спектра случайного спектра случайного сигнала аналогична активной ширине спектра
детерминированного сигнала, то есть, как и последняя, определяет такой диапазон частот, в пределах которого сосредоточена подавляющая часть средней мощности сигнала (см.(7.55)). Поэтому по аналогии с (7.55) ее можно определять из соотношения

. (7.101)

где - постоянный коэффициент, определяющий долю мощности случайного сигнала, приходящуюся на полосу частот
(например, = 0,95).

На рис. 7.16 дана графическая иллюстрация формул (7.100) и (7.101). В первом случае полоса частот совпадает с основанием прямоугольника, имеющего высоту
и площадь
(рис. 7.19,а ), во втором – с основанием криволинейной трапеции, имеющей площадь
(рис. 7.16,б ). Полоса частот узкополосного случайного процесса располагается в области
, где- средняя частота спектра (рис. 7.16,в ), и вычисляется из соотношения

.

Эффективную ширину спектра случайного сигнала можно определить множеством других способов . В любом случае величины идолжны быть связаны соотношением, подобным соотношению
, имеющему место для детерминированных сигналов (см. раздел 7.3.3).

а б в

В таблице 7.3 приведены спектрально-корреляционные характеристики для трех стационарных случайных сигналов.

В первом пункте этой таблицы приведены характеристики так называемого белого шума - специфического случайного сигнала, значения которого, расположенные сколь угодно близко друг к другу, - независимые случайные величины. АКФ белого шума имеет форму - функции, а его энергетический спектр содержит гармонические составляющие любых (в том числе сколь угодно высоких) частот. Дисперсия белого шума - бесконечно большое число, т.е. мгновенные значения такого сигнала могут быть сколь угодно большими, а его интервал корреляции равен нулю.

Таблица 7.3.

Характеристики стационарных случайных сигналов

Автокорреляционная

Интервал

корреляции

Энергетический спектр

Во втором пункте таблицы указаны характеристики низкочастотного шума, а в третьем пункте – узкополосного шума. Если
, то эти характеристики этих шумов близки друг к другу.

Случайный сигнал называется узкополосным , если частота значительно меньше средней частоты спектра. Узкополосный случайный сигнал можно записать в виде (см. (7.12)), где функции
и
изменяются значительно медленнее, чем функция
.

Свойства спектрально - корреляционных характеристик стационарного случайного сигнала аналогичны свойствам амплитудного спектра и АКФ детерминированного сигнала. В частности,
и
- четные функции,
и т. д. Есть и отличия. Отличие корреляционных функций заключается в том, что АКФ детерминированного сигнала
характеризует связь сигнала
и его копии
, а АКФ случайного сигнала
- связь значений сигнала
и
в разные моменты времени.

Различие между функциями
и
заключается в том, что функция
представляет собой не точный частотный образ случайного сигнала
, а усредненную характеристику частотных свойств целого ансамбля различающихся между собой реализаций этого сигнала. Этот факт, а также отсутствие в энергетическом спектре
информации о фазах гармонических составляющих случайного сигнала не позволяет восстанавливать по нему форму этого сигнала.

Из формул (7.97) и (7.98) следует, что функции
и
связаны друг с другом преобразованиями Фурье, т.е. (см. (7.46))

и
.

Поэтому, чем шире спектр случайного сигнала (чем больше ), тем уже его АКФ и меньше интервал корреляции.

Поскольку все информационные сигналы и помехи являются случайными и могут быть предсказаны лишь с некоторой степенью вероятности, то для описания таких сигналов используется теория вероятностей. При этом используются статистические характеристики, которые получают путем проведения многочисленных опытов в одинаковых условиях.

Все случайные явления, изучаемые теорией вероятностей можно разделить на три группы:
— случайные события;
— случайные величины;
— случайные процессы.

Случайное событие — это всякий факт, который в результате опыта может произойти или не произойти.
Случайным событием является появление помехи на входе приемника или прием сообщения с ошибкой.
Случайные события обозначаются латинскими буквами А, В, С.

Числовыми характеристиками случайного события являются:
1. Частота появления случайного события:

где m — количество опытов, в которых произошло данное событие;
N — общее количество проведенных опытов.

Как следует из выражения (40) частота появления случайного события не может превышать 1, т. к. количество опытов, в которых произошло данное событие не может привысить общее количество проведенных опытов.
2. Вероятность появления случайного события:

Т. е. вероятность появления случайного события есть частота его появления при неограниченном увеличении количества проведенных опытов. Вероятность появления события не может превышать 1. Случайное событие, имеющее вероятность равную единице является достоверным, т. е. оно обязательно произойдет, поэтому такую вероятность имеют уже произошедшие события.
Случайная величина — это величина, которая от опыта к опыту изменяется случайным образом.
Случайной величиной является амплитуда помехи на входе приемника или количество ошибок в принятом сообщении. Случайные величины обозначаются латинскими буквами X, Y, Z, а их значения — x, y, z.
Случайные величины бывают дискретными и непрерывными.
Дискретной называется случайная величина, которая может принимать конечное множество значений (например, количество оборудования, количество телеграмм и т. д., т. к. они могут принимать только целое число 1, 2, 3, …).
Непрерывной называется случайная величина, которая может принимать любые значения из некоторого диапазона (например, амплитуда помехи на входе приемника может принимать любые значения, точно так же как и любые значения может принимать информационный аналоговый сигнал).

Числовыми, статистическими характеристиками, описывающими случайные величины являются:
1. Функция распределения вероятности .

F(x)=P(X ? x) (42)

Данная функция показывает вероятность того, что случайная величина Х не превысит конкретно выбранного значения х. Если случайная величина Х является дискретной, то F(x) так же является дискретной функцией, если Х непрерывная величина, то F(x) ? непрерывная функция.
2. Плотность распределения вероятности .

Р(х)=dF(x)/dx (43)

Данная характеристика показывает вероятность попадания значения случайной величины в малый интервал dx в окрестности точки х’, т. е. в заштрихованную область (рисунок).

3. Математическое ожидание .

где хi — значения случайной величины;
Р(хi) — вероятность появления этих значений;
n — количество возможных значений случайной величины.

где р(х) — плотность вероятности непрерывной случайной величины.

По своему смыслу математическое ожидание показывает среднее и наиболее вероятное значение случайной величины, т. е. это значение наиболее часто принимает случайная величина. Выражение (44) применяется, если случайная величина является дискретной, а выражение (45), если она является непрерывной. Обозначение M[X] является специальным для математического ожидания того случайной величины, которая указана в квадратных скобках, однако иногда используются обозначения mх или m.

4. Дисперсия .

Дисперсия количественно характеризует степень разброса результатов отдельных опытов относительно среднего значения. Обозначение дисперсии случайной величины D[X] является общепринятым, однако может использоваться и обозначение??х. Выражение (46) используется для вычисления дисперсии дискретной случайной величины, а (47) — для вычисления дисперсии непрерывной случайной величины. Если извлечь квадратный корень из дисперсии, то получится величина, называемая среднеквадратическим отклонением (?х).

Все характеристики случайной величины можно показать с помощью рисунка 22.

Рисунок 22 - Характеристики случайной величины

Случайный процесс — это такая функция времени t, значение которой при любом фиксированном значении времени является случайной величиной. Например, на рисунке 23 показана диаграмма некоторого случайного процесса, наблюдаемого в результате проведения трех опытов. Если определить значение функций в фиксированный момент времени t1, то полученные значения окажутся случайными величинами.

Рисунок 23 - Ансамбль реализаций случайного процесса

Таким образом, наблюдение любой случайной величины (Х) во времени, является случайным процессом Х(t). Например, как случайные процессы, рассматриваются информационные сигналы (телефонные, телеграфные, передачи данных, телевизионные) и шумы (узкополосные и широкополосные).
Однократное наблюдение случайного процесса называется реализацией xk(t). Совокупность всех возможных реализаций одного случайного процесса называется ансамблем реализаций. Например, на рисунке 23 представлен ансамбль реализаций случайного процесса, состоящий из трех реализаций.

Для характеристики случайных процессов используются те же характеристики, что и для случайных величин: функция распределения вероятности, плотность распределения вероятности, математическое ожидание и дисперсия. Данные характеристики рассчитываются аналогично, как и для случайных величин. Случайные процессы бывают различных типов. Однако в электросвязи большинство случайных сигналов и помех относятся к стационарным эргодическим случайным процессам.

Стационарным является случайный процесс, у которого характеристики F(x), P(x), M[X] и D[X] не зависят от времени.
Эргодическим является процесс, у которого усреднение по времени одной из реализации приводит к тем же результатам, что и статическое усреднение по всем реализациям. Физически это означает, что все реализации эргодического процесса похожи друг на друга, поэтому измерения и расчеты характеристик такого процесса можно проводить по одной (любой) из реализаций.
Кроме четырех характеристик приведенных выше случайные процессы также описываются функцией корреляции и спектральной плотностью мощности.

Функция корреляции характеризует степень взаимосвязи между значениями случайного процесса в различные моменты времени t и t+?. Где? временной сдвиг.

где tн — время наблюдения реализации xk(t).

Спектральная плотность мощности — показывает распределение мощности случайного процесса по частотам.

где?Р — мощность случайного процесса, приходящаяся на полосу частот?f.

Таким образом, наблюдение случайного явления во времени является случайным процессом, его появление является случайным событием, а его значение случайной величиной.

Например, наблюдение телеграфного сигнала на выходе линии связи в течение, какого то времени — это случайный процесс, появление на приеме его дискретного элемента «1» или «0» — случайное событие, а амплитуда этого элемента — случайная величина.

Математическая модель процесса передачи измерительной информации представляет собой модель случайного процесса с плотностью вероятности . Полезные сигналы и сигналы помех, действующие на информационно- измерительную системы, являются случайными процессами, которые могут быть характеризованы статистическими средними значениями и характеристиками.

Случайный процесс является более сложным случайным явлением, чем случайная величина, но его определение можно дать через случайную величину. Функция (рис.4) называется случайным процессом, если ее мгновенные значения являются случайными величинами . Также как и случайная величина не может характеризоваться отдельным значением, так и случайный процесс нельзя определить какой-то одной, пусть и сложной функцией. Случайный процесс представляет собой множество реализаций (функций времени) . Реализация x­ i­ (t) – фрагмент случайного процесса X(t) , зафиксированный в результате i -го эксперимента ограниченной длительности T , следовательно, под реализацией понимают один из возможных исходов случайного процесса. Случайная величина ­­­­, соответствующая i -й реализации и j -му моменту времени, является мгновенным (выборочным) значением - частным случаем случайного процесса, а вероятностные характеристики случайного процесса основаны на характеристиках случайных величин, входящих в этот процесс. Совокупность мгновенных значений, соответствующих значениям различных реализаций в один и тот же момент времени t­ j ­ , называется j -ой последовательностью процесса X(t ). При решении прикладных задач чаще обращаются к реализациям, чем к последовательностям.

Экспериментально ансамбль реализаций случайного процесса может быть получен в результате одновременной регистрации выходных параметров x­ i­ (t) на выходах однотипных объектов, например, измерительных приборов, в течение фиксированного интервала времени.

Если аргумент t изменяется непрерывно, зависимость X(t ) представляет непрерывный случайный процесс (например, изменение погрешности измерительного прибора в течение длительного времени его работы) , если аргумент t является дискретной величиной – случайную последовательность или временной ряд (массив результатов измерения погрешности в известные моменты времени). Процесс X(t ) , принимающий счетное ограниченное количество значений, называется дискретным случайным процессом (например, последовательность состояний работы оборудования информационно- измерительных систем или информационно- вычислительных комплексов) .

Определяя случайный процесс случайными величинами, находят вероятностные характеристики процессов, исходя из вероятностных характеристик этих величин.

Рис.4. Графическое изображение случайного процесса

Наиболее полно описывают случайный процесс интегральная функция распределения вероятности

и дифференциальная функция распределения вероятности

­­В функциях распределения вероятности случайных процессов, в отличие от многомерных функций распределения вероятности случайных величин к аргументам x ­ i ­ добавляются переменные t­ j , показывающие, в какие моменты времени сняты отсчеты.

Для приближенного описания случайных процессов, также как и для описания случайных величин используют такие числовые характеристики, как математическое ожидание, дисперсия и т.д. Причем, эти числовые характеристики также являются функциями времени.

Наиболее часто используемыми вероятностными характеристиками являются.

1.Математическое ожидание ,

оценкой математического ожидания случайной функции является ее среднее значение .

2. Дисперсия – неслучайная функция

где - центрированный случайный процесс; значения дисперсии при каждом t­ j­ равны дисперсии случайной величины x i (t­ j­) .

Дисперсия случайной функции может быть найдена через дифференциальную функцию распределения вероятности случайной функции

Оценкой дисперсии является ее эмпирическое значение

Случайные процессы с одинаковыми математическими ожиданиями и дисперсиями могут существенно отличаться формой (рис.4).

3. Автокорреляционная функция характеризует статистическую связь между мгновенными значениями случайного процесса в различные моменты времени. Чем меньше значение автокорреляционной функции, тем в меньшей степени зависит значение измерительного сигнала в момент t­ 1 от значения в момент t­ 2.­ . Определяется одним из следующих соотношений

где 1­ ,t ­ 2­ –фиксированные моменты времени, в которых определены сечения случайной функции.

Так как при t­ 1­ =t­ 2­­ , для одних и тех же сечений корреляционная функция обращается в дисперсию случайной функции.

Для каждой пары моментов времени автокорреляционная функция равна корреляционному моменту, статистическая оценка которого

В формулах, определяющих эмпирические оценки дисперсии и корреляционной функции, количество реализаций n уменьшается на единицу для получения несмещенной оценки;

4. Взаимно корреляционная функция определяет статистическую связь двух сигналов X(t ) и Y(t +τ)

Изучение свойств случайных процессов с использованием корреляционных функций называют корреляционной теорией случайных процессов.

5. Спектральная плотность - неслучайная функция, устанавливающая плотность распределения его дисперсии по частоте ω, равна преобразованию Фурье соответствующей корреляционной функции

Корреляционная функция может быть выражена через спектральную плотность соотношением типа обратного преобразования Фурье .

Соотношения, позволяющие проводить преобразования спектральной плотности в корреляционную функцию и наоборот, носят название теоремы Хинчина- Винера.

БЕЛОРУССКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
ИНФОРМАТИКИ ИРАДИОЭЛЕКТРОНИКИ

Кафедра метрологии и стандартизации

РЕФЕРАТ

На тему:

« Измерение характеристик случайных сигналов »

МИНСК, 2008

Статистические измерения – это методы и средства измерения параметров и характеристик случайных сигналов. Они базируются на общих принципах измерений параметров сигналов, но имеют свою специфику и особенности, вытекающие из теории случайных процессов.

Вероятностные характеристики случайных сигналов

Случайным называется сигнал, мгновенные значения которого изменяются во времени случайным образом. Он описывается случайной функцией времени Х(t). Эту функцию можно рассматривать как бесконечную совокупность функций x i (t), каждая из которых представляет собой одну из возможных реализаций X(t). Графически это можно представить следующим образом (рисунок 1):


Полное описание случайных сигналов может быть произведено с помощью системы вероятностных характеристик. Любая из этих характеристик может быть определена либо усреднением по совокупности реализации x i (t), либо усреднением по времени одной бесконечно длинной реализации.

Зависимость или независимость результатов таких усреднений определяет следующие фундаментальные свойства случайных сигналов – стационарность и эргодичность.

Стационарным называется сигнал, вероятностные характеристики которого не зависят от времени.

Эргодическим называется сигнал, вероятностные характеристики которого не зависят от номера реализации.

Для стационарных эргодических сигналов усреднение любой вероятностной характеристики по множеству реализаций эквивалентно усреднению по времени одной теоретически бесконечно длинной реализации.

Для практических целей наиболее важными являются следующие вероятностные характеристики стационарных эргодических сигналов, имеющих длительность реализации Т:

Среднее значение (математическое ожидание). Оно характеризует постоянную составляющую сигнала

; (1)

Средняя мощность. Она характеризует средний уровень сигнала

; (2)

Дисперсия, характеризующая среднюю мощность переменной составляющей сигнала:

; (3)

Среднеквадратическое отклонение (СКО)

; (4)

Функция распределения, которая определяется как интегральная вероятность того, что значение xi(tj) в j-й момент времени будут ниже некоторых значений X:

. (5)

Для заданных стационарных эргодичных сигналов F x характеризуется относительным временем пребывания реализации ниже уровня Х (τ i –, i –й интервал пребывания, n – количество интервалов, рисунок 2)


Одномерная плотность вероятности, называемая дифференциальным законом распределения:

, (6) - расстояние между соседними уровнями X(t), называемое дифференциальным коридором; - iй интервал пребывания реализации в пределах (см. рисунок 1.11).

Корреляционная функция. Она характеризует стохастическую (случайную) связь между двумя мгновенными значениями случайного сигнала, разделенного заданным интервалом времени τ

; (7)

Взаимная корреляционная функция. Она характеризует стохастическую связь мгновенными значениями случайных сигналов x(t) и y(t), разделенными интервалом времени τ

. (8)

Из выражений (1)-(8) видно, что все вероятностные характеристики представляют собой неслучайные числа или функции и определяется по одной реализации бесконечной длительности. Практически же длительность Т, называемая продолжительностью анализа, всегда ограничена, поэтому на практике мы можем определить не сами характеристики, а только их оценки. Эти оценки, полученные экспериментальным путем, называются статическими характеристиками. А раз оценка, значит приближение, которое характеризуется погрешностями, называемыми статистическими погрешностями.

Измерение среднего значения средней мощности и дисперсии

Согласно формуле (1) измерение m x сводится к интегрированию случайного сигнала за время Т. Интегрирование можно выполнить с помощью анало-

говых или цифровыхинтегрирующих устройств, применяемых в вольтметрах.

При практическом выборе времени интегрирования Т надо минимизировать статистические погрешности. Это условие соблюдается при Т

(τ м.к. – максимальный интервал корреляции, за пределами которого выборки сигнала можно считать практически некоррелированными).

Измерение P x характерно тем, что согласно формуле (2) усредняется квадрат сигнала, поэтому измеритель P x содержит в своем составе устройство с квадратичной характеристикой. Задача измерения P x решается с помощью вольтметра среднеквадратичного значения, имеющего открытый вход. Показаниятакоговольтметра равно

.Квольтметрам,измеряющимP x ,предъявляются повышенные требования в отношении широкополосности,протяженности квадратичногоучасткахарактеристикидетектированияивремениусреднения Т.

Для измерения D x тоже может быть использован вольтметр среднеквадратичного значения, только в соответствии с формулой (3) он должен иметь закрытый вход. Показания такого вольтметра согласно (4) будут соответствовать значениям σ х.

Анализ распределения вероятностей

Метод измерения по относительному времени пребывания

При измерении этим методом удобнее измерять не значение τ i , фигурирующее в формуле (7), а значение τ i ’ , характеризующее время пребывания функции х(t) выше уровня х, поэтому при экспериментальном анализе определяется функция

, (9)

Для определения

в соответствии с формулой (7) необходимо образовать дифференциальный коридор ∆х, как показано на рисунке 3, и измерить кроме значений τ i ’еще и τ i ’’, характеризующее время пребывания реализации х(t) выше уровня х+∆х, причем

∆t¢ i =∆t 1i +∆t 2i = τ¢ i – τ² i . (10)

Анализаторы, реализующие данный метод, могут быть как аналоговыми, так и цифровыми. Структурная схема аналогового анализатора предоставлена на рисунке 3.

С помощью ВУ обеспечивается уровень сигнала, необходимый для нормальной работы других функциональных узлов измерителя. Компараторы К1 и К2 выполняют функции амплитудных селекторов и имеют уровни срабатывания х и х+∆х соответственно. Эти уровни задаются регулятором уровня (РУ) и могут изменяться при одновременном обеспечении постоянства ширины дифференциального коридора ∆х. Таким образом сигналы на выходе К1 и К2 имеют вид импульсов U1 и U2 (рисунок 3), длительности которых соответственно равны τ i ’ и τ i ’’ . Формирующие устройства ФУ1 и ФУ2 стандартизируют эти импульсы по форме и амплитуде. Напряжения U1 и U2 позволяют измерить

и .

При измерении

осуществляется усреднение или интегрирование напряжения U1 (переключатель П в положении «1»), а при измерении с помощью схемы вычитания образуется разностное напряжение U3, которое тоже усредняется. Вид индикаторного устройства (ИУ) определяется назначением анализатора. Например, в панорамных анализаторах управление уровнями срабатывания компараторов К1 и К2 осуществляется синхронно и автоматически с разверткой осциллографа, применяемого в качестве ИУ. Такое ИУ позволяет регистрировать графики функций и .

Измерение корреляционных функций

Метод дискретных выборок