Непрерывный случайный процесс. Случайный процесс

СЛУЧАЙНЫЕ ПРОЦЕССЫ - процессы, протекание которых во времени частично пли полностью непредсказуемо. Теория С. п. служит для построения количественных моделей реальных процессов, в т. ч. для прогнозирования их будущих значений на основе текущей информации и априорных данных, для выделения полезной информации при наличии помех, оценки неизмеряемых параметров и др.

В медицине большое число процессов (напр., процесс размножения опухолевых клеток, число вызовов скорой помощи и др.) определяется столь большим количеством неконтролируемых факторов, что адекватное их описание и анализ целесообразно проводить в рамках теории С. п.

Математически С. п. представляют собой такие функции времени, значение к-рых в каждый момент является случайной величиной (см. Вероятностей теория). Каждому элементарному случайному событию при этом соответствует нек-рая определенная неслучайная функция времени, называемая реализацией, или траекторией, С. п. Свойства реализаций служат основным предметом исследования теории С. п. Эти свойства выражаются вероятностью нек-рых событий (напр., выхода траекторий за фиксированный уровень, попадание в заданную область, наличие или отсутствие скачков в заданном интервале времени и др.). В рамках теории С. п. решаются также некоторые статистические задачи (напр., задачи фильтрации, экстеро- и интерополяций).

В общем случае принято считать, что случайный процесс задан (т. е. задание сформулировано), когда определены все совместные функции распределения значений процесса для любого конечного набора моментов времени; функции распределения носят название конечномерных функций распределения.

Другими неслучайными функциями, связанными с С. п., являются m{t) - математическое ожидание С. п., характеризующее среднее по множеству наблюдений значение С. п., и R (ti, t2) - корреляционная функция, характеризующая степень зависимости значений С. п. в разные моменты времени (см. Корреляционный анализ).

Основные классы случайных процессов. Учитывая большое разнообразие С. п., из всей их совокупности выделены отдельные классы и для каждого класса разработаны свои методы исследования.

Стационарные С. п. - это С. п., в к-рых все конечномерные функции распределения ие меняются при сдвиге времени на фиксированную величину. Стационарные С. п. обладают рядом характерных свойств: среднее значение стационарного С. п. в каждый момент одно и то же, а корреляционная функция R(t1,t2), зависит лишь от разности между моментами времени t1 и t2. С. п. этого типа могут быть представлены суммой, или интегралом, гармонических колебаний, амплитуды и фазы к-рых являются случайными величинами. Интенсивности гармонических составляющих образуют спектр С. п. Частным случаем стационарных С. п. является эргодический стационарный С. п.: в рамках этого метода по одной единственной реализации С. п. можно восстановить все его вероятностные характеристики. В частности. для каждой траектории эргодического случайного процесса среднее по времени равно математическому ожиданию С. п.

Гауссовские С. п. - это С. п., в к-рых все конечномерные функции распределений являются гауссовскими. Для его задания необходимы только две функции - математическое ожидание m (t) и корреляционная функция R(t1, t2).

Марковские С. п. обладают следующим свойством: для любого момента времени будущее процесса зависит только от его состояния в данный момент времени и не зависит от его предыстории. Для задания марковского С. п. достаточно знать лишь одномерные функции распределения и вероятности перехода из одного состояния в другое. Марковские С. п. образуют большой класс процессов, к-рый включает в себя марковские С. п. с независимыми приращениями, диффузионные С. п., скачкообразные марковские С. п., ветвящиеся С. п. и др.

Количество различных классов С. п., применяемых при математическом моделировании реальных явлений, постоянно увеличивается в соответствии с потребностями практики. В медико-биол. практике С. п. используются в основном в теоретических исследованиях, что связано со сложностью математического аппарата, применяемого при анализе С. п. Основатель кибернетики Винер (N. Wiener) с помощью теории стационарных С. п. в 1961 г. исследовал ритмы биотоков головного мозга. Позже С. п. нашли применение при количественных исследованиях в нейрофизиологии и кардиологии (стационарные и диффузионные С. п.), онкологии (марковские случайные процессы размножения и гибели), в эпидемиологии и здравоохранении.

Библиография: Балантер Б. И. Вероятностные модели в физиологии, М., 1977; Вентце ль А. Д. Курс теории случайных процессов, М., 1975; Винер Н. Нелинейные задачи в теории случайных процессов, пер. с англ., М., 1961; Г и х-м а н И. И. и Скороход А. В. Теория случайных процессов, т. 2, М., 1973.

Определение

,

где произвольное множество , называется случайной функцией.

Терминология

Данная классификация нестрогая. В частности, термин "случайный процесс" часто используется как безусловный синоним термина "случайная функция".

Классификация

Траектория случайного процесса

Пусть дан случайный процесс . Тогда для каждого фиксированного - случайная величина, называемая сечением . Если фиксирован элементарный исход , то - детерминистическая функция параметра . Такая функция называется траекто́рией или реализа́цией случайной функции .

Примеры

является случайным процессом.

Примечания

См. также

Источники

  • А. А. Свешников. Прикладные методы теории случайных функций. - Гл.ред.физ.-мат.лит., 1968.
  • С. И. Баскаков. Радио/технические цепи и сигналы. - Высшая школа, 2000.

Wikimedia Foundation . 2010 .

  • Альпола, Антеро
  • Головка самонаведения

Смотреть что такое "Случайный процесс" в других словарях:

    случайный процесс - — случайный процесс вероятностный процесс стохастический процесс Случайная функция X(t) от независимой переменной t (в экономике она чаще всего интерпретируется как время). Иначе … Справочник технического переводчика

    СЛУЧАЙНЫЙ ПРОЦЕСС - (вероятностный или стохастический), процесс изменения во времени состояния или характеристик некоторой системы под влиянием различных случайных факторов, для которого определена вероятность того или иного его течения. Типичным примером случайного … Большой Энциклопедический словарь

    Случайный процесс - (вероятностный, стохастический процесс) случайная функция X(t) от независимой переменной t (в экономике она чаще всего интерпретируется как время). Иначе говоря, это такой процесс, течение которого может быть различным в… … Экономико-математический словарь

    СЛУЧАЙНЫЙ ПРОЦЕСС - ф ция непрерывного времени,значение к рой в каждый момент является случайной величиной, т … Физическая энциклопедия

    СЛУЧАЙНЫЙ ПРОЦЕСС - функция 2 х аргументов X(t)= X(ω,t); множество элементарных событий, параметр, обычно интерпретируемый как время. Для каждого tX(ω,t) функция только ω и представляет собой случайную величину. Для фиксированного ω X(ω,t)… … Геологическая энциклопедия

    Случайный процесс - 1. Случайный процесс Вероятностный процесс Источник: ГОСТ 21878 76: Случайные процессы и динамические системы. Термины и определения оригинал документа … Словарь-справочник терминов нормативно-технической документации

    случайный процесс - (вероятностный, или стохастический), процесс изменения во времени состояния или характеристик некоторой системы под влиянием различных случайных факторов, для которого определена вероятность того или иного его течения. Типичным примером… … Энциклопедический словарь

    Случайный процесс - (вероятностный, или стохастический) процесс (т. е. изменение во времени состояния некоторой системы), течение которого может быть различным в зависимости от случая и для которого определена вероятность того или иного его течения. Типичным … Большая советская энциклопедия

    СЛУЧАЙНЫЙ ПРОЦЕСС - (вероятностный, или стохастический), процесс изменения во времени состояния или характеристик нек рой системы под влиянием разл. случайных факторов, для к рого определена вероятность того или иного его течения. Типичным примером С. п. может… … Естествознание. Энциклопедический словарь

    случайный процесс - tikimybinis procesas statusas T sritis chemija apibrėžtis Procesas, kuris iš anksto negali būti tiksliai nusakytas, o yra apibūdinamas jo vykimo tikimybe. atitikmenys: angl. probabilistic process; random process; stochastic process rus.… … Chemijos terminų aiškinamasis žodynas

Книги

  • , Груздев А.. Практическое применение методов машинного обучения на базе популярных статистических пакетов IBM SPSS Statistics, R и Python Строительство и интерпретация дерева решенийи случайного леса … Купить за 3202 руб
  • Прогнозное моделирование в IBM SPSS Statistics, R и Python. Метод деревьев решений и случайный лес , Груздев Артем Владимирович. Данная книга представляет собой практическое руководство по применению метода деревьев решений и случайного леса для задач сегментации, классификации и прогнозирования. Каждый раздел книги…

Теория случайных величин изучает вероятностные явления «в статике», рассматривая их как некоторые зафиксированные результаты экспериментов. Для описания сигналов, которые отображают развивающиеся во времени случайные явления, методы классической теории вероятностей оказываются недостаточными. Подобные задачи изучает особая ветвь математики, получившая название теории случайных процессов.

По определению, случайный процесс - это особого вида функция, характеризующаяся тем, что в любой момент времени принимаемые ею значения являются случайными величинами.

Ансамбли реализаций.

Имея дело с детерминированными сигналами, мы отображаем их функциональными зависимостями или осциллограммами. Если же речь идет о случайных процессах, то ситуация оказывается сложнее. Фиксируя на определенном промежутке времени мгновенные значения случайного сигнала, получаем лишь единственную реализацию случайного процесса. Случайный процесс представляет собой бесконечную совокупность таких реализаций, образующих статистический ансамбль. Например, ансамблем является набор сигналов , которые можно одновременно наблюдать на выходах совершенно одинаковых генераторов шумового напряжения.

Совсем необязательно, чтобы реализации случайного процесса представлялись функциями со сложным, нерегулярным во времени поведением. Часто приходится рассматривать случайные процессы, образованные, например, всевозможными гармоническими сигналами , у которых однн из трех параметров - случайная величина, принимающая определенное значение в каждой реализации. Случайный характер такого сигнала заключен в невозможности заранее, до опыта зиать значение этого параметра.

Случайные процессы, образованные реализациями, зависящими от конечного числа параметров, принято называть квазидетерминированными случайными процессами.

Плотности вероятности случайных процессов.

Пусть - случайный процесс, заданный ансамблем реализаций, - некоторый произвольный момент времени. Фиксируя величины получаемые в отдельных реализациях, осуществляем одномерное сечение данного случайного процесса и наблюдаем случайную величину Ее плотность вероятности называют одномерной плотностью вероятности процесса в момент времени

Согласно определению, величина есть вероятность того, что реализации случайного процесса в момент времени примут значения, лежащие в интервале

Информация, которую можно извлечь из одномерной плотности, недостаточна для того, чтобы судить о характере развития реализаций случайного процесса во времени. Гораздо больше сведений можно получить, располагая двумя сечениями случайного процесса в несовпадающие моменты времени Возникающая при таком мысленном эксперименте двумерная случайная величина описывается двумерной плотностью вероятности Эта характеристика случайного процесса позволяет вычислить вероятность события, заключающегося в том, что реализация случайного процесса при проходит в малой окрестности точки а при - в малой окрестности точки

Естественным обобщением является -мерное сечение случайного процесса приводящее к -мерной плотности вероятности

Многомерная плотность вероятности случайного процесса должна удовлетворять обычным условиям, налагаемым на плотность вероятности совокупности случайных величин (см. § 6.2). Помимо этого, величина не должна зависеть от того, в каком порядке располагаются ее аргументы (условие симметрии).

Иногда вместо -мерной плотности вероятности удобно пользоваться -мерной характеристической функцией, которая связана с соответствующей плотностью преобразованием Фурье:

Описание свойств случайных процессов с помощью многомерных плотностей вероятности высокой размерности может быть весьма подробным. Однако на этом пути часто встречаются серьезные математические трудности.

Моментные функция случайных процессов.

Менее детальные, но, как правило, вполне удовлетворительные в практическом смысле характеристики случайных процессов можно получить, вычисляя моменты тех случайных величин, которые наблюдаются в сечениях этих процессов. Поскольку в общем случае эти моменты зависят от временных аргументов, они получили название моментных функций.

Для статистической радиотехники наибольшее значение имеют три моментные функции низших порядков, называемые математическим ожиданием, дисперсией и функцией корреляции.

Математическое ожидание

есть среднее значение процесса X(t) в текущий момент времени ; усреднение проводится по всему ансамблю реализаций процесса.

Дисперсия

позволяет судить о степени разброса мгновенных значений, принимаемых отдельными реализациями в фиксированном сечении t, относительно среднего значения.

Двумерный центральный момент

называется функцией корреляции случайного процесса Эта моментная функция характеризует степень статистической связи тех случайных величин, которые наблюдаются при Сравнивая формулы (6.37), (6.38), заметим, что при совмещении сечений функция корреляции численно равна дисперсии:

Стационарные случайные процессы.

Так принято называть случайные процессы, статистические характеристики которых одинаковы во всех сечениях.

Говорят, что случайный процесс стационарен в узком смысле; если любая его -мерная плотность вероятности инвариантна относительно временного сдвига

Если же ограничить требования тем, чтобы математическое ожидание и дисперсия процесса не зависели от времени, а функция корреляции зависела лишь от разности - , то подобный случайный процесс будет стационарен в широком смысле. Понятно, что из стационарности в узком смысле следует стационарность в широком смысле, но не наоборот.

Как следует из определения, функция корреляции стационарного случайного процесса является четной:

Кроме того, абсолютные значения этой функции при любых не превышают ее значения при :

Метод доказательства таков: из очевидного неравенства

следует, что

откуда непосредственно вытекает неравенство (6.41).

Часто удобно использовать нормированную функцию корреляции

для которой .

Чтобы проиллюстрировать понятие стационарного случайного процесса, рассмотрим два примера.

Пример 6.5. Случайный процесс образован реализациями вида где известны заранее, в то время как фазовый угол - случайная величина, равномерно распределенная на отрезке -

Так как плотность вероятности фазового угла то математическое ожидание процесса

Аналогично можно найти дисперсию:

Наконец, функция корреляции

Итак, данный случайный процесс удовлетворяет всем условиям, которые необходимы для того, чтобы обеспечить стационарность в широком смысле.

Пример 6.6. Случайный процесс имеет реализации вида и причем - заданные числа. - случайная величина с произвольным законом распределения. Математическое ожидание

будет не зависимым от времени лишь при Поэтому в общем случае рассматриваемый случайный процесс будет нестационарным.

Свойство эргодичности.

Стационарный случайный процесс называют эргодическим, если при нахождении его моментных функций усреднение по статистическому ансамблю можно заменить усреднением по времени. Операция усреднения выполняется над единственной реализацией длительность Т которой теоретически может быть сколь угодно велика,

Обозначая усреднение по времени угловыми скобками, запишем математическое ожидание эргодического случайного процесса:

которое равно постоянной составляющей выбранной реализации.

Дисперсия подобного процесса

Поскольку величина представляет собой среднюю мощность реализации, а величина - мощность постоянной составляющей, дисперсия имеет наглядный смысл мощности флуктуационной составляющей эргодического процесса.

Аналогично находят функцию корреляции:

Достаточным условием эргодичности случайного процесса, стационарного в широком смысле, является стремление к нулю функции корреляции при неограниченном росте временного сдвига :

В математике показано, что это требование можно несколько ослабить. Оказывается, что случайный процесс эргодичен, если выполнено условие Слуцкого :

Так, равенство (6.47) справедливо применительно к гармоническому процессу со случайной начальной фазой (см. пример 6.5).

Измерение характеристик случайных процессов.

Если случайный процесс является эргодическим, то его реализация достаточной длины есть «типичный» представитель статистического ансамбля. Изучая эту реализацию экспериментально, можно получить много сведений, характеризующих данный случайный процесс.

Прибор для измерения одномерной плотности вероятности случайного процесса может быть выполнен следующим образом. Одномерная плотность вероятности эргодического случайного процесса есть величина, пропорциональная относительному времени пребывания его реализации на уровне между Предположим, что имеется устройство с двумя входами, на один из которых подается исследуемая реализация х(t), а на другой - опорное постоянное напряжение, уровень которого можно регулировать. На выходе устройства возникают прямоугольные видеоимпульсы постоянной амплитуды, начало и конец которых определяются моментами времени, когда текущие значения случайного сигнала совпадают либо с уровнем либо с уровнем Если теперь измерить, скажем, с помощью обычного стрелочного прибора среднее значение тока, создаваемого последовательностью видеоимпульсов, то показания этого прибора будут пропорциональны плотности вероятности

Любой достаточно инерционный стрелочный прибор может быть использован для измерения математического ожидания случайного процесса [см. формулу (6.43)].

Прибор, измеряющий дисперсию случайного процесса, как это следует из (6.44), должен иметь на входе конденсатор, отделяющий постоянную составляющую. Дальнейшие этапы процесса измерения - возведение в квадрат и усреднение по времени - выполняются инерционным квадратичным вольтметром.

Принцип работы измерителя функции корреляции (коррелометра) вытекает из формулы (6.45). Здесь мгновенные значения случайного сигнала после фильтрации постоянной составляющей, разделяясь на канала, поступают на перемножитель, причем в одном из каналов сигнал задерживается на время . Для получения значения функции корреляции сигнал с выхода перемножителя обрабатывается инерционным звеном, которое осуществляет усреднение.

Независимо от величины

Здесь приняты те же обозначения, что и в формуле (6.26). Элементы корреляционной матрицы этого случайного процесса определяются нормированной функцией корреляции:

В дальнейшем часто будет использоваться двумерная гауссова плотность

Стационарный гауссов процесс занимает исключительное место среди прочих случайных процессов - любая его многомерная плотность вероятности определяется даумя характеристиками: математическим ожиданием и функцией корреляции.

Случайный процесс Х(t) представляет собой функцию, которая отличается тем, что ее значения в любые произвольные моменты времени по координате t являются случайными. Строго с теоретических позиций, случайный процесс X(t) следует рассматривать как совокупность множества реализаций функций x k (t), имеющих общую статистическую закономерность. При регистрации случайного процесса на определенном временном интервале осуществляется фиксирование единичной реализации x k (t) из бесчисленного числа возможных реализаций процесса X(t). Эта единичная реализация называется выборочной функцией случайного процесса X(t). Примеры выборочных функций модельного случайного процесса X(t) приведены на рис. 131. В дальнейшем без дополнительных пояснений при рассмотрении различных параметров и характеристик случайных процессов для сопровождающих примеров будем использовать данную модель процесса.

Рис. 13.1. Выборочные функции случайного процесса.

С практической точки зрения выборочная функция является результатом отдельного эксперимента, после которого данную реализацию x k (t) можно считать детерминированной функцией. Сам случайный процесс в целом должен анализироваться с позиции бесконечной совокупности таких реализаций, образующих статистический ансамбль . В каждый выбранный момент времени t 1 конкретная реализация процесса представляет собой случайную величину х 1 с определенной плотностью вероятности p(x 1 , t 1), а ее среднее значение определяется усреднением по всем возможным реализациям в этот момент времени t 1 . Полной статистической характеристикой такой системы является N-мерная плотность вероятностей р(x n ; t n). Однако, как экспериментальное определение N-мерных плотностей вероятностей процессов, так и их использование в математическом анализе представляет значительные математические трудности. Поэтому на практике обычно ограничиваются одно- и двумерной плотностью вероятностей процессов.

Рис. 13.2. Сечения случайного процесса X(t).

Функциональные характеристики случайных сигналов. Допустим, что случайный процесс X(t) задан ансамблем реализаций {x 1 (t), x 2 (t), … , x k (t), …}. В произвольный момент времени t 1 зафиксируем значения всех реализаций {x 1 (t 1), x 2 (t 1), … , x k (t 1), …}. Совокупность этих значений представляет собой случайную величину X(t 1) и является одномерным сечением случайного процесса X(t). Примеры сечений по 100 выборкам случайного процесса X(t) (рис. 9.1.1) в точках t 1 =30 и t 2 =65 приведены на рис. 13.2.

Одномерная функция распределения вероятностей (x, t n) определяет вероятность того, что в момент времени t n значение случайной величины X(t n) не превысит значения x:


F(x, t n) = P{X(t n) ≤ x}.

Очевидно, что в диапазоне значений вероятностей от 0 до 1 функция F(x, t) является неубывающей с предельными значениями F(-¥, t) = 0 и F(¥, t) = 1. При известной функции F(x, t) вероятность того, что значение X(t n) в выборках будет попадать в определенный интервал значений будет определяться выражением:

P{a < X(t n) ≤ b} = F(b, t n) – F(a, t n).

Одномерная плотность вероятностей p(x, t) случайного процесса Х(t) характеризует распределение вероятностей реализации случайной величины Х(t n) в произвольный момент времени t n . Она представляет собой производную от функции распределения вероятностей:

p(x, t n) = dF(x, t n)/dx.

Моменты времени t n являются сечениями случайного процесса X(t) по пространству возможных состояний, и плотность вероятностей p(x, t n) представляет собой плотность вероятностей случайных величин X(t n) данных сечений. Произведение p(x, t n)·dx равно вероятности реализации случайной величины X(t n) в бесконечно малом интервале dx в окрестности значения x, откуда следует, что плотность вероятностей также является неотрицательной величиной.

Рис. 13.3. Распределение вероятностей и плотность вероятностей сечения случайного процесса

На рис. 13.3 приведены примеры распределения вероятностей и плотности вероятностей сечения случайного процесса X(t) (рис. 13.1) в точке t 1 . Функции вероятностей определены по N = 1000 выборок дискретной модели случайного процесса, и сопоставлены с теоретическими распределениями при N ® ¥.

При известной функции плотности вероятностей вероятность реализации значения X(t n) в произвольном интервале значений вычисляется по формуле:

P(a < X(t n) ≤ b) = p(x, t n) dx.

Функция плотности вероятностей должна быть нормирована к 1, т.к. случайная величина обязана принимать какое-либо значение из числа возможных, образующих полное пространство случайных величин:

P(x, t n) dx = 1.

По известной плотности распределения вычисляется и функция распределения вероятностей:

F(x, t n) = p(x, t n) dx.

Моменты распределения случайных сигналов позволяют охарактеризовать случайные процессы устойчивыми и неслучайными интегральными оценками.

Математическое ожидание (mean value), или первый момент распределения, представляет собой статистическое усреднение случайной величины X(t n) - усреднение по ансамблю реализаций в каком-либо фиксированном сечении t n случайного процесса. Соответственно, функция математического ожидания определяет зависимость среднего взвешенного значения случайного процесса от независимой переменной (времени):

m x (t) º M{Х(t)}º = x p(x; t) dx. (13.1)

Математическое ожидание m x (t) представляет собой неслучайную составляющую случайного процесса X(t). На рис. 9.1.1. и 9.1.2 неслучайные составляющие m(t) модели случайного процесса X(t) выделены пунктиром и соответствуют выборкам при N ® ¥.

Средний квадрат случайного процесса (функция второго момента) – зависимость среднего взвешенного значения (математического ожидания) квадрата значений случайного процесса от независимой переменной, т.е. мощность процесса:

M{Х 2 (t)}º = x 2 p(x; t) dx.

Функция дисперсии (variance) – второго центрального момента случайного процесса, определяет функцию среднего взвешенного значения (математического ожидания) квадрата разности Х(t)-m x (t), которая называется флюктуационной частью процесса:

D x (t) = M{[Х(t)-m x (t)] 2 } = 2 p(x; t) dx. (

Функция среднего квадратического отклонения (standard deviation) служит амплитудной мерой разброса (флюктуаций) значений случайного процесса по временной оси относительно математического ожидания процесса:

s x (t) = . (13.3)

Учитывая последнее выражение, дисперсия случайной величины обычно обозначается индексом s x 2 .

На рис. 13.4 приведен пример флюктуационной составляющей процесса X(t) (рис. 13.1) в одной из реализаций в сопоставлении со средним квадратическим отклонением ±s случайных величин от математического ожидания m(t).

Вид функций плотности вероятностей в сечениях случайных процессов p(x; t n), а также по всем сечениям стационарных случайных процессов р(х), зависит от физической природы случайных сигналов, но чаще всего соответствует нормальному (гауссову) распределению:

p(x) = .

Это определяется тем, что в соответствии с "центральной предельной теоремой " распределение вероятностей для сумм независимых случайных величин, при которых нет доминирующих, стремится к нормальному закону по мере роста числа слагаемых, и не зависит от законов распределения слагаемых. Между тем физические случайные процессы обычно являются многопараметровыми, при этом случайность значений параметров, как правило, обусловлена их природой и также соответствует нормальным распределениям.

Двумерная плотность вероятностей. Одномерные законы плотности распределения вероятностей случайных процессов не несут каких-либо характеристик связи между значениями случайных величин для различных значений аргументов.

Двумерная плотность вероятностей p(x 1 ,x 2 ; t 1 ,t 2) определяет вероятность совместной реализации значений случайных величин Х(t 1) и Х(t 2) в произвольные моменты времени t 1 и t 2 и в какой-то мере уже позволяет оценивать динамику развития процесса. Двумерная плотность вероятностей описывает двумерную случайную величину {X(t n), X(t m)} в виде функции вероятности реализации случайной величины X(t n) в бесконечно малом интервале dx n в окрестностях x n в момент времени t n при условии, что в момент времени t m значение X(t m) будет реализовано в бесконечно малом интервале dx m в окрестностях x m:

p(x n ,x m ; t n ,t m) dx n dx m = P{|X(t n)-x n |≤dx n /2, |X(t m)-x m |≤dx m /2}.

При двумерной плотности вероятности имеем:

m x (t) º = x 1 (t 1) p(x 1 ,t 1 ; x 2 ,t 2) dx 1 dx 2 . (13.1")

D x (t) = s x 2 (t)= 2 p(x 1 ,t 1 ; x 2 ,t 2) dx 1 dx 2 . (13.2")

Корреляционные функции случайных процессов. Характеристикой динамики изменения двумерной случайной величины {X(t n), X(t m)} является корреляционная функция, которая описывает случайный процесс в целом:

R X (t n , t m) = M{X(t n) X(t m)}.

Корреляционная функция представляет собой статистически усредненное произведение значений случайного процесса X(t) в моменты времени t n и t m по всем значениям аргументов t n и t m , а, следовательно, тоже является двумерной функцией. В терминах теории вероятностей корреляционная функция является вторым начальным моментом случайного процесса.

На рис. 13.5 приведены примеры реализаций двух случайных процессов, которые характеризуются одной и той же функцией математического ожидания и дисперсии.

Рис. 13.5.

На рисунке видно, что хотя пространство состояний обоих процессов практически одно и то же, динамика развития процессов в реализациях существенно различается. Единичные реализации коррелированных процессов в произвольный момент времени могут быть такими же случайными, как и некоррелированных, а в пределе, во всех сечениях оба процесса могут иметь один и тот же закон распределения случайных величин. Однако динамика развития по координате t (или любой другой независимой переменной) единичной реализации коррелированного процесса по сравнению с некоррелированным является более плавной, а, следовательно, в коррелированном процессе имеется определенная связь между последовательными значениями случайных величин. Оценка степени статистической зависимости мгновенных значений какого-либо процесса Х(t) в произвольные моменты времени t n и t m и производится функцией корреляции. По всему пространству значений случайного процесса X(t) корреляционная функция определяется выражением:

R X (t n , t m) = x(t n)x(t m) p(x n ,t m ; x n ,t m) dx n dx m, (9.1.4)

Рис. 13.6. Двумерная плотность вероятностей и корреляционная функция процесса X(t).

На рис. 13.6 приведена форма модельного случайного процесса X(t) в одной выборке со значительной и изменяющейся неслучайной составляющей. Модель задана на интервале 0-Т (Т=100) в дискретной форме с шагом Dt=1. Корреляционная функция вычислена по заданной плотности вероятностей модели.

При анализе случайных процессов второй момент времени t m удобно задавать величиной сдвига t относительно первого момента, который при этом может быть задан в виде координатной переменной:

R Х (t, t+t) = M{Х(t)Х(t+t)}. (13.4")

Функция, задаваемая этим выражением, обычно называется функцией автокорреляции случайного процесса.

Ковариационные функции. Частным случаем корреляционной функции является функция автоковариации (ФАК), которая широко используется при анализе сигналов. Она представляет собой статистически усредненное произведение значений центрированной случайной функции X(t)-m x (t) в моменты времени t n и t m и характеризует флюктуационную составляющую процесса:

К Х (t n ,t m) = (x(t n)-m x (t n)) (x(t m)-m x (t m)) p(x n ,t n ; x m ,t m) dx n dx m, (13.5)

В терминах теории вероятностей ковариационная функция является вторым центральным моментом случайного процесса. Для центрированных случайных процессов ФАК тождественна функции корреляции. При произвольных значениях m x ковариационные и корреляционные функции связаны соотношением:

K X (t, t+t) = R X (t, t+t) - m x 2 (t).

Нормированная функция автоковариации (функция корреляционных коэффициентов):

r Х (t, t+t) = К Х (t, t+t)/. (9.1.6)

При t= 0 значение r Х равно 1, а ФАК вырождается в дисперсию случайного процесса:

К Х (t) = D Х (t) = s x 2 (t).

Отсюда следует, что для случайных процессов и функций основными характеристиками являются функции математического ожидания и корреляции (ковариации). Особой необходимости в отдельной функции дисперсии не имеется.

Примеры реализаций двух различных случайных процессов и их нормированных ковариационных функций приведены на рис. 13.7.

Рис. 13.7. Реализации и ковариационные функции случайных процессов.

Математическими моделями случайных сигналов и помех являются случайные процессы. Случайным процессом (СП) называется изменение случайной величины во времени . К случайным процессам относится большинство процессов, протекающих в радиотехнических устройствах, а также помехи, сопровождающие передачу сигналов по каналам связи. Случайные процессы могут быть непрерывными (НСП), либо дискретными (ДСП) в зависимости от того, какая случайная величина непрерывная или дискретная изменятся во времени. В дальнейшем основное внимание будет уделено НСП.

Прежде чем приступить к изучению случайных процессов необходимо определится со способами их представления. Будем обозначать случайный процесс через , а его конкретную реализацию – через . Случайный процесс может быть представлен либо совокупностью (ансамблем) реализаций , либо одной , но достаточно протяженной во времени реализацией . Если сфотографировать несколько осциллограмм случайного процесса и фотографии расположить одну под другой, то совокупность этих фотографий будет представлять ансамбль реализаций (рис. 5.3).

Здесь – первая, вторая, …, k-ая реализации процесса. Если же отобразить изменение случайной величины на ленте самописца на достаточно большом интервале времени T, то процесс будет представлен единственной реализацией (рис. 5.3).

Как и случайные величины, случайные процессы описываются законами распределения и вероятностными (числовыми) характеристиками. Вероятностные характеристики могут быть получены как усреднение значений случайного процесса по ансамблю реализаций, так и усреднением по одной реализации.

Пусть случайный процесс представлен ансамблем реализаций (рис. 5.3). Если выбрать произвольный момент времени и зафиксировать значения, принимаемые реализациями в этот момент времени, то совокупность этих значений образует одномерное сечение СП

и представляет собой случайную величину . Как уже подчеркивалось выше, исчерпывающей характеристикой случайной величины является функция распределения или одномерная плотность вероятности

.

Естественно как , так и , обладают всеми свойствами функции распределения и плотности распределения вероятности, рассмотренными выше.

Числовые характеристики в сечении определяются в соответствии с выражениями (5.20), (5.22), (5.24) и (5.26). Так, в частности математическое ожидание СП в сечении определяется выражением

а дисперсия – выражением

Однако, законов распределения и числовых характеристик только в сечении недостаточно для описания случайного процесса, который развивается во времени. Поэтому, необходимо рассмотреть второе сечении (рис. 5.3). В этом случае СП будет описываться уже двумя случайными величинами и , разнесенными между собой на интервал времени и характеризоваться двумерной функцией распределения и двумерной плотностью , где , . Очевидно, если ввести в рассмотрение третье, четвертое и т.д. сечения, можно прийти к многомерной (N-мерной) функции распределения и соответственно к многомерной плотности распределения .

Важнейшей характеристикой случайного процесса служит автокорреляционная функция (АКФ)

устанавливающая степень статистической связи между значениями СП в моменты времени и

Представление СП в виде ансамбля реализаций приводит к понятию стационарности процесса. Случайный процесс является стационарным , если все начальные и центральные моменты не зависят от времени, т.е.

, .

Это жесткие условия, поэтому при их выполнении СП считается стационаром в узком смысле .

На практике используется понятие стационарности в широком смысле . Случайный процесс стационарен в широком смысле, если его математическое ожидание и дисперсия не зависят от времени, т.е.:

а автокорреляционная функция определяется только интервалом и не зависит от выбора на оси времени

В дальнейшем будут рассматриваться только стационарные в широком смысле случайные процессы.

Выше отмечалось, что случайный процесс помимо представления ансамблем реализаций, может быть представлен единственной реализацией на интервале времени T. Очевидно, все характеристики процесса могут быть получены усреднением значений процесса по времени.

Математическое ожидание СП при усреднении по времени определяется следующим образом:

. (5.46)

Отсюда следует физический смысл : математическое ожидание – это среднее значение (постоянная составляющая) процесса.

Дисперсия СП определяется выражением

и имеет физический смысл средней мощности переменной составляющей процесса.

Автокорреляционная функция при усреднении по времени

Случайный процесс называется эргодическим , если его вероятностные характеристики, полученные усреднением по ансамблю, совпадают с вероятностными характеристиками, полученными усреднением по времени единственной реализации из этого ансамбля. Эргодические процессы являются стационарными.

Использование выражений (5.46), (5.47) и (5.48) требует, строго говоря, реализации случайного процесса большой (теоретически бесконечной) протяженности. При решении практических задач интервал времени ограничен. При этом большинство процессов считают приблизительно эргодическими и вероятностные характеристики определяют в соответствии с выражениями

; (5.49)

;

Случайные процессы, у которых исключено математическое ожидание, называются центрированными . В дальнейшем под и будут подразумеваться значения центрированных случайных процессов. Тогда выражения для дисперсии и автокорреляционной функции принимают вид

; (5.50)

Отметим свойства АКФ эргодических случайных процессов:

– автокорреляционная функция является вещественной функцией аргумента ,

– автокорреляционная функция является четной функцией, т.е. ,

– при увеличении АКФ убывает (необязательно монотонно) и при стремится к нулю,

– значение АКФ при равно дисперсии (средней мощности) процесса

.

На практике часто приходится иметь дело с двумя и более СП. Так например, на вход радиоприемника одновременно поступает смесь случайного сигнала и помехи. Взаимную связь между двумя случайными процессами устанавливает взаимная корреляционная функция (ВКФ). Если и – два случайных процесса, характеризующиеся реализациями и , то взаимная корреляционная функция определяется выражением



Понравилась статья? Поделиться с друзьями: