Элементы информационной теории измерений

В основе информационной теории измерений [16, 35] лежит понятие об энтропии случайной величины как меры ее неопределенности (множественной совокупности ее возможных значений). Чем больше число значений может принимать дискретная случайная величина или чем больше диапазон непрерывной случайной величины, тем больше их энтропия.

Согласно К. Шеннону, энтропия Н дискретной случайной величины X’ , которая может принимать n значения (i = 1, 2, …, п)ссоответствующими вероятностями Рi выражается как

Элементы информационной теории измерений (9.1)

Энтропия непрерывной случайной величины X, имеющей плотность p(x) , распределения определяется соотношением

Элементы информационной теории измерений (9.2)

где хН , хВ — нижняя и верхняя границы диапазона значений величины X.

В зависимости от выбора основания логарифма в формулах (9.1) и (9.2) энтропия может выражаться в следующих единицах: дит при использовании десятичных логарифмов; бит для двоичных логарифмов и нит для натуральных логарифмов.

В соответствии с общими положениями теории информации, предложенными и обоснованными К. Шенноном, количество информации I ,получаемое при измерении X (или X’), равно разности априорной (до измерений) Н(X) и апостериорной (после получения результата измерений — хp)- Н(Х/хр) энтропии этой (измеряемой) величины, т.е.

Элементы информационной теории измерений (9.3)

Следовательно, количество информации, получаемой при измерении, соответствует уменьшению энтропии от значения Н(Х), которое характеризует неопределенность измеряемой величины перед измерением, до значения Н(Х/хр) , т. е. оно характеризует остающуюся после получения результата хр , неопределенность.

Таким образом. в данном случае (с общих позиций теории информации) измерение может трактоваться как „сокращение области неопределенности измеряемой величины.

Величину Н(Х/хр) называют условной энтропией (при условии, что получено хр).

Пусть до проведения измерений было известно, что измеряемая величина X может принимать значения в диапазоне от хн до xв (например, рабочий диапазон показаний измерительного прибора) и вероятность значений X в этом диапазоне одинакова, т.е

Элементы информационной теории измерений

Тогда в соответствии с формулой (9.2) исходная (априорная) энтропия будет

Элементы информационной теории измерений (9.4)

После проведения измерения и получения результата хр мы можем утверждать, что измеряемая величина (ее действительное значение) лежит в пределах от хр — Dн до хр + Dв, где Dн , Dв — нижняя и верхняя границы погрешности измерения D . Примем (для наглядности выводов) , что погрешность лежит в границах ± D и плотность распределения ее значений –

Элементы информационной теории измерений

Тогда условная энтропия, оставшаяся после получения результата хр , будет равна

Элементы информационной теории измерений (9.5)

Следовательно, полученное при измерении количество информации на основании формулы (9.3) составит

Элементы информационной теории измерений (9.6)

Другими словами, количество информации, полученное при измерении, равно логарифму приведенной погрешности результата.

Нетрудно показать, что условная энтропия величины, подчиняющейся нормальному распределению с плотностью Элементы информационной теории измерений , равна

Элементы информационной теории измерений . (9.7)

Сравнивая формулы (9.5) и (9.7) , можно заключить, что с информационной точки зрения результат, имеющий нормальное распределение погрешности, дает такое же количество информации, как и результат с равномерным распределением погрешности, если только Элементы информационной теории измерений .

Вводится понятие о некой обобщенной характеристике точности измерений (и средств измерений) — энтропийной погрешности. При этом энтропийной погрешностью считается погрешность с равномерным распределением, которая вносит такое же дезинформационное действие, что и погрешность с данным законом распределения.

Математически энтропийное значение погрешности, определяемое как половина интервала неопределенности, выражается следующим образом:

Элементы информационной теории измерений (9.8)

Зависимость между энтропийным и средним квадратическим значениями погрешности может быть представлена как

Элементы информационной теории измерений ,

где коэффициент Элементы информационной теории измерений называется энтропийным коэффициентом закона распределения.

Наибольшей энтропией (неопределенностью) при заданном значении ? обладает нормальное распределение. Поэтому оно имеет наибольший, предельно возможный энтропийный коэффициент, равный на основании соотношений (9.7) и (9.8) Элементы информационной теории измерений (для натуральных логарифмов) .

Именно поэтому в неопределенной ситуации в качестве модели распределения погрешности при заданной дисперсии принимается нормальное распределение.

Для равномерного распределения Элементы информационной теории измерений и Элементы информационной теории измерений .

Аналогичным образом могут быть вычислены значения Кэ для любых других законов распределения.

На основе информационной теории доказывается существование предела точности измерений, т. е. принципиальной невозможности его дальнейшего уточнения. Этот предел определенности в микромире известен как „правило неопределенности Гейзенберга.

Кроме того, также делается вывод, что передача информации от одного объекта к другому может происходить только путем их энергетического взаимодействия. При отсутствии обмена энергией между объектом и средством измерения передача информации (измерение) невозможны.

Таковы основные положения информационной теории измерений.

Вопросы к разделу

1. Что такое неопределенность?

2. Что такое энтропия?

3. Что такое дит, бит, нит?

4. Что подразумевается под количеством информации?

5. Что такое энтропийный коэффициент закона распределения?

6. В чем состоит правило неопределенности Гейзенберга?

7. Как происходит передача информации от одного объекта другому?

8. Возможна ли передача информации между объектом и средством измерения ?

10. СИГНАЛЫ ИЗМЕРИТЕЛЬНОЙ ИНФОРМАЦИИ

10.1. Общие сведения.

В современных средствах измерений измеряемая величина поступает во вход первичного преобразователя как сигнал измерительной информации. Сигнал как материальный носитель информации (сигналоноситель) представляет собой некоторый физический процесс, один из параметров которого содержит количественную информацию об измеряемой физической величине и называется информативным параметром. Остальные параметры сигнала называют неинформативными. При дальнейшем прохождении сигналов в средствах измерений они могут преобразовываться из одного вида в другой, более удобный для последующей передачи, хранения, обработки или восприятия оператором, — т.е. сигнал нормируется и представляется стандартным сигналом, имеющим определенный диапазон значений.

Природа физических процессов, несущих измерительную информацию может быть самая разнообразная. Самым распространенным носителем является электромагнитное поле, которое используется в измерительных приборах и преобразователях

У электрических сигналов информативными параметрами могут быть мгновенные значения постоянных токов и напряжений, амплитудные, средневыпрямленные или действующие значения синусоидальных токов и напряжений, а также их частота или фаза и др.

Так, например, при измерении действующего напряжения силовой сети переменного тока входным сигналом является синусоидальное напряжение, а измеряемой величиной — действующее значение этого напряжения, являющееся в данном случае его информативным параметром.

Форма сигналов весьма разнообразная, одним из самых распространенных является импульс. Импульс – динамическая величина произвольной формы, мгновенное значение которой отлично от нуля в течение ограниченного интервала времени. Используются следующие формы импульсов: прямоугольная, трапецеидальная, треугольная, пилообразная, дельта-импульс (функция Дирака), колоколообразная. Различают также однополярные и двуполярные импульсы.

Существует множество различных видов сигналов. По характеру изменения измерительные сигналы делятся на аналоговые, дискретные и цифровые. Аналоговые сигналы описываются непрерывной или кусочно-непрерывной функцией Элементы информационной теории измерений . Дискретные сигналы – это сигналы прерывистые во времени или по уровню. Квантованные сигналы – это дискретные сигналы кратные определенной величине (уровню квантования). Цифровые сигналы — квантованные по уровню и дискретные по времени сигналы.

По степени наличия априорной информации измерительные сигналы делятся на детерминированные, квазидетерминированные и случайные.

Детерминированный сигнал — это сигнал, закон изменения которого известен, а модель не содержит неизвестных параметров. Мгновенные значения детерминированного сигнала известны в любой момент времени, поэтому эти сигналы используются в различных эталонах.

Квазидетерминированные сигналы — это сигналы с частично известным характером изменения во времени, т.е. с одним или несколькими неизвестными параметрами. Подавляющее большинство измерительных сигналов являются квазидетерминированными.

Случайные сигналы В этом случае сигнал рассматривают как случайный процесс, а изменение сигнала во времени и пространстве характеризуется законом распределения, математическим ожиданием, дисперсией и корреляционной функцией.

В общем случае сигналы представляют в виде комбинации детерминированной и случайной составляющих, т.е. в виде суммы сигнала измерительной информации (квазидетерминированная составляющая) и помехи (случайная составляющая).

Помехой называется сигнал, вызывающий нежелательное искажающее воздействие на измерение, т.е. однородный с измерительным, действующий одновременно с ним и приводящий к появлению погрешности измерения.

По месту возникновения помехи делятся на внешние и внутренние. Причиной возникновения внешних помех являются природные процессы и работа различных технических устройств (индустриальные помехи). Внутренние помехи обусловлены процессами, происходящими при работе самого средства измерений.

Различают следующие виды помех: флуктуационные, сосредоточенные и импульсные.

Флуктуационные помехи (шумы) представляют собой хаотическое, беспорядочное изменение во времени сигнала, однородного с измеряемым, в каком-либо месте средства измерений. Например, внутренние шумы измерительных электронных устройств, которые разделяют на следующие виды: тепловой шум (шум Джонсона), по своим свойствам близкий к белому шуму; дробовый, обусловленный движением электронов — дискретных носителей электрического тока (имеет равномерный спектр, т.е. является белым); фликкер-шум, у которых спектральная мощность на декаду частоты примерно постоянна (розовые шумы).

Способы борьбы с помехами зависят от их спектрального состава, вида измерительного сигнала и помехи. Многие из электрических помех можно устранить путем экранирования, заземления средства измерений, применения специальных фильтров и т.п.

10.2. Математические модели сигналов.

Под математической моделью понимают описание сигнала на формальном языке математики, т. е. с помощью формул, неравенств или логических соотношений. Для описания одних и тех же реальных физических сигналов могут быть использованы различные математические модели. Выбор модели определяется адекватностью модели реальному сигналу, простотой математического описания, назначением модели и др.

Существуют различные подходы к построению математических моделей сигналов. При этом в основном используются элементарные функции.

1. Постоянный сигнал Элементы информационной теории измерений , где А – параметр.

2. Единичная функция 1(t) , или единичный скачок, является единичной ступенчатой функцией Хевисайда (рис. 14,а), служит для представления единичного сигнала, действующего на входе цепи с момента t0 , поэтому

Элементы информационной теории измерений

Примечание. Следует обратить внимание на нетрадиционность обозначений: функция обозначается цифрой «единица», а не как обычно латинской или греческой буквой. Хевисайд английский ученый-физик автор знаменитого уравнения теории относительности Элементы информационной теории измерений .

Элементы информационной теории измерений

а б

Рис. 14. Графики: а — функции Хевисайда (единичной функции) ;

б — функции Дирака (дельта-функции)

3. Дельта–функция Элементы информационной теории измерений , или функция Дирака (рис. 14,б), служит для описания внешнего воздействия называемого единичным импульсом

Элементы информационной теории измерений

которая определяется как производная по времени единичной функции

Элементы информационной теории измерений

и представляет собой предельный случай импульса очень большого значения и очень малой продолжительности, когда его длительность стремится к нулю, но площадь сохраняется равной единице

Элементы информационной теории измерений Элементы информационной теории измерений

4. Линейная функция Элементы информационной теории измерений . Вид сигнала повторяет измеряемую величину Элементы информационной теории измерений с точностью до постоянного множителя, равного Элементы информационной теории измерений .

5. Гармоническая функция Элементы информационной теории измерений

В гармонических сигналах информативными параметрами могут служить: амплитуда Элементы информационной теории измерений , угловая частота w или фаза j .

Изменение информативного параметра гармонического сигнала в соответствии с изменением измеряемой величины х называют модуляцией этого сигнала. Если с изменением х в гармоническом сигнале меняется один из параметров Элементы информационной теории измерений или Элементы информационной теории измерений , то говорят, что осуществляется соответственно амплитудная — АМ, частотная — ЧМ или фазовая—ФМ модуляция. Например уравнение амплитудно-модулированного гармонического сигнала имеет вид

Элементы информационной теории измерений

6. Спектральное представление основывается на преобразовании Фурье сигналов Элементы информационной теории измерений . Применяя разложение в ряд Фурье, периодический сигнал Элементы информационной теории измерений может быть представлен суммой гармонических составляющих:

Элементы информационной теории измерений ,

где Элементы информационной теории измерений —постоянная составляющая; Элементы информационной теории измерений и Элементы информационной теории измерений — амплитуда и фаза n –ой гармонической составляющей сигнала; n — номер гармоники. Множество значений Элементы информационной теории измерений и Элементы информационной теории измерений образуют соответственно амплитудный и фазовый спектры сигнала. Наличие высших гармоник в спектре периодического сигнала количественно описывается коэффициентом гармоник. Он равен отношению среднеквадратического значения сигнала суммы всех его гармоник, кроме первой, к среднеквадратическому значению первой гармоники.

7. Периодическая последовательность прямоугольных импульсов выражается формулой

Элементы информационной теории измерений

где Элементы информационной теории измерений — амплитуда импульса; t — длительность импульса; Элементы информационной теории измерений — период следования импульса.

Частота f — количество колебаний периодически изменяющейся величины в единицу времени. Она равна величине, обратной периоду Элементы информационной теории измерений . Отношение периода к длительности прямоугольного импульса Элементы информационной теории измерений называется скважностью, а обратная величина Элементы информационной теории измерений — коэффициентом заполнения. При скважности, равной двум, последовательность импульсов называют меандром.

Периодическая последовательность импульсов может быть модулирована. Модуляция — это воздействие измерительного сигнала на какой-либо параметр стационарного сигналоносителя. При этом в зависимости от того, какой из параметров функционально связан с х , имеет место соответственно амплитудно-импульсная (АИМ) , частотно-импульсная (ЧИМ) или широтно-импульсная (ШИМ) модуляция сигнала.

8. Для точного описания сигналов сложной структуры приходится применять сложные математические выражения, например, использовать бесконечные и конечные ряды

Элементы информационной теории измерений

где Элементы информационной теории измерений — некоторые выбранные для аппроксимации базисные функции (полиномы); Элементы информационной теории измерений — весовые коэффициенты.

В качестве базисных функций Элементы информационной теории измерений применяют полиномы Лагранжа, Лежандра, Чебышева, ортогональные полиномы и др.

9. При описании электрических сигналов широко используются функции комплексного переменного, которые очень удобны при описании электромагнитных полей.

Термины и определения основных понятий в области измерительных радиотехнических сигналов и вид их характеристик устанавливает ГОСТ 16465-70 Сигналы радиотехнические. Термины и определения.

10.3. Преобразование непрерывных измерительных сигналов: дискретизация и квантование

Развитие измерительной техники потребовало преобразования непрерывной информации в цифровую. Для этого используются дискретизация и квантование измерительных (аналоговых) сигналов.

Примечание. Дискретный – от лат. discretus — прерывистый, дробный, состоящий из отдельных частей. Квант — от лат. quantum – сколько , quantitas – количество.

Дискретизация представление непрерывного сигнала Элементы информационной теории измерений совокупностью дискретных значений Элементы информационной теории измерений . Наиболее часто применяют равномерную дискретизацию сигналов, при которой интервал времени между двумя соседними отсчетами — шаг дискретизации Элементы информационной теории измерений остается постоянным.

Квантование — разделение непрерывно изменяющейся измерительной информации на некоторое количество одинаковых по значению ступеней (квантов). В процессе квантования каждому значению из некоторого бесконечного множества значений аналоговой величины ставится в соответствие одно дискретное значение из конечного множества значений. При этом возникает погрешность квантования. Эта погрешность не превосходит ступени квантования и будет тем меньше, чем больше число ступеней используется при квантовании.

Примечание. В природе квантование физических величин весьма распространено, причем казалось бы в самых неожиданных случаях, например : измерение величины — квантом служит мера (цена деления линейки, единица измерения гири); масса вещества – квантом служит молекула; электрический заряд — квантом служит заряд электрона, свет — квантом служит фотон, и т.д.

Процесс квантования описывается уравнением

Элементы информационной теории измерений ,

где Элементы информационной теории измерений — квантованный сигнал; q – постоянная величина; Элементы информационной теории измерений — число квантов; Элементы информационной теории измерений — единичная функция.

Обратной задачей дискретизации и квантованияявляется восстановление непрерывного сигнала Элементы информационной теории измерений по его дискретным значениям Элементы информационной теории измерений .

Восстановление исходного сигнала по совокупности дискретных отсчетов осуществляется формированием обобщенной зависимости (многочлена) различными ортогональными или ортонормированными базисными функциями, например применяют различные полиномы (см. выше п. 8). Качество приближения Элементы информационной теории измерений и Элементы информационной теории измерений определяется погрешностью

Элементы информационной теории измерений .

Коэффициенты ряда и базисные функции могут выбираться на основе различных критериев, например, совпадения значений восстанавливаемого непрерывного сигнала с мгновенными значениями дискретизированного сигнала. Такой метод удобен для аналитического восстановления при автоматической обработке результатов измерения мгновенных значений дискретизированного сигнала. Восстановление периодических сигналов регламентируется теоремой Котельникова.

Если функция Элементы информационной теории измерений удовлетворяет условиям Дирихле — ограничена, кусочно-непрерывна, имеет конечное число экстремумов — и обладает спектром с максимальной граничной частотой fс , дискретизирована циклически с периодом Элементы информационной теории измерений , меньшим или равным Элементы информационной теории измерений , т.е. частота дискредитации Элементы информационной теории измерений , то она может быть восстановлена по всей этой совокупности ее мгновенных значений без погрешности.

Если теорема Котельникова выполняется, то непрерывный сигнал Элементы информационной теории измерений может быть восстановлен как сумма базисных функций, называемых рядом Котельникова:

Элементы информационной теории измерений

где Элементы информационной теории измерений — круговая граничная частота спектра непрерывного сигнала Элементы информационной теории измерений ; Элементы информационной теории измерений — период дискретизации; Элементы информационной теории измерений — функция отсчетов.

Ряд Котельникова замечателен тем, что его коэффициенты равны мгновенным дискретизированным значениям сигнала Элементы информационной теории измерений . Он является одним из примеров обобщенного ряда Фурье.

При использовании ряда Котельникова частота дискретизации рассчитывается по формуле Элементы информационной теории измерений , где Элементы информационной теории измерений — коэффициент запаса, выбираемый из диапазона (1,5; 6) и учитывающий неограниченность спектра реальных сигналов; Элементы информационной теории измерений — максимальная частота в спектре сигнала.

При восстановлении сигнала в реальных условиях погрешности естественно возникают и вызваны следующими причинами:

1) реальные сигналы имеют бесконечный спектр частот, а не ограниченный по условию теоремы;

2) мы вынуждены ограничивать число членов ряда Котельникова;

3) дискретизированные значения сигнала не являются мгновенными и т.д.

Сигналы, дискретизированные по времени и квантованные по размеру описываются математическим выражением:

Элементы информационной теории измерений

где Элементы информационной теории измерений — цифровой код (число квантов), соответствующий моменту Элементы информационной теории измерений ; Элементы информационной теории измерений — дельта-функция (функция Дирака); q – постоянная величина.

Вопросы к разделу

1. Чем измерительный сигнал отличается от сигнала?

2. Чем аналоговый, дискретный и цифровой сигналы отличаются друг от друга?

3. Что такое помехи, как они классифицируются?

4. Какие типы математических моделей измерительных сигналов используются в метрологии?

5. Что такое модуляции?

6. Что такое амплитудная, частотная и фазовая модуляции?

7. Что такое амплитудно-импульсная, частотно-импульсная и широтно-импульсная модуляции?

8. Что такое квантование?

9. Что такое погрешность квантования?

10. Что такое дискретизация?

11. Что утверждает теорема Котельникова?

Случайные записи:

Что такое теория СУПЕРСТРУН? Тайна строения Вселенной


Похожие статьи:

Добавьте постоянную ссылку в закладки. Вы можете следить за комментариями через RSS-ленту этой статьи.
Комментарии и трекбеки сейчас закрыты.