Энтропийное значение случайной погрешности


При практическом использовании информационного подхода для оценки точности результатов измерений привычнее использовать не энтропийный интервал неопределенности d, а половину этого интервала, присвоив ей наименование энтропийного значения погрешности Dэ.

Формально это можно сделать так:

откуда

и

Соотношение между энтропийным Dэ и средним квадратическим s значениями погрешности различно для разных законов распределения, и его удобно характеризовать значением энтропийного коэффициента данного закона распределения.

Для равномерного закона распределения (рис.1.20.) интервал неопределенности , следовательно, энтропийная погрешность равна . Т.к. , то , а энтропийный коэффициент k=1.73. Для нормального распределения и k=2.066.

Рис.1.20
Еще К.Шеннон доказал, что максимальное значение энтропийного коэффициента k=2.066 имеет нормальное распределение, а минимальное значение k=1.11 – арксинусоидальное распределение. Остальные законы распределения имеют значение энтропийного коэффициента в этих пределах, т.е. от 1.11 до 2.066.