Энтропия условная

Возникают и затруднения, относящиеся в основном к определению объемной энтропии машин, станков, оборудования. Но они преодолимы путем расчета т.н. условной энтропии.  [c.129]


Некоторые сторонники бухгалтерской калькуляции считают, что точность отнесения косвенных затрат будет обеспечена, если для распределения различных затрат или менять базы, или же комбинировать их, однако в этом случае условность, неопределенность (энтропия) конечных результатов будет только возрастать.  [c.238]

Мн AI (Ai) - средняя условная энтропия события А.2 при осуществлении события Аь  [c.284]

По аналогии с Н ( ) определяются энтропия распределе ния пары случайных величин и условная энтропия  [c.130]

Величину Я(А / р) называют условной энтропией (при условии, что получено хр).  [c.243]

Тогда условная энтропия, оставшаяся после получения результата. хр, будет равна Хр+Д  [c.244]

Нетрудно показать, что условная энтропия величины, подчиняющейся нормальному распределению с плотностью р Ос) = е — - -j , равна 2п о i  [c.244]

Если событие р независимо от а, то Яа(р) = Н (Р). Если событие р полностью предопределяется событием а, то Яа(р) = 0. В интервале между этими двумя крайними точками зависимость между р и а будет выражаться в изменении вероятностей возможных исходов р и, следовательно, средней условной энтропии Р при условии а. Величина / (а., Р) = Н (Р) — Я (Р) показывает, насколько осуществление а уменьшает неопределённость р, и паз. количеством инфор-м а ц и и, или информацией относительно Р, содержащейся в а. Это определение информации (точнее, количества информации) — одно из основных в Т. и. Гл. свойство этой меры информации чем больше вероятность исхода до осуществления события, тем меньше количество информации, получаемое при его осуществлении. Др. свойства меры количества информации 1) среднее количество информации, содержащееся в событии а относительно самого себя, равно его энтропии  [c.114]


Для оценки производства энтропии а весь процесс можно разбить на стадии. Например, абсорбционно-десорбционный цикл можно условно разбить на стадии тепло- и массопереноса. Оценив снизу производство энтропии сг+ на стадии теплообмена, когда горячий раствор, выходящий из десорбера, отдает свое тепло раствору, поступающему в десорбер, производство энтропии о 2 на стадии абсорбции, <тз на стадии нагрева раствора в десорбере внешним источником и а на стадии  [c.48]

В современной статистической теории информации формула количества информации выражает то разнообразие, которое один объект содержит о другом. Исходным понятием в теории информации считается понятие условной энтропии объекта Хщ>и заданном Y—H(X/Y), которое можно интерпретировать как количество информации, необходимое для задания объекта Xв ситуации, когда объект У уже задан [55, НО]. Р.Л. Стратонович [93] отмечает, что в настоящее время в теории информации соединились три дисциплины  [c.14]

Как видно из сравнения формул (5) и (Т), условная энтропия для нормального распределения погрешности отличается от условной энтропии равномерного распределения только произведением, стояпшм под знаком логарифма. Отсюда вытекает вывод о том, что с информационной точки зрениярезультат, имеющий нормальное распределение погрешности, дает такое же количество информации, как и результат с равномерным распределением погрешности, если только 2Д = v/ 2rrea. При этом дисперсия равномерного распределения на порядок превышает дисперсию нормального распределения.  [c.244]

О проблемах, связанных с использованием вероятностей в риск-менеджменте, я пишу в работе [57]. Отказ от классического понимания вероятности и использование субъективно-аксиологической вероятности есть не что иное как стратегическое отступление науки перед лицом дурной неопределенности. И если раньше мы имели дело в ходе исследования только с финансовой моделью хозяйствующего субъекта, то теперь мы должны верифицировать вероятностную модель, предложенную экспертом, т.е. исследовать познавательную активность и самого эксперта. Вероятности не дают никакой информации о том, как они получены, если не предваряются дополнительными качественными соображениями о принципе вероятностной оценки. Одним из таких принципов, продуктивно использовавшихся до сих пор, является принцип максимума правдоподобия Гиббса-Джейнса [90, 95], который в настоящий момент подвергнут обоснованной критике в связи с тем, что принцип максимума энтропии не обеспечивает автоматически монотонности критерия ожидаемого эффекта. Принцип генерации условных вероятностных оценок Фишберна [95, 98] выдвигает лишь идею назначения точечных оценок вероятностей, удовлетворяющих критерию максимума правдоподобия, однако не существует доказательств полноты выбранного поля сценариев.  [c.32]


Прикладная статистика Исследование зависимостей (1985) -- [ c.130 ]