Некоторые сторонники бухгалтерской калькуляции считают, что точность отнесения косвенных затрат будет обеспечена, если для распределения различных затрат или менять базы, или же комбинировать их, однако в этом случае условность, неопределенность (энтропия) конечных результатов будет только возрастать. [c.238]
Мн AI (Ai) - средняя условная энтропия события А.2 при осуществлении события Аь [c.284]
По аналогии с Н ( ) определяются энтропия распределе ния пары случайных величин и условная энтропия [c.130]
Величину Я(А / р) называют условной энтропией (при условии, что получено хр). [c.243]
Тогда условная энтропия, оставшаяся после получения результата. хр, будет равна Хр+Д [c.244]
Нетрудно показать, что условная энтропия величины, подчиняющейся нормальному распределению с плотностью р Ос) = е — - -j , равна 2п о i [c.244]
Если событие р независимо от а, то Яа(р) = Н (Р). Если событие р полностью предопределяется событием а, то Яа(р) = 0. В интервале между этими двумя крайними точками зависимость между р и а будет выражаться в изменении вероятностей возможных исходов р и, следовательно, средней условной энтропии Р при условии а. Величина / (а., Р) = Н (Р) — Я (Р) показывает, насколько осуществление а уменьшает неопределённость р, и паз. количеством инфор-м а ц и и, или информацией относительно Р, содержащейся в а. Это определение информации (точнее, количества информации) — одно из основных в Т. и. Гл. свойство этой меры информации чем больше вероятность исхода до осуществления события, тем меньше количество информации, получаемое при его осуществлении. Др. свойства меры количества информации 1) среднее количество информации, содержащееся в событии а относительно самого себя, равно его энтропии [c.114]
Для оценки производства энтропии а весь процесс можно разбить на стадии. Например, абсорбционно-десорбционный цикл можно условно разбить на стадии тепло- и массопереноса. Оценив снизу производство энтропии сг+ на стадии теплообмена, когда горячий раствор, выходящий из десорбера, отдает свое тепло раствору, поступающему в десорбер, производство энтропии о 2 на стадии абсорбции, <тз на стадии нагрева раствора в десорбере внешним источником и а на стадии [c.48]
В современной статистической теории информации формула количества информации выражает то разнообразие, которое один объект содержит о другом. Исходным понятием в теории информации считается понятие условной энтропии объекта Хщ>и заданном Y—H(X/Y), которое можно интерпретировать как количество информации, необходимое для задания объекта Xв ситуации, когда объект У уже задан [55, НО]. Р.Л. Стратонович [93] отмечает, что в настоящее время в теории информации соединились три дисциплины [c.14]
Как видно из сравнения формул (5) и (Т), условная энтропия для нормального распределения погрешности отличается от условной энтропии равномерного распределения только произведением, стояпшм под знаком логарифма. Отсюда вытекает вывод о том, что с информационной точки зрениярезультат, имеющий нормальное распределение погрешности, дает такое же количество информации, как и результат с равномерным распределением погрешности, если только 2Д = v/ 2rrea. При этом дисперсия равномерного распределения на порядок превышает дисперсию нормального распределения. [c.244]
О проблемах, связанных с использованием вероятностей в риск-менеджменте, я пишу в работе [57]. Отказ от классического понимания вероятности и использование субъективно-аксиологической вероятности есть не что иное как стратегическое отступление науки перед лицом дурной неопределенности. И если раньше мы имели дело в ходе исследования только с финансовой моделью хозяйствующего субъекта, то теперь мы должны верифицировать вероятностную модель, предложенную экспертом, т.е. исследовать познавательную активность и самого эксперта. Вероятности не дают никакой информации о том, как они получены, если не предваряются дополнительными качественными соображениями о принципе вероятностной оценки. Одним из таких принципов, продуктивно использовавшихся до сих пор, является принцип максимума правдоподобия Гиббса-Джейнса [90, 95], который в настоящий момент подвергнут обоснованной критике в связи с тем, что принцип максимума энтропии не обеспечивает автоматически монотонности критерия ожидаемого эффекта. Принцип генерации условных вероятностных оценок Фишберна [95, 98] выдвигает лишь идею назначения точечных оценок вероятностей, удовлетворяющих критерию максимума правдоподобия, однако не существует доказательств полноты выбранного поля сценариев. [c.32]