Энтропия

Количество необходимой информации зависит от энтропии события, разнообразия и неопределенности поведения объекта управления. Ценность информации зависит от ее качества, что определяется характером управляемого объекта. В процессе работы объект управления испытывает внешние воздействия (задания, лимиты, поставки сырья, материально-технических средств, потребность в продукции и др.) и внутренние возмущения (отклонения параметров от нормы, внутренние простои и т. п.).  [c.295]


Разнообразие потоков информации можно измерить энтропией (Н)  [c.295]

Согласно теории информации, наши представления о предмете содержат в себе частичное знание (информацию) и незнание (энтропию). Сумма информации и энтропии является постоянной величиной и представляет собой все сведения, полностью характеризующие состояние предмета, процесса или системы в целом.  [c.251]

Особенно сложными являются вопросы регулирования и координации производства, которые направлены на приведение системы каждый раз, когда происходит отклонение от заданных параметров, в состояние, соответствующее плановому. Как известно, окружающая среда, внешние факторы (например, поставки материалов, предоставление транспорта и др.) оказывают иногда нежелательное воздействие на производство и выполнение стоящих перед предприятием задач. Еще большей потребности в регулировании и координации требует внутреннее отклонение, вызванное отставанием каких-то звеньев производства от запланированного плана-графика работ по тем или иным причинам. Поэтому регулирование призвано уменьшить энтропию, а координация — обеспечивать правильное соотношение субъектов управления.  [c.254]


В 1982 г. из чисто экономических соображений был выведен принцип селекции (отбора) технологий и средств труда наивысшей эффективности [14]. Он исходил из того, что наиболее высокоорганизованные системы (технические процессы, системы машин и аппаратов, высококачественные предметы потребления) должны характеризоваться максимальным отношением объемной плотности энергии к объемной энтропии. Аналитически он выражен следующим образом  [c.128]

S - объемная энтропия системы.  [c.129]

Возникают и затруднения, относящиеся в основном к определению объемной энтропии машин, станков, оборудования. Но они преодолимы путем расчета т.н. условной энтропии.  [c.129]

Повышение технического уровня производства — это материализация научной информации о механизме протекания данного технологического процесса, приводящая к уменьшению неопределенности в его направленности и результатах, то есть в энтропии.  [c.103]

Понижение энтропии достигается применением массы затрат общественного труда, разделенных в определенной пропорции между текущими издержками и капитальными вложениями в основные фонды. Их сумма имеет естественный нижний предел, существование которого вытекает из соотношения  [c.103]

Второй предлагаемый тезис связан с законом сохранения суммы объемов энтропии и негэнтропии (в некотором системном пространстве), сформулированным в виде соотношения  [c.261]

Из соотношения следует, например, что переход России на новый, более высокий уровень организованности однозначно связан с так называемым выбросом энтропии , т. е. с проявлением беспорядка в той или иной точке пространства в тот или иной момент времени. В частности, предоставление более широкого спектра прав субъектам федерации соответствует более демократической организации социума и, следовательно, приведет к неким выбросам энтропии — таким, как современная ситуация на Кавказе, забастовочные действия в некоторых отраслях промышленности, социальной сфере и т. п.  [c.261]


Поскольку для поддержания существования высокоорганизованных промышленных, производственных, городских, социальных структур необходимо выбрасывать энтропию, т. е. выбрасывать хаос, то принципиально при существующих технологиях невозможно избежать порчи природы (разрушения ее естественного порядка).  [c.268]

Вывод необходимы принципиально новые технологии и способы производства, основанные на новых законах — без выбрасывания энтропии  [c.268]

Закон накопления энтропии в области информационного производства  [c.268]

Всякое использование средств САПР приводит к упорядочению организационно-технических структур и методов переработки информации. Установление регулярной структуры в замкнутой системе, приводит к накоплению энтропии. При достаточно длительном времени функционирования системы формируется масса трудно разрешимых противоречий, приводящих к разрушению системы.  [c.268]

Следствие. Длительно функционирующие системы должны быть либо открытыми, либо построенными по принципу утилизации энтропии систем другой системой при проектировании и увязке различного рода систем необходимо компоновать системы либо открытыми, либо так, чтобы энтропия одной системы служила строительным материалом другой.  [c.268]

В качестве меры количества информации в теории управления, как известно, принята мера неопределенности Н, выраженная через энтропию  [c.231]

Но это не единственные принципы отбора, которые известны в физике. Второй закон термодинамики, принцип минимума диссипации энергии, принцип устойчивости и многие другие законы сужают множество возможных явлений. Они хорошо известны в современной физике. Эти принципы отбора, которые лежат в основе любого формализованного (т. е. на основе математических моделей) описания физических процессов, превращают систему моделей физики в стройную конструкцию. Помимо огромного практического значения такая структуризация имеет и большое философское, гносеологическое значение. Благодаря ей процессы, протекающие в неживой природе, предстают перед нами в диалектическом единстве двух противоречивых тенденций. Во-первых, непрерывно происходит разрушение организации материи — рост энтропии. Во-вторых, среди всех мыслимых процессов реально возможны лишь те, в которых эта организация сохраняется наилучшим образом.  [c.8]

Принцип динамичности. Обусловлен появлением энтропии производства при выпуске новой продукции, что отражается на технико-экономических показателях изделий и предприятия. В результате целенаправленных организующих воздействий изменяется уровень энтропии, что приводит к динамике показателей производства. По мере роста упорядоченности производства (уменьшения энтропии) показатели, отражающие удельное потребление всех видов ресурсов, стабилизируются на определенном уровне, что свидетельствует об окончании периода промышленного освоения.  [c.123]

Комментарий. Любая переоценка, особенно в условиях инфляции, искажает леверидж, причем если переоценка проводится в сторону увеличения стоимости актива — это улучшает значение левериджа (создается впечатление, что собственных средств стало больше), если же переоценка проводится в сторону уменьшения стоимости актива, — это ухудшает значение левериджа (создается впечатление, что собственных средств стало меньше). Все изложенное позволяет сделать вывод о том, что при решении учетных задач и трансформации V -> W всегда возникает противоречие между логической жесткостью выбранной бухгалтерской процедуры и самой жизнью. Ее, жизнь, очень трудно втиснуть в процедурные рамки и отсюда возникают парадоксы, ибо процедура искажает, если не саму жизнь, то наши представления о ней, а это не может не влиять на принятие управленческих решений администраторами, на решения инвесторов (покупать или не покупать ценные бумаги фирмы) и на решения кредиторов. Все три группы лиц вынуждены принимать свои решения в условиях большой неопределенности — энтропии и, следовательно, чем больше искажений привносят бухгалтерские парадоксы в бухгалтерскую процедуру, тем больше рискуют лица, принимающие решения.  [c.79]

Энтропия лежит в основе почти всех принимаемых решений и порождает риск от их последствий. Минимизировать риск решений, принимаемых пользователями данных счетоводства, — это и есть основная задача счетоведения.  [c.88]

Некоторые сторонники бухгалтерской калькуляции считают, что точность отнесения косвенных затрат будет обеспечена, если для распределения различных затрат или менять базы, или же комбинировать их, однако в этом случае условность, неопределенность (энтропия) конечных результатов будет только возрастать.  [c.238]

Как уже отмечалось, риск проекта во многих случаях вызывается неполнотой и неточностью исходной информации, имеющейся на момент разработки проекта. Показателем, отражающим связь количества получаемой информации со степенью неопределенности знаний о ходе реализации проекта, является энтропия. Энтропия характеризует меру неопределенности события, явления, процесса. В основу этого понятия было положено формальное сходство энтропии событий с ее термодинамическим аналогом.  [c.283]

Для случая, в котором вместо ансамбля конечного числа возможных исходов (дискретный случай) рассматривается случайная непрерывная величина X и плотность ее распределения f (x), энтропию можно определить по формуле  [c.283]

С помощью понятия энтропии оказывается возможным определить количество информации, получение которой позволит уменьшить риск проектного решения. Под количеством информации понимают меру того нового, что узнают о вероятном исходе события А2 после того, как становится известен исход Аь  [c.283]

Мн AI (Ai) - средняя условная энтропия события А.2 при осуществлении события Аь  [c.284]

Разность априорной и апостериорной энтропии  [c.148]

К. Шенноном [44] было введено понятие количества информации как меры неопределенности состояния системы, снимаемой при получении информации. Количественно выраженная неопределенность состояния получила название энтропии по аналогии с подобным понятием в статистической механике. При получении информации уменьшается неопределенность, т. е. энтропия, системы. Очевидно, что, чем больше информации получает наблюдатель, тем больше снимается неопределенность, и энтропия системы уменьшается. При энтропии, равной нулю, о системе имеется полная информация, и наблюдателю она представляется целиком упорядоченной. Таким образом, получение информации связано с изменением степени неосведомленности получателя о состоянии этой системы.  [c.20]

До получения информации ее получатель мог иметь некоторые предварительные (априорные) сведения о системе X. Оставшаяся неосведомленность и является для него мерой неопределенности состояния (энтропией) системы. Обозначим  [c.20]

Если апостериорная энтропия системы обратится в нуль, то первоначально неполное знание заменится полным знанием и количество информации, полученной в этом случае наблюдателем, будет  [c.21]

Если система X обладает дискретными состояниями (т.е. переходит из состояния в состояние скачком), их количество равно N, а вероятность нахождения системы в каждом из состояний - Р,, Р2, Р3,. ..,PN (причем ЗД =1 и Р 1), то согласно теореме Шеннона энтропия системы Н(Х) равна  [c.21]

Знак минус поставлен для того, чтобы значение энтропии было положительным, так как Р , < 1 и логарифм в этом случае отрицательный. .  [c.22]

Если все состояния системы равновероятны, т. е. Р, = —, ее энтропия  [c.22]

Начнем с характеристики терминов. Несколько упрощая, будем считать, что эволюция - это такие изменения во времени, в которых будущее отличается от прошлого (нарушается симметрия между прошлым и будущим). Информацию будем понимать как отрицательную энтропию (Бриллюэн, 1958), т.е. как нечто, уменьшающее неопределенность. Для анализа взаимной связи этих понятий рассмотрим два простых примера, в одном из которых эволюция отсутствует, а в другом присутствует.  [c.4]

В качестве второго примера возьмем п материальных точек, каждая из которых движется по второму закону Ньютона. Считая эту систему термодинамически замкнутой и применяя к ней классическую термодинамику, мы приходим к выводу, что она эволюционирует к состоянию термодинамического равновесия, которое одновременно является состоянием с наибольшей энтропией (наименьшей информацией). Равновесное будущее такой системы отличается от ее неравновесного прошлого.  [c.4]

Однако не всегда эволюционные процессы происходят таким образом. Сформулируем более общее утверждение о роли информации в эволюции Подобно тому, как полная энергия (сумма положительной и отрицательной энергии) Вселенной во многих современных исследованиях (см., например, Хокинг, 1988) считается равной нулю, то полную энтропию (сумму положительной и отрицательной энтропии, т.е. энтропии и информации) во Вселенной также можно принять равной нулю. Отсюда следует, что эволюционные процессы во Вселенной, идущие с возрастанием положительной энтропии, уравновешиваются эволюционными процессами, увеличивающими отрицательную энтропию, или информацию. Примером первых может послужить переход системы в тепловое равновесие. Примером вторых являются социальные процессы.  [c.5]

Потоки информации, необходимые для управления и ириня гня решении, должны быть минимальными. Вместе с тем информация для любого уровня управления должна быть достаточной для принятия правильного управленческого решения. В качестве меры количества информации в теории управления принята мера неопределенности, выраженная через энтропию.  [c.361]

Климонтович Ю.Л. Уменьшение энтропии в процессе самоорганизации. S-теорема // Письма в журнал технической физики. - 1983. - Т.8.  [c.209]

Логическое обоснование предполагает прежде всего опору на теорию вероятностей. Решение принимается почти всегда в условиях неопределенности (энтропии), и чем выше неопределенность, тем труднее принять решение и тем больше риск его последствий. "Ни один человек на свете, — писал Н.С. Лесков (1831—1895), — не может себе всего представить, что может быть при большой ажидации". А последствия ошибочного решения могут быть существенны как в финансовом, так и в политико-социальном смысле.  [c.943]

Элементарный факт не существует в безвоздушном пространстве — это одна из песчинок в мощном потоке хозяйственного процесса, который безостановочно развивается во времени. Центральным моментом здесь является понятие теперь (to), которое отделяет совершившиеся факты от ожидаемых. Теперь — начало временных координат, мы можем его произвольно переносить в будущее время и практически не можем сдвигать в прошедшее, ибо совершившийся факт не повторится вновь, он индивидуален и неповторим по своей сути (прошлое никогда не возвращается), но ожидаемый факт может быть изменен. Например, мы можем наперед определить ежемесячную сумму амортизационных отчислений и в спучае необходимости изменить ее, мы можем с той или иной степенью вероятности предвидеть поступление материалов в будущем месяце и почти достоверно знаем сумму выплачиваемой зарплаты на месяц вперед прошлое предопределенно, будущее носит стохастический характер. Поэт Валерий Брюсов (1873—1924) писал Будущее прикрыто прослойкой тумана , большой неопределенностью, или используя термин современной науки, можно назвать высокой энтропией (Н).  [c.86]

Линия — t + t представляет направленный поток фактов хозяйственной жизни — F, на которые распадается хозяйственный процесс. AtoB отражает Н — область (спектр) возможностей, которые были в прошлом при совершении хозяйственных операций, плоскость t0D — то же, но в будущем. Энтропия (Н в момент совершения операций (to) равна нулю, но она стремительно возрастает и при анализе имевшихся возможностей, и при подсчете возможных вариантов в будущем. Так, если за Fa через интервал, который не слишком мал, следует F/,, то можно утверждать, что энтропия HI, > Ha. Энтропия, таким образом, раскрывает математическую сущность потенциальности F, она, следовательно, отражает уменьшение наших знаний о F по мере возрастания Af, связанного с удалением от /0. Необходимо отметить, что в момент t0F обладает существованием и сущностью, в моменты + t все F обладают сущностью, не обладая существованием, в моменты -t один ряд обладает сущностью и бесконечное число F не обладают ею.  [c.87]

С понятием информации связана количественная мера информации. На синтаксическом уровне принято употреблять термин данные , для которых используется понятие объема данных (число экземпляров документов, количество доку-ментострок, записей файлов, символов, байтов и т. п.). Данные — это сырье для получения информации согласно определенным целям обработки. Термин информация означает устранение неопределенности путем преобразования данных. Противоположный по смыслу термин — энтропия , являющаяся мерой этой неопределенности. Информативность сообщений тем выше, чем более определенным становится для получателя информации состояние системы. Семантическая мера информации — содержательность основана на наличии тезауруса системы. Тезаурус содержит взаимоувязанные понятия, термины, определения, согласованные структуры данных логического уровня представления (базы данных, формы документов, технико-экономические показатели. Тезаурус выражает знания о системе. Новая информация воспринимается через тезаурус, который может пополняться новыми элементами. При этом информативность сообщений зависит во многом от получателя, способного расширить свой тезаурус.  [c.24]

Экономико-математический словарь Изд.5 (2003) -- [ c.133 , c.427 ]

Прикладная статистика Исследование зависимостей (1985) -- [ c.129 , c.130 ]

Методы и модели управления фирмой (2001) -- [ c.180 ]