Разнообразие потоков информации можно измерить энтропией (Н) [c.295]
Согласно теории информации, наши представления о предмете содержат в себе частичное знание (информацию) и незнание (энтропию). Сумма информации и энтропии является постоянной величиной и представляет собой все сведения, полностью характеризующие состояние предмета, процесса или системы в целом. [c.251]
Особенно сложными являются вопросы регулирования и координации производства, которые направлены на приведение системы каждый раз, когда происходит отклонение от заданных параметров, в состояние, соответствующее плановому. Как известно, окружающая среда, внешние факторы (например, поставки материалов, предоставление транспорта и др.) оказывают иногда нежелательное воздействие на производство и выполнение стоящих перед предприятием задач. Еще большей потребности в регулировании и координации требует внутреннее отклонение, вызванное отставанием каких-то звеньев производства от запланированного плана-графика работ по тем или иным причинам. Поэтому регулирование призвано уменьшить энтропию, а координация — обеспечивать правильное соотношение субъектов управления. [c.254]
В 1982 г. из чисто экономических соображений был выведен принцип селекции (отбора) технологий и средств труда наивысшей эффективности [14]. Он исходил из того, что наиболее высокоорганизованные системы (технические процессы, системы машин и аппаратов, высококачественные предметы потребления) должны характеризоваться максимальным отношением объемной плотности энергии к объемной энтропии. Аналитически он выражен следующим образом [c.128]
S - объемная энтропия системы. [c.129]
Возникают и затруднения, относящиеся в основном к определению объемной энтропии машин, станков, оборудования. Но они преодолимы путем расчета т.н. условной энтропии. [c.129]
Повышение технического уровня производства — это материализация научной информации о механизме протекания данного технологического процесса, приводящая к уменьшению неопределенности в его направленности и результатах, то есть в энтропии. [c.103]
Понижение энтропии достигается применением массы затрат общественного труда, разделенных в определенной пропорции между текущими издержками и капитальными вложениями в основные фонды. Их сумма имеет естественный нижний предел, существование которого вытекает из соотношения [c.103]
Второй предлагаемый тезис связан с законом сохранения суммы объемов энтропии и негэнтропии (в некотором системном пространстве), сформулированным в виде соотношения [c.261]
Из соотношения следует, например, что переход России на новый, более высокий уровень организованности однозначно связан с так называемым выбросом энтропии , т. е. с проявлением беспорядка в той или иной точке пространства в тот или иной момент времени. В частности, предоставление более широкого спектра прав субъектам федерации соответствует более демократической организации социума и, следовательно, приведет к неким выбросам энтропии — таким, как современная ситуация на Кавказе, забастовочные действия в некоторых отраслях промышленности, социальной сфере и т. п. [c.261]
Поскольку для поддержания существования высокоорганизованных промышленных, производственных, городских, социальных структур необходимо выбрасывать энтропию, т. е. выбрасывать хаос, то принципиально при существующих технологиях невозможно избежать порчи природы (разрушения ее естественного порядка). [c.268]
Вывод необходимы принципиально новые технологии и способы производства, основанные на новых законах — без выбрасывания энтропии [c.268]
Закон накопления энтропии в области информационного производства [c.268]
Всякое использование средств САПР приводит к упорядочению организационно-технических структур и методов переработки информации. Установление регулярной структуры в замкнутой системе, приводит к накоплению энтропии. При достаточно длительном времени функционирования системы формируется масса трудно разрешимых противоречий, приводящих к разрушению системы. [c.268]
Следствие. Длительно функционирующие системы должны быть либо открытыми, либо построенными по принципу утилизации энтропии систем другой системой при проектировании и увязке различного рода систем необходимо компоновать системы либо открытыми, либо так, чтобы энтропия одной системы служила строительным материалом другой. [c.268]
В качестве меры количества информации в теории управления, как известно, принята мера неопределенности Н, выраженная через энтропию [c.231]
Но это не единственные принципы отбора, которые известны в физике. Второй закон термодинамики, принцип минимума диссипации энергии, принцип устойчивости и многие другие законы сужают множество возможных явлений. Они хорошо известны в современной физике. Эти принципы отбора, которые лежат в основе любого формализованного (т. е. на основе математических моделей) описания физических процессов, превращают систему моделей физики в стройную конструкцию. Помимо огромного практического значения такая структуризация имеет и большое философское, гносеологическое значение. Благодаря ей процессы, протекающие в неживой природе, предстают перед нами в диалектическом единстве двух противоречивых тенденций. Во-первых, непрерывно происходит разрушение организации материи — рост энтропии. Во-вторых, среди всех мыслимых процессов реально возможны лишь те, в которых эта организация сохраняется наилучшим образом. [c.8]
Принцип динамичности. Обусловлен появлением энтропии производства при выпуске новой продукции, что отражается на технико-экономических показателях изделий и предприятия. В результате целенаправленных организующих воздействий изменяется уровень энтропии, что приводит к динамике показателей производства. По мере роста упорядоченности производства (уменьшения энтропии) показатели, отражающие удельное потребление всех видов ресурсов, стабилизируются на определенном уровне, что свидетельствует об окончании периода промышленного освоения. [c.123]
Комментарий. Любая переоценка, особенно в условиях инфляции, искажает леверидж, причем если переоценка проводится в сторону увеличения стоимости актива — это улучшает значение левериджа (создается впечатление, что собственных средств стало больше), если же переоценка проводится в сторону уменьшения стоимости актива, — это ухудшает значение левериджа (создается впечатление, что собственных средств стало меньше). Все изложенное позволяет сделать вывод о том, что при решении учетных задач и трансформации V -> W всегда возникает противоречие между логической жесткостью выбранной бухгалтерской процедуры и самой жизнью. Ее, жизнь, очень трудно втиснуть в процедурные рамки и отсюда возникают парадоксы, ибо процедура искажает, если не саму жизнь, то наши представления о ней, а это не может не влиять на принятие управленческих решений администраторами, на решения инвесторов (покупать или не покупать ценные бумаги фирмы) и на решения кредиторов. Все три группы лиц вынуждены принимать свои решения в условиях большой неопределенности — энтропии и, следовательно, чем больше искажений привносят бухгалтерские парадоксы в бухгалтерскую процедуру, тем больше рискуют лица, принимающие решения. [c.79]
Энтропия лежит в основе почти всех принимаемых решений и порождает риск от их последствий. Минимизировать риск решений, принимаемых пользователями данных счетоводства, — это и есть основная задача счетоведения. [c.88]
Некоторые сторонники бухгалтерской калькуляции считают, что точность отнесения косвенных затрат будет обеспечена, если для распределения различных затрат или менять базы, или же комбинировать их, однако в этом случае условность, неопределенность (энтропия) конечных результатов будет только возрастать. [c.238]
Как уже отмечалось, риск проекта во многих случаях вызывается неполнотой и неточностью исходной информации, имеющейся на момент разработки проекта. Показателем, отражающим связь количества получаемой информации со степенью неопределенности знаний о ходе реализации проекта, является энтропия. Энтропия характеризует меру неопределенности события, явления, процесса. В основу этого понятия было положено формальное сходство энтропии событий с ее термодинамическим аналогом. [c.283]
Для случая, в котором вместо ансамбля конечного числа возможных исходов (дискретный случай) рассматривается случайная непрерывная величина X и плотность ее распределения f (x), энтропию можно определить по формуле [c.283]
С помощью понятия энтропии оказывается возможным определить количество информации, получение которой позволит уменьшить риск проектного решения. Под количеством информации понимают меру того нового, что узнают о вероятном исходе события А2 после того, как становится известен исход Аь [c.283]
Мн AI (Ai) - средняя условная энтропия события А.2 при осуществлении события Аь [c.284]
Разность априорной и апостериорной энтропии [c.148]
К. Шенноном [44] было введено понятие количества информации как меры неопределенности состояния системы, снимаемой при получении информации. Количественно выраженная неопределенность состояния получила название энтропии по аналогии с подобным понятием в статистической механике. При получении информации уменьшается неопределенность, т. е. энтропия, системы. Очевидно, что, чем больше информации получает наблюдатель, тем больше снимается неопределенность, и энтропия системы уменьшается. При энтропии, равной нулю, о системе имеется полная информация, и наблюдателю она представляется целиком упорядоченной. Таким образом, получение информации связано с изменением степени неосведомленности получателя о состоянии этой системы. [c.20]
До получения информации ее получатель мог иметь некоторые предварительные (априорные) сведения о системе X. Оставшаяся неосведомленность и является для него мерой неопределенности состояния (энтропией) системы. Обозначим [c.20]
Если апостериорная энтропия системы обратится в нуль, то первоначально неполное знание заменится полным знанием и количество информации, полученной в этом случае наблюдателем, будет [c.21]
Если система X обладает дискретными состояниями (т.е. переходит из состояния в состояние скачком), их количество равно N, а вероятность нахождения системы в каждом из состояний - Р,, Р2, Р3,. ..,PN (причем ЗД =1 и Р 1), то согласно теореме Шеннона энтропия системы Н(Х) равна [c.21]
Знак минус поставлен для того, чтобы значение энтропии было положительным, так как Р , < 1 и логарифм в этом случае отрицательный. . [c.22]
Если все состояния системы равновероятны, т. е. Р, = —, ее энтропия [c.22]
Начнем с характеристики терминов. Несколько упрощая, будем считать, что эволюция - это такие изменения во времени, в которых будущее отличается от прошлого (нарушается симметрия между прошлым и будущим). Информацию будем понимать как отрицательную энтропию (Бриллюэн, 1958), т.е. как нечто, уменьшающее неопределенность. Для анализа взаимной связи этих понятий рассмотрим два простых примера, в одном из которых эволюция отсутствует, а в другом присутствует. [c.4]
В качестве второго примера возьмем п материальных точек, каждая из которых движется по второму закону Ньютона. Считая эту систему термодинамически замкнутой и применяя к ней классическую термодинамику, мы приходим к выводу, что она эволюционирует к состоянию термодинамического равновесия, которое одновременно является состоянием с наибольшей энтропией (наименьшей информацией). Равновесное будущее такой системы отличается от ее неравновесного прошлого. [c.4]
Однако не всегда эволюционные процессы происходят таким образом. Сформулируем более общее утверждение о роли информации в эволюции Подобно тому, как полная энергия (сумма положительной и отрицательной энергии) Вселенной во многих современных исследованиях (см., например, Хокинг, 1988) считается равной нулю, то полную энтропию (сумму положительной и отрицательной энтропии, т.е. энтропии и информации) во Вселенной также можно принять равной нулю. Отсюда следует, что эволюционные процессы во Вселенной, идущие с возрастанием положительной энтропии, уравновешиваются эволюционными процессами, увеличивающими отрицательную энтропию, или информацию. Примером первых может послужить переход системы в тепловое равновесие. Примером вторых являются социальные процессы. [c.5]
Потоки информации, необходимые для управления и ириня гня решении, должны быть минимальными. Вместе с тем информация для любого уровня управления должна быть достаточной для принятия правильного управленческого решения. В качестве меры количества информации в теории управления принята мера неопределенности, выраженная через энтропию. [c.361]
Климонтович Ю.Л. Уменьшение энтропии в процессе самоорганизации. S-теорема // Письма в журнал технической физики. - 1983. - Т.8. [c.209]
Логическое обоснование предполагает прежде всего опору на теорию вероятностей. Решение принимается почти всегда в условиях неопределенности (энтропии), и чем выше неопределенность, тем труднее принять решение и тем больше риск его последствий. "Ни один человек на свете, — писал Н.С. Лесков (1831—1895), — не может себе всего представить, что может быть при большой ажидации". А последствия ошибочного решения могут быть существенны как в финансовом, так и в политико-социальном смысле. [c.943]
Элементарный факт не существует в безвоздушном пространстве — это одна из песчинок в мощном потоке хозяйственного процесса, который безостановочно развивается во времени. Центральным моментом здесь является понятие теперь (to), которое отделяет совершившиеся факты от ожидаемых. Теперь — начало временных координат, мы можем его произвольно переносить в будущее время и практически не можем сдвигать в прошедшее, ибо совершившийся факт не повторится вновь, он индивидуален и неповторим по своей сути (прошлое никогда не возвращается), но ожидаемый факт может быть изменен. Например, мы можем наперед определить ежемесячную сумму амортизационных отчислений и в спучае необходимости изменить ее, мы можем с той или иной степенью вероятности предвидеть поступление материалов в будущем месяце и почти достоверно знаем сумму выплачиваемой зарплаты на месяц вперед прошлое предопределенно, будущее носит стохастический характер. Поэт Валерий Брюсов (1873—1924) писал Будущее прикрыто прослойкой тумана , большой неопределенностью, или используя термин современной науки, можно назвать высокой энтропией (Н). [c.86]
Линия — t + t представляет направленный поток фактов хозяйственной жизни — F, на которые распадается хозяйственный процесс. AtoB отражает Н — область (спектр) возможностей, которые были в прошлом при совершении хозяйственных операций, плоскость t0D — то же, но в будущем. Энтропия (Н в момент совершения операций (to) равна нулю, но она стремительно возрастает и при анализе имевшихся возможностей, и при подсчете возможных вариантов в будущем. Так, если за Fa через интервал, который не слишком мал, следует F/,, то можно утверждать, что энтропия HI, > Ha. Энтропия, таким образом, раскрывает математическую сущность потенциальности F, она, следовательно, отражает уменьшение наших знаний о F по мере возрастания Af, связанного с удалением от /0. Необходимо отметить, что в момент t0F обладает существованием и сущностью, в моменты + t все F обладают сущностью, не обладая существованием, в моменты -t один ряд обладает сущностью и бесконечное число F не обладают ею. [c.87]
С понятием информации связана количественная мера информации. На синтаксическом уровне принято употреблять термин данные , для которых используется понятие объема данных (число экземпляров документов, количество доку-ментострок, записей файлов, символов, байтов и т. п.). Данные — это сырье для получения информации согласно определенным целям обработки. Термин информация означает устранение неопределенности путем преобразования данных. Противоположный по смыслу термин — энтропия , являющаяся мерой этой неопределенности. Информативность сообщений тем выше, чем более определенным становится для получателя информации состояние системы. Семантическая мера информации — содержательность основана на наличии тезауруса системы. Тезаурус содержит взаимоувязанные понятия, термины, определения, согласованные структуры данных логического уровня представления (базы данных, формы документов, технико-экономические показатели. Тезаурус выражает знания о системе. Новая информация воспринимается через тезаурус, который может пополняться новыми элементами. При этом информативность сообщений зависит во многом от получателя, способного расширить свой тезаурус. [c.24]
Смотреть страницы где упоминается термин Энтропия
: [c.129] [c.67] [c.102] [c.12] [c.228] [c.284] [c.148] [c.21] [c.21]Прикладная статистика Исследование зависимостей (1985) -- [ c.129 , c.130 ]
Методы и модели управления фирмой (2001) -- [ c.180 ]