Шеннон

Хотя некоторые модели, используемые наукой управления, настолько сложны, что без компьютера обойтись невозможно, концепция моделирования проста. По определению Шеннона МОДЕЛЬ — это представление объекта, системы или идеи в некоторой форме, отличной от самой целостности . Схема организации, к примеру, это и есть модель, представляющая ее структуру. Все теории управления, описанные в данной книге, суть модели работы организации или какой-либо ее подсистемы. Вы скоро убедитесь, что существует много других примеров моделей, с которыми вы уже знакомы.  [c.222]


ФИЗИЧЕСКАЯ МОДЕЛЬ. Физическая модель представляет то, что исследуется, с помощью увеличенного или уменьшенного описания объекта или системы. Как указывает Шеннон Отличительная характеристика физической (называемой иногда портретной ) модели состоит в том, что в некотором смысле она выглядит как моделируемая целостность ,  [c.225]

ПОСТАНОВКА ЗАДАЧИ. Первый и наиболее важный этап построения модели, способный обеспечить правильное решение управленческой проблемы, состоит в постановке задачи. Правильное использование математики или компьютера не принесет никакой пользы, если сама проблема не будет точно диагностирована. Согласно Шеннону Альберт Эйнштейн однажды сказал, что правильная постановка задачи важнее даже, чем ее решение. Для нахождения приемлемого или оптимального решения задачи нужно знать, в чем она состоит. Как ни просто и прозрачно данное утверждение, чересчур многие специалисты в науке управления игнорируют очевидное. Миллионы долларов расходуются ежегодно на поиск элегантных и глубокомысленных ответов на неверно поставленные вопросы 0.  [c.226]


Заслуга К.Шеннона состоит в том, что его теория информации позволила ввести в науку и практику количественную меру информации и явилась созданием новой отрасли знания - теории информации.  [c.18]

К. Шенноном [44] было введено понятие количества информации как меры неопределенности состояния системы, снимаемой при получении информации. Количественно выраженная неопределенность состояния получила название энтропии по аналогии с подобным понятием в статистической механике. При получении информации уменьшается неопределенность, т. е. энтропия, системы. Очевидно, что, чем больше информации получает наблюдатель, тем больше снимается неопределенность, и энтропия системы уменьшается. При энтропии, равной нулю, о системе имеется полная информация, и наблюдателю она представляется целиком упорядоченной. Таким образом, получение информации связано с изменением степени неосведомленности получателя о состоянии этой системы.  [c.20]

Если система X обладает дискретными состояниями (т.е. переходит из состояния в состояние скачком), их количество равно N, а вероятность нахождения системы в каждом из состояний - Р,, Р2, Р3,. ..,PN (причем ЗД =1 и Р 1), то согласно теореме Шеннона энтропия системы Н(Х) равна  [c.21]

Итак, емкость канала ограничивается двумя величинами шириной полосы канала и шумом. Приведенное соотношение известно как формула Хартли-Шеннона и считается основной в теории информации.  [c.185]

Емкость канала является максимальной величиной скорости. Чтобы достигнуть такой скорости передачи, информация должна быть закодирована наиболее эффективным образом. Утверждение, что такое кодирование возможно, является важнейшим результатом созданной Шенноном теории информации. Шеннон доказал принципиальную возможность такого эффективного кодирования, не определив, однако, конкретных  [c.185]


К.Э.Шеннон, Р.А.Фишер и Н.Винер предложили статистическое оп-  [c.40]

С точки зрения количественных теорий информации (Шеннон,  [c.81]

По теореме Шеннона если энтропия источника Н(Х) мень-  [c.336]

Примерно такие рассуждения привели в 40-х гг. XX в. к возникновению статистической, или "классической", теории И., которая определяет понятие И. через меру уменьшения неопределенности знания о свершении какого-либо события (такая мера была названа энтропией). У истоков этой науки стояли Н. Винер, К. Шеннон и советские ученые А.Н. Колмогоров, В.А. Котельников и др. Им удалось вывести математические закономерности измерения количества И., а отсюда и такие понятия, как пропускная способность канала И., емкость запоминающих И. устройств и т.п., что послужило мощным стимулом к развитию кибернетики как науки и электронно-вычислительной техники как практического применения достижений кибернетики.  [c.133]

Как правило, имитационное моделирование осуществляется с помощью компьютеров. Условия, при которых рекомендуется применять имитационное моделирование, приведены в работе Р. Шеннона "Имитационное моделирование систем — наука и искусство". Перечислим основные из них.  [c.104]

Описание достоинств и недостатков имитационного моделирования можно завершить словами Р. Шеннона "Разработка и применение имитационных моделей в большей степени искусство, чем наука. Следовательно, успех или неудача в большей степени зависит не от метода, а от того, как он применяется"1.  [c.105]

См. Шеннон Р. Имитационное моделирование систем — искусство и наука. — М. Мир, 1978. С. 182.  [c.470]

Информация в точно определенном смысле впервые была введена в статистике Р. Фишером [138]. К. Шеннон [109] и Н. Винер [16] независимо друг от друга опубликовали в 1948 г. работы, в которых описали логарифмические меры информации для использования их в теории связи. Их труды стимулировали огромное количество исследований на темы теории информации.  [c.13]

Информационная мера Шеннона-Винера является универсальной статистикой. Так, в работе [137] доказана эквивалентность дисперсионного и информационного анализов и что мощность статистики Н не уступает мощности X2 -статистики.  [c.14]

В статье К. Шеннона "Математическая теория связи" [109] впервые было введено понятие "энтропия" — количественная мера неопределенности, связанная со случайными событиями. Достаточно быстро это понятие переросло теорию и практику связи и стало успешно использоваться во многих областях математики. Его применение к динамическим системам А.Н. Колмогоровым и Я.Г. Синаем [46, 51, 86, 87] привело к решению проблемы эргодической теории, к введению нового инварианта гладких динамических систем и уточнению некоторых положений классической статистической механики [63, 80].  [c.18]

Шеннон К. Работы по теории информации и кибернетике. — М. ИЛ, 1963.  [c.201]

Существует несколько теорий информации, среди которых наиболее разработанной является вероятностная теория информации, предложенная английским ученым Шенноном в начале 40—х годов. .  [c.137]

ПРИМЕНЕНИЕ МОДЕЛИ. После проверки на достоверность модель готова к использованию. Как говорит Шеннон, ни одну модель науки управления нельзя считать успешно выстроенной, пока она не принята, не понята и не применена на практике . Это кажется очевидным, но зачастую оказывается одним из самых тревожных моментов построения модели. Согласно одному обследованию отделов, анализирующих операции на корпоративном уровне, лишь около 60% моделей науки управления были использованы в полной или почти полной мере. В других обследованиях также установлено, что финансовые руководители американских корпораций и западноевропейские управляющие маркетингом недостаточно широко используют модели для принятия решений1. Основная причина недоиспользования моделей руководителями, которые должны их применять, возможно заключается в том, что они их опасаются или не понимают.  [c.228]

Создателем новой отрасли знания - теории информации - являете американский инженер и ученый Клод Шеннон, опубликовавший в 1948 г статью "Математическая теория связи". Эта теория - фундаментальные вклад в современную науку. Теория К.Шеннона получила название веро ятностно-статистической. Согласно этой теории информация есть харак теристика не сообщения, а соотношения между сообщением и его по требителем. Информация - это уменьшение неопределенности в пред ставлениях потребителя сообщения об источнике информации. Если со общение не снимает неопределенности, то оно не содержит информа ции.если же сообщение позволяет более определенно знать предмет, тс  [c.17]

Статистический подход. Он изучается в обширном разделе кибернетики, называемом теорией информации. Основоположником этого подхода считается К. Шеннон, опубликовавший в 1948 г. свою математическую теорию связи. Большой вклад в теорию информации до него внесли ученые Найквист и Хартли, которые соответственно в 1924 и 1928 гг. напечатали работы по теории телеграфии и передаче информации. Признаны во всем мире исследования по теории информации российских ученых А.Н. Колмогорова, А.Я. Хинчина, В.А. Ко-тельникова, А.А. Харкевича и др.  [c.20]

Прагматический подход. Он определяет количество информации как меру, способствующую достижению поставленной цели. Одной из первых работ, реализующих этот подход, явилась статья А. А. Харкевича. В ней он предлагал принять за меру ценности информации количество информации, необходимое для достижения поставленной цели. Этот подход базируется на статистической теории Шеннона и рассматривает количество информации как приращение вероятности достижения цели. Так, если принять вероятность достижения цели до получения информации равной Р0, а после ее получения - Р,, то прагматическое количество информации /п определяется как "  [c.26]

Эффективность систем связи характеризуется параметром, равным скорости передачи информации R на единицу ширины полосы F, т. е. R/F. Для иллюстрации существующих возможностей по созданию эффективных систем связи на рис. 5.13 приведены графики зависимости эффективности передачи информации при различных видах М-ичной дискретной амплитудной (AM), частотной (ЧМ) и фазовой (ФМ) модуляции (кроме бинарной модуляции используется также модуляция с 4, 8, 16 и даже с 32 положениями модулируемого параметра) от отношения энергии одного бита к спектральной плотности мощности шума (E/Ng). Для сравнения показана также граница Шеннона.  [c.186]

Однако, если в термодинамике формула Больцмана была получена в результате развития интерпретации процессов, происходящих в физических системах, то в теории информации, где была получена совершенно аналогичная формула, соответствующая именно распределению частиц в физической системе по статистике Максвелла—Б ольцмана и служащая для измерения количества информации, отправной точкой служила разработанная Шенноном система постулатов.  [c.100]

Блок, Джордж Сорос, Ченг Ф. Ли, Джозеф И. Финнерти, Роберт Линг, Шеннон П.  [c.5]

Шеннон П., Пратт. Оценка бизнеса/Под ред. В. Н.Лаврентьева. —М. 1995.-203с.  [c.179]

Начало современного этапа развития систем искусственного ин-. теллекта (ИИ) может быть отнесено к середине 50-х гг. Этому способствовала программа, разработанная А.Ньюэллом, предназначенная для доказательства теорем в исчислении высказываний и названная ЛОГИК-ТЕОРЕТИК . Некоторые авторы называют эту систему экспертной и связывают определение ее назначения с анализом ее возможностей, проведенных Клодом Шенноном и Марвином Минским.  [c.544]

В работе4 под информацией понимаются сведения, необходимые для принятия решения. Это определение включает в термин сведения о всем многообразии информации и созвучно с пониманием информации в статистической теории информации К. Шеннона. Шеннон ввел энтропийную меру количества информации, которую определил через степень разрешения неопределенности выбора из множества альтернатив возможных решений. При этом следует подчеркнуть два важных момента во-первых, под информацией понимаются не все сообщения, а только те, которые относятся к разрешению неопределенности выбора, т. е. декларируется целенаправленный отбор полезной информации. Во-вторых, смысл информации, т. е. семантики (от греческого слова semantikos — обозначающий) полезных сообщений, не рассматривается. Последнее обстоятельство служит существенным ограничением сферы применения такого подхода, поскольку он не позволяет оценивать качественную сторону информации, ее полезность или ценность.  [c.349]

По мнению данного автора5, в рамках теории принятия решений проблему оценки полезности информации удалось решить ценность информации определяется через величину ее вклада в разрешение неопределенности выбора по Шеннону. Информация может быть полезной (в той или иной ступени увеличивать вероятность выбора) может быть бесполезной (не менять эту вероятность) и, наконец, может быть дезинформацией, которая уменьшает вероятность правильного принятия  [c.349]

A.M. Тьюринг, А.А. Марков, А.Н. Колмогоров, А. Черч, К. Шеннон.  [c.10]

Математические основы количественного измерения И. заложили Р. Хартли (1928), К. Шеннон (1948), А.Н. Колмогоров (1962). Они оказались тесно связанными с понятиями теории вероятностей. Так, за единицу измерения И. (1 бит) принимается количество И., которое мы получаем, узнав о результате проведения опыта с двумя равновероятными исходами. Если такие опыты проводятся независимо друг от друга Npaz и нам сообщены их результаты, естественно считать, что получена И. объемом в  [c.103]

Шеннон Р. Ю. Имитационное моделирование систем — наука и искусство / Пер. с англ. Под ред. Е. К. Масловского. М. Мир, 1978.  [c.105]

СВОБОДНЫЕ ЭКОНОМИЧЕСКИЕ ЗОНЫ (СЭЗ), небольшие территориальные анклавы, на которых вводятся льготные налоговые, финансовые, правовые условия хозяйственной и внешнеэкономической деятельности для привлечения иностранных и местных предпринимателей, и создаётся вся необходимая для этого производственная и деловая инфраструктура. В мировой практике СЭЗ создаются как в развитых (Великобритания, Германия, Нидерланды, США и др.), так и в развивающихся (Бразилия, Республика Корея, Малайзия и др.) странах. Весьма широко используются в политике привлечения иностранного капитала СЭЗ в Китае. Различают несколько видов зон свободные склады, свободные таможенные зоны (СТЗ), научно-технические зоны (НТЗ), которые в США называют технопарками, а в Японии технополисами, и, наконец, специальные экономические зоны (главным образом, экспортной специализации). Особым режимом отличаются оффшорные центры (зоны). Зоны экспортной специализации при относительно небольших затратах на их создание дают максимальный эффект в сравнительно короткие сроки. Часто зоны создаются в непосредственной близости от крупных международных морских портов, аэропортов, железнодорожных узлов при наличии свободных территорий, рабочей силы, специалистов. Например, одной из первых СЭЗ была зона в Ирландии, созданная в аэропорту Шеннон (1959 г.). Позднее такая зона была создана в английском аэропорту Дог-Айленд . Некоторые СЭЗ создаются на более крупных территориях, напр, промышленный округ свободной зоны Манаус в Бразилии, специальная экономическая зона Шеньжень в Китае и др. С целью создания ключевых объектов производственной инфраструктуры СЭЗ, развитие которых признаётся приоритетным с точки зрения государственных интересов, выделяются средства из государственного бюджета и предоставляются льготные кредиты.  [c.256]

Эта модель, как и многие другие, не учитывает роль обратной связи, понятия, центрального для ПР. Она монологично построена (как, кстати, большинство представлений о пропагандистской работе). Джон Фиске справедливо называет эту модель вербализацией схемы Шеннона-Вивера13. Но, с другой стороны, значимым для ПР является акцент именно на эффекте, поскольку обычный гуманитарный взгляд на коммуникацию уходит в философские дали, упуская утилитарную составляющую.  [c.93]

Математическая теория энтропии, в основу которой легли фундаментальные работы К. Шеннона, была создана такими выдающимися математиками, как А.Н. Колмогоров [46, 49], А.Я. Хинчин [104, 105], И.М. Гельфанд [23, 24] и др. Эта теория — пример плодотворного воздействия прикладных задач на развитие фундаментальных направлений математики. В целом сформировался новый подход в разных областях науки и техники, который можно назвать "энтропийным подходом".  [c.13]

Работы У. Эшби [121] о возможности разнообразного построения кибернетики можно считать отправной точкой теории управления и моделирования. Он показал, что процесс связи можно интерпретировать как передачу информации, а управление — как ограничение разнообразия. К. Шеннон [109] подчеркивал, что с информацией можно обращаться почти так же, как и с физическими величинами — массой, энергией.  [c.15]

Информационный подход, базирующийся на принципах дискретизации и разнообразия, дает возможность выделить главное, существенное в сложных технических системах. В работе [74] определяются информационные основы управления технологическими процессами с учетом потенциальных возможностей объекта как источника и как канала передачи информации. Вопросы применения теории управления на основе теории информации в организации систем автоматического контроля рассматриваются в работах [28, 55, 70, 78]. В работе [108] интуитивное понятие "качества" обобщается и численно оценивается через энтропию Шеннона. Синтез байесовского подхода и принципа максимума энтропии рассматривается Б.А. Абдрашидовым [1].  [c.16]

Термин "энтропия" впервые был использован Р. Клаузиусом в 1 864 г. в его книге "Сочинения по теории теплоты" для обозначения величины, характеризующей процессы перехода тепловой энергии в механическую. Связь между энтропией как мерой неопределенности и термодинамической энтропией достаточно долго оставалась неясной, но в последнее время она была доказана [63]. Согласно К. Шеннону энтропией Я называется величина  [c.18]

Добрушин Р.Л. Общая формулировка основной теоремы Шеннона теории информации // УМН, 1959. — Т. XIV. — Вып. 6. — С. 3—104.  [c.198]

Экономико-математический словарь Изд.5 (2003) -- [ c.133 ]

Введение в теорию бухгалтерского учета (1979) -- [ c.40 ]