Информация по Шеннону

Но информация по Шеннону — не в точности сигнал (р. 100)  [c.125]

Таким образом, имеется одно большое и запутывающее различие между Шенноном и Винером. Если Винер рассматривает информацию как отрицательную энтропию, то есть структурную часть мира , то по Шеннону информация — то же самое, что положительная энтропия. Это делает информацию по Шеннону противоположностью информации по Винеру.  [c.125]


Таким образом, ситуация в обществе сегодня больше походит к понятию информации по Шеннону, чем по Винеру.  [c.134]

Имеются, по крайней мере, три объяснения, которые говорят в пользу первоначального понятия информации по Шеннону как не имеющего вообще никакой связи со значением.  [c.135]

Представляется, что эти проблемы с информационной концепцией имеют общий корень в смешении относительно концепции информации. Не упущена ли при создании концепций подобно сложности и перегрузке одна из основных особенностей информации по Шеннону, как энтропии  [c.136]

По Шеннону, информация - это снятая неопределенность. Учитывая, что в результате ознакомления с данным документом неопределенность не снимается, а скорее, увеличивается, целесообразно все же продолжить эту весьма перспективную работу на более высоком научном и методологическом уровне.  [c.81]

К. Шенноном [44] было введено понятие количества информации как меры неопределенности состояния системы, снимаемой при получении информации. Количественно выраженная неопределенность состояния получила название энтропии по аналогии с подобным понятием в статистической механике. При получении информации уменьшается неопределенность, т. е. энтропия, системы. Очевидно, что, чем больше информации получает наблюдатель, тем больше снимается неопределенность, и энтропия системы уменьшается. При энтропии, равной нулю, о системе имеется полная информация, и наблюдателю она представляется целиком упорядоченной. Таким образом, получение информации связано с изменением степени неосведомленности получателя о состоянии этой системы.  [c.20]


Шеннон К. Работы по теории информации и кибернетике. — М. ИЛ, 1963.  [c.201]

Шеннон К. Работы по теории информации и кибернетике. М. Иностранная литература, 1963.  [c.335]

Шеннон К. Работы по теории информации и кибернетике / К. Шеннон. М. Иностранная литература, 1963. 272 с.  [c.92]

Шеннон предполагает наличие чего-то / кого — то вне цепочки передач с сообщением, которое соответствует информации . Однако, это — не информация, которая передана, а сигналы. Имеется отправитель и получатель этих сигналов. Отправительское значение должно интерпретироваться получателем вне передачи непосредственно. Для выполнения этого и отправитель, и получатель должны иметь что-то общее — по крайней мере — язык, иначе они не будут понимать друг друга. Если кто-то получает через телефонную линию бессмысленное выражение, то для него существует очень большое количество возможных интерпретаций. Информация существует как потенциал, который в бессмысленном выражении, конечно, оказывается очень большим. С другой стороны, если выражение кристально ясно и отправитель, и получатель разделяют в точности то же самое понимание, тогда имеется очень небольшая переданная информация, только сигналы непосредственно.  [c.128]

Заключение, следующее из Шеннона, состоит в том, что информация не имеет никакой ценности сам по себе. Ценность информации выйдет главным образом в связи с человеческим действием или как косвенное отношение.  [c.137]

Для теоретика информации по Шеннону не имеет значение, сообщаем ли мы факт, решение или только ерунду. Все, что мы передаем по телефонной линии, информационно . Сообщение I feel fine  [c.124]

Все значение интерпретируется вне передачи сигналов. Поэтому информация по Шеннону не должна быть перепутана со значением. Информация по Шеннону имеет отношение не столько к тому, что Вы говорите, сколько к тому, что Вы могли говорить (или не говорить). Проблемы интерпретации сигналов в сообщение оставлены за пределами Шенноновского определения. Не так с Винером. Он предполагает некоторое значение, по крайней мере, для уровня систем.  [c.129]


По мнению данного автора5, в рамках теории принятия решений проблему оценки полезности информации удалось решить ценность информации определяется через величину ее вклада в разрешение неопределенности выбора по Шеннону. Информация может быть полезной (в той или иной ступени увеличивать вероятность выбора) может быть бесполезной (не менять эту вероятность) и, наконец, может быть дезинформацией, которая уменьшает вероятность правильного принятия  [c.349]

Другой ученый, связанный с теорией информации — Клод Шеннон. Он был современником Винера и как математик, работавший в AT T, он был прежде всего заинтересован ограничениями канала в передаче сигналов и затрат на передачу информации по телефонной линии. Он разработал математическую теорию для такой связи в Математической Теории Связи, (Shennon Weaver 1959). Шеннон определяет информацию как чисто количественную меру коммуникационных обменов.  [c.124]

Шеннон предостерегает, что существует не-жолько точек, в которых информация из источ-мка может быть искажена, прежде чем достиг-ieT адресата. Кроме того, Шеннон предупредил, ITO величайшей опасностью является шум в системе, возникающий либо при передаче информации по каналу, либо на передающем или принимающем терминале . Не следует автоматиче- ки полагать, что передатчики правильно со-жрают информацию, поступающую из источника (с рынка), перед тем как поместить ее в тередающий канал. Сходным образом приемник может неправильно обрабатывать информацию, ITO приводит к ошибкам у адресата. Известно  [c.139]

Создателем новой отрасли знания - теории информации - являете американский инженер и ученый Клод Шеннон, опубликовавший в 1948 г статью "Математическая теория связи". Эта теория - фундаментальные вклад в современную науку. Теория К.Шеннона получила название веро ятностно-статистической. Согласно этой теории информация есть харак теристика не сообщения, а соотношения между сообщением и его по требителем. Информация - это уменьшение неопределенности в пред ставлениях потребителя сообщения об источнике информации. Если со общение не снимает неопределенности, то оно не содержит информа ции.если же сообщение позволяет более определенно знать предмет, тс  [c.17]

Статистический подход. Он изучается в обширном разделе кибернетики, называемом теорией информации. Основоположником этого подхода считается К. Шеннон, опубликовавший в 1948 г. свою математическую теорию связи. Большой вклад в теорию информации до него внесли ученые Найквист и Хартли, которые соответственно в 1924 и 1928 гг. напечатали работы по теории телеграфии и передаче информации. Признаны во всем мире исследования по теории информации российских ученых А.Н. Колмогорова, А.Я. Хинчина, В.А. Ко-тельникова, А.А. Харкевича и др.  [c.20]

Эффективность систем связи характеризуется параметром, равным скорости передачи информации R на единицу ширины полосы F, т. е. R/F. Для иллюстрации существующих возможностей по созданию эффективных систем связи на рис. 5.13 приведены графики зависимости эффективности передачи информации при различных видах М-ичной дискретной амплитудной (AM), частотной (ЧМ) и фазовой (ФМ) модуляции (кроме бинарной модуляции используется также модуляция с 4, 8, 16 и даже с 32 положениями модулируемого параметра) от отношения энергии одного бита к спектральной плотности мощности шума (E/Ng). Для сравнения показана также граница Шеннона.  [c.186]

Однако, если в термодинамике формула Больцмана была получена в результате развития интерпретации процессов, происходящих в физических системах, то в теории информации, где была получена совершенно аналогичная формула, соответствующая именно распределению частиц в физической системе по статистике Максвелла—Б ольцмана и служащая для измерения количества информации, отправной точкой служила разработанная Шенноном система постулатов.  [c.100]

ТЕОРИЯ ИНФОРМАЦИИ, математпч. дисциплина, зародившаяся как математическая теория передачи сообщений по каналам связи, но затем в работах К. Шеннона и Н. Винера получила более общую математическую форму, благодаря которой появилась возможность рассматривать Т. и. как ветвь математпч. статистики, имеющую многообразные приложения в различных науках — кибернетике, биологии, лингвистике, экономике и др. Название Т. и. она получила потому, что в ней впервые было предложено определение меры количества информации. Последующие исследования показали, что эта мера лишь частично отражает содержание понятия информация , в связи с чем возникли др. меры информации и теории. Однако название Т. и. уже закрепилось за данной науч. дисциплиной, уточняемое иногда как статистическая Т. и., поскольку в основе измерения количества информации в Т. и. лежит понятие статистической вероятности.  [c.113]