Заслуга К.Шеннона состоит в том, что его теория информации позволила ввести в науку и практику количественную меру информации и явилась созданием новой отрасли знания - теории информации. [c.18]
Ясин Е. Г. Теория информации и экономические исследования. М. Статистика, 1970. [c.168]
Математическая теория информации исследует способы определения и оценки количества информации, процессов хранения и передачи ее по каналам связи. Она исходит из данных, предназначенных для сохранения в запоминающем устройстве или для передачи по каналам связи. Известными здесь являются лишь множества, из которых могут быть выбраны эти данные, или же вероятности выбора тех или иных данных. Потоки плановых, нормативных, статистических, бухгалтерских, оперативных сведений, их хранение, переработку и использование можно рационально организовать только на научной основе, на основе математической теории информации. [c.61]
Здесь сочетаются уже все отмеченные факторы, искажающие положение. Вместе с тем надо помнить, что слово искажающие положение означает в данном случае то, что, удаляясь от условий, взятых в их экономическом смысле, мы можем наиболее полно изобразить те шумы (термин из теории информации), которые имеют место в реальной действительности. Этим, в частности, бухгалтерская совокупность отличается от статистической, последняя стабильна при каждой группировке. В бухгалтерии, как в счетоводстве, так и в счетоведении, группировка приводит к изменению объема совокупности. Хорошо построить план счетов это значит учесть те искажающие факторы, которые строго необходимы для управления хозяйством. [c.151]
Поскольку итогом всякого научного исследования, в том числе и геофизического, представляется информация, то целесообразно использовать идеи теории информации для выработки критерия оценки результата геофизических исследований, проведенных отдельной производственной ячейкой . [c.147]
Введенная количественная статистическая мера информации широко используется в теории информации для оценки собственной, взаимной, условной и других видов информации. Рассмотрим в качестве примера собственную информацию. Под собственной информацией будем понимать информацию, содержащуюся в данном конкретном сообщении. А конкретное сообщение, как указывалось, дает получателю информа- [c.23]
Значение структурной теории информации растет при переходе от банков данных к банкам знаний, в которых информация подвергается еще более высокой степени структуризации. [c.28]
Итак, емкость канала ограничивается двумя величинами шириной полосы канала и шумом. Приведенное соотношение известно как формула Хартли-Шеннона и считается основной в теории информации. [c.185]
Емкость канала является максимальной величиной скорости. Чтобы достигнуть такой скорости передачи, информация должна быть закодирована наиболее эффективным образом. Утверждение, что такое кодирование возможно, является важнейшим результатом созданной Шенноном теории информации. Шеннон доказал принципиальную возможность такого эффективного кодирования, не определив, однако, конкретных [c.185]
Когда я отдаю приказ машине, то возникающая в данном случае ситуация, по существу, не отличается от ситуации, возникающей в том случае, когда я отдаю приказ какому-либо лицу. Иначе говоря, что касается моего сознания, то я осознаю отданный приказ и возвратившийся сигнал повиновения. Лично для меня тот факт, что сигнал в своих промежуточных стадиях прошел через машину, а не через какое-либо лицо, не имеет никакого значения и ни в коей мере существенно не изменяет моего отношения к сигналу. Таким образом, теория управления в человеческой, животной или механической технике является частью теории информации (18). [c.11]
Стремясь доказать, что теория управления является частью теории информации, Винер опирается на то, что для управляющего субъекта тот факт, что сигнал в своих промежуточных стадиях прошел через машину, а не через какое-либо лицо, не имеет никакого значения и ни в коей мере существенно не изменяет его отношения к сигналу . При этом Винер даже не задается вопросом а что собой представляет этот самый управляющий субъект Обладает ли он интеллектом и волей, т. е. является ли он сознательным Между тем именно ответ на этот вопрос является решающим для того, чтобы понять, яв- [c.14]
К числу важнейших инструментов и методов исследования операций относятся теория вероятности, метод обратных связей, линейное программирование, символическая логика, теория информации и связей, теория очередей, теория игр, теория поисков. [c.341]
Наука Хаоса, которая включает теорию информации, кибернетику, голографию, нелинейную динамику и фрактальную геометрию. [c.17]
Кибернетика отталкивается от теории информации, которая была разработана во время Второй Мировой Войны в стремлении усовершенствовать связь при использовании существующих кабелей, пересекавших Атлантический океан между Америкой и Англией. Теория информации выделяет пять составляющих процесса коммуникации (1) источник, (2) кодирующее устройство, (3) сообщение, (3) декодер, (4) приемник. [c.19]
К 1956 г. Дж. Л. Келли Мл. объединил некоторые идеи теории игр и теории информации в ставшей теперь знаменитой статье Новая интерпретация скорости передачи информации . Хотя в статье речь шла о теории информации, из нее вытекало, что игроку следует стремиться максимизировать ожидаемую величину логарифма своего капитала . Это было прямой противоположностью методологии, принятой еще во времена Паскаля, утверждавшей, что игрок должен максимизировать ожидаемую величину самого капитала. [c.46]
Неопределенность исхода какого-то события (А,-) измеряется логарифмом его вероятности [log2P (А,) ]. Мера информации в теории информации связывается с уменьшением этой неопределенности. [c.295]
Создателем новой отрасли знания - теории информации - являете американский инженер и ученый Клод Шеннон, опубликовавший в 1948 г статью "Математическая теория связи". Эта теория - фундаментальные вклад в современную науку. Теория К.Шеннона получила название веро ятностно-статистической. Согласно этой теории информация есть харак теристика не сообщения, а соотношения между сообщением и его по требителем. Информация - это уменьшение неопределенности в пред ставлениях потребителя сообщения об источнике информации. Если со общение не снимает неопределенности, то оно не содержит информа ции.если же сообщение позволяет более определенно знать предмет, тс [c.17]
Периодом зарождения экономической теории информации (e onomi s of information) считают начало 60-х годов, когда ее основы были заложены в статье Д. Стиглера [26]. В течение 60—80-х годов это направление исследований отмечено большим количеством работ, среди которых особенно заметны публикации Д. Стиг-лица [27] и К. Эрроу [9, 10 , а также фундаментальные труды Ф. Махлупа 19, 20, 21]. Разработанные в русле этого направления положения сводятся в большинстве к анализу факторов, влияющих на цену информации, рассматриваемую в частных случаях — в ситуации неопределенности, асимметрии информации, морального риска и т.п. При этом современные экономисты осознанно уходят от констатации того, что их наука, основанная на концепции редкости... где стоимость соотносит редкость с полезностью [22, с. 174 , не дает ответа на вопрос о стоимостной оценке нелимитированных благ. [c.47]
В западной литературе эта проблема стала разрабатываться сравнительно недавно. Это было вызвано бурным развитием психологических аспектов теории принятия решений и, в частности, появлением новой ветви знаний в теории информации, которую с некоторой долей условности можно назвать как Производство информации с учетом человеческого фактора (Human Information Pro essing). (Американский специалист по управленческому учету [c.382]
Создание и функционирование автоматизированных банковских технологий основывается на системотехнических принципах, отражающих важнейшие положения теоретической базы, которая включает ряд смежных научных дисциплин и направлений. К ним относятся экономическая кибернетика, общая теория систем, теория информации, экономико-математическое моделирование банковских ситуаций и процессов, анализ и принятие решений. [c.285]
С одной стороны, эта наука, возникшая как продолжение методов кибернетики, теории систем, теории информации и других наряду с понятиями самоорганизация , нелинейность , открытость , хаос сложилась как инструмент исследования сложных процессов. Теория нелинейных сложных систем стала успешным подходом к решению проблем в естественных науках — от физики лазеров и твердого тела, химии и метеорологии до моделей биологического, нейронного и экологического развития. С другой стороны, экономисты, социологи, политики приходят к выводу, что основные проблемы человечества также отличаются глобальностью, сложностью и нелинейностью. Однако применение методов и технологий синергетики к социоэкономическим процессам должно осуществляться с учетом сущностных различий физического и социального миров. Совокупность общественных отношений, экономические факторы, человеческие чувства, мысли, свобода воли — все это порождает эволюционные процессы, ведущие к созданию более сложных организаций и структур путем интеграции различных, развивающихся в разном темпе структур в целостные системы. [c.383]
Статистический подход. Он изучается в обширном разделе кибернетики, называемом теорией информации. Основоположником этого подхода считается К. Шеннон, опубликовавший в 1948 г. свою математическую теорию связи. Большой вклад в теорию информации до него внесли ученые Найквист и Хартли, которые соответственно в 1924 и 1928 гг. напечатали работы по теории телеграфии и передаче информации. Признаны во всем мире исследования по теории информации российских ученых А.Н. Колмогорова, А.Я. Хинчина, В.А. Ко-тельникова, А.А. Харкевича и др. [c.20]
Логическая ошибочность винеровой философии управления не помешала, однако, ее создателю построить теорию, пригодную для конструирования компьютеров и разработки программного обеспечения. Как же так - А дело в том, что Винер в действительности не занимался теорией управления думая, что разрабатывает теорию управления как часть теории информации, он на самом деле развивал теоретические основы техники информационного обмена. Закономерности любого обмена информацией, независимо от ее содержания, от наличия или отсутствия у нее императивного характера - вот что на самом деле изучал Норберт Винер, что бы он ни думал при этом о предмете своих исследований. Кибернетика - это вовсе не теория управления и даже не теория информации, взятая в целом, но лишь наука об информационном обмене, пригодная исключительно для исследования закономерностей последнего. Отсюда следует, что претензии Винера на понимание общества... на пути исследования сигналов и относящихся к нему средств связи — то есть на то, чтобы придать кибернетике статус науки об обществе - совершенно беспочвенны. [c.15]
Впервые появившись в работе Р. Клаузиуса Механическая теория тепла" в связи с формулировкой второго закона термодинамики, понятие энтропия" впоследствии прочно утвердилось в различных отраслях научного знания теории информации, биологии, химии, политэкономии и других. Однако, практически, внедрение этого понятия в ту или иную область науки сопровождается многочисленными критическими замечаниями, связанными с обоснованностью термодинамических аналогий. Используемая в теории информации теоретико-информационная энтропия", введенная на строгой формальной основе, имеет гораздо больший авторитет" в научных исследованиях и практических приложениях. Обращаясь к современному состоянию развития понятия энтропия", необходимо отметить, что оно было принято более на интуитивном уровне и исходя из многочисленных экспериментов, подтвердивших тот факт, что любая изолированная физическая система, выведенная из первоначального состояния равновесия путем некоторого внешнего воздействия, переходит в новое состояние равновесия с меньшими способностями к превращениям, нежели она имела в первоначальном состоянии. Поэтому на интуитивном уровне стало возможным приращение энтропии интерпретировать как меру способности физической системы к превращениям, а равновесное состояние, которое стремится принять изолированная система в результате внешнего воздействия, считать наиболее вероятным. [c.100]
Однако, если в термодинамике формула Больцмана была получена в результате развития интерпретации процессов, происходящих в физических системах, то в теории информации, где была получена совершенно аналогичная формула, соответствующая именно распределению частиц в физической системе по статистике Максвелла—Б ольцмана и служащая для измерения количества информации, отправной точкой служила разработанная Шенноном система постулатов. [c.100]
Вместе с тем, достаточная устойчивость схемы переработки нефти на НПП", запрограммированность на выпуск продукции в постоянных соотношениях" свидетельствуют о наступившем в некотором смысле равновесии в рассматриваемой системе планирования. Для количественной оценки равновесия системы наиболее распространенным является применение понятия энтропии [57, 58], интерпретируемой в терминах теории информации [77]. Целесообразность использования энтропийного подхода в моделях оптимального планирования и управления подчеркивалась в ряде работ ведущих отечественных и зарубежных исследователей [57,58,78-81]. [c.113]
Вилкас Э. И.,Майминас Е. 3. Решения теория, информация, моделирование. -М. Радио и связь, 1981. - 328 с. [c.220]
В соответствии с шеноновской теорией, Информация - это сведения, которые уменьшают или снимают существовавшую до их появления неопределенность. При этом неопределенность (Н) оценивается логарифмом числа состояний системы и ее называют энтропией [c.167]
Если вы возьмете голографическую пленку 8x10 дюймов и отрежете от одного угла кусочек, размером меньше 1/16 дюйма, он будет содержать те же сведения, что и картинка размером 8x10 дюймов. Теория информации, кибернетика и голография опровергают Аристотеля. Когда мы говорим "Наш мир изменяется", - мы имеем в виду, что изменяется наше представление о нем. Именно этим мы с вами и займемся формированием иного, более точного представления о том, что есть рынок, и как он действует. [c.19]
Свою лепту в изменение наших научных взглядов внесла и теория информации, объявившая, что мы все проживаем в параллельных Вселенных, и все наши восприятия проходят черезфильтр, цель которого - сохранять в неприкосновенности наши личные парадигмы. Любой материал либо отвергается, как несоответствующий, либо сигнализирует о том, что он соответствует имеющимся у нас представлениям. Последним словом в изменяющейся парадигме сегодня является наука о хаосе. [c.22]
Один из приемов доходной торговли - заключать только сделки с наибольшим потенциалом, и попадать в ситуации, которые характеризуются маргинальным потенциалом. Моя торговая группа, завершив пятнадцатилетние исследования, начала использовать науку о хаосе наряду с квантовой физикой, голографией, кибернетикой, нелинейной динамикой, теорией информации и фрактальной геометрией в мире фондовых и товарных сделок. [c.34]
Согласно общим положениям теории информации, мерой предсказуемости случайной величины X является ее энтропия, Н( X), определяемая как среднее значение ее логарифма. В методике box- ounting энтропия приближенно оценивается по набору чисел заполнения ячеек, на которые разбивается интервал ее возможных значений [c.141]
Современная когнитивная психология получила развитие сразу после создания Гарвардского Центра Когнитивных исследований в 1955 году. Другое важное событие — симпозиум по теории информации, проведенный годом позже в Массачусет-ском Технологическом институте. Джордж Миллер из Гарвардского университета представил на нем свою статью "Магическая цифра семь, плюс или минус два некоторые ограничения в нашей способности обрабатывать информацию"" (Миллер, 1956). Эта знаменитая статья обобщала результаты нескольких психологических экспериментов. Они давали новую интересную информацию о том, как мы обрабатываем входящие данные [c.105]
Смотреть страницы где упоминается термин Теория информации
: [c.47] [c.166] [c.41] [c.254] [c.162] [c.180] [c.401] [c.15] [c.101] [c.219] [c.164] [c.167] [c.46] [c.89] [c.29] [c.131]Введение в теорию бухгалтерского учета (1979) -- [ c.51 ]
Большая экономическая энциклопедия (2007) -- [ c.250 , c.660 ]