Количество информации которое необходимо. Количество информации. Вопросы для самоконтроля

29.01.2019

Энтропия (информационная) — есть мера НЕУПОРЯДОЧЕННОСТИ системы. Это величина безразмерная. Чем меньше энтропия, тем больше порядок (определенность состояния системы). Бесконечно большая энтропия характеризует полный хаос (полную неопределенность состояния системы).

Информация — это сведения, которые способны уменьшать неопределенность. Чем бОльшую неопределенность снимают сведения, тем бОльшее количество информации они содержат. Информация, количеством 1 бит способна снять неопределенонсть при выборе одной из двух РАВНОВЕРОЯТНЫХ альтернатив

Но если вероятность ниже, так как «завтра будет дрожать в Боготе» или «Колумбия вторгается в Соединенные Штаты», информационный контент больше. С точки зрения эффективности разумно ожидать, что передача вероятных событий потребует меньше времени, чем передача неожиданных событий. Символы - это полосы и точки, или их двоичные представления. Некоторые гласные, особенно е, и другие буквы, очень используемые на английском языке, имеют короткие коды двух или трех символов.

Первые попытки сформулировать вопрос об информации в формальной теории возникли в двадцатых годах, с работой Хартли, а затем с работой Шеннона, которая подчеркнула вероятностные концепции обращения с информацией и ее передачи. Уже упоминалось, что количество информации в сообщении связано с вероятностью появления сообщенного события: больше сюрпризов больше информации.

Формула Хартли определяет количество информации, содержащееся в сообщении длины n.

Имеется алфавит А, из букв которого составляется сообщение:

Количество возможных вариантов разных сообщений:

где N — возможное количество различных сообщений, шт; m — количество букв в алфавите, шт; n — количество букв в сообщении, шт.

Можно показать, что единственная функция, которая выполняет эти свойства, является логарифмической. Например, вероятность того, что солнце не повысится на горизонте завтра, составляет почти 0, но если завтра не повысится, вероятность того, что он не будет расти послезавтра, увеличивается, а при уменьшении информационного содержания того же сообщение в будущем. Может быть получено техническое определение содержимого информации, аналогичное полученному интуитивно.

Проблема аналогична проблеме оптимизации с ограничениями, налагаемыми доступными технологиями и природой, такими как шум. Сообщения исходят из источника и должны передаваться через носитель или канал, пока они не достигнут своего адресата или получателя. Это должно быть сделано путем сведения к минимуму искажений, которые может вызвать среда передачи и шум, и в то же время максимизировать количество сообщений, отправленных за единицу времени или стоимость. Короче говоря, это проблема эффективности.

Пример: Алфавит состоит из двух букв «B» и «X», длина сообщения 3 буквы — таким образом, m=2, n=3. При выбранных нами алфавите и длине сообщения можно составить разных сообщений «BBB», «BBX», «BXB», «BXX», «XBB», «XBX», «XXB», «XXX» — других вариантов нет.

Формула Хартли определяется:

где I — количество информации, бит.

При равновероятности символов формула Хартли переходит в собственную информацию.

Таким образом, объем информации в сообщении пропорционален стоимости передачи. С технической точки зрения теория информации концентрируется на двоичной передаче, то есть передаче единиц и нулей, импульсов, а не импульсов, полос и точек и т.д. немного - это то, что может принять одно из этих двух состояний.

Один, если шел дождь и ноль, если не дождь, или наоборот; в любом случае это назначение, называемое кодированием, должно быть известно получателю. Этот один или ноль отправлен немного. Другими словами, для отправки сообщения с двумя возможностями требуется только один бит.

Формула Хартли была предложена Ральфом Хартли в 1928 году как один из научных подходов к оценке сообщений.

Допустим, нам требуется что-либо найти или определить в той или иной системе. Есть такой способ поиска, как «деление пополам». Например, кто-то загадывает число от 1 до 100, а другой должен отгадать его, получая лишь ответы «да» или «нет». Задаётся вопрос: «число меньше N?». Любой из ответов «да» и «нет» сократит область поиска вдвое. Далее по той же схеме диапазон снова делится пополам. В конечном счёте загаданное число будет найдено.

Но если это более вероятно, например, (не было дождя, мало ли шел дождь, шел дождь в среднем и шел дождь много), нам нужны две биты информации для передачи этих четырех сообщений, один или ноль, за которым следует еще один или ноль. В этой формулировке удобно выразить содержание информации непосредственно в терминах вероятностей. Но поскольку сообщения имеют разные вероятности, можно найти более эффективную схему.

Вместо кодирования с тремя цифрами каждое сообщение, мы используем код переменной длины. Для передачи каждого отдельного сообщения требуется столько битов, сколько двоичных цифр имеет свой код, но ожидаемое значение схемы кодирования меньше 3; в соответствии с этим кодированием передача потребует, в среднем. Вышеприведенный результат следует понимать в контексте большого количества повторений, среднего или ожидаемого значения, поскольку для передачи одного сообщения требуется стоимость, пропорциональная длине его кода.

Сколько вопросов надо задать, чтобы найти задуманное число от 1 до 100. Допустим загаданное число 27. Вариант диалога:

Больше 50? Нет. Больше 25? Да. Больше 38? Нет. Меньше 32? Да. Меньше 29? Да. Больше 27? Нет. Это число 26? Нет.

Если число не 26 и не больше 27, то это явно 27. Чтобы угадать методом «деления пополам» число от 1 до 100, нам потребовалось 7 вопросов.

Это повторение, когда сбережения получаются с точки зрения средней стоимости одного сообщения. Другими словами, в предыдущем примере передача 000 сообщений потребует в среднем 980 бит, а не. Таких как среднее содержание информации на сообщение или математическое ожидание каждого сообщения. Его также можно интерпретировать как среднее содержание неопределенности, связанной с источником сообщений. Энтропия представляет собой минимальное количество бит, требуемое в среднем для передачи сообщения. То есть максимальная энтропия достигается, когда все возможные состояния имеют одинаковую вероятность возникновения.

Можно просто спрашивать: это число 1? Это число 2? И т. д. Но тогда вам потребуется намного больше вопросов. «Деление пополам» — самый оптимальный способ нахождения числа. Объём информации, заложенный в ответ «да»/«нет», равен одному биту (действительно, ведь бит имеет два состояния: 1 или 0). Итак, для угадывания числа от 1 до 100 нам потребовалось семь бит (семь ответов «да»/«нет»).

В дальнейшем основание 2 используется, если не указано иное. В физике энтропия представляет собой переменную состояния, такую ​​как температура, объем, давление или внутренняя энергия, которая описывает состояние системы в любой момент времени, в отличие от переменных, таких как скорость, положение или масса, которые могут описывать индивидуальные условия молекул, составляющих систему.

В термодинамике и неформально энтропия связана с тем, что не вся энергия, которая входит в процесс, используется для выполнения работы, поскольку часть теряется в виде тепла или шума. Пока энергия сохраняется, часть трансформируется в формы, менее полезные для выполнения работы.

Такой формулой можно представить, сколько вопросов (бит информации) потребуется, чтобы определить одно из возможных значений. N — это количество значений, а k — количество бит. Например, в нашем примере 100 меньше, чем 27, однако больше, чем 26. Да, нам могло бы потребоваться и всего 6 вопросов, если бы загаданное число было 28.

Формула Хартли:

Можно показать, что эта формулировка совместима с определением энтропии в статистической механике. Похоже, ближе к формуле Шеннона, чем к термодинамической формуле. Например, если штамп бросается, Ω равно 6; если два выбраны, а результат граней записан, Ω - в физике, система может содержать миллиарды молекул, каждая из которых может быть описана с помощью нескольких координат, так что Ω легко достигает порядка миллиардов миллиардов. В физике энтропия является мерой системного расстройства или хаоса.

В теории информации это мера неопределенности, связанной с источником сообщений. Консенсуса относительно того, существует ли связь между двумя типами энтропии, нет, за исключением того, что они имеют похожие формулы. Первый закон термодинамики гласит, что энергия сохраняется. Второй закон термодинамики или закон энтропии подразумевает, что при сохранении энергии тип энергии, который может быть использован для выполнения работы, уменьшается или, по крайней мере, не увеличивается в замкнутой системе.

Количество информации (k), необходимой для определения конкретного элемента, есть логарифм по основанию 2 общего количества элементов (N).

Энтропийный (вероятностный) подход

Этот подход принят в теории информации и кодирования. Данный способ измерения исходит из следующей модели: получатель сообщения имеет определённое представление о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределённостей называется энтропией. Энтропия характеризуется некоторой математической зависимостью от совокупности вероятности наступления этих событий.

Энтропия в замкнутой системе измеряет количество неиспользуемой энергии. Второй закон подразумевает, что тепло течет из тела с большей температурой в тело с меньшей температурой, а не наоборот. Сегодня определение энтропии как увеличения беспорядка или хаоса менее популярно, и определение спонтанной дисперсии энергии или как показатель необратимых процессов является более популярным.

Определение энтропии можно распространить на переменные векторы. Аналогично, условная энтропия может быть определена как сумма, которая указывает на поведение информации или неопределенность переменной, когда другая известна. Концепция взаимной информации определяется как.

Количество информации в сообщении определяется тем, насколько уменьшилась эта мера после получения сообщения: чем больше энтропия системы, тем больше степень её неопределённости. Поступающее сообщение полностью или частично снимает эту неопределённость, следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после получения сообщения. За меру количества информации принимается та же энтропия, но с обратным знаком.

Обратите внимание, что взаимная информация может быть выражена как. Одно из первых применений этих понятий информации и энтропии в поле, отличное от кодирования и передачи информации, относится к статье Келли об инсайдерской торговле. В целом, игрок получает информацию об исходе ставки через канал связи, загрязненный шумом, который может вызывать ошибки. Беттер получает информацию перед широкой публикой.

Экспоненциальная скорость усиления будет. Который зависит от энтропии передачи. Внутренняя информация - в том смысле, что игроку дают результат, прежде чем общественность это знает - может быть искажена шумом или потому, что игрок не полностью доверяет своему источнику. Вот почему в расчетах участвуют условные вероятности.

Не получается понять каким образом производят измерение количества информации с помощью формулы Хартли ? Выход есть! Записывайтесь ко мне на репетиторский урок по информатике и ИКТ. На своих индивидуальных уроках я делаю упор на практическое прорешивание колоссального количества различных тематических задач. Вы не только поймете ключевой смысл формулы Хартли , но также решите порядка 10 задач, связанных с измерением количества информации.

Келли предполагает, что игрок держит все свои капиталы вложенными. Капитал беттера развивается следующим образом. Где - энтропия источника. Выражение лагранжиана при условии. Чьи условия первого порядка.

Из первого условия вы получаете.

И заменив его во втором, вы получите.



Наконец, выясняя, мы получаем.

Максимальное значение ставки прибыли будет. В экономике понятие энтропии применяется в двух областях: те, которые имеют сходство с термодинамикой, например, деградацию производственных возможностей, и те, которые относятся к содержанию информации и ее использованию при анализе данных.

Формула Хартли позволяет определить количество информации, которая содержится в информационном сообщении длины n.

Для дальнейшего исследования нам потребуется познакомиться с таким понятием как мощность алфавита.
Мощность алфавита – это количество символов/знаков, из которых состоит рассматриваемый алфавит.

Падающий песок теряет свою потенциальную энергию или способность выполнять работу. Можно утверждать, что наша система не закрыта, потому что она получает энергию от солнца. Однако эта энергия течет со скоростью, такой как песок, падающий на ограничение в середине часов.

Автор подчеркивает, что эта концепция ограничения скорости передачи энергии отсутствует в неоклассических моделях, начиная с традиционной диаграммы кругового потока производства и распределения. Самуэльсон и Смит и Фоули находят аналогию между неоклассической экономической теорией и законами термодинамики. В исследовании устойчивости экономического роста МакМахон и Мрожек считают, что неоклассическая теория включает в себя влияние первого закона термодинамики на сохранение материи и энергии, но считает необходимым дополнить ее концепцией энтропии или второй закон термодинамики, согласно которому процессы необратимы во времени.

Примеры, связанные с мощностью алфавита

    Количество букв в русскоязычном алфавите равно 33, следовательно, мощность русского алфавита составляет 33.

    Количество арабских цифр, используя которые мы получаем различные числа, равно 10: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. Следовательно, мощность алфавита арабских цифр составляет 10.

    Азбука Морзе оперирует закодированными информационными сообщениями, состоящими из точек и тире, следовательно, мощность азбуки Морзе составляет 2.

    Это подразумевает, что хотя энергия и материя сохраняются в замкнутой системе, такой как солнечная система, качество и тип входов никогда не восстанавливаются из продукта, постепенно снижая сбор ресурсов. С другой стороны, информационная экономика изучает информацию и знания как экономические товары; их качество, их рынок и то, как они влияют на решения агентов. Информационная экономика имеет место в работе Хайека, где информация, которая хранится в башнях из слоновой кости и экономически полезной информации, отличается и как последняя действует через рыночную систему.

Аналитический (в виде формульной зависимости) вид формулы Хартли

Формула Хартли имеет следующий вид: N = m n , где

N – возможное количество различных информационных сообщений, шт;
m – количество символов/знаков в рассматриваемом алфавите, шт;
n – количество букв/элементов в информационном сообщении, шт.

В этом смысле он отличается от подхода теории информации, который раскрывается в этой статье, поскольку информация как обратная вероятность и энтропия как средняя информация являются более адекватными концепциями для измерения количества информации о том, что качество, использование или тип информации, и более подходящий для статистических исследований.

Были предприняты попытки адаптировать концепции, связанные с измерением информационного содержания, к изучению финансовых и складских вопросов. Гипотеза о том, что рынки реагируют на уровень неопределенности или элемент неожиданности, имеет аналогию с энтропией.

Рассмотрим задачи, решаемые с применением формулы Хартли

Условие задачи №1 :
Световое табло состоит из светящихся элементов, каждый из которых может гореть одним из 4-х различных цветов. Сколько различных сигналов можно передать при помощи табло, состоящего из 4-х таких элементов, при условии, что все элементы должны гореть.

Решение :
В данном примере под алфавитом необходимо понимать совокупность различных цветов, которыми могут гореть элементы. В условии задачи было сказано, что допускается четыре различных цвета, следовательно, мощность алфавита различных цветов составляет 4, то есть m = 4.

Под информационным сообщением следует понимать набор светящихся элементов. В условии упражнения говорится о 4-х подобных элементах, следовательно, длина сообщения составляет 4, то есть n = 4.

И осталось лишь определить количество различных сигналов, используя формулу Хартли :

N = m n = 4 4 = (2 2) 4 = 2 8 = 128 [сигналов].

Ответ : 128

Условие задачи №2:
Некоторый алфавит содержит 3 различных символа. Сколько слов длиной в 5 символов можно получить из данного алфавита (символы в слове могут повторяться)?

Решение :
В данном примере конкретно не уточняется о каком типе алфавита идет речь. Можно сделать предположение, что это какой-то символьный/знаковый алфавит. В условии задачи было сказано, что рассматриваемый алфавит содержит ровно 3 различных символа, следовательно, мощность данного алфавита составляет 3, m = 3.

Под информационным сообщением следует понимать некое слово. В условии задачи говорится о словах длиной в 5 символов, следовательно, длина информационного сообщения составляет 5, то есть n = 5.

И осталось лишь определить количество различных слов, используя могущественную формулу Хартли :

N = m n = 3 5 = 243 [слова].

Ответ : 243

Остались вопросы

Если у вас остались какие-либо вопросы по теме «Формула Хартли », то лаконично формулируйте и высылайте их мне на электронный адрес или записывайтесь ко мне на эффективный частный урок по информатике.