Таблица количество информации в сообщении. Количество информации. Формула вычисления количества информации

03.02.2019

Рассмотрены основы информатики и описаны современные аппаратные средства персонального компьютера. Сформулированы подходы к определению основных понятий в области информатики и раскрыто их содержание. Дана классификация современных аппаратных средств персонального компьютера и приведены их основные характеристики. Все основные положения иллюстрированы примерами, в которых при решении конкретных задач используются соответствующие программные средства.

Используйте тот же принцип, что и для чисел и животных. Сколько раз оставшиеся варианты должны быть сокращены наполовину, прежде чем оставить последний? В случае нечетного числа вариантов округлите. Сколько вариантов пары отдельных сообщений? Это больше, чем несколько минут. Это между 10: 30 и 6: 30. Есть три четверти из трех.

  • Это после полудня.
  • В местной школе все еще есть плата за обучение.
  • Есть три четверти целого.
  • Это даже час.
  • Это перед Вечерникеком.
Вопрос: Какому отчету соответствует изображение?

Циферблаты 24-часового, зеленый обозначает возможное время суток в соответствии с сообщением. Выбранные параметры соответствуют белой области на циферблате. Иногда легче подсчитать, сколько осталось вариантов. Калькулятор подходит для расчета, например, таблицы. Отчет составляет восемь часов утра и полчаса вечера, что устраняет их.

Книга:

Разделы на этой странице:

Как уже отмечалось, понятие информации можно рассматривать при различных ограничениях, накладываемых на ее свойства, т. е. при различных уровнях рассмотрения. В основном выделяют три уровня – синтаксический, семантический и прагматический. Соответственно на каждом из них для определения количества информации применяют различные оценки.

Вопрос: Какую долю оставшихся возможностей вы берете из вышеупомянутых отчетов? Не забудьте воспользоваться предыдущими результатами. Итак, как измерить объем информации? Мы могли бы попытаться использовать количество исключенных опций напрямую. Однако быстро получается, что это не работает.

Дневное обучение: Обучение проходит, и после полудня. Это после полудня и в то же время есть три четверти целого. Рассмотрите сообщение «Это после полудня» и «Есть три четверти целого». Нечего менять, что даже после полудня несколько раз будет «три четверти». В противоположность этому, сообщение «Это после полудня» и «В местной школе все еще есть учение». Можно хотя бы оценить действительность второго. Если учение скорее всего будет утром, чем во второй половине дня, потому что большинство уроков происходит утром.

На синтаксическом уровне для оценки количества информации используют вероятностные методы, которые принимают во внимание только вероятностные свойства информации и не учитывают другие (смысловое содержание, полезность, актуальность и т. д.). Разработанные в середине XX в. математические и, в частности, вероятностные методы позволили сформировать подход к оценке количества информации как к мере уменьшения неопределенности знаний. Такой подход, называемый также вероятностным, постулирует принцип: если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно утверждать, что такое сообщение содержит информацию. При этом сообщения содержат информацию о каких-либо событиях, которые могут реализоваться с различными вероятностями. Формулу для определения количества информации для событий с различными вероятностями и получаемых от дискретного источника информации предложил американский ученый К. Шеннон в 1948 г. Согласно этой формуле количество информации может быть определено следующим образом:

Алфавитный подход к определению количества информации

И наоборот, если после полудня мы еще сильнее, чем до этого, мы теперь предполагаем, что уроки не продолжаются. Рассматривайте независимые отчеты из примера и измеряя информацию по количеству исключенных опций. «Уже после полудня» будет 720 единиц информации, «Это три четверти целого»будет носить их. Таким образом, оно будет содержать только 708 единиц информации. Мы не хотим, чтобы количество информации в сообщении менялось по мере того, как мы узнали что-то с несвязанное сообщение.

Необходимые свойства шкалы информации

Поэтому измерение информации, возможно, должно соответствовать некоторым требованиям, чтобы результаты дали хороший смысл и соответствовали нашим естественным идеям. К таким требованиям относятся, в частности. Точный отчет о времени предоставляет всю недостающую информацию и устраняет любую неопределенность.


где I – количество информации; N – количество возможных событий (сообщений); p i – вероятность отдельных событий (сообщений); ? – математический знак суммы чисел.

Определяемое с помощью формулы (1.1) количество информации принимает только положительное значение. Поскольку вероятность отдельных событий меньше единицы, то соответственно выражение log^,– является отрицательной величиной и для получения положительного значения количества информации в формуле (1.1) перед знаком суммы стоит знак минус.

Этот отчет устраняет больше вариантов, поэтому он предоставит больше информации. То же количество опций исключает сообщение «Это после полудня». Отчет «Четный час» устраняет только половину параметров. Нижний предел Объем информации, как и любое другое количество, должен быть неотрицательным. В сообщении, которое не имеет параметров, количество информации равно нулю. Верхний предел этого достигается сообщением, из которого мы узнаем все, или единственный вариант. Размер. Чем больше параметров получает сообщение, тем больше информации оно содержит.

Если вероятность появления отдельных событий одинаковая и они образуют полную группу событий, т. е.


то формула (1.1) преобразуется в формулу Р. Хартли:


В формулах (1.1) и (1.2) отношение между количеством информации и соответственно вероятностью, или количеством, отдельных событий выражается с помощью логарифма. Применение логарифмов в формулах (1.1) и (1.2) можно объяснить следующим образом. Для простоты рассуждений воспользуемся соотношением (1.2). Будем последовательно присваивать аргументу N значения, выбираемые, например, из ряда чисел: 1, 2, 4, 8, 16, 32, 64 и т. д. Чтобы определить, какое событие из N равновероятных событий произошло, для каждого числа ряда необходимо последовательно производить операции выбора из двух возможных событий. Так, при N = 1 количество операций будет равно 0 (вероятность события равна 1), при N = 2, количество операций будет равно 1, при N = 4 количество операций будет равно 2, при N = 8, количество операций будет равно 3 и т. д. Таким образом получим следующий ряд чисел: 0, 1, 2, 3, 4, 5, 6 и т. д., который можно считать соответствующим значениям функции I в соотношении (1.2). Последовательность значений чисел, которые принимает аргумент N, представляет собой ряд, известный в математике как ряд чисел, образующих геометрическую прогрессию, а последовательность значений чисел, которые принимает функция I , будет являться рядом, образующим арифметическую прогрессию. Таким образом, логарифм в формулах (1.1) и (1.2) устанавливает соотношение между рядами, представляющими геометрическую и арифметическую прогрессии, что достаточно хорошо известно в математике.

Результирующие сообщения. Если одно сообщение непосредственно возникает из второго сообщения, в первом отчете есть как минимум столько же информации, сколько во втором сообщении. Независимые отчеты Информационная ценность независимых отчетов Не имеет значения ни частично, ни частично, например: «Это после полудня» и «Это три четверти целого». Неважно, как они поступают. Кроме того, когда мы получаем оба отчета, сумма общей информации, которую мы получаем, представляет собой сумму суммы информации в обоих сообщениях.

Количество, а не качество Объем информации зависит только от количества опций, а не от конкретных опций, которые были утеряны. Сообщение «Это после полудня» несет тот же объем информации, что и сообщение «Это четный час». Аналогично, объем информации не должен меняться с изменением канала связи.

Для количественного определения (оценки) любой физической величины необходимо определить единицу измерения, которая в теории измерений носит название меры. Как уже отмечалось, информацию перед обработкой, передачей и хранением необходимо подвергнуть кодированию. Кодирование производится с помощью специальных алфавитов (знаковых систем). В информатике, изучающей процессы получения, обработки, передачи и хранения информации с помощью вычислительных (компьютерных) систем, в основном используется двоичное кодирование, при котором используется знаковая система, состоящая из двух символов 0 и 1. По этой причине в формулах (1.1) и (1.2) в качестве основания логарифма используется цифра 2.

Переносимость Мы разрешаем только два возможных ответа на вопрос для простоты. В принципе, однако, мы можем также работать с более насыщенными вопросами. Измеренный объем информации в разных ситуациях должен быть либо идентичным, либо взаимно однозначным. Зависимые сообщения. Если содержимое двух сообщений связано. Принимая одно сообщение, количество информации во втором сообщении изменяется для нас. он должен применяться: общий объем информации, полученной обоими сообщениями, равен сумме объема информации в обоих сообщениях, уменьшенной объемом информации, разделяемой обоими сообщениями.

Исходя из вероятностного подхода к определению количества информации эти два символа двоичной знаковой системы можно рассматривать как два различных возможных события, поэтому за единицу количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза (до получения событий их вероятность равна 0,5, после получения – 1, неопределенность уменьшается соответственно: 1/0,5 = 2, т. е. в 2 раза). Такая единица измерения информации называется битом (от англ. слова binary digit – двоичная цифра). Таким образом, в качестве меры для оценки количества информации на синтаксическом уровне, при условии двоичного кодирования, принят один бит.

Другими словами, мы вычитаем то, что мы в противном случае считали бы дважды. Аналогично вычисляется величина объединения непустых множеств проникновения. Эти свойства вполне естественны, почему мы так подробно обсуждаем? Из-за их точного определения мы можем легко обнаружить единственный возможный способ измерения объема информации. Давайте посмотрим на два независимых отчета, таких как «Это три четверти для целого» и «Это ровный час».

Как мы измеряем, насколько мы не знаем?

Приведенная здесь интерпретация, насколько это возможно, позволяет избежать концепции логарифма. Это объясняется тем, что студенты знакомятся с ними относительно поздно, и тогда они не понимают их хорошо. Однако, если следующие отношения являются естественными или, по крайней мере, понятными, измерение объема информации может быть интерпретировано более прямолинейно и глубже.

Следующей по величине единицей измерения количества информации является байт, представляющий собой последовательность, составленную из восьми бит, т. е.

1 байт = 2 3 бит = 8 бит.

В информатике также широко используются кратные байту единицы измерения количества информации, однако в отличие от метрической системы мер, где в качестве множителей кратных единиц применяют коэффициент 10n, где п = 3, 6, 9 и т. д., в кратных единицах измерения количества информации используется коэффициент 2n. Выбор этот объясняется тем, что компьютер в основном оперирует числами не в десятичной, а в двоичной системе счисления.

Логарифм обратный к экспоненциальной функции. . Если, с другой стороны, достаточно сравнить количество информации в отчетах, и мы не хотим ее количественно оценивать, мы полностью пойдем без логарифма. Следующая таблица иллюстрирует четыре ситуации прогрессивной отчетности: «Это три четверти для целого» и «Это четный час»: сначала мы ничего не знаем, и мы получаем один из отчетов или одно из сообщений, и мы получим другое. Вопрос в том, сколько вариантов будет исключено в этом случае, что каким-то образом будет связано с количеством информации в каждом сообщении.

Кратные байту единицы измерения количества информации вводятся следующим образом:

1 Килобайт (Кбайт) = 2 10 байт = 1024 байт,

1 Мегабайт (Мбайт) = 2 10 Кбайт = 1024 Кбайт,

1 Гигабайт (Гбайт) = 2 10 Мбайт = 1024 Мбайт,

1 Терабайт (Тбайт) = 2 10 Гбайт = 1024 Гбайт,

1 Петабайт (Пбайт) = 2 10 Тбайт = 1024 Тбайт,

1 Экзабайт (Эбайт) = 2 10 Пбайт = 1024 Пбайт.

Информационный объем текста

Более того, это не должно меняться в зависимости от того, есть ли у нас второе сообщение, потому что два сообщения являются независимыми. Опять же, мы можем видеть, что количество исключенных опций для выражения объема информации в сообщении не может быть использовано. Он отличается тем, что мы уже знаем из другого независимого отчета. Итак, что не меняет таблицу для отдельных сообщений?

Соотношение исключенных и оригинальных вариантов

Если у нас есть время и умелые ученики, конечно, мы также можем позволить этому тупику исследовать самих студентов. Соотношение исключенных и оригинальных вариантов не изменяется. Вероятно, это будет более полезно для нас, чем фактическое количество вариантов. Мы хотим свободно осваивать эту информацию, а не уменьшать информационный вклад отдельных ответов до конца опроса, поскольку варианты опускаются.

Единицы измерения количества информации, в названии которых есть приставки «кило», «мега» и т. д., с точки зрения теории измерений не являются корректными, поскольку эти приставки используются в метрической системе мер, в которой в качестве множителей кратных единиц используется коэффициент 10n, где п = 3, 6, 9 и т. д. Для устранения этой некорректности международная организацией International Electrotechnical Commission, занимающаяся созданием стандартов для отрасли электронных технологий, утвердила ряд новых приставок для единиц измерения количества информации: киби (kibi), меби (mebi), гиби (gibi), теби (tebi), пети (peti), эксби (exbi). Однако пока используются старые обозначения единиц измерения количества информации, и требуется время, чтобы новые названия начали широко применяться.

И каждый вопрос мы пытаемся потерять половину опций, а не конкретный номер, а конкретную долю опций. Из предыдущих расчетов мы уже знаем следующее. В начале мы так мало знали о точном времени, когда нам понадобилось 11 вопросов для его определения. Получив сообщение «Это даже час» и «Это три четверти целого». Нам нужно задать четыре вопроса. Это соответствует общему уменьшению 1 6 = 7 вопросов через эти два отчета. Здесь добавляется количество информации в независимых новостях.

Измерение неопределенности по количеству вопросов, которые нам нужны, соответствует нашим условиям. Кроме того, это имеет смысл: количество информации в отчете соответствует количеству вопросов, которые мы сохраняем, благодаря сообщению при устранении опций. Другими словами, если мы хотим узнать вопрос, задавая вопросы, мы должны указать столько же, сколько информация в отчете.

Вероятностный подход используется и при определении количества информации, представленной с помощью знаковых систем. Если рассматривать символы алфавита как множество возможных сообщений N, то количество информации, которое несет один знак алфавита, можно определить по формуле (1.1). При равновероятном появлении каждого знака алфавита в тексте сообщения для определения количества информации можно воспользоваться формулой (1.2).

«Количество информации» ≈ «вопросы до» Количество вопросов, необходимых для исключения исходных параметров - «вопросы затем». Количество вопросов, необходимых для исключения параметров, оставшихся после получения сообщения. Внимательный читатель заметил, что мы работаем с рядом вопросов в зеленой таблице, что, безусловно, достаточно, чтобы определить время в данных знаниях. Но поскольку оставшиеся варианты не являются силой номер 2, иногда вопрос будет меньше. Поэтому наши расчеты являются приблизительными.

Мы уже знаем, как измерить информацию, но мы не сказали, в каких единицах. Но это совершенно ясно: Ответы на вопросы. Мы имеем в виду вопросы, которые позволяют только два ответа. Эти цифры весьма практичны. Они короткие и могут использоваться как логические значения или числа, представляющие все, что мы измерили или пронумеровали.

Количество информации, которое несет один знак алфавита, тем больше, чем больше знаков входит в этот алфавит. Количество знаков, входящих в алфавит, называется мощностью алфавита. Количество информации (информационный объем), содержащееся в сообщении, закодированном с помощью знаковой системы и содержащем определенное количество знаков (символов), определяется с помощью формулы:

Вы уже знаете соответствующую единицу информации из прошлого. Бит, с английской цифры. Бит - это одна двоичная цифра, что делает ее решением между двумя вариантами. Бит также говорят в связи с памятью компьютера: бит - это место для хранения одной цифры 0 или 1, то есть бит. Это аналогичный ярлык, когда вы говорите, что бутылка имеет литр.

Просто вычислите двоичный логарифм. Мы почти не задали 0. 49 вопросов, поэтому нам нужно 11 вопросов. Логарифм спас нас от необходимости постепенного разделения двух. При использовании логарифма в компьютере необходимо обратить внимание на используемую базу. К примеру, мы обычно находим естественные и декадические логарифмы на калькуляторах, но не бинарные. Это имеет смысл, большинство людей не компьютерные науки. Не забудьте преобразовать результаты в правильный логарифм.


где V – информационный объем сообщения; / = log 2 N, информационный объем одного символа (знака); К – количество символов (знаков) в сообщении; N – мощность алфавита (количество знаков в алфавите).

Поясним вышесказанное в п. 1.2 на примерах.

Пример 1.1

Определим, какое количество информации можно получить после реализации одного из шести событий. Вероятность первого события составляет 0,15; второго – 0,25; третьего – 0,2; четвертого – 0,12; пятого – 0,12; шестого – 0,1, т. е. Р 1 = 0,15; Р 2 = 0,25; Р 3 = 0,2; Р 4 = 0,18; Р 5 = 0,12; Р 6 = 0,1.

Мы используем базис 2, потому что мы работаем с двумя значениями. Результаты, естественно, основаны на битах. Кроме того, логарифм дает нам значимые результаты, даже если количество опций не является целым числом в два, поэтому нам нужно работать с приблизительным значением.

Пример: информация в «Это три четверти для полной». Эта сумма не может быть выражена во всех битах. Следовательно, фактический объем информации должен составлять от 5 до 6 бит. Двойной логарифм дает нам точный результат. Исходя из вышеприведенной связи, объем информации - это разница между количеством вопросов, которые вам нужны до этого, и вопросами, которые вам нужны после получения отчета. Мы используем логарифм вместо последовательности.

Решение.

Для определения количества информации применим формулу (1.1)



Для вычисления этого выражения, содержащего логарифмы, воспользуемся сначала компьютерным калькулятором, а затем табличным процессором Microsoft (MS) Excel, входящим в интегрированный пакет программ MS Office ХР.

Для вычисления с помощью компьютерного калькулятора выполним следующие действия.

С помощью команды: [Кнопка Пуск – Программы – Стандартные – Калькулятор] запустим программу Калькулятор. После запуска программы выполним команду: [Вид – Инженерный] (рис. 1.3).



Рис. 1.3. Инженерный калькулятор

Кнопка log калькулятора производит вычисление десятичного (по основанию 10) логарифма отображаемого числа. Поскольку в нашем случае необходимо производить вычисления логарифмов по основанию 2, а данный калькулятор не позволяет этого делать, то необходимо воспользоваться известной формулой:

logbN = М · log a N,


В нашем случае соотношение примет вид: log 2 N = M log 10 N,


т. е log 2 N = 3,322 · log 10 N, и выражение для вычисления количества информации примет вид:


При вычислении на калькуляторе используем кнопки: +/- (изменение знака отображаемого числа),()(открывающие и закрывающие скобки), log (логарифм числа по основанию 10) и т. д. Результат вычисления показан на рис. 1.3. Таким образом, количество информации I = 2,52 бит.

Воспользуемся теперь табличным процессором MS Excel. Для запуска программы Excel выполним команду: [Кнопка Пуск – Программы – MS Office ХР – Microsoft Excel]. В ячейки А1, В1, С1, D1, E1, F1 открывшегося окна Excel запишем буквенные обозначения вероятностей Р 1 , Р 2 , P 3 , Р 4 , P 5 , P 6 а в ячейку G1 – количество информации I , которое необходимо определить. Для написания нижних индексов у вероятностей Р 1 ? P 6 в ячейках А1, В1, С1, D1, E1, F1 выполним следующую команду: [Формат – Ячейки – Шрифт – Видоизменение (поставим флажок напротив нижнего индекса) ]. В ячейки А2, В2, С2, D2, Е2, F2 запишем соответствующие значения вероятностей.

После записи значений в ячейки необходимо установить в них формат числа. Для этого необходимо выполнить следующую команду: [Формат – Ячейки – Число – Числовой (устанавливаем число десятичных знаков, равное двум) ]. Устанавливаем в ячейке G2 тот же числовой формат. В ячейку G2 записываем выражение = – (A2*LOG(A2;2) + B2*LOG(B2;2) + C2*LOG(C2;2) + D2*LOG(D2;2) + E2*LOG(E2;2) + F2*LOG(F2;2)). После нажатия на клавиатуре компьютера клавиши , в ячейке G2 получим искомый результат – I = 2,52 бит (рис. 1.4).



Рис. 1.4. Результат вычисления количества информации

Пример 1.2

Определим, какое количество байт и бит информации содержится в сообщении, если его объем составляет 0,25 Кбайта.

Решение.

С помощью калькулятора определим количество байт и бит информации, которое содержится в данном сообщении:

I = 0,25 Кбайт · 1024 байт/1 Кбайт = 256 байт;

I = 256 байт · 8 бит/1 байт = 2048 бит.

Пример 1.3

Определим мощность алфавита, с помощью которого передано сообщение, содержащее 4096 символов, если информационный объем сообщения составляет 2 Кбайта.

Решение.

С помощью калькулятора переведем информационный объем сообщения из килобайт в биты:

V = 2 Кбайт 1024 байт/1 Кбайт = 2048 байт 8 бит/1 байт = 16384 бит.

Определим количество бит, приходящееся на один символ (информационный объем одного символа) в алфавите:

I = 16 384 бит/4096 = 4 бит.

Используя формулу (1.3), определим мощность алфавита (количество символов в алфавите) :

N = 2 I = 2 4 = 16.

Как уже отмечалось, если принять во внимание только свойство информации, связанное с ее смысловым содержанием, то при определении понятия информации можно ограничиться смысловым, или семантическим, уровнем рассмотрения этого понятия.

На семантическом уровне информация рассматривается по ее содержанию, отражающему состояние отдельного объекта или системы в целом. При этом не учитывается ее полезность для получателя информации. На данном уровне изучаются отношения между знаками, их предметными и смысловыми значениями (см. рис. 1.1), что позволяет осуществить выбор смысловых единиц измерения информации. Поскольку смысловое содержание информации передается с помощью сообщения, т. е. в виде совокупности знаков (символов), передаваемых с помощью сигналов от источника информации к приемнику, то широкое распространение для измерения смыслового содержания информации получил подход, основанный на использовании тезаурусной меры. При этом под тезаурусом понимается совокупность априорной информации (сведений), которой располагает приемник информации.

Данный подход предполагает, что для понимания (осмысливания) и использования полученной информации приемник (получатель) должен обладать априорной информацией (тезаурусом), т. е. определенным запасом знаков, наполненных смыслом, слов, понятий, названий явлений и объектов, между которыми установлены связи на смысловом уровне. Таким образом, если принять знания о данном объекте или явлении за тезаурус, то количество информации, содержащееся в новом сообщении о данном предмете, можно оценить по изменению индивидуального тезауруса под воздействием данного сообщения. В зависимости от соотношений между смысловым содержанием сообщения и тезаурусом пользователя изменяется количество семантической информации, при этом характер такой зависимости не поддается строгому математическому описанию и сводится к рассмотрению трех основных условий, при которых тезаурус пользователя:

Стремится к нулю, т. е. пользователь не воспринимает поступившее сообщение;

Стремится к бесконечности, т. е. пользователь досконально знает все об объекте или явлении и поступившее сообщение его не интересует;

Согласован со смысловым содержанием сообщения, т. е. поступившее сообщение понятно пользователю и несет новые сведения.

Два первых предельных случая соответствуют состоянию, при котором количество семантической информации, получаемое пользователем, минимально. Третий случай связан с получением максимального количества семантической информации. Таким образом, количество семантической информации, получаемой пользователем, является величиной относительной, поскольку одно и то же сообщение может иметь смысловое содержание для компетентного и быть бессмысленным для некомпетентного пользователя.

Поэтому возникает сложность получения объективной оценки количества информации на семантическом уровне ее рассмотрения и для получения такой оценки используют различные единицы измерения количества информации: абсолютные или относительные. В качестве абсолютных единиц измерения могут использоваться символы, реквизиты, записи и т. д., а в качестве относительной – коэффициент содержательности, который определяется как отношение семантической информации к ее объему. Например, для определения на семантическом уровне количества информации, полученной студентами на занятиях, в качестве единицы измерения может быть принят исходный балл (символ), характеризующий степень усвояемости ими нового учебного материала, на основе которого можно косвенно определить количество информации, полученное каждым студентом. Это количество информации будет выражено через соответствующий оценочный балл в принятом диапазоне оценок.

При семантическом подходе к оценке количества информации и выборе единицы измерения существенным является вид получаемой информации (сообщения). Так, данный подход к оценке количества экономической информации позволяет выявить составную единицу экономической информации, состоящую из совокупности других единиц информации, связанных между собой по смыслу. Элементарной составляющей единицей экономической информации является реквизит, т. е. информационная совокупность, которая не поддается дальнейшему делению на единицы информации на смысловом уровне. Деление реквизитов на символы приводит к потере их смыслового содержания. Каждый реквизит характеризуется именем, значением и типом. При этом под именем реквизита понимается его условное обозначение, под значением – величина, характеризующая свойства объекта или явления в определенных обстоятельствах, под типом – множество значений реквизита, объединенных определенными признаками и совокупностью допустимых преобразований.

Реквизиты принято делить на реквизиты-основания и реквизиты-признаки .

Реквизиты-основания характеризуют количественную сторону экономического объекта, процесса или явления, которые могут быть получены в результате совершения отдельных операций – вычислений, измерений, подсчета натуральных единиц и т. д. В экономических документах к ним можно отнести, например, цену товара, его количество, сумму и т. п. Реквизиты-основания чаще всего выражаются в цифрах, над которыми могут выполняться математические операции.

Реквизиты-признаки отражают качественные свойства экономического объекта, процесса или явления. С помощью реквизитов-признаков сообщения приобретают индивидуальный характер. В экономических документах к ним можно отнести, например, номер документа, имя отправителя, дату составления документа, вид операции и т. п. Реквизиты-признаки позволяют осуществлять логическую обработку единиц количества информации на семантическом уровне: поиск, выборку, группировку, сортировку и т. д.

Отдельный реквизит-основание вместе с относящимися к нему реквизитами-признаками образует следующую в иерархическом отношении составную единицу экономической информации – показатель. Показатель имеет наименование, в состав которого входят термины, обозначающие измеряемый объект: себестоимость, затраты, мощность, прибыль и т. д. Кроме того, показатель содержит формальную характеристику и дополнительные признаки. К формальной характеристике относится способ его получения (объем, сумма, прирост, процент, среднее значение и т. д.), а к дополнительным – пространственно-временные (где находится измеряемый объект, время, к которому относится данный показатель) и метрологические (единицы измерения).

Таким образом, с помощью совокупности реквизитов и соответствующих им показателей можно оценить количество экономической информации, получаемой от исследуемого объекта (источника информации).

Кроме подхода, основанного на использовании тезаурусной меры, при определении количества информации на семантическом уровне находят применение и другие подходы . Например, один из подходов, связанных с семантической оценкой количества информации, заключается в том, что в качестве основного критерия семантической ценности информации, содержащейся в сообщении, принимается количество ссылок на него в других сообщениях. Количество получаемой информации определяется на основе статистической обработки ссылок в различных выборках.

Подводя итог сказанному, можно утверждать, что существовала и существует проблема формирования единого системного подхода к определению информации на семантическом уровне. Это подтверждается и тем, что в свое время для создания строгой научной теории информации К. Шеннон вынужден был отбросить важное свойство информации, связанное со смысловым ее содержанием.

Кроме перечисленных уровней рассмотрения понятия информации достаточно широко используется прагматический уровень. На данном уровне информация рассматривается с точки зрения ее полезности (ценности) для достижения потребителем информации (человеком) поставленной практической цели. Данный подход при определении полезности информации основан на расчете приращения вероятности достижения цели до и после получения получения информации . Количество информации, определяющее ее ценность (полезность), находится по формуле:


где Р 0 , P 1 – вероятность достижения цели соответственно до и после получения информации.

В качестве единицы измерения (меры) количества информации, определяющей ее ценность, может быть принят 1 бит (при основании логарифма, равном 2), т. е. это такое количество полученной информации, при котором отношение вероятностей достижения цели равно 2.

Рассмотрим три случая, когда количество информации, определяющее ее ценность, равно нулю и когда она принимает положительное и отрицательное значение.

Количество информации равно нулю при Р 0 = Р 1 , т.е. полученная информация не увеличивает и не уменьшает вероятность достижения цели.

Значение информации является положительной величиной при P 1 > P 0 , т. е. полученная информация уменьшает исходную неопределенность и увеличивает вероятность достижения цели.

Значение информации является отрицательной величиной при P 1 < P 0 , т. е. полученная информация увеличивает исходную неопределенность и уменьшает вероятность достижения цели. Такую информацию называют дезинформацией.

Дальнейшее развитие данного подхода базируется на статистической теории информации и теории решений. При этом кроме вероятностныхарактеристик достижения цели после получения информации вводятся функции потерь и оценка полезности информации производится в результате минимизации функции потерь. Максимальной ценностью обладает то количество информации, которое уменьшает потери до нуля при достижении поставленной цели .

При определении количества информации на основе уменьшения неопределенности наших знаний мы рассматриваем информацию с точки зрения содержания, ее понятности и новизны для человека. С этой точки зрения в опыте по бросанию монеты одинаковое количество информации содержится и в зрительном образе упавшей монеты, и в коротком сообщении "Орел", и в длинной фразе "Монета упала на поверхность земли той стороной вверх, на которой изображен орел".

Однако при хранении и передаче информации с помощью технических устройств целесообразно отвлечься от содержания информации и рассматривать ее как последовательность знаков (букв, цифр, кодов цветов точек изображения и так далее).

Набор символов знаковой системы (алфавит) можно рассматривать как различные возможные состояния (события). Тогда, если считать, что появление символов в сообщении равновероятно, по формуле (2.1) можно рассчитать, какое количество информации несет каждый символ.

Так, в русском алфавите, если не использовать букву ё, количество событий (букв) будет равно 32. Тогда:

32 = 2 I , откуда I = 5 битов.

Каждый символ несет 5 битов информации (его информационная емкость равна 5 битов). Количество информации в сообщении можно подсчитать, умножив количество информации, которое несет один символ, на количество символов.

Количество информации , которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на количество знаков.

Вопросы для размышления

1. Пусть две книги на русском и китайском языках содержат одинаковое количество знаков. В какой книге содержится большее количество информации с точки зрения алфавитного подхода?

Однако любое техническое устройство не воспринимает содержание информации.Поэтому в вычислительной технике используется другой подход к определению количества информации. Он называется алфавитным подходом .

При алфавитном подходе к определению количества информации отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность знаков определенной знаковой системы.
Проще всего разобраться в этом на примере текста, написанного на каком-нибудь языке. Для нас удобнее, чтобы это был русский язык.
Все множество используемых в языке символов будем традиционно называть алфавитом. Обычно под алфавитом понимают только буквы, но поскольку в тексте могут встречаться знаки препинания, цифры, скобки, то мы их тоже включим в алфавит. В алфавит также следует включить и пробел, т.е. пропуск между словами.

Алфавит - множество символов, используемых при записи текста.

Мощность (размер) алфавита - полное количество символов в алфавите.

Будем обозначать эту величину буквой N . Например, мощность алфавита из русских букв и отмеченных дополнительных символов равна 54.
Представьте себе, что текст к вам поступает последовательно, по одному знаку, словно бумажная ленточка, выползающая из телеграфного аппарата. Предположим, что каждый появляющийся на ленте символ с одинаковой вероятностью может быть любым символом алфавита. В действительности это не совсем так, но для упрощения примем такое предположение. В каждой очередной позиции текста может появиться любой из N символов. Тогда, согласно известной нам формуле N = 2 I (см. содержательный подход ) каждый такой символ несет I бит информации, которое можно определить из решения уравнения: 2 I = 54. Получаем: I = 5.755 бит - такое количество информации несет один символ в русском тексте.

Чтобы найти количество информации во всем тексте, нужно посчитать число символов в нем и умножить на I.
Посчитаем количество информации на одной странице книги. Пусть страница содержит 50 строк. В каждой строке — 60 символов. Значит, на странице умещается 50x60=3000 знаков. Тогда объем информации будет равен: 5,755 х 3000 = 17265 бит.

При алфавитном подходе к измерению информации количество информации зависит не от содержания, а от размера текста и мощности алфавита.

Таким образом, алфавитный подход к измерению информации можно изобразить в виде таблицы:

При использовании двоичной системы (алфавит состоит из двух знаков: 0 и 1) каждый двоичный знак несет 1 бит информации.

Применение алфавитного подхода удобно, прежде всего, при использовании технических средств работы с информацией. В этом случае теряют смысл понятия «новые - старые», «понятные - непонятные» сведения.

Алфавитный подход является объективным способом измерения информации в отличие от субъективного содержательного подхода.

Удобнее всего измерять информацию, когда размер алфавита N равен целой степени двойки. Например, если N=16, то каждый символ несет 4 бита информации потому, что 2 4 = 16. А если N =32, то один символ «весит» 5 бит.

Ограничения на максимальный размер алфавита теоретически не существует. Однако есть алфавит, который можно назвать достаточным. С ним мы встречались при рассмотрении темы "Кодирование текствовой информации" . Это алфавит мощностью 256 символов. В алфавит такого размера можно поместить все практически необходимые символы: латинские и русские буквы, цифры, знаки арифметических операций, всевозможные скобки, знаки препинания....
Поскольку 256 = 2 8 , то один символ этого алфавита «весит» 8 бит. Причем 8 бит информации — это настолько характерная величина, что ей даже присвоили свое название - байт.
1 байт = 8 бит.

Для измерения больших объемов информации используются следующие единицы:

1 Кб (один килобайт)= 1024 байт=2 10 байт
1 Мб (один мегабайт)= 1024 Кб=2 10 Кбайт=2 20 байт
1 Гб (один гигабайт)= 1024 Мб=2 10 Mбайт=2 30 байт
1Тбайт (один терабайт)=2 10 Гбайт=1024Гбайт=2 40 байт
1Пбайт(один петабайт)=2 10 Тбайт=1024Тбайт=2 50 байт
1Эбайт(один экзабайт)=2 10 Пбайт=1024Пбайт=2 60 байт
1Збайт(один зетабайт)=2 10 Эбайт=1024Эбайт=2 70 байт
1Йбайт(один йотабайт)=2 10 Збайт=1024Збайт=2 80 байт.