В зависимости от объема информации. Меры и единицы количества и объема информации

05.02.2019

Количественные характеристики информации

Классификация мер информации представлена на рис.1.


Рис. 1. Классификация мер информации

Синтаксическая мера информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации.

Другими словами, при анализе работы активность оператора может быть предсказана с помощью математических моделей, которые учитывают объем информации, которой подвергается оператор, и вероятность появления сигналов. Такой подход к анализу труда привел к нескольким экспериментальным исследованиям и, в меньшей степени, исследованиям. Однако, как указывает Куни, эти исследования имеют свои собственные пределы, поскольку они не включают в анализ труда отдельные характеристики операторов: По существу, возможности, задуманные в контексте теории информации, подчиняются принципу, связывающему эффективность поведения с значение сообщений, поступающих к оператору.

Существуют два основных подхода в определении количества информации. Исторически они возникли почти одновременно. В конце 40-х г. XX века один из основоположников кибернетики, американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.

Согласно этому принципу, как трудности, так и ошибки и успехи на работе, как правило, в большей степени зависят от способов коммуникации, создаваемых этим сообщением, чем от способностей и неадекватности, которые считаются стабильными компонентами личности. Значение этого сообщения определяется в этом контексте с точки зрения количества передаваемой информации и, более конкретно, с точки зрения поиска «полезной информации»; полезный для целей текущей задачи. Таким образом, предметом работы психологов и эргономистов будет совместимость между характеристиками сигналов, передаваемых по каналу, и характеристиками оператора, который обрабатывает информацию.

Объём данных (V Д) понимается в техническом смысле этого слова как информационный объём сообщения или как объём памяти, необходимый для хранения сообщения без каких-либо изменений.

Информационный объём сообщения измеряется в битах и равен количеству двоичных цифр (“0” и “1”), которыми закодировано сообщение.

В компьютерной практике слово “бит” используется также как единица измерения объёма памяти. Ячейка памяти размером в 1 бит может находиться в двух состояниях (“включено” и “выключено”) и в неё может быть записана одна двоичная цифра (0 или 1). Понятно, что бит – слишком маленькая единица измерения информации, поэтому пользуются кратными ей величинами. Основной единицей измерения информации является байт . 1 байт равен 8 битам. В ячейку размером в 1 байт можно поместить 8 двоичных цифр, то есть в одном байте можно хранить 256 = 2 8 различных чисел. Для измерения ещё больших объёмов информации используются следующие величины:

Подходы «Человеческих факторов» в Соединенных Штатах во многом были вдохновлены этим требованием о совместимости для изучения взаимодействия между человеком и машиной. В контексте теории информации в эргономике всегда была большая работа, ориентированная на изучение порогов обнаружения сигналов. Теория обнаружения сигналов и сопутствующие методологии показывают, что реакция индивида, подвергнутого воздействию ряда стимулов, зависит не только от интенсивности этих раздражителей, но и от чувствительности индивида, чтобы различать шумовые сигналы.

1 Кбайт (один килобайт) = 2 10 байт = 1024 байта (1 kB );

1 Мбайт (один мегабайт) = 2 10 Кбайт = 1024 Кбайта (1 MB );

1 Гбайт (один гигабайт) = 2 10 Мбайт = 1024 Мбайта (1 GB );

1 Тбайт (один терабайт) = 2 10 Гбайт = 1024 Гбайта (1 TB );

1 Пбайт (один петабайт) = 2 10 Тбайт = 1024 Тбайта (1 PB );

1 Эбайт (один эксабайт) = 2 10 Пбайт = 1024 Пбайта (1 EB );

Фактически, ответ также зависит от стратегий оператора, которые приводят вас к принятию решения: консервативная стратегия, которая поможет вам дать правильный ответ, только когда вы уверены, что обнаружили сигнал, или рискованную стратегию, которая уменьшает неопределенности в решении и приводит оператора к генерации большего количества ложных тревог. Теория обнаружения сигналов широко использовалась в эргономике для изучения ситуаций наблюдения, где она предназначена для обнаружения сигналов, появляющихся на экране более или менее спорадически, например.

1 Збайт (один зеттабайт) = 2 10 Эбайт = 1024 Эбайта (1 ZB );

1 Йбайт (один йоттабайт) = 2 10 Збайт = 1024 Збайта (1 YB ).

Пример 1 . При двоичном кодировании текста каждая буква, знак препинания, пробел занимают 1 байт. На странице книги среднего формата примерно 50 строк, в каждой строке около 60 символов, таким образом, полностью заполненная страница имеет объём 50x60= = 3000 байт ≈3 Килобайта. Вся книга среднего формата занимает ≈0,5 Мегабайт. Один номер четырёхстраничной газеты – 150 Килобайт. Если человек говорит по 8 часов в день без перерыва, то за 70 лет он наговорит около 10 Гигабайт информации. Один чёрно-белый кадр (при 32 градациях яркости каждой точки) содержит примерно 300Кб информации, цветной кадр содержит уже около 1Мб информации. Телевизионный фильм продолжительностью 1,5часа с частотой 25 кадров в секунду - 135 Гб.

Наконец, понятие информации в ее количественном аспекте породило плодовитую литературу и обширные исследования вокруг концепции «умственной нагрузки». В этой перспективе умственная нагрузка будет связана с информационной перегрузкой. Эта идея основана главным образом на работе Бродбента, в которой автор предлагает, чтобы у человека была система обработки информации с ограниченной способностью, которая была бы насыщенной, когда человек должен обрабатывать слишком много информации, информации, которая часто случается или из нескольких источников.

При вероятностном подходе количество информации I на синтаксическом уровне определяется через понятие энтропии системы.

Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе α. Мерой его неосведомленности о системе является функция H(α), которая в то же время служит и мерой неопределенности состояния системы.

Одной из методологий, используемых для измерения ментальной нагрузки, полученной из этой концепции, является «двойная задача». Это требует от оператора выполнения двух задач и более или менее насыщения их вычислительной мощности с приоритетным выполнением одной из задач, определяющей оставшуюся остаточную емкость для выполнения другой задачи. Основная критика этого подхода к умственной нагрузке состоит в том, что он считает, что вычислительная способность индивида является постоянной как внутриличностной, так и межличностной.

Другим объяснительным вариантом менее требовательной умственной нагрузки является предложение Викенса в терминах «множественных ресурсов». В этой модели вычислительная мощность оператора метафоризуется как депозит ресурсов разного характера, соответствующих различным способам обработки информации. Эти ресурсы могут запрашиваться одновременно, если они не являются несовместимыми при выполнении задачи.

После получения некоторого сообщения β получатель приобрел некоторую дополнительную информацию I β (α), уменьшившую его априорную неосведомленность так, что неопределенность состояния системы после получения сообщения β стала H β (α).

Тогда количество информации I β (α) о системе, полученной в сообщении β, определится как

I β (α) = H(α) - H β (α).

Хотя методологии, основанные исключительно на теории информации, сегодня больше не используются для изучения работы, в прошлом это позволило некоторым достижениям в эргономическом анализе. Однако сегодня количественный аспект уже не является преобладающим в когнитивных моделях обработки информации, применяемых для анализа работы. При анализе деятельности он должен знать, прежде всего, о том, что означает, что операторы приписывают свою работу: как они рассуждают и планируют? Почему они принимают определенные стратегии для обработки сигнала или нет?

т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы. Если конечная неопределенность H β (α) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации будет определяться как I β (α) = H(α). Иными словами, энтропия системы Н(а) может рассматриваться как мера недостающей информации.

Как предыдущий опыт влияет на обработку информации? Как экологические обстоятельства, состояние усталости оператора или состояние его внимания работают в рабочей ситуации? В настоящее время заинтересованность в обработке информации также означает заинтересованность в характеристиках стимулов и значений «шума», то есть индивидуальных и контекстных переменных, которые влияют на обработку информации.

Уитфилд, оператор человека в сложных системах. «Информация о психологии». Обработка ресурсов во внимание. Дэвис, Многообразие внимания. Влажность почвы существенно определяет изменение характеристик различных материалов или почв. Содержание влаги в определенной почве будет определять диффузионные или складские характеристики воды в этой почве.

Энтропия системы H(α), имеющая N возможных состояний, согласно формуле Шеннона, равна:

где – вероятность того, что система находится в i-м состоянии. Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны, ее энтропия определяется соотношением:

Пример 2. Часто информация кодируется числовыми кодами в той или иной системе счисления, особенно это актуально при представлении информации в компьютере. Естественно, что одно и то же количество разрядов в разных системах счисления может передавать разное число состояний отображаемого объекта, что можно представить в виде соотношения

Эти характеристики касаются как твердых, так и жидких материалов, которые попадают в почву. Существуют различные методы измерения влажности почвы. Этот метод состоит в сушке образца почвы, а затем в знании путем окончательного взвешивания веса воды, содержащейся в образце.

Справочный метод, но долгий, дорогой и разрушительный. Метод нейтронного зонда. Этот метод остается особенно эффективным, но дорогостоящим и в настоящее время слишком регламентированным для использования просто оператором. Метод измерения электропроводности. Это очень экономичный метод, к сожалению, очень отрывочны, и сильно зависит от типа почвы и засоленности почвы.

N = m n ,где N – число всевозможных отображаемых состояний;

m – основание системы счисления (разнообразие символов, применяемых в алфавите);

n – число разрядов (символов) в сообщении.

Допустим, что по каналу связи передается n-разрядное сообщение, использующее m различных символов. Так как количество всевозможных кодовых комбинаций будет N = m n , то при равновероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет определяться по формуле Хартли:

I = log N = n log m

Если в качестве основания логарифма принять m, то I = n. В данном случае количество информации (при условии полного априорного незнания абонентом содержания сообщения) будет равно объему данных I = V Д, полученных по каналу связи.

Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит .

Семантическая мера информации

Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используется понятие «тезаурус пользователя» .

Тезаурус – это совокупность сведений, которыми располагает пользователь или система.

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя S p изменяется количество семантической информации I c , воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер зависимости количества семантической информации, воспринимаемой потребителем, от его тезауруса показан на рис. 2.

Рис. 2. Характер зависимости количества семантической информации от его тезауруса

Рассмотрим два предельных случая, когда количество семантической информации I c равно 0:

При пользователь не воспринимает и не понимает поступающую информацию;

При пользователь все знает, и поступающая информация ему не нужна.

Максимальное количество семантической информации I c потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом S p (S p = S p opt), когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения. Следовательно, количество семантической информации в сообщении, т.е. количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного.

Относительной мерой количества семантической информации может служить коэффициент содержательности С , который определяется как отношение количества семантической информации к ее объему: .

Прагматическая мера информации (аксиологический подход)

Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цепи. Эта мера также является величиной относительной, обусловленной особенностями использования этой информации в той или иной системе.

Ценность информации целесообразно измерять в тех же самых единицах (или близких к ним), в которых измеряется целевая функция.

Представим для сопоставления введённые меры информации в таб. 1.

Таб. 1. Меры информации


Единицы измерения информации служат для измерения объёма информации.

В простейшем случае чтобы отличить одно от других необходимо наличие двух информационных объектов. Причем сами такие объекты должны быть неделимыми, как атомы. В таком случае одному такому объекту можно ставить в соответствие, например, число, 0, а другому 1. Нельзя придумать иных элементарных отличий. К примеру, черно-белый объект может быть лишь в двух состояниях – черный или белый. Можно говорить о других бинарных состояниях объектов - включен/выключен, есть/нет. Такие состояния обладают минимальной информационной ёмкостью.

Для измерения количества информации необходима единица информации. За единицу количества информации приняли такое количество информации, при котором неопределённость уменьшается в два раза. Такая единица названа бит . Информационный объем сообщения - количество двоичных символов, используемое для кодирования этого сообщения. Информационная ёмкость одной ячейки памяти компьютера, способной находиться в двух различных состояниях, принята за единицу измерения количества информации - 1 бит.

Бит – это один двоичный разряд 1 или 0. Байт – 8 двоичных разрядов. 1 байт = 8 бит.

Каждое из 256 двоичных чисел

имеет размер 1 байт.

С их помощью занумеровать и различать 256 различных объектов.

Производные единицы измерения информации и данных:

1 Кб (1 Килобайт ) = 2 10 байт = 1024 байт

1 Мб (1 Мегабайт ) = 2 20 байт = 1024 килобайт

1 Гб (1 Гигабайт ) = 2 30 байт = 1024 мегабайт

1 Тб (1 Терабайт ) = 2 40 байт = 1024 гигабайт.

1 Пб (1 Петабайт ) = 2 50 байт = 1024 терабайт.

1 Эксабайт = 2 60 байт = 1024 петабайт.

1 Зеттабайт = 2 70 байт = 1024 эксабайт.

1 Йоттабайт = 2 80 байт = 1024 зеттабайт.

Конец работы -

Эта тема принадлежит разделу:

ТЕМА 1. ИНФОРМАЦИЯ И ИНФОРМАТИКА

Информация в материальном мире Сигналы и данные Мы живем в материальном мире Все что нас... Пример процесса преобразования данных в информацию...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ:

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Сигналы и данные
Мы живем в материальном мире. Все, что нас окружает и с чем мы сталкиваемся ежедневно, относится либо к физическим телам, ли

Данные и методы
Данные несут в себе информацию о событиях, произошедших в материальном мире. Однако данные не тождественны информации. Наблюдая излучения да

Понятие об информации
Несмотря на то, что с понятием информации мы сталкиваемся ежедневно, строгого и общепризнанного определения информации до сих пор не существует, поэтому вмес

Взаимодействие данных и методов
Данные являются объективными, поскольку это результат регистрации объективно существовавших сигналов, вызванных изменениями в материальных телах или полях.

Актуальность.
1. Объективность и субъективность информации. Понятие объективности информации является относительным. Это понятно, если учесть, что методы являются субъективными.

Истоки и предпосылки информатики
Слово информатика происходит от французского слова Informatique, образованного в результате объединения терминов Information (информация) и

Двоичная система счисления
впервые предложена гениальным немецким математиком и инженером Готфридом Лейбницем, изобретателем систем счисления, а также основателем дифференциального и интегрального исчи

Троичная система счисления
Из целочисленных систем счисления обладает наибольшей плотностью записи информации. Первая троичная ЭВМ «Сетунь» была построена в 1958 году Н. П. Брусенцовым в МГУ.

Позиционные системы счисления
Позиционная систе́ма счисле́ния (позиционная нумерация) - система счисления, в которой значение каждого числового знака (цифры) в записи числа зависит от его позиции (раз

Представление числа
Целое число без знака в системе счисления представляется в виде конечной линейной комбинации степеней числа

Запись числа
Число записывают в виде последовательности его -ричных цифр, перечисляемых по убыва

Перевод вещественного числа из десятичной системы счисления в двоичную систему
Рассмотрим число 567.25 и переведем его в двоичную систему счисления. Перевод целого числа из десятичной системы счисления в двоичную систему

Перевод дробной части числа
Имеем аналогично 0.012 = 0*2-1+1*2-2 = 0*0.5+1*0.25 = 0.25. Окончательно получим 1000110111.012 = 567.

Кодирование текстовых данных
Если каждому символу алфавита сопоставить определенное целое число (например, порядковый номер), то с помощью двоичного кода можно кодировать и текстовую информацию. Восьми двоичных

Кодирование графических данных
Если рассмотреть с помощью увеличительного стекла черно-белое графическое изображение, напечатанное в газете или книге, то можно увидеть, что оно состоит из мельчайших точек, образу

Кодирование звуковой информации
Можно выделить два основных направления. Метод FM (Frequency Modulation) основан на том, что теоретически любой сложный звук при помощи преобразован

Кодирование видеоинформации
Изображение в видео состоит из отдельных кадров, которые меняются с определенной частотой. Кадр кодируется как обычное растровое изображение, то есть разбивается на множество пикселей. Закодировав

Видеоформаты и видеостандарты
В первую очередь определимся с видеостандартами. Их обязательно нужно учитывать при создании видеофильма или видеоролика. PAL - видеостанд

Стандарты сжатия цифрового видео
MPEG - один из основных стандартов сжатия. Аббревиатура MPEG (Moving Pictures Expert Group) - это название международного комитета, занимающегося разработкой данного стандарта сжат

Расширения видеофайлов
AVI (Audio-Video Interleaved) - это расширение огромного количества видеофайлов, но не является форматом или кодеком. Это контейнер, разработанный

Алгебра логики
Логика очень древняя наука. Ещё в античные времена была известна формальная логика, позволяющая делать заключения о правильности какого-либо суждения не по его фактическому содержан