Единицы информации что такое бит.  Что такое бит

28.02.2019

Бит - это единица измерения объема информации. Клод Шэннон предложил использовать термин bit в 1948 году для обозначения единицы информации. Сейчас мы обсудим историю и содержание данного понятия подробнее.

Что же это такое

Если говорить о том, как переводится слово «бит», что это за понятие, и каковы его истоки, следует сказать, что английское словосочетание binary digit, от которого возник термин, происходит из английского языка и означает Кроме того, здесь заложена определенная игра слов. Бит - это кусочек или частица.

Если учесть, что один разряд в может принимать лишь два значения, которые исключают друг друга: да/нет, 1/0, мы получаем еще одно определение. Таким образом, бит - это такое число информации, которое дает возможность однозначно дать ответ на поставленный системой вопрос. В электронике один двоичный разряд соответствует одному двоичному триггеру, который имеет два устойчивых состояния.

Разновидности

Итак, можно сделать вывод, что один бит - это единица, равная единому разряду в условиях Возможны 2 физические реализации единого двоичного разряда. Однофазный бит предполагает использование одного выхода двоичного триггера, при этом нулевой уровень может означать как сигнал «0», так и возможную неисправность схемы.

В свою очередь, высокий уровень отвечает за сигнал «1» и полную исправность схемы. Двухфазный бит предполагает использование обоих выходов двоичного триггера. В случае исправной схемы один из 2 уровней высокий, второй — низкий. Следует отметить, что высокий уровень для обоих проводов, а также низкий уровень для обоих проводов свидетельствуют о неисправности схемы.

Передача данных

Если говорить о вычислительной технике, а также сетях по там обычно значения нуля и единицы передаются при помощи различных уровней напряжения или тока. Следует отметить, что в сфере особенно если речь идет о стандартах и документации, слово «бит» применяется часто в значении «двоичный разряд». Интересно, что аналогом бита для стал кубит (q-бит).

Байт

Совокупность данных в компьютере, состоящая из 8 битов, называется байтом. Именно 8 битов являются основой для представления определенных символов, к примеру буквы «А». Также данная величина позволяет работать с двоичной арифметикой. Другими словами, байт представляет собой команду битов, отвечающую за отдельную деталь в определенном файле.

При этом каждый из байтов имеет уникальный адрес в памяти персонального компьютера. Биты вместе с байтами обладают нумерацией в диапазоне 0-7 и считаются справа налево. К примеру, если воспользоваться номером бита 76543210, значение его будет 01000001, а при выдаче на принтер данного информационного кода будет сгенерирована привычная буква «А».

Подчеркнем, что число включенных битов на едином байте нечетно. Следует учесть, что когда команда обращается к байту, персональный компьютер его проверяет, и если количество включенных битов является четным, система сообщает об ошибке. Что касается ошибки четности, она может быть вызвана сбоем оборудования либо представлять собой случайное явление, однако подобное происходит крайне редко.

При обработке данных в персональном компьютере посредством электронных цепей проходят многочисленные электрические импульсы. Подобные цепи состоят из специальных проводников, а также логических вентилей, так названы электронные микроустройства. При этом импульсы, которые проходят через вентили, способны «гаситься». Благодаря этому обрабатываются данные. В завершение еще раз напомним, что бит - это, прежде всего, крохотная единица информации, о которой мы с вами узнали немного больше.

– Игорь (Администратор)

В данной статье я рассмотрю вопрос что такое бит, зачем он нужен и какое ему отведено место в мире информационных технологий. Материал ориентирован в первую очередь на новичков и обычных пользователей, которым просто интересно узнать что такое бит. Так что если вы матерый компьютерщик, то эта статья не для вас, хотя решать вам.

Сегодня практически вся информационная индустрия, включая технику, базируется на термине "бит", который образован от словосочетания "binary digit" или по русски двоичный знак (число). Так что такое бит? Чисто технически, под словом "бит" подразумевает единицу информации, которая может принимать всего лишь два значения 0 или 1. Если говорить более простыми словами и приводить аналогию из жизни, то это обычный выбор между "Да" или "Нет". Не трудно заметить, что такой подход очень прост для восприятия и понимания, даже теми людьми, которые с техническими науками плохо ладят (практически каждый день миллиарды людей так или иначе взаимодействуют с электронными приборами, включая будильники, компьютеры и прочее).

Примечание : В интернете можно найти упоминания о других методиках подсчета и создания электроники. Однако, из-за своей сложности в массовом производстве и создании соответствующего программного обеспечения они так и не прижились.

Что позволяет бит? Биты позволяют с легкостью выстраивать более сложные конструкции, такие как описание алгоритма действий, системы классификации, хранилища данных и многое другое. Другими словами, используя биты можно в едином стиле как хранить данные, так и создавать программные коды для управляющих устройств. К примеру, если обращали внимание, то документы и программы - это просто файлы на жестком диске. Кроме того, такая двоичная логика используется и при производстве самой техники (создании тех же плат).

В техничке, обычно, за 0 принимается либо отсутствие тока, либо низкий уровень сигнала, а за 1 воспринимается высокий уровень сигнала. Другими словами, есть ток на контактах - значит 1, нет тока - значит 0. Просто, легко, понятно и нет проблем с интеграцией различных устройств и блоков.

В целом, под "что такое бит" можно подразумевать всю сегодняшнюю информационную индустрию, а не только два значения 0 и 1. Поэтому это слово вы можете встретить практически в любой технической статье, будь то она посвящена аппаратуре или же программным кодам.

Примечание : Стоит знать, что под словом "бит" могут подразумеваться и другие определения. К примеру, в теории вероятности, бит - это двоичный логарифм вероятности равновероятных событий.

Cтраница 1


Бит информации в принципе может быть считан при размере порядка 10 нм. Поэтому для высокогототной записи материалы должны быть нанокристаллическими. Но уже при размере частиц порядка нескольких десятков нанометров наблюдается суперпарамагнитный эффект - из-за тепловых колебаний вектор намагниченности мелкой частицы не способен сохранять свою ориентацию достаточно долгое время. Другими словами, термические флуктуации разрушают хранимую информацию.  

Сколько бит информации содержит произвольное трехзначное число.  


Один бит информации, таким образом, имеет достаточно ограниченную емкость.  

Один бит информации стоит от fcB In 2 и больше. Прием и передача информации связаны с необратимыми затратами энтропии, не зависящими от температуры. Ни одна самая хитроумная конструкция не может позволить нам обойти второе начало термодинамики. Если информационную систему подпитывать данными, то ее энтропия всегда будет возрастать, поскольку энтропия является мерой внутреннего беспорядка. Следовательно, в стационарном режиме энтропию необходимо отводить от системы, например, путем теплопроводности или излучения, что может создать определенные проблемы. Информационные системы должны экспортировать энтропию, и поэтому она соответствует процессам самоорганизации. К счастью, внутренние переходы в информационной системе могут протекать обратимо или почти обратимо, поэтому никаких принципиальных ограничений здесь не возникает.  

Понятие бита информации можно наглядно продемонстрировать на следующем примере. Железнодорожная станция имеет 8 путей: I, II, III, IV, V, VI, VII, VIII. Предположим, к станции приближается поезд. У диспетчера под рукой три переключателя (А, Б, С), каждый из которых может быть поставлен либо в левое, либо в правое положение. Переключатель А подает управляющий сигнал на входную стрелку а. Если на стрелку подается сигнал 0, она открывает перед поездом левый путь, а если подается сигнал 1, то правый путь. Ставя переключатель в левое либо правое положение, диспетчер всякий раз посылает управляющий сигнал (0 или 1), содержащий информацию в 1 бит. Поставив в соответствующие положения все три переключателя, диспетчер сформирует управляющий сигнал, который направит поезд на тот или иной из восьми путей. Восемь путей - восемь управляющих сигналов, каждый из которых содержит 3 бита информации.  

Определенное число битов информации, хранимых в одной ячейке, называется словом памяти. Слово памяти может не совпадать с машинным словом, являющимся информационной единицей. Так, при длине слова в 32 двоичных разряда слово памяти может иметь длину 16 или 64 бит. В первом случае машинное слово размещается в двух ячейках памяти, во втором - в одной ячейке памяти хранится два машинных слова.  

При считывании бита информации на адресную шину X подается уровень напряжения - UC4 (U UC4), который открывает транзистор VT3, но не может открыть транзистор V7V При считывании 1 емкость Сп будет разряжаться через открытые транзисторы VT2 и VT3 на заземленную шину.  

Для передачи бита информации (двоичной переменной) необходима одна цепь. Совокупность цепей, используемых для передачи слова, называется шиной. Примем, что шина получает наименование передаваемого по ней слова и цепи шины нумеруются так же, как разряды слова.  

Что касается классического бита информации, то она представляет собой ячейку с двумя возможными состояниями. Если из двух состояний фиксируется только одно, то создается один бит классической информации. Квантовая частица со спином 1 / 2 также имеет два возможных состояния, т.е. появляется некоторая аналогия между такой частицей и классической ячейкой памяти емкостью в один бит. В отличие от классического бита, имеющего только одно из двух состояний, например, или, квантовый кубит может существовать в произвольной комплексной суперпозиции таких состояний.  

Группа из 8 битов информации называется байтом. Если бит - минимальная единица информации, то байт ее основная единица.  

Они могут хранить 16 бит информации Основа этих ЗУ - матрица из 16 триггеров, образующих четыре ряда и четыре колонки.  

Информационная скорость измеряется количеством битов информации, переданных в единицу времени. Именно бодовая скорость определяется полосой пропускания линии. Если одно изменение значения дискретного сигнала соответствует нескольким битам, то информационная скорость превышает бодовую. Например, при числе градаций 16 и скорости 1200 бод одному боду соответствует 4 бит / с и информационная скорость составляет 4800 бит / с. С ростом длины линии связи увеличивается затухание сигнала и, следовательно, уменьшаются полоса пропускания и информационная скорость.  

Если в результате получения сообщения достигнута полная ясность в данном вопросе (т.е. неопределенность исчезнет), говорят, что получена исчерпывающая информация. Это означает, что нет необходимости в дополнительной информации на эту тему. Напротив, если после получения сообщения неопределенность осталась прежней (сообщаемые сведения или уже были известны, или не относятся к делу), значит, информации получено не было (нулевая информация).

Бит наименьшая единица представления информации. В информатике часто используется величина, называемая байтом (byte) и равная 8 битам.

Байт – наименьшая единица обработки и передачи информации.

Бит позволяет выбрать один вариант из двух возможных; байт, соответственно, 1 из 256 (2 8).

Наряду с байтами для измерения количества информации используются более крупные единицы:

1 Кбайт (один килобайт) = 2 10 байт = 1024 байт;

1 Мбайт (один мегабайт) = 2 10 Кбайт = 1024 Кбайт;

1 Гбайт (один гигабайт) = 2 10 Мбайт = 1024 Мбайт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тб) = 1024 Гбайт = 2 40 байта,

1 Петабайт (Пб) = 1024 Тбайт = 2 50 байта.

Пример . Упорядочите по возрастанию следующую последовательность:

1024 Мбайт, 11 Петабайт, 2224 Гбайт, 1 Терабайт.

Решение . Сначала приведем величины измерения количества информации к единой величине, удобной для данной последовательности. В данном случае – это Гбайт.

1024 Мбайт = 1 Гбайт, что меньше 1 Терабайт = 1024 Гбайт, что, в свою очередь меньше 2224 Гбайт и меньше 11 Петабайт,

Следовательно, последовательность, упорядоченная по возрастанию, имеет вид:

1024 Мбайт, 1 Терабайт, 2224 Гбайт, 11 Петабайт

II. Кодирование информации.

Компьютер может обрабатывать только информацию, представленную в числовой форме. Вся другая информация (тексты, звуки, изображения, показания приборов и т.д.) для обработки на компьютере должна быть преобразована в числовую форму.

Переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки, называется кодированием информации.

Кодирование – это операция преобразования знаков или групп знаков одной знаковой системы в знаки или группы знаков другой знаковой системы.

Как правило, все числа в компьютере представляются с помощью нулей и единиц, т.е. работа производится в двоичной системе счисления, поскольку при этом устройства для их обработки получаются значительно более простыми.

1. Кодирование текста.

При вводе в компьютер каждая буква кодируется определенным числом, а при выводе на внешние устройства (экран или печать) для восприятия человеком по этим числам строятся изображения букв. Соответствие между набором букв и числами называется кодировкой символов.

Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита. Множество символов, используемых при записи текста, называется алфавитом . Количество символов в алфавите называется его мощностью .

Существует двоичный алфавит, который содержит только 2 символа, и его мощность равна двум.

Для представления текстовой информации в компьютере чаще всего используется алфавит мощностью 256 символов. Один символ из такого алфавита несет 8 бит информации, т.к. 2 8 = 256.

8 бит составляют один байт, следовательно, двоичный код каждого символа занимает 1 байт памяти ЭВМ. Традиционно для кодирования одного символа используется количество информации, равное 1 байту (8 битам). Все символы такого алфавита пронумерованы от 0 до 255, а каждому номеру соответствует 8-разрядный двоичный код от 00000000 до 11111111.

Для разных типов ЭВМ и операционных систем используются различные таблицы кодировки, отличающиеся порядком размещения символов алфавита в кодовой таблице. Международным стандартом на персональных компьютерах является таблица кодировки ASCII. Сообщения, записанные с помощью символов ASCII, используют алфавит из 256 символов.

Кроме того, в настоящее время существует еще ряд кодовых таблиц для русских букв. К ним относится таблица кодировки КОИ8, использующая алфавит из 256 символов.

Широкое распространение получил новый международный стандарт UNICODE, который отводит на каждый символ не один байт, а два, поэтому с его помощью можно закодировать не 256 символов, а 2 16 = 65536 различных символов.

Информативность последовательности символов не зависит от содержания сообщения.

Чтобы определить объем информации в сообщении при алфавитном подходе, нужно последовательно решить задачи:

    Определить количество информации (i) в одном символе по формуле 2i = N, где N – мощность алфавита,

    Определить количество символов в сообщении, учитывая знаки препинания и пробелы (m),

    Вычислить объем информации по формуле: V = i * m.

Пример . Закодировано текстовое сообщение «Десять букв», определить его информационный объем по системе ASCII и UNICODE.

Решение . Сообщение содержит 11 символов. Один символ из алфавита ASCII несет 8 бит информации, поэтому информационный объем по системе ASCII составит 11*8 бит = 88 бита = 11 байт.

Один символ из алфавита UNICODE несет 16 бит информации или 2 байта, поэтому информационный объем по системе UNICODE составит 11*16 бит = 176 бит = 22 байта.

Для двоичного сообщения той же длины информационный объем составляет 11 бит, т.к. N = 2, i = 1 бит, m = 11, V = 11 бит.

|

Разнообразие необходимо при передаче информации. Нельзя нарисовать белым по белому, одного состояния недостаточно. Если ячейка памяти способна находиться только в одном (исходном) состоянии и не способна изменять свое состояние под внешним воздействием, это значит, что она не способна воспринимать и запоминать информацию. Информационная емкость такой ячейки равна 0.

Минимальное разнообразие обеспечивается наличием двух состояний. Если ячейка памяти способна, в зависимости от внешнего воздействия, принимать одно из двух состояний, которые условно обозначаются обычно как «0» и «1», она обладает минимальной информационной ёмкостью .

Информационная ёмкость одной ячейки памяти, способной находиться в двух различных состояниях, принята за единицу измерения количества информации - 1 бит.

1 бит (bit - сокращение от англ. bi nary digit - двоичное число) - единица измерения информационной емкости и количества информации , а также и еще одной величины – информационной энтропии , с которой мы познакомимся позже. Бит, одна из самых безусловных единиц измерения. Если единицу измерения длины можно было положить произвольной: локоть, фут, метр, то единица измерения информации не могла быть по сути никакой другой.

На физическом уровне бит является ячейкой памяти , которая в каждый момент времени находится в одном из двух состояний: « или «.

Если каждая точка некоторого изображения может быть только либо черной , либо белой , такое изображение называют битовым, потому что каждая точка представляет собой ячейку памяти емкостью 1 бит. Лампочка, которая может либо «гореть », либо «не гореть » также символизирует бит. Классический пример, иллюстрирующий 1 бит информации – количество информации, получаемое в результате подбрасывания монеты – “орел ” или “решка ”.

Количество информации равное 1 биту можно получить в ответе на вопрос типа «да »/ «нет ». Если изначально вариантов ответов было больше двух, количество получаемой в конкретном ответе информации будет больше, чем 1 бит, если вариантов ответов меньше двух, т.е. один, то это не вопрос, а утверждение, следовательно, получения информации не требуется, раз неопределенности нет.

Информационная ёмкость ячейки памяти, способной воспринимать информацию, не может быть меньше 1 бита, но количество получаемой информации может быть и меньше, чем 1 бит . Это происходит тогда, когда варианты ответов «да» и «нет» не равновероятны . Неравновероятность в свою очередь является следствием того, что некоторая предварительная (априорная) информация по этому вопросу уже имеется, полученная, допустим, на основании предыдущего жизненного опыта. Таким образом, во всех рассуждениях предыдущего абзаца следует учитывать одну очень важную оговорку: они справедливы только для равновероятного случая.