Единицы измерения информации
В качестве единицы информации условились принять один бит (англ. bit - binary, digit - двоичная цифра).
Бит в теории информации - количество информации, необходимое для различения двух равновероятных сообщений.
В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.
Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, черное или белое, истина или ложь и т.п.).
Если количество битов увеличить до двух, то уже можно выразить четыре различных понятия:
00 01 10 11
Тремя битами можно закодировать восемь различных значений:
000 001 010 011 100 101 110 111
Увеличивая на единицу количество разрядов в системе двоичного кодирования, мы увеличиваем в два раза количество значений, которое может быть выражено в данной системе, то есть общая формула имеет вид:
N=2m
,где N - количество независимых кодируемых значений; m - разрядность двоичного кодирования, принятая в данной системе.
Бит - слишком мелкая единица измерения. На практике чаще применяется более крупная единица - байт, равная восьми битам.
Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера:
258=28
Широко используются также ещё более крупные производные единицы информации:
1 Килобайт (Кб) = 1024 байт = 210 байт,
1 Мегабайт (Мб) = 1024 Кбайт = 220 байт,
1 Гигабайт (Гб) = 1024 Мбайт = 230 байт.
В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:
1 Терабайт (Тб) = 1024 Гбайт = 240 байт,
1 Петабайт (Пб) = 1024 Тбайт = 250 байт.