Сколько бит в байте?

Бит — элементарная единица информации. По определению, бит — это количество информации, сокращающее неопределенность вдвое. Соответственно, бит — это величина, которая может принимать одно из двух заранее известных значений. Само слово бит представляет собой аббревиатуру от английских слов «BInary» и «digiT».

Поскольку бит как единица измерения приобрел распространение с развитием ЭВМ, его часто определяют как «0 или 1». Это связано с тем, что в электронных ЭВМ для передачи сигналов используется два состояния: есть напряжение (1) или нет напряжения (0). В более широкой трактовке бит может принимать любые два значения — например, «мясо» или «рыба».

Интересно, что помимо бита, существуют понятия единицы информации, принимающей одно их трех возможных значений («трит») или даже одно из десяти возможных значений («дит»).

С байтом все менее однозначно. Изначально байтом называлось «машинное слово», т.е. количество информации, которое процессор компьютера мог обрабатывать одновременно, то есть за один такт (цикл) своей работы. На заре ЭВМ в зависимости от модели микропроцессора один байт мог составлять 6 бит (например, в первых моделях компьютеров фирмы IBM) до 9 бит.

Как известно, «борьбу за выживание» выиграла платформа IBM PC, во многом благодаря 8-битному процессору-«хиту» Intel 8086. Именно поэтому размер байта, равный 8 битам, стал фактически стандартным — во многих источниках «в 1 байте 8 бит» дается уже как определение.

С развитием ЭВМ размер машинного слова постоянно увеличивался — сначала до 16 бит, потом до 32, а в современных ПК он равен 64 битам. Тем не менее, определение байта уже не меняется и стало, по сути, аксиоматическим.

-->