В качестве единицы информации условились принять один бит ( англ . bit — bi nary , digi t — двоичная цифра)
За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица называется бит
Бит в теории информации — количество информации, необходимое
для различения двух равновероятных сообщений.
А в вычислительной технике битом называют наименьшую "порцию" памяти,
необходимую для хранения одного из двух знаков "0" и "1",
используемых для внутримашинного представления данных и команд
Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт , равная восьми битам . Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 8 )
Широко используются также ещё более крупные производные единицы информации :
В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:
![]() |