![]()
Пользовательского поиска
|
Сейчас, когда человечество входит в третье
тысячелетие, для обитателей мегаполисов незаменимой вещью, фактически правой
(или левой) рукой стал компьютер. Однако, очень мало кто действительно
представляет себе, как работает этот «черный ящик». В данной работе мы
попытаемся описать не только структурное устройство компьютера, но и
продемонстрировать, благодаря каким физическим законам он действует.
Для большинства людей не является тайной, что
компьютеры работают в двоичной системе счисления. Однако, что это за система
такая, и почему именно в ней - знают не все. N-ичная позиционная система
счисления суть такая система, где роль «десятки» выполняет число N. В случае
двоичной системы счисления роль десятки играет число 2, и в ней числа будут
записываться как 0, 1, 10, 11, 100, 101, 111… и т.д. Таким образом, число 1310
(13 в привычной нам, десятичной, системе счисления) в двоичной будет
записываться как 11012.
Почему же была избранна именно двоичная система счисления? Дело в том,
что компьютер, как любое электрическое устройство, может оперировать либо с
модулированным сигналом, либо с наличием\отсутствием сигнала. Таким образом,
если бы нам захотелось заставить компьютер считать в десятичной (привычной всем
нам) системе счисления, то пришлось бы решать задачу как, например, различать
сигнал по напряжению. Например, сигнал в 1 вольт – это будет единица, 3 вольта
– тройка и так до десяти. Однако, модулированный сигнал требует измерения. А
это не очень удобно, т.к. требует дополнительного усложнения системы. Тем не
менее, подобные попытки все же предпринимались, и компьютеры, измерявшие
поступивший сигнал назывались аналоговыми. Таким образом, родилась идея
использовать троичную систему счисления, где роль нуля, единицы и минус единицы
играли отсутствие напряжения, наличие положительного напряжения и наличие
отрицательного напряжения на входе в элемент. Однако, И это оказалось не совсем
удобным (хотя многие первые компьютеры использовали именно эту систему).
В результате, остановились на двоичной системе, где
роль единицы и нуля играло наличие и отсутствие напряжения на входе. Это
оказалось еще удобно тем, что двоичная система счисления очень удобно
связывается с логикой, т.к. логика оперирует понятиями истинности и ложности –
чем не нуль и единица? С помощью двоичной системы счисления оказалось возможным
кодировать любую информацию. Так, если одну цифру (0 или 1) считать минимальной
единицей информации (ее назвали «бит), то 8 бит (23 бит) – 8 цифр 0
или 1 (называемые «байт») в виде одного числа могут принимать значение от
0000000 до 111111112 т.е. 25510. Таким образом, в один
байт можно записать 256 разных значений, что вполне достаточно для
представления одним байтом всех цифр десятичной системы счисления, двух
алфавитов (например, латинского и греческого), набора специальных символов типа
точек, тире, и т.п. и еще «место осталось».
![]() |