Компьютерные биты

Биты и байтыЛогика → Компьютерные биты
В области кибернетики и современной вычислительной техники, термин «бит» принято понимать как единицу наименьшего из возможных объема информации, переданной, принятой или обработанной той или иной вычислительной системой.
Так как структура всех нынешних вычислительный систем (компьютеров) построена на основе двоичного кода (упорядоченного набора нулей и единиц), информация, объемом равным один бит, может принимать только лишь два значения: единица или ноль. Помимо этого, употребляя значение бит к логическим цепочкам, значения информации могут принимать вид: да или нет, «правда» или «лож», верно или ошибочно и так далее.
Исторически сложилось так, что понятие «бит» – это сокращение от английского словосочетания «binary digit», что в дословном переводе означает – «двоичная цифра». Таким образом, определенный набор бит может быть сложен в байт, который представляет собой, как правило, восемь бит. Стоит отметить, что в кибернетике один бит практически никогда не представляет какую-либо конечную информацию, исходя из того расчета, что для кодирования и последующей обработки любого одного символа (будь то цифра, буква и так далее), требуется не менее восьми бит (один байт).