Перевести цифры в двоичный код. Бинарный код

08. 06.2018

Блог Дмитрия Вассиярова.

Двоичный код — где и как применяется?

Сегодня я по-особому рад своей встрече с вами, дорогие мои читатели, ведь я чувствую себя учителем, который на самом первом уроке начинает знакомить класс с буквами и цифрами. А поскольку мы живем в мире цифровых технологий, то я расскажу вам, что такое двоичный код, являющийся их основой.

Начнем с терминологии и выясним, что означит двоичный. Для пояснения вернемся к привычному нам исчислению, которое называется «десятичным». То есть, мы используем 10 знаков-цифр, которые дают возможность удобно оперировать различными числами и вести соответствующую запись. Следуя этой логике, двоичная система предусматривает использование только двух знаков. В нашем случае, это всего лишь «0» (ноль) и «1» единица. И здесь я хочу вас предупредить, что гипотетически на их месте могли бы быть и другие условные обозначения, но именно такие значения, обозначающие отсутствие (0, пусто) и наличие сигнала (1 или «палочка»), помогут нам в дальнейшем уяснить структуру двоичного кода.

Зачем нужен двоичный код?

До появления ЭВМ использовались различные автоматические системы, принцип работы которых основан на получении сигнала. Срабатывает датчик, цепь замыкается и включается определенное устройство. Нет тока в сигнальной цепи – нет и срабатывания. Именно электронные устройства позволили добиться прогресса в обработке информации, представленной наличием или отсутствием напряжения в цепи.

Дальнейшее их усложнение привело к появлению первых процессоров, которые так же выполняли свою работу, обрабатывая уже сигнал, состоящий из импульсов, чередующихся определенным образом. Мы сейчас не будем вникать в программные подробности, но для нас важно следующее: электронные устройства оказались способными различать заданную последовательность поступающих сигналов. Конечно, можно и так описать условную комбинацию: «есть сигнал»; «нет сигнала»; «есть сигнал»; «есть сигнал». Даже можно упростить запись: «есть»; «нет»; «есть»; «есть».

Но намного проще обозначить наличие сигнала единицей «1», а его отсутствие – нулем «0». Тогда мы вместо всего этого сможем использовать простой и лаконичный двоичный код: 1011.

Безусловно, процессорная техника шагнула далеко вперед и сейчас чипы способны воспринимать не просто последовательность сигналов, а целые программы, записанные определенными командами, состоящими из отдельных символов. Но для их записи используется все тот же двоичный код, состоящий из нулей и единиц, соответствующий наличию или отсутствию сигнала. Есть он, или его нет – без разницы. Для чипа любой из этих вариантов – это единичная частичка информации, которая получила название «бит» (bit — официальная единица измерения).

Условно, символ можно закодировать последовательностью из нескольких знаков. Двумя сигналами (или их отсутствием) можно описать всего четыре варианта: 00; 01;10; 11. Такой способ кодирования называется двухбитным. Но он может быть и:

  • четырехбитным (как в примере на абзац выше 1011) позволяет записать 2^4 = 16 комбинаций-символов;
  • восьмибитным (например: 0101 0011; 0111 0001). Одно время он представлял наибольший интерес для программирования, поскольку охватывал 2^8 = 256 значений. Это давало возможность описать все десятичные цифры, латинский алфавит и специальные знаки;
  • шестнадцатибитным (1100 1001 0110 1010) и выше. Но записи с такой длинной – это уже для современных более сложных задач. Современные процессоры используют 32-х и 64-х битную архитектуру;

Скажу честно, единой официальной версии нет, то так сложилось, что именно комбинация из восьми знаков стала стандартной мерой хранящейся информации, именуемой «байт». Таковая могла применяться даже к одной букве, записанной 8-и битным двоичным кодом. Итак, дорогие мои друзья, запомните пожалуйста (если кто не знал):

8 бит = 1 байт.

Так принято. Хотя символ, записанный 2-х или 32-х битным значением так же номинально можно назвать байтом. Кстати, благодаря двоичному коду мы можем оценивать объемы файлов, измеряемые в байтах и скорость передачи информации и интернета (бит в секунду).

Бинарная кодировка в действии

Для стандартизации записи информации для компьютеров было разработано несколько кодировочных систем, одна из которых ASCII, базирующаяся на 8-и битной записи, получила широкое распространение. Значения в ней распределены особым образом:

  • первый 31 символ – управляющие (с 00000000 по 00011111). Служат для служебных команд, вывода на принтер или экран, звуковых сигналов, форматирования текста;
  • следующие с 32 по 127 (00100000 – 01111111) латинский алфавит и вспомогательные символы и знаки препинания;
  • остальные, до 255-го (10000000 – 11111111) – альтернативная, часть таблицы для специальных задач и отображения национальных алфавитов;

Расшифровка значений в ней показано в таблице.

Если вы считаете, что «0» и «1» расположены в хаотичном порядке, то глубоко ошибаетесь. На примере любого числа я вам покажу закономерность и научу читать цифры, записанные двоичным кодом. Но для этого примем некоторые условности:

  • байт из 8 знаков будем читать справа налево;
  • если в обычных числах у нас используются разряды единиц, десятков, сотен, то здесь (читая в обратном порядке) для каждого бита представлены различные степени «двойки»: 256-124-64-32-16-8- 4-2-1;
  • теперь смотрим на двоичный код числа, например 00011011. Там, где в соответствующей позиции есть сигнал «1» – берем значения этого разряда и суммируем их привычным способом. Соответственно: 0+0+0+32+16+0+2+1 = 51. В правильности данного метода вы можете убедиться, взглянув на таблицу кодов.

Теперь, мои любознательные друзья, вы не только знаете что такое двоичный код, но и умеете преобразовать зашифрованную им информацию.

Язык, понятный современной технике

Конечно, алгоритм считывания двоичного кода процессорными устройствами намного сложнее. Но зато его помощью можно записать все что угодно:

  • текстовую информацию с параметрами форматирования;
  • числа и любые операции с ними;
  • графические и видео изображения;
  • звуки, в том числе и выходящие и за предел нашей слышимости;

Помимо этого, благодаря простоте «изложения» возможны различные способы записи бинарной информации:HDD дисках ;

Дополняет преимущества двоичного кодирования практически неограниченные возможности по передаче информации на любые расстояния. Именно такой способ связи используется с космическими кораблями и искусственными спутниками.

Так что, сегодня двоичная система счисления является языком, понятным большинству используемых нами электронных устройств. И что самое интересное, никакой другой альтернативы для него пока не предвидится.

Думаю, что изложенной мною информации для начала вам будет вполне достаточно. А дальше, если возникнет такая потребность, каждый сможет углубиться в самостоятельное изучение этой темы. Я же буду прощаться и после небольшого перерыва подготовлю для вас новую статью моего блога, на какую-нибудь интересную тему.

Лучше, если вы сами ее мне подскажите;)

До скорых встреч.

Бинарный код представляет собой текст, инструкции процессора компьютера или другие данные с использованием любой двухсимвольной системы. Чаще всего это система 0 и 1. назначает шаблон бинарных цифр (бит) каждому символу и инструкции. Например, бинарная строка из восьми бит может представлять любое из 256 возможных значений и поэтому может генерировать множество различных элементов. Отзывы о бинарном коде мирового профессионального сообщества программистов свидетельствуют о том, что это основа профессии и главный закон функционирования вычислительных систем и электронных устройств.

Расшифровка бинарного кода

В вычислениях и телекоммуникациях бинарные коды используются для различных методов кодирования символов данных в битовые строки. Эти методы могут использовать строки фиксированной или переменной ширины. Для перевода в бинарный код существует множество наборов символов и кодировок. В коде с фиксированной шириной каждая буква, цифра или другой символ представляется битовой строкой той же длины. Эта битовая строка, интерпретируемая как бинарное число, обычно отображается в кодовых таблицах в восьмеричной, десятичной или шестнадцатеричной нотации.

Расшифровка бинарного кода: битовая строка, интерпретируемая как бинарное число, может быть переведена в десятичное число. Например, нижний регистр буквы a, если он представлен битовой строкой 01100001 (как и в стандартном коде ASCII), также может быть представлен как десятичное число 97. Перевод бинарного кода в текст представляет собой ту же процедуру, только в обратном порядке.

Как это работает

Из чего состоит бинарный код? Код, используемый в цифровых компьютерах, основан на в которой есть только два возможных состояния: вкл. и выкл., обычно обозначаемые нулем и единицей. Если в десятичной системе, которая использует 10 цифр, каждая позиция кратна 10 (100, 1000 и т. д.), то в двоичной системе каждое цифровое положение кратно 2 (4, 8, 16 и т. д.). Сигнал двоичного кода представляет собой серию электрических импульсов, которые представляют числа, символы и операции, которые необходимо выполнить.

Устройство, называемое часами, посылает регулярные импульсы, а такие компоненты, как транзисторы, включаются (1) или выключаются (0), чтобы передавать или блокировать импульсы. В двоичном коде каждое десятичное число (0-9) представлено набором из четырех двоичных цифр или битов. Четыре основных арифметических операции (сложение, вычитание, умножение и деление) могут быть сведены к комбинациям фундаментальных булевых алгебраических операций над двоичными числами.

Бит в теории связи и информации представляет собой единицу данных, эквивалентную результату выбора между двумя возможными альтернативами в системе двоичных номеров, обычно используемой в цифровых компьютерах.

Отзывы о бинарном коде

Характер кода и данных является базовой частью фундаментального мира ИТ. C этим инструментом работают специалисты мирового ИТ-«закулисья» — программисты, чья специализация скрыта от внимания рядового пользователя. Отзывы о бинарном коде от разработчиков свидетельствуют о том, что эта область требует глубокого изучения математических основ и большой практики в сфере матанализа и программирования.

Бинарный код — это простейшая форма компьютерного кода или данных программирования. Он полностью представлен двоичной системой цифр. Согласно отзывам о бинарном коде, его часто ассоциируется с машинным кодом, так как двоичные наборы могут быть объединены для формирования исходного кода, который интерпретируется компьютером или другим аппаратным обеспечением. Отчасти это верно. использует наборы двоичных цифр для формирования инструкций.

Наряду с самой базовой формой кода двоичный файл также представляет собой наименьший объем данных, который протекает через все сложные комплексные аппаратные и программные системы, обрабатывающие сегодняшние ресурсы и активы данных. Наименьший объем данных называется битом. Текущие строки битов становятся кодом или данными, которые интерпретируются компьютером.

Двоичное число

В математике и цифровой электронике двоичное число — это число, выраженное в системе счисления base-2 или двоичной цифровой системе, которая использует только два символа: 0 (ноль) и 1 (один).

Система чисел base-2 представляет собой позиционную нотацию с радиусом 2. Каждая цифра упоминается как бит. Благодаря своей простой реализации в цифровых электронных схемах с использованием логических правил, двоичная система используется почти всеми современными компьютерами и электронными устройствами.

История

Современная бинарная система чисел как основа для двоичного кода была изобретена Готтфридом Лейбницем в 1679 году и представлена ​​в его статье «Объяснение бинарной арифметики». Бинарные цифры были центральными для теологии Лейбница. Он считал, что двоичные числа символизируют христианскую идею творчества ex nihilo, или творение из ничего. Лейбниц пытался найти систему, которая преобразует вербальные высказывания логики в чисто математические данные.

Бинарные системы, предшествующие Лейбницу, также существовали в древнем мире. Примером может служить китайская бинарная система И Цзин, где текст для предсказания основан на двойственности инь и ян. В Азии и в Африке использовались щелевые барабаны с бинарными тонами для кодирования сообщений. Индийский ученый Пингала (около 5-го века до н.э.) разработал бинарную систему для описания просодии в своем произведении «Чандашутрема».

Жители острова Мангарева во Французской Полинезии использовали гибридную бинарно-десятичную систему до 1450 года. В XI веке ученый и философ Шао Юн разработал метод организации гексаграмм, который соответствует последовательности от 0 до 63, как представлено в бинарном формате, причем инь равен 0, янь — 1. Порядок также является лексикографическим порядком в блоках элементов, выбранных из двухэлементного набора.

Новое время

В 1605 году обсудил систему, в которой буквы алфавита могут быть сведены к последовательностям бинарных цифр, которые затем могут быть закодированы как едва заметные вариации шрифта в любом случайном тексте. Важно отметить, что именно Фрэнсис Бэкон дополнил общую теории бинарного кодирования наблюдением, что этот метод может использован с любыми объектами.

Другой математик и философ по имени Джордж Бул опубликовал в 1847 году статью под названием «Математический анализ логики», в которой описывается алгебраическая система логики, известная сегодня как булева алгебра. Система была основана на бинарном подходе, который состоял из трех основных операций: AND, OR и NOT. Эта система не была введена в эксплуатацию, пока аспирант из Массачусетского технологического института по имени Клод Шеннон не заметил, что булева алгебра, которую он изучил, была похожа на электрическую цепь.

Шеннон написал диссертацию в 1937 году, в которой были сделаны важные выводы. Тезис Шеннона стал отправной точкой для использования бинарного кода в практических приложениях, таких как компьютеры и электрические схемы.

Другие формы двоичного кода

Битовая строка не является единственным типом двоичного кода. Двоичная система в целом — это любая система, которая допускает только два варианта, таких как переключатель в электронной системе или простой истинный или ложный тест.

Брайль — это тип двоичного кода, который широко используется слепыми людьми для чтения и записи на ощупь, названный по имени его создателя Луи Брайля. Эта система состоит из сеток по шесть точек в каждой, по три на столбец, в котором каждая точка имеет два состояния: приподнятые или углубленные. Различные комбинации точек способны представлять все буквы, цифры и знаки пунктуации.

Американский стандартный код для обмена информацией (ASCII) использует 7-битный двоичный код для представления текста и других символов в компьютерах, оборудовании связи и других устройствах. Каждой букве или символу присваивается номер от 0 до 127.

Двоично-кодированное десятичное значение или BCD — это двоичное кодированное представление целочисленных значений, которое использует 4-битный граф для кодирования десятичных цифр. Четыре двоичных бита могут кодировать до 16 различных значений.

В номерах с кодировкой BCD только первые десять значений в каждом полубайте являются корректными и кодируют десятичные цифры с нулем, через девять. Остальные шесть значений являются некорректными и могут вызвать либо машинное исключение, либо неуказанное поведение, в зависимости от компьютерной реализации арифметики BCD.

Арифметика BCD иногда предпочтительнее числовых форматов с плавающей запятой в коммерческих и финансовых приложениях, где сложное поведение округления чисел является нежелательным.

Применение

Большинство современных компьютеров используют программу бинарного кода для инструкций и данных. Компакт-диски, DVD-диски и диски Blu-ray представляют звук и видео в двоичной форме. Телефонные звонки переносятся в цифровом виде в сетях междугородной и мобильной телефонной связи с использованием импульсно-кодовой модуляции и в сетях передачи голоса по IP.

Всем известно, что компьютеры могут выполнять вычисления с большими группами данных на огромной скорости. Но не все знают, что эти действия зависят всего от двух условий: есть или нет ток и какое напряжение.

Каким же образом компьютер умудряется обрабатывать такую разнообразную информацию?
Секрет заключается в двоичной системе исчисления. Все данные поступают в компьютер, представленные в виде единиц и нулей, каждому из которых соответствует одно состояние электропровода: единицам - высокое напряжение, нулям - низкое или же единицам - наличие напряжения, нулям - его отсутствие. Преобразование данных в нули и единицы называется двоичной конверсией, а окончательное их обозначение - двоичным кодом.
В десятичном обозначении, основанном на десятичной системе исчисления, которая используется в повседневной жизни, числовое значение представлено десятью цифрами от 0 до 9, и каждое место в числе имеет ценность в десять раз выше, чем место справа от него. Чтобы представить число больше девяти в десятичной системе исчисления, на его место ставится ноль, а на следующее, более ценное место слева - единица. Точно так же в двоичной системе, где используются только две цифры - 0 и 1, каждое место в два раза ценнее, чем место справа от него. Таким образом, в двоичном коде только ноль и единица могут быть изображены как одноместные числа, и любое число, больше единицы, требует уже два места. После ноля и единицы следующие три двоичных числа это 10 (читается один-ноль) и 11 (читается один-один) и 100 (читается один-ноль-ноль). 100 двоичной системы эквивалентно 4 десятичной. На верхней таблице справа показаны другие двоично-десятичные эквиваленты.
Любое число может быть выражено в двоичном коде, просто оно займет больше места, чем в десятичном обозначении. В двоичной системе можно записать и алфавит, если за каждой буквой закрепить определенное двоичное число.

Две цифры на четыре места
16 комбинаций можно составить, используя темные и светлые шары, комбинируя их в наборах из четырех штук Если темные шары принять за нули, а светлые за единицы, то и 16 наборов окажутся 16-единичным двоичным кодом, числовая ценность которого составляет от нуля до пяти (см. верхнюю таблицу на стр. 27). Даже с двумя видами шаров в двоичной системе можно построить бесконечное количество комбинаций, просто увеличивая число шариков в каждой группе - или число мест в числах.

Биты и байты

Самая маленькая единица в компьютерной обработке, бит - это единица данных, которая может обладать одним из двух возможных условий. К примеру, каждая из единиц и нулей (справа) означает 1 бит. Бит можно представить и другими способами: наличием или отсутствием электрического тока, дырочкой и ее отсутствием, направлением намагничивания вправо или влево. Восемь битов составляют байт. 256 возможных байтов могут представить 256 знаков и символов. Многие компьютеры обрабатывают байт данных одновременно.

Двоичная конверсия. Четырехцифровой двоичный код может представить десятичные числа от 0 до 15.

Кодовые таблицы

Когда двоичный код используется для обозначения букв алфавита или пунктуационных знаков, требуются кодовые таблицы, в которых указано, какой код какому символу соответствует. Составлено несколько таких кодов. Большинство ПК приспособлено под семицифровой код, называемый ASCII, или американский стандартный код для информационного обмена. На таблице справа показаны коды ASCII для английского алфавита. Другие коды предназначаются для тысяч символов и алфавитов других языков мира.

Часть таблицы кода ASCII

Давайте разберемся как же все таки переводить тексты в цифровой код ? Кстати, на нашем сайте вы можете перевести любой текст в десятичный, шестнадцатеричный, двоичный код воспользовавшись Калькулятором кодов онлайн .

Кодирование текста.

По теории ЭВМ любой текст состоит из отдельных символов. К этим символам относятся: буквы, цифры, строчные знаки препинания, специальные символы («»,№, (), и т.д.), к ним, так же, относятся пробелы между словами.

Необходимый багаж знаний. Множество символов, при помощи которых записываю текст, называется АЛФАВИТОМ.

Число взятых в алфавите символов, представляет его мощность.

Количество информации можно определить по формуле: N = 2b

  • N - та самая мощность (множество символов),
  • b - Бит (вес взятого символа).

Алфавит, в котором будет 256 может вместить в себя практически все нужные символы. Такие алфавиты называют ДОСТАТОЧНЫМИ.

Если взять алфавит мощностью 256, и иметь в виду что 256 = 28

  • 8 бит всегда называют 1 байт:
  • 1 байт = 8 бит.

Если перевести каждый символ в двоичный код, то этот код компьютерного текста будет занимать 1 байт.

Как текстовая информация может выглядеть в памяти компьютера?

Любой текст набирают на клавиатуре, на клавишах клавиатуры, мы видим привычные для нас знаки (цифры, буквы и т.д.). В оперативную память компьютера они попадают только в виде двоичного кода. Двоичный код каждого символа, выглядит восьмизначным числом, например 00111111.

Поскольку, байт - это самая маленькая адресуемая частица памяти, и память обращена к каждому символу отдельно - удобство такого кодирование очевидно. Однако, 256 символов - это очень удобное количество для любой символьной информации.

Естественно, встал вопрос: Какой конкретно восьми разрядный код принадлежит каждому символу? И как осуществить перевод текста в цифровой код?

Этот процесс условный, и мы вправе придумать различные способы для кодировки символов . Каждый символ алфавита имеет свой номер от 0 до 255. И каждому номеру присвоен код от 00000000 до 11111111.

Таблица для кодировки - это «шпаргалка», в которой указаны символы алфавита в соответствии порядковому номеру. Для различных типов ЭВМ используют разные таблицы для кодировки.

ASCII(или Аски), стала международным стандартом для персональных компьютеров. Таблица имеет две части.

Первая половина для таблицы ASCII. (Именно первая половина, стала стандартом.)

Соблюдение лексикографического порядка, то есть, в таблице буквы (Строчные и прописные) указаны в строгом алфавитном порядке, а цифры по возрастанию, называют принципом последовального кодирования алфавита.

Для русского алфавита тоже соблюдают принцип последовательного кодирования .

Сейчас, в наше время используют целых пять систем кодировок русского алфавита(КОИ8-Р, Windows. MS-DOS, Macintosh и ISO). Из-за количества систем кодировок и отсутствия одного стандарта, очень часто возникают недоразумения с переносом русского текста в компьютерный его вид.

Одним из первых стандартов для кодирования русского алфавит а на персональных компьютерах считают КОИ8("Код обмена информацией, 8-битный"). Данная кодировка использовалась в середине семидесятых годов на серии компьютеров ЕС ЭВМ, а со средины восьмидесятых, её начинают использовать в первых переведенных на русский язык операционных системах UNIX.

С начала девяностых годов, так называемого, времени, когда господствовала операционная система MS DOS, появляется система кодирования CP866 ("CP" означает "Code Page", "кодовая страница").

Гигант компьютерных фирм APPLE, со своей инновационной системой, под упралением которой они и работали (Mac OS), начинают использовать собственную систему для кодирования алфавита МАС.

Международная организация стандартизации (International Standards Organization, ISO)назначает стандартом для русского языка еще одну систему для кодирования алфавита , которая называется ISO 8859-5.

А самая распространенная, в наши дни, система для кодирования алфавита, придумана в Microsoft Windows, и называется CP1251.

С второй половины девяностых годов, была решена проблема стандарта перевода текста в цифровой код для русского языка и не только, введением в стандарт системы, под названием Unicode. Она представлена шестнадцатиразрядной кодировкой, это означает, что на каждый символ отводится ровно по два байта оперативной памяти. Само собой, при такой кодировке, затраты памяти увеличены в два раза. Однако, такая кодовая система позволяет переводить в электронный код до 65536 символов.

Специфика стандартной системы Unicode, является включением в себя абсолютно любого алфавита, будь он существующим, вымершим, выдуманным. В конечном счете, абсолютно любой алфавит, в добавок к этом, система Unicode, включает в себя уйму математических, химических, музыкальных и общих символов.

Давайте с помощью таблицы ASCII посмотрим, как может выглядеть слово в памяти вашего компьютера.

Очень часто случается так, что ваш текст, который написан буквами из русского алфавита, не читается, это обусловлено различием систем кодирования алфавита на компьютерах. Это очень распространенная проблема, которая довольно часто обнаруживается.

Двоичный код - это представление информации в комбинации 2-х знаков 1 или 0, как говориться в программирование есть или нет, истина или лож, true или false. Обычному, человеку трудно понять, как информацию можно представить в виде нулей и единиц. Я постараюсь немного прояснить эту ситуацию.

На самом деле двоичный код - это просто! Например, любую букву алфавита можно представить в виде набора нулей и единиц. Например, буква H латинского алфавита будет иметь такой вид в двоичной системе – 01001000, буква E – 01000101, бука L имеет такое двоичное представление – 01001100, P – 01010000.

Теперь не сложно догадаться, что для того чтобы написать английское слово HELP на машинном языке нужно использовать вот такой двоичный код:

01001000 01000101 01001100 01010000

Именно такой код использует для своей работы наш домашний компьютер. Обычному человеку читать такой код очень сложно, а вот для вычислительных машин он самый понятный.

Двоичный код (машинный код) в наше время используется в программировании, ведь компьютер работает именно благодаря двоичному коду. Но не стоит думать, что процесс программирования сводится к набору единиц и нулей. Специально, чтобы упростить понимание между человеком и компьютером придумали языки программирования (си++, бейсик и т.п.). Программист пишет программу на понятом ему языке, а потом с помощью специальной программы-компилятора переводит свое творение в машинный код, который и запускает компьютер.

Переводим натуральное число десятичной системы счисления в двоичную

Берем нужное число, у меня это будет 5, делим число на 2:
5: 2 = 2,5 есть остаток, значит, первое число двоичного кода будет 1 (если нет - 0 ). Откидываем остаток и снова делим число на 2 :
2: 2 = 1 ответ без остатка, значит, второе число двоичного кода будет - 0.Снова делим результат на 2:
1: 2 = 0.5 число получилось с остатком значит записываем 1 .
Ну а так как результат равный 0 нельзя больше поделить, двоичный код готов и в итоге у нас получилось число двоичного кода 101 . Я думаю, переводить из десятичного числа в двоичное мы научились, теперь научимся делать наоборот.

Переводим число из двоичной системы в десятичную

Тут тоже достаточно просто, давайте наше с вами двоичное число пронумеруем, начинать необходимо с нуля с конца числа.

101 это 1^2 0^1 1^0.

Что из этого вышло? Мы предали степени числам! теперь по формуле:

(x * 2^y) + (x * 2^y) + (x * 2^y)

где x - порядковое число двоичного кода
y - степень этого числа.
Формула будет растягиваться в зависимости от размера вашего числа.
Получаем:

(1 * 2^2) + (0 * 2^1) + (1 * 2^0) = 4 + 0 + 1 = 5.

История двоичной системы счисления

Впервые двоичную систему предложил Лейбиц, он полагал, что данная система поможет в сложных математических вычислениях, да и вообще принесет пользу науке. Но по некоторым данным, до того как Лейбиц предложил двоичную систему счисления в Китае на стене появилась надпись, которую можно было расшифровать используя двоичный код. На этой надписи были нарисованы длинные и короткие палочки и если предположить, что длинная это 1, а короткая 0, вполне возможно, что в Китае идея двоичного кода ходила за много лет до его изобретения. Хотя расшифровка кода найденного на стене выявила там простое натуральное число, но все же факт остается фактом.