Как шифровать двоичным кодом. Двоичный код в текст. Как текстовая информация может выглядеть в памяти компьютера

Компьютеры не понимают слов и цифр так, как это делают люди. Современное программное обеспечение позволяет конечному пользователю игнорировать это, но на самых низких уровнях ваш компьютер оперирует двоичным электрическим сигналом, который имеет только два состояния : есть ток или нет тока. Чтобы «понять» сложные данные, ваш компьютер должен закодировать их в двоичном формате.

Двоичная система основывается на двух цифрах – 1 и 0, соответствующим состояниям включения и выключения, которые ваш компьютер может понять. Вероятно, вы знакомы с десятичной системой. Она использует десять цифр – от 0 до 9, а затем переходит к следующему порядку, чтобы сформировать двузначные числа, причем цифра из каждого следующего порядка в десять раз больше, чем предыдущая. Двоичная система аналогична, причем каждая цифра в два раза больше, чем предыдущая.

Подсчет в двоичном формате

В двоичном выражении первая цифра равноценна 1 из десятичной системы. Вторая цифра равна 2, третья – 4, четвертая – 8, и так далее – удваивается каждый раз. Добавление всех этих значений даст вам число в десятичном формате.

1111 (в двоичном формате) = 8 + 4 + 2 + 1 = 15 (в десятичной системе)

Учет 0 даёт нам 16 возможных значений для четырех двоичных битов. Переместитесь на 8 бит, и вы получите 256 возможных значений. Это занимает намного больше места для представления, поскольку четыре цифры в десятичной форме дают нам 10000 возможных значений. Конечно, бинарный код занимает больше места, но компьютеры понимают двоичные файлы намного лучше, чем десятичную систему. И для некоторых вещей, таких как логическая обработка, двоичный код лучше десятичного.

Следует сказать, что существует ещё одна базовая система, которая используется в программировании: шестнадцатеричная . Хотя компьютеры не работают в шестнадцатеричном формате, программисты используют её для представления двоичных адресов в удобочитаемом формате при написании кода. Это связано с тем, что две цифры шестнадцатеричного числа могут представлять собой целый байт, то есть заменяют восемь цифр в двоичном формате. Шестнадцатеричная система использует цифры 0-9, а также буквы от A до F, чтобы получить дополнительные шесть цифр.

Почему компьютеры используют двоичные файлы

Короткий ответ: аппаратное обеспечение и законы физики. Каждый символ в вашем компьютере является электрическим сигналом, и в первые дни вычислений измерять электрические сигналы было намного сложнее. Было более разумно различать только «включенное» состояние, представленное отрицательным зарядом, и «выключенное» состояние, представленное положительным зарядом.

Для тех, кто не знает, почему «выключено» представлено положительным зарядом, это связано с тем, что электроны имеют отрицательный заряд, а больше электронов – больше тока с отрицательным зарядом.

Таким образом, ранние компьютеры размером с комнату использовали двоичные файлы для создания своих систем, и хотя они использовали более старое, более громоздкое оборудование, они работали на тех же фундаментальных принципах. Современные компьютеры используют, так называемый, транзистор для выполнения расчетов с двоичным кодом.

Вот схема типичного транзистора:

По сути, он позволяет току течь от источника к стоку, если в воротах есть ток. Это формирует двоичный ключ. Производители могут создавать эти транзисторы невероятно малыми – вплоть до 5 нанометров или размером с две нити ДНК. Это то, как работают современные процессоры, и даже они могут страдать от проблем с различением включенного и выключенного состояния (хотя это связано с их нереальным молекулярным размером, подверженным странностям квантовой механики ).

Почему только двоичная система

Поэтому вы можете подумать: «Почему только 0 и 1? Почему бы не добавить ещё одну цифру?». Хотя отчасти это связано с традициями создания компьютеров, вместе с тем, добавление ещё одной цифры означало бы необходимость выделять ещё одно состояние тока, а не только «выключен» или «включен».

Проблема здесь в том, что если вы хотите использовать несколько уровней напряжения, вам нужен способ легко выполнять вычисления с ними, а современное аппаратное обеспечение, способное на это, не жизнеспособно как замена двоичных вычислений. Например, существует, так называемый, тройной компьютер , разработанный в 1950-х годах, но разработка на том и прекратилась. Тернарная логика более эффективна, чем двоичная, но пока ещё нет эффективной замены бинарного транзистора или, по крайней мере, нет транзистора столь же крошечных масштабов, что и двоичные.

Причина, по которой мы не можем использовать тройную логику, сводится к тому, как транзисторы соединяются в компьютере и как они используются для математических вычислений. Транзистор получает информацию на два входа, выполняет операцию и возвращает результат на один выход.

Таким образом, бинарная математика проще для компьютера, чем что-либо ещё. Двоичная логика легко преобразуется в двоичные системы, причем True и False соответствуют состояниям Вкл и Выкл .

Бинарная таблица истинности, работающая на двоичной логике, будет иметь четыре возможных выхода для каждой фундаментальной операции. Но, поскольку тройные ворота используют три входа, тройная таблица истинности имела бы 9 или более. В то время как бинарная система имеет 16 возможных операторов (2^2^2), троичная система имела бы 19683 (3^3^3). Масштабирование становится проблемой, поскольку, хотя троичность более эффективна, она также экспоненциально более сложна.

Кто знает? В будущем мы вполне возможно увидим тройничные компьютеры, поскольку бинарная логика столкнулась с проблемами миниатюризации. Пока же мир будет продолжать работать в двоичном режиме.

На данном уроке будет рассмотрена тема «Кодирование информации. Двоичное кодирование. Единицы измерения информации». В ходе него пользователи смогут получить представление о кодировании информации, способах восприятия информации компьютеров, единицах ее измерения и двоичном кодировании.

Тема: Информация вокруг нас

Урок: Кодирование информации. Двоичное кодирование. Единицы измерения информации

На данном уроке будут рассмотрены следующие вопросы:

1. Кодирование как изменение формы представления информации.

2. Как компьютер распознает информацию?

3. Как измерить информацию?

4. Единицы измерения информации.

В мире кодов

Зачем люди кодируют информацию?

1. Скрыть ее от других (зеркальная тайнопись Леонардо да Винчи, военные шифровки).

2. Записать информацию короче (стенография, аббревиатура, дорожные знаки).

3. Для более легкой обработки и передачи (азбука Морзе, перевод в электрические сигналы - машинные коды).

Кодирование - это представление информации с помощью некоторого кода.

Код - это система условных знаков для представления информации.

Способы кодирования информации

1. Графический (см. Рис. 1) (с помощью рисунков и знаков).

Рис. 1. Система сигнальных флагов (Источник)

2. Числовой (с помощью чисел).

Например: 11001111 11100101.

3. Символьный (с помощью символов алфавита).

Например: НКМБМ ЧГЁУ.

Декодирование - это действие по восстановлению первоначальной формы представления информации. Для декодирования необходимо знать код и правила кодирования.

Средством кодирования и декодирования служит кодовая таблица соответствия. Например, соответствие в различных системах счисления - 24 - XXIV, соответствие алфавита каким-либо символам (Рис. 2).


Рис. 2. Пример шифра (Источник)

Примеры кодирования информации

Примером кодирования информации является азбука Морзе (см. Рис. 3).

Рис. 3. Азбука Морзе ()

В азбуке Морзе используется всего 2 символа - точка и тире (короткий и длинный звук).

Еще одним примером кодирования информации является флажковая азбука (см. Рис. 4).

Рис. 4. Флажковая азбука ()

Также примером является азбука флагов (см. Рис. 5).

Рис. 5. Азбука флагов ()

Всем известный пример кодирования - нотная азбука (см. Рис. 6).

Рис. 6. Нотная азбука ()

Рассмотрим следующую задачу:

Используя таблицу флажковой азбуки (см. Рис. 7), необходимо решить следующую задачу:

Рис. 7

Старший помощник Лом сдает экзамен капитану Врунгелю. Помогите ему прочитать следующий текст (см. Рис. 8):

Вокруг нас существуют преимущественно два сигнала, например:

Светофор: красный - зеленый;

Вопрос: да - нет;

Лампа: горит - не горит;

Можно - нельзя;

Хорошо - плохо;

Истина - ложь;

Вперед - назад;

Есть - нет;

Всё это сигналы, обозначающие количество информации в 1 бит.

1 бит - это такое количество информации, которое позволяет нам выбрать один вариант из двух возможных.

Компьютер - это электрическая машина, работающая на электронных схемах. Чтобы компьютер распознал и понял вводимую информацию, ее надо перевести на компьютерный (машинный) язык.

Алгоритм, предназначенный для исполнителя, должен быть записан, то есть закодирован, на языке, понятном компьютеру.

Это электрические сигналы: проходит ток или не проходит ток.

Машинный двоичный язык - последовательность "0" и "1". Каждое двоичное число может принимать значение 0 или 1.

Каждая цифра машинного двоичного кода несет количество информации, равное 1 бит.

Двоичное число, которое представляет наименьшую единицу информации, называется б ит . Бит может принимать значение либо 0, либо 1. Наличие магнитного или электронного сигнала в компьютере означает 1, отсутствие 0.

Строка из 8 битов называется б айт . Эту строку компьютер обрабатывает как отдельный символ (число, букву).

Рассмотрим пример. Слово ALICE состоит из 5 букв, каждая из которых на языке компьютера представлена одним байтом (см. Рис. 10). Стало быть, Alice можно измерить как 5 байт.

Рис. 10. Двоичный код (Источник)

Кроме бита и байта, существуют и другие единицы измерения информации.

Список литературы

1. Босова Л.Л. Информатика и ИКТ: Учебник для 5 класса. - М.: БИНОМ. Лаборатория знаний, 2012.

2. Босова Л.Л. Информатика: Рабочая тетрадь для 5 класса. - М.: БИНОМ. Лаборатория знаний, 2010.

3. Босова Л.Л., Босова А.Ю. Уроки информатики в 5-6 классах: Методическое пособие. - М.: БИНОМ. Лаборатория знаний, 2010.

2. Фестиваль "Открытый урок" ().

Домашнее задание

1. §1.6, 1.7 (Босова Л.Л. Информатика и ИКТ: Учебник для 5 класса).

2. Стр. 28, задания 1, 4; стр. 30, задания 1, 4, 5, 6 (Босова Л.Л. Информатика и ИКТ: Учебник для 5 класса).

Двоичный переводчик - это инструмент для перевода двоичного кода в текст для чтения или печати. Вы можете перевести двоичный файл на английский, используя два метода; ASCII и Unicode.

Двоичная система счисления

Система двоичного декодера основана на числе 2 (основание). Он состоит только из двух чисел как системы счисления base-2: 0 и 1.

Хотя бинарная система применялась в различных целях в древнем Египте, Китае и Индии, она стала языком электроники и компьютеров современного мира. Это наиболее эффективная система для обнаружения выключенного (0) и включенного (1) состояния электрического сигнала. Это также основа двоичного кода в текст, который используется на компьютерах для составления данных. Даже цифровой текст, который вы сейчас читаете, состоит из двоичных чисел. Но вы можете прочитать этот текст, потому что мы расшифровали двоичный код перевод файл, используя двоичный код слова.

Что такое ASCII?

ASCII - это стандарт кодирования символов для электронной связи, сокращенный от Американского стандартного кода для обмена информацией. В компьютерах, телекоммуникационном оборудовании и других устройствах коды ASCII представляют текст. Хотя поддерживается много дополнительных символов, большинство современных схем кодирования символов основаны на ASCII.

ASCII - это традиционное название для системы кодирования; Управление по присвоению номеров в Интернете (IANA) предпочитает обновленное имя США-ASCII, которое поясняет, что эта система была разработана в США и основана на преимущественно используемых типографских символах. ASCII является одним из основных моментов IEEE.

Бинарный в ASCII

Первоначально основанный на английском алфавите, ASCII кодирует 128 указанных семибитных целочисленных символов. Можно печатать 95 кодированных символов, включая цифры от 0 до 9, строчные буквы от a до z, прописные буквы от A до Z и символы пунктуации. Кроме того, 33 непечатных контрольных кода, полученных с помощью машин Teletype, были включены в исходную спецификацию ASCII; большинство из них в настоящее время устарели, хотя некоторые все еще широко используются, такие как возврат каретки, перевод строки и коды табуляции.

Например, двоичное число 1101001 = шестнадцатеричное 69 (i - девятая буква) = десятичное число 105 будет представлять строчный I в кодировке ASCII.

Использование ASCII

Как уже упоминалось выше, используя ASCII, вы можете перевести компьютерный текст в человеческий текст. Проще говоря, это переводчик с бинарного на английский. Все компьютеры получают сообщения в двоичном, 0 и 1 серии. Тем не менее, так же, как английский и испанский могут использовать один и тот же алфавит, но для многих похожих слов у них совершенно разные слова, у компьютеров также есть своя языковая версия. ASCII используется как метод, который позволяет всем компьютерам обмениваться документами и файлами на одном языке.

ASCII важен, потому что при разработке компьютерам был дан общий язык.

В 1963 году ASCII впервые был коммерчески использован в качестве семибитного кода телепринтера для сети TWX (Teletype Writer eXchange) American Telephone & Telegraph. Первоначально TWX использовал предыдущую пятибитную ITA2, которую также использовала конкурирующая телепринтерная система Telex. Боб Бемер представил такие функции, как последовательность побега. По словам Бемера, его британский коллега Хью МакГрегор Росс помог популяризировать эту работу - «настолько, что код, который стал ASCII, впервые был назван Кодексом Бемера-Росса в Европе». Из-за его обширной работы ASCII, Бемер был назван "отцом ASCII".

До декабря 2007 года, когда кодировка UTF-8 превосходила ее, ASCII была наиболее распространенной кодировкой символов во Всемирной паутине; UTF-8 обратно совместим с ASCII.

UTF-8 (Юникод)

UTF-8 - это кодировка символов, которая может быть такой же компактной, как ASCII, но также может содержать любые символы Юникода (с некоторым увеличением размера файла). UTF - это формат преобразования Unicode. «8» означает представление символа с использованием 8-битных блоков. Количество блоков, которые должен представлять персонаж, варьируется от 1 до 4. Одной из действительно приятных особенностей UTF-8 является то, что он совместим со строками с нулевым символом в конце. При кодировании ни один символ не будет иметь байта nul (0).

Unicode и универсальный набор символов (UCS) ISO / IEC 10646 имеют гораздо более широкий диапазон символов, и их различные формы кодирования начали быстро заменять ISO / IEC 8859 и ASCII во многих ситуациях. Хотя ASCII ограничен 128 символами, Unicode и UCS поддерживают большее количество символов посредством разделения уникальных концепций идентификации (с использованием натуральных чисел, называемых кодовыми точками) и кодирования (до двоичных форматов UTF-8, UTF-16 и UTF-32-битных).).

Разница между ASCII и UTF-8

ASCII был включен как первые 128 символов в набор символов Unicode (1991), поэтому 7-разрядные символы ASCII в обоих наборах имеют одинаковые числовые коды. Это позволяет UTF-8 быть совместимым с 7-битным ASCII, поскольку файл UTF-8 с только символами ASCII идентичен файлу ASCII с той же последовательностью символов. Что еще более важно, прямая совместимость обеспечивается, поскольку программное обеспечение, которое распознает только 7-битные символы ASCII как специальные и не изменяет байты с самым высоким установленным битом (как это часто делается для поддержки 8-битных расширений ASCII, таких как ISO-8859-1), будет сохранить неизмененные данные UTF-8.

Приложения переводчика двоичного кода

Наиболее распространенное применение для этой системы счисления можно увидеть в компьютерных технологиях. В конце концов, основой всего компьютерного языка и программирования является двузначная система счисления, используемая в цифровом кодировании.

Это то, что составляет процесс цифрового кодирования, беря данные и затем изображая их с ограниченными битами информации. Ограниченная информация состоит из нулей и единиц двоичной системы. Изображения на экране вашего компьютера являются примером этого. Для кодирования этих изображений для каждого пикселя используется двоичная строка.

Если на экране используется 16-битный код, каждому пикселю будут даны инструкции, какой цвет отображать на основе того, какие биты равны 0 и 1. В результате получается более 65 000 цветов, представленных 2 ^ 16. В дополнение к этому вы найдете применение двоичной системы счисления в математической ветви, известной как булева алгебра.

Ценности логики и истины относятся к этой области математики. В этом приложении заявлениям присваивается 0 или 1 в зависимости от того, являются ли они истинными или ложными. Вы можете попробовать преобразование двоичного в текстовое, десятичное в двоичное, двоичное в десятичное преобразование, если вы ищете инструмент, который помогает в этом приложении.

Преимущество двоичной системы счисления

Система двоичных чисел полезна для ряда вещей. Например, компьютер щелкает переключателями для добавления чисел. Вы можете стимулировать добавление компьютера, добавляя двоичные числа в систему. В настоящее время есть две основные причины использования этой компьютерной системы счисления. Во-первых, это может обеспечить надежность диапазона безопасности. Вторично и самое главное, это помогает минимизировать необходимые схемы. Это уменьшает необходимое пространство, потребляемую энергию и расходы.

Вы можете кодировать или переводить двоичные сообщения, написанные двоичными числами. Например,

(01101001) (01101100011011110111011001100101) (011110010110111101110101) является декодированным сообщением. Когда вы скопируете и вставите эти цифры в наш бинарный переводчик, вы получите следующий текст на английском языке:

Я люблю тебя

Это означает

(01101001) (01101100011011110111011001100101) (011110010110111101110101) = Я тебя люблю

таблицы

двоичный

шестнадцатеричный

Двоичный код представляет собой форму записи информации в виде единиц и нулей. Такая является позиционной с основанием 2. На сегодняшний день двоичный код (таблица, представленная немного ниже, содержит некоторые примеры записи чисел) используется во всех без исключения цифровых устройствах. Его популярность объясняется высокой надежность и простотой данной формы записи. Двоичная арифметика весьма проста, соответственно, ее легко реализовать и на аппаратном уровне. компоненты (или как их еще называют - логические) весьма надежны, так как они оперируют в работе всего двумя состояниями: логической единицы (есть ток) и логического нуля (нет тока). Тем самым они выгодно отличаются от аналоговых компонентов, работа которых основана на переходных процессах.

Как составляется двоичная форма записи?

Давайте разберемся, каким образом формируется такой ключ. Один разряд двоичного кода может содержать всего два состояния: ноль и единицу (0 и 1). При использовании двух разрядов появляется возможность записать четыре значения: 00, 01, 10, 11. Трехразрядная запись содержит восемь состояний: 000, 001 … 110, 111. В результате получаем, что длина двоичного кода зависит от числа разрядов. Это выражение можно записать с помощью следующей формулы: N =2m, где: m - это количество разрядов, а N - число комбинаций.

Виды двоичных кодов

В микропроцессорах такие ключи применяются для записи разнообразной обрабатываемой информации. Разрядность двоичного кода может существенно превышать и его встроенной памяти. В таких случаях длинные числа занимают несколько ячеек запоминающего устройства и обрабатываются с помощью нескольких команд. При этом все сектора памяти, которые выделены под многобайтный двоичный код, рассматриваются в качестве одного числа.

В зависимости от необходимости предоставления той или иной информации, различают следующие виды ключей:

  • беззнаковые;
  • прямые целыезнаковые коды;
  • знаковые обратные;
  • знаковые дополнительные;
  • код Грея;
  • код Грея-Экспресс.;
  • дробные коды.

Рассмотрим более детально каждый из них.

Беззнаковый двоичный код

Давайте разберемся, что же представляет собой такой вид записи. В целых беззнаковых кодах каждый разряд (двоичный) представляет степень цифры два. При этом наименьшее число, которое можно записать в такой форме, равно нулю, а максимальное можно представить следующей формулой: М=2 п -1. Эти два числа полностью определяют диапазон ключа, которым можно выразить такой двоичный код. Давайте рассмотрим возможности упомянутой формы записи. При использовании данного вида беззнакового ключа, состоящего из восьми разрядов, диапазон возможных чисел составит от 0 до 255. Шестнадцатиразрядный код будет иметь диапазон от 0 до 65535. В восьмиразрядных процессорах для хранения и записи таких чисел используют два сектора памяти, которые располагаются в соседних адресатах. Работу с такими ключами обеспечивают специальные команды.

Прямые целые знаковые коды

В данном виде двоичных ключей старший разряд используется для записи знака числа. Нуль соответствует плюсу, а единица - минусу. В результате введения данного разряда диапазон закодированных чисел смещается в отрицательную сторону. Получается, что восьмиразрядный знаковый целый двоичный ключ может записать числа в диапазоне от -127 до +127. Шестнадцатиразрядный - в диапазоне от -32767 до +32767. В восьмиразрядных микропроцессорах для хранения подобных кодов используют два соседних сектора.

Недостатком такой формы записи является то, что знаковые и цифровые разряды ключа необходимо обрабатывать раздельно. Алгоритмы программ, работающих с этими кодами, получаются очень сложными. Для изменения и выделения знаковых разрядов необходимо применять механизмы маскировки этого символа, что способствует резкому увеличению размеров программного обеспечения и уменьшению его быстродействия. С целью устранения данного недостатка был введен новый вид ключа - обратный двоичный код.

Знаковый обратный ключ

Данная форма записи отличается от прямых кодов только тем, что отрицательное число в ней получается путем инвертирования всех разрядов ключа. При этом цифровые и знаковые разряды идентичны. Благодаря этому, алгоритмы работы с таким видом кодов существенно упрощаются. Однако обратный ключ требует специальный алгоритм для распознавания символа первого разряда, вычисления абсолютной величины числа. А также восстановления знака результирующего значения. Более того, в обратном и прямом кодах числа для записи нуля используют два ключа. Несмотря на то что это значение не имеет положительного или отрицательного знака.

Знаковый дополнительный код двоичного числа

Данный вид записи не имеет перечисленных недостатков предыдущих ключей. Такие коды позволяют проводить непосредственное суммирование как положительных, так и отрицательных чисел. При этом не проводится анализ знакового разряда. Все это стало возможным благодаря тому факту, что дополнительные числа представляют собой естественное кольцо символов, а не искусственные образования, такие как прямые и обратные ключи. Более того, важным фактором является, то что произвести вычисления дополнений в двоичных кодах чрезвычайно просто. Для этого достаточно к обратному ключу добавить единицу. При использовании данного вида знакового кода, состоящего из восьми разрядов, диапазон возможных чисел составит от -128 до +127. Шестнадцатиразрядный ключ будет иметь диапазон от -32768 до +32767. В восьмиразрядных процессорах для хранения таких чисел также используют два соседних сектора.

Двоичный дополнительный код интересен наблюдаемым эффектом, который называют явлением распространения знака. Давайте разберемся, что это значит. Данный эффект заключается в том, что в процессе преобразования однобайтового значения в двухбайтовое достаточно каждому биту старшего байта назначить значения знаковых битов младшего байта. Получается, что для хранения знакового можно воспользоваться старшими битами. При этом значение ключа совершенно не изменяется.

Код Грея

Данная форма записи, по сути, является одношаговым ключом. То есть в процессе перехода от одного значения к другому меняется всего лишь один бит информации. При этом погрешность при считывании данных приводит к переходу от одного положения к другому с незначительным смещением по времени. Однако получение совершенно неверного результата углового положения при таком процессе полностью исключается. Достоинством такого кода является его способность зеркально отображать информацию. Например, инвертируя старшие биты, можно просто менять направление отсчета. Это происходит благодаря управляющему входу Complement. При этом выдаваемое значение может быть как возрастающим, так и спадающим при одном физическом направлении вращения оси. Так как информация, записанная в ключе Грея, имеет исключительно кодированный характер, который не несет реальных числовых данных, то перед дальнейшей работой требуется предварительно преобразовать его в обычную бинарную форму записи. Осуществляется это с помощью специального преобразователя - декодера Грей-Бинар. Данное устройство легко реализуется на элементарных логических элементах как аппаратным, так и программным способом.

Код Грея-Экспресс

Стандартный одношаговый ключ Грей подходит для решений, которые представлены в виде чисел, два. В случаях, где необходимо реализовывать иные решения, из такой формы записи вырезают и используют только средний участок. В результате сохраняется одношаговость ключа. Однако в таком коде началом числового диапазона не является нуль. Он смещается на заданное значение. В процессе обработки данных от генерируемых импульсов отнимают половину разницы между начальным и редуцированным разрешением.

Представление дробного числа в двоичном ключе с фиксированной запятой

В процессе работы приходится оперировать не только целыми цифрами, но и дробными. Такие числа можно записывать с помощью прямых, обратных и дополнительных кодов. Принцип построения упомянутых ключей такой же, как и у целых. До сих пор мы считали, что двоичная запятая должна находиться справа от младшего разряда. Но это не так. Она может располагаться и слева от старшего разряда (в таком случае в качестве переменной можно записывать исключительно дробные числа), и посередине переменной (можно записывать смешанные значения).

Представление двоичного кода с плавающей запятой

Такая форма применяется для записи либо наоборот - очень малых. В качестве примера можно привести межзвездные расстояния или размеры атомов и электронов. При вычислении таких значений пришлось бы применять двоичный код с очень большой разрядностью. Однако нам нет необходимости учитывать космические расстояние с точностью до миллиметра. Поэтому форма записи с фиксированной запятой в данном случае неэффективна. Для отображения таких кодов используется алгебраическая форма. То есть число записывается как мантисса, умноженная на десять в степени, отображающей нужный порядок числа. Следует знать, что мантисса не должна быть больше единицы, а после запятой не должен записываться ноль.

Считается, что двоичное исчисление было изобретено в начале 18-го века математиком из Германии Готфридом Лейбницем. Однако, как недавно открыли ученые, задолго до полинезийского острова Мангареву использовали данный вид арифметики. Несмотря на то что колонизация практически полностью уничтожила оригинальные системы исчисления, ученые восстановили сложные двоичные и десятичные виды счета. Кроме того, ученый Когнитивист Нуньес утверждает, что кодирование двоичным кодом применялось в древнем Китае еще в 9-м веке до н. э. Другие древние цивилизации, например, индейцы майя, также использовали сложные комбинации десятичных и бинарных систем для отслеживания временных интервалов и астрономических явлений.

Если вам интересно узнать, как читать двоичные числа, важно понять, как работают двоичные числа. Двоичная система известна как система нумерации «base 2», что означает наличие двух возможных чисел для каждой цифры; один или ноль. Большие числа записываются путем добавления дополнительных двоичных единиц или нулей.



Понимание двоичных чисел


Знание того, как читать двоичные файлы, не является критичным для использования компьютеров. Но хорошо понять концепцию, чтобы лучше понять, как компьютеры хранят числа в памяти. Он также позволяет понимать такие термины, как 16-битные, 32-битные, 64-битные и измерения памяти, такие как байты (8 бит).



«Чтение» двоичного кода обычно означает перевод двоичного числа в базовое 10 (десятичное) число, с которым люди знакомы. Это преобразование достаточно просто выполнить в своей голове, когда вы поймете, как работает бинарный язык.

Каждая цифра в двоичном числе имеет определенное значение, если цифра не является нулем. После того как вы определили все эти значения, вы просто складываете их вместе, чтобы получить 10-значное десятичное значение двоичного числа. Чтобы увидеть, как это работает, возьмите двоичное число 11001010.


1. Лучший способ прочитать двоичное число - начать с самой правой цифры и двигаться влево. Сила этого первого местоположения равна нулю, то есть значение для этой цифры, если это не ноль, равно двум степеням нуля или единице. В этом случае, поскольку цифра является нулем, значение для этого места будет равно нулю.



2. Затем перейдите к следующей цифре. Если это один, то рассчитайте два в степени одного. Запишите это значение. В этом примере значение равно степени два, равной двум.



3. Продолжайте повторять этот процесс, пока не дойдете до самой левой цифры.



4. Чтобы закончить, все, что вам нужно сделать, это сложить все эти числа вместе, чтобы получить общее десятичное значение двоичного числа: 128 + 64 + 0 + 0 + 8 + 0 + 2 + 0 = 202 .


Заметка : Другой способ увидеть весь этот процесс в форме уравнения заключается в следующем: 1 x 2 7 + 1 x 2 6 + 0 x 2 5 + 0 x 2 4 + 1 x 2 3 + 0 x 2 2 + 1 x 2 1 + 0 х 2 0 = 20 .


Двоичные числа с подписью


Приведенный выше метод работает для базовых двоичных чисел без знака. Однако компьютерам нужен способ представления отрицательных чисел также с помощью двоичного кода.


Из-за этого компьютеры используют двоичные числа со знаком. В системе этого типа самая левая цифра известна как знаковый бит, а остальные цифры известны как биты амплитуды.


Чтение двоичного числа со знаком почти такое же, как и без знака, с одним небольшим отличием.


1. Выполните ту же процедуру, как описано выше для двоичного числа без знака, но остановитесь, как только вы достигнете самого левого бита.



2. Чтобы определить знак, осмотрите крайний левый бит. Если это единица, то число отрицательное. Если это ноль, то число положительное.



3. Теперь выполните те же вычисления, что и раньше, но примените соответствующий знак к числу, указанному крайним левым битом: 64 + 0 + 0 + 8 + 0 + 2 + 0 = -74 .


4. Бинарный метод со знаком позволяет компьютерам представлять числа, которые являются положительными или отрицательными. Однако он потребляет начальный бит, а это означает, что для больших чисел требуется немного больше памяти, чем для двоичных чисел без знака.