Давайте вспомним, что 20 июля 1969 года произошло одно из самых невероятных событий
в истории:
корабль "Аполлон-11" совершил посадку на Луне.
Об этом заботились не только величайшие умы человечества, но и компьютеры.
Система навигации космического корабля была одной из ранних форм современных IT-
решений.
Компьютер, который помог воплотить американскую мечту о покорении Луны, занимал
целую комнату,
а его вычислительная мощность была в десять тысяч раз меньше, чем у устройства,
которое сегодня лежит в кармане почти у каждого, – я говорю о смартфоне.
До появления самих устройств компьютерами называли людей, которые как раз выполняли
вычисления. Вы, наверное, думаете,
что это какая-то бессмыслица
Знаете, что такое счеты? Вроде бы они похожи на деревянную детскую игрушку.
Но на самом деле счеты – один из первых известных компьютеров. Их изобрели для
крупных расчетов в 500 году до нашей эры.
Сегодня у нас есть калькуляторы: TI-89 или те, что на компьютере, но и счеты до сих
пор используются.
Она поняла, что машину можно использовать не только для обычных вычислений,
и разработала для нее алгоритм. Это был самый первый пример компьютерной
программы.
Алгоритм – последовательность действий, позволяющих решать те или иные проблемы.
Благодаря идее Лавлейс об использовании алгоритмов аналитическая
машина стала первым в истории универсальным вычислительным устройством.
Это прекрасный пример того, что уже в 1800-х годах женщины активно развивали
технологии.
При этом для коммуникации компьютер использует двоичную систему счисления, ее ещё
называют системой с основанием 2.
Это значит, что в его языке только два символа: 0 и 1. Возникает логичный вопрос:
если он знает только ноли и единицы,
как с ним общаться? Смотрите… Мы используем буквы алфавита, чтобы создавать слова и
давать им значения.
Из слов, как из кирпичиков, составляем предложения, абзацы и целые рассказы.
В двоичной системе все точно так же, просто вместо A, B, C и других букв есть
только 0 и 1.
Но и из них можно создавать слова и давать им значения. Двоичная система включает
восемь цифр,
которые называются "биты". По сути, бит – двоичная единица информации.
Битов именно восемь, так как на заре информатики в аппаратном обеспечении
использовалась двоичная система.
Когда мы возводили два в восьмую степень, получали диапазон значений, достаточный
для всех необходимых вычислений.
Тогда использовалось любое количество битов, но постепенно в индустрии закрепился
8-битный стандарт.
Вы, наверное, знаете, что группа из восьми битов называется байтом.
То есть байт из нолей и единиц мог выглядеть примерно так: 10011011. Каждый байт
содержит один символ,
который имеет 256 возможных значений. Именно столько получается, если возвести
двойку в восьмую степень.
На языке машины этот байт мог обозначать, скажем, букву C.
Всё, что вы видите на экране своего устройства, будь то видео, изображение, текст
или что-то ещё,
– это лишь комбинации единиц и нолей. Важно понимать, как работает двоичная
система счисления.