10 байт в бит – 10 байт в битах

Разбираемся с прямым и обратным порядком байтов / Habr

Перевод статьи Халида Азада — Understanding Big and Little Endian Byte Order

Проблемы с порядком байтов очень расстраивают, и я хочу избавить Вас от горя, которое довелось испытать мне. Вот ключевые тезы:

  • Проблема: Компьютеры, как и люди, говорят на разных языках. Одни записывают данные “слева направо” другие “справа налево”. При этом каждое устройство отлично считывает собственные данные — проблемы начинаются, когда один компьютер сохраняет данные, а другой пытается эти данные считать.
  • Решение: Принять некий общий формат (например, весь сетевой трафик передается в едином формате). Или всегда добавлять заголовок, описывающий формат хранения данных. Если считанный заголовок имеет обратный порядок, значит данные сохранены в другом формате и должны быть переконвертированы.


Числа и данные

Наиболее важная концепция заключается в понимании разницы между числами и данными, которые эти числа представляют. Число — это абстрактное понятия, как исчислитель чего-то. У Вас есть десять пальцев. Понятие “десять” не меняется, в зависимости от использованного представления: десять, 10, diez (испанский), ju (японский), 1010 (бинарное представление), Х (римские числа)… Все эти представления указывают на понятие “десяти”.

Сравним это с данными. Данные — это физическое понятие, просто последовательность битов и байтов, хранящихся на компьютере. Данные не имеют неотъемлемого значения и должны быть интерпретированы тем, кто их считывает.

Данные — это как человеческое письмо, просто набор отметок на бумаге. Этим отметкам не присуще какое-либо значение. Если мы видим линию и круг (например, |O), то можно интерпретировать это как “десять”. Но это лишь предположение, что считанные символы представляют число. Это могут быть буквы “IO” — название спутника Юпитера. Или, возможно, имя греческой богини. Или аббревиатура для ввода/вывода. Или чьи-то инициалы. Или число 2 в бинарном представлении (“10”). Этот список предположений можно продолжить. Дело в том, что один фрагмент данных (|O) может быть интерпретировано по разному, и смысл остается не ясен, пока кто-то не уточнит намерения автора.

Компьютеры сталкиваются с такой же проблемой. Они хранят данные, а не абстрактные понятия, используя при этом 1 и 0. Позднее они считывают эти 1 и 0 и пытаются воссоздать абстрактные понятия из набора данных. В зависимости от сделанных допущений, эти 1 и 0 могут иметь абсолютно разное значение.

Почему так происходит? Ну, вообще-то нет такого правила, что компьютеры должны использовать один и тот же язык, так же, как нет такого правила и для людей. Каждый компьютер одного типа имеет внутреннюю совместимость (он может считывать свои собственные данные), но нет никакой гарантии, как именно интерпретирует эти данные компьютер другого типа.

Основные концепции:

  • Данные (биты и байты или отметки на бумаге) сами по себе не имеют смысла. Они должны быть интерпретированы в какое-то абстрактное понятие, например, число.
  • Как и люди, компьютеры имеют различные способы хранения одного и того же абстрактного понятия (например, мы можем различными способами сказать “10”).

Храним числа как данные

К счастью, большинство компьютеров хранят данные всего в нескольких форматах (хотя так было не всегда). Это дает нам общую отправную точку, что делает жизнь немного проще:
  • Бит имеет два состояния (включен или выключен, 1 или 0).
  • Байт — это последовательность из 8 бит. Крайний левый бит в байте является старшим. То есть двоичная последовательность 00001001 является десятичным числом девять. 00001001 = (2^3 + 2^0 = 8 + 1 = 9).
  • Биты нумеруются справа налево. Бит 0 является крайним правым и он наименьший. Бит 7 является крайним левым и он наибольший.

Мы можем использовать эти соглашения в качестве строительного блока для обмена данными. Если мы сохраняем и читаем данные по одному байту за раз, то этот подход будет работать на любом компьютере. Концепция байта одинаковая на всех машинах, понятие “байт 0” одинакова на всех машинах. Компьютеры также отлично понимают порядок, в котором Вы посылаете им байты — они понимают какой байт был прислан первым, вторым, третьим и т. д. “Байт 35” будет одним и тем же на всех машинах.

Так в чем же проблема — компьютеры отлично ладят с одиночными байтами, правда? Ну, все превосходно для однобайтных данных, таких как ASCII-символы. Однако, много данных используют для хранения несколько байтов, например, целые числа или числа с плавающей точкой. И нет никакого соглашения о том, в каком порядке должны хранится эти последовательности.

Пример с байтом

Рассмотрим последовательность из 4 байт. Назовем их W X Y и Z. Я избегаю наименований A B C D, потому что это шестнадцатеричные числа, что может немного запутывать. Итак, каждый байт имеет значение и состоит из 8 бит.
Имя байта            W         X          Y          Z
Позиция              0         1          2          3
Значение (hex)      0x12      0x34       0x56       0x78

Например, W — это один байт со значением 0х12 в шестнадцатеричном виде или 00010010 в бинарном. Если W будет интерпретироваться как число, то это будет “18” в десятеричной системе (между прочим, ничто не указывает на то, что мы должны интерпретировать этот байт как число — это может быть ASCII-символ или что-то совсем иное). Вы все еще со мной? Мы имеем 4 байта, W X Y и Z, каждый с различным значением.
Понимаем указатели

Указатели являются ключевой частью программирования, особенно в языке С. Указатель представляет собой число, являющееся адресом в памяти. И это зависит только от нас (программистов), как интерпретировать данные по этому адресу.

В языке С, когда вы кастите (приводите) указатель к конкретному типу (такому как char * или int *), это говорит компьютеру, как именно интерпретировать данные по этому адресу. Например, давайте объявим:

void *p = 0;   // p указатель на неизвестный тип данных
	           // p нулевой указатель - не разыменовывать
char *c;       // c указатель на один байт

Обратите внимание, что мы не можем получить из р данные, потому что мы не знаем их тип. р может указывать на цифру, букву, начало строки, Ваш гороскоп или изображение — мы просто не знаем, сколько байт нам нужно считать и как их интерпретировать.

Теперь предположим, что мы напишем:

c = (char *)p;

Этот оператор говорит компьютеру, что р указывает на то же место, и данные по этому адресу нужно интерпретировать как один символ (1 байт). В этом случае, с будет указывать на память по адресу 0, или на байт W. Если мы выведем с, то получим значение, хранящееся в W, которое равно шестнадцатеричному 0x12 (помните, что W — это полный байт). Этот пример не зависит от типа компьютера — опять же, все компьютеры одинаково хорошо понимают, что же такое один байт (в прошлом это было не всегда так).

Этот пример полезен, он одинаково работает на все компьютерах — если у нас есть указатель на байт (char *, один байт), мы можем проходить по памяти, считывая по одному байту за раз. Мы можем обратиться к любому месту в памяти, и порядок хранения байт не будет иметь никакого значения — любой компьютер вернет нам одинаковую информацию.

Так в чем же проблема?

Проблемы начинаются, когда компьютер пытается считать несколько байт. Многие типы данных состоят больше чем из одного байта, например, длинные целые (long integers) или числа с плавающей точкой. Байт имеет только 256 значений и может хранить числа от 0 до 255.

Теперь начинаются проблемы — если Вы читаете многобайтные данные, то где находится старший байт?

  • Машины с порядком хранения от старшего к младшему (прямой порядок) хранят старший байт первым. Если посмотреть на набор байтов, то первый байт (младший адрес) считается старшим.
  • Машины с порядком хранения от младшего к старшему (обратный порядок) хранят младший байт первым. Если посмотреть на набор байт, то первый байт будет наименьшим.

Такое именование имеет смысл, правда? Тип хранения от старшего к младшему подразумевает, что запись начинается со старшего и заканчивается младшим (Между прочим, английский вариант названий от старшего к младшего (Big-endian) и от младшего к старшему (Little-endian) взяты из книги “Путешествия Гулливера”, где лилипуты спорили о том, следует ли разбивать яйцо на маленьком конце (little-end) или на большом (big-end)). Иногда дебаты компьютеров такие же осмысленные 🙂

Повторюсь, порядок следования байтов не имеет значения пока Вы работаете с одним байтом. Если у Вас есть один байт, то это просто данные, которые Вы считываете и есть только один вариант их интерпретации (опять таки, потому что между компьютерами согласовано понятие одного байта).

Теперь предположим, что у нас есть 4 байта (WXYZ), которые хранятся одинаково на машинах с обоими типами порядка записи байтов. То есть, ячейка памяти 0 соответствует W, ячейка 1 соответствует X и т. д.

Мы можем создать такое соглашение, помня, что понятие “байт” является машинно-независимым. Мы можем обойти память по одному байту за раз и установить необходимые значения. Это будет работать на любой машине.

c = 0;     // указывает на позицию 0 (не будет работать на реальной машине!)
*c = 0x12; // устанавливаем значение W
c = 1;     // указывает на позицию 1
*c = 0x34; // устанавливаем значение X
...        // то же повторяем для Y и Z

Такой код будет работать на любой машине и успешно установит значение байт W, X, Y и Z расположенных на соответствующих позициях 0, 1, 2 и 3.
Интерпретация данных

Теперь давайте рассмотрим пример с многобайтными данными (наконец-то!). Короткая сводка: “short int” это 2-х байтовое число (16 бит), которое может иметь значение от 0 до 65535 (если оно беззнаковое). Давайте используем его в примере.
short *s; // указатель на short int (2 байта)
s = 0;    // указатель на позицию 0; *s это значение

Итак, s это указатель на short int, и сейчас он указывает на позицию 0 (в которой хранится W). Что произойдет, когда мы считаем значение по указателю s?
  • Машина с прямым порядком хранения: Я думаю, short int состоит из двух байт, а значит я считаю их. Позиция s это адрес 0 (W или 0х12), а позиция s + 1 это адрес 1 (X или 0х34). Поскольку первый байт является старшим, то число должно быть следующим 256 * байт 0 + байт 1 или 256 * W + X, или же 0х1234. Я умножаю первый байт на 256 (2^8) потому что его нужно сдвинуть на 8 бит.
  • Машина с обратным порядком хранения: Я не знаю что курит мистер “От старшего к младшему”. Я соглашусь, что short int состоит из 2 байт и я считаю их точно также: позиция s со значение 0х12 и позиция s + 1 со значением 0х34. Но в моем мире первым является младший байт! И число должно быть байт 0 + 256 * байт 1 или 256 * X + W, или 0х3412.

Обратите внимание, что обе машины начинали с позиции s и читали память последовательно. Не никакой путаницы в том, что значит позиция 0 и позиция 1. Как и нет никакой путаницы в том, что являет собой тип short int.

Теперь Вы видите проблему? Машина с порядком хранения от старшего к младшему считает, что s = 0x1234, в то время как машина с порядком хранения от младшего к старшему думает, что s = 0x3412. Абсолютно одинаковые данные дают в результате два совершенно разных числа.

И еще один пример

Давайте для “веселья” рассмотрим еще один пример с 4 байтовым целым:
int *i; // указатель на int (4 байты 32-битовой машине)
i = 0;  // указывает на позицию 0, а *i значение по этому адресу

И опять мы задаемся вопросом: какое значение хранится по адресу i?
  • Машина с прямым порядком хранения: тип int состоит из 4 байт и первый байт является старшим. Считываю 4 байта (WXYZ) из которых старший W. Полученное число: 0х12345678.
  • Машина с обратным порядком хранения: несомненно, int состоит из 4 байт, но старшим является последний. Так же считываю 4 байта (WXYZ), но W будет расположен в конце — так как он является младшим. Полученное число: 0х78563412.

Одинаковые данные, но разный результат — это не очень приятная вещь.
Проблема NUXI

Проблему с порядком байт иногда называют проблемой NUXI: слово UNIX, сохраненное на машинах с порядком хранения от старшего к младшему, будет отображаться как NUXI на машинах с порядком от младшего к старшему.

Допустим, что мы собираемся сохранить 4 байта (U, N, I, и X), как два short int: UN и IX. Каждая буква занимает целый байт, как в случае с WXYZ. Для сохранения двух значений типа short int напишем следующий код:

short *s; // указатель для установки значения переменной типа short
s = 0;    // указатель на позицию 0
*s = UN;  // устанавливаем первое значение: U * 256 + N (вымышленный код)
s = 2;    // указатель на следующую позицию
*s = IX;  // устанавливаем второе значение: I * 256 + X

Этот код не является специфичным для какой-то машины. Если мы сохраним значение “UN” на любой машине и считаем его обратно, то обратно получим тоже “UN”. Вопрос порядка следования байт не будет нас волновать, если мы сохраняем значение на одной машине, то должны получить это же значение при считывании.

Однако, если пройтись по памяти по одному байту за раз (используя трюк с char *), то порядок байт может различаться. На машине с прямым порядком хранения мы увидим:

Byte:     U N I X
Location: 0 1 2 3

Что имеет смысл. “U” является старшим байтом в “UN” и соответственно хранится первым. Такая же ситуация для “IX”, где “I” — это старший байт и хранится он первым.

На машине с обратным порядком хранения мы скорее всего увидим:

Byte:     N U X I
Location: 0 1 2 3

Но и это тоже имеет смысл. “N” является младшим байтом в “UN” и значит хранится он первым. Опять же, хотя байты хранятся в “обратном порядке” в памяти, машины с порядком хранения от младшего к старшему знают что это обратный порядок байт, и интерпретирует их правильно при чтении. Также, обратите внимание, что мы можем определять шестнадцатеричные числа, такие как 0x1234, на любой машине. Машина с обратным порядком хранения байтов знает, что Вы имеете в виду, когда пишите 0x1234 и не заставит Вас менять значения местами (когда шестнадцатеричное число отправляется на запись, машина понимает что к чему и меняет байты в памяти местами, скрывая это от глаз. Вот такой трюк.).

Рассмотренный нами сценарий называется проблемой “NUXI”, потому что последовательность “UNIX” интерпретируется как “NUXI” на машинах с различным порядком хранения байтов. Опять же, эта проблема возникает только при обмене данными — каждая машина имеет внутреннюю совместимость.

Обмен данными между машинами с различным порядком хранения байтов

Сейчас компьютеры соединены — прошли те времена, когда машинам приходилось беспокоиться только о чтении своих собственных данных. Машинам с различным порядком хранения байтов нужно как-то обмениваться данными и понимать друг друга. Как же они это делают?
Решение 1: Использовать общий формат

Самый простой подход состоит в согласовании с общим форматом для передачи данных по сети. Стандартным сетевым является порядок от старшего к младшему, но некоторые люди могут расстроиться, что не победил порядок от младшего к старшему, поэтому просто назовем его “сетевой порядок”.

Для конвертирования данных в соответствии с сетевым порядком хранения байтов, машины вызывают функцию hton() (host-to-network). На машинах с прямым порядком хранения эта функция не делает ничего, но мы не будем говорить здесь об этом (это может разозлить машины с обратным порядком хранения 🙂 ).

Но важно использовать функцию hton() перед отсылкой данных даже если Вы работаете на машине с порядком хранения от старшего к младшему. Ваша программа может стать весьма популярной и будет скомпилирована на различных машинах, а Вы ведь стремитесь к переносимости своего кода (разве не так?).

Точно также существует функция ntoh() (network-to-host), которая используется для чтения данных из сети. Вы должны использовать ее, чтобы быть уверенными, что правильно интерпретируете сетевые данные в формат хоста. Вы должны знать тип данных, которые принимаете, чтобы расшифровать их правильно. Функции преобразования имеют следующий вид:

htons() - "Host to Network Short"
htonl() - "Host to Network Long"
ntohs() - "Network to Host Short"
ntohl() - "Network to Host Long"

Помните, что один байт — это один байт и порядок не имеет значения.

Эти функции имеют критическое значение при выполнении низкоуровневых сетевых операций, таких как проверка контрольной суммы IP-пакетов. Если Вы не понимаете сути проблемы с порядком хранения байтов, то Ваша жизнь будет наполнена болью — поверьте мне на слово. Используйте функции преобразования и знайте, зачем они нужны.

Решение 2: Использования маркера последовательности байтов (Byte Order Mark — BOM)

Этот подход подразумевает использование некого магического числа, например 0xFEFF, перед каждым куском данных. Если Вы считали магическое число и его значение 0xFEFF, значит данные в том же формате, что и у Вашей машины и все хорошо. Если Вы считали магическое число и его значение 0xFFFE, это значит, что данные были записаны в формате, отличающемся от формата вашей машины и Вы должны будете преобразовать их.

Нужно отметить несколько пунктов. Во-первых, число не совсем магическое, как известно программисты часто используют этот термин для описания произвольно выбранных чисел (BOM может быть любой последовательностью различных байтов). Такая пометка называется маркером последовательности байтов потому что показывает в каком порядке данные были сохранены.

Во-вторых, BOM добавляет накладные расходы для всех передаваемых данных. Даже в случае передачи 2 байт информации Вы должны добавлять к ним 2 байта маркера BOM. Пугающе, не так ли?

Unicode использует BOM, когда сохраняет многобайтные данные (некоторые кодировки Unicode могут иметь по 2, 3 и даже 4 байта на символ). XML позволяет избежать этой путаницы, сохраняя данные сразу в UTF-8 по умолчанию, который сохраняет информацию Unicode по одному байту за раз. Почему это так круто?

Повторяю в 56-й раз — потому что проблема порядка хранения не имеет значения для единичных байт.

Опять же, в случае использования BOM может возникнуть другие проблемы. Что, если Вы забудете добавить BOM? Будете предполагать, что данные были отправлены в том же формате, что и Ваши? Прочитаете данные и, увидев что они “перевернуты” (что бы это не значило), попытаетесь преобразовать их? Что, если правильные данные случайно будут содержать неправильный BOM? Эти ситуации не очень приятные.

Почему вообще существует эта проблема? Нельзя ли просто договориться?

Ох, какой же это философский вопрос. Каждый порядок хранения байтов имеет свои преимущества. Машины с порядком следования от младшего к старшему позволяют читать младший байт первым, не считывая при этом остальные. Таким образом можно легко проверить является число нечетным или четным (последний бит 0), что очень здорово, если Вам необходима такая проверка. Машины с порядком от старшего к младшему хранят данные в памяти в привычном для человека виде (слева направо), что упрощает низкоуровневую отладку.

Так почему же все просто не договорятся об использовании одной из систем? Почему одни компьютеры пытаются быть отличными от других? Позвольте мне ответить вопросом на вопрос: почему не все люди говорят на одном языке? Почему в некоторых языках письменность слева направо, а у других справа налево?

Иногда системы развиваются независимо, а в последствии нуждаются во взаимодействии.

Эпилог: Мысли на прощание

Вопросы с порядком хранения байтов являются примером общей проблемы кодирования — данные должны представлять собой абстрактные понятия, и позднее это понятие должно быть создано из данных. Эта тема заслуживает отдельной статьи (или серии статей), но Вы должны иметь лучшее понимание проблемы, связанной с порядком хранения байтов.

habr.com

Конвертировать Байт в Терабит (B → Tbit)

1 Байт = 7.0×10-12 Терабит 10 Байт = 7.3×10-11 Терабит 2500 Байт = 1.819×10-8 Терабит
2 Байт = 1.5×10-11 Терабит 20 Байт = 1.46×10-10 Терабит 5000 Байт = 3.638×10-8 Терабит
3 Байт = 2.2×10-11 Терабит 30 Байт = 2.18×10-10 Терабит 10000 Байт = 7.276×10-8 Терабит
4 Байт = 2.9×10-11
 Терабит
40 Байт = 2.91×10-10 Терабит 25000 Байт = 1.819×10-7 Терабит
5 Байт = 3.6×10-11 Терабит 50 Байт = 3.64×10-10 Терабит 50000 Байт = 3.638×10-7 Терабит
6 Байт = 4.4×10-11 Терабит 100 Байт = 7.28×10-10 Терабит 100000 Байт = 7.276×10-7 Терабит
7 Байт = 5.1×10-11 Терабит 250 Байт = 1.819×10-9 Терабит 250000 Байт = 1.819×10-6 Терабит
8 Байт = 5.8×10-11 Терабит 500 Байт = 3.638×10-9 Терабит 500000 Байт = 3.638×10-6 Терабит
9 Байт = 6.5×10-11 Терабит 1000 Байт = 7.276×10-9 Терабит 1000000 Байт = 7.276×10-6 Терабит

convertlive.com

Как перевести 10гб в биты, байты, килобайты, мегабайты? Есть ли какая нибудь формула?

Умножай 10 на 1024 - мегабайты, еще на 1024 - килобайты - еще на 1024 - байты - на 8 - биты

в яндексе 10 гигабайт 85 899 345 920бит

в одном байте - 8 бит в одном килобайте - 1024 байта в одном мегабайте - 1024 килобайта в одном гигабайте -1 024 мегабайта таким образом, 10 Гб= 1024*10=10240 Мб 10 Гб=1024*1024*10=10485760 Кб 10Гб=1024*1024*1024*10= ...байт 10Гб=1024*1024*1024*8*10=....бит

1байт=8бит, 1кб=1024байт, 1мб=1024кб, 1гб=1024мб, 1терабайт=1024гб. ============= 1байт =8бит 1 килобайт = 1024 байт 1 мегабайт = 1 048 576 байт 1 гигабайт = 1 073 741 824 байт 1 терабайт = 1 099 511 627 776 байт 1 петабайт = 1 125 899 906 842 624 байт 1 эксабайт = 1 152 921 504 606 846 976 байт 1 зеттабайт = 1 180 591 620 717 411 303 424 байт 1 йоттабайт = 1 208 925 819 614 629 174 706 176 байт ===================================== 1 мегабит = 128 килобайт 10 мегабит = 1,28 мегабайт 25 мегабит = 3,2 мегабайта

touch.otvet.mail.ru

Конвертировать Килобайт в Байт (kB → B)

1 Килобайт = 1024 Байт 10 Килобайт = 10240 Байт 2500 Килобайт = 2560000 Байт
2 Килобайт = 2048 Байт 20 Килобайт = 20480 Байт 5000 Килобайт = 5120000 Байт
3 Килобайт = 3072 Байт 30 Килобайт = 30720 Байт 10000 Килобайт = 10240000 Байт
4 Килобайт = 4096 Байт 40 Килобайт = 40960 Байт 25000 Килобайт = 25600000 Байт
5 Килобайт = 5120 Байт 50 Килобайт = 51200 Байт 50000 Килобайт = 51200000 Байт
6 Килобайт = 6144 Байт 100 Килобайт = 102400 Байт 100000 Килобайт = 102400000 Байт
7 Килобайт = 7168 Байт 250 Килобайт = 256000 Байт 250000 Килобайт = 256000000 Байт
8 Килобайт = 8192 Байт 500 Килобайт = 512000 Байт 500000 Килобайт = 512000000 Байт
9 Килобайт = 9216 Байт 1000 Килобайт = 1024000 Байт 1000000 Килобайт = 1024000000 Байт

convertlive.com

Таблица соотношения битов, байтов, килобайтов, мегабайтов... Как составить?

Самыми маленькими единицами измерения количества информации являются биты и байты.

Думаю, все помнят, что в 1 байте содержится 8 бит.

Килобайты, мегабайты, гигабайты и т.д. - это единицы, являющееся производными от байта.

Они образуются с помощью специальных приставок ("кило", "мега", "гига" и т.д.), и каждая последующая единица равна произведению предыдущей на 2 в степени 10.

То есть в 1 килобайте будет 2^10 = 1024 байта, в 1 мегабайте будет 2^10 = 1024 килобайта и т.д.


Таблицу битов, байтов, килобайтов, мегабайтов, гигабайтов, терабайтов, петабайтов можно составить такую:

Допустим, как посмотреть в этой таблице соотношение гигабайта с другими единицами измерения информации?

Находим столбец с заголовком "1 Гигабайт", а затем берём строку с нужной единицей.

На их пересечении будет соответствующая цифра.

То есть 1 Гигабайт - это 2^30 байтов, 2^20 килобайтов, 2^10 мегабайтов.

**

Стоит отметить, что биты обычно соотносят не с производными байта, а с производныими бита - килобиты, мегабиты, гигабиты и т.д.

Но смысл здесь тот же самый: килобит - это 2^10 бит, мегабит - это 2^20 бит и т.д.


Также приведу схему, где наглядно отображено, как переводить из одних единиц измерения информации в другие.

Возьмём для примера мегабайты.

1 мегабайт > 1 килобайта, поэтому для перевода мегабайтов в килобайты нужно количество мегабайт умножить на 2^10 (или 1024).

Например, 10 мегабайт - это 10 * 1024 = 10240 килобайта.

1 мегабайт < 1 гигабайта, поэтому для перевода мегабайтов в гигабайты нужно количество мегабайт разделись на 2^10 (или 1024).

Например, 100 мегабайт - это 100 / 1024 = 0,098 гигабайт.

www.bolshoyvopros.ru

Конвертировать Бит в Терабит (bit → Tbit)

1 Бит = 1.0×10-12 Терабит 10 Бит = 9.0×10-12 Терабит 2500 Бит = 2.274×10-9 Терабит
2 Бит = 2.0×10-12 Терабит 20 Бит = 1.8×10-11 Терабит 5000 Бит = 4.547×10-9 Терабит
3 Бит = 3.0×10-12 Терабит 30 Бит = 2.7×10-11 Терабит 10000 Бит = 9.095×10-9 Терабит
4 Бит = 4.0×10-12 Терабит 40 Бит = 3.6×10-11 Терабит 25000 Бит = 2.2737×10-8 Терабит
5 Бит = 5.0×10-12 Терабит 50 Бит = 4.5×10-11 Терабит 50000 Бит = 4.5475×10-8 Терабит
6 Бит = 5.0×10-12 Терабит 100 Бит = 9.1×10-11 Терабит 100000 Бит = 9.0949×10-8 Терабит
7 Бит = 6.0×10-12 Терабит 250 Бит = 2.27×10-10 Терабит 250000 Бит = 2.274×10-7 Терабит
8 Бит = 7.0×10-12 Терабит 500 Бит = 4.55×10-10 Терабит 500000 Бит = 4.547×10-7 Терабит
9 Бит = 8.0×10-12 Терабит 1000 Бит = 9.09×10-10 Терабит 1000000 Бит = 9.095×10-7 Терабит

convertlive.com

Конвертировать Килобит в Байт (Kbit → B)

1 Килобит = 128 Байт 10 Килобит = 1280 Байт 2500 Килобит = 320000 Байт
2 Килобит = 256 Байт 20 Килобит = 2560 Байт 5000 Килобит = 640000 Байт
3 Килобит = 384 Байт 30 Килобит = 3840 Байт 10000 Килобит = 1280000 Байт
4 Килобит = 512 Байт 40 Килобит = 5120 Байт 25000 Килобит = 3200000 Байт
5 Килобит = 640 Байт 50 Килобит = 6400 Байт 50000 Килобит = 6400000 Байт
6 Килобит = 768 Байт 100 Килобит = 12800 Байт 100000 Килобит = 12800000 Байт
7 Килобит = 896 Байт 250 Килобит = 32000 Байт 250000 Килобит = 32000000 Байт
8 Килобит = 1024 Байт 500 Килобит = 64000 Байт 500000 Килобит = 64000000 Байт
9 Килобит = 1152 Байт 1000 Килобит = 128000 Байт 1000000 Килобит = 128000000 Байт

convertlive.com

Отправить ответ

avatar
  Подписаться  
Уведомление о