Измерение информации: Задания с решениями
Задача 1. Сколько бит информации несёт сообщение о том, что из колоды в 32 карты достали «даму пик»?2i = 32;
Задача 2. Сколько бит информации получено из сообщения «Вася живет на пятом этаже», если в доме 16 этажей? N = 16,i — ?
Решение:
N = 2i, 16 = 2i, i = 4 бита
Ответ: сообщение содержит 4 бита. Задача 3. Какое количество информации в сообщении из 10 символов, записанном буквами из 32-символьного алфавита? N = 32,
I — ?
Решение:
I = K*i, N = 2i, 32 = 2i, i = 5 бит, значит I = 10*5 = 50 бит.
Ответ: 50 бит. Задача 4. Первое письмо состоит из 50 символов 32-символьного алфавита, а второе – из 40 символов 64 – символьного алфавита. Сравните объемы информации, содержащиеся в двух письмах. Решение:
I = K*i, N = 2i, Определим информационную емкость одного символа в каждом из писем: 2
2i = 64, i = 6 бит – для второго письма.
Определим количество информации в каждом из писем:
50*5 = 250 бит – для первого письма, 40*6 = 240 бит – для второго письма.
Найдем разность между информационными объемами двух писем.
250 — 240 = 10 бит. Ответ: Объем информации, содержащейся в первом письме на 10 бит больше, чем объем информации, содержащейся во втором письме. Задача 5. Статья, созданная с помощью ПК, содержит 30 страниц, на каждой странице — 40 строк, в каждой строке 50 символов. Какой объём информации содержит статья? 1) На каждой странице 50 • 40 = 2000 символов; 2) во всей статье 2000 • 30 = 60000 символов; 3) т.к. вес каждого символа компьютерного алфавита равен 8 бит, следовательно, информационный объём всей статьи I = 60000*8 = 480000 бит = 60000 байт. Ответ: 60000 байт. Задача 6. Сколько информации содержит сообщение о выпадении грани с числом 3 на шестигранном игральном кубике? Ответ: i = 2,5 бит. Задача 7. Для хранения текста требуется 84000 бит. Сколько страниц займёт этот текст, если на странице размещается 30 строк по 70 символов в строке?
Решение:
1 байт=8 бит. 84000/8=10500 символов в тексте. На странице помещается 30×70=2100 символов. 10500/2100=5 страниц.
Ответ: текст займёт 5 страниц. Задача 8. В корзине лежат шары. Все разного цвета. Сообщение о том, что достали синий шар, несёт 5 бит информации. Сколько всего шаров было в корзине?
Решение:
Если все шары разного цвета, значит, ни один шар не совпадает по цвету с другими. Следовательно, шары можно доставать с равной долей вероятности. В этом случае применяется формула Хартли. iсиний = 5 бит; 5 = log232; 2i = N; 25 = 32.
Ответ: в корзине 32 шара.
Решение:
1 Мб=1024 Кб. Значит, объём сообщения 1024/16=64 Кб. Информационный вес символа iсимв.=log216= 4 бит. Объём сообщения в битах — 64×1024×8=524 288 бит. Количество символов в сообщении 524288/4=131 072.
Ответ: в сообщении 131 072 символа.
Тесты по информатике измерение информации. Тест «Измерение информации
Муниципальное бюджетное общеобразовательное учреждение
«Средняя общеобразовательная школа №20»
Тест «Измерение информации»
7 класс (ФГОС)
МБОУ «СОШ №20»
Поспелова Галина Васильевна
г. Новомосковск
2018 г.
Пояснительная записка.
Данный дидактический материал по теме «Информация и информационные процессы» рекомендуется для учащихся 7 классов. Материал включает задания, на которые учащиеся дают письменный ответ.
Цели:
предметные — общие представления о единицах измерения информации; умения определять количество информации;
метапредметные — понимание сущности измерения как сопоставления измеряемой величины с единицей измерения;
личностные — навыки концентрации внимания;
Решаемые учебные задачи:
1) рассмотрение алфавитного подхода к измерению информации;
2) определение информационного веса символа произвольного алфавита;
3) определение информационного объема сообщения, состоящего из некоторого количества символов алфавита;
4) изучение единиц измерения информации и соотношений между ними;
5) знакомство с равномерными и неравномерными двоичными кодами.
Тест на тему «Измерение информации»
Задание 1
Какое сообщение согласно теории информации содержит больше информации?
A. Монета упала «орлом» вниз
B. Из колоды карт (32 штуки) достали даму пик
C. Игральная кость упала вверх гранью с шестью очками
D. Наш друг живет на 9-м этаже шестнадцатиэтажного дома
E. Из 8 призов наугад был выбран автомобиль
Задание 2
Имеются два мешка с монетами, в каждом из которых находится по одной фальшивой монете (более легкой). Для определения фальшивой монеты в первом мешке потребовалось провести 6 взвешиваний, во втором мешке — 4 взвешивания. Сколько всего монет было в двух мешках?
A. 80
B. 1024
C. 10
D. 24
E. 512
Задание 3
Сколько информации несет сообщение о том, что было угадано число в диапазоне целых чисел от 784 до 911?
A. 128 бит
B. 6 бит
C. 127 бит
D. 7 бит
E. 911 бит
Задание 4
В корзине лежат шары: синие, красные, белые и зеленые. Всего 32 штуки. Сообщение о том, что достали синий шар, несет 2 бита информации. Синих шаров было в 2 раза меньше, чем красных. Белых и зеленых шаров было поровну. Сколько шаров каждого цвета было в корзине?
A. Синие — 4 шт.; красные — 2 шт.; белые и зеленые — по13 шт.
B. Синие — 4 шт.; красные — 8 шт.; белые и зеленые — по10 шт.
C. Синие — 2 шт.; красные — 4 шт.; белые и зеленые — по13 шт.
D. Синие — 8 шт.; красные — 4 шт.; белые и зеленые — по10 шт.
E. Синие — 8 шт.; красные — 16 шт.; белые и зеленые — по4 шт.
Задание 5
В корзине лежат фрукты: 8 яблок, 32 банана и 24 сливы. Количество информации в сообщении о том, что достали яблоко, обозначим Я, банан — Б, сливу — С. Для величин Я, Б и С справедливо неравенство:
A. Я
B. Я
C. Я> Б> С
D. Б
E. Б> С> Я
Задание 6
На уроке математики Незнайку вызывают к доске в 4 раза реже, чем Винтика. Определить количество информации в сообщении о том, что к доске вызвали Винтика, если сообщение о том, что вызвали Незнайку, несет 8 бит информации.
A. 32 бита
B. 2 бита
C. 5 бит
D. 6 бит
E. 6 байт
Задание 7
Алфавит одного племени содержит Х символов, алфавит другого содержит в четыре раза больше символов. Племена обменялись приветствиями. Каждое по100 символов. Количество бит информации в приветствии первого племени обозначим — Info1, в приветствии второго племени — Info2. Выбрать верное утверждение.
A. Info1 = 4 · Info2
B. Info2 = 4 · Info1
C. Info1 — Info2 = 4
D. Info2 — Info1 = 200
E. Info2 = Info1 + 400
Задание 8
Приветствие участникам олимпиады от марсиан записано с помощью всех символов марсианского алфавита: ТЕВИРП!КИ! Сколько информации оно несет?
A. 30 бит
B. 10 байт
C. 80 бит
D. 10 бит
E. 30 байт
Задание 9
Два исполнителя— Шалтай и Болтай проставляют 0 или1 в каждую из имеющихся в их распоряжении клеточек и таким образом кодируют символы. Шалтай может закодировать 512 символов, и у него на 2 клеточки больше, чем у Болтая. Сколько клеток было в распоряжении Болтая?
A. 514
B. 7
C. 5
D. 9
E. 510
Задание 10
В алфавите некоторого языка всего две буквы: «А» и «Б». Все слова, записанные на этом языке, состоят из 11 букв. Какой максимальный словарный запас может быть у этого языка?
A. 22
B. 11
C. 2048
D. 1024
E. 44
Задание 11
Представители племени оперируют целыми положительными числами и умеют считать только до100. Для проведения расчетов в племени применяется калькулятор. Указать минимальную длину ячейки памяти в битах, необходимую для хранения чисел.
A. 100
B. 6
C. 7
D. 8
E. 101
Задание 12
В «игрушечных» компьютерах С8, С10, С12 и С16 для представления целых чисел (положительных и отрицательных) используется 8, 10, 12 и 16 бит памяти соответственно. На каком (их) из этих компьютеров будет успешно выполнена следующая программа:
АЛГ алг1;
ЦЕЛЫЕ P, i;
НАЧ
P:= 0;
ДЛЯ i = 1 ДО 32 ПОВТОРЯТЬ P:= P + 2 * i;
КОН алг;
A. С8, C10, C12
B. С10, C12, C16
C. С12, C16
D. Только на С16
E. На всех
Источники информации:
Босова Л. Л. Информатика: учебник для 7 класса / Л.Л. Босова, А.Ю. Босова — Москва: БИНОМ. Лаборатория знаний, 2015 — 224 с.
Босова Л. Л. Информатика: рабочая тетрадь для 7 класса / Л.Л. Босова, А.Ю. Босова — Москва: БИНОМ. Лаборатория знаний, 2015 — 160 с.
Русаков С.В. Тестовые задания по базовому курсу информатики/ С.В. Русаков, Л.В. Шестакова. — М. : Чистые пруды, 2006. — 32 с.
Ключ
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 |
B | A | D | E | D | D | D | A | B | C | C | C |
Вариант1 Класс 10 ФИО ___________________________
1. За единицу измерения количества информации принят…
а) 1 бод б) 1 бит в) 1 байт г) 1 Кбайт
2. Информационный объем сообщения: «Люблю грозу в начале мая» — равен:
а) 192 бит б) 20 байт в) 22 байт г) 284 бит
3. Установите соответствие:
4. Одно из свойств информации:
а) достоверность б) массовость
5. Каждая цифра машинного двоичного кода несет количество информации, равное:
а) 1 байт б) 1 Кбайт в) 1 бит в) 8 бит
6. Основной принцип кодирования изображений состоит в том, что:
а) изображение представляется в виде мозаики квадратных элементов, каждый из которых имеет определенный цвет;
б) изображение разбивается на ряд областей с одинаковой яркостью;
в) изображение преобразуется во множество координат отрезков, разбивающих изображение на области одинакового цвета.
7. Решите задачу. Цветное (с палитрой из 256 цветов) растровое изображение имеет размер 10х10 точек. Какой объем памяти займет это изображение?
8. Производительность работы компьютера (быстрота выполнения операций) зависит от…
а) размера экрана дисплея б) частоты процессора
в) напряжения питания г) быстроты нажатия на клавиши
9. Какое устройство может оказывать вредное воздействие на здоровье человека?
а) принтер б) монитор в) системный блок г) модем
10. Количество различных кодировок букв русского алфавита составляет…
а) одну б) две (MS-DOS, Windows)
в) три (MS-DOS, Windows, Macintosh) г) пять (MS-DOS, Windows, Macintosh, КОИ-8, ISO)
11. Какое устройство относится к внешним?
а) арифметико-логическое устройство б) центральный процессор
в) принтер г) оперативная память
12. Устройство вывода предназначено для …
а) обучения, игры, расчетов и накопления информации
б) программного управления работой машины
в) передачи информации от машины человеку
13. Компьютер – это:
а) универсальное устройство для записи и чтения информации
б) универсальное электронное устройство для хранения, обработки и передачи информации
в) электронное устройство для обработки информации
г) универсальное устройство для передачи и приема информации
14. Оперативная память необходима:
а) для хранения исполняемой в данный момент времени программы и данных, с которыми она непосредственно работает
б) для обработки информации
в) для долговременного хранения информации
г) для запуска программы
15. Периферийные устройства предназначены:
а) для обмена информацией между пользователем и компьютером
б) только для улучшения дизайна компьютера
в) для проверки правильности вводимой пользователем информации
г) для выполнения арифметико-логических операций
16. Сколько символов в кодовой таблице ASCII?
а) 255 б) 127 в) 256 г) 129
17. Рассчитайте необходимый объем видеопамяти графического режима 640*480 точек. Глубина цвета 16 бит на точку. (Ответ запишите в Кбайтах)
18. Какое устройство является устройством ввода?
а) клавиатура б) принтер
в) плоттер г) монитор
19. Модем – это…
а) почтовая программа б) сетевой протокол
в) сервер Интернет г) техническое устройство
20. В кодировке Unicode на каждый символ отводится 2 байта. Определите информационный
объем слова из 24 символов в этой кодировке.
а) 384 бита б) 192 бита в) 256 бит г) 48 бит
Предварительный просмотр:
Вариант 2 10 класс ФИО ________________
1. 1 Кбит – это:
а) 1000 бит б) 10 байт в) 112 байт г) 1024 бит
2. Информационный объем сообщения: «Очень хочу учиться» — равен:
а) 201 бит б)18 байт в) 16 байт г) 110 бит
3. Одно из свойств информации:
а) полнота б) массовость
в) непрерывность г) субъективность
4. Установите соответствие:
5. Наименьшая единица измерения количества информации называется:
а) байт б) Кбайт в) бит в) бод
6. Решите задачу. В процессе преобразования растрового графического изображения количество цветов уменьшилось с 65536 до 16. Во сколько раз уменьшится объем, занимаемый в памяти?
7. Что является характеристикой монитора?
а) цветовое разрешение б) тактовая частота
в) дискретность г) время доступа к информации
8. Устройство ввода предназначено для …
а) передачи информации от человека машине
б) обработки вводимых данных
в) реализации алгоритмов обработки, накопления и передачи информации
9. Устройством вывода является …
а) клавиатура б) стример в) факс-модем г)дискета
10. Манипулятор «мышь» — это устройство …
а) сканирования информации б) вывода
в) считывания информации г) ввода
11. Устройством ввода является …
а) сканер б) принтер в) стример г) дисплей
12. Какую функцию выполняют периферийные устройства?
а) управление работой ЭВМ по заданной программе
б) хранение информации
в) ввод и выдачу информации
г) обработку информации
13. Что такое микросхема?
а) интегральная микросхема, которая выполняет поступающие на ее вход команды и управляет работой машины
б) устройство для хранения той информации, которая часто используется в работе
в) устройство для вывода текстовой или графической информации
г) устройство для вывода алфавитно-цифровых данных
Вариант №1
1. Подберите синоним слову информация…
а) объем б) количество с) сведения д) процесс
2. Минимальная единица количества информации..
а) бит б) байт с) килобайт д) бод
3. Выберите верное соотношение
а) 1 кбайт = 1024 Мбайт б) 1 Гбайт = 1024 кбайт
с) 1 Тбайт = 1024 Гбайт д) 1 Мбайт = 1024 байт
4. В одну половину замкнутого сосуда поместили газ. Через некоторое время в результате беспорядочного движения молекулы газа заполнили весь сосуд. При этом…
а) произошел переход из менее вероятного упорядоченного состояния в более вероятное хаотическое состояние
б) информация при этом увеличилась
5. Информация о результате падения монеты приводит к уменьшению неопределенности знания в …
а) 2 раза б) 4 раза с) 5 раз д) в 8 раз
Задачи
6. Емкость компакт диска CD-R 700 Мб. Какова емкость диска в килобайтах, байтах и битах?
7. Два игрока играют в крестики-нолики на клетчатом поле 5х5 клеток. Какое количество информации при этой игре получит второй игрок после третьего хода первого игрока?
8. Количество информации в сообщении, содержащем 2048 символа, составил 1/512 часть Мбайта. Каков размер алфавита, с помощью которого было записано сообщение?
16-символьный алфавит . Каждая страница содержит 30 строк по 50 символов в строке. Какое количество информации содержат 6 страниц текста? Приведите примеры систем управления техническими устройствами.
Вариант №2
1. Наибольшее количество информации (около 90%) человек получает с помощью…
а) слуха б) зрения с) осязания д) вкуса
2. Информационная емкость одного знака двоичной знаковой системы составляет…
а) 1 бит б) 1 байт с) 1 кбайт д) 1 бод
3.Выберите верное соотношение..
а) 1 бит = 8 байт б) 1 бит = 1 байт
с) 1 байт = 8 бит д) 1 байт = 1024 бит
4. Выберите верный ответ:
а) Получение новой информации приводит к уменьшению неопределенности знания
б) Получение новой информации приводит к увеличению неопределенности знания
5. Информационное сообщение несет 3 бита информации. При этом количество возможных информационных сообщений …
а) 2 б) 3 с) 6 д) 8
Задачи.
6. Емкость USB -флешки 256 Мбайт. Какова емкость USB -флешки в битах, байтах, килобайтах?
7. Из непрозрачного мешочка вынимают шарики с номерами и известно, что информационное сообщение о номере шарика несет 6 битов информации. Определите количество шариков в мешочке.
8. Количество информации в сообщении, содержащем 4096 символов, составил 1/1024 часть Мбайта. Каков размер алфавита, с помощью которого было записано сообщение?
9. Для записи текста использовался 32-символьный алфавит. Каждая страница содержит 30 строк по 70 символов в строке. Какое количество информации содержат 3 страницы текста? (Подсказываю: найдите количество информации, приходящееся на 1 символ)
тема теста
Единицы измерения информации (перевод)
предмет
Информатика
класс/группа
использованные источники и литература
материалы ФИПИ
ключевые слова или опорные понятия через запятую (не менее 5 шт):
информация, единицы измерения, перевод, бит, байт
методическая аннотация
некоторые темы в курсе информатики проходятся в начале десятого класса (при прохождении в среднем звене и раньше), а навыки используются при прохождении всего курса и сдаче ЕГЭ.
Предлагаю пятиминутную работу, которую можно провести в начале или в конце урока.
Вариант 1
Сколько Мбайт информации содержит сообщение объемом 2 в 28 степени бит?
(Ответ – одним числом).
Сколько бит информации содержит сообщение объемом 16 Кб?
(Ответ – степень 2).
Сколько Кбит информации содержит сообщение объемом 2 в 23 степени байт?
(Ответ – степень 2).
Сколько байт информации содержит сообщение объемом 512 Гбит?
(Ответ – степень 2).
Сколько байт информации содержит сообщение объемом 0,25 Кб?
(Ответ – одним числом).
Вариант 2
Сколько Кбайт информации содержит сообщение объемом 2 в 21 степени бит?
(Ответ – одним числом).
Сколько бит информации содержит сообщение объемом 8 Гб?
(Ответ – степень 2).
(Ответ – степень 2).
Сколько байт информации содержит сообщение объемом 1 Мбит?
(Ответ – степень 2).
Сколько Мбит информации содержит сообщение объемом 0,25 Гбит?
(Ответ – одним числом).
Вариант 3
1. Сколько Гбайт информации содержит сообщение объемом 2 в 33 степени бит?
(Ответ – одним числом).
2. Сколько бит информации содержит сообщение объемом 512 Мб?
(Ответ – степень 2).
3. Сколько Мбит информации содержит сообщение объемом 2 в 27 степени байт?
(Ответ – степень 2).
4. Сколько байт информации содержит сообщение объемом 4096 Кбит?
(Ответ – степень 2).
5. Сколько Кбайт информации содержит сообщение объемом 0,25 Мб?
(Ответ – одним числом).
Вариант 4
1. Сколько Мбайт информации содержит сообщение объемом 2 в 30 степени бит?
(Ответ – одним числом).
2. Сколько бит информации содержит сообщение объемом 1024 Кб?
(Ответ – степень 2).
3. Сколько Кбит информации содержит сообщение объемом 2 в 21 степени байт?
(Ответ – степень 2).
4. Сколько байт информации содержит сообщение объемом 32 Гбит?
(Ответ – степень 2).
5. Сколько бит информации содержит сообщение объемом 0,125 Кбит?
(Ответ – одним числом).
Вариант 5
1. Сколько Кбайт информации содержит сообщение объемом 2 в 24 степени бит?
(Ответ – одним числом).
2. Сколько бит информации содержит сообщение объемом 32 Гб?
(Ответ – степень 2).
3. Сколько Гбит информации содержит сообщение объемом 2 в 35 степени байт?
(Ответ – степень 2).
4. Сколько байт информации содержит сообщение объемом 128 Мбит?
(Ответ – степень 2).
5. Сколько Мбайт информации содержит сообщение объемом 0,125 Гб?
(Ответ – одним числом).
Вариант 6
1. Сколько Гбайт информации содержит сообщение объемом 2 в 39 степени бит?
(Ответ – одним числом).
2. Сколько бит информации содержит сообщение объемом 64 Мб?
(Ответ – степень 2).
3. Сколько Мбит информации содержит сообщение объемом 2 в 26 степени байт?
(Ответ – степень 2).
4. Сколько байт информации содержит сообщение объемом 512 Кбит?
(Ответ – степень 2).
5. Сколько Кбит информации содержит сообщение объемом 0,125 Мбит?
(Ответ – одним числом).
Вариант 7
1. Сколько Мбайт информации содержит сообщение объемом 2 в 33 степени бит?
(Ответ – одним числом).
2. Сколько бит информации содержит сообщение объемом 8192 Кб?
(Ответ – степень 2).
3. Сколько Кбит информации содержит сообщение объемом 2 в 18 степени байт?
(Ответ – степень 2).
4. Сколько байт информации содержит сообщение объемом 16 Гбит?
(Ответ – степень 2).
5. Сколько байт информации содержит сообщение объемом 0,5 Кбайт?
(Ответ – одним числом).
Вариант 8
1. Сколько Кбайт информации содержит сообщение объемом 2 в 20 степени бит?
(Ответ – одним числом).
2. Сколько бит информации содержит сообщение объемом 2 Гб?
(Ответ – степень 2).
3. Сколько Гбит информации содержит сообщение объемом 2 в 40 степени байт?
(Ответ – степень 2).
4. Сколько байт информации содержит сообщение объемом 8192 Мбит?
(Ответ – степень 2).
5. Сколько Мбит информации содержит сообщение объемом 0,5 Гбит?
(Ответ – одним числом).
Вариант 9
1. Сколько Гбайт информации содержит сообщение объемом 2 в 37 степени бит?
(Ответ – одним числом).
2. Сколько бит информации содержит сообщение объемом 8 Мб?
(Ответ – степень 2).
3. Сколько Мбит информации содержит сообщение объемом 2 в 24 степени байт?
(Ответ – степень 2).
4. Сколько байт информации содержит сообщение объемом 4 Кбит?
(Ответ – степень 2).
5. Сколько Кб информации содержит сообщение объемом 0,5 Мбайт?
(Ответ – одним числом).
Вариант 10
Сколько Мбайт информации содержит сообщение объемом 2 в 25 степени бит?
(Ответ – одним числом).
Сколько бит информации содержит сообщение объемом 4096 Кб?
(Ответ – степень 2).
Сколько Кбит информации содержит сообщение объемом 2 в 24 степени байт?
(Ответ – степень 2).
Сколько байт информации содержит сообщение объемом 64 Гбит?
(Ответ – степень 2).
Сколько бит информации содержит сообщение объемом 0,25 Кбит?
(Ответ – одним числом).
Вариант 11
Сколько Кбайт информации содержит сообщение объемом 2 в 25 степени бит?
(Ответ – одним числом).
Сколько бит информации содержит сообщение объемом 16 Гб?
(Ответ – степень 2).
Сколько Гбит информации содержит сообщение объемом 2 в 39 степени байт?
(Ответ – степень 2).
Сколько байт информации содержит сообщение объемом 2 Мбит?
(Ответ – степень 2).
Сколько Мб информации содержит сообщение объемом 0,25 Гбайт?
(Ответ – одним числом).
Вариант 12
1. Сколько Гбайт информации содержит сообщение объемом 2 в 34 степени бит?
(Ответ – одним числом).
2. Сколько бит информации содержит сообщение объемом 4 Мб?
(Ответ – степень 2).
3. Сколько Мбит информации содержит сообщение объемом 2 в 36 степени байт?
(Ответ – степень 2).
4. Сколько байт информации содержит сообщение объемом 2048 Кбит?
(Ответ – степень 2).
5. Сколько Кбит информации содержит сообщение объемом 0,25 Мбит?
(Ответ – одним числом).
Вариант 13
1. Сколько Мбайт информации содержит сообщение объемом 2 в 26 степени бит?
(Ответ – одним числом).
2. Сколько бит информации содержит сообщение объемом 128 Кб?
(Ответ – степень 2).
3. Сколько Кбит информации содержит сообщение объемом 2 в 15 степени байт?
(Ответ – степень 2).
4. Сколько байт информации содержит сообщение объемом 128 Гбит?
(Ответ – степень 2).
5. Сколько байт информации содержит сообщение объемом 0,125 Кб?
(Ответ – одним числом).
Вариант 14
1. Сколько Кбайт информации содержит сообщение объемом 2 в 26 степени бит?
(Ответ – одним числом).
2. Сколько бит информации содержит сообщение объемом 64 Гб?
(Ответ – степень 2).
3. Сколько Гбит информации содержит сообщение объемом 2 в 37 степени байт?
(Ответ – степень 2).
4. Сколько байт информации содержит сообщение объемом 8 Мбит?
(Ответ – степень 2).
5. Сколько Мбит информации содержит сообщение объемом 0,125 Гбит?
(Ответ – одним числом).
Вариант 15
1. Сколько Гбайт информации содержит сообщение объемом 2 в 38 степени бит?
(Ответ – одним числом).
2. Сколько бит информации содержит сообщение объемом 1024 Мб?
(Ответ – степень 2).
3. Сколько Мбит информации содержит сообщение объемом 2 в 30 степени байт?
(Ответ – степень 2).
4. Сколько байт информации содержит сообщение объемом 32 Кбит?
(Ответ – степень 2).
5. Сколько Кб информации содержит сообщение объемом 0,125 Мбайт?
(Ответ – одним числом).
Вариант 16
1. Сколько Мбайт информации содержит сообщение объемом 2 в 29 степени бит?
(Ответ – одним числом).
2. Сколько бит информации содержит сообщение объемом 2048 Кб?
(Ответ – степень 2).
3. Сколько Кбит информации содержит сообщение объемом 2 в 22 степени байт?
(Ответ – степень 2).
4. Сколько байт информации содержит сообщение объемом 4 Гбит?
(Ответ – степень 2).
5. Сколько бит информации содержит сообщение объемом 0,5 Кбит?
(Ответ – одним числом).
Вариант 17
1. Сколько Кбайт информации содержит сообщение объемом 2 в 23 степени бит?
(Ответ – одним числом).
2. Сколько бит информации содержит сообщение объемом 1 Гб?
(Ответ – степень 2).
3. Сколько Гбит информации содержит сообщение объемом 2 в 38 степени байт?
(Ответ – степень 2).
4. Сколько байт информации содержит сообщение объемом 16 Мбит?
(Ответ – степень 2).
5. Сколько Мбайт информации содержит сообщение объемом 0,5 Гб?
(Ответ – одним числом).
Вариант 18
1. Сколько Гбайт информации содержит сообщение объемом 2 в 36 степени бит?
(Ответ – одним числом).
2. Сколько бит информации содержит сообщение объемом 128 Мб?
(Ответ – степень 2).
3. Сколько Мбит информации содержит сообщение объемом 2 в 23 степени байт?
(Ответ – степень 2).
4. Сколько байт информации содержит сообщение объемом 256 Кбит?
(Ответ – степень 2).
5. Сколько Кбит информации содержит сообщение объемом 0,5 Мбит?
(Ответ – одним числом).
1
2
3
4
5
6
7
8
9
1
256
128
2048
1024
128
2
3
4
5
256
256
256
128
128
128
512
512
512
10
11
12
13
14
15
16
17
18
1
4096
8192
1024
2
3
4
5
256
256
256
128
128
128
512
512
512
Сообщение, несущее 1 бит информации — КиберПедия
Вернемся теперь к примеру с монетой. После того как вы бросили монету, она упала, и вы посмотрели на нее, вы получили зрительное сообщение, что выпал, например, орел. Произошло одно из двух возможных событий. В этом случае считают, что неопределенность знания уменьшилась в два раза: было два варианта, остался один. Значит, узнав результат бросания монеты, вы получили 1 бит информации.
Количество информации в сообщении об одном из N равновероятных событий
А теперь такая задача: студент на экзамене может получить одну из четырех оценок: 5 — «отлично», 4 — «хорошо», 3 — «удовлетворительно», 2 — «неудовлетворительно». Представьте себе, что ваш товарищ пошел сдавать экзамен. Причем учится он очень неровно и может с одинаковой вероятностью получить любую оценку от 2 до 5. Вы волнуетесь за него, ждете результата экзамена. Наконец, он пришел и на ваш вопрос: «Ну, что получил?» ответил: «Четверку!».
Вопрос: сколько битов информации содержится в его ответе?
Если сразу сложно ответить на этот вопрос, то давайте подойдем к ответу постепенно. Будем отгадывать оценку, задавая вопросы, на которые можно ответить только «да» или «нет».
Вопросы будем ставить так, чтобы каждый ответ уменьшал количество вариантов в два раза и, следовательно, приносил 1 бит информации.
Первый вопрос:
— Оценка выше тройки?
— Да.
После этого ответа число вариантов уменьшилось в два раза. Остались только 4 и 5. Получен 1 бит информации.
Второй вопрос:
— Ты получил пятерку?
— Нет.
Выбран один вариант из двух оставшихся: оценка — четверка. Получен еще 1 бит информации. В сумме имеем 2 бита.
Сообщение о том, что произошло одно из четырех равновероятных событий, несет 2 бита информации.
Разберем еще одну частную задачу, а потом получим общее правило.
На книжном стеллаже восемь полок. Книга может стоять на любой из них. Сколько информации содержит сообщение о том, где находится книга?
Будем действовать таким же способом, как в предыдущей задаче. Метод поиска, на каждом шаге которого отбрасывается половина вариантов, называется методом половинного деления. Применим метод половинного деления к задаче со стеллажом.
Задаем вопросы:
— Книга лежит выше четвертой полки?
— Нет.
— Книга лежит ниже третьей полки?
-Да.
— Книга на второй полке?
— Нет.
— Ну теперь все ясно! Книга лежит на первой полке!
Каждый ответ уменьшал неопределенность знания в два раза. Всего было задано три вопроса. Значит, набрано 3 бита информации. И если бы сразу было сказано, что книга лежит на первой полке, то этим сообщением были бы переданы те же 3 бита информации.
А сейчас попробуем получить формулу, по которой вычисляется количество информации, содержащейся в сообщении о том, что произошло одно из множества равновероятных событий.
Обозначим буквой N количество возможных событий. Буквой i будем обозначать количество информации в сообщении о том, что произошло одно из N событий.
В примере с монетой: N = 2, i = 1.
В примере с оценками: N = 4, i = 2.
В примере со стеллажом: N = 8, i = 3.
Нетрудно заметить, что связь между этими величинами выражается такой формулой
2i = N.
Действительно: 21 = 2; 22 = 4; 23 = 8.
Если величина N известна, a i неизвестно, то данная формула становится уравнением для определения i. В математике оно называется показательным уравнением.
Например, пусть на стеллаже не 8, а 16 полок. Чтобы ответить на вопрос, сколько информации содержится в сообщении о том, где лежит книга, нужно решить уравнение
2i= 16.
Поскольку 16 = 24, то i = 4.
Если значение N равно целой степени двойки (4, 8, 16, 32, 64 и т. д.), то такое уравнение решается просто: i будет целым числом. А чему, например, равно количество информации в сообщении о результате бросания игральной кости, у которой имеется шесть граней и, следовательно, N = 6? Решение уравнения
2i = 6
будет дробным числом, лежащим между 2 и 3, поскольку 22 = 4 < 6, а 23 = 8 > 6. С точностью до пяти знаков после запятой решение такое: 2,58496. Ниже приведена таблица, из которой можно определить i для различных значений N в диапазоне от 1 до 64.
Таблица.Количество информации в сообщении об одном из Nравновероятных событий
N | i | N | i | N | i | N | i |
0,00000 | 4,08746 | 5,04439 | 5,61471 | ||||
1,00000 | 4,16993 | 5,08746 | 5,64386 | ||||
1,58496 | 4,24793 | 5,12928 | 5,67243 | ||||
2,00000 | 4,32193 | 5,16993 | 5,70044 | ||||
2,32193 | 4,39232 | 5,20945 | 5,72792 | ||||
2,58496 | 4,45943 | 5,24793 | 5,75489 | ||||
7 | 2,80735 | 4,52356 | 5,28540 | 5,78136 | |||
3,00000 | 4,58496 | 5,32193 | 5,80735 | ||||
3,16993 | 4,64386 | 5,35755 | 5,83289 | ||||
3,32193 | 4,70044 | 5,39232 | 5,85798 | ||||
3,45943 | 4,75489 | 5,42626 | 5,88264 | ||||
3,58496 | 4,80735 | 5,45943 | 5,90689 | ||||
3,70044 | 4,85798 | 5,49185 | 5,93074 | ||||
3,80735 | 4,90689 | 5,52356 | 5,95420 | ||||
3,90689 | 4,95420 | 5,55459 | 5,97728 | ||||
4,00000 | 5,00000 | 5,58496 | 6,00000 |
Коротко о главном
Неопределенность знания о некотором событии — это количество возможных результатов события.
Сообщение, уменьшающее неопределенность знания в два раза, несет 1 бит информации.
Для определения количества информации i, содержащейся в сообщении о том, что произошло одно из N равновероятных событий, нужно решить показательное уравнение 2i = N.
Вопросы и задания
1. Что такое неопределенность знания о результате какого-либо события? Приведите примеры.
2. Как с точки зрения содержательного подхода к измерению информации определяется единица измерения количества информации?
3. По какой формуле можно вычислить количество информации, содержащейся в сообщении?
4. Сколько битов информации несет сообщение о том, что из колоды в 32 карты достали «даму пик»?
5. Проводятся две лотереи: «4из32» и «5из64». Сообщение о результатах какой из лотерей несет больше информации?
ЕК ЦОР: Часть 1, дополнение к главе 1. ЦОР № 1-5.
§ 5
Практическое занятие №2 (количество информации)
Практическое занятие №2 Тема: Вычисление количества информации
Цель работы: Научиться рассчитывать количество информации в сообщении по формулам Хартли и Шеннона.
Задание: Решите задачи, используя формулы Хартли / Шеннона для вычисления количества информации в сообщении.
Образец выполнения задания:
Задача. В корзине лежат 32 клубка шерсти, из них 4 красных. Сколько бит информации несет сообщение о том, что из корзины достали клубок красной шерсти?
Решение:
Вероятность того, что достали красный клубок, равна 1/8 (4/32=1/8).
По формуле Шеннона находим количество информации в битах:
Задачи для решения.
В корзине лежат 8 черных шаров и 24 белых. Сколько бит информации несет сообщение о том, что достали черный шар?
В коробке лежат 64 цветных карандаша. Сообщение о том, что достали белый карандаш, несет 4 бита информации. Сколько белых карандашей было в коробке?
В корзине лежат черные и белые шары. Среди них 18 черных шаров. Сообщение о том, что достали белый шар, несет 2 бита информации. Сколько всего шаров в корзине?
Сколько бит информации несет в себе сообщение, что загадано число в диапазоне от 0 до 7?
Сколько бит информации несет в себе сообщение, что старостой назначении один из 16 студентов группы?
Сколько бит информации несет в себе сообщение, что выбран один из 32 разноцветных шаров?
В закрытом ящике находится 32 карандаша, некоторые из них синего цвета. Наугад вынимается один карандаш. Сообщение «этот карандаш – НЕ синий» несёт 4 бита информации. Сколько синих карандашей в ящике?
Сколько бит информации несет в себе сообщение, что куплен один из 256 билетов на спектакль?
Самостоятельная работа
1 вариант
Алфавит африканского племени состоит из 32 букв. Какое количество информации несет одна буква этого алфавита?
В коробке находится 64 фломастера, некоторые из них красного цвета. Наугад вынимается один фломастер. Сообщение «этот фломастер – НЕ красный» несёт 3 бита информации. Сколько красных фломастеров в коробке?
2 вариант
Двое играют в «крестики-нолики» на поле 4 на 4 клетки. Какое количество информации получил второй игрок, узнав ход первого игрока?
В питомнике находится 128 животных, некоторые из них кошки. Наугад выбирают одного из животных. Сообщение «это животное – НЕ кошка» несёт 5 бита информации. Сколько кошек в питомнике?
сколько бит информации содержит тот или иной термин? : Computer Science
Для начала дадим несколько определений, которые помогут вам изъяснятся на одном со мной языке, а точнее, на языке логики.1) Логика-предметное мышление. Беспредметное (абстрактное мышление) логичным является только в рамках предметного контекста, в котором оно используется. Например: 1+1=2. Единица-абстрактное понятие, но логическое выражение верно только в контексте присвоения понятию 1 вполне конкретного значения, например «корова». Складывать корову с быком не логично и 2 при этом не получится. Если под контекстом понимали 1 «животное», то 1+1=2 уже логично, хотя и тоже абстрактно.
2) Информация измеряется в битах.
3) Бит (двоичный) — состояние выхода логического устройства, принимающее одно из 2-х возможных значений.
4) замкнутая аналитическая система-устройство, не получающее информации из окружающей среды и использующее только ту информацию, которая у него имеется или ту, которая образовалась из уже имеющейся посредством ее обработки.
слепоглухонемой человек в запертой комнате является приближенно такой системой.
5) алгоритм-запись последовательности двоичных логических действий. При этом под логическим действием подразумевается одна из простейших логических операций (и,не, искл. или, или). Особенность каждой такой операции в том, что количество образованной информации на единственном выходе логического элемента = 1 бит. логические элементы, выполняющие многофходовую коньюнкцию или дизьюнкцию, являются также простейшими логическими операциями, потому что количество выходной информации с них тоже = 1 бит.
6) неизбыточный алгоритм-алгоритм, который содержит минимальное число записей логических действий. Термин применим только в контексте данной замкнутой аналитической системы в конкретно взятый момент времени. кто не согласен с тем, что мышление человека бинарно или приводится к таковому, может воспринимать термин » замкнутая аналитическая система» , как компьютер без выхода в интернет и не способная получать извне информацию, кроме как довольствоваться той, которую предоставил ей человек.
Если у аналитической системы есть какой либо алгоритм (в единственном экземпляре), который решает поставленную задачу, то такой алгоритм является для этой аналитической системы неизбыточным до тех пор, пока этой системой не будет найден другой алгоритм, решающий поставленную задачу за меньшее кол-во действий.
Все термины даны применительно к двоичной логике, потому что понятие информации и бита мы здесь расматриваем, на примере двоичной системы счисления.
Ну, а теперь посмотрим на вопрос темы «сколько бит информации содержит тот или иной термин?»
Отвечаю:
Для каждой замкнутой аналитической системы, количество бит, определяющее то или иное понятие будет разным, но вполне конкретным по размеру.
Каждое (абсолютно каждое понятие) можно для этой системы привести к двоичному виду.
При условии, что система кодировки этих понятий будет совпадать с другими аналитическими системами, можно будет говорить о том, что для множества этих систем, понятие какого либо термина будет иметь столько то бит. В компьютерах такие понятия как буквы алфавита, к такому «общему знаминателю» уже давно привели соответствующие протоколы ASCI, поэтому написанный на одном компьютере текст «понятен» другим компьютерам.
В 1981 году IBM представила расширенный перечень символов ASCI для своих компьютеров: были увеличены размер кода до 8 бит.
с сообществом людей то же самое в принципе, хотя и несколько сложнее. для каждого человека, в зависимости от того, какое понятийное множество он имеет, каждое понятие может быть представлено в виде кода и алгоритма дешифрации этого кода.
Т.е. любое сказанное слово имеет полный размер в битах сам код+алгоритм его расшифровки, все в битах. Соответственно ответ на любой вопрос, даже однозначный «да» например, включает в себя всю цепочку, от понятий, которые использовались в неизбыточном алгоритме ответа на вопрос и сам этот алгоритм.
Как создать на базе компьютера полный пакет понятийного множества ИИ включая материальные и нематериальные понятия, написано в других моих темах.
Эволюция из бита информации в состояние полной сборки и контроля: valerjano — LiveJournal
Информация, хранящаяся в двойных спиралях ДНК человека, а также любого другого животного или растения на Земле, записана на языке из четырех букв — четырех различных типов нуклеотидов, молекулярных компонентов, составляющих ДНК.Сколько бит информации (ответов типа «да-нет») на различные биологические вопросы записано на языке жизни? Вирусам требуется около 10 000 бит информации. Это инструкции, необходимые для инфицирования другого организма и самовоспроизведения — единственного, на что годны вирусы. Но вирусная информация проста и очень компактна. Бактерия использует около 1 000 000 бит информации. В отличие от вирусов бактерии не являются законченными паразитами, поэтому они сами зарабатывают себе на жизнь. Свободноплавающая одноклеточная амеба устроена еще во много раз сложнее; в ее ДНК содержится около 4 000 000 бит.
Человеку требуется где-то около 5 000 000 000 бит. Что составляет нашу энциклопедию жизни и содержится в ядре каждой клетки. Каждая из ста триллионов ваших клеток заключает в себе полную библиотеку инструкций по изготовлению всех частей тела. Любая из ваших клеток это результат последовательного деления единственной клетки — оплодотворенного яйца, выработанного организмами ваших родителей.
Но допустим, вам нужно проделать нечто настолько сложное, для чего даже 5 000 000 000 бит одной клетки оказывается недостаточно для выполнения какой-то операции. Предположим, что среда обитания изменяется и требуется срочно приспосабливаться. В таком случае не хватит даже генной библиотеки. Вот почему мы обладаем мозгом.
Как и все наши органы, мозг совершенствовался на протяжении миллионов лет. Его структура отражает все этапы, через которые он прошел. Мозг эволюционировал изнутри наружу. Глубоко внутри расположен самый древний участок это ствол мозга, отвечающий за основные биологические функции, в том числе за жизненные ритмы, сердечные сокращения и дыхание.
Высшие функции мозга развивались в ходе трех последовательных этапов.
Ствол мозга покрывает так называемый R-комплекс, который выработался у наших пресмыкающихся предков сотни миллионов лет назад, отвечающий за элементарные животные порывы, выживанию и размножению.
R-комплекс окружен лимбической системой — мозгом млекопитающего, который сформировался десятки миллионов лет назад у млекопитающих, но еще не приматов. Отвечающие за территориальную, племенную принадлежность и ритуальные поведения.
Снаружи находится в сложном перемирии с более примитивными нижележащими слоями кора головного мозга, которая появилась миллионы лет назад у наших предков-приматов. Именно в коре головного мозга возникло то, что называется разумом. Именно здесь созревают наши мысли и идеи, эта область отвечает за чтение и письмо, выполнение математических операций и сочинение музыки. Кора мозга регулирует нашу сознательную жизнь. Это наше видовое отличие, корень нашей человечности. Цивилизация — это продукт коры головного мозга.
Язык мозга значительно сложнее языка генов, составляющих ДНК. Знание закодировано в клетках, называемых нейронами (микроскопических электрохимических переключателях). Наши мысли, воображение, моделирование и программирование существуют в физической реальности. Мысль состоит из сотен электрохимических импульсов — битов.
Мир мысли очень грубо можно разделить на два полушария. Правое полушарие коры головного мозга в основном отвечает за распознавание образов, интуицию, чувства, творческие озарения. Левое полушарие руководит рациональным, аналитическим и критическим мышлением. Вместе они обеспечивают средства как для порождения идей, так и для проверки их правильности. Непрерывный диалог между двумя полушариями ведется через огромное число соединительных нервов, мозолистое тело (corpus calosum), мост между творчеством и анализом, которые необходимы для понимания мира.
Инстинкты выживания, эмоции и образцы ритуального поведения — глубоко укоренены в нас. Они это часть человеческой природы. Однако они не являются сугубо человеческими свойствами, так как наши предки, передавшие нам это по наследству, были животными, пресмыкающимися и в конечном итоге просто формами жизни зародившиеся в результате неимоверной случайности. Поэтому чувства даже такие, как психологическая привязанность и искренняя любовь себе подобных это прекрасные чувства, но они присущи и многим другим животным. Что действительно выделяет наш вид, так это мысль и разум. Кора головного мозга дает нам свободу. Мы больше не обречены следовать генетически наследуемым схемам поведения. Каждый из нас сам ответствен за то, чем он заполняет или уже заполнил свой мозг, о чем, повзрослев, будет беспокоиться и что будет знать до конца своей короткой жизни. Не находясь больше во власти мозга, мы можем изменять сами себя и окружающую действительность. А попросту говоря эволюционировать.
Измерение информации содержательный и алфавитный подходы
Вариант 1
Переведите в мегабайты:
12288 Кб
1024 Гб
2097152 байт
Переведите в биты:
3,2 Мб
2 Кб
Приведите примеры сообщений, содержащих 1 бит информации.
Поезд находится на одном из 8 путей. Сколько бит содержит информация, где находится поезд?
Какое количество информации несет сообщение:” Встреча назначена на сентябрь”.
Алфавит, используемый группой людей, состоит из 16 букв. Какое количество информации несет 1 буква этого алфавита?
Для записи сообщения использовался 64-х символьный алфавит. Каждая страница содержит 30 строк. Все сообщение содержит 8775 байтов информации и занимает 6 страниц. Сколько символов в строке?
За четверть ученик получил 100 оценок. Сообщение о том, что он получил 4, несет 2 бита информации. Сколько четверок ученик получил за четверть?
Вариант 2
1. Переведите в мегабайты:
6144 Кб
2048 Гб
3145728 байт
Переведите в биты:
1,4 Мб
8 Кб
3. Приведите примеры сообщений, содержащих 2 бита информации.
4. При угадывании целого числа в некотором диапазоне от 1 до N было получено 7 бит информации. Сколько чисел содержит этот диапазон?
5. Какое количество информации несет сообщение о том, что встреча назначена на 15 число?
6. Алфавит одного из языков состоит из 64 букв. Какое количество информации несет одна буква этого алфавита?
7. Сообщение занимает 2 страницы и содержит 1/16 Кбайта информации. На каждой странице записано 256 символов. Какова мощность используемого алфавита?
8. Известно, что в ящике лежат 20 шаров. Из них 10-черных, 5-белых, 4-желтых, 1-красный. Какое количество информации несут сообщения о том, что из ящика случайным образом достали черный, белый, желтый, красный шар?
Вариант 3.
1 Переведите в мегабайты:
12288 Кб
1024 Гб
2097152 байт
Переведите в биты:
3,2 Мб
2 Кб
3.Приведите примеры сообщений, содержащих 3 бита информации.
4. При угадывании целого числа в некотором диапазоне от 1 до N было получено 5 бит информации. Сколько чисел содержит этот диапазон?
5. Какое количество информации несет сообщение о том, что встреча назначена на 18 число?
6. Алфавит одного из языков состоит из 32 букв. Какое количество информации несет одна буква этого алфавита?
7. Сообщение занимает 8 страниц и содержит 1/4 Кбайта информации. На каждой странице записано 256 символов. Какова мощность используемого алфавита?
8. В корзине лежат белые и черные шары. Среди них 18 черных. Сообщение о том, что из корзины достали белый шар, несет 2 бита информации. Сколько всего в корзине шаров?
Вариант 4.
1. Переведите в мегабайты:
6144 Кб
2048 Гб
3145728 байт
Переведите в биты:
1,4 Мб
8 Кб
3.Приведите примеры сообщений, содержащих 4 бита информации.
4. Сообщение о том, что ваш друг живет на 3 этаже, несет 6 бит информации. Сколько этажей в доме?
5. Какое количество информации несет сообщение о том, что встреча назначена на 23 октября в 15.00?
6. Сообщение, записанное буквами из 32-х символьного алфавита, содержит 24 символа. Какой объем информации оно несет?
7.Сообщение занимает 3 страницы по 25 строк. В каждой строке записано по 60 символов. Сколько символов в использованном алфавите, если все сообщение содержит 1125 байтов?
8. В ящике лежат перчатки (белые и черные). Среди них – 2 пары черных. Сообщение о том, что из ящика достали пару черных перчаток, несет 4 бита информации. Сколько всего пар перчаток было в ящике?
Вариант 5.
1. Переведите в мегабайты:
12288 Кб
1024 Гб
2097152 байт
Переведите в биты:
3,2 Мб
2 Кб
3.Приведите примеры сообщений, содержащих 1 бит информации.
4. В коробке лежат 8 карандашей. Среди них 2 красных. Какое количество информации содержит сообщение, что из коробки достали красный карандаш?
5. При угадывании одной из карт было получено 4 бита информации. Сколько карт было в колоде?
6. Сколько килобайтов составляет сообщение, содержащее 12288 битов.
7. Для записи сообщения использовался 64-х символьный алфавит. Каждая страница содержит 30 строк. Все сообщение содержит 8775 байтов информации и занимает 6 страниц. Сколько символов в строке?
8. В коробке лежат 32 карандаша. Сообщение о том, что достали зеленый карандаш, несет 3 бита информации. Сколько зеленых карандашей было в коробке?
Вариант 6.
1. Переведите в мегабайты:
6144 Кб
2048 Гб
3145728 байт
Переведите в биты:
1,4 Мб
8 Кб
3.Приведите примеры сообщений, содержащих 2 бита информации.
4. . При угадывании целого числа в некотором диапазоне от 1 до M было получено 5 бит информации. Сколько чисел содержит этот диапазон?
5. Какое количество информации несет сообщение:” Встреча назначена на август”.
6. Алфавит одного из языков состоит из 64 букв. Какое количество информации несет одна буква этого алфавита?
7. Сообщение занимает 8 страниц и содержит 1/4 Кбайта информации. На каждой странице записано 256 символов. Какова мощность используемого алфавита?
8. Для ремонта школы использовали белую, синюю и коричневую краски. Израсходовали одинаковое количество банок белой и синей краски. Сообщение о том, что закончилась банка белой краски, несет 2 бита информации. Синей краски израсходовали 8 банок. Сколько банок коричневой краски израсходовали на ремонт школы?
Вариант 7.
1. Переведите в мегабайты:
12288 Кб
1024 Гб
2097152 байт
Переведите в биты:
3,2 Мб
2 Кб
3.Приведите примеры сообщений, содержащих 3 бита информации.
4. . При угадывании целого числа в некотором диапазоне от 1 до N было получено 5 бит информации. Сколько чисел содержит этот диапазон?
5. Какое количество информации несет сообщение о том, что встреча назначена на 18 число?
6. Алфавит одного из языков состоит из 32 букв. Какое количество информации несет одна буква этого алфавита?
7. Сообщение занимает 3 страницы по 25 строк. В каждой строке записано по 60 символов. Сколько символов в использованном алфавите, если все сообщение содержит 1125 байтов?
8. В корзине лежат белые и черные шары. Среди них 18 черных. Сообщение о том, что из корзины достали белый шар, несет 2 бита информации. Сколько всего в корзине шаров?
Вариант 8.
1. Переведите в мегабайты:
6144 Кб
2048 Гб
3145728 байт
Переведите в биты:
1,4 Мб
8 Кб
3.Приведите примеры сообщений, содержащих 4 бита информации.
4. . В коробке лежат 8 карандашей. Среди них два красных. Какое количество информации содержит сообщение, что из коробки достали красный карандаш?
5. При угадывании одной из карт было получено 4 бита информации. Сколько карт было в колоде?
6. Сколько килобайтов составляет сообщение, содержащее 12288 битов.
7. Для записи сообщения использовался 64-х символьный алфавит. Каждая страница содержит 30 строк. Все сообщение содержит 8775 байтов информации и занимает 6 страниц. Сколько символов в строке?
8. В коробке лежат 32 карандаша. Сообщение о том, что достали зеленый карандаш, несет 3 бита информации. Сколько зеленых карандашей было в коробке?
Сколько бит информации в предложении? — Цвета-NewYork.com
Сколько бит информации в предложении?
символа ASCII всегда представлены одним байтом, и все компьютеры, по крайней мере, за последние 40 лет, имеют 8-битный байт. Таким образом, поскольку в этом предложении 12 символов (посчитайте пробелы!), Имеется 12 байтов и 96 бит.
Сколько бит в четырехбуквенном слове?
Итак, на компьютерном языке, если СЛОВО равно 2 символам, то двойное слово или DWORD — это 2 СЛОВА, что совпадает с 4 символами или байтами, что равно 32 битам.Кроме того, четверное слово или QWORD — это 2 DWORD, то же самое, что 4 WORD, 8 символов или 64 бита.
Как называются 16 бит?
Общие битовые длины двоичных чисел включают биты, полубайты и байты (еще не голодны?). Каждая 1 или 0 в двоичном числе называется битом. Оттуда группа из 4 бит называется полубайтом, а 8 бит составляют байт. Это может быть 16 бит, 32, 64 или даже больше.
Всегда ли слово 16 бит?
В ПК x86 (Intel, AMD и т. Д.), Хотя архитектура уже давно поддерживает 32-битные и 64-битные регистры, его собственный размер слова восходит к его 16-битному происхождению, а «одиночное» слово — 16 биты.«Двойное» слово — 32 бита. См. 32-битный компьютер и 64-битный компьютер.
Это слово 4 байта?
Байт равен восьми битам, слово — 2 байта (16 бит), двойное слово — 4 байта (32 бита), а четверное слово — 8 байтам (64 бита).
Почему слово 16 бит?
В языке ассемблера x86 WORD, DOUBLEWORD (DWORD) и QUADWORD (QWORD) используются для размеров 2, 4 и 8 байтов, независимо от размера машинного слова. Слово обычно является «собственным» размером данных ЦП. То есть на 16-битном ЦП слово составляет 16 бит, на 32-битном ЦП — 32 и так далее.
Это слово 32 бита?
Для любой компьютерной архитектуры с восьмибитным байтом слово будет кратным восьми битам. В эволюционной архитектуре IBM System / 360 слово состоит из 32 бита или четырех смежных восьмибитовых байта. В архитектуре процессора Intel для ПК слово состоит из 16 бит или двух смежных восьмибитовых байтов.
Что такое слово в двоичной системе?
Краткий справочник. Двоичное слово длины n — это строка из n двоичных цифр или битов. Например, есть 8 двоичных слов длиной 3, а именно 000, 100, 010, 001, 110, 101, 011 и 111.From: двоичное слово из Краткого Оксфордского математического словаря »
Что такое 32-битный размер слова?
Два байта вместе, как в 16-битной машине, составляют слово, 32-битные машины — это 4 байта, которые представляют собой двойное слово, а 64-битные машины — это 8 байтов, которые представляют собой четверное слово. Компоненты. Компьютеры различаются, но все они будут иметь некоторые базовые компоненты, такие как ЦП, память, соединительную шину и интерфейс ввода / вывода (I / O).
Что означают 32 бита?
32-битное в компьютерных системах означает количество битов, которые могут передаваться или обрабатываться параллельно.Другими словами, 32-битное количество битов, составляющих элемент данных. Для шины данных 32-битное значение означает количество доступных путей, что означает, что у нее есть 32 параллельных канала для передачи данных.
Сколько полубайтов в 32-битном слове?
Общие коллекции — это отдельные биты, группы из четырех битов (называемые полубайтами), группы из восьми битов (байты), группы из 16 бит (слова), группы из 32 битов (двойные слова или двойные слова), группы из 64 битов (четыре слова или qwords) и многое другое. Размеры не произвольные.Для этих конкретных ценностей есть веская причина.
Какая память самая быстрая?
- Самая быстрая память — это кэш-память.
- Регистры — это временные блоки памяти, которые хранят данные и расположены в процессоре, а не в ОЗУ, поэтому данные могут быть доступны и сохранены быстрее.
Какая память быстрее и бесполезна?
На самом деле современные операционные системы довольно хорошо умеют управлять памятью самостоятельно. Эти 3 ГБ использованной оперативной памяти не обязательно указывают на потери.Вместо этого ваш компьютер использует вашу оперативную память для кэширования данных для более быстрого доступа.
ПЗУ или ОЗУ быстрее?
ПЗУ используется для хранения постоянной информации, которую нельзя стереть. Скорость доступа к оперативной памяти выше. Его скорость ниже по сравнению с оперативной памятью. Следовательно, ПЗУ не может увеличить скорость процессора.
Что быстрее ОЗУ или реестр?
Регистры быстрее памяти. ОЗУ намного медленнее, чем регистры.
Оперативная память самая быстрая?
В компьютерной системе обычно используются два типа ОЗУ: динамическое ОЗУ (DRAM) и статическое ОЗУ (SRAM).Помимо того, что SRAM является самым быстрым вариантом, она намного дороже, чем DRAM, поэтому она в основном используется в качестве кэш-памяти внутри интегральной схемы, которая является процессором компьютера.
В чем разница между кешем и регистром?
Кэш-память должна быть намного быстрее, чем основная память… .Разница между кэш-памятью и регистром:
S. No. | КЭШ ПАМЯТЬ | РЕГИСТРАЦИЯ |
---|---|---|
1. | Cache — это меньший и самый быстрый компонент памяти в компьютере. | Регистры — это небольшой элемент быстрого хранения в процессоре. |
2. | Кэш-память — это именно единица памяти. | Он расположен на ЦП. |
ПЗУ — это память?
ROM — это аббревиатура от Read-Only Memory. Он относится к микросхемам памяти компьютера, содержащим постоянные или полупостоянные данные. В отличие от ОЗУ, ПЗУ энергонезависимо; даже после выключения компьютера содержимое ПЗУ останется.Почти каждый компьютер поставляется с небольшим объемом ПЗУ, содержащим загрузочную прошивку.
ПЗУ все еще используется?
ПЗУ компьютера Хорошим примером ПЗУ является компьютерная BIOS, которая представляет собой микросхему ППЗУ, в которой хранятся программы, необходимые для начала процесса начальной загрузки компьютера. Использование энергонезависимого носителя данных — единственный способ начать этот процесс для компьютеров и других устройств. Хранилище типа ROM все еще используется.
Что такое ПЗУ?
Постоянное запоминающее устройство (ПЗУ) — это тип электронного хранилища, которое встроено в устройство во время производства.Вы найдете микросхемы ПЗУ в компьютерах и многих других типах электронных устройств; Видеомагнитофоны, игровые приставки и автомобильные радиоприемники используют ПЗУ для бесперебойного выполнения своих функций.
Какое предназначение ПЗУ?
Что такое ПЗУ? Постоянное запоминающее устройство (ПЗУ) обеспечивает постоянное хранение инструкций, необходимых во время начальной загрузки или процесса включения компьютера. Это достигается путем хранения BIOS и другого микропрограммного обеспечения для компьютерного оборудования.
Что такое ПЗУ с примером?
Что такое ПЗУ:
RAM | ROM |
---|---|
Примеры: Он используется как кэш ЦП, основная память компьютера. | Примеры: Используется микроконтроллерами в качестве прошивки. |
Сохраненные данные легко доступны. | Доступ к сохраненным данным не так прост, как в ПЗУ. |
Дороже ПЗУ. | Дешевле ОЗУ. |
Что такое ПЗУ, почему оно так называется?
ПЗУназывается постоянным запоминающим устройством, потому что исторически оно могло только читаться, но не записываться. Эти имена сбивают с толку, потому что доступ к ПЗУ тоже осуществляется случайным образом.Что еще хуже, большинство современных ПЗУ можно не только читать, но и писать!
SSD RAM или ROM?
В твердотельных накопителяхдля хранения данных используется специальный тип схемы памяти, называемый энергонезависимой оперативной памятью (NVRAM), поэтому все остается на месте, даже когда компьютер выключен. Несмотря на то, что твердотельные накопители используют микросхемы памяти вместо механической пластины, которую необходимо считывать последовательно, они все равно медленнее, чем ОЗУ компьютера.
Следует увеличить RAM или SSD?
SSD загрузит все быстрее, но RAM может держать больше вещей открытыми одновременно.Если вы обнаружите, что ваш компьютер невыносимо медленен буквально во всем, что он делает, SSD — это лучший вариант, но если, например, ваш компьютер начинает работать, только когда вы открываете «множество вкладок», вам понадобится оперативная память. увеличение.
Достаточно ли 8 ГБ ОЗУ для игр?
Достаточно ли 8 ГБ ОЗУ для игр? Короче говоря, да, 8 ГБ рассматриваются многими как новая минимальная рекомендация. Причина, по которой 8 ГБ считается оптимальным вариантом, заключается в том, что большинство современных игр без проблем запускаются на этой емкости.
Какое полное название SSD?
Твердотельные накопителиполучили свое название — твердотельные — потому что у них нет движущихся частей. В SSD все данные хранятся в интегральных схемах.
256 ГБ SSD лучше, чем 1 ТБ?
Ноутбук может поставляться с твердотельным накопителем емкостью 128 или 256 ГБ вместо жесткого диска емкостью 1 или 2 ТБ. На жестком диске емкостью 1 ТБ в восемь раз больше, чем на твердотельном накопителе емкостью 128 ГБ, и в четыре раза больше, чем на твердотельном накопителе емкостью 256 ГБ. Преимущество заключается в том, что вы можете получить доступ к своим онлайн-файлам с других устройств, включая настольные ПК, ноутбуки, планшеты и смартфоны.
Какой SSD лучше?
Лучшие твердотельные накопители, которые вы можете купить сегодня (NVMe)
- Samsung 970 Evo Plus.
- Corsair MP400.
- Addlink S70.
- Intel SSD 665P.
- WD Синий SN550. Отличное качество M.
- Crucial P1. Отличный SSD для повседневного использования.
- Adata XPG SX8200 Pro. SSD-накопитель подходит практически всем.
- Sabrent Rocket. Вывод SSD на новый уровень.
Какой жесткий диск лучше?
Лучший внешний жесткий диск емкостью 1 ТБ в Индии
- Western Digital Elements.Western Digital Elements — один из самых надежных внешних жестких дисков в компактном форм-факторе.
- Seagate Backup Plus Slim.
- Transcend TS1TSJ25M3S StoreJet.
- Toshiba Canvio Basic.
- Western Digital WD Мой паспорт.
- Lenovo F309.
Теория информации | математика | Британника
Историческая справка
Интерес к концепции информации вырос непосредственно с появлением телеграфа и телефона.В 1844 году американский изобретатель Сэмюэл Ф. Морс построил телеграфную линию между Вашингтоном, округ Колумбия, и Балтимором, штат Мэриленд. Морс столкнулся со многими электрическими проблемами, когда отправлял сигналы через подземные линии передачи, но по необъяснимым причинам он столкнулся с меньшим количеством проблем, когда линии были подвешены на опорах. Это привлекло внимание многих выдающихся физиков, в первую очередь шотландца Уильяма Томсона (барон Кельвин). Точно так же изобретение телефона в 1875 году Александром Грэмом Беллом и его последующее распространение привлекло новых научных нотариусов, таких как Анри Пуанкаре, Оливер Хевисайд и Майкл Пупен, к проблемам, связанным с передачей сигналов по проводам.Большая часть их работы была выполнена с использованием анализа Фурье, метода, описанного далее в этой статье, но во всех этих случаях анализ был посвящен решению практических инженерных проблем систем связи.
Формальное изучение теории информации началось только в 1924 году, когда Гарри Найквист, исследователь из Bell Laboratories, опубликовал статью под названием «Некоторые факторы, влияющие на скорость телеграфа». Найквист понял, что каналы связи имеют максимальную скорость передачи данных, и вывел формулу для расчета этих скоростей в бесшумных каналах с конечной полосой пропускания.Еще одним пионером был коллега Найквиста Р.В.Л. Хартли, чья статья «Передача информации» (1928) заложила первые математические основы теории информации.
Настоящее рождение современной теории информации можно проследить до публикации в 1948 году книги Клода Шеннона «Математическая теория коммуникации» в журнале Bell System Technical Journal . Ключевым шагом в работе Шеннона стало его осознание того, что для создания теории коммуникационные сигналы должны рассматриваться изолированно от смысла сообщений, которые они передают.Этот взгляд резко контрастирует с общепринятым представлением об информации, в котором значение играет важную роль. Шеннон также понял, что объем знаний, передаваемых сигналом, не связан напрямую с размером сообщения. Известной иллюстрацией этого различия является переписка между французским писателем Виктором Гюго и его издателем после публикации Les Misérables в 1862 году. Гюго отправил своему издателю открытку с единственным символом «?». Взамен он получил карточку с символом «!».В контексте отношений Хьюго со своим издателем и общественностью эти короткие сообщения были наполнены смыслом; без такого контекста эти сообщения бессмысленны. Точно так же длинное законченное сообщение на идеальном французском языке передаст мало полезных знаний тому, кто понимает только английский.
Получите подписку Britannica Premium и получите доступ к эксклюзивному контенту. Подпишитесь сейчасШеннон, таким образом, мудро осознал, что полезная теория информации должна сначала сосредоточиться на проблемах, связанных с отправкой и получением сообщений, и она должна будет оставить вопросы, связанные с любым внутренним значением сообщения, известные как семантическая проблема, для более поздних исследователей. .Ясно, что если техническая проблема не может быть решена, то есть если сообщение не может быть передано правильно, то семантическая проблема вряд ли когда-либо будет решена удовлетворительно. Поэтому решение технической проблемы было первым шагом в разработке надежной системы связи.
Не случайно Шеннон работал в Bell Laboratories. Практическим стимулом для его работы были проблемы, с которыми он столкнулся при создании надежной телефонной системы. Ключевой вопрос, на который нужно было ответить на заре развития телекоммуникаций, заключался в том, как лучше всего оптимизировать физическое оборудование, в частности, как передавать максимальное количество телефонных разговоров по существующим кабелям.До работы Шеннона факторы достижения максимального использования не были четко поняты. Работа Шеннона определила каналы связи и показала, как назначить им пропускную способность, не только в теоретическом смысле, когда отсутствуют помехи или шум, но также и в практических случаях, когда реальные каналы подвергаются действительному шуму. Шеннон создал формулу, которая показывала, как ширина полосы канала (то есть его теоретическая пропускная способность) и его отношение сигнал / шум (мера помех) влияют на его способность передавать сигналы.При этом он смог предложить стратегии для максимального увеличения пропускной способности данного канала и показал пределы возможностей данной технологии. Это было очень полезно для инженеров, которые после этого могли сосредоточиться на отдельных случаях и понять конкретные возможные компромиссы.
Шеннон также сделал поразительное открытие, что даже в присутствии шума всегда можно передавать сигналы, сколь угодно близкие к теоретической пропускной способности канала. Это открытие вдохновило инженеров на поиски практических методов улучшения характеристик передачи сигналов, которые были далеки от оптимальных.В работе Шеннона четко разграничиваются выигрыши, которые могут быть реализованы путем принятия другой схемы кодирования, и выигрыши, которые могут быть реализованы только путем изменения самой системы связи. До Шеннона у инженеров отсутствовал систематический способ анализа и решения таких проблем.
Новаторская работа Шеннона, таким образом, представила множество ключевых идей, которыми с тех пор руководствовались инженеры и ученые. Хотя теория информации не всегда дает четкое представление о том, как достичь конкретных результатов, теперь люди знают, какие вопросы стоит задавать, и могут сосредоточиться на областях, которые принесут наибольшую отдачу.Они также знают, на какие вопросы сложно ответить, и в каких областях вряд ли можно получить большую отдачу от затраченных усилий.
С 1940-х и 1950-х годов принципы классической теории информации применялись во многих областях. В разделе «Приложения теории информации» рассматриваются достижения не только в таких областях телекоммуникаций, как сжатие данных и исправление ошибок, но и в отдельных дисциплинах физиологии, лингвистики и физики.Действительно, даже во времена Шеннона появилось много книг и статей, в которых обсуждалась взаимосвязь между теорией информации и такими областями, как искусство и бизнес. К сожалению, многие из этих предполагаемых отношений имели сомнительную ценность. Попытки связать теорию информации с каждой проблемой и каждой областью настолько обеспокоили самого Шеннона, что в редакционной статье 1956 года под названием «The Bandwagon» он выпустил следующее предупреждение:
Я лично считаю, что многие концепции теории информации окажутся полезными в этих других областях — и, действительно, некоторые результаты уже весьма многообещающие — но создание таких приложений — нетривиальный вопрос перевода слов в новую область , а скорее медленный утомительный процесс гипотез и экспериментальной проверки.
Помня собственные слова Шеннона, мы можем теперь рассмотреть основные принципы классической теории информации.
Сколько там бит? — MVOrganizing
Сколько там бит?
Отсюда группа из 4 бит называется полубайтом, а из 8 битов получается байт…. Обычная длина двоичного числа.
Длина | Имя | Пример |
---|---|---|
1 | Бит | 0 |
4 | Клев | 1011 |
8 | байт | 10110101 |
Сколько типов битов существует в компьютере?
Бита и байта Итак, компьютеры работают, манипулируя единицами и нулями.Это двоичные цифры, или для краткости биты. Одиночные биты слишком малы, чтобы их можно было широко использовать, поэтому они сгруппированы в блоки по 8 бит. Каждая 8-битная единица называется байтом.
Что означает 8 бит?
8-бит — это мера компьютерной информации, обычно используемая для обозначения аппаратного и программного обеспечения в эпоху, когда компьютеры могли хранить и обрабатывать максимум 8 бит на блок данных.
В чем разница между 8 и 16 битами?
Основное различие между 8-битным изображением и 16-битным изображением заключается в количестве тонов, доступных для данного цвета.8-битное изображение состоит из меньшего количества тонов, чем 16-битное изображение. Это означает, что для каждого цвета в 8-битном изображении имеется 256 тональных значений.
Считается ли Minecraft 8-битным?
Minecraft не 8-битный, он просто предназначен для графического использования художественного стиля старых 8-битных игр. В зависимости от версии игры Minecraft бывает 32-битной или 64-битной.
Что такое 8-битное изображение?
8-битная цветная графика — это метод хранения информации об изображении в памяти компьютера или в файле изображения, так что каждый пиксель представлен 8-битами (1 байт).Максимальное количество цветов, которые могут отображаться одновременно, — 256 или 28.
Должен ли я печатать 8 или 16 бит?
Когда дело доходит до печати, мы требуем, чтобы все изображения были представлены в 8-битном формате. К сожалению, обширный диапазон тонов 16-битного изображения невозможно воссоздать в рамках нашего процесса коммерческой печати CMYK. Сохранение изображений в 8-битном режиме поможет обеспечить точность заказа печати.
Что такое 10-битная глубина цвета?
Для 10-битных панелей каждый пиксель показывает до 1024 версий каждого основного цвета, другими словами 1024 в степени трех или 1.07 МИЛЛИАРД возможных цветов. Итак, 10-битная панель может отображать изображения с экспоненциально большей точностью, чем 8-битный экран.
Почему мой дисплей 32-битный?
На самом деле, хотя они используют режим глубины цвета 32 бит, большинство мониторов работают с 18 битами, некоторые из более дорогих — с 24 битами, а некоторые профессиональные мониторы выдают 30 бит цвета. Они просто используют 32 бита из-за преимуществ управления памятью.
В чем разница между 24 и 32 битами?
24-битный сигнал имеет потенциальное отношение сигнал / шум 144 дБ.Это больше, чем общий диапазон человеческого слуха (140 дБ). 32-битный сигнал теоретически имеет отношение сигнал / шум 192 дБ, что намного превышает диапазон человеческого слуха примерно в 300 раз.
Сколько бит информации может быть передано в белке и как быстро?
Abstract
Количество и скорость передачи информации, которая может быть передана от одного остатка к другому в белке, оценивается количественно с использованием концепции энтропии переноса теории информации.Передача информации от одного остатка ко второму определяется как уменьшение неопределенности во втором остатке из-за связи с прошлыми значениями первого. Определены три типа передачи информации между парами остатков: передача между остатками, которые (i) близки как в пространстве, так и вдоль первичной белковой цепи, (ii) близки в пространстве, но удалены по цепи, и (iii) далеки в пространстве. и по цепочке можно различить. В качестве примера используется широко изученный третий домен PDZ из синаптического белка PSD-95.Три типа передачи показывают, что остатки сближаются в пространстве и по цепи передают наибольший объем информации. Передача по первичной цепочке также значительна. Прогнозы модели показывают, что значительный перенос может также иметь место между пространственно удаленными парами остатков. Последний составляет основу динамической аллостерии в белках. Роль передачи информации между удаленными парами в отношении коэволюции является спорной, некоторые работы приписывают ее только парам остатков ближайшего соседа, а другие поддерживают связь на больших расстояниях.Настоящая статья показывает, что значительный объем информации может передаваться между удаленными парами в PSD-95. Скорость передачи порядка гигабайт в секунду предсказывается существующей теорией. Передача информации между определенным набором пар остатков демонстрирует сильную направленность или причинно-следственную связь, наблюдение, которое может быть использовано при разработке белков и разработке лекарств.
Введение
Белки — это динамические системы, атомы которых демонстрируют флуктуации около своего положения равновесия с амплитудами порядка нанометров и характерными временами от пико до наносекунд.При индивидуальном наблюдении каждый атом совершает флуктуации как независимый случайный стационарный процесс, который может быть отображен на траектории амплитуды времени. Колебания и случайность движения являются встроенными источниками неопределенности в наномасштабе, что ясно отображается на любой атомной траектории. Однако одновременное рассмотрение траекторий пар атомов дает важные подсказки о том, как эти два атома взаимодействуют друг с другом. Любая степень связи между парами траекторий дает намек на функцию белка.Связь двух траекторий удобнее всего анализировать с точки зрения передачи информации от одной к другой. Передача информации с траектории i на j — это величина неопределенности, уменьшенная в состояниях j в будущем t + τ из-за ее связи с траекторией i в момент времени t 1 . Основная концепция передачи информации основана на вычислении среднего числа битов, необходимых для кодирования независимых событий, с использованием энтропийной формулы Шеннона.Шеннона интересовали возможности телекоммуникационных линий для передачи информации с использованием минимального количества битов, и он вывел процедуру, которая по существу основана на принципе максимальной энтропии (Max Ent) 2 и максимального калибра Max Cal 3 . Последний используется для прогнозирования относительной вероятности того, что система при переходе из одного состояния в другое выберет определенную траекторию. Как будет показано в следующих разделах, передача информации между двумя остатками — это специальное приложение Max Cal, в котором рассматриваются только состояния, допустимые для пары остатков.Следствием формализма Max Cal для парных взаимодействий является то, что траекторию можно рассматривать как марковский процесс 4 . Формализм передачи информации, принятый здесь, основан на зависящих от времени условных вероятностях, полученных из марковского процесса. С этой точки зрения, передача информации между остатками лежит в основе динамического взгляда на аллостерию в белках: возмущение в одном сайте, называемом аллостерическим сайтом, приводит к изменениям конформации, а также к динамике в других областях белка, включая сайт в в котором белок выполняет свою функцию.Настоящую работу можно рассматривать как смену парадигмы от статического связывания двух вычетов к сцеплению траекторий. Связывание траекторий можно разделить на три типа с точки зрения расстояний между парами остатков вдоль первичной цепи и в пространстве. Пары остатков, которые (i) близки вдоль первичной цепи и в пространстве, что мы называем связью типа 1, (ii) удалены вдоль первичной цепи, но близки в пространстве, сцепление типа 2 и (iii) далеки по цепи и космос, муфта Тип 3. Роль сочетания типов 1 и 2 в аллостерии, эволюции и функции белков в целом хорошо документирована.Роль муфты типа 3 требует более подробного изучения. Начиная с последнего десятилетия, передача информации в аллостерии была связана с эволюционными процессами. Во-первых, группа Ранганатана определила эволюционно законсервированные пути в семействах совместно эволюционирующих белков 5 и количественно определила связывание типа 3 на таких путях в соответствии со статистикой Больцмана, которая теперь называется «статистической связью». Роль связывания типа 3 в коэволюции вскоре была оспорена Chi et al., 6 , которые определили изменения в свободной энергии, возникающие в результате мутаций предложенных статистически связанных пар остатков.Чи и др. Пришли к выводу, что наблюдаемая связь, которую они назвали «энергетической связью», не согласуется со статистической связью, а скорее зависит от расстояния между остатками, пространственно более близкие пары связаны сильнее, т. Е. Типы 1 и 2. связь. Более поздняя работа, основанная на большом количестве коэволюционных семейств белков, показала, что коэволюция в основном контролируется сочетанием типов 1 и 2 7 . Несмотря на роль пространственно удаленных пар остатков в коэволюции, связывание пространственно удаленных пар остатков по отношению к функции белков хорошо документировано в литературе.Миллисекундное моделирование молекулярной динамики Линдорфа-Ларсена и др. 8 и соответствующие результаты ЯМР 9,10,11 показывают важность дальнодействующих корреляций в убиквитине. Kong и Karplus 2 использовали подход, основанный на моделировании молекулярной динамики (MD), называемый «анализ корреляции взаимодействий», для изучения дальнодействующих корреляций в сигнальных путях домена PDZ2 и идентифицировали пути, которые также подтверждаются экспериментами ЯМР. . Три упомянутых метода: (i) статистический, (ii) энергетический и (iii) MD-анализ, являются независимыми подходами.В настоящей статье мы предлагаем четвертый подход — энтропийный подход к передаче информации, который не зависит от трех других. Модель основана на концепции зависящей от времени энтропии переноса Шрайбера 1 для систем, в которых колебания одного остатка коррелируют с колебаниями второго остатка в более позднее время. Модель количественно оценивает уменьшение неопределенности во втором остатке из-за связи с прошлыми значениями первого. Уменьшение неопределенности во втором остатке из-за его связи с первым представляет собой передачу энтропии или информации от первого ко второму.Энтропия является более подходящим описанием проблем физической природы из-за ее связи с преобразованием свободной энергии, но мы предпочитаем использовать термин «передача информации» и пытаться количественно оценить передачу в битах. По сути, одно можно преобразовать в другое путем подходящего выбора правильной пропорциональности. Хотя передача информации или энтропии широко используется в нейробиологии 13 , в физике единичных белков она относительно недавняя 14 . В статье мы используем как мгновенную, так и кумулятивную передачу информации.Первый — это величина перехода с траектории в момент времени t на другую траекторию в будущем t + τ . В литературе используются разные значения времени задержки τ (см., Например, 1, 15 ). Для примера белка, использованного в этой статье, мгновенная информация как функция от τ начинается с нуля, так как она предназначена для игнорирования статических корреляций 1 , достигает пика примерно в доли наносекунды и исчезает через несколько наносекунд. .Накопленная передача информации — это мгновенная передача, суммированная по всем временам задержки τ , и ее можно рассматривать как меру пропускной способности канала. Совокупную передачу информации, деленную на время пика, можно рассматривать как приблизительную скорость передачи информации, которая, как мы показываем, составляет порядка гигабайт в секунду для белка. Здесь мы используем широко изученный третий домен PDZ из синаптического белка PSD-95 (код банка данных белков 1BE9) в качестве нашего примера. Мы используем гауссовскую сетевую модель передачи информации, которую мы реализовали в ссылке 6 .Интересно, что эту простую гауссовскую модель можно использовать для определения количества и скорости передачи информации, а также причинно-следственной связи, то есть разницы между передачей от i к j и от j к i. Последнее важно из-за его возможной роли в эволюции и разработке лекарств 16 . Основной интерес статьи состоит в том, чтобы количественно оценить максимальный объем информации, который может переходить от одного остатка к другому, и соответствующую скорость передачи информации.
Результаты
На основе модели энтропии переноса Шрайбера 1 и модели гауссовой сети свернутых белков 17 мы проанализировали количество информации, которая может быть передана от одного остатка к другому, и скорость, с которой эта передача происходит. Мы используем кристаллическую структуру 1BE9.pdb. Форма стержня трехмерной структуры показана на рисунке 1. Chi et al. 6 определил шесть остатков, h472, A376, G329, V362, F340, K380, как остатки энергетической сети домена PDZ.Эти остатки также значимы в работах Локлесса и Ранганатана 5a и Конга и Карплюса 18 . В этой статье мы сосредотачиваемся на том же наборе остатков и называем их «сетевыми остатками». Альфа-атомы углерода сетевых остатков используются во всех расчетах и показаны в виде больших черных сфер на рисунке 1. Расстояния между парами сетевых остатков и их типы взаимодействия на основе парных расстояний показаны во втором и третьем столбцах таблицы 1. Пары с короткодействующими взаимодействиями выделены жирным шрифтом.Четвертый столбец показывает количество максимальной информации, которая может быть передана между каждой парой в битах. Пятый столбец показывает время задержки пика, при котором максимальная мгновенная информация передается от одного остатка к другому. В последнем столбце указана скорость передачи информации в гигабитах в секунду.
Рисунок 1.Трехмерная структура 1BE9. Шесть остатков, ответственных за передачу аллостерической информации, идентифицированные как в ссылках [5], так и [7], показаны черными сферами.Расстояния между остатками приведены в таблице 1.
Анализ таблицы показывает, что передача информации между контактирующими остатками, взаимодействиями типов 1 и 2 и соответствующими скоростями переноса является наибольшей. Однако переносами между остатками с дальнодействующими контактами нельзя пренебречь, максимальная передача типа 3 приходится на h472-K380. Скорость передачи между этими двумя остатками также велика. Следующая по величине передача информации типа 3 происходит между K380 и V362 с передачей информации 2 бита и скоростью передачи информации 8.7 ГБ / с. Передача информации между другими сетевыми остатками с дальнодействующей связью также имеет немаловажные значения. Эти данные подтверждают гипотезу статистической связи Локлесса и Ранганатана, а также эксперименты Suel et. al. 5
Таблица 1.Различные метрики передачи информации в 1BE9.
Максимальный объем кумулятивной информации, который может быть передан от одного остатка к другому, пропускная способность канала, является интегралом мгновенной передачи информации между двумя остатками.Она уменьшается приблизительно линейно с расстоянием между парами, как показано на левой панели рисунка 2. На правой панели показана зависимость скорости передачи между парами остатков от расстояния, которая приблизительно экспоненциально затухает с расстоянием.
Рисунок 2.Зависимость кумулятивной передачи информации между остатками и скорости передачи от расстояния между остатками. Сплошные линии на левой и правой панелях лучше всего соответствуют прямой линии и экспоненциальному затуханию соответственно.
Передача информации от сетевых остатков к другим, находящимся в пределах радиуса 9,3 Å, то есть радиуса второй координационной оболочки, показана на рисунке 3. Остаток, из которого передается информация, идентифицируется на каждой панели. На верхней левой панели рисунка 3 мы видим перенос 2-го типа от h472 к остаткам I328-E331. Верхняя средняя панель показывает, что K380 демонстрирует слабый перенос типа 2 на шарнирные остатки между S320-L323. Верхняя правая панель показывает, что не связанный с сетью остаток F340 показывает передачу Типа 2 на L323-I327 и L353-G356.Остаток G353 известен как активный сайт, и только F340 может передавать ему информацию типа 2. На нижней левой панели показан перенос типа 2 от G329 к альфа-спирали между остатками h472-380 и более слабый перенос типа 2 на альфа-спираль между остатками P394-F400. На нижней средней панели показано взаимодействие типа 2 от V362 до A375, A378, A382 и до диапазона остатков T385-A390. Нижняя левая панель показывает, что V362 может демонстрировать перенос типа 1 на остатки от D357 до R368. Нижняя правая панель показывает слабую передачу типа 2 с A376 на I327 и I336.
Рисунок 3.Передача информации от остатка, указанного на каждой панели, ко всем остальным остаткам. Учитываются только взаимодействия близких в пространстве остатков. Это переводы типа 1 или 2.
Передача информации между пространственно удаленными парами остатков, то есть перенос типа 3 представлен на рисунке 4. Ординатные значения шести панелей показывают, что перенос типа 3 имеет тот же порядок величины, что и перенос контактирующих остатков. Интересно, что значительная передача информации на большие расстояния имеет место также между остатками сети и остатками, не являющимися сетевыми.На верхней левой панели рисунка 4 возможна передача информации размером 4,2 бита с h472 на K380 со скоростью передачи 19,1 ГБ / с. Величина и скорость передачи между этой парой немного ниже, чем у контактирующих остатков сети. Два остатка h472 и K380 находятся на концах длинной спирали белка с расстоянием 12,3 Å между их альфа-атомами углерода. Эта связь является индикатором передачи по спирали, о которой мы поговорим ниже. Переход с h472 на N369 на дистанцию 9.47 Å еще более впечатляющий, с амплитудой 4,3 бита и скоростью 25,3 ГБ / с. h472 и N369 лежат на концах удлиненной спиральной конструкции. h472 и G333, расположенные на расстоянии 10,1 Å друг от друга, демонстрируют связь, посредством которой всего 3,65 битов могут быть переданы со скоростью 21,5 ГБ / с. На верхней средней панели рисунка 4 показан перенос типа 3 из остатка K380 в остальную часть системы. Максимальный объем информации передается в Q374. Остатки K380 и Q374 находятся на расстоянии 9,8 Å. Остаток K380 также демонстрирует взаимодействие типа 3 с шарнирными остатками между G330 и G335.Верхняя правая панель показывает, что F340 демонстрирует перенос типа 3 на альфа-спираль между остатками P346-S350. Нижняя левая и средняя панели на рисунке 4 показывают, что и G329, и V362 связаны со спиралью между h472-K380 и A376, остаток в этой спирали демонстрирует перенос типа 3 в шарнирные области белка.
Рисунок 4.Передача информации от остатка, указанного на каждой панели, ко всем остальным остаткам. Только пары с дальним взаимодействием. то есть Тип 3.
Рисунок 5.Мгновенная передача информации, полученная из уравнения. 6 между парами остатков сети как функция времени задержки. Скорость передачи рассчитывается согласно формуле. 7 указаны на рисунках.
Рисунок 6.Мгновенная передача информации между парами остатков сети F340-A376 и K380-F340 демонстрирует двойные пики. Скорость передачи указана для каждого пика.
Все шесть панелей рисунка 4 показывают, что сетевые остатки взаимодействуют с N- и C-концами белка.С-конец, который был в центре внимания более ранней работы 19 , состоит из витка спирали и двух бета-цепей. Самое сильное взаимодействие С-конца — с остатком V362. Расстояние между центроидом C-терминала и V362 составляет 24 Å, средняя скорость передачи информации от центроида C-терминала и V362 составляет около 1,3 бита, а скорость передачи информации составляет 6,8 ГБ / с.
Передача информации по вторичным структурам
На рисунке 7 левая панель показывает передачу информации от остатка A376, который является центральным остатком главной спирали, к соседним остаткам вдоль спиральной структуры.Совокупная передача значительна, когда примерно такое же количество информации передается без распада, когда человек движется по спирали. Правая панель рисунка 7 показывает, что скорости переноса по спирали высоки независимо от расстояния между парами остатков вдоль спирали.
Рисунок 7.Передача информации по спирали. Левая панель показывает передачу информации между остатком 376 и его соседями по первичной цепи. На правой панели показана мгновенная передача информации как функция времени задержки между ближайшими соседями (A376-I377) и неблизкими соседями (A376-N381) вдоль вторичной структуры.
Причинно-следственная связь
Объем информации, идущей от остатка i к j , может отличаться от информации, идущей от j к i . Эта особенность называется причинностью и подразумевается в теории Шрайбера 1 . Направленность может быть определена либо по мгновенной передаче информации, где t i → j ( τ ) ψ ≠ t j → i ( τ ), либо по совокупной передаче информации, T i → j ≠ T j → i .Типичные графики t i → j ( τ ) между парами остатков сети показаны на рисунке 8.
Рисунок 8.Направленность информационного потока. Значения ординат представляют мгновенную передачу информации.
Согласно Rios et al, 20 , шарнирная область между R318-G324 и альфа-спиралью между h472-K380 подвергается наибольшей деформации при связывании. Наши результаты показывают, что именно эти области, подвергающиеся наибольшей деформации, демонстрируют наибольшее сцепление с остальными областями белка посредством переноса типа 1, 2 и 3 20 .
Четыре сильных минимума, показанные на рисунке 9, соответствуют минимальным остаткам передачи информации, которые лежат приблизительно вдоль прямой линии, отделяющей амино- и карбоксильные хвосты от остальной части белка. Все остатки пути лежат на той части, которая не содержит двух хвостов. Любой обмен информацией, который затрагивает хвосты белка и остальное, происходит через контакты типа 3.
Рис. 9.Совокупный перенос информации от остатков и , индексированных по оси абсцисс, к остальной части белка.
Рисунок 10.Остатки минимальной передачи информации, выделенные желтым цветом, отделяют хвост белка от остального.
Обсуждение
Эксперименты с мутациями Chi et al. Показали отсутствие связи между остатками с дальнодействующими корреляциями, включая пару h472-K380. Напротив, Локлесс и Ранганатан заметили, что эти два сайта статистически связаны. Kong and Karplus 18 определили связывание между удаленными остатками в белках домена PDZ и показали, что это соединение было импринтировано в структуру во время эволюции.В этой статье мы количественно оценили дальнодействующую связь с точки зрения передачи информации и показали, что сильная связь присутствует между пространственно удаленными остатками домена PDZ. На вопрос о том, является ли эта дальнодействующая связь основным фактором коэволюции, нельзя ответить с помощью передачи информации, но между сетевыми остатками 1BE9 присутствует определенная и сильная дальнодействующая связь. Существует несколько исследований концепции однодоменной аллостерии, которые доказали, что белки домена PDZ соединяют сигналы внутри системы и проявляют аллостерическое поведение 5a, 19, 21 .Здесь мы используем подход GNM и обнаруживаем особенности передачи аллостерической информации в 1BE9. В экспериментальном исследовании было подтверждено, что удаление третьей спирали, расположенной в отдаленном месте от связывающего кармана между остатками h472-K380 в 1BE9, влияет на динамику системы и, таким образом, снижает аффинность связывания [23]. Возможный аллостерический путь конструируется анализом сканирования реакции на возмущение 19 , а остатки, участвующие в этом пути, обнаруживаются нашим методом.Остатки, указанные в ссылке 19 , которые участвуют в передаче информации, представляют собой I314, I327, I338, A347, L353, V362, L367, h472, K380, V386 и E396. Пики на фиг.9 соответствуют значимым остаткам, передающим информацию, перечисленным в предыдущих исследованиях [2, 20, 22-24]. Направление передачи можно определить, построив попарную мгновенную передачу информации от i к j , t i → j ( τ ) и от j к i , t j → i ( τ ).Направленность, причинно-следственная связь для нескольких пар остатков показана на рис. 8, который показывает, что информация, идущая от i к j , может отличаться от передачи от j к i. Определение управляемой драйвером взаимосвязи между парой остатков является решающим шагом с точки зрения дизайна лекарственного средства, и графики направленности на рисунке 8 помогают выявить основной механизм процесса передачи информации.
Материалы и методы
Определение коротких и дальнодействующих взаимодействий
Два остатка пространственно близки, если они лежат в пределах первой координационной сферы друг друга, что указывает на прямой контакт.Радиус первой координационной сферы находится в пределах 7,0-7,4 Å 17 . Вторая координационная сфера имеет вдвое больший объем, чем первая, с радиусами в диапазоне 8,8–9,3. Парные контакты, которые находятся вне первого, но во втором координационном объеме, действительно взаимодействуют и находятся относительно близко в пространстве, но не так близко вдоль основной цепи, поэтому мы классифицировали их как контакты типа 2. Все пары остатков на расстоянии, превышающем радиус второй координационной сферы, можно смело считать пространственно удаленными.Связь между парами остатков, лежащих за пределами их второго координационного объема, классифицируется в этой статье как взаимодействия типа 3.
Передача информации от одного остатка к другому
Мы рассматриваем два процесса X и Y, идентифицируемые траекториями колебаний, ΔR i ( t ) и ΔR j ( t ) при время t , остатков i и j , соответственно. Мы идентифицируем передачу информации от остатка i к остатку j как степень неопределенности, уменьшенную в будущих значениях Y, зная текущие значения X и Y.Эта концепция была введена Шрайбером 1 , где он использовал термин «перенос энтропии» от i к j , t i → j , определяемый формулой
Здесь S ( ΔR j ( t + τ ) | Δ R j ( t )) — условная энтропия остатка j в момент времени t + τ даны значения ΔR j ( t ) в момент времени t . S (Δ R j ( t + τ ) | Δ R i ( t ), Δ R j ( t )) — условная энтропия остаток j в момент времени t + τ при значениях ΔR i ( t ) и Δ R j ( t ) в момент времени t . Разница показывает количество уменьшенной энтропии на траектории j из-за знания текущих значений i .С точки зрения энтропии Шеннона (Ур. 4 читается как:
Здесь p (Δ R i (0), Δ R j (0), Δ R j ( τ )) — совместная вероятность колебаний i и j в нулевой момент времени и флуктуация j во время τ , с аналогичными определениями оставшихся вероятностей в уравнении 5. Совместные вероятности могут быть получены либо путем обширного молекулярно-динамического моделирования, либо с использованием динамическая модель гауссовой сети.Здесь мы используем последнюю теорию, которая изложена ниже.
Гауссова сетевая модель передачи информации
Подстановка из уравнения. 3 в уравнение. 5 приводит к следующему окончательному выражению для переноса энтропии
Суммарная передача информации
Передача информации, заданной уравнением. 6 — информация, передаваемая мгновенно в момент времени τ в результате эффекта, наложенного в нулевой момент времени. Модель содержит характерное время τ 0 .В более ранней работе 23 было показано, что динамика свернутых белков может быть выражена в терминах универсального характеристического времени τ 0 , которое оценивается примерно в 5-6 пс. Принимая значение τ 0 = 5 пс , значения передачи информации могут быть вычислены по формуле. 6 на каждые τ . Некоторые кривые мгновенной передачи информации, полученные таким образом, показаны на рис. 5 и 6.
Совокупная передача информации получается из мгновенной передачи в соответствии с
Расчет скорости передачи
Пиковые значения, показанные на рисунке 5, соответствуют временам, когда передается большая часть информации.В качестве приближения первого порядка мы предполагаем, что вся совокупная информация передается в пиковое время. Затем скорость передачи становится совокупной передачей информации, деленной на пиковое значение. Таким образом получены все скорости передачи, указанные в документе.
Максимальный калибр
Максимальный калибр (Максимальный калибр) предсказывает вероятности траекторий путем максимизации энтропии траектории по всем возможным траекториям с учетом определенных динамических ограничений.Траектория определяется как дискретная временная последовательность ( t 0 t 1 t 2 … t T ). длиной Т + 1 . Мы предполагаем, что система содержит N частиц, и каждая частица может находиться в M состояниях. Частица может быть остатком белка, и ее траектория может быть представлена как траектория ее альфа-углерода. В любой момент времени система будет находиться в состоянии из M N возможных состояний.Во время траектории длиной T, M TN сообщает, что будет доступно системе. В момент времени t k состояние системы обозначается как i t k или просто как i k . Состояния, посещаемые во время траектории, обозначаются как ( i 0 i 1 i 2 … i T ). Набор всех траекторий показан как Γ { i 0 i 1 i 2 … i T }.Вероятность траектории равна p ( i 0 i 1 i 2 … i T ) = p Γ . Энтропия пути определяется как. Суммирование ведется по всем возможным состояниям M TN . Принцип Max Cal максимизирует следующую функцию, энтропию, при определенных ограничениях:
Здесь q Γ — эталонное распределение для задачи.Распределение, полученное в результате изменения этого уравнения, равно.
Особый интерес представляет ограничение на попарную статистику, где функционал F (Γ) теперь определяется как где, δ i k, m — дельта Кронекера, которая равна единице, если состояние i k является состоянием m th и нулем в противном случае. Ge et al., 4 показали, что ограничение задачи попарной статистикой приводит к марковскому процессу, в котором распределение вероятностей пути получается как
Одиночный фотон несет 10 бит информации
Одиночный фотон идеально подходит для передачи информации в цифровой форме, так что каждый фотон кодирует 0 или 1.В этом случае легко представить, что это все данные, которые может содержать один фотон. Не так! Теоретически нет ограничений на количество информации, которую может кодировать один фотон.
И тут возникает интересный вопрос. Сколько информации физики могут на практике упаковать в один фотон? Что позволяют современные технологии?
Сегодня мы получили ответ благодаря работе Тристана Тентрупа и его друзей из Университета Твенте в Нидерландах. Они впервые упаковали более 10 бит в один фотон.
Теоретически их метод прост. Подход состоит в том, чтобы связать одиночный фотон с уникальным членом алфавита. Когда алфавит состоит из множества членов, фотон несет в себе много информации.
Нетрудно понять почему. Когда алфавит содержит только два элемента, например двоичный код, каждый член кодирует один бит информации. Это количество информации, необходимое для описания каждого символа в алфавите.
Но чем больше алфавит, тем больше информации требуется для уникального описания каждого члена.Таким образом, каждый член может закодировать такой объем данных.
Фактический объем информации заносится в журнал по основанию 2 числа членов. Например, в 10-символьном алфавите, таком как каждое десятичное число, каждый символ кодирует около 3,3 бита. В алфавите из 26 символов, таком как английский алфавит, каждый символ кодирует 4,7 бита. И так далее.
Tentrup и компания достигли своей цели, создав алфавит из 9 072 символа. В этом случае каждый символ кодирует более 13 бит информации.
Создать этот алфавит просто. Tentrup и co делают это, определяя сетку размером 112 x 81 пикселей, то есть 9 072 из них. Каждый пиксель представляет собой отдельный символ алфавита. Чтобы закодировать фотон одним из этих символов, все, что им нужно сделать, это направить фотон на эту часть сетки. Поэтому, когда конкретный пиксель регистрирует прибытие фотона, он регистрирует этот символ.
Сложнее всего сделать это точно с одиночными фотонами. Один из способов управлять фотонами — использовать наклонное зеркало, которое просто отражает их в определенном контролируемом направлении.Но Тентруп и компания используют более гибкое устройство, называемое пространственным модулятором света, которое изменяет волновой фронт фотона по мере его отражения. При этом используются дифракционные эффекты, чтобы направить фотон к цели.
Обнаружение одиночных фотонов — тоже потенциальная банановая кожура, поскольку любой рассеянный свет может подавить сигнал. У Tentrup и co есть удобный способ предотвратить это. Вместо того, чтобы создавать одиночные фотоны, они создают их парами и кодируют только один из них с помощью этого механизма управления.Они смотрят на другой как на предупреждение о том, что первый вот-вот достигнет пикселя.
Это позволяет им включать пиксель в тот самый момент, когда прибывает первый фотон. А это резко снижает вероятность того, что сигнал будет подавлен паразитным фотоном. Тем не менее, шум по-прежнему оказывает влияние, и фотоны в конечном итоге несут немного меньше информации, чем теоретический максимум.
Тем не менее, результаты впечатляют. «Мы демонстрируем высокоразмерное кодирование одиночных фотонов, достигающее 10.5 бит на фотон », — говорят Тентруп и его компания. Это значительно улучшает предыдущий рекорд, всего семь бит на фотон, и сразу предлагает способы кодирования еще большего количества за счет увеличения размера сетки.
Работа имеет немедленные приложения. Физики уже используют информацию, закодированную в одиночных фотонах, для таких приложений, как распределение ключей в квантовой криптографии.
Эта информация в настоящее время закодирована в отдельных фотонах с использованием двоичного кода из нулей и единиц. Но новый метод позволяет сразу же переносить каждый фотон на порядок больше.«Очень многообещающим направлением для этой работы будет реализация кодирования с большим пространственным алфавитом для квантового распределения ключей», — говорят Тентруп и его коллеги.
Так что нам не придется долго ждать, чтобы увидеть эту рекордную технологию в действии.
Ссылка: http://arxiv.org/abs/1609.04200: Передача более 10 бит одним фотоном
Сколько бит? | Сетевой мир
Как обсуждалось в прошлый раз, одним из основных требований к кодовому набору, который будет полезен в глобальной сети, является то, что отправитель и получатель должны согласовывать значение каждой комбинации единиц и нулей.Например, 2-битный кодовый набор может иметь только четыре дискретных значения: по одному для каждой комбинации 00, 01, 10 и 11. Перейдите к трем битам, и вы получите восемь кодов; четыре бита дают 16, а пять разрядов дают 32.
Первым широко принятым кодовым набором был код Бодо, разработанный более 100 лет назад. При наличии пяти битов и 32 кодовых комбинаций было достаточно доступных битовых комбинаций, чтобы иметь уникальный код для каждой из 26 букв алфавита.
Однако 26 букв плюс 10 цифр от 0 до 9 превышают 32 комбинации.Вместо перехода к дополнительному биту используются два уникальных кода, чтобы сигнализировать о сдвиге между «буквенной» интерпретацией кода и интерпретацией «цифр». Поскольку и «буквы», и «цифры» обычно объединяются в группы, это отлично подходит для простых приложений.
Однако есть одна большая проблема. Имея всего пять битов, невозможно различить прописные буквы и строчные буквы. Переход к 6-битному коду с 64 комбинациями по-прежнему будет минимальным, потому что потребуется 62 комбинации букв и цифр, а для знаков препинания останется только два кода.
Следовательно, минимальный кодовый набор должен состоять из семи битов, и это именно то, что использует Американский стандартный код для обмена информацией (ASCII). Этот код, который стал де-факто стандартом для передачи данных, имеет 128 комбинаций с уникальным кодом для каждой буквы как в верхнем, так и в нижнем регистре. На самом деле двоичный код для каждой прописной и строчной буквы одинаков, за исключением одного бита, который иногда называют битом «сдвига».
Подробнее по этой теме
SOS @morse.codeИнформационный бюллетень Network World Convergence, 03.03.04
IETF обдумывает интернационализированную электронную почтуИнформационный бюллетень Network World ISP, 24.11.03
Отраслевая группа по продвижению интернационализированных доменных именNetwork World ISP News Report Newsletter, 12 / 01/03 Генератор изображений
ASCIINetwork World
Вопросы и ответы: Данн обсуждает возвращение NortelNetwork World, 03/08/04
Присоединяйтесь к сообществам Network World на Facebook и LinkedIn, чтобы комментировать самые важные темы.Copyright © 2004 IDG Communications, Inc.
Биты информации о возрасте, дне рождения и дате рождения
В предыдущем посте было рассмотрено, сколько информации содержится в почтовых индексах. В этом посте будет рассмотрено, сколько информации содержится в чьем-либо возрасте, дне рождения и дате рождения. Объединение почтового индекса с датой рождения продемонстрирует правдоподобность известного результата Латании Суини [1], согласно которому 87% населения США можно идентифицировать по почтовому индексу, полу и дате рождения.
День рождения
День рождения самый простой. Распределение дней рождения немного отличается, но для наших целей это не имеет значения. Количество информации в день рождения с точностью до трех значащих цифр составляет 8,51 бит, независимо от того, включаете ли вы високосные дни или исключаете их. Вы можете предположить, что все дни рождения одинаковы, или использовать реальные демографические данные. Разница только в третьем десятичном разряде.
Возраст
Я буду использовать следующие данные о возрастном распределении, найденные в Википедии.
| ----------- + ------------ | | Возрастной диапазон | Население | | ----------- + ------------ | | 0–4 | 20201362 | | 5– 9 | 20348657 | | 10–14 | 20677194 | | 15–19 | 22040343 | | 20–24 | 21585999 | | 25–29 | 21101849 | | 30–34 | 19962099 | | 35–39 | 20179642 | | 40–44 | 20890964 | | 45–49 | 22708591 | | 50–54 | 22298125 | | 55–59 | 19664805 | | 60–64 | 16817924 | | 65–69 | 12435263 | | 70–74 | 9278166 | | 75–79 | 7317795 | | 80–84 | 5743327 | | 85+ | 5493433 | | ----------- + ------------ |
Чтобы получить данные для каждого конкретного возраста, я предполагаю, что возрасты равномерно распределены в каждой группе, и я предполагаю, что группа 85+ состоит из людей в возрасте от 85 до 92.[2]
При этих предположениях возраст составляет 6,4 бита информации. Это кажется правдоподобным: если бы все возрасты были равномерно распределены между 0 и 63, было бы ровно 6 бит информации, поскольку 2 6 = 64.
Дата рождения
Если предположить, что дни рождения равномерно распределены в пределах каждого возраста, тогда возраст и дата рождения не зависят. Информация, содержащаяся в дате рождения, будет суммой информации, содержащейся в дате рождения и возрасте, или 8.5 + 6,4 = 14,9 бит.
Почтовый индекс, пол и возраст
Предыдущий пост показал, что в почтовом индексе содержится 13,8 бит информации. Здесь примерно равное количество мужчин и женщин, поэтому секс добавляет 1 бит. Таким образом, почтовый индекс, пол и дата рождения дают в сумме 29,7 бит. Поскольку население США составляет от 2 28 до 2 29 человек, вполне вероятно, что у нас будет достаточно информации, чтобы идентифицировать всех.
Мы сделали ряд упрощающих предположений. Мы немного поспешили с данными о возрасте и несколько раз предполагали независимость.Мы знаем, что пол и возраст не независимы: у мальчиков больше детей, но женщины живут дольше. Тем не менее, Латаня Суини эмпирически обнаружила, что 87% американцев можно идентифицировать, используя почтовый индекс, пол и дату рождения [1].