База ответов ИНТУИТ

Основы криптографии

<<- Назад к вопросам

Известно, что для некоторого источника сообщений количество информации по Хартли, приходящееся на 1 символ, равно 7 битам Чему равно количество символов в алфавите источника сообщений?

(Отметьте один правильный вариант ответа.)

Варианты ответа
12
3
2
32
128(Верный ответ)
6
64
256
Похожие вопросы
Известно, что для некоторого источника сообщений количество информации по Хартли, приходящееся на 1 символ, равно 6 битам Чему равно количество символов в алфавите источника сообщений?
Известно, что для некоторого источника сообщений количество информации по Хартли, приходящееся на 1 символ, равно 5 битам Чему равно количество символов в алфавите источника сообщений?
Источник генерирует 32 различных символа Чему равно количество информации по Хартли, приходящееся на 1 символ?
Некоторое устройство передачи данных может генерировать 256 различных символа Чему равно количество информации по Хартли, приходящееся на сообщение из 10 символов?
Два источника генерируют по два символа Первый источник генерирует символы с равными вероятностями, второй – с различными Для какого источника количество информации по Шеннону, приходящееся на один символ, будет больше?
Рассмотрим источник информации, формирующий сообщение из конечного множества возможных символов (дискретный источник информации) Чему равно минимальное количество символов, образующих алфавит?
пусть известно, что некоторый источник сообщений может генерировать только два разных сообщения Вероятность появления первого сообщения р(m1)=0,5, и вероятность второго сообщения тоже р(m2)=0,5 Определите энтропию Н источника сообщений
пусть известно, что некоторый источник сообщений может генерировать только два разных сообщения Вероятность появления первого сообщения р(m1)=0,9, а вероятность второго сообщения р(m2)= 0,1 Определите энтропию Н источника сообщений
пусть известно, что некоторый источник сообщений может генерировать только два разных сообщения Вероятность появления первого сообщения р(m1)=0, а вероятность второго сообщения р(m2)=1 Определите энтропию Н источника сообщений
Для сжатия данных используется код Хаффмана Имеется таблица, в которой сопоставлены все возможные символы источника и соответствующие им кодовые слова кода Хаффмана
СимволS1S2S3S4S5
Код10100010100011
Какой из символов источника информации имеет самую большую вероятность возникновения?