Задать вопрос
26 января, 13:36

Какова энтропия источника информации, который генерирует пять символов, один из которых в два раза более вероятен, чем остальные

+2
Ответы (1)
  1. 26 января, 13:53
    0
    Цели и задачи курса

    Сформировать у студентов понятие об информации, о количестве информации, об информационной емкости ее хранителей, производительности источников и пропускной способности каналов передачи информации, ознакомить с основными приемами эффективного кодирования, кодирования с целью шифрования, обнаружения и исправления ошибок при передаче сообщений. Студент должен уметь оценивать требования к количеству передаваемой (обрабатываемой) информации, информационной возможности конкретных измерительных, вычислительных и передающих устройств с целью выбора оптимальных решений при разработке конкретных систем и алгоритмов обработки данных.

    Введение

    Понятие об информации. Различные определения информации. Содержание и практическое значение современной теории информации. Определение количества информации по Фишеру.

    Темы

    Определение количества информации по Шенону. Энтропия системы. Связь информационного и физического понятия энтропии. Свойства информации (энтропии). Условная энтропия и ее свойства.

    Энтропия непрерывного сигнала (дифференциальная энтропия).

    Источник информации и каналы связи. Их информационные характеристики. Кодирование информации. Количественные характеристики кодов, двоичные и двоично-десятичные коды.

    Теорема Шенона для канала без помех. Эффективные коды. Теорема Шенона для канала с помехами. Избыточность кода.

    Разновидности помехоустойчивых кодов. Понятие о кодовом расстоянии. Линейные коды, обнаруживающие и исправляющие ошибки. Циклические коды.

    Итеративные коды. Адаптивное кодирование. Оценка эффективности корректирующего кодирования. Понятие о методах криптографии.

    Заключение

    Энергетическая цена единицы информации. Сравнение информационной емкости различных носителей. Поэлементная и голографическая запись информации.
Знаете ответ?
Сомневаетесь в ответе?
Найдите правильный ответ на вопрос ✅ «Какова энтропия источника информации, который генерирует пять символов, один из которых в два раза более вероятен, чем остальные ...» по предмету 📘 Информатика, а если вы сомневаетесь в правильности ответов или ответ отсутствует, то попробуйте воспользоваться умным поиском на сайте и найти ответы на похожие вопросы.
Смотреть другие ответы
Похожие вопросы по информатике
1) Сколько символов в тексте, если 1) Сколько символов в тексте, если мощность алфавита-64 символа, а объем информации, содержащийся в нем-1,5 Кбайт. 2) Сообщение занимает 3 страницы по 25 строк. В каждой строке записано по 60 символов.
Ответы (1)
1) какой информационный процесс выполняет память? а) обработка информации б) хранение информации в) передача информации г) вывод информации 2) Файл-это?
Ответы (1)
Информоционные процессы Поиск информации Отбор информации Хранение информации Передача информации Кодирование информации Обработка информации Защита информации Ко всем 7 надо превести примеры не повторяясь дам 20 б
Ответы (1)
1. Сколько байт информации содержит сообщение объемом 2 Кбит 2. Сколько байт информации сдержит 16 бит 3. Сколько байт информации содержит 1 Кб 4. Сколько Кбит информации содержит сообщение объемом 2048 бит 5.
Ответы (1)
1. Сообщение занимает 2 страницы и содержит 1/16 Кбайт информации. На каждой странице 256 символов. Какова мощность использованного алфавита? 2. Два сообщения содержат одинаковое количество символов.
Ответы (1)