Задать вопрос
22 апреля, 12:31

Понятие энтропии (в информатике) ...

+2
Ответы (1)
  1. 22 апреля, 14:34
    0
    Энтропия является мерой неопределенности опыта, в котором проявляются случайные события. Единица измерения неопределенности при двух возможных равновероятных исходах опыта называется бит. Величина энтропии с равновероятными исходами: Энтропия - мера неопределенности опыта, имеющего nравновероятных исходов:f (n) = log2n
Знаете ответ?
Сомневаетесь в ответе?
Найдите правильный ответ на вопрос ✅ «Понятие энтропии (в информатике) ... ...» по предмету 📘 Информатика, а если вы сомневаетесь в правильности ответов или ответ отсутствует, то попробуйте воспользоваться умным поиском на сайте и найти ответы на похожие вопросы.
Смотреть другие ответы
Похожие вопросы по информатике
Задание 1. Даны высказывания: А = Я выполнил домашнее задание по информатике. В = Я получил оценку "5". С = Я получил оценку "2". D = Я буду наказан.
Ответы (1)
Ребят помогите, учитель по информатике сказал, что есть какой-то сайт, на котором проходит всероссийский конкурс по информатике, а как называется не помню, знаю только что сайт зелёный и по моему паук есть
Ответы (1)
Известны оценки по информатике ученика Сидорова Васи. В начале списка перечислены все пятерки, затем все остальные оценки. Сколько Вася имеет по информатике оценок "5"?. Условный оператор не использовать. Использовать цикл Repeat
Ответы (1)
Что значит в информатике i малая и ещё формулы по первой четверти в информатике 7 класс автор семакин
Ответы (1)
В 10-м классе физико-математического лицея 30 учащихся. Учащиеся этого класса посещают математический, физический кружки и кружок по информатике, причем математический кружок посещают 14 человек, физический - 12, по информатике - 10.
Ответы (1)