Русская Википедия:Энтропия языка

Материал из Онлайн справочника
Перейти к навигацииПерейти к поиску

Шаблон:Значения Энтропия языка — статистическая функция текста на определённом языке либо самого языка, определяющая количество информации на единицу текста.

С математической точки зрения энтропия языка определяется как

<math>r = H \left( M \right) / N</math>

где <math>M</math> — сообщение, <math>H \left( M \right)</math> — его энтропия, <math>N</math> — длина сообщения.

Согласно Клоду Шеннону и Шаблон:Не переведено 2, для английского языка эта величина составляет от 1,3 до 2,3 бита на букву.

Литература