Русская Википедия:Энтропия языка
Материал из Онлайн справочника
Шаблон:Значения Энтропия языка — статистическая функция текста на определённом языке либо самого языка, определяющая количество информации на единицу текста.
С математической точки зрения энтропия языка определяется как
- <math>r = H \left( M \right) / N</math>
где <math>M</math> — сообщение, <math>H \left( M \right)</math> — его энтропия, <math>N</math> — длина сообщения.
Согласно Клоду Шеннону и Шаблон:Не переведено 2, для английского языка эта величина составляет от 1,3 до 2,3 бита на букву.
Литература