Энтропия. Теория информации
| Категория реферата: Рефераты по физике
| Теги реферата: урок изложение, конспект урока 3
| Добавил(а) на сайт: Iustin.
Предыдущая страница реферата | 3 4 5 6 7 8 9 10 11 12 13 | Следующая страница реферата
рис. 3
Тогда на уровне N = 1 из этого алфавита можно составить N1 «слов».
Если каждое слово состоит из K1 букв, то из N0 букв можно составить число
слов, равное:
N1 = N0K1 (3.14)
Соответственно, на уровне п = 2 из N1 «слов» можно составить количество «фраз», равное:
N2=N1K2=N0K1K2 (3.15)
где Кг - число входящих в каждую «фразу» «слов»
Для упрощения математических выражений мы уже приняли одно допущение, сказав, что все слова содержат одинаковое количество букв (К1), а все фразы
содержат одинаковое количество слов (К2). Очевидно, что в реальных системах
(например, в письменных текстах ) эти условия не соблюдаются. Однако для
выполнения общих свойств нашей информационно -энтропийной модели подобные
упрощения вполне допустимы, поэтому мы введем еще одно допущение:
K1 = К2 = К (3.16)
Подставив (3.16) в (3.15), мы получим :
N2=N0K2 (3.17)
Проводя аналогичные операции для любой (п-ой) ступени при условии:
K1 = K2 = … = Кп = К, получим:
Nn = N0K2 (3.18)
Рассмотрим пример, иллюстрирующий увеличение разнообразия (числа различимых элементов) с переходом на более высокие уровни изображенной на рис . 3.3 спирали в соответствии с формулами (3.14) + (3.18).
Если алфавит (уровень п = 0) содержит 30 букв (N0 = 30), а каждое
«слово» искусственного текста состоит из 6 букв (К = 6), то общее число
таких «слов» составит:
N1 = N0K1 = 306 = 729 ·106
Среди указанного количества «слов» большинство составят бессмысленные или даже непроизносимые «слова» (из 6-ти гласных, 6-ти согласных и т.п.).
Но если хотя бы 0,01% от общего числа буквенных комбинаций составят осмысленные слова, общий лексикон составит 72 900 слов.
Еще более прогрессивно возрастает число комбинаций с переходами на более высокие уровни n = 2, п = 3 и т.д.
Для определения возрастания информационной емкости по мере перехода на более высокие уровни изображенной на информационно-энтропийной спирали напомним , что максимальное количество структурной информации A/s' накапливается при переходе от Нr' = Нmax к Нr'' = 0, т.е. равно:
( IS = Нr' – Нr'' = Hmax
Величина максимальной энтропии для п - ой ступени определяется как:
Нпmax = log Nn = Кn log N0 (3.19)
Сопоставляя величину Нпгнх с величиной энтропии ступени n = О
H0max = log N0 (3.20)
убеждаемся, что в результате перехода с уровня n = 0 на уровень n , максимальная энтропия возросла в Кn раз :
Рекомендуем скачать другие рефераты по теме: реферат сила, культурология как наука.
Категории:
Предыдущая страница реферата | 3 4 5 6 7 8 9 10 11 12 13 | Следующая страница реферата