Энтропия. Теория информации
| Категория реферата: Рефераты по физике
| Теги реферата: урок изложение, конспект урока 3
| Добавил(а) на сайт: Iustin.
Предыдущая страница реферата | 3 4 5 6 7 8 9 10 11 12 13 | Следующая страница реферата
реальная энтропия Hr уменьшается на величину
|( IS = Hmax – Hr |(3.7) |
С точки зрения теории вероятностей начальный алфавит с заданным числом букв представляет собой полную группу событий.
Для полной группы событий при любом распределении вероятностей сумма
их всегда равна 1 , согласно известному из теории вероятности условию
нормировки:
|i =|pi = 1 |(3.6) |
|N | | |
|( | | |
|i =| | |
|1 | | |
Смысл условия нормировки заключается в том, что сумма вероятностей выпадения всех 6-ти граней игральной кости равна вероятности выпадения любой грани, т.е. :
Р1 + Р2 + … Р6 = 1/6 + 1/6 + … + 1/6 = 1
6 раз
В рассматриваемом нами процессе обучения, приводящем к дифференцировке значений вероятностей реакций Pi , составляющих полную группу N, условие (3.8) свидетельствует о том, что увеличение вероятностей каких -то реакций может происходить только за счет уменьшения всех остальных вероятностей (чтобы сумма была по-прежнему равна 1, см. рис. 1, случай б).
В предельном случае одна из N вероятностей может возрасти до 1, тогда все остальные вероятности станут равны 0 (рис. 1).
В случае текста предельному случаю дифференцировки соответствует вероятность одной буквы (например, «е»), равная 1. Вероятности всех остальных букв при этом равна нулю. Это значит, что текст вырождается в повторение одной буквы е е е е е ...
Этот случай соответствует жесткой детерминации (незатухающий строго периодический процесс).
Соответствующее жесткой детерминации распределение вероятностей, при котором некая вероятность Рк равна 1, а все остальные - равны 0, в общем виде запишется как
Рк=1 (3.9)
Р1 = Р2 = . . .= Рк-1 = Рк+1=. . .= 0 (3.10)
а)
Р1 Р2
Pn
б)
в)
Равномерное распределение вероятностей
Нr = Hmax
Дифференцировка вероятностей при соблюдении условия i=N
( pi = 1 i=1
Hmax > Hr > 0
Предельный случай дифференцировки вероятностей
Нr = 0
Рис. 1
При подстановке этих значений в функцию энтропии :
|Hr = |i =|pi log pi |(3.11) |
| |N | | |
| |( | | |
| |i =| | |
| |1 | | |
получаем :
Hr=0 (3.12)
Подставляя (3.9) в (3.4), получаем :
( IS = Hmax (3.13)
Все стадии перехода от состояния максимальной энтропии, описываемого условиями (3.4), (3.5), (3.6), к состоянию жесткой детерминации, которому соответствуют условия ( 3.9 ) + (3.13) можно представить в виде дуги, соединяющей исходное состояние Н с конечным состоянием К (рис. 2).
На рис.3 изображена расширяющаяяся иерархическая спираль, которая может служить моделью формирования иерархических упорядоченных структур.
Пусть нижний уровень этой спирали (п = 0) соответствует начальному алфавиту, состоящему из N0 различных элементов (букв, атомов, нуклеотидов и др.).
[pic]
Рекомендуем скачать другие рефераты по теме: реферат сила, культурология как наука.
Категории:
Предыдущая страница реферата | 3 4 5 6 7 8 9 10 11 12 13 | Следующая страница реферата