Энтропия. Теория информации
| Категория реферата: Рефераты по физике
| Теги реферата: урок изложение, конспект урока 3
| Добавил(а) на сайт: Iustin.
Предыдущая страница реферата | 1 2 3 4 5 6 7 8 9 10 11 | Следующая страница реферата
Согласно Больцману, величина H определяется так :
|H = ln |N ! |(1.5) |
| |N1 ! N2 ! … Nk !| |
где N - общее число молекул газа, находящегося в рассматриваемом объеме.
Ni - число молекул, движущихся со скоростями, соответствующими i- ой ячейке условного пространства скоростей.
При этом 1= 1,2, ... К
( 1.6)
Условие (1.6) означает, что все N молекул распределены по
соответствующим ячейкам пространства скоростей, в количествах N1, N2, …
Nk,, учитываемых уравнением (1.5)
Согласно (1.5) перестановка молекул, находящихся внутри каждой из ячеек, не влияет на величину Н . Отсюда следует, что подсчитанная по формуле (1.5) величина Р соответствует числу возможных микросостояний системы (в частности газа), при котором макросостояние системы остается неизменным.
1в. М.Планк преобразовал формулу Больцмана (1.5), использовав для
этого математическую формулу Стирлинга, справедливую для больших значений N
:
|ln(N !) = Nln N – N | (1.7) |
В результате подстановки (1.7) в (1.5) получается соотношение :
|H = Nln N – N –(( Ni ln Ni – ( Ni) |
| |i| |i| |
С учетом условия ( Ni = N, выражение для Н приводится к виду:
|H = Nln N –( Ni ln Ni |(1.8) |
| |i| | |
Далее Планк ввел в рассмотрение вероятности различных состояний молекул, определив их как :
|pi = |Ni |(1.9) |
| |N | |
При этом второе слагаемое в правой части (1.8) можно представить как:
|( Ni ln Ni =( pi N ( ln pi + ln N ) = N ( pi ln pi + N ln N (i |(1.10) |
|pi | |
|i | |i| |i| |i| | |
С учетом известного из теории вероятностей условия нормировки ( pi = 1, подстановка (1.10) в (1.8) приводит выражение для Н к окончательному виду :
|H = –( pi ln pi |(1.11) |
| |i| | |
Проделанные Планком с помощью формулы Стирлинга чисто формальные
преобразования не только позволили получить новое выражение для исчисления
энтропии, но помогли более глубоко осознать смысл вычисляемой величины Н .
Выражение (1.11) позволяет сделать два важных вывода :
1. Введение в формулу энтропии значений вероятностей расширило рамки применимости этой формулы далеко за пределы исследуемых термодинамикой молекулярных систем. Символ pi может обозначать вероятность не только тех или иных состояний молекул, но и различных состояний элементов любых систем (в частности, вероятностей появления букв текста или других символов передаваемых сообщений).
2. Выражение (1.11) соответствует полной энтропии системы. Поделив подсчитанную по формуле (1.11) величину на Ni , можно определить усредненную величину энтропии Н , относящуюся к одному элементу рассматриваемой системы, т.е.
| | | |(1.8) |
| H = –( pi ln pi | |
| |i| | |
Именно в таком виде использовал функцию энтропии Шеннон для определения среднего значения энтропии одной буквы текста (опуская при этом знак усреднения).
1г. Согласно Шеннону, средняя энтропия одной буквы текста вычисляется по
формуле (1.2) путем суммирования слагаемых pi log pi , в которых символом
pi , обозначены вероятности соответствующих букв. Таким образом :
| |i=| |(1.13) |
| |я | | |
|H = –( pi ln pi = - (pа log pа + pб log pб +…+ pя log pя) | |
| |i=| | |
| |а | | |
Для удобства исчисления энтропии сообщений, передаваемых двоичным кодом,
Шеннон заменил используемый термодинамикой натуральный логарифм ln двоичным
логарифмом log2.
МЕТОДЫ ИСЧИСЛЕНИЯ КОЛИЧЕСТВА СТРУКТУРНОЙ ИНФОРМАЦИИ И ИНФОРМАЦИОННОЙ
ЭНТРОПИИ ТЕКСТОВ
До опубликования созданной К.Шенноном теории Р.Хартли предложил
определять количество информации по формуле :
|I = log2 N |(2.1) |
где I - количество информации ;
Рекомендуем скачать другие рефераты по теме: реферат сила, культурология как наука.
Категории:
Предыдущая страница реферата | 1 2 3 4 5 6 7 8 9 10 11 | Следующая страница реферата