Что есть хаос?
| Категория реферата: Рефераты по математике
| Теги реферата: мировая экономика, отчет по производственной практике
| Добавил(а) на сайт: Эфиров.
1 2 3 | Следующая страница реферата
Что есть хаос?
Марк Алескер
Энтропия двоичного числа.
Со времен Клаузиуса энтропия стала научной (объективной) категорией, потому что ее стало возможно измерять. То же самое можно сказать и про информацию, но это произошло значительно позже, и связано с именем Шеннона.
Чаще всего (по Больцману) полагают, что энтропия есть мера хаоса, а информация (по Шеннону) — мера порядка. Но в таком случае не лучше было бы сразу задаться вопросом: что есть хаос, и что есть порядок?, а не изводить так много чернил на обсуждение понятий энтропии и информации — всего лишь мер для хаоса и порядка!
Обычно в термодинамике, возможно, еще до Больцмана, за меру беспорядка некоторой системы принимали (по-видимому, и до сих пор так считается) число способов, которыми можно осуществить внутренние перестройки в системе так, чтобы наблюдатель не заметил изменений макросостояния системы. Поясним это на простейшем примере (как это делается почти во всех учебниках и пр.).
Пусть есть сосуд, разделенный на две части проницаемой стенкой. В сосуде могут свободно перемещаться из одной половины в другую две частицы, обладающие одинаковой энергией (например, молекулы газа). Макросостоянием называют такую ситуацию, когда измеряются одни и те же параметры объекта, например давление частиц на стенки в каждой половине сосуда. Это давление в нашем случае зависит только от количества частиц. Тогда может существовать три разных макросостояния:
обе частицы находятся в правой половине сосуда,
обе частицы в левой половине,
одна частица в правой половине, другая — в левой.
Каждое из первых двух макросостояний может реализоваться лишь одним способом. А третье макросостояние двумя: или первая частица находится в правой половине сосуда, а вторая в левой, или наоборот.
То есть вероятность третьего макросостояния вдвое выше, чем первого или второго. Каждый отдельный способ, представляющий данное макросостояние, называют микросостоянием. А количество всех микросостояний для некоторого макросостояния называют статистическим весом данного макросостояния.
Ясно, что на опыте мы будем обнаруживать преимущественно наиболее вероятные макросостояния, то есть такие, статистический вес которых выше. При этом считается, что чем выше статистический вес наблюдаемого макросостояния, тем хаос в системе больше.
Казалось бы, все прекрасно. Однако можно показать, что, пользуясь вышеприведенными правилами, мы не всегда будем наблюдать наибольший хаос тогда, когда максимален статистический вес макросостояния. И если это действительно так, то нам придется искать иной критерий хаоса.
Начнем с того, что более наглядно представлять себе все ситуации, связанные с состоянием объектов, можно, если использовать отображение элементов некоторого объекта на поле чисел. Использовать числа и цифры всегда удобней, так как для различных подсчетов может быть привлечена математика.
Действительно, любой объект, состоящий из n элементов, каждый из которых может находиться в одном из m состояний, может быть приведен во взаимно однозначное соответствие с n–разрядным числом в m–ичной системе счисления, если некоторому элементу объекта поставить в соответствие определенный разряд числа, а некоторому состоянию — определенную цифру. Тогда конкретному состоянию объекта будет соответствовать некоторое число, и мы можем анализировать просто числа. Для упрощения вычислений в дальнейшем будем полагать число состояний равным m=2, то есть рассматриваемые нами объекты можно будет отображать на двоичные числа.
Итак, пусть имеется двоичное n–разрядное число. Цифры "0" и "1" этого числа могут быть расположены в разрядах в определенном порядке или беспорядочно. Как оценить степень беспорядоченности расположения цифр в числе?
Рассмотрим пример. Пусть имеется объект, элементы которого можно отобразить на двоичные четырехразрядные числа. Пусть макросостояние А определяется следующим образом: "два разряда находятся в состоянии 1, два других разряда — в состоянии 0". Пусть макросостояние В определяется так: "один разряд находится в состоянии 1, три других разряда — в состоянии 0".
Если теперь согласно нашим предыдущим представлениям вычислить статистический вес макросостояния А, то будет видно, что оно обладает большим весом, чем макросостояние В, так как для А имеется шесть комбинаций: 0011, 0101, 0110, 1001, 1010 и 1100, а для макросостояния В всего четыре: 0001, 0010, 01000 и 1000.
Обратим внимание на то, что в любом микросостоянии макросостояния А согласно традиционному критерию хаоса можно считать цифры 1 и 0 расположенными наиболее беспорядочно по сравнению с любым иным двоичным четырехразрядным числом, потому что веса для макросостояний, представленных другими числами, меньше шести.
Вес макросостояний, определяемых двоичными n-разрядными числами, равен числу сочетаний из n элементов по количеству нулей (или единиц), имеющемуся в этом числе. Веса для макросостояний, определяемых произвольными числами (n частиц и m состояний), можно подсчитывать по одной общей формуле, которая довольно громоздка, и поэтому здесь нет места ее приводить.
В этом примере трудно обнаружить нечто, противоречащее нашим наглядным представлениям о хаосе и порядке. Действительно, мы подсчитали какие-то числа (веса), и они нам говорят, что цифры в числе 0011 расположены более хаотично, чем в числе 0001. Возможно… Но возьмем число с большим количеством разрядов. Неужели и в нем расположение "подряд", скажем, пятисот единиц и пятисот нулей представляет собой больший беспорядок, чем некоторая комбинация нулей и единиц, расположенных в "настоящем" беспорядке? (Напомним, что комбинация с одинаковым количеством нулей и единиц обладает самым большим статистическим весом, если не принимать в расчет макросостояний более высоких уровней).
Ответ на последний вопрос, несомненно, будет отрицательным, если нам удастся сформулировать приемлемый критерий хаоса.
Итак, приступим.
При поиске этого критерия будем руководствоваться следующим правилом: хаоса больше всего там, где больше всего информации. (Не зря же энтропия и информация вычисляются по одинаковым формулам!).
Действительно, из некоторой таблицы двоичных чисел, состоящей, например, из нулей и единиц, можно извлечь информации больше, чем из таблицы того же объема, но содержащей в себе только нули. А ведь наличие только нулей — это порядок, а "разбросанные" по таблице нули и единицы — хаос. И классическое определение понятия "информация" говорит о том же: информация — это устраненная неопределенность ожидания того или иного символа (кода, сообщения и т.п.). Ее мерой служит энтропия источника. Чем больше энтропия источника (хаос), тем больше информации можно получить от него. Если, например, ожидание появления некоторой кодовой последовательности достоверно, то количество полученной информации равно нулю. Подобный пример отсутствия передачи информации от источника, когда последний вычисляет значения очередного разряда числа “пи”, приведен в работе К. Шеннона "Математическая теория связи". (В кн.: Работы по теории информации и кибернетике. М., 1963, с.273).
Кроме отмеченного эвристического правила примем во внимание следующее соображение.
Рекомендуем скачать другие рефераты по теме: реферат развитие, allbest.
Категории:
1 2 3 | Следующая страница реферата